120 67 15MB
German Pages 683 [672] Year 2020
Systemaufstellungen in Wissenschaft und Praxis
Thomas Gehlert
System-Aufstellungen und ihre naturwissenschaftliche Begründung Grundlage für eine innovative Methode zur Entscheidungsfindung in der Unternehmensführung
Systemaufstellungen in Wissenschaft und Praxis Reihe herausgegeben von Georg Müller-Christ, Bremen, Deutschland
In dieser Schriftenreihe werden Beiträge veröffentlicht, die Systemaufstellungen entweder als neue Methode der qualitativen Sozialforschung oder als Instrument des komplexen Entscheidens in Organisationen erforschen und anwenden. Systemaufstellungen bieten in Wissenschaft und Praxis neue Herangehensweisen, um komplexe Systeme und Fragestellungen visualisieren und verstehen zu können. Prof. Dr. Georg Müller-Christ bildet Doktorand/innen und Praktiker/innen in der Anwendung dieser Methode an der Universität Bremen aus und ermuntert sie im Fachgebiet Nachhaltiges Management, Systemaufstellungen als Instrument der qualitativen Datenerhebung in ihren Forschungsarbeiten anzuwenden. In dieser Schriftenreihe werden diese Dissertationen und weitere Forschungsbände veröffentlicht.
Weitere Bände in der Reihe http://www.springer.com/series/16194
Thomas Gehlert
System-Aufstellungen und ihre naturwissenschaftliche Begründung Grundlage für eine innovative Methode zur Entscheidungsfindung in der Unternehmensführung Mit Geleitworten von Prof. Dr. Ernst Peter Fischer und Prof. Dr. Georg Müller-Christ
Thomas Gehlert LMU München München, Deutschland Dissertation, TU Chemnitz, 2019 Diese Arbeit wurde unter folgendem Originaltitel erstellt: „System-Aufstellungen als Instrument zur Unternehmensführung im Rahmen komplexer Entscheidungsprozesse sowie ein naturwissenschaftlich begründetes Erklärungsmodell für den dahinterliegenden Prozess“
ISSN 2524-7085 ISSN 2524-7093 (electronic) Systemaufstellungen in Wissenschaft und Praxis ISBN 978-3-658-29167-9 (eBook) ISBN 978-3-658-29166-2 https://doi.org/10.1007/978-3-658-29167-9 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National bibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en) 2020. Dieses Buch ist eine Open-Access-Publikation. Open Access Dieses Buch wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Buch enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informa tionen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Danksagung Dass diese Arbeit nun vorliegt, ist vielen, zum Teil auch sehr glücklichen Umständen zu verdanken. Hierzu zählt an erster Stelle meine Frau. Bei ihr möchte ich mich für das Vertrauen und ihre wunderbare, umfangreiche Unterstützung während der gesamten Zeit dieses Entstehungsprozesses bedanken. Einen ganz herzlichen Dank auch an meinen Sohn für seine kritische und anregende Begleitung. Bedanken darf ich mich auch bei Prof. Thomas Görnitz und seiner Frau, die die erste Neugierde in mir geweckt haben und wichtige Hinweise zur Art und Weise meiner Annäherung an das Thema empfahlen. Mit Prof. Müller-Christ und Prof. Bergmann fanden sich schließlich zwei Professoren, die mir den letzten Anstoß zum Schritt in einen Promotionsprozess gaben. Hier ganz speziell noch einen aufrichtigen Dank an Prof. Müller-Christ, der den Kontakt zu Prof. Marlen Arnold herstellte. Und schließlich Prof. Marlen Arnold, die sich zusammen mit Professor Bergmann auf das weitere Abenteuer einließen und mich in kritisch-konstruktiver Weise unterstützten. Ganz herzlichen Dank auch Prof. Ernst Peter Fischer für die Übernahme der Zweitbegutachtung. Herzlich bedanken möchte ich mich auch bei meiner Experimentiergruppe, die meine Thesen und vielfältigen Entscheidungen immer wieder gerne im Rahmen von Dialogen und System-Aufstellungen unterstützten und überprüften und ich auf diese Weise wertvolle Orientierungen erhielt. Gleiches gilt auch all denen, die meine Arbeit Korrektur lasen sowie Hinweise für notwendige Änderungen oder Anregungen für bessere Formulierungen gaben, allen voran Dr. Eva Feest und Priv.-Doz. Dr. Georg Junker. An dieser Stelle sei vor allem auch Prof. Howard Carmichael herzlichst für seine Bereitschaft gedankt, mich an seinen Vorlesungen teilnehmen zu lassen, im Rahmen deren ich einige ganz zentralen Erkenntnisse und Anstöße bekommen hatte. Zum Schluss bleibt nur noch ein ganz herzlicher Dank an all die Pioniere, wie Anton Zeilinger, Hans-Dieter Zeh, Brian D. Josephson, Roger Penrose, Stuart Hameroff, Rupert Sheldrake und all die anderen, die mich mit ihrer Arbeit inspirierten, indem sie bestehende Denkbarrieren überwanden und wesentliche Grundlagen erforschten, auf denen ich aufbauen konnte. Sie legten die Pfade, die ich miteinander verbinden durfte, um ein theoretisches Modell zu entwickeln, das Antworten für ein erweitertes Verständnis zu wesentlichen Prozessen unseres Lebens liefern kann. Dr. Thomas Gehlert
Geleitwort von Prof. Dr. Ernst Peter Fischer Der Text von Thomas Gehlert bietet Interdisziplinarität von höchster Güte an. Es stellt den eindrucksvollen Versuch dar, sich auf naturwissenschaftlicher Basis mit dem Instrument zur Unternehmensführung zu beschäftigen, das in der Wirtschaft als SystemAufstellung mit wachsender Akzeptanz und zunehmendem Erfolg eingesetzt wird und in der psychotherapeutischen Praxis als Familien-Aufstellung ein sich für Patienten hilfreich erweisendes und entsprechend nachgefragtes Pendant kennt. System-Aufstellungen in der Wirtschaft sollen im Management zu strategischen Entscheidungen in Situationen führen, in denen die auf sich allein gestellte Rationalität vielfach scheitert, was auch in der modernen Physik namens Quantenmechanik zu beobachten ist. Der Autor hat sich bereits 2015 überzeugt gezeigt, „dass quantenphysikalische Mechanismen auf menschliche Aktivitäten anwendbar sind“, und er will nun wissen, ob sich auf der Grundlage naturwissenschaftlicher Theorien und mit Erkenntnissen aus Bereichen wie der Neurowissenschaften und der Genetik die Resultate von System-Aufstellungen erklären lassen. Er arbeitet sorgfältig heraus, dass System-Aufstellungen eine quantenphysikalische Messanordnung darstellen, in der Prozesse der Quantenebene auf makroskopischer Ebene in Erscheinung treten und mithilfe menschlicher Systeme veranschaulicht und untersucht werden können. Der Text greift eine an Relevanz zunehmende Fragestellung auf, die seit Kurzem immer mehr in der Wissenschaft genutzt wird und die nach der Anwendbarkeit quantenmechanischer Konzepte über den atomaren Bereich hinaus fragt. Es hat schon immer Versuche gegeben, neben der Quantenmechanik eine Quantenbiologie oder eine Quantenpharmakologie zu etablieren, und in jüngster Zeit wachsen die Hoffnungen darauf, Quantencomputer herzustellen und eine Quantengravitation zu formulieren. Auf Konferenzen zu diesen Themen ist deshalb zu hören, dass die große Zeit der Physik – sprich: die Anwendung und Ausweitung der mikroskopischen Quantentheorie auf makroskopische Systeme – erst noch bevorstehe, und das vorgelegte Manuskript unternimmt einen wohl erwogenen Schritt in diese Richtung. Er findet in einem historischen Kontext statt, den die Väter der Quantenphysik geschaffen haben und die sie in den Worten von Niels Bohr (1885-1962) „die Lektion der Atome für das Leben“ genannt haben. Zu dieser zwar großen, aber noch nicht angemessen aufgegriffenen Aufgabe gehört es nicht zuletzt, die Grenzen der Rationalität zu erkunden, ohne auf die Errungenschaften der Vernunft selbst zu verzichten. Einer der herausragenden Vertreter der Atomphysik, der Nobelpreisträger Wolfgang Pauli (1900 - 1958), hat davon gesprochen, dass Menschen lernen müssten, neben ihrer Rationalität nach den Quellen einer „instinktiven Weisheit“ zu suchen, um sie einzusetzen, wobei Instinkt die Fähigkeit meint, sich so zu verhalten, dass man seine Ziele auch ohne vorherige Erfahrung erreicht. Das Manuskript von Thomas Gehlert liefert einen ausführlichen und gelungenen Versuch, mit der Arbeit an dieser Menschheitsaufgabe ernsthaft zu beginnen. Man kann nur staunen über die vielen naturwissenschaftlichen Anbindungen, die in der Dissertation stets korrekt und verständnisvoll unternommen werden – es kommen unter anderem zur
VIII
Geleitwort von Prof. Dr. Ernst Peter Fischer
Sprache Information und Informationsübertragung, das Thema der Intuition, das Konzept von morphogenetischen und morphischen Feldern, die Neurowissenschaft mit ihren Spiegelneuronen, um wenigstens ein paar Beispiele zu nennen. Der Autor erliegt nie der Versuchung einer einfachen Übertragbarkeit und orientiert sich an dem Grundgedanken der Komplementarität, der in dieser Form auf den erwähnten Niels Bohr zurückgeht und besagt, dass es zu jeder Beschreibung der Natur eine zweite Beschreibung gibt, die der ersten zwar widerspricht, die aber gleichberechtigt mit ihr ist. Komplementäre Beschreibungen sind richtig, ohne wahr zu sein, was bedeutet, dass sich System-Aufstellungen „nur unter Berücksichtigung verschiedener Forschungsgebiete adäquat beschreiben lassen“, wie es bei Thomas Gehlert heißt. Ihn stört dabei zum Glück nicht, dass es einige Konzepte – etwa das des morphogenetischen Feldes – schwer haben, sich in Wissenschaftsdisziplinen aktuell Gehör zu verschaffen, wenn der leitende (paradigmatische) Gedanke sie bevorzugt übersieht oder ignoriert. Das morphogenetische Feld etwa wird in der Molekularbiologie kaum beachtet, die versucht, das lebendige Geschehen und die Entstehung seines Formenreichtums allein durch molekulare Wechselwirkungen zu verstehen, so wie viele Physiker im 19. Jahrhundert meinten, alles materielle Geschehen ließe sich vollständig auf das Agieren von kleinen Kügelchen reduzieren. In einem Organismus muss es aber eine existentielle Verbindung von innen nach außen geben und das Genom (innen) das Außen wahrnehmen können, um angemessen zu agieren und zu reagieren. Der erwähnte Niels Bohr hätte an dieser Stelle seine berühmte Anmerkung anbringen können, dass die moderne Physik zu der Einsicht geführt habe, dass Menschen immer zugleich Zuschauer und Mitspieler beim großen Drama des Lebens sind. In der vorgelegten Dissertation taucht dieser Gedanke in Form des Paares auf, den ein Beobachter und das von ihm Beobachtete abgeben, die nicht nur so zusammengehören wie ein Text und sein Leser – in dem Fall die Dissertation und ihr Gutachter –, sondern die auch die Ansicht von Walter Benjamin widerspiegeln, der meinte, ein Kritiker trage mit zu dem Buch bei, in dem und indem er liest. Jeder Leserin und jedem Leser kommt damit die oben genannte Aufgabe zu, nicht nur Zuschauer, sondern auch Mitspieler bei der Entwicklung der Kultur zu sein, zu der er dadurch gehört. Prof. Dr. Ernst Peter Fischer, Universität Heidelberg
Geleitwort von Prof. Dr. Georg Müller-Christ Wir wissen heute, dass die Bewältigung der heutigen Komplexität nicht mehr allein durch noch bessere rationale Analyse unserer Systeme erfolgen kann, sondern auch Intuition der Beteiligten voraussetzt: das Phänomen, plötzlich etwas Nützliches zu wissen ohne zu wissen, wo dieses Wissen herkommt. Das Problem der Intuition im Management ist die Legitimierung ihrer Erkenntnisse. Das intuitiv Gewusste ist eben nicht aus Zahlen und Fakten abzuleiten und damit für andere nachvollziehbar. Deswegen finden inzwischen zwar viele Führungskräfte Systemaufstellungen als sehr interessant, können sich aber nicht vorstellen, diese in Unternehmen anzuwenden. Sie brauchen eine Erklärung, wie der Informationsfluss stattfindet, an den die Stellvertreter/innen in ihrer repräsentierenden Wahrnehmung angeschlossen sind. Und diese gibt es noch nicht! Wie sehr die möglichen Erklärungsansätze unser Denken strapazieren, zeigt das Bieri-Trilemma, drei bewusstseinsphilosophische Thesen des Schweizer Philosophen Peter Bieri, die er schon 1981 formuliert hat: 1. Mentale Phänomene sind nichtphysikalische Phänomene. 2. Mentale Phänomene sind im Bereich physikalischer Phänomene kausal wirksam. 3. Der Bereich physikalischer Phänomene ist kausal geschlossen. Die drei Thesen sind in sich widersprüchlich und deshalb ein Trilemma: Wie man sie auch kombiniert, es können immer nur zwei richtig sein und die verbliebene dann falsch. In dieses Trilemma hinein wagt sich Thomas Gehlert mit seiner Dissertation und seiner Überzeugung, dass es eine Antwort darauf geben muss. Repräsentierende Wahrnehmung in Aufstellungen sind mentale Phänomene, es findet kein erkennbarer physikalischer Informationsfluss statt. Es sei denn, man nimmt die Quantenphysik zu Hilfe und versucht nachzuweisen, dass es dann keinerlei Informationsübertragung mehr geben muss. Es ist gerade die dritte oben genannte These der kausalen Geschlossenheit, die an der Überzeugung aller Physiker/innen anknüpft, dass alles in der Welt mit rechten Dingen zugeht, eben auch Systemaufstellungen. Diese Überzeugung hat auch Thomas Gehlert und er versucht sie in diesem umfassenden Werk physikalisch zu begründen. Am Ende sind die Leser/innen aufgefordert sich zu entscheiden, ob sie die erste These aufgeben, dass repräsentierende Wahrnehmung ein nichtphysikalisches Phänomen sei. Oder aber sie entscheiden sich dazu, dass die Bewältigung des Trilemmas letztlich doch eine Frage der Haltung der Beobachter/innen ist. Wollen wir es als physikalisches Phänomen sehen, dann zeigt es sich so, wollen wir es als nichtphysikalisches Phänomen sehen, dann zeigt es sich nicht-physikalisch. Oder es ist vielleicht noch ganz anders! An den Grenzbereichen unseres Denkvermögens zu arbeiten ist nicht leicht. In diesem Sinne wünsche ich den Leser/innen gute Erkenntnisse mit dieser Arbeit. Prof. Dr. Georg Müller-Christ, Universität Bremen, Herausgeber der Schriftenreihe
Inhaltsverzeichnis Danksagung
V
Geleitwort von Prof. Dr. Ernst Peter Fischer
VII
Geleitwort von Prof. Dr. Georg Müller-Christ
IX
Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis Glossar Vorwort 1 Einstieg und Orientierung 1.1 Einleitende Gedanken und Ausgangssituation 1.2 Zielsetzungen der Forschungsarbeit 1.3 Vorgehensweise und Methode 1.4 Aufbau der Arbeit 2 Methodologischer Zugang 2.1 Methodische Vorgehensweise 2.2 Wissenschaftliche Legitimation 2.2.1 Erkenntnisformen 2.2.2 Exkurs zum Verständnis eines ‚wissenschaftlichen Arbeitens‘ 2.2.3 Bayes-Theorem 2.2.4 Mathematischer Formalismus versus narrative Beschreibung 2.2.5 Conclusio zur wissenschaftlichen Legitimation
XVII XXI XXIII XXV XXXIII 1 1 6 7 8 13 13 26 27 32 35 37 43
3 Wirtschaftswissenschaftlicher Zugang 47 3.1 Unternehmensführung in der VUCA-Welt 47 3.1.1 Das VUCA-Paradigma im Management 47 3.1.2 Lösungsansätze für VUCA-Herausforderung und ihre Überprüfung 53 3.1.3 Conclusio zum VUCA-Paradigma und möglichen Lösungsansätzen 57 3.2 Unternehmensführung und strategisches Management 58 3.2.1 Definition des Begriffs Strategie 62 3.2.2 Unterscheidungsoptionen bei der Strategieentwicklung 63 3.2.3 Entscheidungen unter VUCA-Bedingungen 75 3.2.4 Conclusio zu Unternehmensführung und strategischem Management 99 3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung 106 3.3.1 Eine kurze Einführung und Orientierung zur Methode 106 3.3.2 Bisherige universitäre Forschung 114 3.3.3 Erstaunliche Beispiele aus der Aufstellungsarbeit 123
XII
Inhaltsverzeichnis
3.3.4 Conclusio zur Methode der SyA
133
4 Notwendige interdisziplinäre Erweiterung 141 4.1 Intuitionsforschung 141 4.1.1 Ausgangssituation 141 4.1.2 Definitionen des Begriffs ‚Intuition’ 142 4.1.3 Erstaunliche Beispiele aus der Intuitionsforschung 148 4.1.4 Conclusio zur Intuitionsforschung 162 4.2 Information und Informationsübertragung 166 4.2.1 Zusammenhang von Information, Wirtschaftswissenschaften und Physik 167 4.2.2 Der Informationsbegriff aus verschiedenen Perspektiven 170 4.2.2.1 Informationsverständnis in Enzyklopädien 170 4.2.2.2 Klassisches Informationsverständnis nach Shannon 172 4.2.2.3 Stuart Hall – Weiterentwicklung und Kritik 182 4.2.2.4 Quantenphysikalischer Ansatz nach Neumann 183 4.2.2.5 Verschränkung – fundamentalste Form der Informationsübertragung 188 4.2.2.6 Informationsverständnis nach Norbert Wiener 191 4.2.2.7 Informationsverständnis von Bateson und den Konstruktivisten 194 4.2.2.8 Informationsverständnis C.F. von Weizsäcker und T. und B. Görnitz 197 4.2.2.9 Informationsverständnis von Lucadou 203 4.2.2.10 Selbstorganisation und Information nach Schweitzer 206 4.2.3 Information als Problem der Evidenz 207 4.2.3.1 Unterschiedliches Verständnis zu Evidenz 207 4.2.3.2 Signifikanz und ihre Grundlagen 210 4.2.3.3 Lucadou’s Decline-Problem 213 4.2.4 Conclusio zur Information 214 4.2.4.1 Normierung des Informationsbegriffes 214 4.2.4.2 Ebenen der Möglichkeiten und Kontingenz 221 4.2.4.3 Konsequenzen aus dem Evidenz-Problem 222 4.2.4.4 Ergänzende Schlussfolgerungen 224 4.2.4.5 Der Homo Physicus 226 5 Erklärungsansätze 5.1 Bewertung bisher betrachteter Experimente 5.2 Intuition als mögliche Erklärung für die Phänomene bei SyA 5.2.1 Unbewusste Wahrnehmung 5.2.2 Erfahrungswissen und Heuristik 5.2.3 Verzerrungen 5.2.4 Fuzzy-Trace-Theorie 5.2.5 Gestalt-Wahrnehmung 5.2.6 Subliminale Wahrnehmung
229 229 234 234 235 237 237 238 238
Inhaltsverzeichnis
5.2.7 Somatische Marker und fraktale Affektlogik 5.2.8 Spiegelneuronen 5.2.9 Enterisches Nervensystem – Bauchgehirn 5.2.10 Quantenphysikalische Annäherung 5.2.11 Conclusio zur Erklärungsansätzen aus der Intuitionsforschung 5.3 Erklärungsversuche im Rahmen von SyA 5.3.1 Systemtheoretische Erklärung 5.3.2 Raumsprache 5.3.3 Topologischer Ansatz 5.3.4 Repräsentierende Wahrnehmung 5.3.5 Morphogenetische, morphische und wissende Felder 5.3.6 Erklärungsversuche im Rahmen der Quantenphysik 5.3.7 Conclusio aus den weiteren Erklärungsversuchen
XIII
239 240 242 243 243 244 245 247 249 251 253 255 263
6 Zwischenresümee – Erkenntnisse und Fragen
267
7 Auf dem Weg zu einer neuen Theorie 7.1 Eine heuristische Betrachtung als Ausgangspunkt 7.2 Ausgangsbasis für eine komplementäre Theorie der SyA 7.3 Bedingungen für Quantenverhalten in Makrosystemen 7.3.1 Drei Bedingungen nach Greenstein und Zajonc 7.3.2 Dreizehn Bedingungen nach Walter von Lucadou 7.3.3 Bedingungen aus der GQT für mentale Verschränkungszustände 7.4 Anwendung der geforderten Bedingungen auf SyA
271 271 276 282 283 285 286 287
8 Modellentwicklung von der Mikro- zur Makrowelt 8.1 Quantenphysikalische Annäherung 8.1.1 Über die Illusion der Materie und die Verbindung zum Wellenmodell 8.1.1.1 Die Illusion der Materie 8.1.1.2 Die Illusion von Teilchen, Lokalität, Zeit 8.1.1.3 Neuinterpretation der Wellenfunktion 8.1.1.4 Von Qubits in die Realität 8.1.1.5 Idee einer Normierung der physikalischen Theorien 8.1.1.6 Conclusio aus der Illusion der Materie 8.1.2 Verschränkung und Dekohärenz 8.1.2.1 Verschränkung allgemein 8.1.2.2 Unterschiedliche Verständnisse zur Verschränkung und Dekohärenz 8.1.2.3 Neuere Entwicklungen 8.1.2.4 Conclusio zur Verschränkung und Dekohärenz 8.1.3 Das Messproblem 8.1.3.1 Klassische versus quantenmechanische Messung 8.1.3.2 Heisenberg-Schnitt
291 291 291 291 299 312 317 330 336 342 342 348 352 364 368 369 375
XIV
Inhaltsverzeichnis
8.1.3.3 Unterschiede/Ähnlichkeiten in Physik, Soziologie/Psychologie und SyA 379 8.1.4 Informationsübertragung und Quanten-Teleportation 381 8.1.4.1 Allgemeiner Hintergrund zur QT und zum GHZ-Experiment 382 8.1.4.2 Strukturvergleich QT und SyA 389 8.1.5 Conclusio aus der quantenphysikalischen Annäherung 397 8.2 Biologische Systeme und Physik 406 8.2.1 Biophysik bei Mikroorganismen und Pflanzen 408 8.2.1.1 Delokalisierung von Protonen in Enzymen 408 8.2.1.2 Quantenphysik in Bakterien und Algen 409 8.2.1.3 Informationsübertragung per Licht auf Zellebene 413 8.2.1.4 Schall als Träger von Information 415 8.2.1.5 Entscheidungsprozesse und kohärente Informationsspeicherung in Pflanzen 422 8.2.1.6 DNA 424 8.2.1.7 Zusammenspiel von DNA und nicht-kontaktbasierter Informationsübertragung 429 8.2.2 Biophysik bei Tieren 431 8.2.2.1 Nachhaltige Quantenkohärenz und Verschränkung bei Vögeln 431 8.2.2.2 Geruchssinn reagiert auf Frequenzen und Tunneleffekten 434 8.2.3 Biophysik bei Menschen 436 8.2.3.1 Antioxidative Wirkung von Pflanzen bei Menschen 436 8.2.3.2 Verarbeitung von Superpositionen beim Hören 436 8.2.3.3 Photonenemission bei Menschen 437 8.2.4 Emission und Absorption von Quanten allgemein bei Menschen 440 8.2.4.1 QT mit Herz-Stimulanz-Mitteln und anderes bei Menschen 444 8.2.4.2 QT und Homöopathie? 448 8.2.5 Conclusio zu Biologische Systeme und Physik 450 8.3 Neurowissenschaften – Der Mensch als Entscheider 459 8.3.1 Unser Gehirn – aktuelles Verständnis und Aufbau 459 8.3.1.1 Aufbau unseres Gehirns nach klassischem Verständnis 460 8.3.1.2 Grenzen des klassischen Verständnisses 463 8.3.1.3 Conclusio aus dem aktuellen Verständnis zu unserem Gehirn 469 8.3.2 Experimentelle Zugänge und Auswertungsmethoden 471 8.3.2.1 Gehirnwellen und mit ihnen assoziierte Zustände 471 8.3.2.2 Die Rolle von EEG und Fourier-Transformation 476 8.3.2.3 Brain-to-Brain Kommunikation via EEG und Internet 479 8.3.2.4 Brain-to-Brain Kommunikation ohne Hilfsmittel 482 8.3.2.5 Unser Gehirn arbeitet in Intervallen 486 8.3.2.6 Körperaktivitäten schon vor dem Ereignis 488 8.3.2.7 Conclusio zu den Experimenten und Auswertungsmethoden 493 8.3.3 Alternative und quantenphysikalische Überlegungen 495 8.3.3.1 Neue Interpretation der unbewussten Gehirnaktivitäten 497
Inhaltsverzeichnis
XV
8.3.3.2 Kernspins und Biophotonen im Gehirn 500 8.3.3.3 Anyonen, Quantenbiologie und Quantencomputing treffen sich auf neuronaler Ebene 507 8.3.3.4 Spiegelneuronen – eine quantenphysikalische Annäherung 515 8.3.3.5 Conclusio zu Alternativen und quantenphysikalischen Überlegungen 519 8.3.4 Neues Modell als Beitrag zur Theory of Mind 521 8.3.5 Conclusio zu unserem Gehirn als physikalisches Organ 526 9 Homologie von QPhy–Systemtheorie–SyA 9.1 Verbundene Entwicklungsgeschichte 9.2 Gemeinsame Prinzipien und Zusammenhänge 9.3 Conclusio zur Homologie
535 537 544 549
10 Ergebnisse und Ausblick 10.1 Grundsätzliche Ergebnisse auf einen Blick 10.2 Naturwissenschaftlich begründetes Theoriemodell zur Intuition im Rahmen von SyA 10.3 Antworten zur wissenschaftlichen Legitimation 10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension 10.5 Grenzen dieser Arbeit 10.6 Zukünftiger Forschungsbedarf und Ausblick
553 553
11 Fazit und Nachwort 11.1 Fazit 11.2 Nachwort
589 589 591
Literatur
597
556 563 565 582 584
Abbildungsverzeichnis Abb. 1 | Der Weg durch die Welt des Unerklärlichen. XXXVI Abb. 2 | Gemeinsamkeiten der Varianten der GT 17 Abb. 3 | GT-Modell zur Erschließung von SyA als Methode der Entscheidungsfindung 20 Abb. 4 | Bayessche Wahrscheinlichkeit 36 Abb. 5 | Die vier Kategorien der VUCA-Welt 48 Abb. 6 | Geschwindigkeit des Wandels versus Geschwindigkeit des Lernens 51 Abb. 7 | Konzeption der Umweltanalyse 60 Abb. 8 | Strategische Intuition nach Clausewitz in 4 Schritten 65 Abb. 9 | Strategische Planung nach Jomini in 3 Schritten 65 Abb. 10 | Effectuation-Prozess in Anlehnung an Sarasvathy 67 Abb. 11 | Formale und informale Organisation 71 Abb. 12 | Deliberation-Without-Attention-Effekt 85 Abb. 13 | Die Treffergenauigkeit Lügner zu erkennen als Funktion des Entscheidungsmodus 89 Abb. 14 | Treffer der Entscheidungen als Ergebnis einer Metaanalyse. 89 Abb. 15 | Treffergenauigkeit bzgl. der Unterscheidung von Lüge und Wahrheit. 90 Abb. 16 | Vergleich der Verkaufs- und Kaufaktivitäten (A) mit neuronalen Aktivitäten (C). 97 Abb. 17 | Kombiniertes 5-Phasenmodell der Strategiearbeit und Entscheidungsfindung 104 Abb. 18 | System-Aufstellung 106 Abb. 19 | Strukturelemente einer SyA 109 Abb. 20 | Aktuelle Einsatzbereiche von SyA 113 Abb. 21 | EEG Aktivitäten in Bezug auf zwei unterschiedliche Stimuli. 156 Abb. 22 | Treffer und Nieten, abhängig von der Stimmung 157 Abb. 23 | Supervisionssetting systemischer Beraterausbildung 158 Abb. 24 | Supervisionssetting TA-Ausbildung in Anlehnung an Fanita English 159 Abb. 25 | Das generelle Kommunikationssystem von Shannon und Weaver 176 Abb. 26 | Kommunikation zwischen Menschen 179 Abb. 27 | Informationsaustausch mittels quantenphysikalischer Verschränkung 189 Abb. 28 | Übersicht zu Erklärungsversuchen aus der Intuitionsforschung 234 Abb. 29 | Übersicht zu Erklärungsversuchen im Rahmen von SyA 245 Abb. 30 | Eltern und Kind in einer typischen Familienaufstellungssituation 247 Abb. 31 | Symbolhafte Darstellung für ein Wasserstoffmolekül-Ion 257 Abb. 32 | Die 12 Säulen zur heuristischen Annäherung an das Gesamtmodell 271 Abb. 33 | Hierarchische Gliederung der Wissenschaftstheorien 277 Abb. 34 | Verbindungen zwischen den Wissenschaftstheorien mit Übergangssprüngen 279
XVIII
Abbildungsverzeichnis
Abb. 35 | Beispiel: Einfluss einer mikroskopischen Energie auf das Makrosystem Mensch 284 Abb. 36 | Transformation von Information 284 Abb. 37 | Beispiel für Einflüsse von Ideen auf das Makrosystem Organisation 289 Abb. 38 | Klassisches Bohrsches Atommodell und quantenmechanische Realität 294 Abb. 39 | Verteilung von Elektronen der ersten und zweiten Elektronenschale. 294 Abb. 40 | Proton und Neutron 295 Abb. 41 | Mikroskopischer Größenvergleich von Atom bis Quark 296 Abb. 42 | Doppelspaltexperiment und seine experimentelle Demonstration 300 Abb. 43 | Tanzender Tropfen 305 Abb. 44 | Feynman-Diagramme 311 Abb. 45 | Neu-Definition von Psi 315 Abb. 46 | Rubidium-Atomverteilung in einem optisches Lichtgitter 317 Abb. 47 | Spinwirbel in zweidimensionalen Oberflächen 326 Abb. 48 | Vom Qubit zur Realität 328 Abb. 49 | Möglicher Zusammenhang ART und QFT 335 Abb. 50 | Verschränkung dargestellt mithilfe der Compton-Streuung. 343 Abb. 51 | Die Elektronen um einen Atomkern liegen nicht separiert vor 346 Abb. 52 | Überlagerung (Superposition) zweier Wasserstoff-Ionen mit einem Elektron 346 Abb. 53 | Buckminster-Fulleren C60 347 Abb. 54 | Interferenzmuster zum Materiewellennachweis des Farbmoleküls PcH2 348 Abb. 55 | Schematische Darstellungen von (a) einem Hohlraum- und (b) einem CPW-Resonator 353 Abb. 56 | Ausgerichtete Spinensembles im koplanaren Resonator 353 Abb. 57 | Supraleiter aus zwei Systemen mit trennendem Isolator 354 Abb. 58 | Kopplung über Stickstoff (N)-Leerstellen (V)-Defekt zwischen Diamanten 359 Abb. 59 | Abbildung einer Katzenschablone auf einem Silizium-Plättchen durch verschränkte Photonen. 361 Abb. 60 | Der Stabmagnet spannt ein Gesamtsystem auf, vergleichbar einem Quantensystem 370 Abb. 61 | Verschränkungsexperiment 371 Abb. 62 | Schrödinger’s Katze und Wigner’s Freund 374 Abb. 63 | Heisenberg-Schnitt in Anlehnung an H.-D. Zeh 377 Abb. 64 | Experimentelle Anordnung zur QT unter Beteiligung von 3 Quarticle 383 Abb. 65 | GHZ-Anordnung zur QT unter Beteiligung von 4 Quarticle 384 Abb. 66 | GHZ-Zustände von Wigner’s Freund-Gedankenexperiment 385 Abb. 67 | Gegenüberstellung QT und SyA in der Dissertation von Schlötter 389 Abb. 68 | Testanordnung zur Überprüfung der ‚repräsentierenden Wahrnehmung’ 390 Abb. 69 | Gegenüberstellung QT und normale SyA 391 Abb. 70 | Struktur GHZ-Experiment für ein 4-Quarticle-System (a) und SyA (b) 392 Abb. 71 | Physikalischer Kontakt über Körperkontakt, Energiefelder oder Photonen-Emission 400
Abbildungsverzeichnis
XIX
Abb. 72 | Ausdehnung von Ψ von der Mikro- zur Makrowelt Abb. 73 | Erste Schritte im Lichtsammelkomplex von Bakterien während der Photosynthese Abb. 74 | Typischer Versuchsaufbau zur Messung physikalischer Signale Abb. 75 | Schwingungsrichtung einer linear polarisierten Welle Abb. 76 | Versuchsaufbau und Messergebnisse von Matsuhasi u. a. (1996) Abb. 77 | Moleküle im klassischen und im quantenphysikalischen Verständnis Abb. 78 | Startprozess zur Radikalenpaar-Bildung im Auge von europäischen Rotkehlchen Abb. 79 | Photonen- und thermische Strahlung bei Menschen Abb. 80 | Medikamenten-QT (a) im Vergleich zur klassischen QT (b) Abb. 81 | Versuchsanordnungen zur Übertragung von Anästhetika und anderen Medikamenten Abb. 82 | QT-Struktur in der Homöopathie (a) verglichen mit QT-Struktur bei SyA (b) Abb. 83 | Diagramm einer ganzen Nervenzelle Abb. 84 | Gehirnwellen mit ihren zugeordneten Bewusstseinszuständen Abb. 85 | Ein klassisches EEG-Diagramm Abb. 86 | Ein nach der Methode von Haffelder erzeugtes Abbild der Gehirnaktivitäten Abb. 87 | Versuchsaufbau zum Test bewusster Brain-to-Brain-Kommunikation via EEG und TMS Abb. 88 | Versuchsaufbau zur EEG-Korrelation auf Distanz Abb. 89 | Zwei-Stufen-Modell der visuellen Wahrnehmung nach Herzog u. a. Abb. 90 | Der Necker-Würfel und das Vase-Gesichts-Paradoxon Abb. 91 | Herzratenvariabilität (HRV) einer Gruppe von 26 Teilnehmern Abb. 92 | Intuitions-Reiz-Reaktions-Mechanismus Abb. 93 | Drei-Stufen-Modell zur freiwilligen Aktionsinitiierung Abb. 94 | Mikrotubuli Abb. 95 | Superposition neuronaler Aktivitäten - vom Tubulin-Dimer zum EEG Abb. 96 | Dipol-Qubit in Mikrotubuli Abb. 97 | NV-Verschränkung bei Neuronen analog der NV-Verschränkung zw. Diamanten. Abb. 98 | Die ersten entdeckten Spiegelneuronen Abb. 99 | Gedächtnis quantenphysikalisch gedacht Abb. 100 | Homologe Verbindungen zwischen Quantenphysik-Systemtheorie-SyA Abb. 101 | Möglichkeiten von Überzeugungen
400 410 414 419 422 427 431 439 444 446 449 461 472 476 478 479 483 486 487 490 491 498 503 507 511 514 516 525 537 593
Tabellenverzeichnis Tab. 1 | Haupt- und Unterkategorien zur Erschließung einer Theorie zur SyA Tab. 2 | Unterkategorien zur Erschließung tragfähiger Erklärungsmodelle Tab. 3 | Strategische Aspekte nach Duggan Tab. 4 | Spielarten der Strategieentwicklung Tab. 5 | Entscheidungen als mentaler Prozess, der sich aus 3 Komponenten zusammensetzt. Tab. 6 | Forschungsarbeiten und Inhalte zu SyA Tab. 7 | Spielarten der Strategieentwicklung unter Einschluss von SyA Tab. 8 | Wahrnehmungskategorien der Intuition Tab. 9 | Zuordnung der Experimente aus Entscheidungsforschung Tab. 10 | Zuordnung der Experimente aus SyA Tab. 11 | Zuordnung der Experimente aus Intuitionsforschung zu Woolley und Kostopoulou. Tab. 12 | Zuordnung der Erklärungsmodelle zur Unterscheidung nach Woolley und Kostopoulou Tab. 13 | Wissenschaften mit Beiträgen zur Erklärung von SyA Tab. 14 | Gegenüberstellung spezifischer vs. grundsätzlicher Perspektiven verschiedener Disziplinen Tab. 15 | Vergleich Gravitation und Wellenfunktion Tab. 16 | Unterschiedliche Perspektiven auf den Heisenberg-Schnitt Tab. 17 | Effizienz des Wachstums von B carboniphilus Kolonien Tab. 18 | Entwicklungszeiträume von Quantenphysik – Systemtheorie – SyA Tab. 19 | Korrelationen und Phänomene innerhalb und zwischen verschiedenen Wissenschaften.
23 24 64 72 81 116 134 148 230 231 232 268 280 316 334 378 417 537 557
Abkürzungsverzeichnis ART B2B BCI BEK BP CBI DBBT DI DMN DWA EDBFT EEG EM EMF ENS EPR FFT fMRT GHZ GQT GT KI kI KWR MPI MRT NTE PAA PAAA PT QFT QT RCT SCP SEP SyA TMS ToM UTT VUCA WQT
1
Allgemeine Relativitätstheorie Brain-to-Brain Gehirn-Computer-Interfaces Bose-Einstein-Kondensat Bereitschaftspotential Computer-Gehirn-Interfaces De-Broglie-Bohm-Theorie Distant Intentionality Default-mode-Netzwerk, zu dt. Ruhezustandsnetzwerk Deliberation-Without-Attention-Effect Erweiterte De-Broglie-Führungswellen-Theorie Elektroenzephalografie elektromagnetisch elektromagnetisches Feld Enterisches Nervensystem Einstein-Podolsky-Rosen Fast-Fourier-Transformation Funktionelle Magnetresonanztomographie Greenberger-Horne-Zeilinger generalisierte Quantentheorie oder verallgemeinerte Quantentheorie Grounded Theory Kopenhagener Interpretation künstliche Intelligenz koplanare welleleitender Resonator Modell einer pragmatischen Information Magnetresonanztomographie Nahtoderfahrung PAA Phänomene (predictive anticipatory activity) PAAA Phänomene (psychophysiological predictive anticipatory activity) Prospect-Theorie1 (PT) Quantenfeldtheorie Quanten-Teleportation Rational-Choice-Theorie Slow Cordical Potential Stanford Encyclopedia of Philosophy System-Aufstellung transkranielle Magnetstimulation Theory of Mind Unconscious thought theory Volatilität, Unbestimmtheit, Komplexität, Ambiguität Weak Quantum Theory / schwache Quantentheorie
Im Deutschen auch als ‚Neue Erwartungstheorie’ bezeichnet.
Glossar Begriffsdefinitionen Ambiguität (Ambiguity) Anyonen
Axiom Bauchhirn
Dekohärenz
Code Codingprozess
Effectuation
Eigenzustand Emergenz
Mehrdeutigkeit bzw. Uneindeutigkeit von Informationen, Situationen, Ergebnissen. Anyonen stellen virtuelle Quarticle (Quantenteilchen) dar, die zwischen Fermionen und Bosonen switchen bzw. beide ineinander überführen. Sie dürfen nicht mit Anionen aus der Chemie verwechselt werden, welche negativ geladene Ionen sind. Ein Axiom ist eine Aussage bzw. ein Grundsatz, die nicht abgeleitet oder bewiesen werden müssen. Sie dienen als Basis eines Modells oder einer Theorie. Das Enterische Nervensystem (ENS) (das sogenannte Bauchgehirn) ist in jüngerer Zeit in den Fokus gekommen. Gershon (Gershon 2001) erkannte bei seinen Forschungen, dass 90 % des Informationsaustausches vom enterischen (Darm) zum zentralen Nervensystem (Gehirn) verläuft. Das als zweites Gehirn bezeichnete ENS stellt mit exakt gleichen Neuronen, Rezeptoren und Wirkstoffen ein Abbild des Kopfhirns dar. Das ENS generiert und verarbeitet die Daten seiner Sensoren selbst und bildet auch die gleichen Krankheiten ab, wie Depressionen, Parkinson, Alzheimer etc. Dekohärenz ist der Verlust der Superposition und Übergang in Zustände ohne Interferenz. Eine Verschränkung der jeweiligen Subsysteme (Atom, DNA, Mensch) ist für sich genommen jeweils stärker als die Wechselwirkung mit der Umgebung, was zum Eindruck einer Dekohärenz führt. Gleichzeitig ist sie nicht ohne diese Verschränkung zu denken, nur entzieht sich diese Verschränkung mit der Umgebung einer direkten Beobachtung. Als Code, im Sinne der Grounded Theory, gelten Begriffe, Stichwörter, Konzepte, die auf Phänomene des zu untersuchenden Bereichs verweisen. Codierung bedeutet Klassifizierung von Phänomenen und Kategorienbildung und wird im Rahmen des Codingprozesses vorgenommen. Im Gegensatz zu dieser Interpretation steht das Verständnis in der Mathematik oder Informatik, in der Code als Übertragungsvorschrift (z. B. Morsecode, Binärcode ...) verstanden wird. Ist ein methodischer Ansatz im Bereich des strategischen Managements. Der Begriff ‚Effectuation‘ ist als Kunstwort gedacht und meint ‚Unternehmergeist’ der Neues in die Welt bringen will. Gleichwohl weist es auf die Begriffe Ausführung und Wirkung hin und eben nicht auf lange Planung. Damit geht es in diesem Modell um eine eigenständige Entscheidungslogik, die versucht, sich auf das zu konzentrieren, was steuer- bzw. beeinflussbar ist. Siehe ‚Zustand‘. Emergenz bedeutet das Entstehen selbstorganisierter Strukturen basierend auf der Interaktion unterschiedlicher (komplexer) Systeme, also das Entstehen von etwas Neuem. Es ist ein Begriff aus der Systemtheorie und trägt dem Phänomen Rechnung, dass das Emergente mehr ist, als die Summe seiner Teile. Als Folge dieser Selbstorganisation entsteht ein neuer (emergenter) Zustand mit Phänomenen (Strukturen, Eigenschaften, Verhaltensweisen), die so nicht in den Entitäten der Vorstufe enthalten waren.
XXVI Empathie
Energie Entität
Entropie
Evidenz
Facilitator Falsifizierung
Fokus Funktion
Grounded Theory (GT) Heuristik
Holistisch
Glossar Hierunter werden hier die Fähigkeit und Bereitschaft verstanden, Gedanken, Motive, Persönlichkeitsmerkmale und Emotionen einer anderen Person zu erkennen, zu verstehen, nachzuempfinden und damit zu antizipieren. Energie kann Bewegungen und Veränderungen des Materiellen bewirken. Sie entspricht quantenphysikalisch einem Faktum. Eine Entität ist etwas, was sich gegenüber einem Umfeld unterscheiden lässt. Damit repräsentiert eine Entität etwas ‚Seiendes‘, wie einen Gegenstand, einen Prozess, aber auch eine Idee oder eine Information. Prinzipiell kann eine Entität ‚beobachtbar‘ oder auch ‚unbeobachtbar‘ sein und nur als Produkt einer Sprache existieren. Entropie ist ein Maß für die Unkenntnis über ein System, also für eine ‚nicht vorhandene Information‘. Da Entropie als ein Maß für die Anzahl an Mikro-Zuständen verstanden wird, die einen Makro-Zustand repräsentieren, kann sie auch als ein Maß für die Information verstanden werden, die fehlt, um vom MakroZustand auf die Mikro-Zustände zu schließen. Allgemein lassen sich mit dem Konzept der Entropie Systeme mit vielen Teilchen beschreiben. Im Grunde ist Entropie deshalb eine statistische Größe zur Untersuchung von Wahrscheinlichkeiten, mit deren Hilfe in der Physik Verhalten von Makrosystemen erklärt werden kann, die aus sehr vielen mikroskopischen Zuständen bestehen. Je weniger über die mikroskopischen Komponenten bekannt ist, desto größer ist ihre Entropie. Entsprechend ist die Entropie einer Flüssigkeit größer als die eines Festkörpers, bei dem die Freiheitsgrade seiner Entitäten reduziert sind. Entropie wird deshalb als Information betrachtet, die nicht zur Verfügung steht. Mit Evidenz wird ein Anspruch auf Wahrheit erhoben, der aus einer klaren, schlüssigen und offensichtlichen Einsicht abgeleitet wird. Die Daten sollen den Tatbestand einer belastbaren Information erfüllen, die auch von anderen erfahren bzw. nachvollzogen werden können. Mit ‚evidenz-basiert‘ wird dieses Verständnis gemeinhin auf ‚beleg-basiert‘ reduziert. Es gibt jedoch sehr unterschiedliche Zugänge mit unterschiedlichem Verständnis, ab wann Evidenz tatsächlich vorliegt. Person, die eine SyA leitet. Falsifizierung ist ein Begriff aus der Wissenschaftstheorie, der auf Popper zurückgeht. Danach reicht ein einziges Gegenbeispiel oder Experiment aus, um eine Theorie zu widerlegen. Person, die einen Fall für eine SyA einbringt. Eine Funktion repräsentiert einen Zweck bzw. eine Teilaufgabe und ist mit einer Leistungserwartung verbunden, z. B. Funktionen in Teams: zielorientiert, gruppenerhaltend, analytisch; oder bezogen auf Organisationen; das Erreichen eines Organisationsziels. Die GT ist ein spezieller Forschungsansatz bei der sich Forschende iterativ zwischen den beobachtbaren Lücken in der phänomenologischen Welt und in denen der Literatur bewegen. Unter Heuristik wird eine einfache, schnelle Denkstrategie verstanden, die schnelle Urteile und Problemlösungen auf der Basis unvollständigen Wissens ermöglicht. Definitionsgemäß beruht Heuristik auf schneller Mustererkennung, hervorstechenden Eigenschaften und einfachen Regeln. Holistisch meint eine ganzheitliche Erklärung, bei der Erscheinungsformen und Erklärungen aus unterschiedlichen Kontexten in Verbindung miteinander gebracht werden. Diese Erscheinungsformen müssen je Kontext individuell
Glossar
Homologie
Homo Physicus
Information
Interferenz Interozeption
Intersubjektivität
Implizites Wissen
Klassische und nicht-klassische Welt
Kohärenz
XXVII beschrieben werden. In Summe bringen sie jedoch eine Ganzheit hervor, ohne als Summe dieser Teile verstanden werden zu können. Der Begriff der Homologie geht auf Richard Owen zurück (Zrzavý u. a. 2013: 170). Homologe Merkmale entspringen einer gemeinsamen Wurzel (ebd. 168). Sie sind aufgrund dessen verwandt und tragen die gleiche Information in sich. Wichtig dabei ist, dass sie sich nicht zwangsläufig ähneln müssen, sondern aufgrund unterschiedlicher Anpassung sich auch strukturell und funktionell unterscheiden können (ebd.). Im Gegensatz dazu stehen analoge Merkmale. Letztere haben sich unabhängig voneinander entwickelt, wodurch sie keine gemeinsame Information und Wurzel teilen. Informationstheoretisch lässt sich der Mensch als Mixed-Zustand von Quantenund klassischer Welt ansehen, für den beide Welten Wirkung und damit Bedeutung haben. In ihm ist das Zusammenspiel zwischen physikalischen Ausgangsbedingungen und psycho-sozialen sowie ökonomischen Einflussprozessen repräsentiert. Information ist etwas, was eine Entität repräsentiert und ist zunächst abstrakt. Bedeutungsvolle Information entsteht erst durch einen Beobachter oder eine wechselwirkende Entität, der bzw. die der abstrakten Information eine Interpretation zuordnet. Diese kann an instabilen Systemen Steuerungsaktivitäten auslösen. Quantenphysikalisch liegt hier ein Potenzial vor und noch kein Faktum. Interferenzen sind Beeinflussungen und Überlagerungen zweier oder mehrerer Wellen. Als Ergebnis ergibt sich eine Superposition dieser Wellen. Interozeption kommt aus dem Lateinischen: inter „inmitten von“ und recipere „aufnehmen“. Darunter wird die Fähigkeit von Lebewesen verstanden, Informationen aus Wahrnehmungen über oder von dem eigenen Körper zu erfassen, statt sie von der Außenwelt zu beziehen. Sie vermeidet Subjektivität und Objektivität und macht Sachverhalte und Zusammenhänge für unterschiedliche Beobachter gleichermaßen verständlich und nachvollziehbar. Implizites Wissen wird als ein stummes, verkörpertes und damit leibliches Können und Vermögen verstanden, das praktisch wirksam ist, aber meist ungesagt bzw. unerklärbar bleibt. Unter ‚klassische‘ wird im Verlauf der Arbeit das Verständnis der ‚klassischen Physik‘ und darauf aufbauenden Wissenschaften verstanden. Eingeschlossen sind dabei Newtonsche Mechanik, Maxwells Elektrodynamik, Einsteins Relativitätstheorie etc. und die darauf aufbauenden Ansätze der Chemie, Biologie und Neurowissenschaften. Als nicht-klassisch werden demgegenüber die Quantenphysik und ihre Interpretationen für Chemie, Biologie und Neurowissenschaften verstanden. Als ‚klassisch‘ im Sinne der Wirtschaftswissenschaften, Psychologie und Sozialwissenschaften werden entsprechend all die Ansätze verstanden, die noch von einer faktischen Isolierung und damit einer Trennung von Objekt und Subjekt ausgehen und damit den Beobachtereffekt (Beobachter 2. Ordnung) ignorieren. lat.: cohaerere = zusammenhängen; Kohärenz beschreibt alle Korrelationen (Beziehungen, Zusammenhänge) zwischen physikalischen Größen. Sie ist eine physikalische Eigenschaft von Wellen, die Interferenzphänomene ermöglicht. Als kohärent wird klassischerweise eine Superposition unterschiedlicher Energieeigenzustände bezeichnet. Für diese Arbeit wird der Begriff auf Eigenzustände informativer als auch energetischer Art ausgedehnt, da Information und Energie ineinander überführbar sind.
XXVIII
Kohärenter Zustand Komplementär
Komplexität (Complexity)
Konstruktivistisch Kontingenz und doppelte Kontingenz Korrelation
Lokalität Nicht-Lokalität
MacyKonferenzen
Magnetoenzephalographie MEG Materie
Metaphysik
Glossar Es geht in dieser Arbeit nicht um das Verständnis aus der Psychologie, das Kohärenz mit einem logischen, zusammenhängenden, nachvollziehbaren Gedankengang gleichsetzt. Einen Systemzustand, bei dem die Entitäten und Systemelemente ein in sich stimmiges, zusammenhängendes und nachvollziehbares Ganzes bilden. Komplementär bedeutet, dass sich bei der Beobachtung eines Geschehens unterschiedliche Blickwinkel gegenseitig ausschließen, dennoch zusammengehören und einander ergänzen. Das bedeutet, dass wir je Untersuchungssituation und verwendeter Methoden nur einen der komplementären Begriffe anwenden können und jeweils individuelle Ergebnisse aus dieser Untersuchung erhalten. Ganz im Sinne Bohr’s der die physische und psychische Seite des Daseins als ein besonderes Komplementaritätsverhältnis betrachtete. Komplexität soll hier sehr breit verstanden werden unter Einschluss einer Vielzahl von Einflussfaktoren, Variablen und gegenseitigen Abhängigkeiten. In komplexen Systemen existieren die Variablen eines Systems nicht unabhängig voneinander und beeinflussen sich wechselseitig. Ein Eingriff bei einer Variablen führt immer auch zu Neben- und Fernwirkungen, die sich direkten Beobachtungen entziehen. Komplexität lässt sich erkennen an: einem hohen Vernetzungsgrad in Zeit und/oder Ort sprunghaftem, nicht nachvollziehbarem Systemverhalten kleine Änderungen große Auswirkungen Siehe ‚systemisch-konstruktivistisch‘. Bei der einfachen Kontingenz geht es um die Wahlmöglichkeiten (Kontingenz) in einer nicht vollständig und eindeutig erfassbaren Realität. Doppelte Kontingenz bezieht sich auf die Abhängigkeit der eigenen Handlung von der erwarteten Kontingenz der anderen Beteiligten. Korrelation beschreibt die Wechselbeziehung zwischen zwei oder mehreren Merkmalen, Ereignissen, Zuständen oder Funktionen. Sie beschreibt das Maß an Übereinstimmungen von Phänomenen zwischen Entitäten (z. B. Strukturen, Muster, Verhaltensweisen, Energie) und stellt keine kausale Ursache-Wirkungsbeziehung dar. Unter Lokalität wird hier das Verständnis verstanden, dass sich Wechselwirkungen nur durch direkte Interaktivität ereignen können. I. d. R setzt dies unmittelbare räumliche Nähe voraus. Demgegenüber steht die Nicht-Lokalität, bei der Effekte auch ohne unmittelbaren Kontakt entstehen, unter einer sogenannten Fernwirkung. Unter dem Namen ‚Macy-Konferenzen‘ subsummieren zehn Konferenzen mit interdisziplinärer Beteiligung, speziell zum Thema Kybernetik. Als Schirmherr fungierte die Josiah Macy, Jr. Foundation (Macy-Stiftung) unter Leitung von Warren McCulloch Mit ihrer Hilfe werden die magnetischen Aktivitäten des Gehirns sichtbar gemacht. Materie ist im Raum verdichtete Energie und wird materiell, wenn sie so verdichtet ist, dass sie im Raum ruhen kann. Quantenphysikalisch liegt dann ein Faktum vor. Von griechisch meta ta physica = nach der Physik. Etwas, das nicht über Erfahrung gewonnen werden kann, über sie hinausgeht und folgedem über der Natur steht. Mit der Metaphysik wird der physikalische Rahmen verlassen.
Glossar Makrokosmos Mikrokosmos Objektivität
Observable
Offene Quantensysteme Ontologie Paradigma
Phänomenologisch
Phasenübergang
Position Pragmatic Empirical Theorizing Pragmatische Information Priming
XXIX Die Welt ab Molekülverbände aufwärts. Die Welt des ganz Kleinen (Elementarteilchen wie Quanten, Elektronen, Atome). Objektivität wird durch die experimentellen Ergebnisse nachgewiesen. Unabhängig von der Methode (SyA, technische oder medizinische Untersuchung) ergibt sich das gleiche Ergebnis. Aus dem lateinischen observabilis ‚beobachtbar‘. Bei Observablen handelt es sich um theoretische Beschreibung physikalisch beobachtbarer Größen. In der Physik sind ihnen noch Operatoren (mathematische Vorschriften wie Plus, Minus, Geteilt etc.) zugeordnet, durch die sie eindeutig definiert werden. Beispiele für Observable sind: Energie, Impuls, Ortskoordinatoren oder der Spin eines Teilchens. Im Unterschied zu den scheinbar realen, eindeutigen Messwerten der verschiedensten Wissenschaftsdisziplinen bezieht sich die ‚Observable’ in der Quantenphysik immer auf einen Wert, von dem man weiß, dass er einer von vielen möglichen ist und somit aus einer Wahrscheinlichkeitsverteilung herrührt. Als Folge einer komplementären Erweiterung auf Bereiche außerhalb rein physikalischer Anwendungen werden hier auch andere Messgrößen wie Verhalten, Ideen, Beziehungsstrukturen oder Wahrnehmungen bei SyA oder bei der Intuition verstanden. Hier handelt es sich um nicht abgeschlossene Systeme, in dem Teilchen (Quarticle) delokalisiert sind. Typische Beispiele sind Laser oder biologische Prozesse bei Umgebungstemperatur. Sie beschäftigt sich mit den Grundstrukturen dessen, was wir als Wirklichkeit ansehen und versucht dieses Seiende und seine Entitäten einzuteilen. Der Begriff Paradigma geht auf Thomas S. Kuhn zurück. Darunter wird ein definierter theoretischer Rahmen verstanden, dessen inhaltliche Vorstellung in besonderer Weise ausformuliert ist. So werden bestimmte Vorgehensweisen, Qualitätsmerkmale oder Problemlösungen als beispielhaft und mustergültig oder ‚paradigmatisch‘ angesehen. Phänomenologisch bedeutet hier, dass sich Systemrealitäten zeigen, die unabhängig von Individuen existieren. Realität bzw. Entitäten werden vorgefunden und zeigen sich durch Phänomene. Phänomenologie bezieht sich deshalb auf etwas Seiendes. Dieses Seiende soll ganzheitlich erfasst werden, wie es sich originär zeigt. Rationale, theoretische, historische oder sonstige Einflüsse verfälschen eine solche phänomenologische Erscheinung. Als Phasenübergang wird gemeinhin der Übergang einer Entität von einem Aggregatzustand in einen anderen bezeichnet. Als Phasenübergang wird hier ebenso die Grenze zwischen Entitäten, die sich voneinander unterscheiden lassen, der äußere Rand unseres Universums oder der Ereignishorizont von schwarzen Löchern verstanden. Beschreibt den formalen Platz in einem System (oben – unten, rechts – links, Führungskraft – Mitarbeiter) PET baut auf quantitativen empirischen Erkenntnissen und versucht damit das Theoretisieren als Teil eines abduktiven Untersuchungsprozesses zu stimulieren. Pragmatische Information als Maß für die Wirkung der Information beim Empfänger. Priming oder auch Bahnungs-Effekt bezeichnet die kognitive Beeinflussung nachfolgender Reize. Die bewussten Wahrnehmungen und Reaktionen zeigen
XXX
Quanteninformation
Quarticle
Raumsprache
Reliabilität Repräsentant
Rolle
Sinn Strategie
Strategisches Management Subjektivität
Superposition
Synergetik
System
Glossar sich in Abhängigkeit vorgeschalteter Reize. So fördert französische Musik den Absatz von französischem Wein, wohingegen deutsche Musik den Verkauf von deutschen Weinen steigert. Quanteninformation (= 1 Qubit); sie ist über den gesamten Raum ausgedehnt und trägt unendlich viel Information. Dies erklärt sich aus zwei Gründen: a) weil wir sie überall finden könnten; b) wegen der Verschränkungstheorie von Zeh (Dekohärenztheorie). In Anlehnung an Görnitz. Steht für die quantenphysikalische Perspektive auf Teilchen, die nicht mit einem definierten Ort verbunden werden können. Der Begriff geht auf Frank Wilczek, den Entdecker der Anyonen, zurück. Hierunter verbirgt sich das Verständnis, dass Menschen anhand der Positionierung von Personen zueinander im Raum in der Lage sind in gewisser Weise Zusammenhänge erfassen zu können und dass die Raumkoordinaten die wesentlichen beeinflussenden Faktoren darstellen. Zuverlässigkeit der Messergebnisse, deren tatsächliche Unterschiede nicht durch Messfehler herrühren. Repräsentanten fungieren in SyA als ‚Resonanzkörper‘ für dahinterliegendes implizites Wissen und bekommen Zugang zu unbekannten Informationen und Aspekten einer Fragestellung eines Fallbringers und zu tragfähigen, nachhaltigen Lösungsansätzen. Eine Rolle steht für ein Bündel an Verhaltenserwartung, die an die personale Vertretung der Funktion und damit an die soziale Position gestellt werden. Z. B. Kollege, Unterstützer, Kritiker. Mentales Vernetzen von Entitäten mit Vergangenheit, Gegenwart, Zukunft und auch zu anderen Entitäten. Eine Strategie soll die Zukunft, die mit den eigenen Zielen verbunden ist, angemessen antizipieren und die eigene Wahrnehmungsfähigkeit schärfen, um kontinuierlich die Wahrscheinlichkeit geeigneter Entscheidungen zu erhöhen. Strategisches Management ist das Management eines Gesamtprozesses, der sich von der Analyse über Entscheidungen bis zur Implementierung und schließlich zur kontinuierlichen Anpassung erstreckt. Der Umstand, dass eine Beobachtung von einem Beobachter gemacht wird und durch dessen neurologisches System erst konstruiert wird. Zwar repräsentiert diese Abbildung das Beobachtete, sie ist aber nicht identisch, sondern durch die Möglichkeiten des Beobachters limitiert. Eine Überlagerung verschiedener Zustände und Bedeutungen, die nicht mehr zu unterscheiden sind, vergleichbar einer kohärenten Überlagerung zweier oder mehrerer Wellen in der Physik. ‚Allgemeine Theorie der Selbstorganisation‘ oder alternativ als ‚Strukturtheorie‘ bezeichnet, die sich auf makroskopische Musterbildung bezieht und mit einem bestimmten mathematischen Formalismus arbeitet. Gegenstand ist die Untersuchung von strukturellen raumzeitlichen Selbstorganisationsprozessen (Musterbildungen) in makroskopischen, wechselwirkenden Vielkomponentensystemen. Anwendung findet sie in Physik, Biologie, Chemie, Psychologie, Soziologie und Neurowissenschaften. Ein System repräsentiert genauso wie eine Entität etwas, was sich gegenüber einem Umfeld unterscheiden lässt, nur dass es aus mehreren Entitäten zusammengesetzt ist. Dies kann auch der Kontext sein, um den es geht (Familie, Team, Organisation, technisches Umfeld bei technischen Fragestellungen, wirtschaftliches Umfeld bei wirtschaftlichen Fragestellungen usw.). In diesem Sinne stellt
Glossar
SystemAufstellung (SyA)
Systemischkonstruktivistisch
Teilchen Unbestimmtheit (Uncertainty)
Unsicherheit (Uncertainty) Validität Verschränkung
Verstrickung
Volatilität (Volatility) VUCA Wahrnehmung
XXXI eine Entität selbst auch ein System dar, so es aus weiteren Entitäten (Subsystemen) zusammengesetzt ist. Der Unterschied in der Bezeichnung ergibt sich daraus, ob die Beziehung zwischen Entitäten und/oder in Bezug auf ein Umfeld betrachtet werden soll (= System) oder ob die Entität selbst Gegenstand der Betrachtung ist (= Entität). Bei SyA (in ihrer spezifischen Ausprägung auch bekannt als Familien-, Organisations- oder Struktur-Aufstellung) werden unterschiedlichste Fragestellungen, Beziehungsstrukturen und Informationen in einem dreidimensionalen Raum über Repräsentanten (in der Regel Menschen) zur Darstellung gebracht. Die Repräsentanten fungieren dabei als ‚Resonanzkörper‘ für dahinterliegendes implizites Wissen, das sich über mentale und körperliche Wahrnehmungen bemerkbar macht. Bei der systemisch-konstruktivistischen Annahme wird davon ausgegangen, dass Systemrealitäten konstruiert bzw. rekonstruiert werden, sei es in einem kognitiven Prozess innerhalb eines Individuums, sei es in einem kommunikativen Prozess zwischen Individuen. Stellt das klassische Pendant zum Quarticle dar, das mit den Gesetzen der klassischen Physik beschrieben werden kann. Unbekannte Informationen und Unvorhersehbarkeit von Ereignissen und damit verbundenen Überraschungen. Die ‚Unbestimmtheit‘ unterliegt Wahrscheinlichkeitsgrundsätzen, deren Eintreten nicht kausal festgelegt ist, sondern nur Möglichkeiten repräsentiert. Was sich wann und wie ereignen kann, ist von vielen Zufälligkeiten abhängig. Unsicherheit wird hier als kausale Folge von Ausgangssituationen verstanden, bei denen unklar ist, ob sie sich realisieren. Unsicherheit kann als Folge von Unbestimmtheit entstehen. Beschreibt den Grad der Übereinstimmung zwischen empirischer Messung mit einem logischen Messkonzept. Von Verschränkung spricht man ganz allgemein, wenn der Zustand eines Quantensystems nicht durch die Einzelzustände seiner Subsysteme/Entitäten bestimmt wird, sondern nur als Ganzes verstanden und gemessen werden kann. Nach einer physikalischen Interaktion teilen die beteiligten Entitäten ihren Zustand und können nur noch als ein System/eine Entität betrachtet werden. Die von ihnen repräsentierte Information ist über das neue Gesamtsystem verteilt (verschmiert). Damit wird die Wahrscheinlichkeitsverteilung der Ergebnisse, die an einem Teil eines Quantensystems gemessen werden, durch die Messung an einem anderen Teil des gleichen Quantensystems beeinflusst. Im Teilchenbild repräsentiert der Compton-Effekt, im Wellenbild repräsentiert der Doppler-Effekt eine Verschränkung. Störung zwischen zwei oder mehr Personen, die die Glaubwürdigkeit und Authentizität infrage stellt, lassen sich psychologisch als ‚Verstrickung‘ interpretiert. Sie können wieder vollständig aufgelöst werden. Physikalische Verschränkungen dagegen nicht. Dort sind nur Scheinisolationen möglich. Beschreibt die Schwankung und damit Natur, Häufigkeit, Tempo und Ausmaß von Veränderungen. VUCA ist ein Akronym, das für Volatility, Uncertainty, Complexity und Ambiguity steht. Perceptio/perception. Beschreibt den komplexen Prozess der Informationsgewinnung und -verarbeitung von Reizen aus der Umwelt sowie von inneren Zuständen eines Lebe-
XXXII
Wellenfunktion Ψ
Zustand
Glossar wesens. Das Gehirn kombiniert die Informationen, die teils bewusst und teils unbewusst wahrgenommen werden, zu einem subjektiv sinnvollen Gesamteindruck. Wenn die Daten, die es von den Sinnesorganen erhält, hierfür nicht ausreichen, ergänzt es diese mit Erfahrungswerten. Dies kann zu Fehlinterpretationen führen und erklärt, warum wir optischen Täuschungen erliegen oder auf Zaubertricks hereinfallen. Im Gegensatz zum Heisenberg-Verständnis, bei dem Ψ als Ausdruck ‚menschlichen Wissens‘ interpretiert wird, wird Psi hier als Ausdruck einer möglichen Beobachtungssituation und der Abhängigkeit von einem Messvorgang verstanden. D. h. in Ψ ist alles enthalten, was man über den Zustand eines Quarticles oder eines Systems und der von ihnen getragenen Information wissen kann, bezogen auf einen spezifischen Messvorgang. Im Unterschied zur rein physikalischen Interpretation sind darin auch alle anderen, nicht nur durch physikalische Messapparaturen erfassbare Informationen enthalten. Ein Zustand (Eigenzustand) ist dynamisch und beschreibt die Gesamtheit aller beobachtbaren bzw. messbaren Informationen und Eigenschaften einer Entität (eines Systems) zu einer bestimmten Zeit und an einem bestimmten Ort.
Genderhinweis Im Interesse der Lesbarkeit wurde auf geschlechtsbezogene Formulierungen verzichtet und i. d. R. nur die männliche Form verwendet. Gleichermaßen gemeint sind selbstverständlich immer Personen männlichen und weiblichen Geschlechts. Diese Verkürzung zielt einzig und allein auf die Erleichterung des Leseflusses ab und soll keinesfalls eine Geschlechterdiskriminierung oder eine Verletzung des Gleichheitsgrundsatzes zum Ausdruck bringen. Gemeint sind selbstverständlich immer beide Geschlechter. Ich danke für Ihr Verständnis als Leserin.
Vorwort Die Ergebnisse dieser Forschung sind für viele neu und vermutlich überraschend. Der Zusammenhang von System-Aufstellungen (SyA), Unternehmensführung, strategisches Management, Entscheidungsfindung und dem dahinterliegenden intuitiven Prozess wird sich als überraschend klar herausstellen. Es wird deutlich, dass sich in der Methode der SyA ein wesentlicher Teil der aktuell existierenden Praxis im strategischen Management wiederfindet und dass sie ein geeignetes Instrument zur Entscheidungsfindung darstellt. SyA repräsentiert den Teil, der der Intuition zugeordnet und aufgrund einer nicht vorhandenen Theorie eher ausgeblendet wird bzw. im Untergrund zur Anwendung kommt. Insofern ist das vielleicht wichtigere Ergebnis dieser Arbeit ein konsistentes, auf aktuellen Experimenten und Theorien basiertes Modell, das das sogenannte Bauchgefühl und die damit verbundene Intuition als plausibel und belastbar erscheinen lässt. Damit schließt sich eine theoretische Lücke, die bisher die breite Akzeptanz unzähliger experimenteller Ergebnisse in der Entscheidungstheorie und der Intuitionsforschung verhindert. Darüber hinaus weisen die Ergebnisse auf erhebliche Konsequenzen für unser Verständnis über Changeprozesse, Authentizität und Glaubwürdigkeit, Lernen und medizinische Heilverfahren hin, genauso wie auf die Notwendigkeit, die bestehenden Testund Evidenzverfahren zu hinterfragen. Um diese Ergebnisse zu erreichen und sie nachvollziehbar darzustellen, integriert diese Arbeit sehr unterschiedliche Wissenschaftsdisziplinen mit unterschiedlichen Denk- und Ausdrucksgewohnheiten. Entsprechend besteht für den Leser unter anderem die Herausforderung einzelne Begriffe stimmig zu interpretieren. Begriffe wie ‚Information‘, ‚Welle‘ oder ‚Kohärenz‘, die auf den ersten Blick einfach und verständlich scheinen, jedoch in den einzelnen Wissenschaftsdisziplinen unterschiedlich interpretiert werden. Insofern ist anzunehmen, dass der von Wittgenstein in seinem Vorwort zum Tractatus formulierte Gedanke tatsächlich zutreffend sein dürfte: „Dieses Buch wird vielleicht nur der verstehen, der die Gedanken, die darin ausgedrückt sind – oder doch ähnliche Gedanken – schon selbst einmal gedacht hat“ (Wittgenstein und Schulte 1963: 7). Dies ist umso mehr anzunehmen, als dass Willke im Rahmen einer meiner systemischen Ausbildungen in etwa die gleiche Aussage in Bezug zu seinen Büchern formulierte (Willke 2014, 2006, 2005). Seine Formulierung lautete in etwa, dass wir seine Bücher zur Systemtheorie nicht verstehen werden. Wir müssen sie aber lesen, um sie zu verstehen. Die Botschaft, die er uns geben wollte, bezog sich auf rekursive Schleifen, die eine wiederholte Auseinandersetzung mit den Inhalten nach sich ziehen müsste, um ein vollständiges und gutes Verständnis zu bekommen. Ein entsprechender Bezug darf auch für die hier vorliegende Forschung angenommen werden. In ihr werden bereits existierende Erkenntnisse verschiedener Wissenschaften in Beziehung zueinander gebracht, um ein hoch spannendes Thema zu untersuchen und Antworten zu finden. Die Herausforderung liegt vor allem darin, bestehende Grenzen in unserem Mindset und dem damit verbundenen Verständnis über die Erklärungen zu unserer Welt zu überwinden und neue Interpretationen zuzulassen. Denn das, was für real und vor allem theore-
XXXIV
Vorwort
tisch gesichert erachtet wird, erweist sich oft bei weitem als nicht so belastbar, wie gemeinhin gedacht wird. Stellvertretend dafür die Physik, von der zunehmend mehr Insider glauben, dass es eines Paradigmawechsels auch in der Physik bedarf, da fundamentale Fragen nicht mit den bisherigen Gedanken- und mathematischen Modellen beantwortet werden können (Giudice 2017: 21). Die Konsequenzen einiger Experimente der jüngeren Vergangenheit führen den ein oder anderen Forscher sogar zu Fragen, ‚ob die Natur unnatürlich ist?‘ oder ‚das Universum überhaupt Sinn macht?‘ (Wolchover 2013). Wenn die Physik selbst schon solche Fragen aufwirft, die wohl weniger physikalischer als vielmehr philosophischer Natur sind und mit deren Interpretation zu tun haben, liegt es nahe, bisherige Paradigmen infrage zu stellen und Erfahrungen aus unterschiedlichen Kontexten neu zu überdenken. Dies ist vor allem vor dem Hintergrund zu bedenken, dass die Recherchen zur vorliegenden Arbeit erhebliche Lücken zwischen bestehenden Theorien und experimentellen Beobachtungen aufzeigen. Hierzu passt die Aussage von Arkani-Hamed, nach der Theorien genauso wenig ein ‚bisschen feinabgestimmt‘ sein sollten, wie jemand nur ein ‚bisschen schwanger‘ sein kann (ebd.). Auch die Kommunikationsforschung, die wesentliche Beiträge u. a. zu Unternehmensführung, Marktkommunikation und Transformationsprozessen liefert, fordert ein vertieftes Verständnis für soziale Interaktionen ein. Singer weist zu Recht darauf hin, dass es nicht ausreicht zu verstehen, wie Gedanken, Gefühle und Überzeugungen mit unserem sozialen Kontext zusammenhängen und wie wir darauf aufbauend selbiges von anderen Menschen voreingenommen aufnehmen, sondern betont vielmehr: „We also need to understand how we communicate thoughts and feelings to another mind to enable this other person to build a representation of our thoughts and feelings in his or her own brain and then, in a next step, feed this back to us so that we can correct this representation in case of mismatch“ (Singer 2012: 445). Es geht also darum, die grundsätzliche Kommunikation untereinander zu verstehen, Störungen und Missdeutungen zu erkennen und nicht zuletzt zu erkennen, aus welcher Quelle wir unsere Ideen und Inspirationen beziehen. Genau hier liegt eine weitere zentrale Bedeutung dieser Forschungsarbeit. Es geht nicht nur darum, SyA zu verstehen und ihre Akzeptanz zu erhöhen. Sie liefert auch neue Antworten zu Kommunikation und Interaktion. Es wurde schnell deutlich, dass ein Erklärungsmodell innerhalb der psycho-soziologischen Forschung (Systemtheorie, Konstruktivismus etc.) nicht zu haben sein wird. Erweitert man jedoch den Erklärungsrahmen und kombiniert Modelle verschiedener Wissenschaftsdisziplinen, so lassen sich Zusammenhänge konstruieren, die deutlich über den Untersuchungsgegenstand Intuition und SyA hinausgehen und verschiedenste Aspekte des Lebens berühren. Neben dem, dass die Methode der SyA tatsächlich im Rahmen der Unternehmensführung, des strategischen Managements und der Entscheidungsfindung verortet werden kann und sie sich in keiner Weise von der gängigen Unternehmenspraxis unterscheidet, die zu einem großen Teil auf intuitiven Gepflogenheiten basiert, erscheinen auch Lernund Kommunikationsprozesse in einem neuen Licht. Hierzu wird ein komplementäres
Vorwort
XXXV
Modell zur Erweiterung des Wahrnehmungs- und Lernverständnisses lebender Systeme vorgestellt, das erfahrungsbasierte Konzepte nachvollziehbar macht. Es hilft beim frühzeitigen Erkennen von Möglichkeiten und Zusammenhängen unterschiedlichster Art, und es hilft gesellschaftspolitische und gruppendynamische Entwicklungen zu verstehen. Es schließt Lücken wissenschaftlicher Erklärungsmodelle in verschiedenen Disziplinen und kann so einen Beitrag leisten, Diskussionsstränge unterschiedlicher Wissenschaftsdisziplinen zusammenzuführen. So wird unter anderem in dieser Arbeit eine Theorie zur Durchgängigkeit der Information vom Mikro- zum Makrokosmos2 und deren Inkonsistenz im Zusammenhang mit der Bedeutungsgebung entworfen. Überraschenderweise ließen sich auch eher philosophische Beiträge zur ToE (Theory of Everything) und zur ToM (Theory of Mind) ableiten, die ursprünglich nicht im Fokus dieser Forschung standen. Abschließen möchte ich diese ersten Gedanken mit einem Zitat aus ‚Die Möwe Jonathan‘: „Glaube an Grenzen und sie gehören Dir!“ (Bach und Munson 2005) Diese Grenzen zu überwinden und der Verbindung im Rahmen einer wissenschaftlich fundierten Arbeit nachzuspüren, ist mein Ziel für dieses Forschungsvorhaben. Entstehungsgeschichte Abb. 1 skizziert den Annäherungsprozess an das Thema. Noch während des Studiums bekam ich Zugang zu einem Seminar zur Stress- und Bewusstseinskontrolle (SMC – Silva Mind Control) (Sorel 2010; Silva und Miele 2004). Als Nebeneffekt der Entspannung gingen sehr irritierende Wahrnehmungen und inneres Wissen über mir fremde Personen einher, die weit außerhalb meines vorhandenen Wissens und Verständnisses lagen. Die SMC-Methode ermöglichte das Erfassen von körperlichen Krankheitszuständen und der psychologischen Verfassung von Personen, die einem unbekannt und nicht lokal anwesend waren. Vergleichbares inneres Wissen über andere Personen bzw. Organisationen zeigte sich bei meinen gestalttherapeutischen und systemischen Beratungsausbildungen. Kommunikationsmodelle aus der TA (Transaktions-Analyse) oder dem NLP (Neuro-Linguistisches Programmieren) basierten ebenfalls auf intuitivem Wissen bzw. in einer bestimmten Art, mit Anderen in Kontakt zu treten. Für mich als ausgebildeter Naturwissenschaftler, mit betriebswirtschaftlichem Zusatzstudium, waren diese Erfahrungen verwirrend, da sie sich einer Erklärung völlig entzogen.
2
Mikro- und Makrokosmos werden ab jetzt physikalisch verstanden unter Einschluss von Lebewesen.
XXXVI
Vorwort
Abb. 1 | Der Weg durch die Welt des Unerklärlichen. Die Abbildung zeigt die Entstehungsgeschichte zu der hier vorliegenden Forschung, beginnend bei meinen Erfahrungen mit der Silva-Mind-Control-Methode (SMC) bis hin zur Forschung in den Neurowissenschaften. Wesentliche Impulse lieferten die Arbeiten von Laszlo, Schlötter und Görnitz, mit denen ich in den aufgeführten Jahren in Kontakt kam. Die Darstellung entspricht meinem Vorgehen analog der Vorgehensweise auf Basis der Grounded Theory, wie sie im Weiteren noch ausführlich vorgestellt wird. (eigene Darstellung)
Die größte Irritation lieferte schließlich meine erste Erfahrung bei einer SyA 1999. Trotz großer Bedenken meinerseits, bestätigten die Erfahrungen und Gespräche mit Teilnehmern von SyA und Kunden die Nützlichkeit der Methode. Die Gespräche legten gleichzeitig die erhebliche Zurückhaltung offen, diese Methode in Wirtschaft und Industrie einzusetzen, ganz anders als sich die Situation im sozialen Kontext darstellte. Die NichtErklärbarkeit löst im ersten Feld Vorsicht aus, trotz positiver Ergebnisse, im zweiten Feld dagegen große Bereitschaft zur weiteren Exploration. Mein Interesse orientierte sich deshalb in zwei Richtungen: Einsatzfelder im ökonomischen Umfeld zu identifizieren und Erklärungsmodelle zu finden. Zwei Vorträge auf Kongressen mit Bezug zur Physik (Ervin Laszlo 2003 und Görnitz 2008) lieferten weitere Impulse. Erste Vertiefungen in die Welt der Intuitions- und Entscheidungstheorie-Forschung machten deutlich, dass die eben beschriebenen Erfahrungen eindeutig der Welt der Intuition (körperliche und mentale Wahrnehmungen) zuzuordnen sind. Eine Dissertation von Schlötter zeigte zudem die Wiederholbarkeit von SyA, auch unter naturwissenschaftlichen Bedingungen und belegte, dass es sich in keiner Weise um zufällige Ereignisse handelt (Schlötter und Simon 2005). Für Naturwissenschaftler sind solche wiederholbaren Phänomene üblicherweise mit zugrundeliegenden Naturgesetzen bzw. entsprechenden Zusammenhängen verbunden, auch wenn sie noch nicht bekannt sein sollten, die Suchprozesse auslösen sollten. Für Personen aus der Wirtschaft und psychologisch Ausgebildete steht demgegenüber meist die Anwendbarkeit und der Nutzen im Vordergrund, gerade wenn viele Erfahrungen, aber keine Erklärungen vorliegen. Ein Zwiespalt, der mich immer wieder forderte und beeinflusste.
Vorwort
XXXVII
Meine ersten relevanten Literaturrecherchen starteten 2008. Es wurde dabei schnell deutlich, dass ein Erklärungsmodell innerhalb der psycho-soziologischen Forschung (Systemtheorie, Konstruktivismus etc.) nicht zu haben sein wird. Erweitert man jedoch den Erklärungsrahmen und kombiniert Modelle verschiedener Wissenschaftsdisziplinen, so lassen sich aus den bisher nicht erklärbaren Besonderheiten Zusammenhänge konstruieren, die deutlich über den Untersuchungsgegenstand Intuition und SyA hinausgehen und auf eine notwendige Anpassung hinweisen. Einen wesentlichen Impuls hierzu lieferten die Arbeiten der Familie Görnitz. Die intensive Phase begann Anfang 2013 mit dem Besuch von Vorlesungen zur Quantenphysik in Auckland. Erste Ideen aus dem Studium der Quantenphysik und der Ausschluss bisheriger konventioneller Erklärungsversuche lieferten Impulse zu eigenen, technischen Aufstellungen, um erste Thesen zu überprüfen. Nach wie vor sprachen jedoch das allgemeine, physikalische Weltbild und die Interpretationen der Quantenphysik gegen eine Anwendbarkeit der Quantenphysik auf lebende Systeme oder besser, auf die Phänomene, die in SyA beobachtet werden. Die folgende Beschäftigung mit Quantenbiologie und in der Folge mit den Neurowissenschaften zeigte, dass auch hier quantenphysikalische Prozesse nachgewiesen (Biologie) oder zumindest modellhaft entwickelt wurden (Neurowissenschaften). Gespräche mit verschiedenen Wissenschaftlern und Wissenschaftlerinnen führten schließlich zur Empfehlung von Professor Bergmann, mich mit der Informationstheorie näher zu beschäftigen. Von dort aus ging es wieder zurück zur Basis der Quantenphysik und zur Quantenchemie. Zahlreiche weitere Schleifen zurück zu bereits untersuchten Themen (z. B. Psychologie und Soziologie) und unterschiedliche eigene SyA-Experiment suchten immer wieder auftauchende Erklärungslücken und -brüche zu schließen.
1
Einstieg und Orientierung
1.1
Einleitende Gedanken und Ausgangssituation
Rationalität versus Bauchentscheidungen, begründbare Konzepte versus intuitive Eingebungen (Kahneman 2016; Holtfort 2013; Gigerenzer 2008): Welches sind die richtigen Modelle und Vorgehensweisen, um den immer schneller werdenden technologischen und ökonomischen Veränderungen als Unternehmensführer adäquat zu begegnen (Mack und Khare 2016; IPA-Studie 2015; Glanz und Nadler 2011; Hilbert und López 2011)? Die Zeiten, in denen Entwicklungen in ausreichender Weise geplant, getestet und realisiert werden konnten und in denen die Markteilnehmer bekannt und berechenbar waren, gehören schon seit längerem der Vergangenheit an. Zirkuläre und sich gegenseitig beeinflussende Wechselwirkungen werfen erhebliche Probleme für die Entscheidungsfindung der Verantwortlichen auf. Zusätzlich werden heute Wirtschaftssysteme als komplexe Systeme betrachtet, in denen nicht alle darin existierenden Wahlmöglichkeiten und Varianten durchgespielt werden können oder bekannt sind (Luhmann 1991: 152). Solche komplexen Systeme erhöhen die Anforderungen an Entscheider weiter, indem diese gefordert sind, Antworten auf Kontingenz3 und doppelte Kontingenzbedingungen4 zu finden (ebd. 152 und 154). Eine volatile, unbestimmte, komplexe und ambigue (VUCA) 5 Welt (Schick u. a. 2017; Böhnke u. a. 2017; Mack u. a. 2016; Moore 2014; Horney u. a. 2010) stellt den äußeren Kontext, quasi den Behälter dar, in dem die Instrumente zur Unternehmensführung, zum strategischen Management oder zu Entscheidungsprozessen zur Anwendung kommen, und die Methode der System-Aufstellung (SyA) liefert seit einiger Zeit eines dieser Instrumente. Bei SyA werden unterschiedlichste Fragestellungen, Beziehungsstrukturen und Informationen in einem dreidimensionalen Raum über Repräsentanten (in der Regel Menschen) zur Darstellung gebracht. Die Repräsentanten fungieren dabei als ‚Resonanzkörper‘ für dahinterliegendes implizites Wisse6 7, welches sich über mentale und körper-
3
4
5 6
7
Bei der einfachen Kontingenz geht es um die Wahlmöglichkeiten (Kontingenz) in einer nicht vollständig und eindeutig erfassbaren Realität. Doppelte Kontingenz bezieht sich auf die Abhängigkeit der eigenen Handlung von der erwarteten Kontingenz der anderen Beteiligten. Eine ausführliche Beschreibung zu den VUCA-Kategorien findet sich in Kap. 3.1 Der Ausdruck ‚Wissen‘ hat seine Wurzeln im Althochdeutschen bzw. im Indogermanischen und bedeutet ‚ich habe gesehen‘ und somit ‚weiß ich‘. (Alois Walde: Lateinisches etymologisches Wörterbuch. 3. Auflage. Heidelberg 1938, II, S. 784-785.) Daraus abgeleitet wird ‚Wissen‘ üblicherweise mit Fakten, Theorien oder Regeln gleichgesetzt, die sich im Bestand von Menschen befinden und sich durch eine hohe Gewissheit und damit Wahrheit auszeichnen. „Implizites Wissen ist ein stummes, verkörpertes, leibliches Können und Vermögen das praktisch wirksam ist, aber meist ungesagt bleibt“ (Schnell 2014: 17).
© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_1
2
1 Einstieg und Orientierung
liche Wahrnehmungen bemerkbar macht (vgl. Gehlert 2015a: 2). Eine ausführliche Beschreibung findet sich in Kap. 3.3. Mit ihrer Hilfe werden Entscheidungen und strategische Ausrichtungen bis hinauf in die Vorstandsetagen großer Konzerne vorbereitet, überprüft und modifiziert (Rowland 2017; Arnold 2017; Rosselet u. a. 2007; Grochowiak und Castella 2001) . Dies war gut auf der internationalen Konferenz zum 20-jährigen Bestehen der Organisationsaufstellung (‚Und wohin ziehen die Drachen nun?‘ Wiesloch, 26. – 28.04.2018) sichtbar geworden. Dort wurde die praktische und erfolgreiche Nutzung von SyA in einem breiten Spektrum vorgestellt (RWE, Siemens, Mercedes, verschiedene Banken und andere) und wie bei Rowland, bis in die Vorstandsetagen großer Weltkonzerne. Rowland selbst beschrieb ihre Arbeit mit dem Vorstand von RWE unter Verwendung von SyA. Gleichwohl war auch hier die Frage nach dem WIE einer gelingenden und akzeptierten Ankopplung an rationale Organisationen eine zentrale Frage. Zahlreiche Beispiele machten deutlich, dass die Methode der SyA verwendet, aber bewusst nicht benannt wurde. Das VUCA-Umfeld liefert den Kontext, der auch im TOP-Management zur Akzeptanz intuitiver und damit ganz anderer Prämissen und Vorgehensweisen geführt hat, als sie die klassische Theorie der Unternehmensführung und Entscheidungsbildung bisher überwiegend anbietet. Diese Akzeptanz findet jedoch weitestgehend hinter verschlossenen Türen, unter Ausschluss der Öffentlichkeit statt. Gleichzeitig können so die möglichen Potentiale nicht im größeren Rahmen genutzt und Fehlentwicklungen nur schlecht entgegengewirkt werden. Die konzeptionelle Grundlage einer logischen, auf reiner Rationalität aufbauenden Vorgehensweise führt unter komplexen, ambiguen Gegebenheiten in vielen Fällen zu suboptimalen Ergebnissen mit hohen Kosten und langen Erhebungs- und Umsetzungszeiten (Kahneman 2016; Holtfort 2013; Gigerenzer 2008); Kosten und Zeiten, die bei der derzeitigen Veränderungsgeschwindigkeit die Existenz gefährden können. Entsprechend finden sich zunehmend mehr Veröffentlichungen, die sich diesem Phänomen und möglicher Abhilfen widmen und häufig unter Einbezug von SyA (Rowland 2017; Mack u. a. 2016). Gleichwohl orientiert sich die wissenschaftliche Forschung und Lehre immer noch sehr stark am rational orientierten Weltbild, wenn es um strategische Entscheidungen geht (Pfister u. a. 2016). Forschungen der letzten Jahre (Kahneman 2016; Holtfort 2013; Dijksterhuis und Roth 2010; Gigerenzer 2008), die eindeutig auf die Überlegenheit intuitiv getroffener Entscheidungen in komplexen Situationen hinweisen, sind vermutlich ursächlich an der sich zeigenden, vorsichtigen Offenheit beteiligt (Kuls 2016). Kritische Gegenstimmen, die u. a. auf die mangelnde theoretische Erklärungsmöglichkeit hinweisen (Street und Vadillo 2016; Custers 2014) und die Prämisse der Rationalität, als immer noch gültige oberste Maxime im Management, verhindern heute meist noch einen offenen Einsatz intuitiver Methoden. Vor dem Hintergrund, dass Phänomene, wie sie bei Intuition und SyA auftreten, noch nicht mit einer tragfähigen Theorie kompatibel sind und deshalb in vielen Fällen sehr skeptisch betrachtet werden, erklären sich auch Zielrichtung und Titel dieser Dissertation. Intuition wird zunächst verstanden als eine körperliche oder mentale Wahrneh-
1.1 Einleitende Gedanken und Ausgangssituation
3
mung, deren Herkunft unklar bzw. nicht offensichtlich ist. Näher werden der Begriff und seine Implikationen in Kap. 4.1 behandelt. Diese Dissertation bearbeitet mit der Untersuchung der Anschlussfähigkeit von SyA an Unternehmensführung, strategisches Management, Entscheidungstheorie und Intuition ein bisher noch nicht betrachtetes Feld. Untersucht wird damit eine mögliche Verortung der SyA im Alltag der Unternehmensführung und ihr Bezug zur Intuition, welche sich ebenfalls durch körperliche und mentale Wahrnehmungen charakterisiert. Darüber hinaus gibt es derzeit auch noch keine Forschung zur Bildung einer Theorie der SyA, die belastbare Modelle zu deren Funktionsweise anbietet; eine unabdingbare Notwendigkeit für eine schnellere Akzeptanz der Methode und der Intuition als solches. Genau diese Lücke der Erklärbarkeit soll geschlossen werden. Eine Erklärbarkeit, die auch aufgrund von Doppelblindaufstellungen8 und technischer SyA9 dringend geboten scheint und derzeit die größte Herausforderung auch für erfahrene Vertreter von SyA darstellt. Solche Aufstellungsformate und -themen lassen die Frage nach dem dahinterliegenden Prozess als evident erscheinen. Dies gilt umso mehr, als aus den bisher vorliegenden Forschungsarbeiten rein zufällige Zusammenhänge ausgeschlossen werden können (Weinhold u. a. 2014; Schlötter und Simon 2005). Dass die Notwendigkeit einer wissenschaftlichen Auseinandersetzung mit SyA und der mit ihr verbunden Intuition als auch die Suche nach einem Erklärungsmodell hohe Relevanz besitzt, veranschaulichen die folgenden, vertiefenderen Zusammenhänge. Wie gesehen, haben Intuition im gelebten Alltag und ihre theoretische Anerkennung in jedem Fall noch nicht zueinander gefunden. Genauso wenig ist die SyA in wirtschaftswissenschaftlichen Kontext offiziell verankert, gleichwohl besteht eine signifikante Tendenz, sie in Bereiche des ökonomischen Lebens zu integrieren. Damit folgt die Methodik der SyA anderen, nicht typisch wirtschaftswissenschaftlichen Konzepten, wie der Achtsamkeitsforschung (mindfulness). Ihnen gemein ist eine körperliche, intuitive Wahrnehmung und ihre Rolle im Business lässt sich mithilfe eines Zitats von Rowland beispielhaft veranschaulichen: „We found that a leader’s ability to be mindful needs to be supplemented by a deep capacity to perceive the world through a systemic lens. And it was this deeper interpretative capacity that proved the biggest differentiator between high and low success in leading large complex change” (Rowland 2017: 6). Wobei Roland eine interessante Unterscheidung zwischen systemischem Denken (Systemic Thinking) und systemischer Wahrnehmung (Systemic Perceiving) vornimmt. Systemisches Denken bezieht sich demnach auf eher kognitiv-rational durchgeführte Ursachenanalyse von Beziehungen zwischen Systemelementen. Systemische Wahrneh-
8
9
Die Repräsentanten und teilweise auch der Aufstellungsleiter in einer Aufstellung wissen nicht, für welche Elemente sie stehen. Aus diesem Grund scheiden alle sozialwissenschaftlichen Erklärungen aus, die sich auf unterbewusstes Wissen und Relationen beziehen. Bei technischen SyA werden rein technische Bauteile oder IT-Systeme mittels Aufstellungen untersucht. Auch für solche Mind-Matter-Interactions gibt es heute noch keine akzeptierten Modelle und Theorien.
4
1 Einstieg und Orientierung
mung zielt demgegenüber auf körperliche und mentale Signale ab, die aus Erfahrungen und der Einbettung in ein übergreifendes Feld resultieren (ebd. 80-81). Mit SyA steht demnach eine Methode zur Verfügung, auf die genau diese Attribute, Achtsamkeit sowie körperlich und mentale, intuitive Wahrnehmung, zutreffen. Mehr noch, systemische Wahrnehmungen treten bei SyA nicht zufällig auf, wie in vielen Situationen des Führungsalltags, sondern lassen sich kontrolliert kreieren. Dies wird aus den zahlreichen Beispielen der universitären Forschung in Kap. 3.3.2, den erstaunlichen Beispielen in Kap. 3.3.3 und nicht zuletzt aus der zahlreichen Literatur zum Thema ersichtlich (Arnold 2018a; Weber und Rosselet 2016; Wilhelmer 2009; Rosselet u. a. 2007; Weber u. a. 2005). Auch deshalb ist eine vertiefte Forschung sinnvoll und notwendig. Vielen der neueren Arbeiten ist gemein, dass intuitive Impulse tragende Säulen guter Unternehmensführung und guter Entscheidungen im strategischen Management darstellen und entgegen der landläufigen Meinung auch von erfolgreichen Managern akzeptiert werden (ebd.). Rowland führt dies anhand zahlreicher Befragungen und Veränderungsprozesse aus, wobei sie die Methode der SyA nur einmal kurz erwähnt (ebd. 193). Obwohl sie in ihren Changeprozessen sehr umfangreich mit SyA arbeitet, wird in ihrem Buch diese Form nur mit ‚Tune in‘, ‚Mindfulness‘ oder ‚Systemic Perceiving‘ umschrieben, Begriffen, die eher ungefährlich erscheinen, da besonders ‚Mindfulness‘ fast schon zum akzeptierten Unternehmensvokabular gehört. Passenderweise stellt sie auch den Bezug zu einer der aktuell populärsten Führungsansätze zur Zukunftsgestaltung her, der ‚Theorie U‘ und dem dort eingebetteten ‚Presencing‘ (ebd. 94). Scharmer stellt dem Presencing (vom Quellort aus wahrnehmen) noch das Sensing (das Hinspüren) voran, beides wichtige Aspekte in SyA (Scharmer 2014: 153–196). Obwohl Rowland eine anerkannte Beraterin ist, zieht sie es offensichtlich vor, die Methodik der SyA nicht offen, sondern verdeckt einzuführen. Es scheint ihr, wie vielen anderen Beratern auch, ein Anpassungsprozess notwendig, um einer möglichen Verstörung ihrer Kunden oder auch anderer Stakeholder vorzubeugen. Der operative Druck in Verbindung mit dem erstaunlichen Nutzen (Berreth 2009; Wilhelmer 2009) bezüglich Zeit- und Ressourceneinsatz sowie Ergebnis- respektive Gewinnverbesserungen und nicht zuletzt die erstaunliche Nachvollziehbarkeit dessen, was von den Repräsentanten erfasst wird, scheint dazu zu führen, dass Hemmungen immer häufiger über Bord geworfen werden. Insofern darf diagnostiziert werden, dass sich seit Beginn meiner Forschung sehr viel bewegt hat. Ausgehend von einer starken Hemmung, mit eigenen Erfahrungen zu Intuition und Achtsamkeitserlebnissen nach außen zu treten, flutet aktuell eine Welle der Öffnung und Bereitschaft zur Mitteilung über die Wirtschaftswelt. SyA werden heute in vielfältiger Weise genutzt. Sie haben vor allem schon lange den Bereich der psychotherapeutischen Therapie und des medizinischen Kontexts verlassen und, wie eben dargestellt, in Wirtschaft und Industrie Einzug gehalten. Wie noch zu zeigen sein wird, existieren mittlerweile zahlreiche universitäre Forschungsarbeiten aus unterschiedlichen Disziplinen. So gut wie alle versuchen ihre Wirksamkeit zu untersu-
1.1 Einleitende Gedanken und Ausgangssituation
5
chen. Dabei konfrontieren uns SyA vor allem mit der Frage: Wo kommen unsere Intuitionen bei SyA her; Intuitionen, die uns Gefühle und Bilder, korrespondierend zu realen Situationen, wahrnehmen lassen? Jetzt wäre das Auftauchen von Gefühlen und Bildern für die menschliche Spezies an sich nichts Besonderes, wären sie in vielen Fällen nicht entscheidungs- und handlungsleitend und damit ein wesentlicher Faktor für unser Überleben und Zusammenleben sowie für den Erfolg im ökonomischen und industriellen Kontext und damit auch für die Unternehmensführung. Dies gilt besonders in einer Zeit, in der die Geschwindigkeit und Komplexität mit enormen Schritten voranschreitet. Heuristiken10 können nur für einen kleinen Teilbereich dieser Intuitionen Antworten liefern, da in vielen Aufstellungen die Voraussetzungen für Heuristiken nicht gegeben sind. Verzerrungen zeigen uns wiederum, wie Fehlinterpretationen entstehen und dass beim Übergang vom nur bedingt beobachtbaren Mikrokosmos (in diesem Fall das Unterbewusste) zum Makrokosmos (hier zunächst verstanden als beobachtbare Handlungen) Probleme auftreten können. Damit haben wir aber noch keine Antworten auf Früherkennung von Ereignissen, die erst später auftreten, wie sie ebenfalls bei SyA beobachtbar sind und Relevanz für strategische Entscheidungen haben. Wenn Heuristik keine allgemeingültige Antwort geben kann, dann ist der Vorschlag auf ‚eine andere einfachere Frage‘ auszuweichen, wie sie Gigerenzer (2008) und teilweise Kahneman bei Heuristik (2016: 164–165) empfehlen, tatsächlich keine wirkliche Hilfe. Greift man diesen Gedanken der ‚richtige Fragestellung‘ allerdings auf, so lässt sich auch für SyA feststellen, dass die richtige Fragestellung von zentraler Bedeutung ist. Sie ist nicht in Bezug auf Vereinfachung von Bedeutung, sondern in Bezug auf das Erzielen eines stimmigen Ergebnisses. Ansonsten zeigt sich etwas, das zwar auch als Antwort interpretiert werden kann, unter Umständen aber nicht zu unserem Anliegen oder der gesuchten Entscheidung passt. Verzerrungen bzw. Veränderungen der Antwort entstehen durch Veränderungen der Frage, aber auch durch zusätzliche neue Elemente11. Alles Aspekte, die auch in der Unternehmensführung, für das strategische Management und ganz allgemein für Entscheidungen analog gelten. Auch bei der Untersuchung zu erfolgreichen strategischen Vorhaben fällt auf, dass Intuition eine maßgebliche Rolle spielt und in Konzepte wie ‚strategische Intuition‘ (Duggan 2013) und ‚Effectuation‘12 (Faschingbauer 2017) mündet. Konzepte, die in der Lage scheinen der existierenden Unsicherheit begegnen zu können. Die bisherigen Erklärungen zu Intuition und Entscheidungstheorie sind jedoch nicht in der Lage, alle Phänomene nachvollziehen zu können, für die es gegenwärtig glaubwürdige Experimente gibt. Hier liegt auch der Grund für die überwiegend informelle Nutzung oder gar Ab10
11
12
Unter Heuristik wird eine einfache, schnelle Denkstrategie verstanden, die schnelle Urteile und Problemlösungen auf der Basis unvollständigen Wissens ermöglicht. Definitionsgemäß beruht Heuristik auf schneller Mustererkennung, hervorstechenden Eigenschaften und einfachen Regeln. Elemente werden hier verstanden als Aspekte, die eine Rolle für die Frage bzw. Entscheidung spielen können. Dies können Beteiligte, Hindernisse, Ressourcen etc. sein. Effectuation ist ein methodischer Ansatz im Bereich des strategischen Managements. Der Begriff ‚Effectuation’ ist als Kunstwort gedacht und meint ‚Unternehmergeist’, der Neues in die Welt bringen will.
6
1 Einstieg und Orientierung
lehnung von ‚strategischer Intuition‘, SyA und anderen intuitiven Methoden. Ein Grund, der aus Sicht des Rationalitätsanspruchs unserer ökonomischen Systeme und deren Stakeholder gut nachvollziehbar ist, steht doch ihre Glaubwürdigkeit und Seriosität damit in direkter Verbindung. Gleichwohl bleiben dadurch erhebliche Chancen in Bezug auf Effektivität, Effizienz und letztlich Gewinn ungenutzt liegen. 1.2
Zielsetzungen der Forschungsarbeit
Die Hauptziele lassen sich wie folgt beschreiben: 1. Die wissenschaftlich fundierte Untersuchung einer möglichen Anschlussfähigkeit von SyA an die Forschungen über strategisches Management, Entscheidungstheorie und Intuition, um die Möglichkeiten und Grenzen von SyA für ökonomische und komplexe Entscheidungsprozesse aufzuzeigen. 2. Die Erarbeitung eines Erklärungsmodells, das die derzeitigen Grenzen bestehender Erklärungsversuche überwindet oder zumindest neue Ansätze liefert. Im Idealfall lässt sich eine Brücke zwischen Sozial- und Naturwissenschaften konstruieren. Weiter ausdifferenziert ergeben sich folgende Detailziele: 1. Erkenntnisse aus strategischem Management, Entscheidungstheorie und Intuitionsforschung mit Erkenntnissen zu SyA abgleichen und kritisch überprüfen. Welchen Beitrag kann SyA für die strategische Unternehmensführung und die Entscheidungsforschung leisten? Können die Phänomene bei SyA als intuitive Wahrnehmung verstanden werden? Auf welchem qualitativen und verlässlichen Niveau bewegen sich Entscheidungen, die auf den Ergebnissen von SyA basieren? Welchen Beitrag kann SyA für das Problem der Kontingenz und doppelten Kontingenz im Rahmen von Entscheidungen liefern? Was muss bei der Nutzung von SyA für Entscheidungen in Bezug auf die zur Verfügung stehenden Möglichkeiten berücksichtigt werden? 2. Entwurf eines in sich geschlossenen, komplementären Erklärungsmodells zum Verständnis von Intuition im Rahmen von SyA. Dieses Modell soll versuchen, den dahinterliegenden Prozess zu beschreiben. Wie kann der Wirkprozess von SyA und Intuition beschrieben werden? Wie weit lassen sich damit auch heute im Rahmen der Intuitionsforschung noch nicht erklärbare Phänomene (Bauchgefühle) nachvollziehen?
1.3 Vorgehensweise und Methode
1.3
7
Vorgehensweise und Methode
Im Folgenden eine erste Orientierung zur Vorgehensweise und zur Methodik. Ausführliches zum methodologischen Zugang dieser Arbeit wird in Kap. 2 beschrieben. Die vorliegende Arbeit entspricht mindestens in zwei wesentlichen Aspekten nicht den gängigen wissenschaftlichen Forderungen. Zum einen der Forderung nach Fokussierung auf einen kleinen, sehr differenzierbaren Bereich einer Problemstellung innerhalb einer wissenschaftlichen Disziplin. Dies ist auch der Grund, weshalb sie in den Wirtschaftswissenschaften angesiedelt ist. Die Wirtschaftswissenschaften ermöglichen eine disziplin-übergreifende Forschung, was zur vollständigen Modellierung des Wirkmechanismus hinter SyA zwingend notwendig war. Zum anderen wird damit auch die Forderung nach einer möglichst einfachen Erklärung enttäuscht. An dieser Stelle soll auf eine Ausführung von Kahneman hingewiesen werden, die er im Zusammenhang mit der Vorstellung seiner ‚Neuen Erwartungstheorie‘ und der zusätzlichen Forderung nach einem Referenzzustand traf: „Daher ist die neue Erwartungstheorie komplexer als die Nutzentheorie. In der Wissenschaft gilt Komplexität als ein Kostenfaktor, der durch eine hinreichend vielfältige Menge neuer und (vorzugsweise) interessanter Vorhersagen von Tatsachen, die die gegenwärtige Theorie nicht erklären kann, gerechtfertigt werden muss“ (Kahneman 2016: 346). Darüber hinaus wurde im Wesentlichen auf existierende Experimente und theoretische Überlegungen zurückgegriffen, die heute schon in den wissenschaftlichen Diskurs unterschiedlicher Wissenschaftsdisziplinen Eingang gefunden haben. Durch das Fehlen einer nachvollziehbaren und akzeptierten Theorie innerhalb einer Wissenschaftsdisziplin, wurde eine disziplinübergreifende Suche nötig. Diese übergreifende Suche wird verständlich, wenn wir uns die Grundlage der einzelnen Wissenschaften betrachten. So basieren die Wirtschaftswissenschaften auf verschiedenen wissenschaftlichen Disziplinen wie z. B. Betriebswirtschaftslehre und Mathematik, aber auch auf Psychologie und Soziologie, um nur einige zu nennen. Die Psychologie ihrerseits greift auf Neurowissenschaften und diese wiederum auf Biologie zurück. Kommt die Forschung auf einer Wissenschaftsebene an Grenzen, sucht sie in sie tangierenden Disziplinen nach Antworten. Für eine systematische Forschung und aufgrund der Vielfältigkeit der verschiedenen Wissenschaftsdisziplinen, der Notwendigkeit einer Fokussierung sowie einer dann folgenden strukturierten Exploration und Ausarbeitung bot sich die Methode der Grounded Theory13 (GT) an (Strauss und Corbin 2010). Die GT sieht in ihrem Ansatz die Entwicklung von Codes14 vor, nach denen gesucht wird und die quasi als Fokus wie auch als Leitlinien für das Forschungsprojekt dienen. 13
14
Die GT ist ein spezieller Forschungsansatz, bei der sich Forschende iterativ zwischen den beobachtbaren Lücken in der phänomenologischen Welt und in denen der Literatur bewegen. Als Code, im Sinne der Grounded Theory, gelten Begriffe, Stichwörter und Konzepte, die auf Phänomene des zu untersuchenden Bereichs verweisen. Codierung bedeutet Klassifizierung von Phänomenen und Kategorienbildung. „Coding means categorizing segments of data with a short name that simultaneously summarize and accounts for each piece of data. Your codes show how you
8
1 Einstieg und Orientierung
Nachdem es sich bei den irritierenden Erfahrungen (siehe Entstehungsgeschichte) immer wieder um die gleichen Themen handelte – eine scheinbare Informationsübertragung und deren Wahrnehmung über Distanz – ergaben sich die Codes fast zwangsläufig, nach denen bzgl. Theorien und Experimenten gesucht werden muss. Ausgewählt wurden schließlich drei generalisierte Codes und ein Untercode, die für die Anschlussfähigkeit von SyA an den Businesskontext relevant waren und in Kap. 2.1 ausführlich hergeleitet werden: 1. Körperlichkeit und mentale Wahrnehmung in Verbindung mit Intuition Glaubwürdigkeit und Legitimation (Untercode) 2. Information 3. Übertragungswege Diese vier Codes ziehen sich sowohl durch die theoretischen als auch durch die experimentellen Untersuchungen. Die dabei vorliegenden und entstandenen Erkenntnisse werden immer wieder mit eigenen Beobachtungen bei SyA und deren Interpretationen in Beziehung und möglichst zur Deckung gebracht. 1.4
Aufbau der Arbeit
Der grundsätzliche Aufbau dieser Arbeit fußt auf den Empfehlungen von Shepherd und Suddaby, wonach Veröffentlichungen im Rahmen von gutem „Pragmatic Empirical Theorizing“15 der Reihe nach folgende Elemente aufweisen (Strauss und Corbin 2010): § „Introduction § Research Method § Multiple Tests § Multiple Results § Initial Theoretical Model and Propositions § Discussion and § Conclusion.“ Entsprechend wird nach der Einführung das methodologische Vorgehen beschrieben, da es für alle Themenkreise, Wissenschaftsdisziplinen und den entwickelten Ergebnissen forschungsleitend war. Zur Entwicklung einer neuen Theorie eignet sich besonders gut die GT. Diese Methode und ihre Adaption für meinen weiteren methodologischen Zugang werden in Kap. 2 erläutert. Auch wird die bereits oben angedeutete Fokussierung auf die Codes ‚körperlich/mentale Wahrnehmung‘, ‚Information‘, ‚Übertragungswege‘ sowie ‚Glaubwürdigkeit und Legitimation‘ verständlich herausgearbeitet. Für die Wirtschaftswissen-
15
select, separate, and sort data to begin an analytic accounting of them“ (Strauss und Corbin 2010: 43) ‚Pragmatic Empirical Theorizing’ baut auf quantitative, empirische Erkenntnisse und versucht damit das Theoretisieren als Teil eines abduktiven Untersuchungsprozesses zu stimulieren (vgl. Shepherd und Suddaby 2017: 60).
1.4 Aufbau der Arbeit
9
schaften würde die Fokussierung auf die GT üblicherweise ausreichen. Aufgrund des Hinzuziehens auch anderer Wissenschaftsdisziplinen mit anderen Herangehensweisen und Logiken fällt dieses Kapitel umfangreicher aus als üblich. Ergänzend beschäftigt es sich mit einem prinzipiellen Verständnis wissenschaftlichen Arbeitens, dem Bayes Theorem, Erkenntnisformen und mathematischen vs. narrativen Beschreibungen. Dies erfolgt als erste Konsequenz aus dem im Codingprozess gefundenen Themenkreis ‚Legitimation‘. Es wird verständlich, wie es zur Glaubwürdigkeit und damit Legitimation oder besser zu unserem Bild von Glaubwürdigkeit kommt; eine Erkenntnis, die helfen kann, innere Widerstände gegen Neues, in diesem Fall neue Zugänge zu Erklärungsansätzen, zu überwinden. Zwei Zielsetzungen sollen damit erreicht werden. Zum einen eine bessere Anschlussfähigkeit der naturwissenschaftlichen Disziplinen und zum anderen ein bewussterer Umgang des Lesers mit möglichen inneren Widerstandsreaktionen gegenüber der ein oder anderen Schlussfolgerung. Dies erscheint insofern notwendig, da die Akzeptanz verschiedener theoretischer Modelle, die in den Kapiteln mit vorgestellt werden, bisher von einem Teil der Wissenschaftsgemeinde verweigert wurde. Die Gründe der Ablehnung werden durch eine differenzierte methodologische Betrachtung exploriert und nachvollziehbar. Gleichzeitig wird die Form der weiteren Ausführungen ab Kap. 3 verständlicher, in dem zunächst Bezug auf die aktuelle Herausforderung der Unternehmen und Organisationen und den damit verbundenen Problemstellungen genommen wird. Dieser wirtschaftswissenschaftliche Zugang setzt sich mit der Unternehmensführung im VUCAKontext, einem ersten Bezug zur Entscheidungsfindung in einem solchen Umfeld und den verbreiteten Lösungsansätzen auseinander. Als Spezialfall wird das strategische Management herausgegriffen und der Stand der Forschung über seine Möglichkeiten und Grenzen erkundet. Weiter wird die Rolle der Entscheidungen für das strategische Management untersucht und der theoretische und experimentelle Stand der Forschung hierzu gesichtet. Als mögliche Antwort zu den erkannten Grenzen der Entscheidungsfindung wird schließlich die Methode der SyA mit dem aktuellen Stand der Forschung vorgestellt und mit Beispielen hinterlegt. Bis hierhin werden vorzugsweise vorhandenes Wissen und vorhandene Experimente gesichtet, miteinander in Beziehung gebracht und erste Bewertungen vorgenommen. Obwohl vieles in den jeweiligen Forschungsschwerpunkten bereits intensiv erforscht wurde, fehlte bisher eine integrierende Perspektive, die Zusammenhänge untersucht und Möglichkeiten für neue Antworten eruiert. Die in diesen ersten Kapiteln bereits vorgenommene Integrationsarbeit weist sehr eindringlich auf Grenzen hin, die sowohl in den Erklärungsmodi selbst als auch auf der Seite der Akzeptanz dieser Erklärungsmodi liegen. Zudem wird deutlich, dass derzeit noch für bestimmte Phänomene keine Theorie existiert und eine solche somit neu entwickelt werden muss. Kap. 4 führt nun zwei interdisziplinäre Erweiterungen ein und verlässt darüber hinaus auch den Rahmen sozial-wissenschaftlicher Forschung. Exploriert werden die Themenkreise ‚Intuitionsforschung‘ und ‚Information‘. Dabei zeigen sich interessante Bezüge zur Entscheidungs- und SyA-Forschung sowie ein erweitertes bzw. neues Modell zur
10
1 Einstieg und Orientierung
Informationsübertragung. Kap. 5 fasst schließlich alle bisher gefunden Erklärungsmodelle für die Phänomene Intuition und SyA zusammen, um in Kap. 6 ein ausführliches Zwischenresümee zu ziehen sowie die noch offenen Forschungsfragen zu benennen. Offene Forschungsfragen, denen in den folgenden Kapiteln nachgespürt wird. Kap. 7 stellt erste heuristische Ideen, Zusammenhänge und Bedingungen vor, die auf dem Weg zu einem theoretischen Modell zu berücksichtigen sind. Mit diesem Kapitel wird die Tür zum 2. Teil dieser Arbeit geöffnet. Ein Modell von der Mikro- zur Makroebene (Kap. 8), das versucht Antworten für die bisher offenen Fragen zu generieren. Über eine quantenphysikalische Annäherung (Kap. 8.1), in der der Stand der Forschung zur Informationsübertragung und bisherige Plausibilitätsgrenzen exploriert werden, wird ebenfalls die Möglichkeit von Quantenprozessen erforscht und beschrieben. Letztere sind als Grundlage der Gültigkeit des angedachten theoretischen Modells zu verstehen. Weiter geht es mit Kap. 8.2 zur Physik und Entscheidungsbildung in lebenden Systemen (Quantenbiologie). Kap. 8.3 schließlich verbindet die bisherigen Erkenntnisse mit dem aktuellen Stand in den Neurowissenschaften und der Arbeitsweise unseres Gehirns u. a. bei Entscheidungen. Hier wird ein quantenphysikalisch getragenes Modell unseres Gehirns und ein Beitrag zur Theory of Mind (ToM) entwickelt, ergänzt mit Antworten zur Wahrnehmung und Bedeutungsgebung von Information. Kap. 9 zeigt eine überraschende gemeinsame Geschichte und weitere homologe Verbindungen zwischen Quantenphysik, Systemtheorie und SyA. Offensichtlich wird, dass es keiner analogen oder metaphorischen Erklärung bedarf. In Kap. 10 finden sich die Zusammenfassung der Ergebnisse und die Ableitung der Konsequenzen aus den gefundenen und entwickelten Zusammenhängen und Modellen. Es wird deutlich, wie SyA in das strategische Management eingebunden werden kann und was in der Arbeit mit SyA, intuitiven Ansätzen und einigen Spezialthemen in der Unternehmensführung und darüber hinaus zu berücksichtigen ist. Beendet wird dieses Kapitel mit einer kritischen Reflexion zu den Grenzen und ein Ausblick zu weiterem Forschungsbedarf. Bleibt in Kap. 11 schließlich noch Fazit und ein Nachwort, die den Hauptteil der Arbeit abrundet. Abgeschlossen wird die Arbeit mit der Literaturübersicht.
1.4 Aufbau der Arbeit
11
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
2
Methodologischer Zugang
2.1
Methodische Vorgehensweise
In dieser Arbeit werde ich mich auf das Sichten, Auswerten und (Neu-)Bewerten veröffentlichter Publikationen (Experimente und Theorien) mit Bezug auf strategisches Management, Entscheidungsforschung, Intuition, aber auch darüberhinausgehend fokussieren. Untersucht wird alles, was im Kontext von SyA und Unternehmensführung in Bezug zu Entscheidungsfindung in komplexen Situationen steht und was andererseits zum Verstehen des dahinter liegenden Prozesses beitragen kann. Ergänzend dienen eigene SyA-Experimente mit zwei Experimentiergruppen als Beispiele, die zentrale Fragestellungen zur zugrundeliegenden Funktionsweise von SyA veranschaulichen sollen. Methodisch wird ein multi-disziplinärer Ansatz gewählt, der sich von den Wirtschaftswissenschaften über Soziologie, Psychologie, Neurowissenschaften, Chemie, Biologie bis hin zur Quantenphysik erstreckt. Verwendet wird der Ansatz der Grounded Theory (GT), bei dem „the researcher moves iteratively between the gaps observed in the phenomenal world and those observed in the extant literature“ (Shepherd und Suddaby 2017: 65). Allgemeines Verständnis der Grounded Theory Bei der GT handelt es sich um eine explorative Forschungsmethode, die sich in sehr guter Weise eignet, durch ein systematisches Verfahren eine Theorie zu beobachteten Phänomenen zu entwickeln. Es handelt sich hiermit also um einen systematisch experimentellen Wirklichkeitszugang. Nach Strauss und Corbin ist eine GT „eine gegenstandsverankerte Theorie, die induktiv aus der Untersuchung des Phänomens abgeleitet wird, welches sie abbildet. Sie wird durch systematisches Erheben und Analysieren von Daten, die sich auf das untersuchte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlungen, Analysen und die Theorie in einer wechselseitigen Beziehung zueinander. Am Anfang steht nicht eine Theorie, die anschaulich bewiesen werden soll. Am Anfang steht vielmehr ein Untersuchungsbereich – was in diesem Bereich relevant ist, wird sich erst im Forschungsprozess herausstellen“ (Strauss und Corbin 2010: 8)16 . Im Detail gelingt dies durch: „constantly comparing sets of data to gradually build a system of categories that can be linked to explain the process (grounded theory strategy)“ (Shepherd und Suddaby 2017: 71). Aus Sicht von Strauss und Corbin ist diese Unterschiedlichkeit der Quellen solange kein Problem, solange die Prozesse der Erhebung und Beurteilung, überhaupt das gesamte Verfahren transparent gemacht werden (ebd. 4). Aus diesem Grund eignet sich 16
Das Vorgehensmodell der GT ähnelt methodisch der ‚Strategic Intuition’ sowie der ‚Effectuation’ in Bezug auf die Entscheidungslogik. Bei diesen drei Disziplinen orientiert man sich an einer Fragestellung und nicht an einem Ziel. Die Erkenntnis entsteht auf dem Weg, auf verschlungenen Pfaden und teilweise nach überraschenden Wendungen. Ein Zufall oder eine Einsicht, dass es sich um ein nützliches Prinzip handelt?
© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_2
14
2 Methodologischer Zugang
die GT gut für die Handhabung der Uneinheitlichkeiten zwischen den verschiedenen Wissenschaftsdisziplinen. Es besteht weder eine einheitliche Sprache noch ein einheitliches Verständnis und zudem auch Schwierigkeiten, die jeweils anzutreffenden Phänomene, die mit den Phänomenen bei SyA korrespondieren, einer gemeinsamen Beschreibung und Erklärung zuzuführen. Die Replizierbarkeit der Effekte (siehe Kap. 3.3.2 und 3.3.3) weist jedoch auf einen prinzipiellen Prozess hin, der nicht mit dem Zufall zu begründen ist. Bei nichtvorhandener Theorie, aber experimenteller Wiederholbarkeit, bedarf es zwangsläufig einer explorativen Vorgehensweise. Zwei weitere Aspekte sind darüber hinaus von Bedeutung: Zum einen befindet sich ein Großteil der folgenden Untersuchung im ursprünglichen Geltungsbereich der qualitativen Sozialforschung. Hier geht es nicht nur um soziale Akteure in einer komplexen sozialen Welt, die nicht nur quantitativ durch Zahlen erfasst werden kann, sondern es geht auch „um sprachvermittelte Handlungs- und Sinnzusammenhänge“ (Strauss und Corbin 2010: VII). Zum anderen lässt sich die von Corbin und Strauss formulierte Frage auch auf andere Wissenschaftsdisziplinen ausdehnen, die in dieser Arbeit betrachtet werden: „How should qualitative researchers report the procedures and canons used in their research?” (Corbin und Strauss 1990: 3). Denn in Summe handelt es sich im Folgenden übergreifend um eine qualitative und um keine quantitative Forschungsarbeit. Hier liegt durchaus auch eine Parallelität zu den Disziplinen Physik, Biologie und Neurowissenschaften vor. In diesen Disziplinen wird mit den Ergebnissen vieler Forschungen gearbeitet, die häufig quantitativer Natur sind, diese Ergebnisse müssen jedoch qualitativ analysiert werden. Ohne qualitative Bewertung erhalten wir ansonsten keine brauchbaren Aussagen und Erkenntnisse, mit denen wir einen Bezug zwischen den verschiedenen Disziplinen herstellen können. Der Bezug zwischen der Frage von Corbin und Strauss und dieser Forschung wird einsichtig, wenn ihre Erläuterung noch berücksichtigt wird. Sie stellen fest, dass die Produkte der verschiedenen Forscher nicht identisch sind, weil u. a. unterschiedliche Ziele, Intentionen, Untersuchungsmethoden oder Darstellungen gewählt werden. Aus diesem Grund schlagen sie vor: „we should not judge the results of their research by the same criteria” (Corbin und Strauss 1990: 4). Ein weiteres, wesentliches Merkmal dieses Modells ist der durch Strauss vertretene ‚verstehende‘ Ansatz17, der im Gegensatz zum naturwissenschaftlich verbreiteten, ‚erklärenden‘ Ansatz steht. Damit stellt sich diese methodische Vorgehensweise vollständig konträr zu dem besonders in der Quantenphysik so häufig zu hörenden Spruch dar: „Shut up and calculate“ (Kaiser 2014; Tegmark 2007). Nicht das einfache Tun ist gefragt, sondern das Verstehen.
17
„Theoretische Sensibilität bezieht sich auf die Fähigkeit, Einsichten zu haben, den Daten Bedeutung zu verleihen, die Fähigkeit zu verstehen und das Wichtige vom Unwichtigen zu trennen“ (Strauss und Corbin 2010: 25).
2.1 Methodische Vorgehensweise
15
Hier greift jedoch die Kritik der quantitativen Wissenschaftsgemeinschaft an: „Die qualitative Forschung ist dem Verdacht bloßer Meinungsmache ausgesetzt. Forscher sammeln Zitate und versuchen damit Thesen zu belegen!“ (Schnell 2014: 13). Dazu gehört auch die Unterstellung der „Illusion unmittelbarer Evidenz“ (ebd.). Gefordert wird eine Intersubjektivität, die „Subjektivismus und Objektivismus vermeidet“ (ebd. 14), die also Sachverhalte und Zusammenhänge für unterschiedliche Beobachter gleichermaßen verständlich und nachvollziehbar macht. Zur Entkräftigung dieses Verdachtes der subjektiven Illusion und zur Beurteilung der Anwendbarkeit einer Forschungsmethode auf ein Phänomen muss sie vier zentrale Gütekriterien erfüllen: „Übereinstimmung, Verständlichkeit, Allgemeingültigkeit und Kontrolle“ (Strauss und Corbin 2010: 8). Die Übereinstimmung bezieht sich dabei auf die Passung von Wirkung und Daten. Die Wirkung des untersuchten Phänomens muss mit den verschiedenen erhobenen Daten zusammenpassen. Verständlich und sinnvoll sollte es für die beteiligten Akteure sein, was jedoch eine gemeinsam akzeptierte Theorie voraussetzt. Mit der Allgemeingültigkeit geht die Forderung nach einer ausreichenden Variantenvielfalt und Kontextvariabilität einher. Und schließlich sollte die Theorie sich eignen, um Kontrollen auf der Handlungsebene zu realisieren. Im Gegensatz zur „Scientific Method“ findet bei der GT eine theoretische und empirische Exploration immer parallel und zirkulär statt und wird nicht in aufeinanderfolgenden Phasen aufgeteilt. Die Forschungskonsequenzen sind bei Schnell u. a. wie folgt zusammengefasst (vgl. Schnell u. a. 2014: 37–38): 1. Zeitliche Parallelität und funktionale Abhängigkeit der Prozesse Datenerhebung, -analyse und Theoriebildung (Zirkularität). 2. Ein kontinuierlich sich entwickelnder Forschungsprozess. Die auf empirischen Daten basierte Theorie wird von Beginn an produziert, ohne Bestimmung eines Endprodukts (prozesshaftes Vorgehen, vergleichbar dem agilen Projektmanagement). 3. Die Steuerung des Forschungsprozesses folgt aus dem Prozess heraus, unter Berücksichtigung theoretischer Stichproben und Reflexion der jeweiligen Schritte. Entscheidungen für den Forschungsfortgang ergeben sich durch die Reflexion des jeweils vorausgehenden Prozessschrittes (Reflexivität). 4. Forscher und Forschungsgegenstand befinden sich in einer kontinuierlichen Wechselbeziehung (Subjektivität oder besser konstruktivistisches Prinzip). 5. Es können sehr viele Datenformate berücksichtigt werden, wobei Literatur und Vorgehensweise unverzichtbar sind (Verschiedenheit und Offenheit). Zu Punkt 4 ist allerdings anzumerken, dass dies nicht das Verständnis der klassischen18 Naturwissenschaften ist. Erst mit der Quantenphysik hat die Wechselbeziehung zwi18
Unter ‚klassisch‘ ist in diesem Sinne und wird auch im weiteren Verlauf der Arbeit das Verständnis der ‚klassischen Physik’ und darauf aufbauenden Wissenschaften verstanden. Eingeschlossen sind dabei Newton’sche Mechanik, Maxwells Elektrodynamik, Einsteins Relativitätstheorie etc. und den darauf aufbauenden Ansätzen der Chemie, Biologie und Neurowissenschaften. Als nicht-klassisch
16
2 Methodologischer Zugang
schen Untersuchungsgegenstand und Messapparatur bzw. Beobachter Einzug in die Naturwissenschaften gefunden, was bis heute in den meist wissenschaftlichen Disziplinen gerne ignoriert wird. Dieser Aspekt wird einer der wichtigen Grundlagen dieser Arbeit sein. Modifikation der GT auf die Anforderungen dieser Forschung GT bezieht sich üblicherweise auf die Untersuchung sozial verankerter Forschungsthemen, wie durch folgende Formulierungen offensichtlich wird; „between person and world“, „cultured knowledge“, “socially located” und „that the researcher is part of the world of the people studied“ (Timmermans und Tavory 2012: 172). Gleichwohl geht es um eine qualitative Datenanalyse mithilfe der Abduktion, um kreative und neue theoretische Einsichten (ebd. 180) zu gewinnen. Modifikationen gegenüber der klassischen Vorgehensweise der GT ergeben sich aus der Notwendigkeit, neben der qualitativen Sozialforschung, aus der heraus die GT entwickelt wurde, auch andere Forschungsdisziplinen mit einzubinden; Forschungsdisziplinen, die andere Daten als die Sozialforschung verwenden. Es werden keine Gespräche geführt und transkribiert, genauso wenig wie es nur um „Handlungsentscheidungen sozialer Akteure“ (Schmidt u. a. 2014: 36) geht. Die verwendeten Daten resultieren aus Zitaten, Beschreibungen, experimentellen Erhebungen, abgeleiteten Schlussfolgerungen in Dokumentationen und Veröffentlichungen, genauso wie aus Theorien und deren Begründungen. Eingeschlossen werden zudem Interaktionen zwischen Menschen und technischen bzw. abstrakten Entitäten, was im ursprünglichen Ansatz, der sich nur auf soziale Interaktionen bezieht, ebenfalls unüblich ist. Ergänzend, im Sinne von Strauss und Glaser (ebd. 36), wird der Versuch unternommen, theoretische Konzepte mit empirischen Daten zu fundieren. Der Einbezug nicht sozialwissenschaftlicher Daten scheint auf den ersten Blick ein Nachteil in der Anwendung einer anerkannten Methode zu sein, auf den zweiten Blick lässt sich aus diesem Vorgehen jedoch ein Vorteil ableiten. So stehen die gesamten Daten für jeden Forscher, der meine Forschungsarbeit überprüfen will, in gleicher Weise zur Verfügung. Die Ausgangsposition ist somit für jeden gleich. Weglassungen, Hinzugefügtes oder Verändertes kann überprüft und bewertet werden. Denn verständlicherweise werden nicht alle Informationen der verschiedenen Wissenschaftsrichtungen Eingang in meine Überlegungen finden und oder gar schriftlich festgehalten werden. Tatsächlich stellt sich ein solch kreativer Umgang mit der GT als erlaubter Anpassungsprozess an einen konzeptionellen Rahmen dar (Schnell 2014: 18), denn diese Theorie ist in der Realität, über die Zeit hinweg, in unterschiedlicher Weise weiterentwickelt worden und wird auch noch kontinuierlich weiterentwickelt. Darüber hinaus gibt es für den Ausgangspunkt von Forschungen mit der GT die gleiche Frage, wie sie auch in Naturwissenschaften gestellt wird: „Was passiert hier, wie wird demgegenüber die Quantenphysik und ihre Interpretationen für Chemie, Biologie und Neurowissenschaften verstanden. Als ‚klassisch’ im Sinne der Wirtschaftswissenschaften, Psychologie und Sozialwissenschaften werden entsprechend all die Ansätze verstanden, die noch von einer faktischen Isolierung und damit einer Trennung von Objekt und Subjekt ausgehen und damit den Beobachtereffekt (Beobachter 2. Ordnung) ignorieren.
2.1 Methodische Vorgehensweise
17
und warum?“ (ebd.) Der einzige Unterschied liegt im Untersuchungsgegenstand, einmal Menschen und ihr Verhalten und im anderen Fall die Prozesse der Natur, aus denen wir als Menschen letztlich auch hervorgegangen sind, zumindest was die uns aufbauenden Grundbausteine betrifft. Trotz unterschiedlichen Weiterentwicklungen und Adaptionen finden sich über alle Varianten der GT sieben Gemeinsamkeiten (ebd. 38) (Abb. 2):
Abb. 2 | Gemeinsamkeiten der Varianten der GT Diese sieben Gemeinsamkeiten finden sich in allen, von unterschiedlichen Forschern weiterentwickelten Varianten der GT. Sie reichen von der Gleichzeitigkeit der Datenerhebung und -analyse (1) über die theoretische Stichprobenauswahl (2 - Sampling), dem Finden und Auswählen von zu untersuchenden Begriffen und Konzepten (3 - Codierung), deren kontinuierlicher Vergleich zum Erkennen von Lücken (4) unter Nutzung unterschiedlicher Quellen und Darstellungsformen (5), bis eine Stimmigkeit (6) erreicht ist, die durch weitere Daten nicht verbessert werden kann und schließlich zur Sensibilisierung und Wahrnehmung (7) für entsprechende Vorfälle und Sachverhalte führt. (eigene Darstellung
Die Autoren führen zu (1) aus, dass über eine solche Vorgehensweise „immer mehr Aspekte des Phänomen [sic!] mittels neuer, multipler empirischer Daten beschrieben und so die Theorie entwickelt“ (ebd. 39) wird. Diese neuen, multiplen empirischen Daten resultieren in dieser Arbeit aus den empirischen Daten ganz spezifischer Teilgebiete des jeweils neu hinzugenommenen Wissenschaftsfeldes. Diese neuen Wissenschaftsfelder entsprechen Punkt (2) der Aufzählung. Mit theoretischem Sampling wird bei den Autoren eine theoretische Stichprobenauswahl verstanden, „von denen man aufgrund der bisherigen Ergebnisse annimmt, dass sie wichtige Informationen für die Beantwortung der Forschungsfrage enthalten“ (ebd. 40). Damit wird die Basis für die jeweils nächsten Vergleiche gelegt. Somit findet in diesem Schritt keine weitere, vollständige Eruierung der Experimente und des Theoriefeldes statt, wie es in der ‚klassischen Scientific Method‘ üblich wäre, sondern eine intuitive, wenngleich logisch begründbare selektive Auswahl. Entscheidend für diese Auswahl sind die sich ergebenden, Suchprozesse generierenden, neuen Fragen.
18
2 Methodologischer Zugang
Beim Codieren (3) geht es um die Auswahl von Daten und der Bestimmung ihrer Relevanz, und um deren begriffliche Etikettierung. Unterscheiden lassen sich drei Arten von Codierungen (ebd. 40-41): a. Offen (Entdecken von Kategorien, Eigenschaften und Dimensionen) b. Axial (Beziehungen zwischen Kategorien und Subkategorien aufdecken, validieren und verdeutlichen) c. Selektiv (den roten Faden der Geschichte überprüfen, unzureichend ausgearbeitete Kategorien verdichten) Bei den codierten Daten (3a) geht es um das Erkennen des „zugrundeliegenden empirischen Gehalt des Phänomens“ (ebd. 41). Bei (3b) geht es um die „gezielte Analyse bestimmter Schlüsselkriterien“ (ebd. 42), wobei die zentralen Phänomene ausdifferenziert und die Bedeutungen und Interaktionen verstanden werden sollen. Die Vergleiche werden hinsichtlich Ähnlichkeiten und Unterschiede vorgenommen. Schritt (3c) schließt alle nicht wesentlichen Kategorien aus (Randkategorien) und sucht diejenigen zu identifizieren, die auf das Kernphänomen zielen. Als Ergebnis muss sich eine „in sich stimmige Geschichte erzählen lassen, die alle Kategorien und ihre Beziehungen untereinander berücksichtigt“ (ebd. 44). Über diese Vorgehensweise können Lücken im Forschungsgegenstand entdeckt und schließlich gefüllt werden (4). Wie schon angemerkt, werden hier, stellvertretend für das gesprochene Wort, die Texte der Definitionen, experimentelle Beschreibungen, Analysen und Schlussfolgerungen herangezogen. In der hier vorliegenden Arbeit wird deutlich, dass sich dieses, zunächst auf mitgeschriebene Interviews ausgerichtete Verfahren auch ausgezeichnet für die Erforschung naturwissenschaftlich Sachverhalte eignet, um die Konsistenz der Theorien zu überprüfen bzw. neue Theorien zu entwickeln. Beim Vergleich und bei den multiplen Datenformaten (5) dürfte es selbstverständlich sein, dass nicht nur Vergleichsformen und Daten aus dem Bereich komplexer Wirklichkeiten sozialer Systeme herangezogen werden, sondern auch Verfahren und Daten der Naturwissenschaften. Ihre Auswertung findet dann allerdings im Wesentlichen auf beschreibende Weise statt. Theoretische Sättigung (6) wird schließlich erreicht, wenn alle möglichen Phänomene bei SyA und Intuition berücksichtigt wurden. Um dies sicherzustellen und um der Gefahr eines zu schnellen Rückfalls in bestehende wissenschaftliche Glaubens- und Erklärungssätze zu begegnen, wird darüber hinaus der philosophische Ansatz der ‚Neuen Phänomenologie‘ (Schmitz 2009) verfolgt, der mittlerweile auch in den Wirtschaftswissenschaften (Julim und Scherm 2012) angekommen ist und sehr kompatibel mit der GT erscheint. Er weist sich durch eine radikale Fokussierung auf Phänomene und experimentelle Ergebnisse aus, statt auf wissenschaftliche Glaubenssätze zu beharren. Als methodischer Grundsatz ergibt sich daraus die Idee, dass jede Theorie die beobachtbaren Phänomene in ihrer Gänze berücksichtigen muss, will sie den Anspruch einer passenden theoretischen Modellierung erfüllen. Es darf kein Rosinenpicken geben, bei dem Phänomene ausgeklammert und ignoriert werden, nur weil sie nicht zur gängigen Theorie respektive Weltbild passen. In der Arbeit wird es allerdings in keiner Weise um eine
2.1 Methodische Vorgehensweise
19
Auseinandersetzung mit der Theorie der ‚Neuen Phänomenologie‘ gehen, sondern nur um das gemeinsame Verständnis eines genauen Hinschauens, wenngleich einige ihrer Überlegungen gut als Erklärungsansatz dienen könnten. Aus der mit der theoretischen Sättigung verbundenen ‚Neuen Phänomenologie‘ ergibt sich auch der Übergang zu (7) der obigen Auflistung, der theoretischen Sensibilität. Darunter verstehen die Begründer der GT ein sensibel werden für empirische Vorfälle (vgl. Schnell u. a. 2014: 48), also das Wahrnehmen von Ereignissen, die ohne die Sensibilisierung unserer Aufmerksamkeit entgehen. Damit entwickelt der Forscher seine Fähigkeit weiter, Neues und Anderes in den Daten zu entdecken, welche Eingang in die weiteren Untersuchungen nach sich ziehen sollen. Methodisch verbirgt sich im Konzept der GT noch das Erstellen von Memos, die theorierelevante Entscheidungen nachvollziehbar machen sollen und dokumentiert werden müssen. Diesem Anspruch wird auf einfache Weise dadurch Rechnung getragen, dass der Prozess des Codierens und Auswertens vollständig in die nachfolgenden Ausführungen einfließt, ohne dass separate Abhandlungen oder Dokumente erstellt werden, und zwar in Form einer Conclusio, die jedes Hauptkapitel, manchmal auch Unterkapitel, abschließt. In verschiedenen Kapiteln werden auch kurze Kommentierungen und übergreifende Bezüge hergestellt. Dem Leser sollen und müssen die vollzogenen theoretischen Vergleiche, Interpretationen, Schlussfolgerungen und die Entscheidungen für den jeweils nächsten Schritt transparent und nachvollziehbar sein, entsprechend der Vorgabe der GT als auch als Eigenzweck dieser Forschungsarbeit. Anzumerken ist noch, dass in der Physik (wie oben bereits ausgeführt) ein Gegenbeweis ausreicht, um bestehende Theorien zu kippen. Ein Ansatz, der als ‚Falsifizierung‘ (Carrier 2007: 29) bekannt ist und auf Popper zurückgeht. Es bedarf dann keiner weiteren quantitativen Erhebung mehr, sondern nur der einer Reproduzierbarkeit (Bornholdt 2010: 211). Dies steht im Gegensatz zur sozialwissenschaftlichen Forschung, bei der ein Gegenbeispiel oder ein Einzelfall nicht ausreicht, unabhängig davon, wie stark das Evidenzgefühl ist (Freund und Oberauer 2010: 223–224, 231). Hier treffen also zwei unterschiedliche Paradigmen19 aufeinander. Adäquat zur GT ist jedoch die Vorgehensweise bei der Erzeugung neuer Theorien. Beobachtungen oder Aha-Erlebnisse, z. B. bei Experimenten, werfen neue Forschungsfragen auf, die „den Weg der Erkenntnisgewinnung zu jeder Zeit in verschiedene Richtungen lenken können“ (Bornholdt 2010: 214). Es kann dabei durchaus passieren, dass die „Theorie vom Ende her entwickelt“ (ebd.) wird, bei dem das vermutete Resultat den Ausgangspunkt darstellt. 19
Der Begriff Paradigma geht auf Thomas S. Kuhn zurück (Carrier 2007: 31). Darunter wird ein definierter theoretischer Rahmen verstanden, dessen inhaltliche Vorstellung in besonderer Weise ausformuliert ist. So werden bestimmte Vorgehensweisen, Qualitätsmerkmale oder Problemlösungen als beispielhaft und mustergültig oder ‚paradigmatisch’ angesehen. Hierzu gehört beispielsweise die Decartes’sche Trennung von Geist und Materie. Weitere Beispiele finden sich bei Hüttemann (Hüttemann 2007).
20
2 Methodologischer Zugang
Übertrag der GT auf die Erforschung der SyA - Vorgehensweise Diese Definition und Ausführungen zur GT entsprechen vollumfänglich der Ausgangsposition und dem Prozess der hier dargestellten Forschung. Abb. 3 veranschaulicht das Modell der GT in Verbindung mit der vorgenommenen Erschließung der Methode der SyA für die Unternehmensführung. Die Nummern repräsentieren die sieben Gemeinsamkeiten entsprechend Abb. 2. Meine Erfahrungen in den verschiedenen wissenschaftlichen und beruflichen Welten (3b) veranlasste mich ähnliche Phänomene (therapeutische und beraterische Settings, Empathie, innere Bilder und körperliche Wahrnehmungen, Entscheidungsprozess etc.) vertiefter zu explorieren und führten zu einem ersten theoretischen Sampling (theoretische Stichprobenauswahl) (1) zu folgenden Begriffen: 1. SyA 2. VUCA 3. Entscheidungsfindung 4. Strategisches Management
Abb. 3 | GT-Modell zur Erschließung von SyA als Methode der Entscheidungsfindung (eigene Darstellung). Aus dem Zusammenhang von Business Problem, theoretische Stichprobenauswahl (2) incl. Analyse (5) und Datensammlung (1 und 5) ergeben sich Anforderungen an die Daten, die im Codierungsprozess unterschiedlichen Betrachtungen (3a – c) unterzogen wurden. Die gewonnenen Klassifizierungen werden durch weitere Datensammlungen (4) und Untersuchungen solange fortgeführt bis ein vollständiges (6) theoretisches Modell (7) vorliegt.
2.1 Methodische Vorgehensweise
21
Meine theoretische20 und auf Beobachtungen basierte Vertiefung in die SyA führte zur ersten Erweiterung auf das VUCA-Paradigma und von dort weiter zu Entscheidungen und zum strategischen Management. Axiale Vergleiche weisen auf die Problematik, rationale, strategische Entscheidungen in unbestimmten, komplexen Umwelten treffen zu wollen. Erste Ansätze in der Literatur empfahlen die Nutzung spiritueller und körperlicher Intelligenz (Kingsinger und Walch 2012) und intuitiver Methoden (Mack und Khare 2016). Entsprechend wurde die Überbetonung bzw. Dominanz rationaler Instrumente, wie Nutzwert- oder UmweltAnalyse, in der Unternehmensführung und im strategischen Management herausgestellt (Mack und Khare 2016; Hinterhuber 2011; Bär 2010). Betont wurde, dass Analysen wie diese, ausschließlich subjektiven Charakter besitzen. Ihre Auswahlkriterien sind nicht rational fundiert, sondern letztlich ebenfalls nur unbewusst bzw. intuitiv getroffen worden. In Summe wurde in der Literatur deutlich herausgestellt, dass komplexe Märkte nicht vollständig erfasst werden können (siehe VUCA in Kap. 3.1) und Entscheidungen (siehe Kap. 3.2.3) benötigen, die intuitive Ansätze zulassen (Rowland 2017; Ferrari u. a. 2016; Weick und Sutcliffe 2007). Entscheidungen unter Unsicherheit (mangelnde Informationslage, Komplexität etc.) führten sowohl theoretisch als auch experimentell eindrücklich Richtung unbewusster Wahrnehmung und unbewusster Informationsverarbeitung. Beides ist messbar auf körperlicher und neuronaler Ebene. Neben der Wahrnehmung als solches wurde die Interpretation dieser Wahrnehmung und damit deren Beeinflussung in den Veröffentlichungen herausgestellt (Kahneman 2016; Gigerenzer u. a. 2011; Gigerenzer 2013b, 2008). Auch im Zusammenhang mit der Wahrnehmungsforschung stand die Intuition im Mittelpunkt (Kap. 4.1) und wieder gab es keine Erklärungen, wie die Personen an die Information kamen, wohl aber eine erste Klassifizierung. In der vorgenommenen Datenerhebung zu SyA wurde der bevorzugte Einsatz von SyA im Kontext von verdeckten Dynamiken deutlich (Arnold 2017; Weber u. a. 2005; Sparrer 2002). In der Regel ging es um Entscheidungsvorbereitung und -überprüfung. Auffällig war zudem das Vorliegen von VUCA-Bedingungen und der Zusammenhang mit strategischen Fragestellungen. Die Kategorien, die beim weiteren Codieren ins Auge stachen, waren mentale und körperliche Wahrnehmungen, eine scheinbare Informationsübertragung und deren Wahrnehmung auch über Distanz (Kap. 3.3). Ergänzend trat immer wieder die Frage der Glaubwürdigkeit in den Vordergrund, da bei SyA keine rationale Logik beobachtbar ist (Rowland 2017; Wilhelmer 2009; Berreth 2009; Baecker 2007). Körperlich intuitive Wahrnehmung und Zugang zu Informationen beliebiger Systeme, die auch noch nicht-lokal verortet sind, erzeugen nachhaltige Legitimationsprobleme. Wird immer wieder Kritik und Zweifel zu bestimmten Forschungsergebnissen und hierfür entwickelten Theorien laut, obwohl Phänomene eindeutig beobachtbar scheinen (Kap. 4.1), oder ganz allgemein, wird die qualitative Sozialforschung (wie bereits 20
Zu den folgenden Ausführungen werden entsprechende Quellenangeben, Beschreibungen von Experimenten und theoretische Schlussfolgerungen ab Kap. 3 vorgenommen, da sie an dieser Stelle zur Überfrachtung führen würden.
22
2 Methodologischer Zugang
dargestellt) grundsätzlich infrage gestellt, so stellt sich die Frage nach den Gründen. Sind die Experimente schlecht durchgeführt oder dokumentiert, sind die Ableitungen einer zugehörigen Theorie unklar oder nicht nachvollziehbar? Oder passen die Ergebnisse und Theorien nicht zu gängigen Paradigmen und theoretischen Modellen? Oder gibt es noch andere Erklärungen? In jedem Fall scheint ein erhebliches Glaubwürdigkeitsproblem zu bestehen, dessen Gründe eruiert werden müssen. Nur so kann die Legitimation von Modellen und Arbeitsmethoden (SyA, Intuition bei Entscheidungsfindung, psycho-therapeutische Settings etc.) gelingen, die einer Körperlichkeit unterliegt, für die es heute keine wissenschaftlich fundierten Theorien gibt. Es wurde offensichtlich, dass eine konzeptionelle Einbindung von SyA in den Prozess des strategischen Managements und der Entscheidungstheorie sinnvoll, aber nicht ausreichend für eine Akzeptanz dieses methodischen Ansatzes sein wird. Was ergänzend nötig erschien, ist eine theoretisches, fundiertes Modell, das den Prozess hinter den Phänomenen bei SyA und Intuition plausibel beschreiben kann. Aus diesem Grund wurden zunächst versucht zu verstehen, woraus sich Zweifel und Einwände gegen SyA und Intuition speisen und was die die Plausibilität aktueller Erklärungen verhindern. Im zweiten Schritt wurden für dann immer noch bestehende Plausibilitätslücken eigene Lösungsansätze entwickelt. Zusammenfassend ließen sich aus den ersten Recherchen verschiedene Thesen destillieren: 1. Bei SyA treten die gleichen Phänomene zutage (gefühltes und körperlich wahrnehmbares Wissen), wie sie in der Forschung zu Entscheidungen auch im strategischen Managementkontext beobachtet werden. SyA stellt eine Methodik dar, die einen wesentlichen Beitrag für gute Entscheidungen in komplexen Situationen, wie sie bei VUCA-Bedingungen vorliegen, liefern kann und bei der Intuition eine zentrale Rolle spielt. 2. SyA enthalten sowohl phänomenologische als auch konstruktivistische Anteile, die unterschieden und berücksichtigt werden müssen. Dies ergibt sich zumindest aus der Analyse der vorgestellten Experimente (Kap. 3.3.3). 3. Die beobachtbaren Phänomene bei SyA können als Informationstransfer auch über Distanz verstanden werden. 4. Die derzeit vorliegenden Forschungsergebnisse, in Bezug auf Intuition an sich (Kandasamy u. a. 2016; Kahneman 2016) als auch auf SyA (Weinhold u. a. 2014; Schlötter und Simon 2005), weisen auf signifikante, replizierbare Effekte hin und können so reine Zufallserscheinungen ausschließen. Aus naturwissenschaftlicher Perspektive kann in solchen Fällen stark von einem nachvollziehbaren und erklärbaren, dahinter liegenden Prozess ausgegangen werden, dessen Stand heute nicht aus einer einzelnen Wissenschaftsdisziplin heraus beschreibbar ist. Wäre dies möglich, so läge bereits eine belastbare Theorie für Intuition als auch für SyA vor. 5. Bei ‚Information‘ handelt es sich neben ‚Materie‘ und ‚Energie‘ um eine dritte unabhängige Größe (Wiener 1961: 132) und damit um ‚abstrakte Information‘,
2.1 Methodische Vorgehensweise
23
wie sie von den Physikern C.F. von Weizsäcker und T. Görnitz (Görnitz und Schomäcker 2012) bzw. um ‚Pragmatische Information‘ (Lucadou 2015; Weizsäcker und Weizsäcker 1972), wie sie in der Systemtheorie beschrieben werden. Information, die ihre Bedeutung erst durch den wahrnehmenden Repräsentierenden sowie den Fallbringer und deren Interpretationen erfährt. 6. SyA stellt eine spezifische Klasse intuitiver Phänomene dar. Gelingt es den zugrundeliegenden Prozess bei SyA zu verstehen, so könnte auch Intuition als Ganzes verstanden werden, was zu einer verbesserten Akzeptanz im strategischen Management führen sollte. Weitere Literaturrecherchen und selektiveres Codieren (3c) führten zu vier Hauptkategorien und zahlreichen Unterkategorien (Tab. 1) für die es Antworten zu finden und zu entwickeln galt. Tab. 1 | Haupt- und Unterkategorien zur Erschließung einer Theorie zur SyA als Instrument zur Unternehmensführung im Rahmen komplexer Entscheidungsprozesse und zur Erklärung des zugrundeliegenden Wirk-Prozesses. (eigene Darstellung)
Wissenschaftliche Legitimation • Grundsätzliches Verständnis • Erkenntnisformen • Wahrnehmung • Evidenznachweis • Beschreibungsform bzw. Formalismus
Intuition
Information
• Anwendungsfelder o Strategie o Entscheidungen o SyA • Definitionen • Klassifikationen • Experimente • Erklärungsmodelle
• Verständnis bzgl. Information (Definition) • Erklärungen und Modelle • Explizit vs. implizit • Bedeutungsgebung
Übertragungswege • Lokal vs. Nicht-Lokal • Verschränkung • Messung • Zwischen lebenden Systemen
In der GT leiten sich die Hypothesen aus vermuteten Verbindungen zwischen den Hauptkategorien ab. Entsprechend ließen sich folgende forschungsleitenden Hypothesen formulieren: 1. Wenn die wissenschaftliche Legitimation intuitiver Wahrnehmungen nachgewiesen ist, dann kann offen an der Integration und Nutzung von SyA im Rahmen der Unternehmensführung gearbeitet werden. 2. Wenn sich eine Verbindung zwischen Intuition und Information darstellen lässt, die nicht nur konstruktivistische Aspekte verdeutlicht, sondern auch mit den phänomenologischen Gegebenheiten übereinstimmt, dann wird ein Zugang zur ontologischen Welt beschreibbar. 3. Wenn Information über das physikalische Codieren (0 und 1) hinaus beschrieben werden kann, dann lässt sich Information als grundsätzliche Größe disziplinen-
24
2 Methodologischer Zugang
übergreifend behandeln und als Grundlage dessen begreifen, auf welche SyA und Intuition zurückgreift. 4. Wenn Übertragungswege für Informationen gefunden werden, die die Phänomene bei SyA und anderen intuitiven Methoden verständlich auf der Basis des heutigen naturwissenschaftlichen Wissens erklären können, dann ist die Grundlage für eine wissenschaftliche Legitimation gegeben. Zu 1: Hypothese 1 steht in Bezug zu Ziel 1 in Kap. 8 und den Ausführungen in Kap. 3. Im Rahmen dieser Arbeit erfolgt nur die Modellierung der Anschlussfähigkeit von SyA an die Unternehmensführung. Die konkrete Umsetzung geht jedoch über diese Arbeit hinaus und muss in der Praxis und mithilfe weiterer Forschung erfolgen. Zu 2: Hypothese 2 wird in Kap. 3 und 4 bearbeitet. Zu 3: Hypothese 3 wird in Kap. 4.2 bearbeitet. Zu 4: Hypothese 3 bildet die Grundlage der Kap. 4.2 / 1 / 7 / 8 / 9. In der weiteren Annäherung wurde offensichtlich, dass heute zahlreiche beobachtbare Phänomene sowie vielfältige experimentelle Grundlagen existieren, die mit den Phänomenen bei SyA (Kap. 3.3.3) und Intuition (Kap. 4.1.3) korrespondieren. Da einige dieser Phänomene aber nur schwer in die bestehenden Erklärungsmuster passen wollten (hierzu wurde eine erste Analyse vorgenommen – Kap. 5.1), ließen sich viele Fragen formulieren, aber keine Antworten produzieren. Die vertiefte Auseinandersetzung, mit den in der Literatur gefundenen Erklärungsoptionen, führte zu weiteren Unterkategorien (Tab. 2). Diese wurden auf die Möglichkeit hin untersucht, inwieweit sie zur Modellierung eines Prozesses beitragen könnten, durch den das Bauchgefühl erklärt und eine damit verbundene Informationsübertragung beschrieben werden kann (Kap. 5.2 und 5.3). Tab. 2 | Unterkategorien zur Erschließung tragfähiger Erklärungsmodelle auf der Basis derzeit existierender Erklärungsversuche, die auf ihre Plausibilität hin untersucht werden. (eigene Darstellung)
Intuition Bauchgefühl
Subliminale Wahrnehmung Spiegelneuronen Somatische Marker Fraktale Affektlogik Enterisches Nervensystem Quantenphysikalische Erklärung
SyA Morphogenetisches Feld Morphisches Feld Quantenfeld Vakuumfeld Nullpunktfeld Psi-Feld Skalar- und Vektorfeld WQT (Weak Quantum Theory)
2.1 Methodische Vorgehensweise
25
Erste Analogien wie Nicht-Lokalität, wissendes Feld und eine Konferenz mit T. und B. Görnitz21 lösten Suchprozesse aus, die zur intensiven theoretischen Auseinandersetzung mit den Modellen der Quantenphysik führten. Aha-Erlebnisse und erste Analogien führten zur Vertiefung mittels Büchern (Görnitz und Görnitz 2009, 2002; Görnitz 2011) und Besuchen in Quantenphysikvorlesungen (University of Auckland, Neuseeland, 2013). Die unvermittelte Erkenntnis der Parallelität der Phänomene zu Compton-Effekte und Quanten-Teleportation mit Verschränkung und Informationsübertragung sowie die Bedingungen für Quantenverhalten in Makrosystemen von Greenstein und Zajonc (Greenstein und Zajonc 2005) führten entsprechend dem deduktiven Ansatz zur weiteren Überprüfung der Anwendbarkeit der Quantenphysik. Die jetzt vorliegende Theorie wurde letztlich vom Ende hergedacht. Schnell wurde deutlich, dass das allgemeine, heutige Verständnis Quantenprozesse in lebenden Systemen nicht zulässt. Daraus generierten sich die nächsten Fragen: Welche Forschungen konnten Quantenprozesse in biologischen Systemen nachweisen und welche Theorien existieren, die quantenphysikalische Möglichkeiten in Makrosystemen beobachtbar erscheinen lassen? Die gefundenen Experimente und dazu formulierten Theorien (Chin u. a. 2013; Rieper 2011) machten deutlich, dass in biologischen, lebenden Systemen Quantenprozesse möglich sind. Dies führte zurück zur Quantenphysik und der weiteren Untersuchung des Sachverhalts der Verschränkung und des Messproblems. Bei diesem Schritt zeigten neueste Forschungen in Verbindung mit theoretischen Ansätzen aus den Gründerjahren der Quantenphysik eine klare Plausibilität für die Anwendbarkeit auf lebende Systeme bei normalen Umweltbedingungen (Zeh 2011; Zeilinger 2007; Kwiat u. a. 2001). Womit die nächsten Fragen, nach der Möglichkeit der Informationswahrnehmung und Verarbeitung bei Menschen, das Feld der Neurowissenschaften und der Spiegelneuronen öffneten (Bauer 2006). Auch hier ließen sich Experimente und Theorien finden, die eine prinzipielle Möglichkeit der klassischen als auch quantenphysikalischen Informationsübertragung als denkbar erscheinen ließ. Als Herausforderung aus diesem Forschungsbereich stellte sich die Frage nach dem Verständnis des Informationsbegriffs (Lucadou 2015; Wiener 1968; Shannon 1948) in den unterschiedlichen Disziplinen, was schließlich zur Normierung des Informationsbegriffes führte und zurück zur Quantenbiologie und Neurowissenschaften. Die auftauchenden Parallelitäten zwischen Quantenphysik Systemtheorie – SyA und die Frage, wie diese zusammenhängen könnten, brachte schließlich eine Historie ans Licht, in der sich ein co-evolutionärer Entwicklungsprozess herauskristallisierte (Haken u. a. 2016; Bateson 1985; Bertalanffy 1968), der schließlich zu einer stimmigen Erzählung konvergierte. Verbindung GT zu impliziten Forschungsdesigns Wie in einer bemerkenswerten Forschung von Katenkamp herausgearbeitet wurde, wird jede Arbeit durch den Ansatz des Impliziten geleitet. 21
Konferenz mit dem Thema: ‚Das Aufstellungsphänomen im Lichte der Quantenphysik‘ vom 20. – 22.06.2008 in Koster Seeon.
26
2 Methodologischer Zugang
„‚Implizites Wissen‘ ist demnach das Wissen, das nicht ausdrückbar ist und in der Entdeckung von neuem Wissen entscheidenden Einfluss ausübt: nicht als Unbewusstes á la Freud, sondern als latentes Wissen, das vorhanden, aber nicht artikulierbar oder im Detail spezifizierbar ist. Dabei ist weniger die Artikulation als sprachliche Kompetenz oder die Eigenschaften des Wissens (bzw. der Wissensentstehung) ausschlaggebend, sondern dass das implizite Wissen in jedem Akt des Erkennens einen hohen Anteil an dem kognitiven Prozess des Begreifens hat“ (Katenkamp 2011: 27). Insofern ist es nur natürlich, dass die Auswahl dessen, was in einer Forschung, aber genauso gut im täglichen Leben zur Beobachtung und Bearbeitung herangezogen wird, einem impliziten Prozess unterworfen ist. Im Vorwort fasst Howaldt das Fazit von Katenkamp wie folgt zusammen: „dass nach der Überbetonung der expliziten Methoden sich in den letzten Jahren ein zunehmendes Interesse am impliziten Wissen feststellen lässt. Allerdings seien viele Verfahren und Instrumente, mit denen in der Praxis implizites Wissen gemanagt werde, weitgehend unerforscht (Katenkamp 2011: 5–6). Im Gegensatz zu vielen anderen Disziplinen wird das in den Sozialwissenschaften meist anerkannt und bewusst berücksichtigt. Mit Bezug auf einige Forschungsarbeiten, in denen über 100 Konnotationen zum Verständnis des ‚impliziten Wissens‘ herausgefunden wurden (ebd. 62), wird auch Intuition als eine Spielart aufgeführt. Dies korrespondiert deshalb in perfekter Weise zur Absicht der hier vorgestellten Arbeit, denn implizites Wissen respektive Intuition bilden den zentralen Forschungsgegenstand im Zusammenhang mit Entscheidungstheorie und SyA. Gleichzeitig berücksichtigt die Methodologie der GT diese Gegebenheiten, indem sie dem Suchprozess mittels implizitem, intuitivem Wissen Raum gibt und gleichzeitig dafür sorgt, dass dieses Vorgehen transparent gemacht wird. Durch die in meiner Arbeit verwendeten, für jeden zugänglichen Datengrundlagen und Offenlegung meiner Interpretationen und Schlussfolgerungen, lassen sich meine zweifelslos auch implizit getroffenen Schrittfolgen nachvollziehen und überprüfen. Den Kriterien Verständlichkeit, Allgemeingültigkeit und Kontrolle sollte damit in ausreichendem Maße Genüge getan werden. 2.2
Wissenschaftliche Legitimation
Was heute bekannt und dennoch schwer zu überwinden ist. Wie in Kap. 3 an verschiedenen Stellen deutlich werden wird, dominieren in unserer westlichen Gesellschaft rational-kognitiv begründbare Methoden und Vorgehensweisen. Die experimentellen Ergebnisse und die zugehörigen Theorien werden jedoch die Begrenztheit dieser Konzepte veranschaulichen. Gleichwohl finden alternative, intuitive Vorgehensweisen nur bedingten Zuspruch oder werden gar vehement abgelehnt oder gar bekämpft. Zusätzlich besteht auch heute noch die Herausforderung, disziplinenübergreifend Akzeptanz zu finden. Nachfolgend sollen Grundlagen für diese Phänomene näher exploriert und vor allem Antworten auf die Frage gesucht werden, wie und wann
2.2 Wissenschaftliche Legitimation
27
neue Erklärungen legitimiert werden, disziplinenübergreifend Akzeptanz finden und woran sie oft scheitern. Als Ergebnis werden Antworten auf die, aus dem selektiven Codierungsprozesses destillierte Hauptkategorie ‚wissenschaftliche Legitimation‘, angeboten. 2.2.1
Erkenntnisformen
Zum Einstieg möchte ich mit einer Frage von Müller-Christ beginnen, die er in seinen Überlegungen zu SyA in der universitären Lehre formuliert hat: „Wie kommt das Neue in die Welt?“ (Müller-Christ 2016b) Eine Frage, die sich gerade in Verbindung mit SyA und mit dieser Forschungsarbeit zu Recht stellt. Bei SyA stellt sich die Frage, wie wir an das Wissen kommen bzw. wie scheinbar neues Wissen entsteht. In der Forschung wiederum geht es um Entdecken von Neuem, zumindest aber um Entdecken neuer Zusammenhänge und um das Begründen des Neuen. Dieses Spannungsfeld wird in der Wissenschaftstheorie (Bartels und Stöckler 2007) sehr intensiv diskutiert und breit behandelt. Die heute vorliegenden unterschiedlichen Erkenntnisformen werden in vier Hauptkategorien unterteilt, die wiederum in zahlreiche Unterkategorien differenziert werden. Wie gleich zu sehen sein wird, sind jedoch nur zwei dieser Zugänge (Abduktion, Intuition) geeignet, tatsächlich Neues zu produzieren. Die beiden anderen (Deduktion, Induktion) führen dagegen eher zur Bestätigung bzw. Begründung oder zur Vervielfältigung. Die Hauptkategorien lassen sich wie folgt beschreiben: Deduktion Sie schließt vom Allgemeinen auf das Besondere (kritischer Rationalismus). Alle Untermengen einer Gruppe teilen die gleichen Eigenschaften. Aus bewährten Hypothesen, die aus empirischen Daten gewonnen wurden, werden neue Hypothesen abgeleitet, bis diese durch Gegenbeispiele widerlegt werden (Müller-Christ 2016b: 288). Der deduktionistische Ansatz wird schon bei Aristoteles vertreten (vgl. Losee 1987: 18; in Schurz 2007: 69). Mit dieser Form werden immer wieder Erkenntnisse der Vergangenheit reproduziert, aber keine neuen gewonnen (Müller-Christ 2016b: 288). Deduktion hat ihre Berechtigung bei Begründungszusammenhängen, bei denen Hypothesen getestet werden sollen (Strübing 2013: 7). Sie „kann keine wirklich neuen Erkenntnisse erzeugen, nur vorhandene verbreiten“ (Brühl 2015: in; Müller-Christ 2016b: 288). Hierfür bedarf es der Beherrschung quantitativer Methoden. Nach Reichertz ist die Deduktion mit der Haltung der Ignoranz verbunden, dass etwas auch ganz anders sein könnte (Reichertz 2013: 22). Induktion Aus der Betrachtung von Einzelfällen werden allgemeine Aussagen, Regeln, Zusammenhänge und Hypothesen abgeleitet, die weit über die vorliegenden Beobachtungen hinausgehen (Strübing 2013: 7). Von bekannten Resultaten und vorhandenen Regeln wird auf andere Situationen geschlossen. Die zugrundeliegenden Daten werden ebenfalls empirisch gewonnen.
28
2 Methodologischer Zugang
Hierfür bedarf es qualitativer Methoden. Best Practice-Fälle in der Wirtschaft sind dafür gute Anschauungsbeispiele. Nachmachen und Vervielfältigen sind die Folge, der Innovationsgehalt und damit das Generieren von Neuem ist eher gering (Müller-Christ 2016b: 288). Die Haltung der Induktion ist nach Reichertz „die des festen Glaubens, dass die Vergangenheit etwas über die Zukunft sagt und dass Gott nicht würfelt, sondern sich an die Regeln hält“ (Reichertz 2013: 22). Die Quantenphysik lehrt uns jedoch, dass Gott doch würfelt oder zumindest den Zufall als Regel mitkonzipiert hat. Abduktion Bei der Abduktion kann „weder systematisch noch logisch-zwingend geschlussfolgert werden“ (Strübing 2013: 8), sondern es findet ein Schluss von einem Ereignis auf eine verallgemeinernde Hypothese bzw. auf die beste Erklärung, auch verstanden als synthetische Schlussfolgerung, statt. In gleichem Sinne argumentiert Reichertz, wenn er formuliert: „Abduktionen resultieren also aus Prozessen, die nicht rational begründ- und kritisierbar sind“ (Reichertz 1999: 54). Abduktion ist hilfreich, wenn es kein Wissen oder keine Regel zu einem Problem gibt bzw. man mit seinem Wissen nicht weiterkommt und Neues erfunden werden muss. Die neue Einsicht bzw. neue Regel „kommt nach Peirce wie ein Blitz“, vergleichbar dem „Sprung ins Dunkle“ (Reichertz 2013: 22) und ist kein Wissen, sondern eine Konstruktion. ‚Abduktion‘ geht auf C. S. Peirce zurück, der dazu ausführt: „Abduction is the process of forming an explanatory hypothesis. It is the only logical operation which introduces any new idea“ (Peirce 1998: CP 5.171) „and this it [the mind, Anmerkung des Autors] does by introducing an idea not contained in the data, which gives connections which they would not otherwise have had” (Peirce 1998: CP 1.383). Die Haltung der Abduktion ist nach Reichertz die der „Hoffnung, dass es auch ganz anders sein könnte als man bisher dachte“ (Reichertz 2013: 22), also die Suche nach einer neuen Ordnung, „die zu den überraschenden ‚Tatsachen‘ passt“ (Reichertz 1999: 60). Eine Zielsetzung, die durch die GT gut unterstützt wird. Deshalb besteht zwischen Abduktion und systemischkonstruktivistischem Denken auch eine starke Analogie. Aus der Sicht von Peirce erlaubt die Abduktion, bei Vorliegen verschiedener Erklärungen für ein Phänomen, „die beste von ihnen für wahr zu halten“ (ebd. 329). Mit Bezug auf Peirce formuliert Reichertz noch zwei Vorgehensweisen, die dem scheinbaren Zufall und Nicht-Vorprogrammierbaren doch eine gute Chance einräumt, als Erkenntnisblitz zu erscheinen. (1) Ein starker und echter Zweifel, der mit dem Willen zum Lernen einhergeht (vgl. Reichertz 1999: 56) und (2) Tagträumerei, bei der der Suchende seinen Geist frei wandern lässt (ebd.). Intuition Sie entspricht der Eingebung, die vorher noch nicht in der Person vorhanden war. Dieser Geistesblitz, die Idee oder die Bauchentscheidung lässt sich rational kaum erklären (vgl. Müller-Christ 2016b: 289). Allerdings
2.2 Wissenschaftliche Legitimation
29
trifft sie Menschen vor allem dann, wenn sie sich ganz konzentriert und vertieft auf ein Thema fokussieren oder sich in entspanntem Zustand befinden. Hierzu bedarf es eines entsprechenden Rahmens. Als weitere Erkenntnis erweist sich Intuition in frühen und späten Phasen von Lernprozessen und zugehörigen Entscheidungen als erfolgreich, sofern die Themen hohe Komplexität aufweisen (Sahm und von Weizsäcker 2016: 202). Unklar erscheint mir derzeit noch der Unterschied und die Abgrenzung gegenüber der Abduktion. Mit einem ersten Blick kann vermutet werden, dass Intuition stärker mit Körpergefühlen einher geht, wohingegen Abduktion mehr auf kognitiver Ebene beschränkt bleibt. Der Glaube, dass der abduktive Blitz aus der Intuition hervorgeht (vgl. Reichertz 2013: 104), würde eine Unterscheidung der beiden Begriffe dagegen als nicht sinnvoll erscheinen lassen. Verbindungen dieser Erkenntnisformen zur vorliegenden Forschungsarbeit Deduktion und Induktion sind die bekannten Erkenntniswege der Betriebswirtschaftslehre. Gleiches gilt für die Naturwissenschaften, in der solche Erkenntniswege immer empirisch überprüfbar sein müssen. In der vorliegenden Forschungsarbeit wird die Deduktion zum Abgleich von Unterschieden und Gemeinsamkeiten zwischen Entscheidungstheorien und SyA und zur Überprüfung der gegenwärtigen Theorien zur Erklärung der SyA herangezogen, genauso wie zur Überprüfung der These, dass Quantenphysik ‚keine‘ Gültigkeit für Menschen besitzt, wie sie in der gängigen Lehrmeinung immer wieder geäußert wird. Denn prinzipiell stellt der Mensch, im Sinne der obigen Definition, eine Untergruppe der ‚Welt‘ dar, die durch Entitäten wie Quanten, Atome und andere Elementarteilchen aufgebaut wird. Der Mensch ist ein Teilsystem dieser Welt. An den Stellen, an denen die bestehenden Theorien ihre Grenzen haben oder Erklärungen vorbringen, weshalb sie nicht angewandt werden dürfen, muss ein neuer Suchprozess gestartet werden. Angestrebt wird die Suche nach kausalen Zusammenhängen unter dem Dach eines logischen Empirismus wie es Heidelberger beschreibt (Heidelberger 2007: 176). Kausalität wird hier allerdings nicht nur als Regelmäßigkeit im Sinne der klassischen Physik verstanden, sondern schließt Zufallsprozesse und Korrelationen, wie es die Quantenphysik erkannt hat, mit ein. Die Induktion findet sich in dieser Forschungsarbeit an den Stellen, an denen Ausnahmen von allgemeinen Hypothesen und Konzepten gefunden wurden. Diese Ausnahmen, z. B. dass quantenphysikalische Prozesse in lebenden Systemen gefunden wurden, werden als Ausgangspunkt für verallgemeinernde Hypothesen und zur Erweiterung des Suchhorizontes genutzt. Sie baut hier also auf der Falsifizierung deduktiver Annahmen auf, wie der Annahme, dass quantenphysikalische Prozesse nur bei nicht-lebenden Entitäten im Bereich des absoluten Null-Punkts beobachtbar seien. Dem Ansatz der Induktion wird offiziell die Methodologie der GT zugeordnet, da mit ihrer Hilfe aus phänomenologischen Beobachtungen übergeordnete Theorien entwickelt werden. In Anbe-
30
2 Methodologischer Zugang
tracht dessen, dass sich diese Forschungsmethode üblicherweise auf das Feld der qualitativen Sozialforschung bezieht, ist verständlich, dass eher Theorien entwickelt werden, die sich im bekannten Rahmen bestehender Modelle bewegen. Für die Abduktion gibt es ein treffendes Beispiel aus der Quantenphysik, das von Reichertz aufgenommen worden ist. Es handelt sich dabei um eine Aussage von Niels Bohr, die er gegenüber Wolfgang Pauli und dessen Vorstellung zur Quantenmechanik in den 1950er Jahren formulierte: „Wir sind uns alle einig, dass Ihre Theorie verrückt ist. Die Frage, die uns trennt, ist, ob sie verrückt genug ist, um eine Chance auf Richtigkeit zu haben. Mein eigenes Gefühl ist, dass sie nicht verrückt genug ist“ (Bohr in Reichertz 2013: 20). Zum einen lässt sich diese Aussage perfekt auf meine weiteren Ausführungen und Ergebnisse anwenden und zum anderen beschreibt die Definition der Abduktion und des Blitzes, der einen trifft, genau den Ausgangspunkt dieser Forschungsarbeit. Zwei Ereignisse lassen sich für diesen Effekt klar identifizieren: Die symbolhafte Darstellung der Quanten-Teleportation von Greenstein und Zajonc für die Struktur der Informationsübertragung (Greenstein und Zajonc 2005: 255) und die Darstellung des Compton-Effekts in der Vorlesung von Prof. Carmichael in Neuseeland, als Modell einer Verschränkung (Carmichael 2013), welches bei mir den sofortigen Übertrag auf lebende Systeme plausibel erscheinen ließ. Reichertz beschreibt sehr anschaulich die Vorgehensweise bei der Einbindung der Abduktion in den Erkenntnisprozess: Ausgangspunkt der abduktiven Suche sind überraschende Fakten, für die sinnstiftende Regeln und mögliche passende Erklärungen gefunden werden sollen. Solcherlei Ideen werden schließlich als Hypothese formuliert und einem mehrstufigen Überprüfungsprozess unterzogen (vgl. Reichertz 1999: 61). „Besteht die erste Stufe des wissenschaftlichen Erkenntnisprozesses in der Findung einer Hypothese mittels Abduktion, dann besteht die zweite aus der Ableitung von Voraussagen aus der Hypothese, also einer Deduktion, und die dritte in der Suche nach Fakten, welche die Vorannahmen ,verifizieren‘, also einer Induktion. Sollten sich die Fakten nicht finden lassen, beginnt der Prozess von neuern, und dies wiederholt sich so oft, bis die ,passenden‘ Fakten erreicht sind“ (ebd.). Ein dreistufiger Erkenntnisprozess, der laut Reichertz auf Peirce zurückgeht, bei dem Entdeckung und Überprüfung zwei unterscheidbare Teilprozesse bilden (vgl. ebd.). Abschließend sei noch die Schlussfolgerung von Reichertz zitiert: „Verifizieren im strengen Sinne des Wortes lässt sich auf diese Weise nichts. Was man allein auf diesem Wege erhält, ist eine intersubjektiv aufgebaute und geteilte ,Wahrheit‘“ (ebd.). Wie eben ausgeführt, wird die GT methodisch üblicherweise der Induktion zugeordnet, sie ist aber genauso gut bei der Abduktion ankoppelbar. Es gibt noch keine ausreichenden Modelle und Theorien innerhalb einer Wissenschaftsdisziplin, die anerkannt wären, um SyA und Intuition vollständig zu erklären und deshalb weiter vertieft werden könnten. Insofern benötigt es etwas Neues, das emergent herausentwickelt werden muss. Dieses Neue kann unvermittelt auftreten, wenn cross-disziplinäre Beobachtungen und
2.2 Wissenschaftliche Legitimation
31
Auswertungen vorgenommen werden, starke Zweifel über bisherige Erklärungsmodelle bestehen und die nötige Offenheit Neues lernen zu wollen existiert (s.o.). Die neuen Erkenntnisse können sich dann unvermittelt über Analogieschlüsse und Metaphern ergeben, bei deren weiterer Untersuchung gänzlich neue Erkenntnisse entstehen können. Zudem braucht es im hier untersuchten Fall eine Vereinheitlichung unterschiedlicher Theorien und Konzepte, die in einheitliche Kategorien überführt werden müssen, wofür der Ansatz der GT ebenfalls ideal erscheint. Die Intuition steht mit dieser Forschungsarbeit in mehrfacher Hinsicht in Wechselwirkung. Erstens waren eine rein intuitive Eingebung und ein starker körperlich wahrnehmbarer Drang der Ausgangspunkt meine Beschäftigung mit dem Thema. Vorträge von Ervin Laszlo und Thomas Görnitz lösten einen intensiven Suchprozess aus, dem ich trotz der ‚Verrücktheit des Unterfangens‘, nicht zu widerstehen vermochte. Entsprechende Impulse führten mich auch immer wieder auf Ideen, Abbildungen oder Themenkreise, die sich im Nachgang als hilfreich und belastbar herausstellten. Nicht ohne Grund nimmt die Intuition einen wesentlichen Themenschwerpunkt in der folgenden Arbeit ein, sowohl was den Ausgangspunkt als auch was die Schlussfolgerungen dieser Arbeit betreffen. Interessanterweise deckt sich mein persönliches Erleben mit den jüngsten Forschungserkenntnissen von Sahm und von Weizsäcker (2016). Mit einem von Müller-Christ übernommenen Zitat von Einstein lässt sich das Geschehen um diese Arbeit herum als auch das Geschehen in SyA wunderbar veranschaulichen: „Der Intellekt hat auf dem Weg zur Entdeckung wenig zu tun. Es tritt ein Bewusstseinssprung ein, nennen Sie es Intuition oder wie immer Sie wollen, und die Lösung fällt Ihnen zu, und Sie wissen nicht, wie und warum“ (Müller-Christ 2016b: 289). Nachdem Intuition nun als ‚Erkenntnisform‘ auch im wissenschaftlichen Diskurs angekommen zu sein scheint, scheint es besonders wichtig, sich mit ihrer Entstehung zu beschäftigen, denn die formulierte Warnung vor Aussagen wie „Eine Intuition von mir ist“ oder „Das widerspricht meiner Intuition“ (Reichertz 2013: 104), bedeutet nämlich dass der Sprecher den Inhalt seiner Beiträge nicht mehr rechtfertigen muss, „da er auf sein inneres (für ihn erhellendes) Erlebnis verweist“ und wäre wohl kein hilfreiches neues Konzept. Der Beliebigkeit würden auf diese Weise Tür und Tor geöffnet. In den beiden Aussagen geht es denn auch nicht um Intuition, sondern um ein Gefühl oder besser noch um Glaubenssätze und Vermutungen, die in diesem Fall nicht mit Intuition gleichzusetzen sind. Eine detaillierte Auseinandersetzung mit diesem Thema wird in Kap. 4.1 vorgenommen. Ergänzend sei noch angemerkt, dass an der ein oder anderen Stelle sogenannte metaphysische Beispiele mit aufgegriffen werden. Sie werden nicht als Begründung oder Beweisführung herangezogen, sondern nur bei phänomenologischen Ähnlichkeiten mit ins Spiel gebracht. Auch wenn solche Beispiele in den verschiedenen Wissenschaftsdisziplinen meist als ‚unwissenschaftlich‘ betrachtet werden, besteht vielleicht auf Basis der Ergebnisse dieser Forschungsarbeit die Möglichkeit, sie weiteren Untersuchungen zugänglich zu machen. Dies erscheint vor dem ‚neuen Experimentalismus‘ und einer damit verbundenen ‚Zweistufentheorie des Experiments‘ derzeit wieder möglich
32
2 Methodologischer Zugang
(Heidelberger 2007: 164–169). Danach wird zwischen dem „Bericht über die konkreten Tatsachen“ und der „Interpretation der Beobachtungen in einem symbolischen Interpretationssystem“ (ebd. 166) unterschieden. Da dieses Interpretationssystem mit den Ergebnissen der hier vorliegenden Forschung einige neue Impulse bekommen kann, sollten reflexive Schleifen zu bisherigen Experimenten und deren Interpretationen eine wissenschaftlich notwendige Option darstellen. Das weitere Vorgehen solcher Art gefundener Hypothesen beschreibt Wirth folgendermaßen: „Die möglichen logischen Konsequenzen dieser hypothetischen Aussage werden deduktiv ermittelt, ihre möglichen praktischen Konsequenzen induktiv geprüft“ (Wirth 1995: 405). Hier findet sich ebenfalls der Gedanke von Peirce (s.o.) wieder. 2.2.2
Exkurs zum Verständnis eines ‚wissenschaftlichen Arbeitens‘
Da diese Arbeit disziplinenübergreifend angelegt ist, in denen sehr unterschiedliche Verständnisse über Forschung und Vorgehensweisen existieren (Engelen u. a. 2010), sollen zunächst einige weitere Gedanken diesen Unterschieden gewidmet werden. Damit wird die Hoffnung verbunden, die aktuellen Grenzziehungen zu erkennen und zu überwinden. „Der Mensch beobachtet und unterscheidet laufend. Betreibt er Wissenschaft, so macht er dies nach den Regeln des jeweiligen Wissensgebiets in dem er forscht. In den Naturwissenschaften gründen sich diese Regeln auf Mathematik und Physik, in den Geisteswissenschaften auf logisch schlüssige Denkkonzepte. Bezogen auf die Lebenswelt sind die Regeln kultureller Art. Sowohl die Regeln der Wissenschaft als auch die der Kultur sind daher sowohl zeit- als auch ortsabhängig“ (Karban 2015: 7). Mit diesen Überlegungen ist gleichzeitig eine der zentralen Herausforderungen für diese Forschungsarbeit formuliert. Die operationale Geschlossenheit der verschiedenen Wissenschaften und ihre selbstreferentiellen Rekursionen verhindern heute noch in vielen Fällen ein wissenschaftsübergreifendes Forschen. So findet man als ersten Punkt der ‚Einführung in wissenschaftliches Arbeiten‘ der Universität Köln - Humanwissenschaftliche Fakultät, die sich auf Thorsten Bohl beruft, folgende Ausführungen: „Wissenschaftliches Arbeiten zeigt sich in einer systematischen und methodisch kontrollierten Verbindung eigenständiger und kreativer Gedanken mit bereits vorliegenden wissenschaftlichen Befunden. Das Vorgehen ist sorgfältig, begriffsklärend und fachbzw. disziplinbezogen“ (Jürgens und Bohl 2008). Der zweite Teil der Formulierung lässt sich auch so interpretieren, also ob übergreifendes Arbeiten explizit ausgeschlossen wird. Shepherd und Suddaby weisen auf einen Zusammenhang hin, der gut an diese Aussage von Bohl anschlussfähig ist. Demnach ist es schwierig Artikel in der Königsklasse der Management-Journals zu platzieren, die nicht an zeitgenössische populäre Theorien anschließen und diese weiter bestätigen (Shepherd und Suddaby 2017: 78). Als Ergebnis ergibt sich eine Verengung der Theoriebildung, was die Autoren auch als Zwangsjacke attributieren. Als Begleiteffekt werden nur bestehende theoretische Ansätze optimiert
2.2 Wissenschaftliche Legitimation
33
und entwickelt. Berichterstattungen über interessante Phänomene, für die es noch keine Theorie gibt bleiben aus und verhindern so Impulse für weitere Forschung und neue Erkenntnisse (ebd.). Mit Bezug auf Sutton und Staw führen die Autoren weiter aus: „‚the problem with theory building may also be structural‘ in that data can only be interpreted through the lens of existing theory, and as a result, ‚the craft of manuscript writing becomes the art of fitting concepts and arguments around what has been reassured and discovered‘“ (ebd.). Als Ausgangspunkt für diese Entwicklung sehen sie das Verständnis der ‚Rationalisten‘, die alleine das deduktive Vorgehen unterstützen, bei dem neue Erkenntnisse generellen, bekannten Prinzipien zuordenbar sein müssen. Die Empiriker als Alternative dazu, fokussiere dagegen auf direkte empirische Beobachtung und wollen sich nicht von Theorien begrenzen und beeinflussen lassen (ebd.). Als Ausweg schlagen Shepherd und Suddaby den Weg des „Pragmatic Empirical Theorizing“ vor, der auf das abduktive Vorgehen von Peirce abzielt. „Pragmatic theorizing promotes abductive reasoning as a practical compromise of induction and deduction and more realistically captures the authentic process by which theorizing occurs“ (Shepherd und Suddaby 2017: 79) und damit der GT entspricht. J. Baggott formulierte seinerseits drei Komponenten, der die ‚Scientific method‘ genügen muss und die das Problem von Realisten und Empirikern veranschaulicht (Baggott 2013: 9): 1. „The first concerns the processes or methodologies that scientists use to establish the hard facts about empirical reality. 2. The second concerns methods that scientists use to create abstract theories to accommodate and explain these facts and make testable predictions. 3. The third concerns the methods by which those theories are tested and accepted as true or rejected as false.“ Das Problem ist nur, wie er dann weiter ausführt und wie die Systemtheorie lehrt: Keine Fakten ohne Theorie! Habe ich keine Theorie für etwas, kann ich häufig die zugehörige Realität gar nicht wahrnehmen. Er führt dazu in seinem ‚The Fact Principle‘ aus: „… our knowledge and understanding of empirical reality are founded on verified scientific fact derived from careful observation and experiment. But the fact themselves are not theory-neutral. Observation and Experiment are simply not possible without reference to a supporting theory of some kind“ (Baggott 2013: 12f). Sehr anschaulich lassen sich Baggott’s Ausführungen an zwei Phänomenen darstellen: Am ‚Black Swan‘ von Taleb (2010) und am ‚Black Elephant‘ von Gupta (2009). Taleb machte den schwarzen Schwan als Metapher für das Überraschende und völlig Unerwartete mit seiner Erstveröffentlichung 2007 weltberühmt. „It illustrates a severe limitation to our learning from observations or experience and the fragility of our knowledge. One single observation can invalidate a general statement derived from millennia of confirmatory sightings of millions of white swans. All you need is one single (and, I am told, quite ugly) black bird“ (Taleb 2010: xxi). Mit dem schwarzen Schwan nimmt er Bezug auf die Schwäne in Australien, die in der Tat schwarz statt weiß sind
34
2 Methodologischer Zugang
und dem Umstand, dass die alte Welt von weißen Schwänen felsenfest überzeugt war: Schwäne können nur weiß sein. Mit der Existenz der Beobachtung einer Ausnahme kann somit eine jahrtausendealte Überzeugung und Theorie über Nacht obsolet werden – das höchst Unwahrscheinliche verändert alles (entsprechend Popper’s Falsifizierung (Carrier 2007: 29)). Er verbindet mit diesem schwarzen Schwan drei Attribute: (1) Ausreißer, der außerhalb der Erwartungshaltung liegt, (2) extrem hohe Auswirkung, (3) erst im Nachhinein vorhersehbar. Mit diesen drei Attributen will er auf sein Kernanliegen hinweisen und sensibel machen, dass wir dazu neigen, so zu tun, als ob solche Zufälle und Risiken nicht existieren. Er kritisiert die Wissenschaften (z. B. in der Finanz- und Wirtschaftswelt), die glauben Unsicherheiten messen zu können. Im Wesentlichen kritisiert er, neben der Blindheit gegenüber Zufälligkeiten, die Blindheit gegenüber großen Abweichungen und die zu starke Fixierung auf Details. „Black Swan logic makes what you don’t know far more relevant than what you do know. Consider that many Black Swans can be caused and exacerbated by their being unexpected“ (ebd. xxiii). „What is surprising is not the magnitude of our forecast errors, but our absence of awareness of it“ (ebd. xxv). Damit beschreibt Taleb exakt den Zustand, der in der heutigen Welt zu beobachten ist und in den weiteren Kapiteln herausgearbeitet wird. Es dominiert immer noch der Glaube an rationale Entscheidungen, obwohl alle Untersuchungen, von denen Taleb zahlreiche aufführt, das Gegenteil beweisen. Zurückführend auf Baggott, verdeutlicht der schwarze Schwan die Unmöglichkeit Beobachtungen zu machen und Theorien zu entwickeln, wenn wir keine entsprechenden Gelegenheiten dazu haben. Dies gilt beispielsweise für den Umstand, dass Physiker keine Erfahrung mit den Merkwürdigkeiten therapeutischer Arbeit, wie eine Übertragung und Gegenübertragung, dem intuitiven Erfassen der Innenwelt des Klienten oder SyA haben. Andersherum kommen Therapeuten üblicherweise nicht mit Quantenphysik und deren Experimenten und Modellen in Berührung. Beiden Gruppierungen fehlen die Erlebnismöglichkeiten und falls sie sie doch haben, besitzen sie keine Sensorik, um die Besonderheiten wahrzunehmen und wechselseitig in Beziehung zu setzen. Taleb erweitert den Beobachtungsansatz von Baggott um das Phänomen, dass Menschen und vor allem Experten dazu neigen, andere Möglichkeiten als die gängigen, gar nicht erst in Erwägung zu ziehen. Als Konsequenz bleiben dadurch auch große Abweichungen unbeobachtet. Die Überlegungen von Taleb führten Gupta weiter zum ‚Black Elephant‘ (Gupta 2009). Mit Bezug auf Gupta und dessen Ausführungen, dass der Elefant zwar im Raum sichtbar ist, aber völlig ignoriert wird, schreiben Möller und Wikman-Svahn dem schwarzen Elefanten ebenfalls drei Attribute zu: (1) etwas, das außerhalb der Erwartungshaltung liegt, (2) extrem hohe Auswirkung, (3) wird ignoriert, trotz existierender Beweise (vgl. Möller und Wikman-Svahn 2011: 273). Die Autoren weisen darauf hin, dass eine besondere Charakteristik darin besteht, dass der schwarze Elefant gerne für einen schwarzen Schwan gehalten wird und dass diese Darstellung durchaus im Interesse einiger liegen kann. Und sie stellen die Frage, wie es sein kann, dass obwohl wir Kenntnisse von diesem schwarzen Elefanten haben, wir es nicht schaffen seine Existenz angemessen zu adressieren und damit wahrzunehmen.
2.2 Wissenschaftliche Legitimation
35
Im Sinne von Taleb bilden Phänomene, wie sie bei SyA und Intuition beobachtbar sind, große Abweichungen vom gängigen Weltbild. Diese Phänomene weisen für viele durchaus das Potential eines schwarzen Schwans auf, für andere sitzen sie dagegen wie ein schwarzer Elefant im Raum, der nicht gesehen werden will. Es stellen sich deshalb mehrere Fragen: Welche Gründe existieren, dass die einen solche Phänomene scheinbar nicht kennen oder besser in keinem Fall erwarten, und andere diesen Elefanten nicht sehen wollen? Sind es die Fachorientierung in der Wissenschaft und Baggott’s Erkenntnisse – ohne Theorie keine Beobachtung oder ist es die Angst vor dem mit dem Neuen verbundenen Konsequenzen? Für einen Teil der Fragen soll diese Arbeit einen Beitrag leisten: (a) um die Fachorientierung zu überwinden und (b) um eine Theorie zur Verfügung zu stellen. Keinen Beitrag wird diese Arbeit vermutlich für eine mögliche Überwindung der Angst vor dem Neuen leisten können. Hierzu wird wohl Zeit, Gewöhnung und mit Bezug auf wirtschaftliche Interessenlagen die Akzeptanz der Ergebnisse vonnöten sein. Kann eine Wissenschaftsdisziplin keine Erklärung liefern und werden innerhalb der Disziplinen Immunisierungsstrategien genutzt, so scheint es sinnvoll zu sein, Erfahrungen, Theorien und Modelle verschiedener wissenschaftlicher Richtungen einzubeziehen, um einer Erklärung zur Wirkungsweise von SyA näher zu kommen. Dies um so mehr, als es derzeit noch keine tragfähige Beschreibung zum Mechanismus von SyA und für alle Phänomene, die mit Intuition in Verbindung gebracht werden, existiert und offensichtlich keine einzelne Wissenschaft dazu in der Lage ist, eine solche zu entwickeln. Eine weitere Antwort vermag Thomas Bayes zu liefern (Bayes 1763). 2.2.3
Bayes-Theorem
Die von Baggott festgestellte Beeinflussung von Fakten aufgrund vorhandener oder nicht vorhandener Theorien erhält eine Verschärfung in der Form, dass die wahrgenommenen Fakten zusätzlichen Beeinflussungen ausgesetzt sind (Baggott 2013: 9). Dies wurde durch die Arbeit des englischen Mathematikers Thomas Bayes deutlich, der den Bayesschen Wahrscheinlichkeitsbegriff (Bayesianism) einführte (Bayes 1763). Er interpretiert Wahrscheinlichkeit als Grad persönlicher Überzeugung (degree of belief). Also wie glaubwürdig halte ich eine Aussage und damit die Erfüllung einer bewussten oder unbewussten Erwartungshaltung. Bayes erkannte, dass unsere Erwartungshaltung erheblichen Einfluss auf Beobachtungen und theoretische Modelle hat (Knill und Pouget 2004; Bayes 1763). Dass dies nicht nur für messtechnische Fragen Relevanz besitzt, veranschaulicht die Einführung des Bayes-Theorem in die Rechtsprechung in Bezug auf Zeugenaussagen (Rüßmann 1990; Bender u. a. 1981). Wir tendieren dazu, unsere Vormeinungen zu bestätigen und suchen nach Informationen, die genau dies sicherstellen und wir ignorieren die Informationen, die unsere Vormeinungen infrage stellen. Mit dieser Erkenntnis lässt sich das Phänomen der schwarzen Schwäne und schwarzen Elefanten sehr plausibel nachvollziehen. Die objektivistische Wahrscheinlichkeitsauffassung und damit die klassische Gaußsche Normalverteilung ist für menschliche Beurteilungen
36
2 Methodologischer Zugang
eine Illusion (Abb. 4). So führt bei einer 99 %-igen Überzeugung bezüglich einer bestimmten Ausgangssituation (hohe positive Haltung) ein einziges signifikantes Ergebnis auf eine neue Erwartungs-Wahrscheinlichkeit von 99,89 % und damit auf fast 100 %. Bei einer kritischen Haltung und einer damit verbunden Überzeugung, dass ein Sachverhalt nur zu 1 % wahr ist, führt dieses eine signifikante Ergebnis nur zu einer Steigerung der Erwartungshaltung auf 15 %.
Abb. 4 | Bayessche Wahrscheinlichkeit Die Vorher-Darstellung veranschaulicht eine Trefferverteilung unter der Annahme einer Normalverteilung und damit unter der Annahme einer neutralen Haltung. Eine in Richtung -5 verschobene persönliche Überzeugung (Wahrscheinlichkeit) bezüglich eines Sachverhaltes verändert die Wahrscheinlichkeitsverteilung und damit die Wahrscheinlichkeitsdichte ρ des von mir erwarteten Ergebnisses (Nachher) ebenfalls Richtung -5. Schematische Darstellung in Anlehnung an (Bishop 2007: 28)
Von daher ist auch erklärbar, dass neue ungewöhnliche Erkenntnisse oder Theorien zunächst ignoriert werden oder erheblichen Widerstand seitens der klassischen Lehrmeinung zu erwarten haben und es vieler Wiederholungen bedarf, bevor sich Neues durchsetzen kann. Auch das ist eine Antwort auf die Frage, wie Neues in die Welt kommt oder besser, wie Neues verhindert wird. Die von Bayes mathematisch gefundene subjektive Wahrscheinlichkeit lässt sich gut mit Erkenntnissen aus der Psychologie erklären. Eine Einseitigkeit von Veröffentlichungen aus einer bestimmten Richtung, wie es Shepherd und Suddaby beschrieben haben, führt automatisch zu einer, auf der ‚Verfügbarkeitsheuristik‘ (Kahneman 2016: 164) beruhenden, leichteren Abrufbarkeit entsprechender Beispiele und Erklärungen. Der ‚Halo-Effekt‘ (ebd. 109), der die Bedeutung des ersten Eindrucks verstärkt, führt unterstützend zur Suche nach Bestätigung dieses ersten Eindrucks und zum Ausblenden anderer Informationen. Als weitere Folge greift der ‚Ankereffekt‘ (ebd. 152). Ankereffekte treten bei der Bewertung oder Abschätzung unbekannter Größen auf und führen zur Tendenz, im Rahmen dessen zu bleiben, was bekannt ist. Konsequenterweise ergibt sich ein Bias, der der Bayesschen Posterior-Wahrscheinlichkeit entspricht. Insofern ist auch verständlich, dass die Wissenschaftsgemeinde, aus Ermangelung anderer Experimente und Theorien, eher an den hergebrachten Überzeugungen festhält und lange skeptisch
2.2 Wissenschaftliche Legitimation
37
gegenüber ungewöhnlichen Experimenten bzw. Anomalien und ungewohnten Theoriemodellen bleibt. Verschärfend kommt hinzu, dass Menschen dazu tendieren an einmal gefassten Überzeugungen festzuhalten, selbst wenn sie erkennen, dass sie einem bewusst organisierten Schwindel aufgesessen waren (Greitemeyer 2014). Experimente zeigten eindeutig, dass wegen Fehlern oder Falschinformationen zurückgerufene Veröffentlichungen die Meinung der Leser auch dann noch beeinflussen, wenn diese die Fehler und Falschmeldungen bewusst wahrnehmen und sogar mitgeteilt bekamen, dass die Informationen für die Experimente bewusst konstruiert waren (ebd. 560). Dies um so stärker, je mehr sie im Vorfeld Begründungen für die Glaubwürdigkeit der Falschmeldung suchen sollten (ebd.). Die Leser lernten also nicht aus dem Widerruf und verwarfen die Informationen, sondern trugen die Fehler und Falschinformationen weiter. Die verwiesen auf Studien, die zeigen konnten, dass bei weiteren Veröffentlichungen nur 8 % auf den Widerruf hinwiesen (ebd.). Zwei Zusammenhänge konnten die Forscher identifizieren, die das eben beschriebene Festhalten an widerlegten Fakten und Überzeugungen und damit das Bayes-Theorem abschwächen können: (1) Die erhöhte Verfügbarkeit von Gegenerklärungen und (2) die Bereitstellung alternativer Kausalzusammenhänge in Verbindung mit der Aufforderung an die Leser, selbst nach Nichtplausibilitäten der ursprünglichen Fakten zu suchen (ebd). Aus diesem Grund werden sehr viele Experimente aus den verschiedenen wissenschaftlichen Zugängen vorgestellt, denn letztlich braucht es zur Verschiebung der persönlichen Wahrscheinlichkeit offensichtlich viele glaubwürdige Beispiele und Widerlegungen der alten Theorien und Annahmen, bevor eine neue Theorie eine Chance auf Akzeptanz bekommt. Diese Arbeit berührt viele feste Grundüberzeugungen, insbesondere der westlichen Forschungswelt, und es wird sich zeigen, inwieweit sie auf der einen Seite plausible, nachvollziehbare Resultate generieren kann und inwieweit sie auf der anderen Seite auf eine offene Forschungsgemeinde trifft, die in einen wissenschaftlichen Diskurs und eine weitere Überprüfung treten wird. 2.2.4
Mathematischer Formalismus versus narrative Beschreibung
Der Versuch, unterschiedliche Wissenschaftsdisziplinen miteinander zu verbinden, wirft, abgeleitet aus den bisherigen Überlegungen, die Frage nach der geeigneten Wahl der Mittel und der Darstellungsform auf. Sich mit Quantenphysik zu beschäftigen, ohne dazu intensiv auf mathematische Formalismen und Beschreibungen zurück zu greifen, scheint in der heutigen Zeit fast unmöglich. Zumindest erwecken die Gepflogenheiten in der Physik diesen Eindruck. Für viele gehören Physik und Mathematik zwingend zusammen. Nur was mathematisch darstellbar und berechenbar und letztlich auch prognostizierbar ist, erhält den allumfassenden Segen der Anerkennung. „Ein physikalisches Phänomen gilt oft genau dann als ‚verstanden‘, wenn der Physiker eine mathematische Gesetzmäßigkeit angeben kann, die das Gesetz quantitativ beschreibt“ (Bornholdt 2010: 207). Entsprechend ist die Falsifizierung, also ein einziges Gegenbeispiel oder Experi-
38
2 Methodologischer Zugang
ment ausreichend, um eine Theorie zu widerlegen (ebd.). Zweifelsohne lieferten immer wieder mathematische Berechnungen, deren Werte nicht mit den Versuchsergebnissen übereinstimmten, den Anstoß zu großen Durchbrüchen in den Naturwissenschaften und hier insbesondere der Physik. Die Quantenphysik ist genau dadurch ins Leben gerufen worden. Dennoch ist „eine physikalische Theorie nicht beweisbar im Sinne eines mathematischen Beweises“ (ebd. 209). Vielmehr ergibt sich die Evidenz der Theorie aus vielen Einzelbestätigungen. Ein schwarzer Schwan kann schon das Ende bedeuten, nur ist ein schwarzer Elefant in der Lage die Akzeptanz dieses Gegenbeweises lange hinauszuziehen. Was häufig verkannt bzw. verwechselt wird, ist der Unterschied zwischen Mathematik und Physik bzgl. dieses Evidenznachweises: „In der Mathematik ist Evidenz über den Beweis einer These unmittelbar herstellbar, diese Option fehlt der Physik“ (ebd. 212). In der Physik geht es um „unmittelbares Erleben eines physikalischen Experiments“ (ebd.). Mathematik entspricht im Grunde einer Sprache, mit der wir viele Dinge ausdrücken können. Voraussetzung dafür ist der Transfer in die mathematische Zeichensprache und einer dann exakten Definition für genau den verwendeten Kontext22. Die Kunst besteht deshalb darin, zu untersuchende Gegebenheiten einer Zeichen- und Formelsprache zugänglich zu machen. Ist dies erfolgreich gelungen, lässt sich damit die zu untersuchende Gegebenheit in unterschiedliche Richtungen (Vergangenheit, Zukunft, etc.) hin abbilden. Sie versucht also durch logische Definition selbstgeschaffene abstrakte Strukturen zu generieren, um deren Muster und Eigenschaften, letztlich rückbezüglich, wieder zu überprüfen. Mathematische Formalisierung reduziert Objekte auf exakt definierte Entitäten mit genau bekannten Eigenschaften. Mathematik erkauft Beweisbarkeit durch Reduktion auf exakte (abstrahierte) Begriffe. Insofern kann man für die Anwendung der Mathematik durchaus den Begriff der Synchronizität wählen. Der Begriff geht auf den Psychologen C. G. Jung zurück und beschreibt „Das sinnvolle Zusammentreffen kausal nicht verbundener Geschehnisse“ wie es F. D. Peat auf der Titelseite seines Buches ‚Synchronizität - Die verborgene Ordnung‘ formuliert (Peat 1992). Hier stellt sich natürlich die Frage, ob eine Formel, die versucht ein Geschehen abzubilden, kausal damit verbunden ist oder doch eher einer Synchronizität im oben definierten Sinne entspricht, vergleichbar mit einem Uhrwerk: Geht die Sonne auf, weil die Uhr es anzeigt oder zeigt die Uhr eine entsprechende Zeit, weil die Sonne aufgeht. Letztlich gibt es sicher keine wechselseitigen direkten Beeinflussungen, wohl aber ein auf mathematischen Berechnungen konstruiertes Räderwerk. Einstein selbst stellt den Zusammenhang von ‚Wirklichkeit‘ und ‚Sprache der Mathe-
22
So steht beispielsweise der Buchstabe ‚c’ einmal für Lichtgeschwindigkeit, ein anderes Mal wie z. B. im Satz des Pythagoras a2 + b2 = c2 als Platzhalter für die Abmessung einer Seite eines rechtwinkligen Dreiecks, der sogenannten Hypotenuse. Der abstrakte Buchstabe ‚c' bekommt eine, jeweils der Situation angemessene Bedeutungsgebung bzw. einen Interpretationsrahmen, die einmal definiert werden und für Insider üblicherweise bekannt sind. Kenne ich diese Bedeutungsgebung nicht, kann ich den Buchstaben als das ansehen, was er prinzipiell auch ist: Ein Schriftzeichen unseres Alphabets.
2.2 Wissenschaftliche Legitimation
39
matik‘ unter ein dickes Fragezeichen: „Insofern sich die Sätze23 der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher, und insofern sie sicher sind, beziehen sie sich nicht auf die Wirklichkeit“ (Einstein 1921: 2-3)24. Dass Modelle nicht die Wirklichkeit sind, wird auch durch den Prozess des Modellierens selbst deutlich. Mit Bezug auf Blum und Leiß (Blum und Leiß 2005) unterscheidet Tecklenburg verschiedene Phasen (vgl. Tecklenburg 2012: 25): 1. Konstruieren und Verstehen 2. Vereinfachen und Strukturieren 3. Mathematisieren 4. Mathematisch arbeiten 5. Interpretieren 6. Darlegen und Erklären Eine weitere Thematik liegt offensichtlich auch in den verschiedenen Überführungsprozessen zwischen den Schritten. Von Vereinfachung über Verfälschung ist alles möglich. Insofern hat Einstein sehr wohl recht, wenn er den Wirklichkeitsbezug infrage stellt. Das was sich tatsächlich ableiten und überprüfen lässt, ist die Stimmigkeit der mathematischen Modellierung innerhalb des jeweiligen Anwendungsbereichs. Hat der Forscher die richtige Übersetzung gefunden und kann damit zukünftige Entwicklungen richtig vorhersagen, ist dies hilfreich für diesen speziellen Einsatzfall, sein Modell liefert aber noch keinerlei Aussage für andere Anwendungen. Ausführlich wird dieses Thema der ‚Modellbildung in der Mathematik‘ bei Hinrichs behandelt (Hinrichs 2008). Damit stellt sich die Herausforderung, wie Mathematik und beispielsweise die Sozialwissenschaften miteinander verbunden werden können. Letztere nähert sich ihren Erkenntnissen in der Regel über narrative Beschreibungen. Dass es tatsächlich Teilbereiche und Überschneidungen gibt, in denen auch Mathematik und Sozialwissenschaft miteinander interagieren, wird durch Veranstaltungen deutlich, wie sie die Freie Universität Berlin im Rahmen ihres ‚98. Dahlem Workshops‘ abhielt (Leitner 2008). Unter dem Arbeitsthema ‚Die Mathematik sozialer Phänomene‘ wurden Wege erforscht, auf denen sich die beiden Disziplinen unterstützen und befruchten können. In Summe lässt sich feststellen, dass die Berührungspunkte zwischen Mathematik, Soziologie, aber auch zu Philosophie und Wirtschaftswissenschaften vorzugsweise im Bereich der Statistik und damit auf quantitativer Ebene bewegen. Die Behandlung von Herdeneffekten, Bankencrashs oder Klimaänderungen und deren Auswirkungen stehen dabei im Zentrum der 23 24
Seine Sätze beziehen sich auf mathematische Axiome aus denen weitere Sätze abgeleitet werden. Diese Aussage war die Antwort auf die von Einstein (1921) selbst gestellte Frage, wie die Mathematik die Gegenstände der Wirklichkeit so treffend zu beschreiben vermag, obwohl sie doch ein von allen Erfahrungen unabhängiges Produkt des menschlichen Denkens sei. Einstein macht damit sehr deutlich, dass Mathematik nicht die Wirklichkeit an sich ist, sondern nur ein Abbild derselben. Dies geht auch aus einem weiteren, ihm zugeschriebenen Zitat hervor: „Die Mathematik handelt ausschließlich von den Beziehungen der Begriffe zueinander ohne Rücksicht auf deren Bezug zur Erfahrung.“
40
2 Methodologischer Zugang
Aufmerksamkeit und lassen sich durch Modellbildungen einer gemeinsamen Sprache, der Mathematik, zuführen. In Verbindung mit der spezifischen Konstruktion mathematischer Modelle lässt sich für statistisch-mathematische Modelle in der Soziologie und Psychologie konstatieren, dass sich gleichzeitig andere Aspekte ausschließen, die sich beispielsweise mehr auf individuelle Verhaltensweisen beziehen. Es ist somit kein vollständiges und fallspezifisches Bild, das sich über mathematische Modellierung finden lässt. Mit Bezug auf eine soziologische Betrachtung der Quantenphysik und somit als Umkehrschluss führt Vogd aus: „Auf der anderen Seite darf die soziologische Rekonstruktion der Quantenphysik jedoch auch nicht allzu konkret an ihre physikalische und mathematische Formulierung angeschmiegt sein, denn auf diesem Weg sieht man den ›Wald vor lauter Bäumen‹ nicht“ (Vogd 2014: 24). Zu tiefes Einsteigen in Formalismus und Sprache der Mathematik würde also Reflexions- und Erkenntnisprozesse behindern, die sich aus anderen Perspektiven ergeben können. Das bedeutet nicht, dass in der Quantenphysik nur gerechnet werden würde. Auch dort entwickeln sich üblicherweise erst Ideen und Konzepte, denen im zweiten Schritt die mathematischen Überlegungen folgen (siehe dazu auch Feynman 1992: 17), entsprechend den oben beschriebenen Phasen von Tecklenburg (vgl. Tecklenburg 2012: 25). Es bedeutet jedoch, dass je nach Perspektive gänzlich unterschiedliche Erkenntnisse gewonnen werden können. Und wie es die Eigenheiten von Sprachen zusätzlich mit sich bringen, gelten sie nur für wohl definierte Kulturräume und verbergen dahinter eine Vielzahl, nicht offen transportierter Verständnisse; sehr nachvollziehbar veranschaulicht von Deutscher (Deutscher 2012). Auch diesbezüglich unterscheidet sich die Sprache der Mathematik in keiner Weise, wie an intensiven und kontroversen Diskussionen innerhalb der Physik zu beobachten ist. Angeführt sei nur der Disput zwischen Vertretern der Kopenhagener Deutung und der Bohmschen Mechanik, wie sie sich in zahllosen Büchern und Foren wiederfindet (Forstner 2007). Auf Beide wird im Verlauf dieser Arbeit noch intensiv eingegangen. Selbst die von Feynman, Schwinger und Tomonage entwickelte QED (Quantenelektrodynamik) (Feynman 1992), die als die best-verifizierteste Theorie der Welt gilt, wird als mathematisch inkonsistent angesehen (Vogd 2014: 162). Sie arbeitet danach auf der Basis von Näherungen, die sich aus Renormierungen ergeben, die wiederum heuristischen Verfahren entsprechen. Die Sprache, die Feynman entwickelte, sind Pfeile (sogenannte Pfadintegrale), mit der er „die Bewegungen der atomaren Realitäten darstellen ließ“ (ebd.). Nach Ansicht des genialen Mathematikers und Physikers Paul Dirac hat Feynman „die Schönheit der Physik geopfert“ (vgl. Fischer 2010: 280f; zitiert in Vogd 2014: 162). Nun zeigt die Quantenfeldtheorie (QFT) der Mathematik heute noch ihre Grenzen auf und lässt sich nicht in ein geschlossenes System von Axiomen und Beweisen überführen 25 . Aber nur weil Mathematiker sich heute noch 25
Um an dieser Stelle Missverständnissen vorzubeugen: Für den Großteil der QFT liegen sehr wohl stimmige mathematische Modelle vor, die es in vielen Fällen erlaubt haben, treffende Vorhersagen zu machen, wie beispielsweise das Standardmodell der Eichtheorie illustriert. Mit ihr wurde die Zusammensetzung von Materieteilen (Fermionen) korrekt vorhergesagt (Schäfer 2006). Siehe zu mathematischen Lösungsansätzen bezüglich Pfadintegralen auch https://ncatlab.org/nlab/show/FQFT.
2.2 Wissenschaftliche Legitimation
41
schwertun, die Komplexität vielteiliger Systeme mathematisch zu handeln und damit mathematisch zu beschreiben, müsste man vieles von dem was in der Quantenfeldtheorie passiert als ‚nicht-wissenschaftlich‘ ansehen? Eine sehr eigenartige Vorstellung. Dies würde gleichzeitig auch bedeuten, dass Forschung und deren Ergebnisse nur dann wissenschaftlich sind, wenn sie sich mathematisch beschreiben und beweisen lassen. Der Begriff ‚Beweis‘ in der Mathematik bezieht sich auf Aussagen, sogenannten Thesen, deren Wahrheitsgehalt überprüft werden soll (Fleischhack 2010: 150). Dabei stellt der Kontext eine Einengung dar, innerhalb dessen ein Beweis geführt werden kann. Das was dann bewiesen wird, besitzt nur Gültigkeit für diesen Kontext und darf nicht einfach auf andere Zusammenhänge übertragen und als Allgemeingültigkeit angesehen werden. Zahlreiche solcher Kontexte für mathematische Beweise werden im „Das BUCH der Beweise“ (Aigner und Ziegler 2015) vorgestellt. Dort werden unterschiedliche mathematische Vorgehensweisen für unterschiedliche Problemstellungen gewählt. Bereits im rein mathematischen Bezugsrahmen wird somit die Anpassungsnotwendigkeit deutlich. Physikalisch gesprochen: Er ist nur gültig relativ zum betrachteten System, hier der Mathematik und eines spezifischen Kontextes. Das ursprüngliche Vorhaben, mich dem Thema SyA und Quantenphysik über die Mathematik zu nähern, wurde aufgrund der innerphysikalischen Kontroversen frühzeitig beendet. Es besteht aktuell keine Möglichkeit, ein kohärentes Verständnis über die Auslegung der mathematischen Formalismen und Resultate zu erhalten. Einfach veranschaulichen lässt sich dies durch die verschiedenen Interpretationen der Quantenphysik, die bis heute noch keinen gemeinsamen Nenner gefunden haben. Ihre jeweils unterschiedlichen, mathematischen Modelle kommen zu den gleichen, treffenden Ergebnissen für die Experimente. Somit lässt sich die Interpretation des zugrundeliegenden Prozesses mathematisch nicht beantworten. Anschaulich wird dies auch bei Forschungsarbeiten, die den mathematischen Formalismus der Quantenphysik auf interpersonale (Generalisierten Quanten-Theorie) oder neuronale Prozesse und Phänomene (Hameroff und Penrose 2014a) anzuwenden suchen. Sie werden üblicherweise vom wissenschaftlichen Mainstream ignoriert oder gar abgelehnt26. Ich werde mich deshalb, wie Vogd, an der Auffassung des Physikers Feynman orientieren, „dass man mathematische und physikalische Gedanken sehr wohl richtig verstehen kann, auch wenn man selbst nicht in der Lage ist, die damit verbundenen Rechnungen durchzuführen. [...] Wir müssen verstehen lernen, was es bedeutet, mit Operatoren und imaginären Zahlen zu rechnen; wir brauchen aber die Rechnungen und die sie herleitenden Beweise nicht nachvollziehen zu können“ (Vogd 2014: 24). Verweisen möchte ich besonders auf den letzten Teil des Zitates, bei dem es um die Herleitung der Beweise geht. Es wird in der folgenden Arbeit nicht darum gehen, die bisher existierenden Beweise herzuleiten, es wird jedoch sehr wohl darum gehen, die Beweise, ihre Schlussfolgerungen und ihre Aussagekraft zu analysieren und miteinander in Beziehung zu setzen.
26
Auf diese Beispiele wird im weiteren Verlauf noch Bezug genommen.
42
2 Methodologischer Zugang
Als Konsequenz der Unmöglichkeit bei dem hier vorliegenden Thema, eine mathematische Beweisführung weder innerhalb der Physik noch übergreifend über alle Wissenschaftsdisziplinen, zu führen, wird der Ansatz der narrativen27 Beschreibung gewählt. Die Verbindung zwischen den verschiedenen Disziplinen funktioniert in unserem Fall nicht über Formeln, sondern nur sprachlich, wobei zunächst Zusammenhänge konstruiert und definiert werden müssen, bevor zu einem späteren Zeitpunkt (vielleicht) ein mathematisches Formelwerk eine dann akzeptierbare Brücke zu schlagen vermag. Ziel der narrativen Beschreibung ist deshalb eine verständliche und sinnstiftende Erzählung, die helfen soll, unseren Bezug zur Umwelt zu überdenken und neu wahrzunehmen. In einem späteren Schritt darf diese Erzählung dann zur Argumentation herangezogen werden. Gleichzeitig wird versucht, die jeweiligen sprachlichen Eigenheiten der Disziplinen über die Form der narrativen Beschreibung zu verbinden, wobei die Verwendung der Begriffe im Zweifel immer der jeweiligen Wissenschaftsdisziplin angelehnt bleibt. Die Legitimation der narrativen Beschreibungen ergibt sich schließlich aus den wissenschaftlichen Arbeiten und Ergebnissen, auf die zurückgegriffen wird und in wenigen Fällen, durch mathematische Bezüge. Letztere kommen dann zum Einsatz, wenn sie in der Lage sind, die Zusammenhänge oder Erklärungen in bestimmten Kontexten besser oder einfacher zu veranschaulichen. Hier bleibt jedoch noch festzuhalten, dass auch das Narrative eine spezifische Form von Schwierigkeiten mit sich bringt. Mit dem Hinweis, dass im Zweifel die Begriffe an ihre jeweilige Wissenschaftsdisziplin angelehnt bleiben, wird deutlich, dass sowohl dem Forscher als auch dem Leser die Herausforderung der Ambiguität der Begriffe nicht erspart bleibt. Im Folgenden kurz am Beispiel des Begriffes ‚Wahrscheinlichkeit‘ verdeutlicht, da er sowohl in Bezug auf Legitimation von Forschungsergebnissen als auch in der Quantenphysik als auch in der Informationstheorie von Bedeutung ist. Scheint der Begriff der ‚Wahrscheinlichkeit‘ auf den ersten Blick relativ einsichtig und klar, verflüchtigt sich diese Klarheit bei genauerer Betrachtung umgehend, denn es existiert keine einheitliche Definition. Die folgenden vier Varianten sollen dies veranschaulichen. Interpretation nach Bayes Wie unter Kap. 2.2.3 bereits beschrieben, interpretiert er Wahrscheinlichkeit als Grad persönlicher Überzeugung und bringt eine damit verbundene Aussage in Zusammenhang mit ihrer Glaubwürdigkeit. Es handelt sich entsprechend nicht um eine externe Realität, sondern um eine subjektive Deutung, die von der Erwartungshaltung abhängt. Klassische Interpretation Hier wird ein mögliches Ergebnis mit der Anzahl an Möglichkeiten in Beziehung gesetzt, wie es sich bei einem Münzwurf einfach veranschaulichen lässt. Die Wahr27
Der Brockhaus (19. Auflage) definiert ‚narrativ’ mit ‚erzählend, in erzählender Form darstellend’.
2.2 Wissenschaftliche Legitimation
43
scheinlichkeit Zahl oder Kopf beträgt 0,5 (1 durch 2). Ganz generell wird hier von einer subjektiven Wahrscheinlichkeit gesprochen, die auf einer Unvollständigkeit des Wissens beruht (Popper 1959)28. Propensity-Interpretation (engl. Neigung/Tendenz) Diese Variante geht auf Popper (ebd.) zurück und wird als objektive Variante der Wahrscheinlichkeitsinterpretation verstanden, weil sie sich als Ergebnis aus einer Vielzahl sich wiederholender Versuche ergibt, die die Tendenz/Neigung zu einem bestimmten Wert haben (z. B. beim Münzwurf 0,5 für jede der beiden Seiten). Ein solches Ergebnis wird als Eigenschaft des untersuchten Gegenstandes betrachtet. Frequentistische Interpretation Sie bezieht sich auf die relative Häufigkeit (Frequenz) bestimmter Ergebnisse innerhalb einer Serie (ebd.). Der untersuchte Gegenstand als solches bekommt in diesem Fall keine Wahrscheinlichkeitszuschreibung. Die Unterscheidungen beziehen sich jeweils auf unterschiedliche Kontexte und Zielsetzungen und können auch hier nicht ungestraft auf andere Kontexte und Ziele übertragen werden. Der Versuch, jeden Begriff eindeutig zu definieren, wie es in fachspezifischen wissenschaftlichen Arbeiten üblich ist und gefordert wird, scheint deshalb nachvollziehbar. Aber auch hier bringt eine genaue Betrachtung dieses Anliegens, einer jeweils präzisen Definition, deren Unmöglichkeit an die Oberfläche. Aufgrund der Vielzahl an Wissenschaftsdisziplinen und möglichen Lesern, kann nicht sichergestellt werden, dass der Autor aufgrund seiner eigenen Prägung alle möglichen Interpretationsvarianten und Missverständnisse bereits beim Erstellen dieser Arbeit erkennen wird. Insofern ergeht an die Leser die Bitte, zu versuchen, sich ihrerseits auf die Disziplin und ihre Definitionsgewohnheit einzulassen bzw. einzustellen und ggf. Irritationen mittels Lexika zu beheben. Gleichwohl wird versucht, zumindest die offensichtlich ambiguen Begriffe zu definieren und im Glossar festzuhalten. 2.2.5
Conclusio zur wissenschaftlichen Legitimation
Aus diesem Kapitel lassen sich nun erste Erkenntnisse in Bezug auf die aus dem Codingprozess hervorgegangene Hauptkategorie ‚wissenschaftliche Legitimation‘ (Tab. 1) und ihre Unterkategorien zusammenfassen: 1. In unseren Wissenschaften dominieren zwei Erkenntnisformen, auf denen sich akzeptierte Erkenntnisgewinne und schließlich die wissenschaftliche Legitimation stützen. Es sind dies ‚Deduktion‘ und ‚Induktion‘. Die beiden anderen Formen, ‚Abduktion‘ und ‚Intuition‘, werden zwar in der Literatur behandelt, die mit ihnen verbundene Zufälligkeit und Nicht-Nachvollziehbarkeit sind mit dem westlichen, rational-kognitiven dominierten Paradigmen jedoch noch nicht aus28
Popper entwickelte seiner Variante in Zusammenhang mit der Auseinandersetzung mit den Wahrscheinlichkeitsinterpretationen der Quantenphysik (ebd. S 27-28).
44
2 Methodologischer Zugang
reichend verankert. Aus diesem Grund müssen die Erklärungen und Theorien auch den deduktiven und induktiven Ansätzen genügen, wollen sie wissenschaftliche und gesellschaftliche Anerkennung erhalten. Sie müssen logisch und rational ableitbar sein. 2. Die Wahrnehmung von Phänomenen und deren Akzeptanz ist von den zugrundeliegenden Theorien abhängig. Diese Theorien hängen wiederum vom aktuellen Weltbild ab. Existieren keine Theorien, so werden keine entsprechenden Phänomene beobachtet oder zumindest solche nicht weiterverfolgt oder gar akzeptiert. Entsprechend finden sich auch keine Veröffentlichungen, die Interesse und Wahrnehmung solcher Phänomene fördern würden. Als Ursache lassen sich derzeit zwei Zusammenhänge diagnostizieren, die mit dem ‚Black Swan‘ von Taleb (2010) und ‚Black Elephant‘ von Gupta (2009) beschreibbar sind. Beim ‚Black Swan‘ fehlt prinzipiell das Wissen über bestimmte Phänomene und Fakten, wohingegen beim ‚Black Elephant‘ ein entsprechendes Wissen existiert, aus verschiedenen Gründen wird das Wahrnehmen der Phänomene oder der Fakten jedoch ausgeblendet. Insofern besteht eine Blindheit gegenüber (a) Zufälligkeiten und (b) Ereignissen, die außerhalb unserer Erwartung liegen. Diese Blindheit gegenüber Unterschieden in Bezug auf die eigene Erwartung wurde von Bayes (Knill und Pouget 2004; Bayes 1763) als Gesetzmäßigkeit erkannt und als ‚persönliche Wahrscheinlichkeit‘ bezeichnet. Nur durch viele Beispiele der ausgeblendeten Phänomene, eine bewusste Auseinandersetzung mit ihnen und idealerweise eine passende Theorie lässt sich diese Bayessche Wahrscheinlichkeit ändern. 3. Antworten zur Unterkategorie ‚Beschreibungsform bzw. Formalismus‘ ergeben sich zum einen aus der operativen Geschlossenheit der verschiedenen Wissenschaften und ihren selbstreferentiellen Rekursionen. Diese verhindern heute in vielen Fällen das Überwinden von Black Swan- und Black Elephant-Effekten und damit auch der Bayesschen Wahrscheinlichkeit. Zudem besteht die Notwendigkeit, Bewusstsein und vor allem Akzeptanz gegenüber den unterschiedlichen Vorgehensweisen, Zugängen sowie Interpretationen der einzelnen Disziplinen zu entwickeln und Wege der Annäherung zu finden. Allein die unterschiedlichen Interpretationen von ‚Beweis‘ und ‚Wahrscheinlichkeit‘ sind eine echte Herausforderung. Einer, der dabei zu überwindende Unterschied liegt im mathematischen Formalismus versus einer narrativen Beschreibung. Ein weiterer Unterschied bezieht sich auf die Ambiguität der Begriffe, die verwendet werden. Bei all diesen Unterschieden bedarf es einer großen Offenheit und Bereitschaft zum Austausch, um eine gemeinsame Basis zu entwickeln, bzgl. Verständnis und Sprache. Damit einhergeht auch das Einbringen ausreichender Zeit. Als Konsequenz dieser Erkenntnisse wurden viele Beispiele aus unterschiedlichen Disziplinen gesammelt, untersucht und ausgewertet. Damit wird zum Ersten die übergreifende Annäherung gefördert, zum Zweiten entwickelt sich ein gemeinsames Verständnis und eine gemeinsame Sprache und zum Dritten wird auch für die Veränderung der
2.2 Wissenschaftliche Legitimation
45
‚persönlichen Wahrscheinlichkeit‘ ein Beitrag geleistet. Aufsetzend auf der Notwendigkeit einer deduktiven und induktiven Nachvollziehbarkeit werden bestehende Theorien und Annahmen falsifiziert und dort wo nötig verifiziert. Ergänzend wird die Anschlussfähigkeit von SyA an die Unternehmensführung, genauso wie das zu entwickelnde neue theoretische Modell zum dahinterliegenden Prozess, Schritt für Schritt aus bestehenden wissenschaftlichen Grundlagen abgeleitet. Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
3
Wirtschaftswissenschaftlicher Zugang
3.1
Unternehmensführung in der VUCA-Welt
Die Herausforderung für unsere Wirtschaft und Anknüpfungspunkt für SyA In diesem Kapitel wird der wirtschaftliche und gesellschaftliche Rahmen erläutert, in dem sich SyA nutzbringend einsetzen lässt und einen wirklichen Mehrwert liefern kann. Ein Mehrwert, der besonders in einem geeigneten Umgang mit komplexen Meinungsbildungs- und Entscheidungsprozessen immer wichtiger werden wird. Es wird auch deutlich, dass die momentan im Umgang mit diesen Rahmenbedingungen gehandelten Lösungsansätze diese Herausforderungen und Potentiale noch nicht wirklich erfasst haben. Als Ergebnis wird der grundsätzliche Zusammenhang der aus dem Codierungsprozess hervorgegangenen Hauptkategorien ‚wissenschaftliche Legitimation‘, ‚Intuition‘, ‚Information‘ und ‚Übertragungswege‘ verständlich. 3.1.1
Das VUCA-Paradigma im Management
VUCA ist ein Akronym, das für Volatility, Uncertainty29, Complexity und Ambiguity steht und den Handlungsrahmen für strategische Entscheidungen liefert (Abb. 5). Betrachtet man die Innovationsgeschwindigkeit (Glanz und Nadler 2011) der letzten Jahre, insbesondere im Bereich der Informationstechnologie (Hilbert und López 2011), so ist die Welt wohl tatsächlich auf einer neuen Ebene unterwegs. Zu diesen Entwick-
29
Zu dt. Unbestimmtheit (alternativ: Ungewissheit bzw. Unsicherheit). In der deutschen Übersetzung wird i. d. R. Unsicherheit anstelle von Unbestimmtheit verwendet. In einer kurzen Abhandlung von (Bennett und Lemoine 2014) wird jedoch deutlich, dass beide Begriffe nicht unbedingt gleichzusetzen sind. Die Autoren charakterisieren Uncertainty mit „Despite a lack of other information, the event's basic cause and effect are known. Change is possible but not a given.“ Es geht also um eine Unbestimmtheit der bzw. einer Ungewissheit über die Folgen, woraus sich durchaus eine Unsicherheit ergeben kann, aber zunächst erst als Folge der Unbestimmtheit. Die ‚Unbestimmtheit’ unterliegt Wahrscheinlichkeitsgrundsätzen, deren Eintreten nicht kausal festgelegt ist, sondern nur Möglichkeiten repräsentiert (Görnitz 2011: 137; vgl. Görnitz und Görnitz 2002: 85). Was sich wann und wie ereignen kann, ist von vielen Zufälligkeiten abhängig. Demgegenüber lässt sich ‚Unsicherheit’ als kausale Folge von Ausgangssituationen darstellt, bei denen unklar ist, ob sie sich realisieren. Deshalb wird Uncertainty im Weiteren dieser Arbeit primär im Sinne von Unbestimmtheit verwendet, wie wir sie auch später im Kontext der Quantenphysik und Heisenberg’s Unbestimmtheitsrelation wiederfinden, wobei letztere häufig das gleiche Schicksal in deutschen Übersetzungen (Unsicherheit statt Unbestimmtheit) erleidet.
© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_3
48
3 Wirtschaftswissenschaftlicher Zugang
lungen gehören das World-Wide-Web30, die Globalisierung31, Industrie 4.0 (IPA-Studie 2015) und das damit verbundene Internet der Dinge. Die IPA-Studie unterscheidet drei große vernetzte Technologiefelder – Cloud Computing, Cyber-Physische-Systeme (CPS), Intelligente Fabrik. Mit dem Internet der Dinge geht eine explodierende Datenmenge einher, die mithilfe von Big Data gesammelt und als Entscheidungsgrundlage aufbereitet werden soll. Letztendlich gehen Glanz und Nadler davon aus, dass mit Zunahme der Vernetzung eine Steigerung der Innovations- und Verbreitungsgeschwindigkeit einhergeht (Glanz und Nadler 2011). Parallel dazu vollziehen sich eine Überalterung der Gesellschaft (Lehr 2013), besonders in den Industrienationen und neue protektionistische Tendenzen, wie sie in der aktuellen Weltpolitik zu beobachten sind. Weitere Zusammenhänge sind umfangreich bei Mack und Khare (Mack und Khare 2016) 32 herausgearbeitet.
Abb. 5 | Die vier Kategorien der VUCA-Welt (in Anlehnung an Wilms 2016) Volatilität, Unbestimmtheit, Komplexität und Ambiguität stehen für die zentralen Herausforderungen der aktuellen Zeit und bilden den Handlungsrahmen für strategische Entscheidungen.
Antworten auf die Herausforderungen und Unsicherheiten der damit verbundenen Entwicklungen müssen neu gefunden werden, ohne dass auf angemessene Erfahrungen zurückgegriffen werden kann. VUCA steht für all diese Herausforderungen und hat meines 30
31
32
1993 wurde die Technik für die öffentliche Nutzung freigegeben. Von den aktuell 7,5 Milliarden Menschen werden nach der Webseite ‚worldometers.info’ Anfang März 2017 3,5 Milliarden als Internetuser geführt. Auf der Seite www.worldwidewebsize.com werden 4.51 Milliarden aktuelle Webseiten am 03.03.2017 gezählt. Unter Globalisierung wird eine anwachsende Verflechtung unterschiedlichster Bereiche wie Industrie und Wirtschaft, Kommunikation, Politik etc. verstanden. Mack u. a. legen mit ihrem Buch eine sehr umfangreiche Ausarbeitung über den aktuellen Stand der VUCA-Forschung vor, mit vielen weiterführenden Literaturhinweisen.
3.1 Unternehmensführung in der VUCA-Welt
49
Erachtens als prägnantes Schlagwort für diesen Kontext eine tatsächliche Berechtigung, was in Bezug auf seine Herkunft33 ebenfalls deutlich wird. Die in Abb. 5 veranschaulichten vier Kategorien des VUCA-Konzeptes fassen die zentralen Herausforderungen der einzelnen Kategorien schlagwortartig zusammen. Mack und Khare (Mack und Khare 2016: 8–19) betrachten die Komplexität34 35 36 37 als Schlüsselkategorie des Quartetts. Bereits Dörner weist darauf hin, dass in komplexen Situationen „die verschiedenen Variablen des Systems nicht unabhängig voneinander existieren, sondern sich wechselseitig beeinflussen“ (Dörner 1994: 60–61). Diesen Zustand definiert er als Komplexität. Wie er weiter ausführt, stellt eine solche Situation „hohe Anforderungen an die Fähigkeit des Akteurs, Informationen zu sammeln, zu integrieren und Handlungen zu planen“ (ebd.). Damit ist nach ihm Komplexität keine „objektive Größe, sondern eine subjektive“ (ebd.). Eine adäquate Entscheidung wird zudem insofern erschwert, als die verschiedenen Variablen untereinander verknüpft sind und dadurch eine Vernetztheit erzeugen, die zu beachten ist. In einem solchen Kontext kann nach Dörner fast nie nur eine Sache gemacht werden. Ein Eingriff bei einer Variablen führt immer auch zu Neben- und Fernwirkungen, die sich direkten Beobachtungen mitunter entziehen.
33
34
35
36
37
Vergleichbar der heutigen Gesellschaften, stand die amerikanische Armee Ende des 20. Jahrhunderts ebenfalls vor sich rapide ändernden militärischen Herausforderungen. Gefordert waren plötzlich hoch flexible und effektive Manöver gegenüber einem oft nicht mehr sichtbaren bzw. unterscheidbaren und taktisch, als auch waffenmäßig sehr gut aufgestellten Gegner (Kingsinger und Walch 2012). Das Konzept der VUCA-Welt ist im U.S. Army War College entstanden und sollte die angehenden Generäle mit effektiver Führung und Entscheidungsfindung vertraut machen. Mit der Finanzkrise 2008 – 2009 war aus Sicht von Kingsinger und Walch der Moment gekommen, an dem der Weg in die Wirtschaftswelt vollzogen wurde. Die Verantwortlichen erkannten, dass auch für die Organisationen und Gesellschaften Zustände existierten, für die es keine angemessenen Erfahrungen gibt und die den Schlagworten Volatilität, Unbestimmtheit, Komplexität und Ambiguität in vollem Umfang entsprachen. Der Begriff Komplexität wird abhängig vom Autor und dem Wissenschaftsgebiet unterschiedlich definiert. Er soll hier aber sehr breit verstanden werden und eine Vielzahl von Einflussfaktoren, Variablen und gegenseitigen Abhängigkeiten charakterisieren. Sehr intensiv mit dem Thema Komplexität beschäftigt hat sich die Soziologie in ihrer Auseinandersetzung mit der Abgrenzung von System und Umwelt und der daraus entwickelten Systemtheorie, die auf alle möglichen Wissenschaften Einfluss genommen hat und von diesen wiederum gespeist wurde. Auf diesen Zusammenhang des wechselseitigen Einflusses wird im Kap. 9 ‚Homologie von Quantenphysik-Systemtheorie-SyA’ näher eingegangen. Auch die moderne Technik hat sich u. a. aufgrund von Informations- und Steuerungstechnik zu komplexen Systemen entwickelt, bis hin zu sich selbst weiterentwickelnden Algorithmen und kann in vielen Fällen nicht mehr als deterministisches System betrachtet werden. Als klassisches Beispiel sei hier das Internet genannt oder auch Stromkreisläufe. In elektrischen Stromkreisen entsteht ein Rauschen, ausgelöst durch chaotische, ungerichtete Bewegungen von Myriaden von Elektronen, das zu unerwarteten Störungen führen kann. Zur Komplexität gehört auch das sogenannte ‚deterministische Chaos’, das heute Gegenstand intensiver Forschung ist. Hier wird ein an sich vorherbestimmtes (deterministisches) System durch kleine Anfangsstörungen und sich über den Zeitverlauf verstärkende Prozesse zu einem unbestimmbaren und komplexen. Zu dieser Kategorie gehören auch Planetenbahnen, wenn sie über lange Zeitperioden betrachtet werden.
50
3 Wirtschaftswissenschaftlicher Zugang
Bei Mack und Khare werden Volatility und Uncertainty schließlich als sich aus der Komplexität ergebende Resultate angesehen, die sich nicht mehr im Gleichgewichtszustand bewegen und sehr anfällig für kleinste Einflüsse sind (Mack und Khare 2016). Zusätzlich kann ihrer Einschätzung nach keine adäquate Wahrscheinlichkeitsverteilung für Risiken vorgenommen werden und damit stehen keine entsprechenden Grundlagen für Entscheider zur Verfügung. Als weitere Konsequenz der drei Kategorien ergibt sich nach ihnen die Ambiguität, insbesondere unter der Prämisse, dass nicht alle Informationen vorliegen und es von daher immer auch andere Optionen und Interpretationen geben kann. Die Ambiguität erfüllt damit den Sachverhalt der Luhmannschen ‚Kontingenz‘, die für den Zusammenhang von Entscheidungstheorie und SyA noch von zentraler Bedeutung sein wird. „Kontingenz ist etwas, was weder notwendig ist noch unmöglich ist; was also so, wie es ist (war, sein wird), sein kann, aber auch anders möglich ist. Der Begriff bezeichnet mithin Gegebenes (zu Erfahrendes, Erwartetes, Gedachtes, Phantasiertes) im Hinblick auf mögliches Anderssein; er bezeichnet Gegenstände im Horizont möglicher Abwandlungen. Er setzt die gegebene Welt voraus, bezeichnet also nicht das Mögliche überhaupt, sondern das, was von der Realität aus gesehen anders möglich ist. In diesem Sinne spricht man neuerdings auch von »possible worlds« der einen realen Lebenswelt“ (Luhmann 1991: 152). Luhmann bezieht sich auf die bei komplexen Systemen existierenden Wahlmöglichkeiten, unter Bedingungen, bei denen nicht alle Varianten durchgespielt werden können oder bekannt sind. Hierzu passen auch die Ausführungen von Mack und Khare, dass nämlich „Today, especially in business, we only feel comfortable in decision making if we have the impression, that we can deduce a clear solution from collected facts and figures. We often neglect the fact, that decision making is a process that includes cognition, judgement and action. All three steps have their limitations. [...] In ambiguous situations, it is impossible to find the “right” solution, even if we would collect all information and be able to process it and judge correctly. Traditional rational decision making doesn’t work“ (Mack und Khare 2016: 9–10). Unterstützt werden diese Gedanken auch von Ariely, der in seiner Arbeit u. a. zu dem Schluss kommt, dass unser Urteilsvermögen von unserem individuellen Wissen und unseren Erfahrungen abhängt (Ariely 2010). Ein weiterer Effekt der VUCA-Welt ist ihre Auswirkung auf die Korrelation von Wandel und Lerngeschwindigkeit. War bisher das allgemeine Verständnis, dass wir lernen, um richtige Voraussagen und damit richtige Entscheidungen treffen zu können, so scheint die Geschwindigkeit des Lernens seit einiger Zeit von der Geschwindigkeit des Wandels überholt worden zu sein (Abb. 6). Die Grafik ist in voller Übereinstimmung mit Aussagen von Mack und Khare (Mack und Khare 2016: 9–10). In Zeiten, in denen sich Veränderungen nur langsam realisieren und die beteiligten Systeme (Menschen, Technik, Ressourcen, sonstige Variable) überschaubar sind, in denen wir die Auswirkungen von Entscheidungen und Maßnahmen in Ruhe analysieren und wiederholte Versuche bei weitestgehend gleichbleibenden Parametern initiieren können, in solchen
3.1 Unternehmensführung in der VUCA-Welt
51
Zeiten lässt sich Lernen über Wiederholung organisieren. In einem solchen Umfeld kann man von deterministischen Rahmenbedingungen ausgehen, bei denen von der Vergangenheit in die Zukunft extrapoliert werden kann; auch wenn bei genauem Hinsehen dieser Zustand auch in der Vergangenheit nur bedingt Gültigkeit besaß, z. B. die Erfindung des Buchdrucks (15. Jahrhundert) oder die industrielle Revolution (Mitte 18. bis 19. Jahrhundert). Die Wechselwirkungen und Dynamiken, die Geschwindigkeit und die Vielseitigkeit sind durch die sich exponentiell entwickelnden Informationstechnologien aktuell um ein Vielfaches höher.
Abb. 6 | Geschwindigkeit des Wandels versus Geschwindigkeit des Lernens (Wilms 2016) mit Bezug auf (Mack und Khare 2016: 10). Vorhersagen und damit die bisherigen Voraussetzungen für einen Erfolg werden zunehmend unmöglich, da der Wandel bereits heute als schneller angesehen wird, als wir vorauseilend tatsächlich lernen können.
Überprüfung der angenommenen linearen Zusammenhänge der VUCA-Kategorien Mack und Khare (2016) formulierten die These, dass ein linearer Zusammenhang von Komplexität bis Ambiguität besteht. Diese Verbindung kann aus meiner Sicht genauso gut auch umgedreht werden: Die Ambiguität stellt einen Ausgangspunkt für die Komplexität dar, statt die Folge von Komplexität zu sein. Beispielhaft sei hier die Globalisierung und die mit ihr verbundene Vielsprachigkeit angeführt sowie das Aufeinandertreffen kultureller Eigenheiten, die zur Komplexitätserhöhung führen können. Aber selbst im eigenen Land wird deutlich, dass scheinbar einfache Zahlen, wie die Angabe eines erreichten Wirtschaftswachstums von 𝑥𝑥 Prozent, je nach wirtschaftlicher und politischer Interessengruppe völlig unterschiedliche Interpretationen nach sich ziehen. Demzufolge können auch diametral gegenläufige Lösungsansätze realisiert werden. Neben dieser Mehrdeutigkeit bzgl. Zusammenhänge und Konsequenzen lässt sich dies auch auf der sehr einfachen Ebene von Begriffen beobachten. Die verschiedenen Forschungsrichtungen, die im Weiteren in Beziehung zueinander gebracht werden, greifen häufig auf die gleichen Begriffe zurück, um bestimmte Sachverhalte zu beschreiben. Tatsächlich bedeutet dies nicht notwendigerweise, dass auch das Gleiche gemeint ist. Der Begriff der Komplexität steht stellvertretend für dieses Phänomen und wurde oben
52
3 Wirtschaftswissenschaftlicher Zugang
bereits behandelt. Als zweites Beispiel sei der Begriff ‚Welle‘ genannt, da er im Verlauf dieser Arbeit ebenfalls eine größere Rolle spielen wird. Dieses Wort wird selbst innerhalb der Physik sehr unterschiedlich verwendet und treibt die Komplexität des Gesamtverständnisses für die Leser zweifelsohne in die Höhe, die den Begriff mit einer bestimmten Bedeutung verinnerlicht haben. Dieser Umstand der ‚Ambiguität der Begriffe‘ ist deshalb eine der Herausforderungen, mit der sich die vorliegende Arbeit selbst auseinandersetzen muss. Aber auch für Volatilität und Unbestimmtheit lässt sich die Wechselwirkung umdrehen. Das Internet und die dramatisch gestiegenen Rechnerleistungen können als Grund für den fast unbegrenzten Zugang zu Informationen und völlig neuen Produkten und Dienstleistungen angesehen werden. Kleine Impulse verbreiten sich in rasender Geschwindigkeit und ziehen Auf- und Abstieg ganzer Geschäftsfelder in sehr kurzer Zeit nach sich. Diese Volatilität erhöht also die Komplexität und gleichzeitig die Unbestimmtheit. Auch der Ruf nach mehr Information löst das Problem der Unbestimmtheit nicht. Informationen sind Daten über Entitäten, Systeme, Zustände und Zusammenhänge, die richtig interpretiert werden müssen. Wenn aber unklar ist, welche Informationen oder welche Kontexte überhaupt relevant werden, nehmen wir die Information erst gar nicht wahr oder eine angemessene Interpretation wird unmöglich. Von daher wird verständlich, dass auch ein geringes Wissen Unbestimmtheit nicht verhindern kann. Ein geringes Wissen vermag allerdings Ungewissheit und Unsicherheit reduzieren, schlicht dadurch, dass die mit dem Wissen verbundenen Möglichkeiten unbewusst bleiben. Kommt es schließlich doch zur Unsicherheit, geht diese ihrerseits oft einher mit schnellen, unüberlegten oder nicht rationalen Entscheidungen oder gar keinen Entscheidungen. Vertraute und lang bewährte Muster lösen sich auf (z. B. Brexit und das Verhalten des neuen Präsidenten in der USA nach der Wahl 2017). Die Vorhersehbarkeit von Handlungen kann infolgedessen sehr schwierig bis unmöglich werden. Ein Umstand, der ebenfalls die Komplexität steigert. Mit der Unbestimmtheit im Kontext der VUCA-Welt wird ein von T. Parsons (Luhmann 1991: 153) eingeführtes und von Luhmann weiterentwickeltes Konzept zur Systemtheorie 2. Ordnung, das der ‚doppelten Kontingenz‘, relevant. „Soziale Systeme entstehen jedoch dadurch (und nur dadurch), dass beide Partner doppelte Kontingenz erfahren und dass die Unbestimmbarkeit einer solchen Situation für beide Partner jeder Aktivität, die dann stattfindet, strukturbildende Bedeutung gibt.“ (Luhmann 1991: 154). Wie bezieht sich ein kontingenter Beobachter (der Wahlmöglichkeiten in seiner Beobachtung hat) auf die vermuteten und nicht sichtbaren Erwartungen, die er einem beobachteten System unterstellt, das selbst Wahlmöglichkeiten hat. Pointiert ausgedrückt: Was denke ich, dass der Andere denkt, dass ich denke und welche Entscheidungen treffe ich daraufhin? Dieses in Bezug auf soziale Systeme entwickelte Konzept der ‚doppelten Kontingenz‘ bildet die Grundlage für die Emergenz38. Diese ‚doppelte Kontingenz‘ wird 38
Emergenz bedeutet das Entstehen selbstorganisierter Strukturen basierend auf der Interaktion unterschiedlicher Systeme, also das Entstehen von etwas Neuem. Es ist ein Begriff aus der Systemtheorie und trägt dem Phänomen Rechnung, dass das Emergente mehr ist, als die Summe seiner Teile.
3.1 Unternehmensführung in der VUCA-Welt
53
für den Zusammenhang von Entscheidungstheorie und SyA wie bereits formuliert ebenfalls noch von Bedeutung sein. Gleichzeitig liegt hier ein weiteres Beispiel für Ambiguität vor, die die Komplexität erhöht. Durch die Musterbildung in sozialen Systemen und der damit verbundenen operativen Geschlossenheit kommt es gleichzeitig zu dem Phänomen, dass „das Ganze weniger ist als die Summe seiner Teile“ (Willke 2005: 86). Für den gleichen Kontext – ‚soziale Systeme‘ – gelten somit zwei scheinbar diametral entgegengesetzte Aussagen (mehr oder weniger als die Summe seiner Teile). Interessanterweise kommt auch Dörner zur Reduktion der Möglichkeiten und damit der Komplexität, besonders bei erfahrenen Akteuren. Er führt dies auf die Schaffung von Superzeichen zurück, in denen das Konglomerat von Einzelmerkmalen und Möglichkeiten in einer ‚Gestalt‘ zusammengefasst wird (vgl. Dörner 1994: 62). Mit den bisherigen Beispielen wird deutlich, dass der Versuch, quasi-lineare Abhängigkeiten zwischen den Kategorien von VUCA zu postulieren, wie es Mack und Khare (2016) versuchen, als eher unangemessen erscheint. Vielmehr liegen hier typisch zirkuläre und sich gegenseitig beeinflussende Wechselwirkungen vor, die extreme Probleme für die Entscheidungsfindung aufwerfen (Schick u. a. 2017; Böhnke u. a. 2017; Mack u. a. 2016; Moore 2014; Horney u. a. 2010). 3.1.2
Lösungsansätze für VUCA-Herausforderung und ihre Überprüfung
Viele der Forschungsarbeiten und Veröffentlichungen beschäftigen sich verständlicherweise mit der Suche nach Antworten im Umgang mit Komplexität und einer angemessenen Entscheidungsfindung bei Unbestimmtheit. Passend hierzu wird auch eine Übertragung auf die Entwicklung der Human Ressources und ihrem Umgang mit Ambiguität gesucht: hier vor allem auf Führung und Lernen bezogen. Eine interessante Unterscheidung zum Mainstream liefern Bennett und Lemoine indem sie empfehlen, die vier Kategorien als einzelne Herausforderungen zu betrachten und jeweils individuelle Lösungen dafür zu finden (Bennett und Lemoine 2014). Versucht man aber grundsätzlich die angebotenen Antworten im Umgang mit der VUCA-Welt zu differenzieren, so lassen sie sich in eher klassische Ansätze und Empfehlungen und in solche, die darüber hinausgehen, unterscheiden. Zweifelsohne ist das von Ashby geforderte kybernetische Gesetz ‚The Law of Requisite Variety‘ (Ashby 1956: 206) der älteste und vielleicht auch der bekannteste Ansatz, der sich mit der Bewältigung von komplexen Systemen beschäftigt. Er forderte eine der Umweltkomplexität angemessene Eigenkomplexität eines Systems und bezog sich dabei besonders auf die Vielfalt (Varietät) der Variablen. Auch wenn zu diesem Zeitpunkt von einer VUCA-Welt noch keine Rede war, so fand dieser Vorschlag nachhaltig Eingang in systemtheoretische Überlegungen, auf welche die meisten aktuellen Antworten zum VUCA-Problem aufsetzen. Dörner definiert einen eher klassischen 5-Schritte-Mechanismus, wobei die ersten vier, mit „Klarheit der Ziele“, „Modellbildung und Informationssammlung“, „Prognose und Extrapolation“ und „Planung von Aktionen und Entscheidung“ (Dörner 1994:
54
3 Wirtschaftswissenschaftlicher Zugang
67–68), die für unsere Überlegungen wichtigen Schritte darstellen. Per Definition der VUCA-Kategorien und wie Dörner schließlich selbst ausführt (Dörner 1994: 72), stellt sich in jedem Schritt das Problem der mangelnden Information und Fehlinterpretation. Moore als weiterer Vertreter der klassischen Antworten bezieht sich bei seinen Ausführungen auf militärische Kontexte (Moore 2014). Beim ihm steht die Forderung nach einer Klarheit des Denkens im Vordergrund. Demnach beruht strategisches Denken auf kognitiven, emotionalen und Verhaltensphänomenen, gepaart mit individuellen und Gruppenanalysen sowie der Entwicklung geeigneter Visionen, die schließlich angemessen in Teams kommuniziert werden. Bei genauer Betrachtung seiner Empfehlungen lässt sich eine Analogie zu den vier Disziplinen von Senge’s (Senge 2008) systemischen Ideen feststellen, nämlich dem ‚Personal Mastery‘, ‚mentale Modelle‘, ‚gemeinsame Vision entwickeln‘ und ‚Team-Lernen‘. Senge erweiterte Moore’s Ansatz noch mit seiner 5. Disziplin, dem ‚Systemdenken‘, bei der die Wechselwirkungen in Form von Loops konstruiert und untersucht werden. Die vorgeschlagenen Tools und Systeme sind schon lange bekannt, finden sich jedoch bis heute kaum im Unternehmensalltag. Modelle auf der Basis von kognitiv-rationalen Analysen und Entscheidungsprozessen dominieren die Literatur und Trainingsaktivitäten (Welge u. a. 2017; Pfister u. a. 2016). Fast möchte man meinen, dass mit dem Schlagwort VUCA für viele interne und externe HR-Experten und Consultants die Gelegenheit am Horizont erschienen ist, endlich diese Ansätze einführen zu können. Die Ansätze erweitern zwar den Handlungsrahmen und vermitteln das Gefühl etwas NEUES in der Hand zu haben, sie werden aber nicht für das gesamte Spektrum der Herausforderungen eine angemessene Antwort zur Verfügung stellen können, wie an verschiedenen Beispielen im Weiteren noch gezeigt werden wird. Empfehlungen, die ebenfalls den klassischen Rahmen verlassen, finden sich bei Mack und Khare. Sie bieten sechs Disziplinen und Theorien an, die im VUCA-Umfeld helfen könnten (Mack und Khare 2016: 13–15): „Systems Science, Complex Systems Theory“ „Cybernetics and Social Systems Theory“ „Complexity and Chaos Theory“ „Network Science“ „Neuroscience and Behavioral Science, Psychology and Sociology“ „Robotics, Data Science and Computational Modelling“ Hier werden unterschiedliche interdisziplinäre Zugänge sichtbar, die bereits Einzug in die Diskussionen und Schulungen zur Unternehmensführung gehalten haben. Mit ihren Disziplinen bewegen sie sich jedoch noch überwiegend im Rahmen der Komplexitätsund systemischen Perspektive und damit auf Rationalität und Kognition beruhenden Lösungen39. Sie selbst erkennen diese Begrenzung und reagieren mit einer Empfehlung, dass es Zeit wird, diese Rationalität und Kognition zu überwinden und sich den neuesten 39
Einige dieser Theorien werden zu einem späteren Zeitpunkt in dieser Arbeit aufgegriffen, da sie in überraschendem Zusammenhang mit noch vorzustellenden Themenkomplexen stehen.
3.1 Unternehmensführung in der VUCA-Welt
55
Erkenntnissen anderer Wissenschaftsrichtungen wie der Intuitionsforschung zuzuwenden. In ihrem Abschlusssatz wird dies sehr anschaulich: „Finally this brings us to the situation that in the business world of practitioners, acting properly in complex situations has more to do with the experience and talent of some good leaders or managers acting with a good gut feeling, than acting based on real knowledge and understanding of complexity“ (Mack und Khare 2016: 17). Deutlich über diese Ansätze hinaus gehen Kingsinger und Walch (Kingsinger und Walch 2012). Sie setzen ebenfalls bei Visionsarbeit, Sense-Making und nachhaltigen Beziehungen an. Auch geben sie dem gegenseitigen Verstehen der Werte und Intentionen eine wichtige Rolle, genauso wie sozialen Netzwerken. Alles Aspekte, die schon vor VUCA in den systemtheoretischen Ansätzen vertreten wurden. Neu sind die Aspekte Agilität40 und Fähigkeit zur Resilienz41. Wo sie sich jedoch deutlich unterscheiden, ist ihre Forderung nach der Nutzung aller Facetten des menschlichen Geistes. Sie beziehen sich dabei explizit auf Forschungen zu menschlichen Potentialen und Neurowissenschaften: „Even the most impressive cognitive minds will fall short in the VUCA world - it will take equal parts cognitive, social, emotional, spiritual, and physical intelligence to prevail“ (ebd.). Ihre ausdrückliche Integration der spirituellen und körperlichen Intelligenz steht im Widerspruch zur allgemeinen Akzeptanz dieser Fähigkeiten, insbesondere in unserer westlichen Wirtschaftsgesellschaft. Mit ihrer Empfehlung zur Körperlichkeit findet sich, neben Mack und Khare und ihrem o. g. Bezug zum Bauchgefühl, eine weitere Anschlussfähigkeit zur Methode der SyA (Mack und Khare 2016: 17) (Kap. 3.3). In Summe legen die meisten Autoren großen Wert auf viele verschiedene Fähigkeiten zur flexiblen und schnellen Entscheidungsfindung, in gleicher Weise wie Gigerenzer (2013; Gigerenzer u. a. 2011). Was Kingsinger und Walch zurecht ins Bewusstsein rücken, ist die Fokussierung auf neue Forschungsergebnisse zu menschlichen Potentialen (Kingsinger und Walch 2012). Hierzu zählen nicht nur die Neurowissenschaften, sondern auch der weite Bereich der Intuitionsforschung, der die Körperlichkeit mit einschließt. Mit dem Ansatz der SyA steht nun eine Methode im Raum, die aus Sicht der sie vertretenden Protagonisten den Herausforderungen der VUCA-Welt Rechnung trägt. Wie diese körperliche Intelligenz berücksichtigt werden kann, zeigen Ferrari u. a. Basierend auf einem sehr systemisch-konstruktivistischen Ansatz, kann ihrer Ansicht nach VUCA als selbsterzeugtes, zirkuläres Konstrukt der Beobachter interpretiert werden (Ferrari u. a. 2016). Subjektive Wahrnehmungen lassen sich hier nicht eliminieren. Konsequenterweise gibt es auch keine deterministischen Festlegungen. Als Lösung schlagen sie eine Arbeitsweise vor, die zwischen möglichen Entscheidungsoptionen 40
41
„The capacity for moving quickly, flexibly and decisively in anticipating, initiating and taking advantage of opportunities and avoiding any negative consequences of change“ (McCann u. a. 2009: 44). „The capacity for resisting, absorbing and responding, even reinventing if required, in response to fast and/or disruptive change that cannot be avoided“ (ebd.).
56
3 Wirtschaftswissenschaftlicher Zugang
switchen bzw. oszillieren kann. Sie bauen auf die Fähigkeiten von Führungskräften, auch ohne explizite Kenntnisse einer Situation, die richtigen Entscheidungen intuitiv zu erfassen. Vorgestellt wird eine von Varga von Kibéd und Insa Sparrer (ebd.) entwickelte spezielle Variante der SyA, das Tetralemma. Bei dieser Arbeitsweise spüren sich Personen in die verschiedenen Positionen ein und nehmen körperliche und mentale Wahrnehmungen auf.42 Aus ihrer Sicht besteht das Hauptziel der Vorgehensweise im Verändern der mentalen Konstruktionen, da es ja unmöglich scheint, real existierende Informationen der VUCA-Welt wahrnehmen zu können. In ihren weiteren Erörterungen weisen sie auf die fast unendliche Vielzahl von Problemstellungen hin, die mithilfe solcher Aufstellungsmethoden gelöst werden können. Wie aus den ersten Überlegungen zur VUCA-Welt deutlich wurde, geht es in Wirtschaftskontexten, aber nicht nur dort, um das Managen des Unerwarteten. Weick und Sutcliffe beschäftigen sich sehr intensiv mit dieser Herausforderung und führen in ihren Überlegungen den Begriff der ‚Achtsamkeit‘ ein. „Wie von unsichtbarer Hand werden wir von unseren Erwartungen zu angenehmen Wahrnehmungen hingeführt, die uns in unseren Ahnungen bestätigen und von allen beunruhigenden Hinweisen ablenken, die etwas anderes besagen. Doch es sind eben diese beunruhigenden Wahrnehmungen, in denen sich die Überraschungen, die unerwarteten Ereignisse und schwerwiegenderen Probleme andeuten“ (Weick und Sutcliffe 2007: 55). Sie bringen in ihren Ausführungen vier Begriffe miteinander in Beziehung – unsichtbare Hand, Erwartungen, Wahrnehmungen und Ahnungen – die uns in Zusammenhang mit SyA und unserer Intuition ebenfalls begegnen. Gleichzeitig enthält ihre Definition von ‚Achtsamkeit‘ die Blaupause für ein angemessenes Verhalten im Umgang mit dem Prozess und den Ergebnissen bei SyA. „Mit Achtsamkeit meinen wir das Zusammenspiel verschiedener Momente: Die bestehenden Erwartungen werden laufend überprüft, überarbeitet und von Erwartungen unterschieden, die auf neueren Erfahrungen beruhen; es besteht die Bereitschaft und die Fähigkeit, neue Erwartungen zu entwickeln, durch die noch nie dagewesene Ereignisse erst verständlicher werden, ferner gehört dazu eine besonders nuancierte Würdigung des Kontextes und der darin enthaltenen Möglichkeiten zur Problembewältigung sowie das Ausloten neuer Kontextdimensionen, die zu einer Verbesserung des Weitblicks und der laufenden Arbeitsvorgänge führen“ (Weick und Sutcliffe 2007: 55–56). Es geht ihnen darum, „das Unerwartete zu »erspüren«“, und damit das Unerwartete zu antizipieren und bewusst wahrzunehmen (ebd. 67). Damit verwenden sie zwar nicht explizit den Begriff ‚Intuition‘ oder ‚körperliche Intelligenz‘, wohl aber eine allgemeine Beschreibung dessen was darunter auch verstanden wird. Bevor wir an die Überprüfung der Empfehlungen der Experten für komplexe Situationen gehen, nochmals die wesentlichen Phänomene im ökonomischen Kontext, deduktiv aus den bisherigen Beiträgen abgeleitet: Unklare Ausgangssituation und Schwerpunktbildung Diffuses Verständnis des zu erreichenden Zieles 42
Die Methodik wird in Kap. 3.3 noch eingehend vorgestellt.
3.1 Unternehmensführung in der VUCA-Welt
57
Verselbständigung von Teilzielen Unklarheit über relevante Akteure, Betroffenheiten und Variablen Unzureichender Umgang mit Informationen und Modellen Ausblendung oder Leugnung von Gesamtzusammenhängen Verbeißen in kleinere, überschaubare Probleme 3.1.3
Conclusio zum VUCA-Paradigma und möglichen Lösungsansätzen
Bringen wir Phänomene und Empfehlungen in Verbindung, so lassen sich folgende Auffälligkeiten beschreiben und neue Fragen entstehen: Wenn die vorgeschlagenen Lösungen nun Klarheit oder Agilität sein sollen, uns die Rahmenbedingungen und relevanten Gruppen aufgrund der globalen oder unüberschaubaren Situation jedoch nicht bekannt sind, wie lässt sich diese Klarheit jetzt gewinnen? Mit noch mehr Informationsgenerierung und schlaueren Algorithmen? Was, wenn trotz vorhandener Information die falschen Schlüsse gezogen werden? Oft scheint es, als ob die Informationsflut eher noch zur Unbestimmtheit und Unsicherheit beiträgt, als ihr erfolgreich zu begegnen43. Die VUCA-Rahmenbedingungen sind per Definition unklar, komplex und mehrdeutig. Agilität hilft vielleicht im Nachgang den Schaden zu begrenzen, aber sie hilft nicht zur Vermeidung falscher Grundentscheidungen. Ohne Frage bilden Agilität und Kommunikationsfähigkeit heute zentrale Kompetenzen, sowohl auf persönlicher als auch auf organisationaler oder nationaler Ebene. Sie spielen letztlich aber nur eine, sprichwörtlich, nachgelagerte Rolle. Auch der Vorschlag, die VUCA-Kategorien einzeln zu bearbeiten, hilft nicht weiter, da sich allein schon die Komplexität einem prinzipiellen Lösungsansatz verweigert. Es bleibt das Grundproblem der VUCAWelt, aus unvollständigen Informationen Entscheidungen treffen zu müssen, womit die klassischen Entscheidungstheorien an ihre Grenze stoßen. Es erscheint deshalb sinnvoll, das Tor zur Intuition zu öffnen und wenn möglich auch akzeptierbar und hoffähig zu machen. In der gelebten Alltagspraxis findet ein erster Schritt in diese Richtung über die stärkere Fokussierung auf ‚Achtsamkeit‘ statt, die mit der Intuition einherzugehen scheint. Im Gegensatz zur systemisch-konstruktivistischen Annahme 44 von Ferrari und Varga von Kibéd (Ferrari u. a. 2016) betrachte ich SyA als einen intuitiven Mechanismus, der phänomenologische45 Sachverhalte erfassen kann und diese, allerdings mittels konstruktivistischer Gegebenheiten, moduliert. Diese These wird im Weiteren noch genauer untersucht. Körperlichkeit stellt dabei das zentrale Wahrnehmungsmerkmal dar. 43
44
45
Beispiele liefern die beiden Wahlen 2016 zum Brexit und zur Wahl des amerikanischen Präsidenten. Zwei Ereignisse, die sowohl politisch als auch wirtschaftlich von enormer Bedeutung sind. So gut wie alle Meinungsforschungsinstitute lagen mit ihren Prognosen daneben. Bei der systemisch-konstruktivistischen Annahme wird davon ausgegangen, dass Systemrealitäten konstruiert bzw. rekonstruiert werden, sei es in einem kognitiven Prozess innerhalb eines Individuums, sei es in einem kommunikativen Prozess zwischen Individuen. Phänomenologisch bedeutet hier, dass sich Systemrealitäten zeigen, die unabhängig von Individuen existieren.
58
3 Wirtschaftswissenschaftlicher Zugang
Entscheidungen auf vollständiger und sicherer Informationslage in VUCA-Kontexten zu treffen, scheint aus Sicht einer großen Anzahl von Experten unmöglich. Als Ergebnis bekommen wir Bezüge und Antworten auf die Hauptkategorien des Codingprozesses ‚wissenschaftliche Legitimation‘, ‚Intuition‘ und ‚Information‘. 1. Zum Ersten entfällt die wissenschaftliche Legitimation für logisch-rationale Entscheidungsgrundlagen. Das bisherige ‚grundsätzliche Verständnis‘, in dem Logik und Rationalität das unumstrittene Fundament bilden, lässt sich nicht mehr aufrechthalten. Für einen unvorbelasteten Laien tritt hiermit der ‚Schwarze Schwan‘ in Erscheinung. Für Kenner der Verhältnisse mutiert der ‚Schwarze Schwan‘ zu einem ‚Schwarzer Elefant‘, denn dass die ökonomische Welt hoch komplex ist, sollte spätestens seit Dörner bekannt sein (Dörner 1994). 2. Die Rationalität wird ersetzt durch intuitive Wahrnehmung von Informationen, die jedoch interpretiert und mit Bedeutung versehen werden muss. Damit ist eine erste Kopplung zwischen den Hauptkategorien ‚Intuition‘ und ‚Information‘ gelegt, unter Einschluss der Unterkategorien ‚Anwendungsfelder‘, ‚explizite versus implizite Information‘ und ‚Bedeutungsgebung‘ derselben. Hieraus ergibt sich auch ein klarer Hinweis auf die 2. Hypothese, dass sich Intuition und Information auch ohne 0-er und 1-er denken lassen. 3. Als Grundlage oder besser als Instrument für intuitive Wahrnehmungen wird immer wieder die Körperlichkeit angeführt, ohne aber beschreiben zu können, wie sich Information in Körperlichkeit zu manifestieren vermag. 4. Aus Ermangelung eines nachvollziehbaren Prozesses, wie Information intuitiv wahrgenommen werden kann, ergibt sich auch noch keine Aussage über die ‚wissenschaftliche Legitimation‘ von Intuition. 3.2
Unternehmensführung und strategisches Management
Herausforderungen und Grenzen und immer mit dem Fokus auf Entscheidungen Vor diesem Hintergrund des VUCA-Umfeldes stehen Unternehmenslenker vor der Herausforderung, strategische Entscheidungen für die nächsten Jahre treffen zu müssen, gepaart mit dem aktuellen gesellschaftlichen Anspruch, dies auch unter Nachhaltigkeitsgesichtspunkten (Hinterhuber 2011: 6; Arnold 2007) vorzunehmen. Vielleicht sind diese Rahmenbedingungen auch der Grund, weshalb viele Unternehmen keine klare und ausgearbeitete Geschäftsstrategie für die nächsten drei bis fünf Jahre oder gar länger haben46. Als Beispiel sei hier auf eine Studie des Instituts für angewandtes Wissensmanagement verwiesen, das zumindest 2007 für den Bereich deutscher Kanzleien festgesellt hat, dass 58 % von ihnen keine solche Geschäftsstrategie besitzen (vgl. Bär 2010: 36). Vergleichbare Erhebungen zu vorhandenen oder besser nicht vorhandenen Busi46
In meiner persönlichen Arbeit mit Unternehmern und Führungskräften wird immer wieder sehr deutlich, dass das ‚Glaskugelschauen’ aus Sicht vieler nur Zeitverschwendung ist, weil zu viele Einflüsse nicht berechenbar bzw. vorhersehbar erscheinen.
3.2 Unternehmensführung und strategisches Management
59
nessplänen bei den Inc.-500 Firmen47 bestätigen diese Tendenz (Bhide in Faschingbauer 2017: 12). Danach verwenden nur 4 % ein systematisches Verfahren, nur 28 % erstellen einen formalen Businessplan, 71 % replizieren oder erweitern bestehende Ideen, bei 20 % hilft der Zufall. Formale Marktforschung vor der Gründung wurde nur von 12 % der Unternehmen praktiziert. Dennoch ist die Management-Literatur voll von Modellen wie eine solche strategische Vorhersage gelingt. Bär (ebd. 36) führt als ein Beispiel zur Entwicklung solcher Strategien das Modell von Dunning (Dunning 1988) auf, das sich bei seinen Vorhersagen zwar verschiedener Ansätze bedient, aber sich letztlich doch auf Vergangenheitswerte, der Annahme langfristiger Gewinnmaximierung und auf ‚rationale Entscheidungsprozesse’ bezieht. Als Kritik wird einem solchen Ansatz gegenüber aufgeführt, dass er statisch ist und nicht begründen kann, „warum manche Unternehmen in ein und demselben Land bei ähnlichen Aktivitäten parallel unterschiedliche Markteintrittsformen wählen“ (Bär 2010: 37). Weiter führt Bär aus, dass die unterschiedlichen Anforderungen der einzelnen Firmen die Notwendigkeit von subjektiven Gewichtungen dieser Anforderungen nach sich ziehen, was zur Anwendung von gewichteten Nutzwertanalysen führt (vgl. ebd.). Von den unzähligen Methoden und Instrumenten (Welge u. a. 2017), die zur Ermittlung von Daten und Kennzahlen existieren und für Organisations- und Planungstechniken verwendet werden, soll zur Veranschaulichung ein weiteres exemplarisch herausgegriffen werden: Die Umweltanalyse. An ihr wird veranschaulicht, wie komplex allein diese Form der Erhebung ist und weshalb so viele strategische Entscheidungen im gleichen Kontext zu ganz unterschiedlichen Ergebnissen kommen. Welge und Kollegen weisen in ihren Ausführungen zu diesem Thema daraufhin, „dass die Umweltbezogenheit ein konstituierendes Merkmal jeder Strategie darstellt“ (ebd. 299). Aus ihrer Sicht geht es beim strategischen Management darum, „eine möglichst weitreichende Anpassung (‚FIT’) der Unternehmung an die Umwelt zu ermöglichen oder aber relevante Umweltsegmente im Sinne der unternehmerischen Zielsetzung zu beeinflussen“ (ebd.). Interessant wird es dann, wenn sie fordern, dass die Umweltanalyse „möglichst vollständige, sichere und genaue Informationen über das betriebliche Umfeld“ für die Unternehmensführung zur Verfügung stellen soll (ebd. 299-300). Mit Letzterem beziehen sie sich auf Kienbaum48. Hier wird die Logik rational operierender Unternehmensberatungen deutlich. Da jedoch nicht jedes Ereignis oder Element der Umwelt von Bedeutung ist, ganz zu schweigen davon, dass nicht jedes Ereignis beobachtet bzw. gewusst werden kann, bedarf es Entscheidungen zur Auswahl, schlicht auch unter Berücksichtigung der Informationsverarbeitungskapazität (vgl. ebd. 300). Welge und Kollegen formulieren hier die wesentliche Aufgabe der Umweltanalyse: „aus der unüberschaubaren Fülle von Einflussfaktoren die wichtigsten herauszufiltern“ (ebd.). Hierzu bedarf es ihrer Ansicht nach Auswahlprinzipien (Identitätsprinzip), die sich an der Unternehmensaufgabe 47
48
Ranking der am schnellsten wachsenden US-Firmen (www.inc.com) oder (www.columnfivemedia.com) Kienbaum, G.: Umfeldanalyse. In: Szyperski, N., Winand, U. (Hrsg.) HWPlan, S. 2033–2044. Stuttgart (1989)
60
3 Wirtschaftswissenschaftlicher Zugang
oder dem Sachziel orientieren. Zusätzlich sind globale Bedingungen (Macro environment) sowie aufgabenspezifische Bedingungen (Task environment) zu berücksichtigen. Nach ihnen gehören dazu gesetzliche Regelungen und auch gesellschaftliche Wertemuster. Im Weiteren filtern sie fünf Ebenen heraus, die sukzessive durchlaufen werden (Abb. 7): (1) Dominierende Trends der globalen Umwelt, (2) Wettbewerbsstruktur der Branche, (3) Wettbewerbsdynamik innerhalb der Branche, (4) Position der Wettbewerber zueinander und strategische Gruppen, die sich ähneln, (5) Stärken und Schwächen der Hauptkonkurrenten. Im weiteren Verlauf beschreiben die Autoren noch zahlreiche Unterkategorien zu jeder der fünf Ebenen plus Prioritätsverfahren und gegenseitigen Wechselwirkungen innerhalb der Ebenen. Kein einziger Unterpunkt ist dabei durch einfache Zahlen bestimmbar. Immer benötigt es Abschätzungen und Gewichtungen. Für einen unbedarften Außenbeobachter drängen sich unweigerlich die VUCA-Kategorien aus Kap. 3.1 auf und die Unmöglichkeit der Vorstellung, hieraus „vollständige, sichere und genaue Informationen über das betriebliche Umfeld“ zu generieren. Ein zweiter Zusammenhang wird evident: Weshalb sehen nur wenige den ‚schwarzen Elefanten’ der überdimensional vor einem sitzt und für die Unmöglichkeit einer solchen Forderung nach Vollständigkeit und Sicherheit steht?
Abb. 7 | Konzeption der Umweltanalyse (Welge u. a. 2017: 302). Fünf unterschiedliche Ebenen, die bei einer Umweltanalyse untersucht werden sollen. Die Ebenen reichen von den Trends der jeweils relevanten Umwelt über die Wettbewerbsstruktur der Branche, weiter über die Wettbewerbsdynamik innerhalb der Branche, der Identifizierung relevanter strategischer Gruppen bis hin zur Stärken- und Schwächenanalyse der Hauptkonkurrenten. Im Gegensatz zur verbreiteten Annahme, dass es sich auf den verschiedenen Ebenen um rationale Fakten handelt, wird bei jeder dieser Ebenen auf Abschätzungen und Gewichtungen zurückgegriffen, die dazu führen, dass Informationen verwendet oder weggelassen werden.
Nur ein kleiner Teil der Wissenschaftsgemeinde beschäftigt sich mit dieser Problemstellung und schlussfolgert „dass Unternehmungen zu komplex sind, um durch rationale Gestaltung beherrscht zu werden. Entsprechend wird auch der Gestaltungsspielraum der Unternehmungsführung bei der konkreten Durchführung eines Strategischen Managements als begrenzt angesehen“ (ebd. 132).
3.2 Unternehmensführung und strategisches Management
61
Diese beiden Beispiele, gewichtete Nutzwert- und Umweltanalyse, veranschaulichen die in der Realität immer wieder anzutreffende Vermischung rationaler Ansätze mit subjektiv-intuitiven Eingriffen, da doch nicht alle Informationen vorliegen oder einfach zuordenbar sind. Der Versuch, strategische Entscheidungen auf belastbare Daten zu stützen, führt zwingend zu einem Blick in die Vergangenheit. Entsprechende Beobachtungen machten auch die Entwickler der Balanced-Scorecard. Sie kamen zur Erkenntnis, dass die Managementtreffen überwiegend rückwärtsbezogen und mit der Analyse der Daten des letzten Monats und mit kurzfristigen operativen Herausforderungen gefüllt waren. Nur 10 % der Sitzungszeit standen im Zusammenhang mit langfristigen strategischen Themen (Kaplan und Norton 1997: 254). Die Balanced-Scorecard darf derzeit als eines der bekanntesten Tools zur Unternehmenssteuerung und zur Implementierung von Unternehmens- und Bereichsstrategien auf Ziele- und Kennzahlenebene angesehen werden und hat den Rang eines Standard-Tools für diese Zwecke erreicht (vgl. Welge u. a. 2017: 843). Welge und Kollegen weisen mit ihrer Strategy-Map-Darstellung jedoch auch auf die engen Verknüpfungen und Wechselwirkungen zwischen den einzelnen Kennzahlen und Zielen hin, die unterschiedliche Perspektiven einer Organisation repräsentieren. Die von ihnen behaupteten Ursache-Wirkungs-Beziehungen in ihrer Darstellung sind mitnichten nur Ursache-Wirkungs-Beziehungen, sondern in zahlreichen Fällen zirkuläre Prozesse und von daher hochkomplex und Emergenz fördernd (ebd. 846). Sie kommen in ihrer Abbildung nur deshalb zu einer Wenn-Dann-Logik, da sie auf einer sehr oberflächlichen Ebene bleiben und so tun, als würden die verschiedenen Maßnahmen keinerlei Rückbezüglichkeit beinhalten, sondern nur positive Korrelationen aufweisen. So wirkt in ihrem Beispiel das Potential einer ‚Erhöhung der Mitarbeitermotivation’ auf die Prozesse ‚Schneller Versand’, ‚Synergieeffekt nutzen’ und ‚Verlagerung der Produktionsstandorte’. Die Veränderung in diesen drei Prozessen wirkt nach ihrer Vorstellung auf die Finanzen und sorgt für eine ‚Besserung der Kostenstruktur’. In keiner Weise wird eine Umkehrung des Wirkmechanismus bedacht, der z. B. durch eine Verlagerung der Standorte auch zu einer Verringerung der Mitarbeitermotivation führen könnte. Genauso wie das Erkennen ‚Visionärer Produktmerkmale’ nicht nur eine positive Wirkung in Bezug auf die Identifikation ‚Spezielle Kundenwünsche’ nach sich zieht, sondern umgekehrt das Erkennen ‚Spezieller Kundenwünsche’ auch wesentlichen Einfluss auf die mit dem Erkennen ‚Visionärer Produktmerkmale’ verbundenen Prozesse hat. Ändern von Prozessen geht aber oft auch einher mit Veränderungen der Arbeitssituationen und negativer Auswirkung auf Mitarbeitermotivation und deren Kreativität. Hinterhuber stellt in seinem Vorwort (Hinterhuber 2011: 5) heraus, dass strategische Unternehmensführung und strategisches Management einen kritischen Punkt in ihrer Entwicklung erreicht hat. Sie/Es ist an den Universitäten und Lehrbüchern angekommen und bestens dokumentiert, „gleichwohl zeigen die vielen Unternehmenskrisen und Schlagzeilen [...] über Fehlentscheidungen und fragwürdiges Verhalten der obersten Führungskräfte, dass ihr Einfluss auf die tatsächliche Führung von Unternehmen gering ist und nicht dem entspricht, was eine gute Theorie zu leisten vermag“ (ebd.). Er kommt
62
3 Wirtschaftswissenschaftlicher Zugang
weiter zu dem Schluss, dass Theorie und Lehre in ihrer Ausrichtung zu eng sind und kein Konzentrat der Wirklichkeit abbilden. Ergänzend stellt Hinterhuber seine Ausführungen unter die Kernbotschaft: „Eine gute Strategie erhöht die Wahrscheinlichkeit, dass ein Unternehmen oder eine Non-Profit-Einrichtung unter Bedingungen von Unsicherheit nachhaltig erfolgreich ist“ (ebd. 6). Er betont weiter, wie wichtig es ist, Organisationen ganzheitlich zu sehen und die Zusammenhänge und gegenseitige Beeinflussung der Teile zu erkennen. Er bezieht sich dabei nicht nur auf die internen Komponenten, sondern auch auf die Wechselwirkung mit Märkten, Gesellschaft, Politik etc.: „In diesem Sinne ist strategische Unternehmensführung eine integrierte Gesamtheit von Einstellungen, Entscheidungs- und Handlungshilfen, mit denen ein Unternehmen in einem turbulenten Umfeld Wettbewerbsvorteile erzielen, Werte für alle strategischen Stakeholder schaffen und somit auch seinen Wert nachhaltig steigern kann“ (ebd. 7). Die Frage, die sich hier stellt, heißt schlicht: Welche mentalen Modelle müssen verändert und welche Tools können verwendet werden, um strategische Entscheidungen zu verbessern und damit nachhaltigen Erfolg zu ermöglichen? Im Folgenden wird deshalb ein kurzer Bezug des gegenwärtigen Strategieverständnisses und seiner Anwendung in Verbindung mit dem VUCA-Umfeld hergestellt; dies besonders deshalb, da viele SyA mit dem Ziel durchgeführt werden, Ideen bzw. Grundlagen für Entscheidungen und damit auch Orientierung für sinnvolle strategische Handlungen zu generieren. 3.2.1
Definition des Begriffs Strategie
Zunächst erscheint es allerdings sinnvoll den Begriff der Strategie näher zu betrachten: In der Literatur wird immer wieder darauf hingewiesen, dass „kein einheitliches Verständnis über den Begriff der Strategie vorliegt“ (Welge u. a. 2017: 17; Arnold 2007: 115). Gleiches hat für den Begriff des ‚strategischen Managements’ Gültigkeit (Arnold 2007: 115), das sich der Komplexität und der Indeterminiertheit mit entsprechender Kenntnisunsicherheit stellen muss (vgl. ebd. 116-17). Gemeinsam scheint zu sein, dass „Strategie und strategisch oftmals mit wichtig und langfristig assoziiert“ (ebd. 115) werden. Die nicht vorhandene einheitliche Definition der Begriffe wird u. a. auf die Komplexität strategischer Phänomene zurückgeführt, bei der unterschiedliche Funktionen integriert sowie verschiedene organisatorische Ebenen und Personengruppen zu berücksichtigen sind (vgl. Welge u. a. 2017: 18) 49. Aus der Fülle der Definitionen, welche in der Literatur zu finden sind, folgt nun eine kleine, nicht vollständige Auswahl, die mit Bezug zu dieser Forschung getroffen worden
49
Eine sehr umfangreiche und detaillierte Übersicht über weitere Definitionen findet sich bei Al-Laham und Welge (Al-Laham und Welge 1992: 165–170), auf die Welge in seinem neuesten Buch (2017) Bezug nimmt.
3.2 Unternehmensführung und strategisches Management
63
ist. Der Fokus wird hier mehr auf den Zeitpunkt von Wahrnehmungen und Entscheidungen als auf Methoden und Handlungen im Rahmen der Strategieumsetzung gelegt: Schreyögg „Bei Strategien handelt es sich um komplexe Entscheidungen, die für die Unternehmung von besonderer Bedeutung sind“ (in Al-Laham und Welge 1992: 166). Porter „Strategie bedeutet, im Wettbewerb zwischen verschiedenen Möglichkeiten abzuwägen. Im Kern jeder Strategie steht die Entscheidung darüber, was man nicht tun will“ (Porter 1999: 66) und an anderer Stelle: „eine einzigartige Position zu finden, klare Abwägungen vorzunehmen und die Aktivitäten genau aufeinander abzustimmen“ (ebd. 79). Hinterhuber „Die Strategie ist kein Aktionsplan, sie ist die gemeinsame Logik des Handelns, an der sich die Aktionspläne in den Funktionsbereichen und regionalen Einheiten orientieren“ (Hinterhuber 2011: 9), „und sie ist die Evolution einer zentralen Idee unter sich kontinuierlich ändernden Umständen“ (ebd. 293). Welge und Kollegen Das strategische Management wird definiert „als ein Prozess, in dessen Mittelpunkt die Formulierung und Umsetzung von Strategien in Unternehmungen steht“ (Welge u. a. 2017: 24). Mintzberg „Strategien sind Pläne für die Zukunft und Muster aus der Vergangenheit“ (Mintzberg 2013: 41). An anderer Stelle wird diese Kurzfassung sehr plausibel formuliert: „Fragen wir Führungskräfte, was Strategie ist, werden wir fast immer hören, es sei eine bestimmte Art von Plan, eine Anleitung für künftiges Verhalten. Haken wir dann nach, welche Strategie ein Wettbewerber oder das eigene Unternehmen verfolgen, wird die Antwort in der Regel aus nichts anderem bestehen als der Beschreibung eines konsequenten, in der Vergangenheit gezeigten Verhaltens. Strategie ist offenbar ein Begriff, den die Leute anders definieren als benutzen, ohne den Unterschied zu bemerken“ (Mintzberg 1988: 74). 3.2.2
Unterscheidungsoptionen bei der Strategieentwicklung
Neben den oben aufgeführten Definitionen lassen sich noch verschiedene Unterscheidungen darstellen, mit der sich die strategische Forschung beschäftigt und die Relevanz für die Führungsarbeit in Unternehmen haben. Zu diesen Unterscheidungen und Typologien gehören zweifelsohne der Zweck für den Strategien stehen bzw. für den sie entwickelt werden, die Vorgehensweise ihrer Entstehung und ihrer Entwicklungsrichtung, auf die dabei zum Einsatz kommenden
64
3 Wirtschaftswissenschaftlicher Zugang
Methoden oder die Unterscheidung nach ihren Geltungsbereichen. Eine umfangreiche Übersicht findet sich hierzu bei Weseloh (Weseloh 2004: 29–37). Auf einige Unterscheidungen soll im Folgenden eingegangen werden, die zum einen die oben vorgestellten Definitionen anschaulich in ihrem Kontext verankern, zum anderen aber auch einen Anwendungsrahmen für SyA liefern. Strategische Analyse, strategische Intuition und strategische Planung Diese Unterscheidung geht auf Duggan (2013) zurück, der sich mit den Anfängen der ‚Strategie’ und ihrer Konzepte auseinandersetzte und dabei die Modelle von B. A. Jomini und von Clausewitz verglich (ebd. 55-67), den Begründern der beiden heute noch in Konkurrenz stehenden Strategieverständnisse. Duggan versuchte den Entstehungsprozess von Ideen für strategische Fragestellungen (ebd. xi) zu ergründet und beantwortet sie mit dem ‚Erkenntnisblitz’ (‚flashes of insights) u. a. passierend auf einer NeuKombination vorhandener Informationen (ebd. 1). Für den Gesamtprozess der ‚strategischen Intuition’ unterscheidet der Autor schließlich drei strategische Aspekte – Analyse, Intuition und Planung Tab. 3, die zusammenwirken müssen (ebd.). Auch wenn die drei Aspekte unterschiedliche Zielsetzungen haben, besteht nach Duggan dennoch ein wichtiger Zusammenhang zwischen ‚Analyse’ und ‚Intuition’, der die fundamentale Basis für seine ‚Strategic Intuition’ darstellt: „Intelligent memory unites reason, logic, and analysis with creativity, intuition, and imagination as a single mode of thought” (ebd. 34). “There is no such thing as ‚pure analysis‘ or ‚pure intuition‘. All your thoughts are flashes of insight to some degree“ (ebd. 26). Tab. 3 | Strategische Aspekte nach Duggan Duggan (2013) unterscheidet drei Aspekte im Rahmen eines Strategieprozesses, die berücksichtigt werden und zusammenwirken müssen. (eigene Darstellung)
Strategische Analyse
Ermöglicht ein tiefes Verständnis der Situation, in der man sich gerade befindet. Sie produziert keine Ideen in Richtung Lösung (vgl. ebd S. 107-108).
Strategische Intuition
Eine kreative Idee zu einem Thema (Problem, Ziel etc.) entsteht als Erkenntnisblitz (‚Flash of Insights’) (ebd. 61).
Strategische Planung
Arbeitet die Details aus, wie die Ideen aus der strategischen Intuition umgesetzt werden sollen. (ebd. 122)
Dass er die beiden scheinbar gegenläufigen Aktivitäten (rational vs. kreativ-intuitiv) verbindet, wird mit den vier Schritten deutlich (Abb. 8), die er von Clausewitzschem Verständnis über die Voraussetzungen einer guten Strategie übernommen hat (vgl. ebd. 60-61):
3.2 Unternehmensführung und strategisches Management
65
Abb. 8 | Strategische Intuition nach Clausewitz in 4 Schritten Als Voraussetzung benötigt eine gute Strategie die Berücksichtigung der dargestellten 4 Schritte. (eigene Darstellung)
Im Schritt (1) ‚Beispiele aus der Geschichte’ geht es um die Entwicklung eines intelligenten Gedächtnisses, das sowohl eigene Erfahrungen als auch Erfahrungen und Wissen von anderen verfügbar hat. Beispiele aus der Geschichte, auf die zurückgegriffen werden kann. (2) fordert einen geklärten und erwartungsfreien Geist, der sehr achtsam und offen für Ideen ist. Zentral dabei ist auch das Loslassen seiner eigenen Fixierungen, wie Zielen, fixen Vorstellungen/Vorkonzepten etc. In Schritt (3) soll der freie, offene Geist unterschiedliche Beispiele aus der Vergangenheit neu kombinieren, also auf (1) zurückgreifen, die dann als Erkenntnisblitz ins Bewusstsein treten50. Schließlich folgt mit (4) der notwendige Wille und die Entschlossenheit, den Geistesblitz auch umzusetzen. ‚Strategische Planung’ steht demgegenüber separat. Sie geht auf B. A. Jomini zurück und eignet sich aus der Perspektive von Duggan sehr gut für Schritt (4) (ebd. 90). Jomini gilt als der Begründer der strategischen Planung, wie sie heute in den Organisationen überwiegend gelebt wird (ebd. 64). Abb. 9 veranschaulicht seine drei Schritte der strategischen Vorgehensweise (ebd. 62).
Abb. 9 | Strategische Planung nach Jomini in 3 Schritten Jomini benötigt nur 3 Schritte bei seinem Modell der strategischen Vorgehensweise. Dieses Modell bildet die Grundlage der heute verbreiteten strategischen Praxis und vermittelt eine (nur scheinbar) rational begründbare Basis. (eigene Darstellung)
50
Duggan (2010) bezieht sich mit seinem Ansatz vollständig auf die Intuitions- und Hirnforschung. Unterschieden wird zwischen (ebd. 2): (1) normaler Intuition, entsprechend einem (Bauch-) Gefühl oder Emotion, (2) spontane Experten-Entscheidung, wenn sich Experten mit einem ihnen vertrauten Thema oder einer Situation beschäftigen und etwas schnell wiedererkennen, z. B. Muster und (3) strategischer Intuition. Letztere ist aus seiner Sicht ein ‚klarer Gedanke’ und kein Gefühl, der in neuen Situationen auftaucht, der sich u. U. langsam über die letzten Wochen und Monate herausentwickelt hat und ein vorhandenes Problem löst. Den dazu nötigen Mechanismus beschreibt er wie folgt: Informationen kommen von außen und erzeugen Verbindungen im Gehirn. Diese Informationen müssen nicht nur eigene Erfahrungen oder eigenes Wissen sein, wie bei der Expertenintuition, sondern greifen auch auf Erkenntnisse anderer zurück. Für innovative Gedanken werden diese bereits vorhandenen Verbindungen neu kombiniert. Entscheidungen folgen schließlich entsprechend den Ergebnissen dieses Kombinationsprozesses. Er interpretiert strategische Intuition nicht als vages Gefühl, sondern als Erkenntnisblitz (flashes of insigts). Mit seinem Verständnis unterstützt Duggan sehr radikal die Akzeptanz unterbewusster Prozesse. Gleichwohl kann er damit keine Erklärung für die Phänomene beschreiben, wie sie bei Ferrari in der Tetralemma-Aufstellung erscheinen (Kap. 3.1.2).
66
3 Wirtschaftswissenschaftlicher Zugang
Mit diesen drei Schritten ist jeweils eine zentrale Frage verbunden: 1. Wo stehe ich? 2. Wo will ich hin? 3. Wie komme ich dahin? Im Unterschied zu Jomini, startet die von Clausewitzsche ‚Strategische Intuition’ (ebd. 60-61) nicht mit einem vorher festgelegten Ziel, sondern mit einem Thema und der Suche nach dem ‚entscheidenden Punkt’. Der Erkenntnisblitz verbindet dann diese Suche (Analyse) mit einem Lösungsansatz, der aus dem Unbewussten ins Bewusstsein tritt. Duggan weist auf zwei interessante Aspekte hin (ebd. 64-65): Zum einen, dass sich die Vorgehensweise der ‚strategischen Intuition’ immer wieder als wesentlich wirkungsvoller (weniger Kosten, Opfer etc.) erwiesen hat, als das Konzept der ‚strategischen Planung’. Letzteres wird nach ihm i. d. R. mit viel Aufwand realisiert und ist dennoch hoch anfällig für Störungen. Zum anderen gibt es eine Analogie zu dem sehr populären und erfolgreichen Ansatz, der den Umgang mit ‚nichtlinearen Systemen’ beschreibt: Disruptive Veränderungen und VUCA-Bedingungen entsprechen exakt diesem Forschungsfeld. Sowohl von Clausewitz als auch Jomini entwickelten ihre Modelle im Kontext der Napoleonkriege (Anfang des 19. Jahrhunderts) – kamen aber offensichtlich zu völlig unterschiedlichen Ergebnissen51. Als weiteres Gegenmodell zur strategischen Planung darf das sehr aktuelle Modell der ‚Theory of Effectuation’52 angesehen werden (Sarasvathy 2001). “Causation rests on a logic of prediction, effectuation on the logic of control” (ebd. 243). Sarasvathy integrierte mit ihrem Ansatz die Arbeiten von March, Mintzberg, Weick und anderen (ebd. 256). Ihr Ansatz betrifft nicht nur Entrepreneurs im Allgemeinen, sondern auch Forschungs- und Entwicklungsprozesse genauso wie Herstellungsprozesse (Brettel u. a. 2014). Sie alle werden als komplexe Entscheidungssituationen in unbestimmten Umwelten interpretiert. Die drei Fragen „who I am?“, „what I know?“ und „who I know?“ (Ortega u. a. 2017: 1720) weisen auf eine völlig andere strategische Vorgehensweise und Entscheidungsfindung hin, als sie in allen anderen strategischen Managementansätzen zum Tragen kommen. Dieser Ansatz kommt völlig ohne Prognosen aus (Faschingbauer 2017: XX) und bezieht sich explizit auf das VUCA-Paradigma. Laut Faschingbauer stellt Effectuation eine stimmige Logik von intelligenten Heuristiken dar (ebd. XXII). So fokussieren die Vertreter der Effectuation nicht auf die brillante Idee am Anfang, sondern auf die i. d. R. irgendwann notwendige Konzeptveränderung, die 51
52
Aufgrund besserer Verbindungen, der damals aktuelleren französischen Sprache sowie der Erstübersetzung vom französischen ins Englische verbreitete sich Jomini’s Modell schneller und nachhaltiger als das von Clausewitz (ebd. 62). Der Begriff ‚Effectuation’ ist als Kunstwort gedacht und meint ‚Unternehmergeist’ der Neues in die Welt bringen will. Gleichwohl weist es auf die Begriffe Ausführung und Wirkung hin und eben nicht auf lange Planung. Damit geht es in diesem Modell um eine eigenständige Entscheidungslogik, die versucht, sich auf das zu konzentrieren, was steuer- bzw. beeinflussbar ist.
3.2 Unternehmensführung und strategisches Management
67
erst den Erfolg ausmacht (ebd. 10). Deshalb achten Entrepreneurs in der Vorgehensweise weniger auf die Außenwelt, sondern mehr auf das ‚WAS sie haben’, ‚WAS sie wissen’ und ‚WAS sie damit machen können’ und das vor allem unter der Ergänzung ‚WEN sie kennen’, um mit ihm zu kooperieren. Man versucht die Kontrolle über die verfügbaren Mittel auszuüben und damit die Innen- und Außenwelt konstruktivistisch zu modellieren, also zu beeinflussen. Drei Prämissen sind bei diesem theoretischen Ansatz handlungsleitend (Ortega u. a. 2017): experimentieren bezahlbare Verluste akzeptieren flexibles Handeln Damit darf davon ausgegangen werden, dass dieses theoretische Modell einen erheblichen Einfluss auf die ‚agilen’ Vorgehensweisen der jüngeren Zeit hatte und eher einem iterativen Vorgehen folgt. Betrachtet man ‚Effectuation’ genauer (Abb. 10), so ist einfach zu erkennen, dass auch hier unzählige Handlungs- und Entscheidungsprozesse von menschlichen „imagination“ und „current and future aspirations“ (vgl. Sarasvathy 2001: 262) geprägt sind. Sarasvathy veranschaulicht dies selbst in ihrer Gegenüberstellung ihres EffectuationProzesses zum klassischen Vorhersage- und Planungsprozesses (Read u. a. 2009: 4).
Abb. 10 | Effectuation-Prozess in Anlehnung an Sarasvathy (Read u. a. 2009: 4). Von der Selbstanalyse und der Analyse eigener Ressourcen und Partnerschaften aus, werden Geschäftsmodelle und Ziele entwickelt und verfolgt. Auf dem Weg Richtung Ziele werden Kontakte mit Kunden und weitere Partnerschaften gesucht. Mit den dabei hinzugewonnenen Mitteln und Erkenntnissen werden die eigenen Ressourcen erweitert, die eigenen Möglichkeiten überprüft und die Ziele angepasst.
68
3 Wirtschaftswissenschaftlicher Zugang
Jeder der einzelnen Schritte beinhaltet Ideen (Imaginations and Aspirations), die sich zu Entscheidungen für den nächsten strategischen Schritt verdichten. Deutlich wird dies besonders bei Festlegung der ‚neuen Ziele’. Wo kommen diese her und auf welcher Variante oder Basis der Eingebung werden die Entscheidungen getroffen? Effectuation kann darauf keine tatsächliche Antwort liefern, nur dass der Fokus stärker auf Aspekte des eigenen Tuns gerichtet ist, das durch einen selbst beeinflusst werden kann. Entscheider mit diesem Ansatz versuchen sich stärker auf die Frage zu fokussieren wie sie etwas erreichen, als auf die Frage was sich in der Umwelt entwickelt und was passieren könnte. Sie erleben sich aktiv statt reaktiv. Und dennoch spielen unbewusste und intuitive Prozesse auch hier eine wesentliche Rolle. Allein die Wahl der Kooperationspartner basiert auf vielen, nicht-vorhandenen Informationen. Betrachtet man die Beispiele in der Literatur genauer, so drängt sich der Eindruck auf, dass wir es bei dem Modell der ‚Effectuation’ mit exakt dem gleichen Ansatz zu tun haben, wie es Duggan mit seiner ‚Strategic Intuition’ beschreibt: Die kraftvolle Idee für den nächsten Schritt taucht letztlich wie ein Erkenntnisblitz auf, der dann überlegt und entschlossen realisiert werden muss. Klassisch-statisches vs. dynamisches Strategieverständnis Im klassischen Strategieverständnis nach Chandler wird Strategie verstanden als „ein geplantes Maßnahmenbündel der Unternehmung zur Erreichung ihrer langfristigen Ziele“ (Welge u. a. 2017: 18). Zudem besteht eine Strategie „aus einer Reihe miteinander verbundener Einzelentscheidungen“ (ebd. 19). Hier ist festzuhalten, dass mit dieser Definition die Vorstellung einer Strategie als Ergebnis einer formalen rationalen Planung verbunden ist (ebd.). Hier wird von einer rational handelnden Unternehmensführung ausgegangen. Passend zu diesem Ansatz wird zur Erstellung einer solchen Strategie gerne auf die SWOT-Analyse53 zurückgegriffen (ebd. 20), einem Modell, das versucht, 4 Kategorien in eine Stimmigkeit zu bringen. Als Gegenposition steht Mintzberg mit seinem dynamischen Strategieverständnis (Mintzberg 2013: 39–55, 1988), der mehrere Strategietypen ermittelt hat und nicht nur den rationalen Entstehungsprozess sieht (Welge u. a. 2017: 21–23) Strategie als Pläne (bedarf stabiler, planbarer Umweltbedingungen) Strategie als List (spontane, taktische Maßnahmen) Strategie als Muster (zufällige, emergente Entwicklung aus Entscheidungen und Handlungen) Strategie als Positionierung (geplant als auch zufällig) Strategie als Denkhaltung (gemeinsam geteiltes Einstellungsmuster des Managements)
53
SWOT steht für Stärken (Strengths), Schwächen (Weaknesses), Chancen (Opportunities) und Gefahren (Threats)
3.2 Unternehmensführung und strategisches Management
69
Grundsätzlich wird Strategie hier als dynamischer Prozess verstanden, der auf Entscheidungen und Handlungen nicht nur rational handelnder Akteure beruht, die bewusst und unbewusst ablaufen, aber oft im Nachgang als intendierte Strategie erklärt werden (ebd. 23). Bei Mintzberg wird dieser unbewusste Anteil sehr deutlich: „Formale Planung kann Unternehmen durchaus helfen, eine Strategie zu entwickeln - doch nur in gewissen Grenzen. Natürlich benötigen Topmanager Fakten, Zahlen und Prognosen. Aber sie brauchen auch ein intuitives Verständnis ihres Unternehmens, ein Gespür für die Art ihres Geschäfts, ganz ähnlich dem Gefühl eines Töpfers für Ton“ (Mintzberg 1988: 73). Mit diesen Ausführungen ist er einer der wenigen Forscher und Theoretiker im Feld des strategischen Managements, der sich von der kontrollierten Planung abwendet und damit bereits vor der Einführung des VUCA-Begriffs der intuitiven Seite eine wesentliche Rolle zuweist. Ganz generell beschäftigen sich Vertreter dieser Richtung eher mit den Entscheidungsprozessen, der Implementierung und den unternehmerischen Änderungsprozessen und orientieren sich auch eher an konstruktivistischen, systemischen Denk- und Verhaltensweisen (Arnold 2007: 118–119). Gerade die konstruktivistisch-systemische Perspektive ist für die Frage strategischer Entscheidungen von erheblicher Bedeutung, denn die kontextbezogenen Faktoren „werden demnach sowohl individuell als auch kollektiv und gesellschaftlich konstruiert“ (ebd. 124) und sind folgedem nicht rational oder gar objektiv gegeben. Zu dieser Kategorie gehören auch die beiden oben beschriebenen Modelle der ‚Strategic Intuition’ (Duggan 2013) und ‚Effectuation’ (Sarasvathy 2001). ‚Effectuation’ schaut weniger auf die Gegebenheiten und Entwicklungen der Umwelt, sondern fokussiert auf die eigenen Möglichkeiten und was sich daraus gestalten lässt. Hier steht die Vorstellung im Mittelpunkt, die Welt zu kreieren und zu modellieren. Konsequenterweise leiten sich aus den konstruktivistisch-systemischen Perspektiven zusätzliche Herausforderungen für die Kontingenz und schließlich auch doppelte Kontingenz bei der Entscheidungsfindung ab. Die Variablen nehmen erheblich zu, wenn Kontexte und Wechselwirkungen mit zu berücksichtigen sind und entsprechend nimmt die Berechenbarkeit weiter ab. Allerdings trifft dies nicht für den Ansatz ‚Effectuation’ zu. Hier reduzieren sich die Optionen, da vorwiegend auf den eigenen Möglichkeitsraum reflektiert wird und der Suchprozess sich auf die Realisierung eigener Ideen konzentriert. Strategieprozess als Entscheidungsprozess vs. Wandlungsprozess Bei den Entscheidungsprozessen werden die strategischen Entscheidungen auf ihre Beeinflussbarkeit durch rational-ökonomische bzw. durch sozial und kognitive Determinanten untersucht. Im Mittelpunkt steht die Wahrnehmung der Entscheidungsträger und ihr Einfluss auf Strategien bzw. deren Wechsel wie auch ihr Informations-, Risiko- oder Koalitionsverhalten (Arnold 2007: 121–122). In diesem Zusammenhang spielt auch die wahrgenommene Dringlichkeit und die Fähigkeit zu einem Strategiewechsel eine wesentliche Rolle (ebd. 123). „Insgesamt wird deutlich, dass die Wahrnehmung und die
70
3 Wirtschaftswissenschaftlicher Zugang
kognitiven Landkarten des Managements für Strategiewechsel von überragender Bedeutung sind“ (ebd). Wird der Strategieprozess als Wandlungsprozess betrachtet, wandert die Phase der Implementierung in den Mittelpunkt. Im Fokus steht die Flexibilität bzw. Trägheit von Organisationen, „inwiefern strukturelle, kulturelle, kognitive, soziale und motivationale Einflussfaktoren Auswirkung“ (ebd. 124) auf einen Strategiewechsel und einem oft damit verbunden strukturellen und kulturellen Wandel haben. Im Gegensatz zum Strategieprozess als Entscheidungsprozess rückt bei Wandlungsprozessen der Entscheidungsträger in den Hintergrund und die Beteiligung aller betroffenen Mitarbeiter beim Veränderungsprozess in den Vordergrund. Von einer eher direkten Steuerung empfiehlt sich der Wechsel zu einer indirekten Steuerung (vgl. ebd. 125). Im Rahmen von Wandlungsprozessen geht es somit eher um die Veränderung der Handlungs- als der Entscheidungsprozesse. Organisations- und Länderkulturen als wichtiges Einflusselement auf Strategien Ergänzend zu obigen Unterscheidungen sei auf die kulturelle Prägung von Organisationen (genauso wie bei Ländern oder Märkten) verwiesen, die ganz erheblichen Einfluss auf Wahrnehmungen und Denkweisen ausüben und damit rechtzeitige strategische Anpassungen verschlafen oder ihre Umsetzung verhindern (Schein 2006). Ein Umstand, der auch der Annahme einer rationalen Entscheidungsprämisse und einer rein rational fundierten strategischen Arbeit zuwiderläuft. Überlegungen zu strategischen Entscheidungen greifen zu kurz, wenn sie sich nur auf rational erhebbare Zahlen, Daten und Fakten reduzieren. Gleiches gilt allerdings auch für alle anderen Entscheidungen innerhalb einer Organisation. Die eingangs von Bär aufgeworfene Kritik (Kap. 3.2), dass nicht begründbar ist, weshalb bei ähnlichen Aktivitäten unterschiedliche Markteintrittsoptionen gewählt werden, ist vermutlich hier zu finden (Bär 2010). Abb. 11 zeigt neben dem formellen Bereich, aus dem die rationalen Daten gewonnen werden, den informellen Bereich einer Organisation, der für die meisten der nicht bzw. nicht-direkt greifbaren Einflussfaktoren verantwortlich ist. Sehr ausführlich beschäftigt sich Schein mit diesem Phänomen, wobei er drei Ebenen unterscheidet (Schein 2006: 31): (1) Artefakte, (2) öffentlich propagierte Werte, (3) grundlegende unausgesprochene Annahmen. Aus seiner Sicht sind die für ihn zu (1) zählenden Organisationsstrukturen und -prozesse schwer zu entschlüsseln, was im Widerspruch zum allgemeinen Verständnis der Betriebswirtschaftslehre zu stehen scheint. Hier zeigt sich ein weiteres Beispiel der Kontingenz und doppelten Kontingenz. Woran orientiert sich ein Organisationsmitglied, wenn es unterschiedlichste Auswahloptionen besitzt? Welche Optionen nimmt es überhaupt wahr und welche Vermutungen hat es über die Wahlpräferenzen anderer? Im allgemeinen Verständnis lassen sich auf der rein formalen Ebene unterschiedliche Organisationen sehr gut miteinander vergleichen. „Dieser offizielle Teil der Organisation entspricht formalisierten Erwartungen und ist nicht mit dem System als Ganzes identisch, sondern nur eine Teilstruktur. Er setzt ergänzende Ordnung voraus. Demnach können Systembedürfnisse, die formal nicht legitimiert sind, in informellen Situationen
3.2 Unternehmensführung und strategisches Management
71
befriedigt werden. Sie dienen der Stabilität der Formalstruktur und verhindern, dass Lücken deutlich werden und stören“ (Gehlert 1997: 195). Dieser informelle Teil einer Organisation kann auch gut als ‚grauer Markt’ verstanden werden, der in die formale Organisation und ihre Entscheidungen und Abläufen eingreift und damit die strategische wie die Planung allgemein beeinflusst.
Gesamtorganisation informeller Bereich
formeller Bereich
"Grauer Markt" Abb. 11 | Formale und informale Organisation (Gehlert 1997: 195). Eine Gesamtorganisation lässt sich in einen formellen, sichtbaren Bereich und in einen informellen, nicht sichtbaren Bereich unterscheiden. Aus dem formellen Bereich lassen sich rationale Daten gewinnen. Bestimmend für das tatsächliche Geschehen in einer Organisation sind jedoch meist mehr die verdeckten Einflussfaktoren wie Werte, Überzeugungen oder geheimen Spielregeln.
Luhmann bezeichnet die informale Organisation als: „Verhaltensordnung mit eigenen Normen und Kommunikationswegen, einer besonderen Logik und einem entsprechenden Argumentationsstil, mit eigenen Statusgesichtspunkten, einer eigenen Führungsstruktur und eigenen Sanktionen“. „Sie ist vor allem gefühlsmäßig fundiert und auf die Persönlichkeitsbedürfnisse in der Arbeitssituation zugeschnitten“ (Luhmann 1964: 30). Als wesentliche Erkenntnis scheint ableitbar zu sein, dass Verhalten und mithin Entscheidungen sehr viel mehr von ungeschriebenen als von geschriebenen Gesetzen bestimmt wird, und dass das eine dem anderen durchaus zuwiderlaufen kann (Gehlert 1997: 195). Insofern sind versteckte Dynamiken mit komplexitätserhöhender Wirkung offensichtlich, die nicht mit einfachen Daten erfasst werden können. Unterscheidbare Grundmuster Die eben aufgeführten Differenzierungen lassen sich in vier unterscheidbare Grundmuster zusammenfassen oder auch als ‚Spielarten der Strategieentwicklung’ (Nagel und Wimmer 2002: 32–33) beschreiben (siehe Tab. 4). In ihrer Unterscheidung fokussieren sie zum einen auf den Entstehungsort (außerhalb vs. innerhalb eines Systems) und zum anderen auf die Form der Findung (implizit vs. explizit) einer Strategie. In ihren Erläuterungen stellen Nagel/Wimmer (ebd.) heraus, dass in Organisationen i. d. R. eine dieser Spielarten dominiert. Interessant für unsere Überlegungen scheint besonders die Differenzierung zwischen impliziter und expliziter Findungsform.
72
3 Wirtschaftswissenschaftlicher Zugang
Zu den intuitiven Entscheidungen (1) zählen sie die besonders bei Unternehmensgründern häufig zu beobachtende Intuition, deren Resultate, quasi von außen, dem Management als Vorgabe mitgegeben werden. Die Autoren stellen bei (1) die unbewusste, oft nicht explizit beschreibbare Entstehung solcher Entscheidungen heraus. Sein ‚unternehmerisches Gespür’ und sein Agieren ‚aus dem Bauch’ heraus (ebd. 35) sind die Triebfedern und sehr häufig auch die Grundlage des Erfolgs, vor allem in der Pionierphase und bei Familienunternehmen. „Nichtbeteiligte staunen oft über die Treffsicherheit und den Weitblick, der vielfach solchen scheinbar einsamen Entscheidungen zugrunde liegt“ (ebd. 41). Sie weisen auch darauf hin, dass sich die etablierte, betriebswirtschaftliche Forschung schon immer mit dieser Form der Zukunftssicherung schwergetan hat, weil bis heute dazu keine tragfähigen Zugänge existieren (ebd. 42). „Um solche Phänomene wissenschaftlich zu erfassen, müsste man die gewohnten Rationalitätsprämissen betriebswirtschaftlichen Denkens verlassen“ (ebd.). Zu dieser Form gehört sicherlich auch ‚Stategic Intuition‘ wie sie Duggan definiert. Tab. 4 | Spielarten der Strategieentwicklung (vgl. Nagel und Wimmer 2002: 33). Strategieentwicklung lässt sich in eine explizite und eine implizite Form der Strategiefindung unterscheiden. Zusätzlich kann die Strategiefindung von außen angestoßen oder von innen ausgelöst werden. Als Folge lassen sich 4 Kategorien unterscheiden aus denen Strategien hervorgehen können.
Wo und durch wen findet Strategieentwicklung statt?
Formen der Strategiefindung Implizit Explizit
Außerhalb der Organisation als Vorgabe für den Managementprozess
(1) Intuitive Entscheidungen
(2) Expertenorientierte Ansätze
Als Leistung innerhalb des Systems, insbesondere innerhalb des Managementprozesses
(3) Inkrementale oder evolutionäre Strategien
(4) Periodische Strategiereflexion als gemeinschaftliche Führungsleistung
Demgegenüber stehen die expertenorientierten Ansätze (2), bei denen die Erarbeitung einer Strategie sowohl an interne Fachexperten und Stabsstellen als auch an externe Strategieberater übergeben wird. Das Management behält sich hier die letzte Entscheidung vor (ebd. 42-44). Diese beauftragten Experten verwenden üblicherweise rationale
3.2 Unternehmensführung und strategisches Management
73
Analysemethoden, die auf dem Ansatz der ‚rational choice‘ fußen (ebd. 43). Dessen Idee basiert auf dem Glauben, intransparente Markt- und Wettbewerbsdynamiken lassen sich durch den Einsatz rationaler Analysemethoden erhellen. Zahlen, Daten, Fakten sollen den Eindruck objektiver und abgewogener Überlegungen vermitteln und Sicherheit erzeugen (ebd.). Es braucht nur eine umfassende Datenerhebung und eine objektiv abgewogene Bewertung, um abgesicherte strategische Positionierungen und Unternehmensentwicklungen zu realisieren (vgl. ebd). Zur Verdeutlichung der Grenzen des ‚rational choice’ Ansatzes führen sie u. a. kritisch aus: „Paralyse durch Analyse“, „Mit dem Blick zurück in die Zukunft“, „Unterschätzte Subsysteme“ (ebd. 52-54). Zur Veranschaulichung griffen sie auf einen von Mintzberg eruierten realen Fall einer Prüfungsfrage bei einem MBA-Abschlusstest 1977 zurück, bei dem jeder, der die Frage ‚Soll Honda ins globale Autogeschäft einsteigen?’ mit Ja beantwortete, durchgefallen ist. Honda war zu diesem Zeitpunkt nur Motorradhersteller. Neben gesättigten Märkten bei Autos, hoch effizienter Konkurrenz, keine Erfahrung im Automobilsektor und keine Vertriebssysteme für Autos, sprach nichts für den Strategiewechsel bei Honda. 8 Jahre später (1985) fuhr die Frau des Prüfers, der selbst der expertenorientierten Schule anhing, einen Honda und Honda war mehrfacher Konstrukteursweltmeister der Formel 1 (vgl. ebd. 53). Nagel und Wimmer weisen auf die Problematik der Grundannahmen hin: 1. Das notwendige Wissen ist vollständig mobilisierbar. 2. Berechenbare Grundregeln der Marktdynamik, aus denen verlässliche Erfolgsstrategien ableitbar sind. „Beide Annahmen können heute weder theoretisch noch empirisch aufrechterhalten werden“ (ebd. 53). Hier decken sich ihre Einschätzungen vollständig mit den Überlegungen aus der VUCAWelt. Zusätzlich führt die Entkopplung von (oft extern erzeugter) Konzeptionen und Umsetzung zu Strategiepapieren, die zumeist ‚in der Schublade’ enden (ebd. 56). Nagel und Wimmer verorten die ersten wissenschaftlichen Wurzeln zu diesem Phänomen bei Joseph Schumpeter (ebd. 37) und weisen auf seine Leistung in der Überwindung der ökonomischen Rationalität hin (Schumpeter 2005, 1947). Bei Variante (3), der inkrementalen bzw. evolutionären Strategiefindung, geht die strategische Festlegung nicht von der Unternehmensspitze aus. Die Impulse entstehen zufällig an verschiedenen Orten der Organisation und ergreifen spontan sich bietende Chancen bzw. versuchen problematische Situationen zu überwinden. Die Unternehmensführung nimmt hier maximal eine Unterstützungsfunktion ein. Nagel und Wimmer verorten diese Form der Strategieentwicklung vor allem bei dezentralisierten Unternehmen, bei denen die Verantwortung bei den Geschäftseinheiten selbst liegt und das System die Freiheiten hat, Spielräume für autonome Entscheidungen zu nutzen (vgl. Nagel und Wimmer 2002: 59). Sie verweisen sehr deutlich auf den intuitiven, zufälligen und kollektiven Charakter dieser Form von Strategieentwicklung. Welge (Welge u. a. 2017: 133) ergänzt diesen als zufällig definierten Prozess der evolutionären Strategiefindung mit Verweis auf Kirsch und Mitarbeiter als ‚geplante Evolution’ (Kirsch u. a. 2007: 88). Ausgangspunkt dieser Überlegungen ist die Annahme, dass soziale Systeme auf ihre Entwicklung Einfluss auszuüben vermögen. Neben Handlungs- und Lernfähigkeit spielt nach Welge die Empfänglichkeit (Entfaltung bzw. Steigerung der Responsiveness) eines
74
3 Wirtschaftswissenschaftlicher Zugang
Systems eine zentrale Rolle (ebd. 134). Auch hier lässt sich ‚Stategic Intuition’ und zusätzlich ‚Effectuation’ mit einem Teilaspekt seines Prozesses verorten. Diese geplante Evolution kann auch als Übergang in die periodische Strategiereflexion als gemeinschaftliche Führungsleistung (4) von Tab. 4 interpretiert werden. Nagel und Wimmer verstehen darunter eine ‚systemische Strategieentwicklung‘ (Nagel und Wimmer 2002: 75–107), die sehr mit den systemischen und agilen Lösungsansätzen aus der VUCA-Welt korrespondieren (Kap. 3.1.2). Aus Sicht der Autoren ist Strategieentwicklung eine nicht delegierbare, gemeinschaftliche Führungsleistung, die periodisch immer wieder neu organisiert werden muss, unter Einbeziehung breiter Mitarbeitergruppen (ebd. 91). Von einem mit Aufwand betriebenen Sonderprozess geht es heute über zu einem integralen Bestandteil des Führungsgeschehens. Auf der Brücke von der Gegenwart zur Zukunft bedarf es eine „hohe Sensibilität für eine Veränderung der Marktgegebenheiten“ (ebd. 77) und beim Grundverständnis der kybernetischen Steuerung auch für Strategieentwicklungsprozesse (ebd.). Es ist offensichtlich, dass Nagel/Wimmer eine hohe Selbst- und Fremdwahrnehmung in Zeiten schneller Veränderung und komplexer Rahmenbedingungen fordern. Eine Wahrnehmung, die nicht nur auf Basis von Zahlen, Daten, Fakten realisiert werden kann und die schon gar nicht zu rationalen Entscheidungen führen wird. Ihr zentraler Vorschlag zur Strategieentwicklung mündet entsprechend der systemischen und kybernetischen Theorien in der Verwendung rekursiver Suchprozesse unter Einbeziehung vielfältiger Perspektiven und Akteure (ebd.); weshalb ‚Effectuation’ in diesem Feld vollständig lokalisiert werden darf und umgekehrt ‚Strategic Intuition’ mit Teilbereichen, dort wo es um Wissenserhebung und Planung geht. Zudem bringen sie einen systemischen Strategieentwicklungsprozess gezielt in Verbindung mit einer „Verständigung über die verschiedenen mentalen Modelle“ (ebd. 81) und Kulturen. Im Gegensatz zu den ‚rational choice’-Ansätzen und typischen betriebswirtschaftlichen Analyseverfahren, die dem Denkmodell einer trivialen Maschine entsprechen, indem wohldefinierte Zahnräder ineinandergreifen, unterliegen soziale Systeme wie Organisationen und Wirtschaftsräume eben nicht solchen einfach zu analysierenden Mechanismen. Dass es jedoch anderer Methoden und Tools bedarf, bessere Strategieentwicklungsprozesse zu organisieren, wird mit den folgenden Ausführungen noch deutlicher. Denkschulen und Funktionen Arnold fasst einige wesentliche Denkhaltungen54 und Funktionen des strategischen Managements zusammen, von denen folgende für die weiteren Überlegungen dieser Forschung von besonderer Bedeutung scheinen (vgl. Arnold 2017: 116):
54
Sehr ausführlich geht Mintzberg auf das Thema unterschiedliche Denkschulen, deren Stärken und Schwächen ein (Mintzberg u. a. 2012). Deren tiefere Betrachtung geht allerdings über die Zielsetzung dieser Arbeit deutlich hinaus.
3.2 Unternehmensführung und strategisches Management
75
a. Einbeziehung ökonomischer, technischer, informatorischer, politischer, sozialer und ökologischer Fakten und Faktoren. b. Qualitative Informationen und schwache Signale werden genauso für schnelle Reaktionen und Anpassungen verarbeitet, wie es für harte Informationen und Fakten gilt. c. Externe Beziehungen sind genauso wichtig wie interne Leistungspotentiale und die Gestaltung von Organisationen. d. Verschiedene strategische Dimensionen müssen zu einem ‚strategischen Fit’ gegenseitig abgestimmt werden. Ihre Bedeutung ergibt sich aus der durch sie ableitbaren Komplexität der Rahmenbedingungen. Allein das Zusammenspiel der Fakten und Faktoren unter Punkt (a) führt zu komplexen und unbestimmbaren, emergenten Phänomenen, die in fast allen Kategorien ambiguite Situationen nach sich ziehen55. Bei den verschiedenen Unterscheidungen wird die Vielfalt und Komplexität der Faktoren offensichtlich. Es verwundert deshalb nicht, wenn in der Forschung der Untersuchungs- und Datenerhebungszeitraum zwischen drei und sieben Jahre beträgt, um langfristige Entscheidungs- und Handlungsmuster zu eruieren und auszuwerten (vgl. ebd. 129). 3.2.3
Entscheidungen unter VUCA-Bedingungen
Auf die Umstände kommt es an „Mit dem Begriff Entscheidung verbinden wir im Allgemeinen mehr oder weniger überlegtes, bewusstes, abwägendes und zielorientiertes Handeln“ (Pfister u. a. 2016: 2). Mit diesen Worten führen Pfister u. a. in die ‚Psychologie der Entscheidung‘ ein, um dann darauf zu verweisen, dass wir oft auch Entscheidungen „rasch, automatisch und ohne längeres Nachdenken“ treffen. Den Automatismus sehen sie besonders bei trivialen oder schon gut bekannten Problemen. Tatsächlich lassen sich aber sehr viele Entscheidungssituationen finden, die über diesen Rahmen hinausgehen, wie wir noch sehen werden. Bei ihrem Versuch, die wichtigsten aktuellen Ergebnisse der Entscheidungs-forschung vorzustellen, nähern sich die Autoren dem Thema aus kognitionspsycholo55
Dies lässt sich leicht anhand der gegenwärtigen Situation einer sich in unvorstellbarer Geschwindigkeit entwickelnden Informationstechnologie und KI (Künstliche Intelligenz) veranschaulichen, die unüberschaubare Folgen für die private wie für die Arbeits-Welt nach sich zieht. Eine Geschwindigkeit, der die politischen und sozialen Akteure derzeit nur hinterher hecheln können und bei der noch in keiner Weise absehbar ist, wie sich die Entwicklungen ökonomisch, aber auch sozial auswirken. Wird die kI ein Segen, gerade für eine überalternde Gesellschaft, mit längerer, kI-unterstützter Selbständigkeit in den eigenen vier Wänden und bei längerer Mobilität durch selbstfahrende Systeme? Oder führt die mögliche völlige Überwachung genau zur Abnahme der Selbständigkeit und einem damit verbundenen freien Handeln, weil sich eine Selbstbeschränkung breit macht – wie es sich derzeit bereits in China andeutet? Welche geeigneten Strategien helfen das Überleben unserer Organisationen und damit unseren Lebensstandard und letztlich, allein aus sozialen und humanen Gründen, auch eine Vollbeschäftigung zu sichern?
76
3 Wirtschaftswissenschaftlicher Zugang
gischer Perspektive, bei dem sie auch motivations-, emotions- und sozialpsychologische Erkenntnisse mit einbauen. Es geht also nicht mehr nur um den (mittlerweile überholten) Homo oeconomicus, der ökonomisch, nutzenmaximierend, nach einem wirtschaftlichen Rationalitätsprinzip entscheidet. In diesem Rahmen sehen sie Entscheidungen deshalb als spezifische kognitive Funktion eines zielgerichteten, nach Regeln operierenden Prozesses. Entscheidungen grenzen sich damit von anderen kognitiven Funktionen wie der Wahrnehmung ab, da letztere nur physikalische Informationen verarbeiten. „Information [...] wird aus der Umgebung aufgenommen bzw. aus dem Gedächtnis abgerufen und entsprechend der Struktur und Funktion unserer kognitiven Grundausstattung verarbeitet“ (Pfister u. a. 2016: 7). Diese Unterscheidung wird eine wichtige Rolle im Gesamtverständnis dieser Arbeit spielen, wobei wir auf den letzten Teil (physikalische Informationen) in den Kap. 4.2 und 8.2 näher eingehen werden. Aus ihrer Sicht setzt „Entscheidung [...] immer (a) Wissen und (b) Motivation voraus und ist oft abhängig und begleitet von (c) Emotionen“ (Pfister u. a. 2016: 8). Bei Storch wird deutlich, dass ohne emotional-körperliche Wahrnehmung zwar Entscheidungen getroffen werden können, diese aber meist nicht an das soziale Umfeld angekoppelt sind und sich letztlich gegen den Entscheider richten (Storch 2015: 27-60). Sie verdeutlicht dies mit Beispielen von Hirngeschädigten und deren Lebenserfahrungen. Sie verbindet emotional-körperliche Wahrnehmungen allerdings ausschließlich mit dem Erfahrungsgedächtnis, wenn sie sagt: „Klug entscheiden heißt: Inhalte aus dem emotionalen Erfahrungsgedächtnis und bewusste Verstandestätigkeit miteinander zu koordinieren“ (Storch 2015: 60). Ob das Erfahrungsgedächtnis die ihm zugeschriebenen Erwartungen alleine erfüllen kann, wird sich zeigen. Alle drei Kategorien (Wissen, Motivation, Emotion) spielen in jedem Falle eine Rolle bei SyA und werden bzgl. ihres Zusammenhangs untersucht. Die Vielfalt der möglichen Zugänge soll für die hier zu untersuchende Thematik, inwieweit ‚SyA ein Instrument zur Unternehmensführung im Rahmen komplexer Entscheidungsprozesse‘ sein kann, auf einige Kernaspekte reduziert werden. Entscheidungen unter Sicherheit und unter Unsicherheit In der Fachliteratur wird in Zusammenhang mit Entscheidungen auf unterschiedliche Begriffe (Unbestimmtheit, Unsicherheit, Ungewissheit und Risiko) zurückgegriffen56, die jedoch uneinheitlich verwendet werden. Diese Uneinheitlichkeit besteht auch für den interdisziplinären Diskurs (Jeschke u. a. 2013). Für unsere Überlegungen wird nur auf die übergeordnete Begriffsunterscheidung ‚Entscheidungen unter Sicherheit vs. Unsicherheit‘ Bezug genommen, da sich an den grundsätzlichen Problemen, vorhandene
56
Knight führte im Rahmen seiner Überlegungen zur Gewinnerzielung im Kontext von Entscheidungen unter Untersicherheit die Unterscheidung von Uncertainty und Risk ein (Knight 2009: 3–50). In Sinne von Knight wird Uncertainty in der Literatur mit ‘Ungewissheit’ übersetzt und als Unterkategorie von Unsicherheit verstanden. Bei der Verwendung von Eintrittswahrscheinlichkeiten spricht man i.d.R. von Risiko. Ohne die Verwendung von Eintrittswahrscheinlichkeiten spricht man von Entscheidungen unter Ungewissheit (Hoffmeister 2008: 187).
3.2 Unternehmensführung und strategisches Management
77
vs. nicht-vorhandene Information, bzw. VUCA-Bedingungen (wie sie in Kap. 3.1.1 definierte wurden) bei einer weiteren Differenzierung nichts ändern würde. Zu Entscheidungen unter Sicherheit zählen normative Entscheidungstheorien wie die Rational-Choice-Theorie (RCT) (Braun 2009), die Entscheidungsempfehlungen für reale Situationen abgeben und diese in Bezug auf ihre Alternativauswahl betrachtet (Entscheidungslogik). Roth definiert knapp: „Sie geht davon aus, dass die besten Entscheidungen ein rationales Abwägen der Vor- und Nachteile, der kurz- und langfristigen Konsequenzen unseres Handelns aufgrund eines Nutzen-Kalküls sind, bei dem es um das nüchterne Maximieren des Gewinns und Minimieren des Verlustes geht“ (Roth 2007: 46). Bei diesen Ansätzen geht man von (a) einem konsistenten Agieren mit den Zielen und (b) einem korrekten Verarbeiten rationaler Informationen aus. Es gilt das „Axiom57 rationalen Entscheidens“ (Gillenkirch 2018), das aus neurowissenschaftlicher Perspektive die zentrale Rolle der Gefühle unberücksichtigt lässt (Roth 2007: 46). Als Idealbild werden deshalb nach klassischem Verständnis der Managementlehre Entscheidungen als ein bewusst, rational begründbarer Akt angesehen für die sie zahlreiche Techniken zur Verfügung stellt. Für den Akt der Entscheidung selbst gibt es dabei allerdings keine spezifische Technik (Büchi und Chrobok 1997: 283–290). Unter Technik der Entscheidung verstehen Büchi und Chrobok die Strukturierung von Entscheidungsproblemen z. B. mithilfe von Entscheidungsmatrix, -tabellen, -baum, paarweiser Vergleich etc. Hierzu gehören natürlich auch Statistiken. Demgegenüber stellen sie die Sensitivitätsanalyse (Entscheidungsregeln), mit der sie die sich gegenseitig beeinflussenden Variablen einschätzen möchten, auch in Bezug auf deren gegenseitige Abhängigkeit. Gigerenzer fasst dieses Verständnis der rationalen Entscheidungstheorien sehr anschaulich zusammen: „»Erst wägen, dann wagen« oder »Erst denken, dann handeln«. Seien Sie aufmerksam. Gehen Sie überlegt, besonnen und analytisch vor. Berücksichtigen Sie alle Alternativen, schreiben Sie alle Gründe pro und kontra auf und wägen Sie deren Nutzen und Wahrscheinlichkeiten ab, am besten mithilfe eines teuren statistischen Softwarepakets“ (Gigerenzer 2008: 11). Ergänzend dazu machen Büchi und Chrobok die Chance, die richtige Entscheidung zu treffen, von der Informationslage abhängig (Büchi und Chrobok 1997: 283–284). Je besser die Informationen über diese Bedingungen und Alternativen sind, um so größer die Chance. Auch weisen sie darauf hin, dass eine richtige Entscheidung nur unter Vorhandensein vollständiger Informationen gelingt. Diese Vollständigkeit lässt sich, wie herausgearbeitet wurde, in komplexen Situationen jedoch nicht herstellen und zusätzlich kommt es zu Ausblendungs-, Framing- (Einrahmungs-) und Priming-Effekten58. „The present paper describes several classes of choice problems in which preferences system57
58
Ein Axiom ist eine Aussage bzw. ein Grundsatz, die nicht abgeleitet oder bewiesen werden müssen. Sie dienen als Basis eines Modells oder einer Theorie. Priming oder auch Bahnungs-Effekt bezeichnet die kognitive Beeinflussung nachfolgender Reize. Die bewussten Wahrnehmungen und Reaktionen zeigen sich in Abhängigkeit vorgeschalteter Reize. So fördert französische Musik den Absatz von französischem Wein, wohingegen deutsche Musik den Verkauf von deutschen Weinen steigert.
78
3 Wirtschaftswissenschaftlicher Zugang
atically violate the axioms of expected utility theory“ (Kahneman und Tversky 1979). Diese bereits 1979 gefunden Ergebnisse widerlegen auch den Anspruch der rationalen Informationsbeschaffung und -verarbeitung, bei der normalerweise auch das BayesTheorem (Kap. 2.2.3), mit seiner subjektiven Wahrscheinlichkeit (Knill und Pouget 2004), berücksichtigt werden sollte (Gillenkirch 2017). Dementsprechend ergeben sich Risiken, die der Entscheidungsträger zu verantworten hat. Zusammenfassend lässt sich sagen: „Komplexität kann nicht allein mit den Mitteln der Rationalität, also der analytischen Intelligenz, erfasst werden. Rationalität ist reduktionistisch, versucht mit fein säuberlichen Strukturen und entsprechender Logik zu arbeiten, und dies widerspricht dem, was Komplexität ausmacht“ (Oswald und Köhler 2013: 30). Dass das bisher Ausgeführte tatsächlich praktische Relevanz besitzt und nicht nur akademischen Überlegungen folgt, sollen zwei Beispiele namhafter Persönlichkeiten veranschaulichen; eines aus der Wirtschaft und eines aus den Naturwissenschaften59: 1. Stefan Pierer übernahm 1992 als CEO die KTM Sportmotorcycle AG, zu einem Zeitpunkt, als sie fast bankrott war. Mit seiner neuen Strategie legte er zwei scheinbar völlig unterschiedliche Geschäftszweige zusammen, indem er die OffRoad-Motorräder in den Markt der Straßen-Motorräder überführte. Seine Entscheidungen, die Intern als auch Extern als verrückt ansahen, weil KTM keine Erfahrung im neuen Markt aufwies, führte das Unternehmen zurück in die Erfolgsspur. Pierer’s Haltung zu Intuition bei Entscheidungsprozessen: “When it comes to really serious business decisions I ultimately rely on my intuition. It’s sometimes the case that rational arguments speak for or against something, but then somehow the decision still won’t leave me in peace. I wake up in the night and have the feeling that I should do it differently after all” (Matzler u. a. 2007). 2. Der Quantenphysiker Zeilinger über seine Entscheidungen bezüglich seiner Auswahl von Forschungswegen: “Am Beginn steht das Gefühl, dass sich etwas lohnt. Dann gibt es Vorexperimente, die alles immer deutlicher zeigen, was zu einem immer konkreter werdenden Zeitplan führt. Dann erfolgt die Durchführung. Ganz generell entscheide ich mich, wenn ich zwei oder mehrere Forschungswege vor mir habe, stets für den radikaleren Weg. Ich nehme sicherlich nicht den, von dem die Mehrheit der Kollegen sagt: „Ja, das ist ordentlich, das machen wir.“ Da nehme ich grundsätzlich den anderen. […] Mein primäres Motiv, mich für ein gewisses Ziel zu entscheiden, war letztlich immer die eigene Intuition. Ich glaube, das Wichtigste ist, dass man nicht bloß dem eigenen Denken, sondern vor allem dem eigenen Gefühl, der eigenen Intuition vertrauen soll und dann auch entsprechend handeln muss“ (Zeilinger 2002). Zeilinger, auf den ganz we59
Weitere finden sich bei Khatri und Ng (Khatri und Ng 2000). Sie stellten fest, dass Intuition ein wichtiger Faktor bei strategischen Entscheidungen darstellt und dass dies von Managern auch so gesehen wird (ebd. 77). Die verbreitete Annahme, dass intuitive Entscheidungen einen größeren Bias aufweisen als rationale, konnten sie in ihren Studien nicht bestätigen. Sie führen diesen Eindruck auf die einseitige Fokussierung solcher Forschungen auf Bias und Fehlerhaftigkeit zurück (ebd. 61).
3.2 Unternehmensführung und strategisches Management
79
sentliche Puzzlesteine dieser Arbeit zurückgehen, veranschaulicht hier sehr plastisch, wie Intuition in Kombination mit Risikobereitschaft für herausfordernde Forschungsfragen und eine gewisse Autonomie gegenüber Mainstream-meinungen als Voraussetzung angesehen werden kann, ‚Neues‘ in die Welt zu bringen. Aus den Erkenntnissen unter ‚Entscheidungen unter Sicherheit’ ergeben sich verschiedene Weiterentwicklungen, die sich im Wesentlichen mit der Frage beschäftigten, wie sie als Einstieg von Gigerenzer u. a. formuliert wurde: „How do people make decisions when time is limited, information unreliable, and the future uncertain?“ (Gigerenzer u. a. 2011: V). Sie lassen sich unter der Überschrift ‚Entscheidungen unter Unsicherheit’ subsummieren. Es handelt sich hier um deskriptive Entscheidungstheorien, die induktiv aus empirischen Daten gewonnen werden. Sie zeichnen sich durch den Einbezug psychologischer und soziologischer Erkenntnisse aus, die individuelle und soziale Begrenzungen einer menschlichen Rationalität anerkennen und damit die absolute Rationalität einer RCT ablehnen (Gillenkirch 2017). Im Gegensatz zu Logik und Wahrscheinlichkeitsüberlegungen führen die Vertreter dieser Richtung als dritte Variante die Heuristik auf. Wie bereits ausgeführt, erweiterte Gigerenzer diesen Ansatz um den Begriff der ‚Intuition’ für Situationen, in denen nicht alle Alternativen, Konsequenzen und Wahrscheinlichkeiten bekannt sind (Gigerenzer 2013a). Er führte auf die Frage – Logik oder Intuition? – aus: „Wenn die Alternativen, Konsequenzen und Wahrscheinlichkeiten bei Entscheidungen bekannt sind, stellt die Verwendung von Logik und Statistik eine angemessene Vorgehensweise dar“ (ebd). Also genau die Umstände, die im VUCA-Kontext kaum anzutreffen sind. „Wohingegen in Situationen, in denen nicht alle Alternativen, Konsequenzen und Wahrscheinlichkeiten bekannt sind, Intuition und Heuristik60 die Methodik der Wahl sind“ (Gigerenzer 2013a; Gigerenzer u. a. 2011). Auch er stellte fest, dass die traditionellen Entscheidungstools nicht mehr funktionieren. Die vermutlich derzeit prominenteste Theorie für Entscheidungen bei Unsicherheit ist die Prospect-Theory61 (PT) (Kahneman und Tversky 1979) bzw. ihre Weiterentwicklung zur Cumulative Prospect Theory (CPT) (Tversky und Kahneman 1992). Die beiden Forscher legten die Grundlage zum Behavioral Economics, einem Verständnis, das die nicht-rationalen Verhaltensabweichungen von Menschen gegenüber dem Standardmodell des Homo oeconomicus untersucht und beschreibt (Pfister u. a. 2016: 21; Kahneman 2016). Die PT basiert auf der von Kahneman und Tversky getroffenen Unterscheidung zwischen zwei kognitiven Denkmodi, System 1 und System 2 sowie der Berücksichtigung von Heuristiken, unterschiedlichste Verzerrungen und Priming-Effekte.
60
61
Heuristik beruht auf schneller Mustererkennung, hervorstechenden Eigenschaften und einfachen Regeln. Im Deutschen auch als ‚Neue Erwartungstheorie’ bezeichnet.
80
3 Wirtschaftswissenschaftlicher Zugang
Kahneman beschreibt die beiden Systeme wie folgt: „System 1 arbeitet automatisch und schnell, weitgehend mühelos und ohne willentliche Steuerung. System 2 lenkt die Aufmerksamkeit auf die anstrengenden mentalen Aktivitäten, die auf sie angewiesen sind, darunter auch komplexe Berechnungen. Die Operationen von System 2 gehen oftmals mit dem subjektiven Erleben von Handlungsmacht, Entscheidungsfreiheit und Konzentration einher“ (Kahneman 2016: 33). Das was allgemein als logisches Denken interpretiert wird, entspricht demnach System 2 mit bewusst gesteuerten Operationen, das Schritt für Schritt Gedanken konstruieren kann. Eindrücke und Gefühle, also die unwillkürlichen Operationen, entstehen in System 1 und bilden die Quelle auf die System 2 zurückgreift. System 2 erfordert Aufmerksamkeit und kann ohne diese nicht funktionieren. Es ist jedoch in der Lage „die Funktionsweise von System 1 in gewissem Umgang zu verändern, indem es die normalerweise automatischen Funktionen von Aufmerksamkeit und Gedächtnis programmiert“ (Kahneman 2016: 35). Mit Verweis auf den ‚Unsichtbaren Gorilla’ (Chabris und Simons 2011) machen sie deutlich, dass mit starker Fokussierung auf eine Aufgabe, wir sehr schnell gegenüber Offensichtlichem blind werden können. Verantwortlich dafür ist die von System 2 eingeforderte Aufmerksamkeit. Das von ihnen entwickelte System 1 bildet ihrer Ansicht nach die Grundlage der Intuition, was im Kap. 4 noch eingehend untersucht werden wird. Die beiden im vorhergehenden Kapitel bereits vorgestellten Denkrichtungen ‚Effectuation’ und ‚Strategic Intuition’ tragen der Unbestimmtheits- und Komplexitätsthese ebenfalls Rechnung und sind von daher den Entscheidungen bei Unsicherheit zuzuordnen. In beiden Denkrichtungen wird auf sehr radikale Weise akzeptiert, dass nie ausreichend Informationen vorliegen, um Chancen erkennen, entwickeln und bewerten zu können und Ziele ebenfalls einem ständigen Änderungsprozess ausgeliefert sind. In jedem Fall entsprechen ‚Entscheidungen unter Unsicherheit’ mindestens den einfachen Kontingenzbedingungen, denn auch die von Psychologen und Sozialwissenschaftlern angenommenen ‚Präferenzen’ von Entscheidern in Entscheidungssituationen sind oft nicht gegeben. Diese Präferenzen werden abhängig von einer Vielzahl von Faktoren erst gebildet (Pfister u. a. 2016: 226). Neue Untersuchungen im Kontext der Effectuation-Forschung scheinen dies zu bestätigen (Reymen u. a. 2017). Diese Forschung bestätigt zudem ein Zusammenspiel von Effectuation- und klassischer Logik in den untersuchten Fällen (technische und Marktentwicklungs-Prozesse) (ebd.). ‚Effectuation’ erweist sich demnach besonders zu Beginn einer riskanten Entwicklungsphase als hilfreich, bei er es darum geht ein Nutzenversprechen (value proposition) für ein bestimmtes Marktbedürfnis zu erkennen. Demgegenüber sollte die Planungsphase bewusste kausale Abhängigkeiten in der darauffolgenden Entwicklungs- und Wachstumsphase prüfen (ebd. 604). Auffallend ist die Parallele zum Prozess der ‚Strategic Intuition’, bei der es ebenfalls zu Beginn darum geht, für eine Herausforderung einen kreativen Einfall zu bekommen.
3.2 Unternehmensführung und strategisches Management
81
Auch dort wird für den dann anschließenden Prozessschritt ‚Strategic Planning’ empfohlen, welches identisch mit ‚Causal Planning’ ist. Spieltheorie und prozessorientierter Ansatz Im Gegensatz zur einfachen Kontingenz braucht es für Situationen, in denen Entscheidungen im Rahmen sozialer Interaktionen vollzogen werden müssen, andere Ansätze. Dies geschieht üblicherweise im Rahmen der Spieltheorie62 (Neumann 2007). Hier hängen Entscheidungen und ihre Konsequenzen nicht nur von einem selbst, sondern auch von den Entscheidungen anderer ab und repräsentieren damit Bedingung einer doppelten Kontingenz. Pfister u. a. weisen darauf hin, dass die Prospect-Theorie dafür ‚keine’ vollständige Antwort liefern kann (Pfister u. a. 2016: 263–264). Einige Beispiele werden von ihnen (ebd. 287-295) aufgezeigt und auch der Hinweis, dass rationale, normative Ansätze keine ausreichenden Optionen liefern. Eine weitere Perspektive liefert die Betrachtung, dass Entscheidungen nicht zu einem bestimmten Zeitpunkt getroffen werden, sondern sich über einen Zeitraum kontinuierlich entwickeln (Holtfort 2013: 21–22). Schreyögg unterscheidet diesbezüglich drei Hauptphasen (vgl. Schreyögg 2008: 56–57): 1. Vorbereitung (Problemformulierung, Informationsbeschaffung, Alternativen Generierung) 2. Treffen der eigentlichen Entscheidung 3. Implementierung Im Gegensatz zu diesem eher funktionellen Prozessverständnis betrachten andere Forscher Entscheidungen als einen mentalen Prozess (vgl. Pfister u. a. 2016: 3) mit drei zentralen Komponenten (Tab. 5): Tab. 5 | Entscheidungen als mentaler Prozess, der sich aus 3 Komponenten zusammensetzt. (eigene Darstellung)
Beurteilung (judgement)
Entscheidungssituation wird wahrgenommen
Bewertung (evaluation)
Diskrepanz zwischen gegebenem und erwünschtem Zustand, Veranlassung einer Suche nach Optionen
Wahl (choice)
Festlegen durch Wahl einer Option und ggf. Umsetzung
62
Der Ursprung der Spieltheorie geht auf Mitte des 20. Jahrhunderts zurück und ist mit dem Namen John von Neumann verbunden. Von Neumann lieferte nicht nur einen wichtigen Beitrag für die Wirtschafts- und Sozialwissenschaften, sondern auch ganz zentrale Arbeiten zur Quantenmechanik.
82
3 Wirtschaftswissenschaftlicher Zugang
Bei genauer Betrachtung lassen sich beide Ansätze ineinander überführen, mit der Auffälligkeit eines Starts, der innerhalb einer mehr oder weniger bewussten Wahrnehmung liegt. Diese wird deutlich wenn Pfister u. a. die Frage nach einem ‚Freien Willen‘ aufwerfen (Pfister u. a. 2016: 4). Sie beziehen sich dort auf neurowissenschaftliche Befunde, die im Weiteren für diese Forschungsarbeit eine zentrale Rolle spielen und in denen festgestellt wird, dass unser Körpersystem deutlich vor unserer Bewusstwerdung reagiert. An dieser Stelle sei erwähnt, dass noch deutlich ausdifferenziertere Strukturierungen des Entscheidungsprozesses vorliegen (Mintzberg u. a. 1976), die Grundschemata für unsere Zwecke aber ausreichen sollten. Eine sehr anschlussfähige Empfehlung zum prozessorientierten Ansatz findet sich bei Roth: „Eine besondere Art von Entscheidungen sind die aufgeschobenen intuitiven Entscheidungen. Sie sind am besten, wenn es um komplexe Problemsituationen geht. Wichtig ist dabei, nur eine begrenzte Zeit dem Nachdenken zu opfern. Dabei sollte man sich auf die Hauptfaktoren konzentrieren und sich nicht im Nebensächlichen verlieren. Dann sollte man nicht mehr nachdenken, sondern die Sache «überschlafen» oder etwas ganz anderes tun und anschliessend [sic!] mehr oder weniger spontan entscheiden. [...] Ebenso soll man sich bei komplizierten Problemen im Betrieb für einige Zeit mit den Mitarbeitern beraten, dann für einige Stunden oder ein bis zwei Tage auseinandergehen und dann ohne grössere [sic!] weitere Beratung entscheiden“ (Roth 2007). Zusammenspiel von Kognition und Gefühl und messtechnische Rahmenbedingungen Aus Sicht der Kognitionswissenschaft spielen drei kognitive Mechanismen bei Entscheidungen eine wichtige Rolle (Pfister u. a. 2016: 340-345): 1. Aufmerksamkeit 2. Encodierung von Information 3. Gedächtnis In Bezug auf die Aufmerksamkeitsfähigkeit kognitiver Systeme diagnostizieren sie eine fundamentale Begrenztheit. Die Leistungsfähigkeit unserer Aufmerksamkeit nimmt danach mit Anzahl und Komplexität der Aufgaben rapide ab und die Fehleranfälligkeit zu. Unsere kognitiven Ressourcen bezogen auf Informationsverarbeitung scheinen sehr begrenzt zu sein. Nur die Informationen werden verarbeitet, die die selektive Aufmerksamkeitsbarriere passiert haben und diese Mengen scheinen klein zu sein. Diese Encodierungsprozesse bauen auf basalen Wahrnehmungs- und Aufmerksamkeitsprozessen auf, verarbeiten externe Informationen und stellen daraus eine bedeutungsvolle mentale Repräsentation her. Aus ihrer Sicht benötigt es dazu bereits vorhandenes Wissen (Begriffe, Kategorien, Schemata, andere kognitiven Strukturen). Bei unterschiedlich vorhandenen Kategorien werden deshalb auch objektiv gleiche Informationen unterschiedlich encodiert. Die encodierten Informationen werden schließlich im Gedächtnis zusammen mit dem Kontext gespeichert. Wiederkennung bzw. Erinnerung nimmt mit der Übereinstimmung der Kontexte zu, so ihre Überzeugung.
3.2 Unternehmensführung und strategisches Management
83
Als Vertreter dieser Richtung können Simon63 (1992) und Klein (2008) angesehen werden. Klein koppelt mit seinem Recognition-Primed Decision Modell (RPD) an Kahneman’s Überlegungen (Kahneman 2016) an und sieht System 1 und 2 im Zusammenspiel als wichtige Grundlage für gute Entscheidungen. Er wendet sich gegen die analytisch und wissenschaftlich, auf Laborexperiment und Computer gestützte Entscheidungsforschung. Er ergänzt sie durch Feldbeobachtungen und Interviews von Personen im Gesundheitsbereich, von Piloten, Feuerwehrmännern u. a. (Klein 2008) um schließlich Erfahrung und Wahrnehmungsfähigkeit als wesentliche Funktionen zu definieren. Auch Simon geht von Experten- und Erfahrungswissen als Grundvoraussetzungen guter Entscheidungen aus (Simon 1992). Dieser hier vorgestellte Zusammenhang von Aufmerksamkeit, Encodierung und Gedächtnis wird im Rahmen der neurowissenschaftlichen Betrachtung (Kap. 8.3) von Bedeutung sein. Wie bereits angemerkt, weisen die Neurowissenschaften auf die zentrale Rolle der Gefühle hin. Als Konsequenz daraus unterscheidet Roth (vgl. Roth 2007: 53– 54) vier Entscheidungstypen: automatisierte, spontan-impulsive, rationale und aufgeschobene intuitive Entscheidungen. 1. Automatisierte Entscheidungen bauen auf langen Erfahrungen auf und weisen sich durch Schnelligkeit, Sparsamkeit und Risikominimierung aus. Ihre Stärke können sie allerdings nur bei Wiederholung definierter Entscheidungssituationen entfalten. Änderungen der Situation führen zur Zunahme des Risikos. Zu ihnen gehören nach Roth die spontan-affektiven Bauchentscheidungen, die oft zu falschen Ergebnissen führen, womit er im Gegensatz zu Gigerenzer und in Übereinstimmung zu Kahneman (2016) steht. Nach Roth ist der Grund in der „sehr eingeschränkten, schemenhaften Wahrnehmung durch die subkortikalen limbischen Zentren“ (Roth 2007: 53) zu suchen. 2. Spontan-impulsive Entscheidungen sind aus Sicht Roth’s ebenso häufig falsch, da der erste Eindruck und der erste Gedanke uns meist in eine falsche Richtung treiben. Er bezieht dies besonders auf Sympathie- und Antipathie-Situationen und einem damit verbunden Glaubwürdigkeitsautomatismus. Grund dafür soll die schwache Detailverarbeitungsfähigkeit sein. Aus seiner Sicht kommt es auf den zweiten Eindruck und den zweiten Gedanken an. 3. Rationale bzw. reflektierte Entscheidungen haben nach Roth zwei gravierende Nachteile. Zeit- und Nervenaufwand einerseits und Nichteignung für komplexe Situationen andererseits. Die bewusste Merk- und Verarbeitungsfähigkeit ist zu schwach. Demnach ist unsere bewusste Aufmerksamkeit am besten, wenn wir uns voll und ganz auf eine Sache konzentrieren. Grübeln und immer neue Argumente führen dann zum spontanen Abbruch und zu affektiven Entscheidungen.
63
Simon war einer der zentralen Wegbereiter der künstlichen Intelligenz (Artificial Intelligence – AI). Er entwickelte dazu das erste bahnbrechende Programm (Logical Theorist) mit dem er zeigen konnte, dass Programme zu Aktionen in der Lage waren, wofür Menschen Intelligenz benötigen.
84
3 Wirtschaftswissenschaftlicher Zugang
4. Aufgeschobene intuitive Entscheidungen eignen sich nach Roth am besten für komplexe Entscheidungen unter Unsicherheit. Wichtig ist, sich auf die Hauptfaktoren zu konzentrieren, dem Nachdenken nur begrenzte Zeit zu opfern und besser erst darüber zu schlafen oder etwas ganz anderes tun. Die dann folgende Entscheidung sollte eher spontan getroffen werden. Ein wesentliches Kriterium ist das rationale und emotionale Abwägen am Anfang, das im Vorbewussten Netzwerke anstößt, die dann weiterverarbeiten. Als Nachteil führt Roth den Verlust einer sprachlich-bewussten Nachvollziehbarkeit auf. Ein Umstand, der quantenphysikalischen Systemen entspricht, bei denen der Weg nach einer Messung auch nicht mehr rückverfolgt werden kann. Es geht um die Übereinstimmung von Verstand und Gefühl. Implizite und explizite Bewertungen und experimentelle Verifizierung Angemerkt sei an dieser Stelle noch der Unterschied zwischen impliziter und expliziter Bewertung. Als implizit betrachten Pfister u. a. Entscheidungen dann, wenn bei multi-attributen Voraussetzungen (viele bewertungsrelevante Merkmale), trotz bewusster Kenntnis dieses Umstandes, nur eine holistische, intuitive Gesamtbewertung vorgenommen wird, z. B. die Situation ist gut, ohne deutlich zu machen, worauf konkret sich das ‚gut’ bezieht (vgl. Pfister u. a. 2016: 97–98). Explizite Entscheidungen unterscheiden sich nach ihnen dahingegen, ob für alle Attribute partielle, analytische Bewertungen vorgenommen werden. Interessanterweise lassen sie einen situations- und strategieabhängigen Spielraum für die Frage zu, ob und wie alle Einzelattribute zum Gesamtwert hinzugezogen werden. Allein aus diesem Spielraum entstehen Bedingungen, die der Intuition wieder Tür und Tor öffnen; ganz abgesehen von der Tatsache, dass Auswahl und Bewertung der Merkmale selbst, ebenfalls stark intuitionsabhängig ist. Denn die Auswahl der Einzelattribute unterliegt einem Prozess, der als ‚Information Sampling’ bekannt ist und sich auf „die Erzeugung der Information bezieht, die die Grundlage für Urteile und Entscheidungen bildet“ (Pfister u. a. 2016: 358). Aus dem Repertoire möglicher Informationen werden Stichproben (Samples) gezogen. Dies können Informationen aus der Umgebung oder aus dem Gedächtnis sein, die jedoch selektiv und verzerrt64 sind. Es ist also davon auszugehen, dass nicht nur der Spruch „Traue keiner Statistik, die du nicht selbst gefälscht hast.“ 65 stimmt, sondern dass man auch seinen eigenen unbewussten Entscheidungsprozessen nicht einfach trauen darf. In jedem Fall greift beim Sampling eine Art intuitive Erfassung und Bewertung von Attributen. An dieser Stelle wird noch auf die genaue Definition von Intuition verzichtet, da sehr kontroverse Vorstellungen darüber existieren, was
64
65
Infolgedessen sind aus meiner Sicht explizite Bewertungen nicht besser zu stellen als implizite. Zudem gehen die Autoren von einer kognitiven Verfügbarkeit der Informationen aus und lassen den unbewussten Teil des Vorprozesses außer Acht, der bis zur kognitiven Verfügbarkeit führt. Aus meiner Sicht liegt deshalb eine ‚Schein-Objektivität und -Rationalität’ vor, wie Experimente zeigen. Die Herkunft dieser Redewendung ist unklar (Barke 2011).
3.2 Unternehmensführung und strategisches Management
85
unter Intuition überhaupt verstanden wird (vgl. Pfister u. a. 2016: 350). Aufgrund der Relevanz wird die ‚Definition der Intuition’ in Kap. 4.1 ausführlich behandelt. Nichtsdestotrotz existieren Bedingungen, in denen bewusste Entscheidungen bessere Resultate erzielen als unbewusste wie Experimente zeigen. So etwa in Situationen, in denen wenig Komplexität und ausreichend viel Informationen vorliegen, also ‚Entscheidungen unter Sicherheit’ getroffen werden können. In Situationen, in denen dies nicht zutrifft, scheinen implizite Entscheidungen besser zu sein. Dieser Zusammenhang ist unter dem ‚Deliberation-Without-Attention-Effect’ (DWA) (Dijksterhuis u. a. 2006) oder der ‚Unconscious thought theory’ (UTT) (Dijksterhuis und Nordgren 2006) bekannt. Eine vereinfachte Darstellung dieses Zusammenhangs skizzierte Holtfort (Abb. 12), darin nimmt die Qualität der Entscheidung sehr schnell mit einer Zunahme an Komplexität ab. Die Qualität unbewusster Entscheidungen hält demgegenüber ihr Niveau über das gesamte Spektrum der Komplexitätsvarianten. Insofern wird auch deutlich, dass unbewusstes Denken nicht an sich besser ist. Es liefert nur bessere Ergebnisse bei komplexen Situationen. ‚Bewusstes Denken’ ist dabei definiert: „conscious thought as cognitive or affective decision-related processes that take place while one is consciously aware of the decision-making process” (Dijksterhuis und Strick 2016: 117). Ergänzend dazu ist ‚Unbewusstes Denken’ definiert als “decision-relevant processes that occur when individuals’ conscious attention is directed elsewhere, that is, not on the decision” (Reinhard u. a. 2013: 723).
Abb. 12 | Deliberation-Without-Attention-Effekt in Anlehnung an Dijksterhuis (Holtfort 2013: 50). Die Qualität der Entscheidung, die auf bewusst-rationalem Denken beruht, nimmt sehr schnell mit der Komplexität der Entscheidungssituation ab. Demgegenüber bleibt die Qualität unbewusster Entscheidungsprozesse auf einem konstanten Niveau.
Zusammengefasst lautet die Annahme von Dijksterhuis und Nordgren über die Arbeitsweise des bewussten und des unbewussten Denken:
86
3 Wirtschaftswissenschaftlicher Zugang
„Unconscious Thought Works Bottom-Up and Conscious Thought Works Top-Down when Forming an Impression“ (Bos und Dijksterhuis 2011). Eine Schlussfolgerung, die im Kap. 8.3 Neurowissenschaften aufgegriffen und überprüft wird. Unter anderem wurde hierzu die Haltung gegenüber Autos, Moralentscheidungen, die Auswahl von Zimmermädchen, Produkterfolg, Anpassung an Kundenanfragen und Lügenerkennung intensiv untersucht (Dijksterhuis und Strick 2016). Experimentelle Nachweise zur Verifizierung Zahlreiche experimentelle Forschungsarbeiten veranschaulichen das bisher Gesagte. Unter anderem wurden die Haltung gegenüber Autos, Moralentscheidungen, die Auswahl von Zimmermädchen, Produkterfolg, Anpassung an Kundenanfragen und Lügenerkennung intensiv untersucht (Dijksterhuis und Strick 2016). So zeigten sich in zahlreichen Arbeiten schlechtere Ergebnisse bei expliziten Entscheidungsprozessen als bei impliziten. Darüber hinaus konnten auch eindeutige Hinweise auf unbewusste Informationsverarbeitung und Verzerrungseffekte bei Entscheidungen belegt werden. Beispiel 1: Emotionen Ein weiterer Zusammenhang kristallisiert sich bei zahlreichen der folgenden Experimente heraus: Die Ergebnisse in Bezug auf unbewusste Einflüsse werden umso besser, je emotionaler oder bedrohlicher die Versuchsanordnungen sind. Mit Rauterberg, dass Emotion die „Stimme des Unbewussten“ sein kann und Gefahren für unser Überleben relevanter sind als angenehme Situationen, scheint dieser Zusammenhang plausibel (Rauterberg 2010). Nach ihm verlinkt Emotion die beiden Seiten unseres Wesens, das Bewusste und das Unbewusste und sorgt bei Gefahr für schnellere Wahrnehmung. Bereits bei einfachen Wahrnehmungsexperimenten von furchtverzerrten Gesichtern wurden diese unterbewusst durchgängig schneller erkannt als neutrale oder glückliche Gesichter (Yang u. a. 2007). Yang und seine Kollegen erkannten vor allem die Region um die Augen als das relevante Areal, das bei der Erkennung besonders fokussiert wird. Ob tatsächlich nur die geweiteten Augen dies zu erklären vermag, wie sie vermuten, oder ob doch noch andere Optionen vorstellbar sind, wird im Kap. 8.2.3 untersucht und mit einer Photonenemission im Gesichtsbereich beantwortet. Rauterberg (2010) weist allerdings auch darauf hin, dass positive Emotionen bei sehr erfreulichen Ereignissen ebensolche Wahrnehmungsschübe auslösen. Beispiel 2: Wahl zwischen verschiedenen Angeboten Unterschiedliche Gruppen von College Studenten waren aufgefordert Erdbeermarmelade unterschiedlicher Marken zu bewerten. Die Ergebnisse wurden mit Expertenmeinungen verglichen. Die Gruppen, die länger und bewusster analysiert hatten, wiesen eine deutlich schlechtere Übereinstimmung mit den Experten auf, als die spontan und intuitiv entscheidenden Gruppen (Wilson und Schooler 1991). In der gleichen Veröffentlichung wurde ein Experiment vorgestellt, in dem die Studenten einen College-Kurs bewerten sollten, entweder anhand eines detaillierten Informationsblattes oder anhand
3.2 Unternehmensführung und strategisches Management
87
dessen, was sie über den Kurs gehört hatten. Es gab keine signifikanten Unterschiede in den Ergebnissen was das Rating der Kurse betraf. Auch hier schien ein mehr an Information keine andere oder bessere Entscheidung zu produzieren. Gleiches zeigte sich bei der Auswahl von Postern auch Wochen nach dem Versuch. Versuchspersonen waren aufgefordert nach einer eingehenden Nachdenkphase über Auswahlkriterien zwischen Postern zu wählen. Der Unterschied lag im Berichten und Nicht-Berichten über die Auswahlgründe. Schlussfolgerung aus dem Experiment: Introspektion über Auswahlkriterien reduziert die Zufriedenheit nach der Entscheidung (Wilson u. a. 1993). Die Forscher vermuten, dass die Vorgaben, die Begründungen zu kommunizieren, besser verbalisierbare aber tatsächlich nicht so relevante Präferenzen in den Vordergrund treten lassen. Eine Beobachtung auf die auch Gigerenzer immer wieder hinweist (Gigerenzer 2008). Das würde auch erklären, weshalb in Unternehmen oft nur die 2., 3. oder 4. beste Lösung von Mitarbeitern und Führungskräften vorgetragen wird. Ihre gefühlt beste Lösung lässt sich nur schwer kommunizieren Eine Erweiterung der Versuchsanordnung mit den Postern, jetzt mit drei Konstellationen unter denen gewählt werden sollte (sofort, nach bewusstem Überlegen zu jedem Poster, nach einer Phase der Ablenkung und unbewusstem Denken), zeigt ebenfalls den höchsten Zufriedenheitsgrad bei den unbewussten Entscheidern auch 3 - 5 Monate nach der Entscheidung (Dijksterhuis und van Olden 2006). Die Arbeit von Dijksterhuis und Kollegen wurde auch von Messner und Wänke in Zusammenhang mit der Auswahl von Produkten bestätigt (Messner und Wänke 2011). Letztere konnten darüber hinaus zeigen, dass durch die Nutzung unbewusster Denkprozesse ein Informationsüberfluss besser bewerkstelligt werden kann. Sie kamen zur gleichen Erkenntnis wie Nordgren u. a. bei ihren Experimenten, indem die Entscheidung in zwei Phasen aufgeteilt wird (Nordgren u. a. 2011). In Phase 1 findet eine bewusste Auseinandersetzung mit dem Thema statt, um in Phase 2 dem Unbewussten Denken die freie Hand zu lassen. Ergänzend haben Forscher 2013 den Entscheidungsprozess auf neuronaler Ebene verfolgt (Creswell u. a. 2013). Ihre Versuchsanordnung ermöglichte eine Zuordnung der Gehirnaktivitäten zu den bewussten und unbewussten Denkprozessen. Sie konnten zeigen, dass die gleichen Regionen (rechter dorsolateraler präfrontaler Cortex und linker intermediärer visueller Cortex), die bei der Verarbeitung komplexer Informationslagen aktiv sind, auch in einer nachfolgenden 2-minütigen unbewussten Verarbeitungsphase beansprucht werden. Zusätzlich ließen sie stimmige Rückschlüsse auf die zu erwartende Entscheidung zu. Die Forscher schlossen daraus, dass die wahrgenommenen Informationen dann noch einmal unbewusst nachcodiert werden. Diese unbewussten Verarbeitungsprozesse zeigen sich auch während und nachdem das Gehirn mit anderen komplexen kognitiven Arbeiten beschäftigt war. Gleichzeitig sind unterschiedliche, unabhängige Gehirnregionen für die bewussten und unbewussten Prozesse betroffen. Aus Sicht von Creswell u. a. (ebd.) spricht dies für die UTT. Mit Bezug auf zwei andere Forschungsgruppen fassten die Autoren zusammen: „visual cortex may maintain an unconscious visual representation of decision information while dorsolateral PFC semantically processes and consolidates that information, resulting in an unconscious decision
88
3 Wirtschaftswissenschaftlicher Zugang
preference that can be called up to consciousness when one is prompted to act or decide“ (Soon u. a. 2008; Blumenfeld und Ranganath 2007). Beispiel 3: Wahrheit oder Lüge Richtige Entscheidungen zu treffen, ist die zentrale Aufgabe in der Rechtsprechung mit der Herausforderung Wahrheit von Lüge zu unterscheiden. Reinhard und Kollegen (Reinhard u. a. 2013) stellten Experimente vor, in denen es um Erkennen von Lügen geht. Darüber hinaus ist diese Fähigkeit gerade in sozialen Beziehungen eine essentielle Notwendigkeit, wie sie betonen. Im Gegensatz zur Fülle an empirischer Forschung, bei der sich die Fähigkeit Wahrheit von Lüge zu unterscheiden, nur unwesentlich über der Zufallswahrscheinlichkeit zeigte, konnten sie belegen, dass die Erkennungsfähigkeit nach einer Periode des unbewussten Verarbeitens deutlich ansteigt. Die Forscher untersuchten, wie oben, drei Bedingungen – Entscheidung (a) sofort (b) nach bewusstem Überlegen, (c) nach unbewusster Verarbeitung – bei denen die unbewussten Denker mit ihren Treffern deutlich über den beiden anderen Varianten lagen und auch deutlich über der Zufallswahrscheinlichkeit. Sie vermuteten eine bessere Integration der zahlreichen Informationen als Basis der Lügenerkennung und sie nehmen an, dass bisher wichtige Prozesse und Zusammenhänge übersehen wurden. Mit Bezug auf andere Untersuchungen stellten sie fest, dass sich die bisherigen insignifikanten Resultate aus der Art der Untersuchungen ableiten lassen. Der übliche Schwerpunkt der Befragung richtete sich demnach auf eine bewusste, gut überlegte Begründung. Wie aus den Arbeiten von Messner und Wänke hervorgeht, scheint das allerdings eine ungünstige Ausgangsbasis für gute Ergebnisse zu sein (Messner und Wänke 2011). Auch Reinhard u. a. führten die Insignifikanzen auf die Umstände und weniger auf die Fähigkeit der Personen zurück (Reinhard u. a. 2013). Wichtig hervorzuheben waren zwei Beobachtungen der Gruppe um Reinhard: Zum einen vermochten die unbewussten Denker eine Zunahme an zusätzlichen Informationen und Hinweisen zu einer Verbesserung ihrer Ergebnisse zu nutzen, im Gegensatz zu den anderen Gruppen. Zum anderen gab es eine signifikante Unterscheidung zwischen ‚unconscious thought’ (unbewusstes Denken) und ‚mere-distraction’ (bloße Ablenkung) (Abb. 13). Sie gehen deshalb davon aus, dass unterschiedliche Verarbeitungsprozesse zugrunde liegen, die sie aber noch nicht beschreiben konnten. Eine Metaanalyse von 2006 zeigt eine Signifikanz von 54 % gegenüber dem Zufall von 50 % auf (Bond und DePaulo 2006) (Abb. 14). Auf ihrer grafischen Darstellung zeigt sich in Summe eine deutliche Verschiebung der Ergebnisse in Richtung obere Hälfte und damit in Richtung einer größeren Trefferquote, als es bei rein zufälliger Trefferbilanz auftreten sollte. Kahneman (2016), Gigerenzer (2013b) und Simon (1992) gehen bei solchen Fällen vom Wiedererkennen von Hinweisreizen aus, welche sich Experten durch jahrelange Übung antrainiert haben. Die von Reinhard’s Gruppe zusammengefassten früheren Forschungsergebnisse und Metaanalysen (Reinhard u. a. 2013: 721) in Bezug auf Experten (z. B. Polizisten) und deren Fähigkeit, Lügner zu erkennen, widersprechen allerdings dieser Theorie. Die Experten waren nämlich nicht besser als Laien.
3.2 Unternehmensführung und strategisches Management
89
Treffergenauigkeit 0,7 0,6
Einstufungsgenauigkeit d'
0,5 0,4 0,3 0,2 0,1 0 -0,1 -0,2
Datenreihe 1
Kontrollgruppe 0,08
bewusste Überlegung -0,16
mit einer Ablenkung 0,12
unbewusste Verarbeitung 0,62
Abb. 13 | Die Treffergenauigkeit Lügner zu erkennen als Funktion des Entscheidungsmodus aus Experiment 4 von Reinhard (Reinhard u. a. 2013: 729). Gezeigt wird der Einfluss bewusster Überlegungen auf die richtige Einschätzung ob jemand lügt, gegenüber einer Kontrollgruppe, einer Gruppe, die zwischendurch eine Ablenkung erfährt und einer Gruppe, der die Möglichkeit einer unbewussten Verarbeitungsphase gegeben wird. Bewusste Überlegungen scheinen intuitive Wahrnehmungen zu behindern.
Abb. 14 | Treffer der Entscheidungen als Ergebnis einer Metaanalyse. Image aus (Bond und DePaulo 2006). Die Treffergenauigkeit liegt 4 % über einem zu erwartenden Zufallswert von 50 %. Aufgetragen ist der mittlere korrekte Prozentsatz an Treffern gegenüber Experimenten mit deren Anzahl an involvierten Versuchsteilnehmern.
90
3 Wirtschaftswissenschaftlicher Zugang
Interessante Unterschiede produzierte eine Studie von ten Brinke und Kollegen (2014), die mithilfe des Implicit Association Test 66 (IAT) (Nosek u. a. 2006; Greenwald u. a. 2003, 1998) durchgeführt wurde und indirekte und direkte Messungen in Bezug auf das Erkennen von Lügen untersuchte. Bewusst getroffene Zuschreibungen (direkte Messung) ‚wer lügt’ bewegten sich im Zufallsbereich (Abb. 15), wohingegen indirekte Messungen signifikant höhere Trefferquoten bewirkten. Die Forschergruppe konnte damit nachweisen, dass von den Versuchspersonen formulierte Entscheidungen schlechter waren als sie tatsächlich erfasst hatten. Ihre Ergebnisse weisen darüber hinaus darauf hin, dass Frauen deutlich besser sind als Männer im Wahrnehmen von Lügen. Ten Brinke u. a. ließen sich von Studien animieren (ten Brinke u. a. 2014), in denen gezeigt werden konnte, dass Primaten automatisch Täuschungen erkennen konnten (Wheeler 2010), genauso wie Neurowissenschaftler (Lissek u. a. 2008; Grèzes u. a. 2004) entsprechende Aktivitäten beobachteten. Ten Brinke führt drei Regionen an, die eine zentrale Rolle beim Erkennen von Täuschungen spielen (ten Brinke u. a. 2014): Der orbitofrontal Cortex hilft beim Verstehen des mentalen Zustandes anderer; der vordere zirkuläre Cortex hilft beim Erkennen von Inkonsistenzen und die Amygdala hilft beim Erkennen von Bedrohungen.
Treffergenauigkeit Effektstärke (d Score)
0,4 0,3 0,2 0,1 0 -0,1 -0,2 -0,3 direkt indirekt
Experiment 1 -0,23 0,32
Experiment 2 -0,01 0,27
Abb. 15 | Treffergenauigkeit bzgl. der Unterscheidung von Lüge und Wahrheit. Angezeigt wird für beide Experimente die Effektstärke bei direkter Entscheidung und indirekter Messung (vgl. ten Brinke u. a. 2014). Nach dem allgemeinen Verständnis wird ein Wert d = 0,1 als kleiner, ein Wert ab 0,3 als mittlerer und ein Wert ab 0,5 als starker Effekt angesehen (Persike 2017: 23).
Ergänzend dazu haben Forscher bei Ratten und Affen einen wichtigen Zusammenhang zwischen Amygdala und emotionaler Bedeutung herausgefunden (Panksepp 2011; Baxter und Murray 2002; LeDoux 2000). Immer wenn Signale emotionale Bedeutung gewinnen, ist die Amygdala involviert. Das Erkennen von Täuschungen hat aus Sicht der 66
IAT eignet sich sehr gut zur Vermeidung von Priming-Effekten. Das Verfahren erkennt durch zusätzliche Erhebungen und zahlreiche Quervergleiche unbewusste Prägungen und vermag diese zu eliminieren.
3.2 Unternehmensführung und strategisches Management
91
Forscher einen überlebenswichtigen Stellenwert und ist konsequenterweise auch bei Menschen (Koutsikou u. a. 2014) emotional relevant. Grèzes u. a. beobachteten einen Anstieg neuronaler Aktivitäten sobald die Beobachter vorgetäuschte Intentionen und Aktionen beurteilen mussten, unabhängig von der als richtig oder falsch beurteilten Szene (Grèzes u. a. 2004). Das bedeutet, dass, unabhängig davon, ob etwas sichtbar oder äußerlich nicht sichtbar, sondern nur beabsichtigt ist, auf unbewusster Ebene ein korrektes Erkennen abläuft, welches auf dem Weg bis zur Verbalisierung Verzerrungen ausgesetzt ist. Dies ist konform zu den Beobachtungen von Kahneman (Kahneman 2016). Unter Zuhilfenahme weiterer Forschungen, bei denen u. a. eine Verbesserung der Erkennungsrate von Lügen bis zu 15 % angegeben wurde, fasst ten Brinke entsprechend zusammen: „Together, these findings reveal the basic architecture supporting accurate deception detection and suggest that when conscious thought is impaired or stripped away, deception-detection accuracy is enhanced“ (ten Brinke u. a. 2014: 2) . Beispiel 4: Ambiguität und Schlussfolgerungen Auch zu der VUCA Kategorie Ambiguität finden sich in der Literatur anschauliche experimentelle Nachweise. So werden mit zwei Beispielen „John jumped from the 25th floor.” und „Ann’s husband annoys her, so she decided to call her lawyer.“ (Hassin 2013: 199) die Ergebnisse zahlreicher Forschungsarbeiten veranschaulicht, die mit solchen Ambiguitäten und mit unbewusstem Denken experimentierten. Im ersten Beispiel gehen Leser vermutlich unwillkürlich von Selbstmord aus, im zweiten Beispiel möglicherweise von Scheidung. Bei ruhiger Überlegung kann einem jedoch bewusstwerden, dass auch ganz andere Geschehnisse gemeint sein könnten. Die ‚kausale Schlussfolgerung’, wie Hassin sie bezeichnet, wird auch ohne bewusste Erfahrung von unserem Verstand in der Regel unbewusst vollzogen, so das Ergebnis der Arbeiten. Es zeigte sich auch die Fähigkeit, zahlreiche Schlussfolgerungen gleichzeitig unbewusst67 durchführen zu können (Todd u. a. 2011). Zudem wurden in Verbindung mit der Aufforderung, überlegte Zuordnungen vorzunehmen, bei den gleichen Verhaltenssituationen zielorientierte Verzerrungen beobachtet, die verdeutlichten, dass es Wahlmöglichkeiten gab; eine Bestätigung unbewussten Denkens in mehrdeutigen Situationen als auch des Auftretens von Priming-Effekten68. Diese und andere Untersuchungen wurden im Rahmen ‚sozialer Wahrnehmungsexperimente’ vorgenommen, deren Konsequenzen ebenfalls Entscheidungen sind. Entscheidungen darüber, wie wir mit Anderen umgehen werden. Beispiel 5: Verfolgung und Beeinflussen von Zielen In Wirtschaftskontexten finden Entscheidungen i. d. R. immer in Verbindung mit Zielen statt, seien es bewusste oder unbewusste. Die Bedeutung und Wichtigkeit von Zielen und deren Wirkung, nicht nur theoretisch, sondern auch anhand von Experimenten, wird sehr ausführlich bei Bargh u. a. behandelt. Sie kommen zu dem Schluss, dass „that un67 68
In der Quantenphysik würde ein solcher Zustand als Superposition bezeichnet werden. Priming-Effekte würden sich physikalisch als Kohärenz beschreiben lassen.
92
3 Wirtschaftswissenschaftlicher Zugang
conscious motivational structures existed before the emergence, over evolutionary periods, of conscious forms of thought and information processing and that the conscious mode of goal pursuit likely uses those preexisting processes and structures“ (Bargh u. a. 2010: 306). Experimente, die Wechselwirkungen und Beeinflussungen im Zusammenhang mit Zielen und damit verbundenen Handlungen untersuchen, sind natürlich auch für diese Arbeit hilfreich. Abgesehen davon, dass zahlreiche Ziele von Haus aus unbewusst und mit unserer Entwicklungsgeschichte verbunden sind (Freud 2012; Kälin und Müri 2005; Polster 2001; Stewart und Joines 2000) und somit dem Kompetenzfeld der Psychologie zufallen, sind scheinbar auch bewusste Ziele leicht zu beeinflussen. So konnte eindeutig verifiziert werden, dass unterbewusste und subliminale 69 Beeinflussung unter bestimmten Bedingungen das Verhalten von Menschen in Richtung der (geprimten) Ziele verbessern. Voraussetzung dafür sind eine vorhandene Motivation in Richtung dieser Ziele und eine entsprechende Erwartungshaltung. So erreichte eine CD, die die Gemütslage wieder verbessern sollte, nur dann einen signifikanten Effekt, wenn die Versuchspersonen eine Interaktion mit anderen erwartet (Strahan u. a. 2002). Darüber hinaus mussten die Ziele auch akzeptabel und auf die Handlungen anwendbar sein. Subliminales Priming wirkte allerdings auch hemmend auf Verhaltensweisen wie dominantes Auftreten und Fehlererkennung beim Lesen, sofern auch dort entsprechende Motivationen vorliegen (Marien u. a. 2012). Maskierte Stopp-Signale zeigten genauso Wirkung (van Gaal u. a. 2011) wie unterbewusstes Lernen nachweisbar war (Pessiglione u. a. 2008). Neuronale Untersuchungen begleiteten die beiden letzten Experimente, mit einem deutlichen Hinweis auf unterschiedliche Prozesse, bezogen auf bewusste und unbewusste Verarbeitung und Einflussnahme. Weitere wichtige Erkenntnisse lieferten van Gaal u. a. als Ergebnis eines umfangreichen Reviews verfügbarer Studien zu Komplexität und Stärken unbewusster Verarbeitung (vgl. van Gaal u. a. 2012: 11). Sie stellten als allgemeines Ergebnis der unterschiedlichen Experimente fest, dass unbewusste Ereignisse langfristige Anpassung viel weniger beeinflussen, als es bewusste Ereignisse vermögen. Andererseits scheinen aufgabenrelevante unbewusste Informationen sehr wohl starken als auch langwirkenden Einfluss auf Verhalten und Gehirnaktivitäten auszulösen, im Gegensatz zu nicht aufgabenrelevanten Informationen. Darauf führten sie auch die uneinheitlichen Ergebnisse der verschiedenen Studien zurück. In Bezug auf die unterschiedliche Wirkung und Dauer der Effekte spekulieren sie über die spezifische Arbeitsweise unseres Gehirns. Je bewusster und wiederkehrend Informationen bearbeitet werden, desto mehr Gehirnregionen sind eingebunden und desto stärker scheint die automatische Informationsbearbeitung unterbrochen zu werden70.
69 70
Unterschwellige Wahrnehmungen Dieser Mechanismus lässt sich als Grundlage des Lernens interpretieren. Durch bewusste Verarbeitung werden neue Inhalte eingearbeitet und alte Verarbeitungsmuster überspielt, womit automatische Verarbeitungsprozesse und Handlungen unterbrochen und neu ausgerichtet werden. Als alternative Lernmethode steht dem ein häufiges Wiederholen gegenüber, wie wir es beim Chicken Sexing (Kap. 4.1.3) noch sehen werden und wie es vor allem für automatische Reflexe benötigt wird.
3.2 Unternehmensführung und strategisches Management
93
Ein Beispiel für den langwirkenden Einfluss findet sich bei Bargh u. a. (2010: 304). Sie stellen Untersuchungen vor, in denen die Motivation zur langfristigen Beibehaltung von Verhaltensweisen dann beendet wird, wenn das ursprüngliche Ziel einmal erreicht wurde. Dies geschieht für die Person völlig unbewusst und hemmt die mentale Repräsentation weiter das Ziel zu verfolgen. In Summe stellen sie die Idee eines bewussten, sich selbst kontrollierenden Selbst infrage und fassten u. a. zusammen (Bargh u. a. 2010: 304–305): 1. „conscious intentions and awareness are not necessary to put motives and goals into operation or to guide them to completion.“ 2. „once activated, these goals operate to produce the same outcomes and with the same signature set of phenomenal qualities as when consciously pursued.“ 3. „all goals, whether consciously or unconsciously pursued, operate autonomously from control by the individual person or self – they operate on all relevant information in the environment, even on target people or events for which their operation is unintended by the individual and might produce unwanted consequences.“ Mit diesen Erkenntnissen lassen sich zwei Sachverhalte in Verbindung bringen. Zum einen lassen sich Ziele aus unbewussten Zuständen heraus initiieren und verfolgen, ein Gebiet mit dem sich die Psychologie beschäftigt (van der Velden u. a. 2015). Zum anderen findet nach bewusstem oder unbewusstem Festlegen eines Ziels ein Automatismus statt, der versucht dieses Ziel auch zu erreichen, ebenfalls ein Gebiet der Psychologie (Crane u. a. 2014) und besonders des Gerichtswesens. Woher kommen diese Impulse und wie lässt sich dieser Mechanismus erklären? Ein Mechanismus, der uns auch gegen unsere bewussten Zielsetzungen agieren lässt. Es wird damit deutlich, dass wir nicht nur bewusste Entscheidungen treffen und Handlungen abrufen, sondern im Gegenteil relativ leicht auf unterbewusste Anliegen reagieren oder in Richtung unterbewusster Tendenzen gelenkt werden können. Es scheint nur eine Passung bzw. Nicht-Passung zwischen der beeinflussten Richtung und unserer inneren Haltung nötig. Als hoffnungsvoll lässt sich ableiten, dass wir nicht gegen unsere eigene Intention gelenkt werden können, wie van Gaal u. a. (2012) betonen. Demgegenüber steht die Problematik einer persönlichen Disposition oder momentanen Ambivalenz, die ausgenutzt werden kann, sowohl bewusst als auch unbewusst gewollt, von einem selbst oder von anderen. Ergänzt werden soll dieser Themenbereich noch mit einem typischen Kontext, in dem Ziele eine wichtige Rolle spielen – komplexe Spielsituationen in denen Entscheidungen unter Risiko getroffen werden müssen. Üblicherweise geht es in solchen Situationen darum, die richtige Strategie zu wählen, um den Gewinn zu maximieren. Beim Versuch zu verstehen, wie gesunde und gehirngeschädigte Personen solche Entscheidungen treffen und welcher Gehirnteil welche Rolle spielt, konnte beobachtet werden, dass andere neuronale Gehirnregionen aktiv waren, als sie zur Abfrage von rationalem Wissen zu erwarten waren. Die Spieler wählten ihre bevorzugte Strategie bevor es ihnen bewusst
94
3 Wirtschaftswissenschaftlicher Zugang
wurde, und sie zeigten die Richtung ihrer präferierten Entscheidung bereits im Vorfeld durch entsprechende Veränderungen der Hautleitfähigkeit an (Bechara u. a. 1997). Auch hier wird deutlich, dass unbewusste Prozesse sehr viel früher aktiv sind und Richtungen vorgeben, die von scheinbar kognitiven, bewussten Prozessen nur noch nachvollzogen werden. Beispiel 6: Medizinische Kontexte In einer Studie sollten die Teilnehmer die Lebenserwartung von vier fiktiven Patienten schätzen. Verglichen wurden die Schätzungen mit den Angaben von offiziell zertifizierten Internisten. Der Versuch, die UTT bei den teilnehmenden Fachärzten und Studenten zu verifizieren, scheiterte (Bonke u. a. 2014) allerdings. Die Autoren der Studie formulierten am Ende ihres Berichts selbst die Frage, wie die Situation wohl in wirklichen Entscheidungssituationen vor Ort aussehen würde. Bei der Klassifizierung von Begleiterkrankungen in einer anderen Studie wurde hingegen die UTT bestätigt (de Vries u. a. 2010). In einer weiteren Veröffentlichung, in der sie sich mit den Fallen und Stärken von bewusster Überlegung vs. Intuition auseinandersetzen, kamen sie zur Erkenntnis, dass es sich um komplementäre Effekte handelt. Es hängt von der Situation ab, in der sie eingesetzt werden. Mit Bezug auf Intuition erkannten sie zwei kraftvolle Vorteile: „(1) intuitive decisions are often based on implicit information integration, which can integrate large amounts of information and result in feelings that are surprisingly accurate, and (2) intuitive decision making may be relatively more influenced by, and dependent on, the presence of lower-order, subtle affective cues.“ Und sie erkannten drei klare Nachteile: „(1) they can be influenced by heuristics and biases (but this may also be true of deliberative strategies), (2) they lack logical-sounding reasons that could help to convince others (and possibly also oneself) that the decision is good, and (3) when intuitive strategies are applied to early stages of decision making, such as information accrual, they may lead to uninformed decisions“ (de Vries u. a. 2013). Die aufgeführten Beispiele sind repräsentativ zu anderen Studien im medizinischen Sektor, nämlich sehr ambivalent. Gemein ist den meisten solcher Studien ihr künstliches Versuchsumfeld. Mit Rückgriff auf die Frage von Bonke u. a. (2014), nach möglichen Unterschieden in der täglichen Praxis, erscheinen andere Erhebungen relevanter. Dies besonders vor dem Hintergrund der medizinischen Selbsterkenntnis, dass objektive Einschätzungen in klinischen Situationen einer starken Beschränkung unterliegen (vgl. Brunelli u. a. 2013). Wie die Autoren formulieren, schätzen unterschiedlich Betroffene (Patient, Familie, Arzt etc.) beispielsweise chirurgische Eingriffe und damit auch die Risiken sehr unterschiedlich ein. Je nachdem worauf ihr Fokus gerichtet ist – Überlebenschance, Lebensqualität etc. So konstatieren sie ergänzend eine klare Tendenz zum Überschätzen von Komplikationsrisiken bei Gesunden und unterschätzen die Risiken bei Kranken – ein weiteres Bespiel für Ambiguität. Je nach Fokus lassen sich unterschiedliche Entscheidungen ableiten. Ein ähnlicher Zusammenhang in Bezug auf die Schwierigkeit objektiver Einschätzungen wurde bei einer Befragung von Hausärzten deutlich (Woolley und Kostopoulou 2013). Abgefragt wurde ihre Erfahrung mit klinischer Intuition in ihrer Tagesarbeit. Als Ergebnis ergab sich eine sehr hohe Relevanz
3.2 Unternehmensführung und strategisches Management
95
intuitiver Erkenntnisse für Behandlungen und der dringenden Empfehlung auf diese zu hören. Prinzipiell unterscheiden sie drei Formen von Entscheidungsprozessen: ‚Bauchgefühl’ (gut feelings), ‚Erkennung’ (recognitions) und ‚Einsicht’ (insights). Bauchgefühl
Erkennung
Einsicht
Das ‚Bauchgefühl’ setzen sie in Beziehung zu den Verlangsamungen, die bei Ärzten in schwierigen Operationssituationen zu beobachten sind, ohne dies erklären zu können. Die Betroffenen bekommen ein meta-bewusstes Gefühl, dass etwas nicht normal läuft und mehr Überlegung notwendig wäre oder dass etwas anderes zu tun wäre, als was ihr Kopf sagt. In 50 % aller Fälle berichteten die Interviewten von diesem Phänomen. Darüber hinaus korrelierte die Häufigkeit von Bauchgefühlen mit der Erfahrung der Ärzte, sehr passend zu Kahneman’s Beobachtungen (Kahneman 2016). Dabei hing die Häufigkeit und Richtigkeit nicht von der Länge ihrer klinischen Erfahrung, sondern von der Qualität und der Häufigkeit ihres erhaltenen Feedbacks ab. Schlechtes Feedback führte zu schlechter Intuition und vice versa. Eine Beobachtung, die noch an anderen Beispielen vorgestellt wird und mit Lernkontexten in Zusammenhang steht. Die beobachtete ‚Erkennung’ setzten sie mit Heuristiken gleich, bei denen eine Diagnose aus wenigen Informationen und sehr schnell erfolgt. Die Autoren beobachteten allerdings eine erhebliche Gefahr eines Bias aufgrund von anfänglichen automatischen Hypothesen und der wahrgenommenen Konfliktstärke zwischen sich widersprechenden Informationen. Bei ‚Einsicht’ entsteht aus ihrer Sicht eine plötzliche und schnelle innere Wahrnehmung und Klarheit, in der die verschiedenen Symptome und Anzeichen integriert sind. Hier werden keine Schlüsselreize erkannt, und es können auch keine erfolgsversprechenden Interpretationen formuliert werden; dies trotz systematischer Analysen und umfangreicher Informationssuche. Dennoch gehen sie von einem eher analytischen Denkmodell aus, bei dem Erinnerungen aus dem Langzeitgedächtnis hochkommen. Unterstützt wird diese Form von unvermitteltem inneren Erkennen durch einen verstärkten Fokus auf Lösungs- statt auf Problemsuche und dem Ausblenden irrelevanter Informationen, ergänzt mit kurzfristigem Loslassen vom Problem und eines sich dann herausbildenden ‚Aha’-Effekts.
In allen drei Varianten wird von Konflikten zwischen ihrer Intuition und gängigen rationalen Erklärungen berichtet, von denen die Interviewten auch vermuteten, dass erstere nicht von Kollegen anerkannt werden. Die Konflikte betreffen drei Formen von Intuitionen:
96
3 Wirtschaftswissenschaftlicher Zugang
1. Die Impulse, die als ‚unmöglich’ oder als ‚unwahrscheinlich’ angesehen werden. 2. Hinweise, die als außerhalb der normalen evidenzbasierten Norm liegen und nicht zur ursprünglichen Hypothese passen. 3. Hinweise, die komplex und schwierig zu formulieren sind. Insbesondere Variante (3) findet sich bei vielen der vorangehenden anderen Studien wieder. Beispiel 7: Semantische und nummerische Informationen Im Gegensatz zur verbreiteten Annahme, dass bewusste, kognitive Prozesse für abstrakte, symbolhafte oder arithmetische Aufgaben notwendig sind, konnten neuere Forschungen auch hier eine andere Erkenntnis gewinnen. Sowohl komplexe Phrasen als auch Additionen und Subtraktionen wurden mit unbewusstem Denken schneller gelöst und das sogar, wenn sie subliminal angeboten wurden (Ric und Muller 2012; Sklar u. a. 2012). Nach neueren Untersuchungen scheinen solche nummerischen Informationen für das unbewusste Denken dennoch eine größere Herausforderung darzustellen (Hasford 2014; Abadie u. a. 2013; Ashby u. a. 2011) und unterschiedlich gut bei qualitativen (besser) und quantitativen (schlechter) Informationen zu funktionieren. Qualitative Informationen zeigen die Richtung, quantitative geben den absoluten Zahlenwert an. Nur scheint auch hier die größere Herausforderung in der Wahl der richtigen Versuchsanordnung zu liegen. Im Traderbereich ergaben sich eindeutige Signifikanzen für eine unterbewusste, neuronal messbare Aktivität, die Hinweise auf die richtige Entscheidung gaben (Smith u. a. 2014). So weisen Aktivitäten des Nucleus accumbens (eine Gehirnregion im Bereich des vorderen Inselcortex71) auf Preisblasen hin noch bevor die Blase tatsächlich beobachtbar bzw. der kritische Peak mit anschließendem Absturz erreicht war – ein Teil des Gehirn konnte quasi die Zukunft vorhersehen (Abb. 16). Erfolgreiche Händler sind in der Lage, diese frühen Warnsignale zu registrieren und danach zu handeln. In der Caltech-Studie von Smith u. a. waren die Teilnehmer sehr wohl in der Lage, aus einer Vielfalt von Zahlen (auch nummerische) und Übersichten nicht nur unbewusst, sondern auch vorbewusst, die richtigen Schlüsse zu ziehen (Smith u. a. 2014) – einen Schritt weiter in den Merkwürdigkeiten unserer Verarbeitungsprozesse, als in den vorherigen Kontexten. Eine Vorgängerstudie (Bruguier u. a. 2010) war allerdings nicht in der Lage den Preis vorherzusagen, aber genauso wie bei Smith u. a. die Richtung der Preisänderungen. Die Besonderheit im Börsengeschäft ist die Abhängigkeit von anderen Markteilnehmern und deren Entscheidungen, denn Preise folgen immer einem kollektiven Verhalten; ein Umfeld, für dessen Behandlung ebenfalls die doppelte Kontingenzbedingung berücksichtigt werden muss.
71
Der Inselcortex wird bei unangenehmen körperlichen und emotionalen Zuständen aktiv. Dazu gehören Ekel, Angst oder Schmerz. Smith u. a. weisen auf Studien hin, in denen der vordere Inselcortex bei finanziellen Risiken aktiv wird und bei Varianzen in Fehlervorhersagen.
3.2 Unternehmensführung und strategisches Management
nicht erfolgreich
97
nicht erfolgreich
erfolgreich erfolgreich
Abb. 16 | Vergleich der Verkaufs- und Kaufaktivitäten (A) mit neuronalen Aktivitäten (C). (aus Smith u. a. 2014) Grafik A zeigt das Tradingverhalten von erfolgreichen (high) und nicht erfolgreichen (low) Händlern. Grafik C zeigt die Aktivitäten des vorderen Inselcortex, mit der farblichen Kennzeichnung analog A. Der Start der Verkaufsorder der erfolgreichen Händler stimmt mit ihren neuronalen Aktivitäten überein und liegt 5 bis 10 Peaks vor dem Preispeak. Sie beginnen zu dem Zeitpunkt zu verkaufen als die Aktivität ihrer Neuronen ein Maximum anstrebt. Bei den nicht erfolgreichen Händlern ist dagegen keine Korrelation zu beobachten ist. Aus Sicht von Smith u. a. bewegen sich deren neuronalen Aktivitäten um den Nullpunkt.
Conclusio zu den Experimenten aus der Entscheidungsforschung Aus obigen Beispielen lassen sich folgende relevante Einflüsse auf unsere Entscheidungen herausdestillieren: Emotionen Bewusste und unbewusste Denkprozesse Hilfreich ist die Möglichkeit unbewusster Verarbeitung Primingeffekte und maskierte Stoppsignale Muss oder muss nicht berichtet werden Nachträgliches darüber grübeln Automatismus zum Erreichen bewusster und unbewusster Ziele Erreichte Ziele führen zum Abbruch weiterer Bemühungen Notwendige Passung zwischen Richtung und innerer Haltung Eigene Intention schützt gegen Fremdlenkung Persönliche Disposition und momentane Ambivalenz kann ausgenutzt werden Bei Entscheidungen sind andere Gehirnregionen aktiv als beim Abfragen von rationalem Wissen Entscheidungen fallen vor der Bewusstwerdung und zeigen sich durch veränderte Körperaktivitäten Qualitative Informationen zeigen die Richtung an und werden besser wahrgenommen als quantitative, die den absoluten Zahlenwert angeben Nicht nur Woolley und Kostopoulou leiteten aus den Studien im medizinischen Kontext die dringende Empfehlung ab, auf intuitive Erkenntnisse für Behandlungen zu hören,
98
3 Wirtschaftswissenschaftlicher Zugang
weil sich die Richtigkeit der gefühlten Impulse in überwiegendem Maße herausgestellt hat. Zum anderen wiesen sie in ihrer Zusammenfassung auf den Umstand hin, „that little is currently known about the different types of intuitive processes and what determines their success or failure“ (Woolley und Kostopoulou 2013). Die von ihnen unterschiedenen drei Formen von Entscheidungsprozessen ‚Bauchgefühl’ (gut feelings), ‚Erkennung’ (recognitions) und ‚Einsicht’ (insights) wird im Weiteren als Orientierungs- und Klassifizierungshilfe von Phänomenen und Experimenten genutzt. Zweifel und Kritik an den bisherigen Ergebnissen Nun ist es nicht so, dass die bisher vorgestellten Ergebnisse ausschließlich Zuspruch bekämen. Reinhard’s Gruppe führen zahlreiche Untersuchungen und Metaanalysen auf, die keine oder nur geringe Signifikanzen nachweisen konnten (Reinhard u. a. 2013: 723). Eine Studie mit 4 unterschiedlichen Tests versuchte die Ergebnisse von Dijksterhuis u. a. (Dijksterhuis und Strick 2016) nachzubilden und kam dabei zu gegenläufigen Ergebnissen (Huizenga u. a. 2012), dass nämlich bewusstes Denken die Methode der Wahl wäre. Aus den Beschreibungen ist allerdings zu entnehmen, dass es teils größere Unterschiede im Setting gab. In einer weiteren Studie wurden die Ergebnisse von Reinhard u. a. (2013) versucht zu replizieren (Moi und Shanks 2015). Als Ergebnis zeigten sich die spontanen Entscheider als die Gruppe mit den besten Ergebnissen und zusätzlich traten noch deutliche Unterschiede bei Männern und Frauen auf. Aber auch hier wurden Veränderungen (aus Sicht der Autoren ‚Verbesserungen’) im Versuchsaufbau vorgenommen, was zu Konsequenzen in ihrer eigenen Bayes-Analyse führte. Sie zeigte eine Unterstützung des Versuchsaufbaus für eine Null-Hypothese. Nieuwenstein u. a. fanden bei ihrer Überprüfung der Arbeiten von Dijksterhuis weder Evidenz eines Vorteils unbewusster Denker noch die einer genderspezifischen Unterscheidung (Nieuwenstein u. a. 2015). Auffallend ist auch hier die zumindest teilweise Modifikation der Versuchsbedingungen. Zudem wird bei genauer Betrachtung ihrer Einführung ein Bias zugunsten der RCT sichtbar. Die Art ihrer Verortung von Kahneman’s Prospect-Theorie bei der RCT und ihre Wortwahl lässt Zweifel bzgl. einer neutralen Auswertung aufkommen. Sie nehmen Kahneman’s Ansatz, bei einer schwierigen Wahl sei der beste Weg vorsichtig über die Optionen und ihre Konsequenzen zu denken, ohne Bezug zu Kahneman’s (2016) zweitem Hinweis, dass System 1 (unser Unterbewusstes) zu Verzerrungen neigt. In Summe scheint ihr Anliegen zu sein, speziell die UTT von Dijksterhuis u. a. (Dijksterhuis und Nordgren 2006) zu widerlegen. Allein aus den bisherigen Ergebnissen abgeleitet scheint es sich durchaus zu rentieren, seinen Suchhorizont zu erweitern und auch Forschungen aus anderen Bereichen mit einzubeziehen, bevor man sein Urteilt fällt. Eine zusätzlicher Vorwurf, der der UTT entgegengebracht wird, ist der Ausschluss von Hilfsmitteln, wie sie heute üblich sind, z. B. Papier, Stift, Computer (Custers 2014). Custers wirft dabei die zentrale Frage auf, wie das Unbewusste in der Lage sein soll, die ‚bottom up’ erscheinende Arbeit in relativ objektiver Weise zu bewerten. Wie unser
3.2 Unternehmensführung und strategisches Management
99
Unbewusstsein an die Informationen kommt und wie es sie gewichtet, ist in der Tat ‚die Frage’, die sich stellt. Die ergänzende Forderung nach Objektivität stellt sich meines Erachtens dagegen nicht mehr, seit system-konstruktivistische und neurowissenschaftliche Forschungen dieses Unterfangen als schlichte Unmöglichkeit entlarvten. Wir können demnach nur subjektiv! Die Ergebnisse von Woolley und Kostopoulou (2013), dass intuitive Wahrnehmungen rationale Überlegungen konterkarieren und sich nachweislich als richtig herausstellen, spricht ebenfalls gegen die ausschließliche Nutzung kognitiven Denkens. Der Vorwurf, der den erfolgreichen Experimenten entgegengebracht wird, besteht in zwei weiteren Aspekten (vgl. Street und Vadillo 2016). Erstens würden sie keine Argumente gegen die ansteigende Genauigkeit vorbringen, und zweitens würden sie keine genaue Unterscheidung der Methoden vornehmen, die bewusstes und unbewusstes Denken unterstützen. Die Autoren machen neben einem möglichen Experimentator-Effekt auch ein Bias, aufgrund eines verstärkten Reportings und eines Priming-Effekts durch die UTT, verantwortlich. Wenig bis gar nicht beziehen sie Ergebnisse aus anderen Forschungsrichtungen wie den Neurowissenschaften (van Gaal u. a. 2012, 2011) oder der Intuitionsforschung mit ein. In ihren Ausführungen nehmen sie überwiegend die gleichen Autoren als Referenz heran, die sie selbst und andere Kritiker immer wieder verwenden. Stimmiger Weise stellen sie eine Zirkularität der Methoden fest, bei der erfolgreiches unbewusstes Denken nachgewiesen wurde. Dies lässt sich aus meiner Sicht vice versa auch für die Kritik an den infrage gestellten Effekten formulieren. Die Schwierigkeit in diesem gesamten Kontext scheint die wechselseitige Beeinflussung zu sein, sowohl was den Ausschluss des Unbewussten bei bewussten Entscheidungen als auch was den Ausschluss des Bewussten bei unbewussten Prozessen betrifft. Inwieweit die Kritik von Street und anderen sowie ihre alternativen Erklärungen nun angemessen oder nicht angemessen sind, ist nicht Aufgabe und Ziel dieser Forschungsarbeit. Die bisherige Recherche diente dem Sichten des aktuellen Standes der wissenschaftlichen Exkursion und den dazugehörigen Experimenten. Herausgearbeitet wurden die Aspekte, die in Bezug auf die Arbeitsweise von SyA von Bedeutung sein werden. Die Conclusio von Street u. a. teile ich (Street und Vadillo 2016). Zur Überwindung der vorhandenen Streitfragen sollten die indirekten Methoden zur Seite gestellt und bewusste Verarbeitungsprozesse eliminiert werden. Dies, um eine klare Evidenz des Vorhandenseins unbewusster Prozess zu falsifizieren oder zu verifizieren. Eine weitere Forderung der Kritiker, eine unterstützende Theorie für Effekte, wie sie im Rahmen der UTT untersucht werden, anzubieten, scheint mir ebenfalls notwendig. Genau dieses Ziel verfolgt diese Arbeit. 3.2.4
Conclusio zu Unternehmensführung und strategischem Management
Auch in Kap. 3.2.3 wurden die Hauptkategorien ‚wissenschaftliche Legitimation‘, ‚Intuition‘ und ‚Information‘ und erste ‚experimentelle Nachweise‘ aus dem Codingprozess und Hypothese 2 tangiert. Für die Anwendungsfelder ‚Strategie‘ und ‚Entscheidungen‘ lassen sich die gleichen Erkenntnisse ableiten, wie sie bereits in der Conclusio in
100
3 Wirtschaftswissenschaftlicher Zugang
Kap. 3.1 formuliert wurden, was letztlich aufgrund des unveränderten VUCA-Kontextes nicht erstaunt. Ergänzend wurde deutlich, dass die Körperwahrnehmungen in hohem Maße mit den phänomenologischen und ontologischen Gegebenheiten korrelieren und die neurologische Prägung erheblichen Einfluss und auch eine Verfälschung auf die mentale Wahrnehmung und letztlich auf die Entscheidung ausübt. Wieder erscheint das Problem, stimmig-wahrgenommene Information mit der richtigen Bedeutungsgebung zu versehen. Damit liegt wiederum ein Hinweis auf die Stimmigkeit von Hypothese 2 vor, in der eine Verbindung zwischen Intuition und Information Hinweise für Zugänge zur ontologischen Welt liefert. Rein experimentell verfestigt sich die wissenschaftliche Legitimation intuitiver Verfahren, nur wurde auch deutlich, dass ohne nachvollziehbare Theorie für einen solchen Prozess keine Legitimation zu haben ist. Das zentrale Problem sind und bleiben die ungeklärten Übertragungswege. Mit der Unterscheidung von ‚Bauchgefühl‘, ‚Erkennung‘ und ‚Einsicht‘ liegt nun eine Möglichkeit vor, die bestehenden Erklärungen zum Entstehen dieser Phänomene den drei Kategorien zuordnen zu können. Die Schlussfolgerungen nun im Einzelnen: Aus den Überlegungen zur VUCA-Welt wurde deutlich, dass sich rational-logische Vorgehensweisen nicht in ausreichender Weise für strategische Zukunftsarbeit eignen. Eine Erkenntnis, die auch bei Mintzberg deutlich herausgestellt wurde (Mintzberg 1988: 73). Er verwies in diesem Zusammenhang auf die sehr unterschiedlichen Quellen, aus denen sich strategisch-erfolgreiche Ideen speisen, die eben nicht mehr nur vom Management herkommen und von diesem schon gleich gar nicht rational-systematisch entwickelt und eingeführt werden. Ihr Ursprung ist meist zufälliger Natur und kann häufig nur aus dem Rückblick heraus als strategischer Ansatz erkannt werden. In analoger Weise, wie zum Umgang mit der VUCA-Welt, finden sich auch im strategischen Management zahlreiche Empfehlungen, für die Vorbereitung von Entscheidungen auf intuitive Vorgehensmodelle zurückzugreifen. Wenn die Steuerung einer hochdynamischen Zukunft mit Zahlen, Daten und Fakten der Vergangenheit nicht wirklich empfehlenswert ist, erscheint es sinnvoll, das bisherige Verständnis und die Definition von Strategie und strategischem Management neu zu denken. Entsprechend erscheinen mir folgende Definitionen zielführender: Eine Strategie soll die Zukunft, die mit den eigenen Zielen verbunden ist, angemessen antizipieren und die eigene Wahrnehmungsfähigkeit schärfen, um kontinuierlich die Wahrscheinlichkeit geeigneter Entscheidungen zu erhöhen.
Strategisches Management ist das Management dieses Gesamtprozesses, der sich von der Analyse über Entscheidungen bis zur Implementierung und schließlich zur kontinuierlichen Anpassung erstreckt.
3.2 Unternehmensführung und strategisches Management
101
Die Vergangenheit ist für den strategischen Prozess nur insofern relevant, als die verfügbaren Ressourcen und Fähigkeiten den Ausgangspunkt strategisch intendierter Entscheidungen und Maßnahmen bestimmen. Besonders zentral wird bei vielen Forschern auf folgende Anforderungen hingewiesen: Es geht im strategischen Management um ... Wahrnehmung von komplexen und ambiguen Situationen, was nicht nur über Vergangenheitsbetrachtungen erreicht wird. Einschätzen der Bedeutung für das betroffene System (Organisation, Bereich, Team) womit Evaluations- und Bewertungsfragen einhergehen. Entwickeln und Prüfen von Entscheidungs- und Handlungsalternativen. Will man stärker aus der Zukunft heraus agieren und das bei vertretbarem Zeitaufwand, so existiert aktuell kein wirklich brauchbares Werkzeug, das der Vielfalt dieser Herausforderungen gerecht wird. Aus der Zusammenstellung geht hervor (in gleicher Weise wie aus den Überlegungen zur VUCA-Welt), dass die Realität von Wirtschaftssystemen und deren Akteuren nur in sehr begrenztem Umfang die Rahmenbedingungen für rationale Entscheidungsprozesse, wie sie die RCT verlangt, liefert. Dies wird mit einer Zusammenstellung von Agor schnell ersichtlich, auf den sich zahlreiche Autoren beziehen (Agor 1991): „Management and Decision Making Situations Where Intuition is Most Useful When a high level of uncertainty exists. When little previous precedent exists. When variables are less scientifically predictable. When ‚facts’ are limited. When facts don’t clearly point the way to go. When analystical data are of little use such as when new trends are emerging. When several plausible alternative solutions exist to choose from, with good arguments for each. When time is limited and there is pressure to come up with the right decision.“ In den meisten Fällen müssen Entscheidungen bei Unsicherheit in komplexen Situationen, unter beschränkten Ressourcen und in sozialen Interaktionen getroffen werden. Hier lassen sich zwar mathematische Modelle und Wahrscheinlichkeitsrechnungen, wie sie Kahneman (2016) präferiert, zur Anwendung bringen, im betrieblichen Alltag dürften dem jedoch Grenzen gesetzt sein. Im Alltag liegen meist keine riesen Datenmengen vor, die über Wahrscheinlichkeitsbetrachtungen zu Lösungen führen würden. Es geht letztlich um die Frage, wie wir an Informationen kommen und wie wir selbige verarbeiten, die uns nicht oder zumindest nicht so einfach zugänglich sind. Nach der Literatur bleiben die Alternativen, die Gigerenzer ‚Bauchentscheidungen’ und ‚Heuristiken’ (Gigerenzer 2008) und die Kahneman ‚Systeme 1 und 2’ mit dem Nebeneffekt ‚kogni-
102
3 Wirtschaftswissenschaftlicher Zugang
tiver Verzerrung’ (Bias) nennen (Kahneman 2016). Als Überbegriff oder ergänzend finden sich bei beiden eine damit verbundene ‚Intuition’. Passend dazu (Dijksterhuis und Nordgren 2006): “After all, the unconscious is often much more ‘rational’ than consciousness.“ Und in Dijksterhuis und Strick als Erkenntnisse aus einer umfangreichen Literaturrecherche zu kreativem Problemlösen (Dijksterhuis und Strick 2016: 118): „The solution occurs in a flash. It may occur after a ‘rest period’, during which ideas lie fallow, and then suddenly take root and sprout” (Andreasen 2005: 48). Mit diesen Aussagen ergibt sich ein direkter Bezug zu den beiden strategischen Modellen, der ‚Strategic Intuition’ und der ‚Effectuation’, wobei letztere die manifestierte Form der ersteren zu sein scheint. Beide haben hohe intuitive Anteile, die an den gleichen Prozessstellen (zu Beginn) zur Wirkung kommen, auch wenn das EffectuationModell dies noch nicht wahrgenommen hat oder bewusst ignoriert. Es kann ja in der Tat so tun, als ob es sehr logisch und geerdet sei, was seine Akzeptanz zweifelsohne erhöht. Mit dem reinen Modell der ‚Strategic Intuition’ ist der Entscheider dagegen einer offen sichtbaren Nichterklärbarkeit und Steuerbarkeit ausgesetzt, die ihn angreifbar macht. Möglicherweise ist dies der tatsächliche Grund, weshalb das Modell des ‚Strategic Planning’ von Jomini wesentlich populärer und verbreiteter ist, als das 4-Schritte-Modell von von Clausewitz. Von Clausewitz verweigerte sich explizit einer rational-kausalen Analyse und langer Planungen in komplexen Situationen, in gleicher Weise wie es ‚Effectuation’ und die heute so populären agilen Methoden tun. Duggan bezeichnete dieses 4-Schritte-Modell als ‚Strategische Intuition’ und fasst mit diesem Begriff den Gesamtablauf zusammen, in den am Ende auch rational-kausale Überlegungen ihren Platz haben. Dominant und entscheidend ist allerdings der intuitive Part, was auch die bisherige Forschung dazu aufzeigen konnte. Somit ist an dieser Stelle zu konstatieren, dass das volle Potential der ‚Strategic Intuition’ für die Unternehmensführung und die Wirtschaft als Ganzes noch nicht ausgeschöpft scheint, sondern bewusst nur auf spezifische Kontexte wie R&D und in reduzierter Form Anwendung findet. Dies liegt möglicherweise zum einen an der Nichterklärbarkeit und damit an einer Rechtfertigungsproblematik innerhalb unserer rationalen, ökonomischen Systeme. Zum andern aber auch an einer noch offenen Fragestellung, wie diese intuitiven Fähigkeiten geschult und entwickelt werden können. Eine Bestätigung dieser Hypothese scheint die Suche nach einer Verifikation der UTT bieten zu können. Wobei es bei dieser Verifikation aus meiner Sicht nicht um den vollständigen Ausschluss bewusster Überlegungen geht, sondern um eine Relativierung des ‚überborderten’ Anspruchs auf Rationalität. Erforscht wird eine Seite der menschlichen Natur, die im westlichen Kulturkreis vollständig in den Hintergrund verbannt wurde und deren Potentiale so langsam erkannt werden. Viele Forschungen, die sich mit Entscheidungen beschäftigen, konnten eindeutig zeigen, dass unser Unbewusstes maßgeblich an der Wahrnehmung, der Vorbereitung und
3.2 Unternehmensführung und strategisches Management
103
der Ausprägung nachfolgender Entscheidungen mit beteiligt ist. Es gibt zwar unterschiedliche Varianten der unbewussten Wahrnehmung und Verarbeitung, letztlich führen sie aber oft zu einer korrekten Eingebung bzgl. Lösung oder Wahl. In der Regel werden sie als Intuition verstanden, die sich mit Woolley und Kostopoulou in ‚Bauchgefühl’ (gut feelings), ‚Erkennung’ (recognitions) und ‚Einsicht’ (insights) unterscheiden lassen. Es wird auch sichtbar, dass in bestimmten Situationen bewusstes Denken hilfreicher ist als unbewusstes. Dies trifft immer dann zu, wenn ausreichend Information und Kompetenz, diese Information richtig zu interpretieren, vorhanden ist. Die Studien aus dem medizinischen Kontext weisen dabei auf ein Grundproblem dieser Forschung hin. In einem künstlichen, nicht emotional relevanten Rahmen, scheinen die Ergebnisse wesentlich weniger Signifikanzstärke aufzuweisen als im realen Leben. In jedem Fall ist unser Unbewusstes in der Lage, sehr subtile Impulse zu registrieren und zu verarbeiten. Da auch Intentionen und Zusammenhänge erkannt werden, die keinen subliminalen Reize folgen, erscheinen einfache Erklärungen wie Schlüsselreize oder versteckte Hinweise unrealistisch oder zumindest unzureichend. Für diese Form von Wahrnehmung gibt es bisher keine Erklärungen und auch keine theoretischen Ansätze. Ein Umstand, der es westlich ausgebildeten Menschen schwerfallen lässt, die bisherigen Forschungsergebnisse anzuerkennen. Die Diskussion in der Forschungsgemeinde dreht sich im Schwerpunkt um Theorien, die das Wechselspiel von System 1 und 2 erklären soll, dem Unbewussten und dem Bewussten – im Grunde immer noch den Gedanken von Freud folgend. Derzeit gibt es keine Theorie, die das Zustandekommen mancher dieser Phänomene erklärt oder überhaupt nur versucht zu erklären, außer mit einem allgemeinen Bezug zur Intuition. Ohne Integration der bisher nicht erklärbaren Fälle von Intentionserkennung ohne subliminale Reize bleibt die Diskussion schwierig. Interessant scheint auch der Unterschied zwischen ‚unbewusstem Denken’ und ‚reiner Ablenkung’ zu sein, den Reinhard u. a. und einige der anderen Gruppen festgestellt haben (Reinhard u. a. 2013). Sie konnten den tatsächlichen Auslöser für die unterschiedlichen Ergebnisse nicht feststellen. Mit Blick aus der Perspektive der psychotherapeutischen Praxis lässt sich dieser Unterschied vielleicht dergestalt formulieren, dass die Aufmerksamkeit beim unbewussten Denken noch auf den Gesamtkontext ausgerichtet ist und mit ‚freischwebend’ beschrieben werden kann, auch wenn man nebenbei etwas anderes tut, wohingegen bei Ablenkungen die Gedanken auf ganz andere Dinge fokussieren und das, worum es geht, weitestgehend verdrängen. Diese ‚freischwebende’ oder auch ‚gleichschwebende’ Aufmerksamkeit ist genau die Haltung, die in psychotherapeutischen Ausbildungen gelehrt wird und auf Freud zurückgeht. „Es ist gar nicht unsere Aufgabe, einen Krankheitsfall gleich zu „verstehen", dies kann erst später gelingen, wenn wir uns genug Eindrücke von ihm geholt haben. Vorläufig lassen wir unser Urteil in Schwebe und nehmen alles zu Beobachtende mit gleicher Aufmerksamkeit hin“ (Freud 1906: 259). Die aktuell sehr populäre Achtsamkeitspraxis (Mindfulness) erinnert stark an dieses Konzept Freuds.
104
3 Wirtschaftswissenschaftlicher Zugang
Auffallend ist, dass sich die Empfehlungen von von Clausewitz (Duggan 2013), Roth (2007), Gigerenzer (2008), Kahneman (2016), Dijksterhuis (2006) und von den Gruppen um Messner (2011) und Nordgren (2011) sowie anderen im Wesentlichen ähneln und sich gut mit der Vorgehensweise in SyA decken. In Abb. 17 werden die verschiedenen Vorgehensempfehlungen, unter Hinzunahme des 5. Schrittes (‚Entschlossenheit’) von von Clausewitz, zusammengefasst. Es ergibt sich so schließlich ein 5-Phasenmodell für Strategiearbeit und Entscheidungsfindung, das den Start der Umsetzung mit integriert. Für Phase 5 darf das Modell der ‚Effectuation’ in vielen Situationen als ideale Vorgehensweise verstanden werden.
Sich mit dem Thema befassen
System 1 unbewusst sammeln lassen
Intuitiv Impulse wahrnehmen
Mit System 2 ggf. prüfen
Entschlossenheit und Mut
Abb. 17 | Kombiniertes 5-Phasenmodell der Strategiearbeit und Entscheidungsfindung (eigene Darstellung). Die 5 Phasen enthalten eine bewusst-rationale Auseinandersetzung mit dem Thema, einen unbewussten Such- und Sammelprozess, ein bewusstes Achten auf intuitive Impulse, eine kritisch-rationale Überprüfung und schließlich die Notwendigkeit mit Entschlossenheit und Mut in die Umsetzung zu gehen. System 1 und 2 repräsentieren den unbewussten und bewussten Teil unseres Denkens und gehen auf Kahneman (Kahneman 2016) zurück.
Phase 1 Sich erst bewusst mit einer groben Aggregation, den Rahmenbedingungen, Zielen, Daten und Regeln auseinandersetzen. Phase 2 Das unbewusst agierende System 1 sammeln lassen. Phase 3 Intuitive Impulse wahrnehmen – auf spontane, unbewusst aufkommende Richtungsimpulse/Entscheidungen achten (emotionale Übereinstimmung von Kopf und Bauch). Phase 4 Gegebenenfalls mit System 2 das Ergebnis prüfen, dabei auf kognitive Verzerrungseffekte achten. Am Ende sollten Kopf und Bauch immer noch übereinstimmen. Im Zweifel sich für den Bauch entscheiden. Phase 5 Mit Mut und Entschlossenheit, vor allem unter der Bewusstheit unzulänglicher Informationen, aber auch mit Sensibilität für weitere Veränderungen, die gewonnenen Erkenntnisse und Ideen angehen. Der ‚Effectuation’-Prozess empfiehlt sich für Implementierungsvorhaben, wohingegen in manchen Situationen ‚wahrnehmen und wirken lassen’ das Mittel der Wahl wäre. Entschlossenheit bedeutet hier aushalten oder geschehen lassen können. Letzteres benötigt manchmal mehr Mut und Entschlossenheit, als Aktionismus. Ein Zitat von Roth soll die ersten Überlegungen zu Entscheidungen abzuschließen:
3.2 Unternehmensführung und strategisches Management
105
„Die besten Entscheidungen sind bekanntlich diejenigen, mit denen wir auch nach längerer Zeit noch zufrieden sind. Dies sind diejenigen Entscheidungen, bei denen unser Verstand und unsere Gefühle bzw. Intuitionen bewusst oder unbewusst übereinstimmen“ (Roth 2007). Abgeleitet aus beruflichen Beobachtungen als Ingenieur und psycho-sozial ausgebildeter Berater und Trainer in Wirtschaftskontexten als auch aus Selbstbeobachtungen in der Auseinandersetzung mit dieser Forschungsarbeit, scheinen mir die Ansätze von von Clausewitz, Duggan (2013), Roth (2007), Kahneman (2016), Dijksterhuis u. a. (2006) mehr der wahrnehmbaren Realität zu entsprechen als die RCT-Ansätze. Im Grunde geht es, wie oben schon ausgeführt, um die Frage: Wie wir an Informationen kommen und wie wir selbige verarbeiten? Informationen, die uns nicht oder zumindest nicht so einfach zugänglich sind. Inwiefern die bisher vermuteten Zusammenhänge und Erklärungen alle Situationen ausreichend beschreiben können und für welche Situationen SyA eine Option darstellt, wird im Weiteren genauer beleuchtet. Damit erklärt sich auch das Thema dieser Forschungsarbeit und die bei den Zielen bereits vorgestellt Fragen: Können die Phänomene bei SyA als intuitive Wahrnehmung verstanden werden? Auf welchem qualitativen und verlässlichen Niveau bewegen sich Entscheidungen, die auf den Ergebnissen von SyA basieren? Welchen Beitrag kann SyA für das Problem der Kontingenz und doppelten Kontingenz im Rahmen von Entscheidungen liefern? Was muss bei der Nutzung von SyA für Entscheidungen in Bezug auf die zur Verfügung stehenden Möglichkeiten berücksichtigt werden? Wie kann der Wirkprozess von SyA und Intuition beschrieben werden? Wieweit lassen sich damit auch heute im Rahmen der Intuitionsforschung noch nicht erklärbare Phänomene (Bauchgefühle) nachvollziehen? Wenn sich nun ein erheblicher Schwerpunkt im strategischen Management um Entscheidungen dreht, diese in komplexen Umwelten jedoch nicht so einfach zu treffen sind, weil belastbare Informationen per Definition fehlen, erscheint es hilfreich, auf andere Methoden und Tools zurückzugreifen als vergangenheitsbasierte Analysen. Es benötigt Methoden und Tools, die geeignet sind, verdeckte Dynamiken zu erforschen und zukünftige Tendenzen und Möglichkeiten zu antizipieren. SyA scheinen sich hier anzubieten, weisen jedoch noch keine ausreichende Legitimation für einen offenen Umgang mit dieser Methode auf. Für viele ist derzeit auch noch unklar, wo die Grenzen ihres Anwendungsbereiches und ihrer Zuverlässigkeit in Bezug auf Entscheidungen liegen. Das folgende Kapitel wird sich deshalb der Methode der SyA und dem, was aktuell darüber bekannt ist, widmen.
106
3.3
3 Wirtschaftswissenschaftlicher Zugang
System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
Beim Treffen unternehmerischer Entscheidungen Im Folgenden werden die Unterkategorien ‚SyA‘, ‚Experiment‘, ‚Wahrnehmung‘ untersucht und mit ‚Übertragungswege‘ und ‚Strategie‘ in Beziehung gebracht. 3.3.1
Eine kurze Einführung und Orientierung zur Methode
Was versteht man unter SyA und woraus hat sie sich entwickelt? 72 Bei SyA (in ihrer spezifischen Ausprägung auch bekannt als Familien-, Organisationsoder Struktur-Aufstellung) werden unterschiedlichste Fragestellungen, Beziehungsstrukturen und Informationen in einem dreidimensionalen Raum über Repräsentanten (in der Regel Menschen) zur Darstellung gebracht (Abb. 18). Die Repräsentanten fungieren dabei als 'Resonanzkörper' für dahinterliegendes implizites Wissen 73 und bekommen Zugang zu unbekannten Informationen und Aspekten einer Fragestellung eines Fallbringers und zu tragfähigen, nachhaltigen Lösungsansätzen. Dieses Wissen macht sich über Körperwahrnehmungen und auftauchende Ideen bemerkbar und wird vom Aufstellungsleiter (Facilitator) systematisch abgefragt. Bekannt ist dieses Phänomen als sogenannte ‚repräsentierende Wahrnehmung’ (Kibéd 2013: 202; Sparrer 2002: 103), von der auch Weber als einer der Gründer sagt, dass er noch nicht versteht, wie diese repräsentierende Wahrnehmung funktioniert und wie schöpferische Impulse entstehen können (Weber und Rosselet 2016: 20).
Abb. 18 | System-Aufstellung (eigene Darstellung). Bei SyA stehen Repräsentanten für Elemente (Familien- oder Organisationsmitglieder, Ziele, Hindernisse etc.) einer Fragestellung im Raum und fungieren als Resonanzkörper für implizites Wissen.
Erstaunlich ist immer wieder, dass die Repräsentanten kein Wissen über das zu untersuchende System und Problem haben müssen, um für den Fallbringer relevante und 72
73
Die Ausführungen in diesem Kapitel wurden im Wesentlichen bereits 2015 veröffentlicht und werden teilweise wortwörtlich übernommen (Gehlert 2015a). Implizites Wissen bleibt in diesem Fall nicht ungesagt, sondern wird durch die Repräsentanten zum Ausdruck gebracht. Viel wesentlicher erscheint mir die Unmöglichkeit, eine Aussage darüber treffen zu können, wo dieses implizite Wissen herkommt.
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
107
angemessene Spiegelungen ihrer Anliegen und Systeme sowie passende Lösungen zu generieren. Nicht nur Baecker weist mit der Frage „wie Stellvertreter wissen können, was sie nicht wissen können“ (Baecker 2007: 23) auf dieses Erklärungsproblem hin. In vielen Fällen, besonders bei Mitwirkung kognitiv orientierter Repräsentanten, ist ein solches Wissen über ein zu untersuchendes System sogar hinderlich. 'System' wird hier verstanden als das, was gegenüber einem Umfeld unterscheidbar ist - also der Kontext, um den es geht (Familie, Team, Organisation, technisches Umfeld bei technischen Fragestellungen, wirtschaftliches Umfeld bei wirtschaftlichen Fragestellungen usw.). Siehe zum System-Begriff auch Karban (Karban 2015: 11–12). Grundlegende Vorarbeiten zur Aufstellungsarbeit (zunächst speziell im Kontext der Familie) gehen zurück auf … Jakob L. Moreno Virginia Satir
Ivan Boszormenyi-Nagy Milton H. Erickson Les Kardis Ruth McClendon Thea Schönfelder
Psychodrama und Soziometrie Familienrekonstruktion und -skulpturarbeit, ritueller Nachvollzug wichtiger Szenen aus der Familiengeschichte, Verwendung von Konstellationen im Familienkontext zum Darstellen von Beziehungsstrukturen kontextuelle Therapie Hypnotherapie Familienaufstellungen mit Personengruppen auf der Grundlage der Satir’schen Familientherapie zusammen mit Les Kardis Familienaufstellungen mit symbolischen Anordnungen von Figuren und anderen Gegenständen
Diese Liste ist sicher nicht vollständig, liefert jedoch Orientierung über die Richtung, aus der sich die Methodik heraus entwickelt hat. Detailliertere Ausführungen finden sich bei: (Raich 2009: 20–37; Gleich 2008: 11–14; Baumgartner 2006: 51–61; Sparrer und Kibéd 2001: 205 ff). Als Gemeinsamkeit lässt sich ein großes Interesse an (Kommunikations-)Beziehungen herausstellen, wie wir es besonders in den systemischen Ansätzen finden. Der Fokus wird auf das Zusammenspiel der Elemente untereinander gelegt, mit dem Beobachtungsschwerpunkt, wie etwas (zusammen) funktioniert - oder eben nicht funktioniert. Damit steht die Ausrichtung im Gegensatz zu Psychoanalyse (Freud) und Behaviorismus (Watson, Skinner, Pawlow), aber auch zu klassischen Ansätzen der humanistischen Denkrichtung (z. B. Maslow, Rogers, Perls), in denen Beobachtungen darüber angestellt werden, wie ein Objekt (Person oder Sache) beschrieben werden kann. In diesen klassischen Denkrichtungen gerät das einzelne Element mit all seinen Eigenschaften in den
108
3 Wirtschaftswissenschaftlicher Zugang
Blick, auch wenn dabei soziale Interaktionen und Interdependenzen mit berücksichtigt werden (Kriz 2017; Stumm u. a. 2000) Als Gründer der Methode der SyA wird Bert Hellinger angesehen, der aus den unterschiedlichen Wurzeln die heute bekannte Form der Familienaufstellung entwickelte und sie zunächst für die therapeutische Arbeit ab Ende der 70er Jahre zum Einsatz brachte. Tatsächlich schreibt er selbst, dass es die Form des Familien-Stellen schon vor ihm gab und er sie bei Thea Schönfelder, McClendon und Kadis gelernt habe (Hellinger 2018). Allerdings ist er in der Form seiner Arbeitsweise nicht unumstritten (Weber u. a. 2005: 139; Systemische Gesellschaft 2004; Vorstand der DGSF 2003). Die Erweiterung von Familien- auf Organisationssysteme erfolgte 1994 als die beiden Organisationsberater Siefer und Wingenfeld Hellinger baten die Methodik auch für Arbeits- und Organisationskontexte auszudehnen. Zu diesem Experiment wurde u. a. auch Weber (der die ersten Bücher zur Familienaufstellung herausbrachte) eingeladen. Schließlich fand das erste Seminar 1995 in Kufstein statt, in dessen Mittelpunkt das Thema ‚Aufstellungen in Organisationen’ stand (Weber und Rosselet 2016: 12–13; Weber 2001: 7–8). Die erste offizielle Tagung zu diesem Thema erfolgte 1998 in Wiesloch. In ihrer jetzigen, aktuellen Form sind SyA insbesondere mit den Namen Gunthard Weber und Matthias Varga von Kibéd / Insa Sparrer verbunden, wobei Letztere seit 1989 die „Systemische Strukturaufstellungen“ entwickeln (Sparrer 2002: 20; Sparrer und Kibéd 2001); eine Form der Aufstellungsarbeit, bei der keine Systeme, sondern „die Struktur von Systemen“ (Daimler 2008: 20) gestellt werden. Ihr Vorteil liegt in der Möglichkeit verdeckt zu arbeiten, wie es nötig wird, wenn sich Familiendynamiken in Organisationsaufstellungen zeigen, dort aber aus Schutzgründen gegenüber dem Fallbringer, diese nicht offen bearbeitet werden können. Struktur und Vorgehensweise Für alle SyA gibt es so etwas wie eine Grundstruktur (Abb. 19) mit vier Grundkomponenten, wobei in der Regel das System nicht anwesend ist. Die Mitglieder der Aufstellungsgruppe müssen wie bereits erwähnt kein Wissen über Fokus, System und Problem haben. Im Prozess der Aufstellungsarbeit selbst lassen sich drei Hauptphasen unterscheiden, in denen jeweils wichtige Unterphasen bzw. Vorgehensweisen und Regeln zu berücksichtigen sind. Diesen schließt sich die Realisierungsphase an: I Ausgangsphase auswählen und aufstellen II Übergangsphase ausprobieren III Lösungsphase neuer Zustand wird erreicht IV Realisierungsphase Umsetzung im Anschluss an die Aufstellung Je nach Ausbildungsschule gib es zahlreiche Varianten, die wechselseitig durchaus sehr kontrovers diskutiert werden.
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
109
Abb. 19 | Strukturelemente einer SyA mit Fokus = Fallbringer; Facilitator = Person, die die Aufstellung leitet; Gruppe = aus der die Repräsentanten gewählt werden; System = der Kontext, um den es geht, welches i.d.R. nicht anwesend ist. (eigene Darstellung)
Thorsten Groth (Groth 2015: 142–143) hat in Anlehnung an Sparrer, Varga von Kibéd (Sparrer und Kibéd 2001: 193–196) und Horn, Brick (Horn u. a. 2001: 52) einen eher typischen Ablauf in der Vorgehensweise einer System-Aufstellung in 12 Schritten wie folgt skizziert: 1. „Der Klient formuliert sein Anliegen. 2. Unterstützt durch den Aufstellungsleiter wählt er erst das aufzustellende System mit seinen Elementen (Team, Organisationseinheit, Abteilung, Unternehmen) und dann die Repräsentanten aus. 3. Die Repräsentanten werden gemäß dem inneren Bild des Klienten zueinander im Raum positioniert. 4. Der Klient überprüft die Aufstellung, nimmt ggf. noch Änderungen vor tritt danach in die Zuschauerposition zurück. 5. Der Leiter übernimmt die Regie und befragt nacheinander die Repräsentanten zu ihren Wahrnehmungen, Empfindungen und Bewegungsimpulsen. 6. Er lässt die Repräsentanten ihren Impulsen folgen und nimmt auch selbst Umstellungen vor. 7. Nach jeder Änderung werden die Repräsentanten wieder zu ihren Wahrnehmungen, Empfindungen und Bewegungsimpulsen befragt (v. a. wird auf Unterschiede fokussiert). 8. Dieser Prozess wird so lange wiederholt, bis eine Lösungskonstellation gefunden ist. 9. Der Klient wird in die Aufstellung gebeten, nimmt die Position seines Stellvertreters ein und erlebt sich in der Lösungskonstellation. 10. Das Lösungsbild wird überprüft, auch werden erste Umsetzungsschritte getestet. 11. Die Aufstellung wird beendet und alle Beteiligten werden aus ihren Stellvertreterrollen entlassen. 12. Ggf. folgt eine Nachbesprechung.“
110
3 Wirtschaftswissenschaftlicher Zugang
Ergänzend sei erwähnt, dass Weber im Rahmen seiner Ausbildung für das Nachfragen und Verhalten der Aufstellungsleitung im Vorgespräch folgende Empfehlungen gibt 74: Dem Klienten helfen, die Frage / das Anliegen zu formen! Eher nur Fakten! Struktur verstehen! Wenig sonstige Hintergründe, um Vorbelastungen zu reduzieren! Nicht lange Probleme beschreiben lassen, sonst glaubst Du sie auch noch! Zu Beginn Unterschiede erzeugen. Erst in der Übergangsphase in Richtung Lösungssuche gehen! Auf Steve de Shazer geht dabei eine der Leitorientierungen im Ablauf von SyA zurück: „Wir können verstehen, was ‚BESSER’ heißt,, ohne zu wissen, was ‚GUT’ heißt“ (Kibéd 2013: 204). Der Aufstellungsleiter und die Repräsentanten suchen demzufolge Konstellationen, die sich körperlich besser anfühlen als die vorangehende, was sich als hilfreich und in der Regel auch als ausreichend zur Verbesserung der untersuchten Situation und für zu treffende Entscheidungen herausgestellt hat. In der jüngeren Zeit sind einige Varianten hinzugekommen, die auf den ersten Blick wesentlich radikaler in der Vorgehensweise erscheinen. Letztlich haben sie die Empfehlungen von Weber, die Vorbelastung zu reduzieren und sich auf die Wahrnehmung ohne Zensor im Kopf zu konzentrieren, konsequent realisiert. Besonders erwähnt seien: 1. ‚Freie Aufstellungen’, bei denen die Repräsentanten nur das zu repräsentierende Element (z. B. ihr Thema, ihre Funktion oder ihre Rolle) genannt bekommen und sich dann ihren Platz selbst suchen, entsprechend ihrem inneren Gefühl. 2. ‚Doppelblindaufstellungen’, bei denen nur der Fallbringer weiß, welches System mit welchen Funktionen er wählt. Die Repräsentanten bekommen eine Nummer sonst nichts und suchen sich ebenfalls ihren Platz. Die letzten Vorgehensweisen funktionieren dann besonders gut, wenn die Repräsentanten mit der Methode der Aufstellung vertraut sind oder wenn bewusst die Möglichkeit der Voreingenommenheit ausgeschlossen werden soll. In der Regel finden diese Varianten in sich regelmäßig treffenden Gruppen statt oder in beruflichen Kontexten, in denen klare Vorstellungen darüber herrschen, wie etwas zu sein hat. Es ist sogar unnötig, dass der Facilitator oder irgendjemand anders außer dem Fallbringer Wissen über die Fragestellung oder die jeweilige Funktion, respektive Rolle, des Repräsentanten haben muss. Für alle Beteiligten ist es immer wieder erstaunlich, dass auch bei diesen Varianten treffende und teilweise sogar bessere Ergebnisse zutage treten als mit umfangreichem Vorwissen. Wie wir später noch sehen werden, haben insbesondere diese neuen Entwicklungen erhebliche Konsequenzen für mögliche Erklärungsmodelle. Vermutlich 74
Persönliche Information aus der Ausbildung (2003 - 2005)
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
111
sind diese letzten Varianten auch dafür verantwortlich, dass bis heute keine konsistente Theorie gefunden werden konnte. Bei den Rückmeldungen der Repräsentanten legen die meisten Aufstellungsschulen großen Wert darauf, dass nur Wahrnehmungen wie Gefühle und Impulse zurückgemeldet werden, nicht aber eigene Interpretationen. Dies wird von Beobachtungen gestützt, dass die Interpretationen der Repräsentanten des Öfteren nicht mit dem Wissen und dem Erleben der Fallbringer übereinstimmt. Der Fallbringer bleibt in der Verantwortung, das durch die Repräsentanten Geschilderte auf seine Situation zu übertragen. Facilitator und Gruppe sollen nur unterstützen aber nicht ihre Interpretationen für wichtiger oder stimmiger erachten. Dies ist im Grunde auch einer der Kernkritikpunkte an Hellinger’s Vorgehensweise. Als wichtiges Phänomen muss auch die unterschiedliche Art (Bilder, Sätze, Gefühle etc.) und Intensität des Ausdrucks von Wahrgenommenem als auch deren Kommunikation angesehen werden (Arnold 2017: 26). Dieses Wahrgenommene hat nichts mit einem Rollenspiel oder Theater zu tun und es gibt auch nichts für den Repräsentanten zu lernen (vgl. ebd. 27). Zu diesen letzten Ausführungen gibt es in der Aufstellungsszene allerdings sehr unterschiedliche Ansichten. Welche dieser Sichtweisen wahrscheinlicher zutrifft, soll in Kap. 8.3 im Rahmen der Neurowissenschaften noch ausführlich untersucht werden. Phänomene, die in der Aufstellungsarbeit auftreten und offene Fragen aufwerfen sind u. a.: Die Repräsentanten bekommen teilweise massive Körperreaktionen, die nicht zu ihnen gehören, sondern eindeutig dem zuzuordnen sind, was jeweils repräsentiert wird und nach der Aufstellung wieder vollständig verschwinden. 75 Die Aufstellungsgruppe generiert Informationen, die keiner der Mitglieder wissen kann (auch und gerade bei den beschriebenen Blindaufstellungen), aber mit dem zu untersuchenden System korrelieren - nicht nur über Beziehungskonstellationen, sondern auch zu abstrakten, betriebswirtschaftlichen oder technischen Fragen wie strategische Ausrichtung, Entscheidungssituationen, technische Problemstellung etc.76 Es kommen Ereignisse aus der Vergangenheit und versteckte Dynamiken zum Vorschein, die die Fallbringer nicht oder nicht bewusst kannten.77 Die Lösungsbilder am Ende des Aufstellungsprozesses stellen Zukunftsbilder dar, die tatsächlich einen erheblichen Grad an Realisierungswahrscheinlichkeit aufweisen.78
75 76 77 78
Zahlreiche Beispiele in Kap. 3.3.3 Zahlreiche Beispiele in Kap. 3.3.3 Beispiele 1 und 2 in Kap. 3.3.3 Mehr dazu im Kap. über bisherige universitäre Forschung (Weinhold u. a. 2014).
112
3 Wirtschaftswissenschaftlicher Zugang
Spukhafte (unerklärbare) Fernwirkung79: Menschen, die nicht bei der Aufstellung dabei waren und auch keinen direkten Kontakt zu den Teilnehmern der Gruppe haben, reagieren von sich aus auf das Lösungsbild, z. B. durch Kontaktaufnahme innerhalb weniger Minuten und Stunden nach der Aufstellungsarbeit - obwohl bis dahin über Jahre kein Kontakt mehr bestand. Gute Ergebnisse in der Aufstellung entstehen nur dann, wenn eine entspannte Aufmerksamkeit vorhanden ist und auf logisch rationales Denken verzichtet wird.80 Im ersten Punkt dieser Aufzählung findet sich der direkte Bezug zur geforderten ‚Körperlichkeit’ von Kingsinger und Walch. Sie forderten bei Entscheidungen in komplexen Situationen auch intuitive Körperwahrnehmungen mit einzubinden. Dass wir mit SyA ein diesbezüglich stimmiges Verfahren in der Hand halten, wird mit der Betrachtung aktueller Einsatzbereiche deutlich. Arnold betrachtet diese Form von repräsentativer Wahrnehmung als eine erweiterte Form menschlicher Wahrnehmung und damit ‚Körperlichkeit’, vergleichbar mit Infraschall < 16 – 20 Hz (unterhalb der menschlichen Hörfähigkeit) und Ultraschall > 16 kHz (oberhalb der menschlichen Hörfähigkeit) (vgl. Arnold 2017: 31). Auch sie weist darauf hin, dass es noch keine Antwort auf die Funktionsweise repräsentierender Wahrnehmung gibt und diese derzeit noch erforscht wird (ebd.). Einsatzbereiche von SyA Ausgehend vom deutschsprachigen Raum, in dem diese Methode mittlerweile eine sehr große Anwendungsvielfalt erlebt, wird sie seit einiger Zeit in alle Teile der Welt verbreitet. Die Spanne der aktuellen Einsatzbereiche (Abb. 20) ist fast unüberschaubar und ist selbst vielen Kennern der Aufstellungsszene nicht bewusst. Es ist unerheblich, ob sich die Unternehmensführung mit ihrer Zielsetzung auf Entwicklung, Vertrieb und Märkte, Qualität, Finanzen oder Nachhaltigkeit fokussiert. Alle diese Themen sind auf der Basis systemischer Prinzipien in Organisationen zu integrieren (Arnold 2017: 27). Die Handlungen und Entscheidungen bewegen sich in einem Kontext, der sich per se als hoch komplex darstellt und Tools benötigt, die Probleme schnell identifiziert, strukturiert und daraus abgeleitet schnelle Lösungsansätze generiert (ebd. 69). SyA bietet sich hier als neues und sehr kraftvolles Tool an: „System constellations permit both a deep look into the informal structures and relationships of institutions and social structures as well as the testing of interventions or different solution options with regard to their effects” (ebd.). “Findings, implementation options, conclusions and other results from work with systemic constellations are often not attainable by a pure study of documents, interviews or an empirical survey, at least not at a comparable speed“ (ebd. 70). 79 80
Beispiel 3 in Kap. 3.3.3 Eigene Erfahrungen und die Beispiele in Kap. 3.3.3 mit Blind- und Doppelblindaufstellungen.
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
113
Abb. 20 | Aktuelle Einsatzbereiche von SyA Die Grafik zeigt die Einsatzbereiche positioniert in einer Matrix nach den Kriterien 'bewährt' - 'innovativ' vs. 'Business' - 'Persönlichkeit'. Erstellt von Sachs-Schaffer (Sachs-Schaffer 2010), überarbeitet und erweitert von Thomas Gehlert (2016).
Der immer stärkere Einsatz von SyA im organisatorischen Kontext steht vermutlich in direktem Zusammenhang mit den (intuitiven) Erkenntnissen bei Entscheidern und Verantwortlichen, wie sie auch von Sahm und R. K. von Weizsäcker vor kurzem veröffentlicht wurden (Sahm und von Weizsäcker 2016). Auch diese stellten fest, dass in hoch komplexen Kontexten intuitive Verfahren für schnelles Lernen, gute Entscheidungen und kostengünstiges Vorgehen besser sind als rationale, zeitintensive Verfahren. Selbst im akademischen Kontext finden sich mittlerweile zahlreiche Einsätze auf dem Gebiet der Lehre, der Forschung und der Interaktion mit Instituten (Arnold 2017: 62). Wie bereits herausgearbeitet wurde, wird Komplexität als eine der zentralen Kategorien in der VUCA-Welt angesehen. Komplexität, die sich in allen oben aufgeführten Einsatzbereichen findet. Entsprechend führten Weber und Rosselet auf die Frage aus, was Klienten suchen, wenn sie Organisationsaufstellungen machen wollen: „Ich hätte gern Unterstützung bei einer Entscheidungsfindung“, „Ich plane, ein Unternehme oder Institut zu gründen, und möchte das mal aufstellen“, wir haben “Schwierigkeiten, eine Dienstleistung zu vermarkten“ (Weber und Rosselet 2016: 15–17). Nach ihnen stecken
114
3 Wirtschaftswissenschaftlicher Zugang
die Kunden „in einer Situation fest, die von mehrdeutiger Information, Komplexität und Turbulenz geprägt ist. [...] Oft haben sie bereits vergeblich versucht, das Problem mit ihrer gewohnten betriebswirtschaftlichen Methode zu lösen“ (Weber und Rosselet 2016: 19). Dass SyA für diese Herausforderung durchaus ein geeignetes Instrument sein kann, zeigen verschiedenste wissenschaftliche Untersuchungen, die im Kap. 3.3.2 ‚Bisherige universitäre Forschung zur Aufstellungsarbeit’ eingehend vorgestellt werden. Auf einige sei bereits hier hingewiesen: Für den Zusammenhang von Komplexität, Entscheidungshilfen und SyA (Lehmann 2006); für Innovation und SyA (Wilhelmer 2009); für Organisations-Aufstellung als innovatives Managementkonzept (Berreth 2009). Wie aus der Übersicht der Einsatzbereiche hervorgeht, scheinen sich derzeit annähernd 100 % der SyA auf Kontexte zu beziehen, in denen Menschen und deren Reaktionen Gegenstand der Untersuchungen sind. Damit lassen sich SyA eindeutig im psychosozio-ökonomischen Kontext verorten. Vertiefen wir den Beobachtungsfokus, so wird jedoch sichtbar, dass nicht nur Menschen, sondern auch abstrakte Elemente wie Ziele, Hindernisse, Organisationsstruktur, Finanzsysteme und vieles mehr durch Stellvertreter repräsentiert werden. Beispielhaft das Format ‚7 Aspects’ von Gerhard Stey, das er anlässlich einer Konferenz vorstellte und mit dessen Hilfe sich ökonomische Systeme ganzheitlich erforschen lassen: 1. Soziales Subsystem (Mensch) 2. Technisches Subsystem 3. Politisches Subsystem (formale und informale Wege, um zu Entscheidungen zu kommen) 4. Produkt – Markt – Kunden Subsystem 5. Ökonomisches Subsystem 6. Kulturelles Subsystem 7. Ziel Herausgestellt wird noch einmal, dass diese SyA zum Teil in Form von Blindaufstellungen erfolgen, bei der den Repräsentanten das Element, für das sie standen, nicht bekannt war. 3.3.2
Bisherige universitäre Forschung
Was bisher erforscht wurde und was nicht Ausgehend von verschiedenen wissenschaftlichen Forschungsergebnissen im Rahmen von Universitäten sowie von eigenen Erfahrungen der letzten 20 Jahre scheint die These nicht unbegründet, dass die Reproduzierbarkeit und Verifizierbarkeit von Ergebnissen der Aufstellungsarbeit so signifikant sind, dass es sich nicht um reine Zufallsergebnisse handeln kann. Entsprechendes zeigen auch 300 Aufstellungen, die sich mit der Schnittstelle Wissenschaft und Praxis beschäftigen (Müller-Christ und Pijetlovic 2018). Die Autoren stellen dabei fest: „Die Qualität der Positionierungen und Äußerungen liegen
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
115
aber näher an Wissen als an Spekulationen oder Raten. Genau dieser Unterschied wird von Menschen, die im Spannungsraum von Rationalität und Intuition ganz auf die Rationalität fixiert sind, mit viel Skepsis begleitet“ (ebd. 159). Die Skepsis rührt daher, wie sie weiter schreiben, dass „Informationsverarbeitungsprozesse allein als ein kognitiver Prozess des Gehirn modelliert“ werden, was repräsentierende Wahrnehmung in verdeckten Aufstellungen als unfassbar erscheinen lässt. Solange Informationsverarbeitungsprozesse allein als ein kognitiver Prozess des Gehirns modelliert sind, sind die Prozesse repräsentierender Wahrnehmung unfassbar: „Etwas mitzuteilen, was vorher nicht im bewussten oder unbewussten Speicher des Menschen abgelegt war, kann in diesem Weltbild nicht möglich sein“ (ebd.). Nun fordern Rationalität und Vernunft eine intersubjektive Nachvollziehbarkeit von Entscheidungen und Handlungen und unterliegen somit einem Legitimationszwang (ebd. 150). Dies trifft besonders auf Manager zu, die über das Geld anderer verfügen können. Sie sind gehalten, einen logisch-rationalen Nachweis für ihre Entscheidungen zu liefern. Ein solcher Nachweis hängt sowohl in der Wirtschaft als auch in der Wissenschaft von der Verwendung anerkannter methodischer Entscheidungs- und Erkenntniswege ab (ebd. 151). Es ist deshalb nicht verwunderlich, dass eine zunehmende wissenschaftliche Auseinandersetzung mit SyA zu beobachten ist. Die bisherigen Ergebnisse werden im Folgenden eruiert. Die wissenschaftliche Überprüfung der Methode findet mittlerweile an zahlreichen Universitäten und Fakultäten statt, so beispielsweise in zeitlicher Reihenfolge: Kassel (Wesseler u. a. 2003) Fachbereich Ökologische Agrarwissenschaften St. Gallen (Gminder 2005) Hochschule für Wirtschafts-, Rechts- und Sozialwissenschaften Witten-Herdecke (Schlötter und Simon 2005) Wirtschaftswissenschaften Zürich (Lehmann 2006) Philosophie Kassel (Faulstich 2006) Sozialwesen Basel (Berreth 2009) Wirtschaftswissenschaften WU Wien (Fasching 2009) Verhaltenswissenschaftlich Orientiertes Management Innsbruck (Raich 2009) Pädagogik Klagenfurt (Wilhelmer 2009) Interdisziplinäre Forschung und Fortbildung Heidelberg (Weinhold u. a. 2014) Psychologie Darmstadt (Gutmark 2014) Institut für Psychologie Arbeits-, Betriebs- und Organisationspsychologie WU Wien (Kopp 2016, 2013; Galla u. a. 2008) Nachhaltigkeitsforschung, Ausund Weiterbildung, Risikomanagement Bremen (Müller-Christ und Pijetlovic 2018; Müller-Christ und Hußmann 2015; Scholtz 2015) Wirtschaftswissenschaften, Erkenntnisgewinnung in der Lehre, nachhaltiges Management
116
3 Wirtschaftswissenschaftlicher Zugang
Nachfolgend ein tabellarischer Überblick zu den aufgeführten Universitäten und den dort vorgenommenen Arbeiten (Tab. 6): Tab. 6 | Forschungsarbeiten und Inhalte zu SyA *Die Beschreibungen wurden i. d. R. unverändert aus den Originalarbeiten übernommen. (eigene Darstellung)
Autoren
Thema / Fakultät*
Matthias Wesseler (Wesseler u. a. 2003)
SyA als innovatives BeraSyA wurden im Kontext der tungsinstrument im ökologi- Landwirtschaft erprobt und auf schen Landbau Wirkungen untersucht.
Uni Kassel in Zusarb. mit Uni Gießen Carl Ulrich Gminder (Gminder 2005) Uni St. Gallen Peter Schlötter (Schlötter und Simon 2005) Uni Witten/Herdecke Katharina Lehmann (Lehmann 2006) Uni Zürich Jörg Faulstich (Faulstich 2006) Uni Kassel Cornelia Fasching (Fasching 2009) WU Wien
Schwerpunkt*
Diss: Nachhaltigkeitsstrategien systemisch umsetzen: Eine qualitative Exploration der Organisationsaufstellung als Managementmethode Diss: Empirische Studie zur Semantik in Systemischen Aufstellungen
Bedeutung von Organisationsaufstellungen bei der Umsetzung von Nachhaltigkeitsstrategien.
Diss: Umgang mit komplexen Situationen. Perspektivenerweiterung durch Organisationsaufstellungen Dipl. Arbeit: Aufstellungen im Kontext systemischer Organisationsberatung Dipl. Arbeit: Aufstellungen in Systemen Unterschiede in Theorie und Anwendung von Aufstellungsmethoden aus der Erfahrungswelt österreichischer Aufsteller
Nützlichkeitsuntersuchung von Organisationsaufstellungen im Umgang mit komplexen Situationen für Führungskräfte und Organisationsberater. Suche nach einer theoretischen Grundlage mit dem Fokus auf ein systemisch-konstruktivistisches Organisationsverständnis. Untersuchung in Bezug auf Umsetzung und/oder Anpassung gelernter Methoden.
Empirischer Nachweis, dass SyA keine Zufallsprodukte sind.
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
Autoren
Thema / Fakultät*
Andrea Berreth (Berreth 2009)
Diss: Organisationsaufstellung und Management
117
Schwerpunkt*
Untersuchung, wie Organisationsaufstellungen als methodische Innovation im Management Uni Basel eingeführt werden kann. Untersucht wird die Neuerungsdynamik in Organisationen. Karin Raich Diss: 1) Was betrachten ExpertInnen (Raich 2009) Nachhaltigkeitsfördernde als relevante, die Nachhaltigkeit Faktoren bei systemischen des Aufstellungsprozesses unterUni Innsbruck Aufstellungsverfahren stützende Faktoren? - Vor, wähExpertInnen- und Klienrend und nach der Aufstellung. tInnensicht insbesondere 2) Welche Faktoren haben die am Beispiel von klassiKlientInnen vor, während und schen SyA und Dialonach dem Aufstellungssem. als gisch-Systemischer Aufnachhaltigkeitsfördernd erlebt? stellungsarbeit 3) Welche Folgerungen lassen die in der Forschungsarbeit gewonnenen Hinweise von KlientInnen und ExpertInnen zu? Doris Wilhelmer Diss: Einsatz der Methode im Rahmen (Wilhelmer 2009) Erinnerung an eine besvon Innovationsberatung. sere Zukunft. Syntax für Uni Klagenfurt eine komplementäre Innovationsberatung Benny J. Gutmark Diss: Eine empirische Untersuchung (Gutmark 2014) Systemische Aufstellunzur Wirksamkeit von Organisatigen im organisationalen onsaufstellungen. TU Darmstadt Kontext Jan Weinhold, Die Heidelberger Studie Nachhaltigkeitsaspekte bei AufAnnette Bornhäuser, zu SyA stellungen im Rahmen eines psyChristina Hunger, chotherapeutischen Kontextes Jochen Schweitzer 1. „Allgemein“ psychotherapeu(Weinhold u. a. tische Wirksamkeit – Auswir2014) kungen auf psychische Befindlichkeiten und Belastungen. Uni Heidelberg 2. „Interventionsspezifische“ Wirksamkeit – treten Wirkungen dort auf, wo man sie erwartet. 3. „Subjektive“ Wirksamkeit – Grad der Erreichung interpersonaler Ziele.
118
Autoren
3 Wirtschaftswissenschaftlicher Zugang
Thema / Fakultät*
Georg Müller-Christ Forschendes Lehren und (Müller-Christ und Lernen mithilfe von SyA Hußmann 2015) und systemischen Visualisierungen im BachelorstuUni Bremen diengang Betriebswirtschaftslehre
Alexia Scholtz (Scholtz 2015) Uni Bremen
Ursula Kopp (Galla u. a. 2008) (Kopp 2013) (Kopp 2016) WU Wien
Diss: Das Potenzial der Fleischwirtschaft für Nachhaltigkeit: Eine Beziehungsanalyse mithilfe von SyA
Diss: SyA als Instrument im operativen Management und in der Managementausbildung zum Erfassen komplexer sozialer Systeme
Georg Müller-Christ Komplexe Systeme lesen: Denis Pijetlovic Das Potential von SyA in (Müller-Christ und Wissenschaft und Praxis Pijetlovic 2018) Uni Bremen
Schwerpunkt* Im Rahmen einer Projektförderung wurde im Fachgebiet Nachhaltiges Management mit dieser Methode in Lehrveranstaltungen experimentiert, um den Studierenden komplexe Zusammenhänge besser vermitteln zu können und einen gemeinsamen Lern- und Forschungsprozess von Lehrenden und Studierenden zu ermöglichen. Mithilfe von SyA wird das System Fleischwirtschaft und dessen Möglichkeiten für eine nachhaltigere Ausrichtung untersucht. Die Methode der SyA wird theoretisch erschlossen und ihre Anwendung in der Generierung von Hypothesen über Veränderungsmöglichkeiten in einem System exploriert. 1. Evaluierungen (Programmakteursaufstellungen – Erste Erfahrungen mit SyA in theoriebasierten Evaluationen). 2. Systemische Nachhaltigkeitskompetenzen für Führungskräfte. Erfahrungen mit Aufstellungsarbeit in der Managementaus- und Weiterbildung. 3. Risikobewertung (Easier Identification of Risks and Uncertainties with Project Risk Constellations.) Reflexionen und Erfahrungen zu SyA in der Lehre, bei der Visualisierung von Komplexität und als Simulation von Interventionen.
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
119
Nutzen- und Nachhaltigkeitsforschung Die meisten dieser wissenschaftsbasierten Forschungen im Zusammenhang mit SyA beschäftigten sich dabei mit Nutzen- und Nachhaltigkeitsuntersuchungen. Als eine der wichtigsten kann vermutlich die Arbeit von Weinhold und Kollegen angesehen werden, die Nachhaltigkeitsaspekten bei Aufstellungen im Rahmen eines psychotherapeutischen Kontextes nachgingen (Weinhold u. a. 2014). Sie stellten die Frage nach einer Erfolgskontrolle, ob sich die Ergebnisse aus den System-Aufstellungen in der Umsetzung als relevant oder nachhaltig darstellen lassen. Sie soll deshalb auch stellvertretend für die anderen Forschungsarbeiten hier näher betrachtet werden. Die Forscher haben 2011, in einer randomisiert-kontrollierten Wirksamkeitsstudie (randomized controlled trial – RCT) versucht, drei Wirksamkeitskriterien zu prüfen. Zum Ersten die Wirksamkeit von Aufstellungsseminaren auf psychische Befindlichkeiten und Belastungen. Zum Zweiten die Wirkung auf eine Veränderung eines Systems bzw. des Systemerlebens des Aufstellenden und zum Dritten den Erreichbarkeitsgrad der individuellen Anliegen und Ziele. Diese Arbeit wurde im Rahmen eines kulturwissenschaftlichen Forschungsvorhabens als Teilprojekt „Rituale in Systemen: Zur Dynamik von Familien- und Organisationsaufstellungen“ an der Universität Heidelberg durchgeführt und von der Deutschen Forschungsgemeinschaft unterstützt. Als Ergebnis wurden drei Teilaspekte untersucht: Die RCT-Studie, eine kumulative Studie und eine 8- und 12-Monats-Katamnese und damit eine kritische Beschreibung des Nachhaltigkeitsstandes im Anschluss an die Aufstellungsseminare. Die Gesamtstichprobe umfasste 208 Menschen aus der Allgemeinbevölkerung. „Im Durchschnitt der Teilnehmer wurden positive Veränderungen der psychischen Gesundheit im Erleben der ihnen wichtigsten sozialen Systeme (Familien und Paarbeziehungen) und in der Erreichung ihrer wichtigsten persönlichen Ziele für diese Aufstellungsseminare“ gemessen. „Diese positiven Veränderungen waren dauerhaft 4, 8, und 12 Monate später noch nachweisbar“ (Weinhold u. a. 2014: 197). Insbesondere bei der ‚individuellen Zielerreichung’ konnten sehr große Effekte gemessen werden. Über 80 % der Teilnehmer zeigen bessere Werte als die Vergleichsgruppen. Im Bereich ‚psychischer Gesundheit’ wurden bei 60 - 70 % der Teilnehmer und im Bereich ‚Erleben von Systemen’ bei 70 - 80 % der Teilnehmer Verbesserung gegenüber den Vergleichsgruppen erzielt. In Bezug auf die psychische Gesundheit ist anzumerken, dass nur Teilnehmer in das Programm aufgenommen wurden, die sich als ‚gesund’ beschrieben und nicht psychisch auffällig waren. Insofern war es den Autoren auch nachvollziehbar, dass in dieser Rubrik der psychischen Gesundheit relativ gesehen nur kleine Effekte zu beobachten waren. In einer weiteren Katamnese 2016 (Hunger u. a. 2017), 5 Jahre nach den Aufstellungsseminaren, wurde ein weiteres Mal die Stabilität der Verbesserungen eruiert. Es nahmen noch 137 Befragte an der Erhebung teil. Bei der ‚psychischen Gesundheit’ wurde ein leichter Rückgang der Verbesserung gemessen, ohne allerdings den Ausgangswert vor den Aufstellungsseminaren zu erreichen und blieb damit weiterhin im niedrig signifikanten Bereich. Wohlgemerkt, es handelte sich um prinzipiell gesunde
120
3 Wirtschaftswissenschaftlicher Zugang
Versuchsteilnehmer und nicht um Personen mit Depressionen, Ängsten etc. Insofern waren keine größeren Veränderungen zu erwarten. Rubrik zwei, das ‚Systemerleben’, blieb auf gleich gutem Niveau wie 4 Monate nach den Aufstellungen. Eine, für die Forscher überraschende, weitere deutliche Verbesserung ergab sich in der dritten Rubrik, ‚dem Erreichbarkeitsgrad der individuellen Anliegen und Ziele’. Die letzte Rubrik erreichte nach 5 Jahren ihren höchsten Wert. Die 3-Tages-Aufstellungsseminare erwiesen sich damit als ausgesprochen beständig und langzeitwirksam. Ausdrücklich darauf hingewiesen wurde, dass sie keine Aussagen darüber machen können, wie diese Wirkungen zustande kommen. Die von Gutmark (2014) erfolgte Forschung (113 Personen aus unterschiedlichen Unternehmen) zeigt, ergänzend zu den auch dort festgestellten nachhaltigen Verbesserungen in Bezug auf die angestrebten Aufstellungsziele, vor allem eine Verbesserung in Bezug auf den ‚Handlungsraum’. Seine diagnostizierte Stimmigkeit führt er auf den Gewinn von größerer Klarheit über organisationale Probleme sowie den dazu gefunden Lösungsoptionen zurück (ebd. 150). Dies lässt den direkten Zusammenhang mit einer verbesserten Grundlage für angemessene Entscheidungen vermuten. Gutmark (ebd. 156) bestätigt in der Interpretation seiner Ergebnisse explizit die Resultate von Höppner (2006) und (Weinhold u. a. 2014). Ergänzend weist auch er auf zwei Sachverhalte hin: Zum einen wird nicht auf die Frage der Wirkprinzipien eingegangen, „weil dazu bisher keine empirischen Studien vorliegen“ (Gutmark 2014: 39) und zum zweiten ist es unklar, „welche Teilprozesse dieser kognitiven und motivationalen Umstrukturierung für die Veränderungen maßgeblich sind“ (ebd. 158). In seinen Ausführungen erscheint mir nur der Zusammenhang von Wirkprinzipien und empirischen Studien missverständlich zu sein, da Wirkprinzipien nach theoretischen Modellen verlangen, die dann in empirischen Studien verifiziert werden können, aber nicht umgekehrt. Ergänzend und besonders für die Rolle von SyA in Bezug auf Entscheidungen interessant, ist das Fazit das Berreth aus ihrer Forschung zieht. Sie begleitet die Einführung der SyA-Methode bei verschiedenen Unternehmen über fünf Jahre hinweg. In ihrem Fazit kommt sie zu mehreren relevanten Schlüssen (Berreth 2009): 1. Die Methode fand gute Akzeptanz für das „Abtesten, Überprüfen und Bestätigen von Entscheidungen“ (ebd. 232). 2. Die Methode kann „in komplexen Entscheidungssituationen und vor allem bei unentscheidbaren Fragen als Sicherheit generierender Entscheidungsoperator eingesetzt werden“ (ebd.) und dem Management eine Bestätigung für das geplante Handeln liefern. 3. Die Methode kann die „Entwicklung von strategischen Szenarien und Optionen“ unterstützen und einen Beitrag zur erfolgreichen Gestaltung strategischen Wandels liefern (vgl. ebd. 235-236). 4. Die Verbreitung und Akzeptanz der Methode beim Management hängt nur mittelbar von ihrem Nutzen ab. Entscheidend für ihren Einsatz ist der „Anschein an Rationalität“. Eine SyA durchzuführen muss als Managementhandeln gelten können, dessen Rationalität nicht infrage gestellt wird“ (vgl. ebd. 230).
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
121
5. Es bedarf einer methodischen (Formate) und kommunikativen Anpassung (z. B. ‚Experiment’ statt ‚Aufstellung’) an bestehende Praktiken und Logiken des Managements und sollte sich entlang der Bedürfnisse des Managements entwickeln (vgl. ebd. 231-133). Sie bestätigt somit die Nützlichkeit für strategische Fragen und Entscheidungssituationen als auch die Notwendigkeit einer Legitimation, die nicht nur über den direkt ableitbaren Nutzen zu bekommen ist. Dass SyA mittlerweile sehr breite Anwendung in Unternehmen finden, zeigte die in der Einleitung erwähnt Tagung zu Organisationsaufstellungen81. Die vorgetragenen Beispiele von Siemens, Mercedes, RWE und anderen, incl. der Involvierung der Vorstandsetagen belegen diesen Trend. Dort ging es um die gleichen Einsatzbereiche wie sie Berreth (2009) untersuchte. Informationswahrnehmung in Lehre und Forschung Aus den vorliegenden Arbeiten stechen die neuen Forschungen und Anwendungen von Müller-Christ heraus. Er nutzt den „intuitiv-systemischen Charakter“ (Müller-Christ 2016b: 285) von SyA zur Unterstützung von Lehren und Lernen, bei der nicht über, sondern mit der Methode geforscht wird. Gleichzeitig versucht er das „technologischnormative Forschen in der Betriebswirtschafts- und Managementlehre“ (ebd. 286) aufzubrechen. Seiner Meinung nach bedarf es dringend komplexe, handhabbare Instrumente zur Erforschung vielschichtiger und dynamischer Institutionen, wie es die SyA liefert und es bedarf der Intuition um die Komplexität zu erfassen (vgl. Müller-Christ 2016a: 93). Müller-Christ sucht nach Möglichkeiten Studierenden, analog zu den SyA im Kontext der VUCA-Welt, Führungs- und Managementkompetenz in komplexen, unsicheren, unbeständigen und widersprüchlichen Umfeldern, wie es die heutige Unternehmenspraxis mit sich bringt, zu vermitteln (vgl. Müller-Christ und Hußmann 2015). Angestrebt wird das Lernen über Bilder und das Verstehen von Beziehungen, beides Rahmenbedingungen, für die sich SyA gut eignen. Beispiele sind Beziehungen zwischen Unternehmen und Stakeholder oder zwischen abstrakten Entscheidungsprämissen (Wirtschaftswissenschaften) genauso wie Beziehungen zwischen Bauteilen eines Aggregats (Ingenieurwissenschaften) oder Algorithmen (Informatik). Auf einer Skala von 1 (trifft voll zu) bis 6 (trifft nicht zu) wurde ihr Verständnis und ihre Reflexionsfähigkeit im Durchschnitt um 1,6 Stufen verbessert. Gelernt wird hier nicht nur rational-kognitiv, sondern sensorisch-körperlich. Er geht in seinen Arbeiten jedoch über den Beziehungsaspekt hinaus und schließt die Möglichkeit der SyA als Kontextpartitur, als Darstellung von holarchischen Entwicklungen und als sozialwissenschaftliche Auswertungsmethode mit ein (vgl. Müller-Christ 2016a). Neben der Verbesserung von Verständnis und Reflexionsfähigkeit zeigte sich auch eine erhebliche Übereinstimmung der Abbildungs81
Und wohin ziehen die Drachen nun? Internationale Tagung für OrganisationsaufstellerInnen, 20 Jahre Organisationsaufstellungen – 15 Jahre infosyon e.V., vom 26. bis 28. April 2018 in Wiesloch, https://infosyon.com/veranstaltungen/rueckschau/
122
3 Wirtschaftswissenschaftlicher Zugang
güte des Originalsystems durch die Repräsentanten mit der inneren Konstruktion der Fallbringer. Auf einer Skala von 1 – 10 lag die Zustimmung fast immer bei 7 – 10 und nicht selten sogar bei 11 – 12 und damit deutlich über den Erwartungen der Teilnehmer selbst (Müller-Christ und Pijetlovic 2018: 159). Diese Ergebnisse wurden ausschließlich mit doppelt verblindeten Aufstellungen erzielt, bei denen die Repräsentanten weder das Thema noch das Systemelement kannten, für das sie standen und somit auch keine Orientierungsrahmen für ihre Wahrnehmung und deren Interpretation hatten. In der qualitativen Sozialforschung geht es um das Innere von Erkenntnisobjekten, die von außen nicht sichtbar sind und üblicherweise mitgeteilt und vom Forschenden interpretiert werden müssen. Diese Tiefenstruktur nimmt Müller-Christ auch bei nichthumanen Elementen an. SyA hier einzusetzen macht insofern Sinn, als aus den Forschungen zu Entscheidungstheorien wie beschrieben bekannt ist, dass qualitative Aspekte besser unbewusst wahrnehmbar sind als numerische/quantitative. Faszinierend und stimmig erscheint mir dazu seine Aussage: SyA „bieten nun die Möglichkeit, nichthumane Entitäten zu einer Mitteilung zu bewegen. Menschen [...] erfahren über ihre repräsentierende Wahrnehmung Informationen über die Elemente“ (Müller-Christ 2016a: 75). Eine Mitteilung setzt Information voraus, die erkannt und interpretiert werden muss; Information, die hier über soziale Systeme und soziales Wissen hinausgeht. Welche Information wird hier erkannt und wie wird sie gelesen? In seinen Forschungen stellte er fest, dass selbst eine prototypische Aufstellung82 zu einem Projekt nicht exakt wiederholt werden kann. Wiederholungen der gleichen Aufstellung mit anderen, aber ebenfalls verdeckten Repräsentanten produzierte ein annähernd gleiches Anfangsbild, das sich während der Prozessarbeit dann allerdings in eine andere Richtung bewegen kann (vgl. ebd. 78). Informationswahrnehmung in der empirischen Sozialforschung Dieser Wiederholbarkeit der Informationswahrnehmung geht Schlötter nach (Schlötter und Simon 2005). Als zweite bemerkenswerte Forschungsarbeit und als einzige mir bisher bekannte Dissertation untersuchte Schlötter die Wiederholbarkeit der Informationswahrnehmung in über 4000 Versuchen und mit 250 Personen. Diese Forschung untersuchte soziale Systeme und fand statt im Rahmen seiner Dissertation über ‚Empirische Studien zur Semantik in Systemischen Aufstellungen’ an der Privaten Universität Witten/Herdecke zur Erlangung des Grades eines Doktors der Wirtschaftswissenschaften. Ausgangspunkt waren reale Aufstellungskonstellationen (Familie und Organisation), die mit lebensgroßen Figuren nachgestellt wurden. Die Versuchspersonen nahmen dann mittels unterschiedlicher, definierter Vorgehensweisen ihre Plätze in der Aufstellung ein und brachten ihre Wahrnehmungen zum Ausdruck. Weiterführende Prozessarbeit kam bei ihm nicht zum Einsatz. Unterschiedliche Versuchspersonen, unterschiedliche Aufstellungssituationen und unterschiedliche Testverfahren zeigten schließlich signifikant reproduzierbare Ergebnisse (ebd. 19-28). Seine Versuchsanordnung wurde so gewählt, 82
Eine prototypische Aufstellung bezieht sich nicht auf ein bestimmtes Thema, sondern nur auf eine typische Struktur eines Themas, um grundsätzliche Erkenntnisse über dieses Thema zu generieren.
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
123
dass „eine zwischenpersönliche Einflussnahme auf die Versuchspersonen gleich null [...] und die Daten ohne jegliche Interpretation erhoben“ wurden (ebd. 179). In der Dissertation wurde darauf verwiesen, dass das für die empirische Sozialforschung wichtige Kriterium der ‚externen Validität’ in hohem Maße erfüllt ist (vgl. ebd. 23). Der dabei verwendete Chi2-Anpassungstest zur Überprüfung der Nullhypothese ergab Werte von 31 bis 427 auf den jeweiligen Plätzen. Der Grenzwert von 26 für eine Irrtumswahrscheinlichkeit von 0,1 % zeigte, dass es sich bei den Ergebnissen um hohe bis sehr hohe Signifikanzen handelt, wenn man bedenkt, dass eine Gleichverteilung den Wert 0 aufweisen würde. Er konnte zeigen, dass die Wahrnehmung an den Orten weit jenseits einer Zufallswahrscheinlichkeit lag. Damit handelt es sich in Soziologie und Psychologie um wohl eher untypisch signifikante Ergebnisse wie der Autor herausstellt. Eine Signifikanz, wie sie auch in unserer Experimentiergruppe gefunden wurde. 2015 setzte Schlötter seine Forschung in China mithilfe der Unterstützung von Firmen wie Bosch fort (Schlötter 2018). Er ließ chinesische Repräsentanten, die nie in Deutschland waren, deutsche Unternehmenssituationen nachstellen, dies jedoch mit chinesischen Namen maskiert. In 1200 Einzelversuchen mit 53 Testpersonen verglich er die vorher in Deutschland erhaltenen Ergebnisse und konnte zeigen, dass die chinesischen Repräsentanten kulturübergreifend die inhaltlichen und emotionalen Wahrnehmungen, Unternehmensrealitäten und Relationen der Mitglieder des Originalsystems zueinander, nachempfinden konnten. Die Repräsentanten verstehen und interpretieren das deutschen ‚Soziogramm’ somit in adäquater Weise. Auch in China haben sich die Repräsentanten an bestimmten Clusterpunkten verdichtet, allerdings waren die Positionen der Häufungspunkte deutlich gegenüber dem SyA in Deutschland verschoben. Hier wird offensichtlich, dass sich die Raumkonstellationen ändern können, die inhaltlichen und emotionalen Wahrnehmungen aber prinzipiell gleich bleiben. 3.3.3
Erstaunliche Beispiele aus der Aufstellungsarbeit
Merkwürdigkeiten, die sich einer einfachen Erklärung entziehen Das wohl am meisten beeindruckende Phänomen bei SyA ist das Erscheinen von Informationen, die den anwesenden Personen nicht bekannt sind, sich im Nachgang jedoch als absolut treffend erweisen. Handelt es sich bei dem Aufstellungsbild um Fragen von Beziehungsrelationen der Systemelemente (z. B. Familienmitglieder oder Arbeitsteams) untereinander wird oft davon ausgegangen, dass wir Menschen die Fähigkeiten haben, diese Positionen im Raum zu deuten und daraus unsere Interpretationen ableiten zu können, auf unbewusstes Wissen zurückgreifen oder konstruktivistisch die Wirklichkeit erzeugen können (Groth 2015; Baumgartner 2006: 80–81, 144–145; Schlötter und Simon 2005: 15). Von SyA mit abstrakten Elementen wie den ‚7 Aspects’ angeregt, führte ich zusammen mit einer Experimentiergruppe rein technische Aufstellungen durch, in denen die nicht funktionierende Technik im Mittelpunkt der Untersuchung stand. Auch wenn technische Bauteile heute überwiegend noch als kompliziert und nicht als komplex ange-
124
3 Wirtschaftswissenschaftlicher Zugang
ehen werden, ist die Fehlersuche aufgrund sehr diffiziler Wechselwirkungen oft sehr anspruchsvoll und zeitaufwändig. Es zeigte sich, dass Menschen in der Lage sind, auch Fehler in Softwarecodes und anderen technischen Systemen, wie Autos, Drucker, Telekommunikations- oder Banksysteme zu erspüren, auch ohne eine irgendwie geartete fachliche Kompetenz. Im Folgenden nun einige Ergebnisse aus SyA, die überwiegend im Zeitraum zwischen 2014 und 2016 in meinen Experimentiergruppen und privaten Kontexten durchgeführt wurden und Fragen aufwerfen, für die es bisher keine Antworten gibt. Mit Ausnahme von Beispiel 2 war ich bei allen Fällen persönlich involviert. Beispiel 2 ist aufgenommen worden, da hier ein klinischer Befund vorliegt und es zudem Erfahrungen außerhalb meiner Experimentiergruppen repräsentieren soll. Zur besseren Veranschaulichung und Bewusstmachung sowie einer besseren Kopplung mit der vielfältigen Literatur zu Familienaufstellungen sind die ersten drei Fälle aus dem Bereich von Familiensystemen gewählt. Die weiteren Bespiele (mit Ausnahme von Beispiel 8) sind aus Kontexten entnommen, die in der Aufstellungsszene eher neu sind und besonders gut geeignet erscheinen, gängige Erklärungsansätze infrage zu stellen. Familiensysteme Beispiel 1: Unbekannte Halbschwester (2016) Als Eingangsbeispiel sei hier ein Fall aus einer Familienaufstellung erwähnt, der nicht unüblich für erfahrene Aufstellungsteilnehmer ist. Die Fallbringerin, das jüngste Kind von sieben Kindern, wurde im Rahmen einer Familienaufstellung mit einer ihr unbekannten Situation konfrontiert. Die anderen Repräsentanten als auch ihre Stellvertreterin vermissten etwas an der Seite ihres Vaters. Irgendetwas fehlte. Nach Hinzunahme des Fehlenden entpuppte sich dieses als Tochter des Vaters aus einer früheren Beziehung. Verwirrt macht die Fallbringerin sich nach Rückkehr aus der Aufstellungsgruppe auf die Suche. Weder sie noch ihre anderen Geschwister wussten von einer solchen Option. Auf Nachfrage bei ihrer leiblichen Mutter bestätigte diese den Sachverhalt. Ihr Vater hatte vor der Beziehung mit ihrer Mutter ein Verhältnis mit einer anderen Frau und daraus eine Tochter, die er jedoch strikt verleugnete und mit der er keinerlei Kontakt pflegte. Als weitere Merkwürdigkeiten stellten sich heraus, dass diese Tochter den gleichen Vornamen wie die Fallbringerin trug und die gleiche Körpergröße hatte. Im Gegensatz zu den anderen sechs Geschwistern, die alle deutlich größer waren, waren beide von kleiner Statur. Beispiel 2: Kind, das nicht das eigene war (2006) Dieses Beispiel ist wörtlich von Grochowiak übernommen (Grochowiak 2006: 8). „Ein Klient kam mit dem Anliegen zu verstehen, warum sein Sohn (14 Jahre) so aggressiv auf ihn ist, dass er schon mit dem Messer auf ihn losging. Ich stellte Vater und Mutter auf (Mann rechts, Frau links) und den Sohn 1,5 m in der Mitte vor die beiden. Ich ließ den Stellvertreter des Vaters sagen: „Ich bin dein Vater und du bist mein Sohn!“ Der Stellvertreter antwortete mir: „Wenn sie wollen, sage ich das, aber es stimmt nicht.“ Darauf ließ ich den Stellvertreter des Sohnes sagen: „Du bist mein Vater, ich bin Dein
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
125
Sohn.“ Der Stellvertreter sagte: „Das sage ich ums Verrecken nicht.“ Ich fragte darauf den Klienten ob er sich sicher ist, dass er der leibliche Vater des Kindes ist. Er antwortete: „Bis eben schon.“ Da ich eben nicht der Ansicht bin, dass es völlig gleichgültig ist, ob eine solche Aussage den Tatsachen entspricht oder nicht habe ich die Aufstellung abgebrochen und gesagt, dass ich erst weiter machen würde, wenn diese Frage geklärt ist. Dieser Mann ließ einen DNS-Test [üblicherweise als DNA-Test bekannt; Anmerkung Autor] machen und es stellte sich heraus, dass er tatsächlich nicht der Vater war. Wie dies aus kleinsten topologischen Unterschieden erklärbar sein soll verschließt sich mir vollständig; zumal ich in diesem Fall als Aufsteller die Stellvertreter aufgestellt habe und nicht der Klient“. Beispiel 3: Reaktion eines weit entfernten Umfeldes (1999 – 2003) Mehrmals und in kurzem Abstand wurde ein Phänomen beobachtet, das sich im Anschluss an Familienaufstellungen ereignete (im Rahmen meiner SyA-Ausbildungen). In den Aufstellungen ging es um Krankheiten und Familiendynamiken unterschiedlicher Familiensysteme. Bei allen stellte sich letztlich heraus, dass Familienmitglieder schon viele Jahre (teilweise 15 und 20 Jahre) den Kontakt zu ihren Herkunftsfamilien abgebrochen hatten. Zum einen wusste der Fallbringer gar nicht, dass es dieses Familienmitglied gab und im anderen Fall existierte keine Information über das ausgeschlossene Familienmitglied. Die Ausgeschlossenen bzw. sich Zurückgezogenen tauchten unvermittelt in der Aufstellung auf. Alle Repräsentanten schauten auf eine leere Stelle im Raum und konnten erst wieder anderes wahrnehmen als ein weiterer Repräsentant sich an der leeren Stelle positionierte. Interessanterweise hatten alle, die bisherigen Repräsentanten als auch der neu hinzugekommene, eine klare Vorstellung um wen es gehen könnte. Es war deutlich, dass es sich jeweils um bestimmte Verwandtschaftsmitglieder handeln muss, deren Bezug zu bestimmten Familienmitglieder (Onkel, Tante, Bruder) präzise beschrieben werden konnte. In der Lösungsaufstellung wurden die Abwesenden wieder integriert, so dass sich für alle ein guter Platz fand. Alle Fallbringer nahmen sich für die Zeit nach der Aufstellung vor, zu versuchen Kontakt zu den re-integrierten Familienmitgliedern aufzunehmen. Bei zwei dieser Fälle fand die Aufstellung in der Zeit von 14:00 - 16:00 Uhr statt; Abschluss der Veranstaltung war 18:30 Uhr. Als sich die Gruppen um 19:00 zum Abendessen trafen war die Überraschung bei allen groß: In beiden Fällen berichteten die Fallbringer, dass sich die „Abwesenden“ in der Zeit von 16:00 - 18:30 Uhr zu Hause gemeldet hatten. Es hat also den Anschein, als ob die Information aus der SyA unmittelbar bei den betroffenen Personen eine Reaktion auslöst, unabhängig von der Entfernung. In einem Fall waren es über 1.000 km. War es Zufall, wie manche bei solchen Erlebnissen gerne behaupten oder gab es doch eine nicht-lokale Wechselwirkung über große Distanzen? Interessant zu wissen wäre, ob und wie häufig solche Phänomene in und im Anschluss von Aufstellungen beobachtet werden können. Im Falle einer Signifikanz würde sich natürlich die Frage nach einer nachvollziehbaren, wissenschaftlich begründbaren Erklärung stellen. Sicherlich ließe sich psychologisch das Unbewusste, Verdrängung, der Zufall oder eine erstaunliche
126
3 Wirtschaftswissenschaftlicher Zugang
Synchronizität ins Feld führen. Welche Erklärungen lassen sich aber für die Beispiele finden, deren Fokus nicht auf den Beziehungen untereinander, sondern auf der Untersuchung konkreter Sachverhalte lag, wie bei folgenden Beispielen? Juristisches System Beispiel 4: KFZ-Unfall (2014) Ein Fallbringer hatte ein sehr unangenehmes Erlebnis auf einer Autobahn. Konnte er selbst gerade noch einen Auffahrunfall auf ein vor ihm fahrendes Fahrzeug vermeiden, wurde er kurz darauf selbst von hinten unsanft kontaktiert. Die Aussagen des Unfallgegners und die polizeiliche Sicht deuteten auf ein klares Fehlverhalten des Fallbringers hin und lösten bei ihm starke Schuldgefühle bzw. eine erhebliche emotionale Betroffenheit aus. Da er aufgrund der vorausgegangenen Situation (der vermiedene Auffahrunfall) selbst starke körperliche Symptome entwickelte, war seine Wahrnehmung auf das was im Anschluss passierte (der Auffahrunfall) erheblich eingeschränkt. Für ihn sah es so aus, dass er irgendetwas falsch gemacht hatte. Sein Aufstellungswunsch bestand in der Betrachtung dessen, weshalb er in der ersten Situation solche Körpersymptome entwickelte. In der Aufstellung, die als Blindaufstellung durchgeführt wurde – nur die Aufstellungsleitung wusste wer wofür steht und legte zunächst auch die Platzanker für die Repräsentanten – zeigten sich dann überraschende Phänomene. So entwickele der Stellvertreter des Fallbringers wie erwartet emotionale Betroffenheit und ein schlechtes Gewissen, aber deutlich weniger als erwartet. Unerwarteterweise zeigt jedoch der Unfallgegner massivste Symptome des Unwohlseins und des schlechten Gewissens, die weit über die des vermeintlichen Unfallverursachers hinausgingen. Die Interpretation des Geschehens ließ den Schluss zu, dass der Unfallgegner mehr oder minder absichtsvoll, zumindest aber grob fahrlässig, den Unfall herbeigeführt bzw. in Kauf genommen hat. Als eigentliche Antwort auf die ursprünglich gestellte Frage des Fallbringers kamen im Weiteren Verlauf zwei sehr lange zurückliegende Unfälle zum Vorschein. Sie wirkten als verstecktes Trauma und konnten die starken Körpersymptome erklärbar machen. Der Schleier der Rollenzuordnung wurde erst gegen Ende gelüftet, um kognitive Beeinflussungen zu vermeiden. Der Clou und damit der Grund, weshalb dieses Beispiel hier aufgeführt wird, zeigte sich erst einige Zeit nach der Aufstellung. Im Rahmen des anstehenden Gerichtsverfahrens bekam der Fahrtenschreiber des Unfallgegners eine zentrale Rolle. Aus der Analyse dieses Dokumentes konnte das überraschende Verhalten des Unfallgegners in der Aufstellung, als absolut stimmig nachvollzogen werden. Tatsächlich zeigten sich keinerlei Unfallvermeidungs- bzw. Bremsaktivitäten beim LKW-Fahrer. Seine gesamten Aussagen gegenüber der Polizei konnten widerlegt werden und bestätigen die Ergebnisse der Aufstellung. Woher wusste der Repräsentant des LKW-Fahrers, was in selbigem abgelaufen ist und wie die tatsächliche Realität in der Situation des Unfallgeschehens war? Und wie war dies möglich, obwohl der Repräsentant zu diesem Zeitpunkt noch nicht wusste
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
127
wofür er stand? Der Fallbringer als Fahrer hatte keine Augen im Hinterkopf und bekam die entscheidenden Momente zumindest nicht bewusst mit. IT-Systeme Beispiel 5: Programmfehler in einer Software (2014) Ein Projektleiter hatte ein Problem mit dem Fortschritt seines Projektes. Nachdem er schon alle möglichen Versuche zu einem besseren Gelingen unternommen hatte, wollte er die Ursachen und mögliche Lösungen dafür jetzt einmal mit einer SyA suchen. Für verschiedene Elemente des Projektes wurde ein Repräsentant bestimmt. Ausgewählt wurden unter anderem jemand für den Projektleiter, die Projektmitarbeiter, einige Funktionen im Umfeld des Projektes, aber auch jemand für die Soft- sowie die Hardware; für letzteres jemand für den Großrechner und jemand für die mobilen Notebooks. Da die Repräsentanten bezüglich dieses Projektes fachfremd waren, verzichtete man deshalb auch zu Beginn auf irgendwelche technischen Erklärungen und ging schnell zur Sache. Nachdem alle Elemente zugeordnet waren, stellten sich die Repräsentanten im Raum auf und fühlten sich in die gefundenen Plätze ein. Nach kurzer, gespannter Ruhe begann ein Repräsentant heftige Juckreize am ganzen Körper zu entwickeln. Es war die Software, die sich bemerkbar machte. Neben anderen kleineren Ursachen, die das Projekt behinderten, stellte sich im Nachgang tatsächlich heraus, dass dort erhebliche Bugs vorhanden waren, die wesentlich zur Verzögerung beitrugen und mehr Aufmerksamkeit der Projektleitung bedurften. Beispiel 6: Lastschrifteinzug funktioniert nicht (2015) In einem Verein funktionierte plötzlich der jährliche Lastschrifteinzug nicht mehr, mit dem die Mitgliedsbeiträge abgebucht werden sollen. An sich gab es seitens des Vereins keine Veränderungen mit Ausnahme eines Vorstandswechsels und einem damit verbunden neuen Bankvermerk. Die Software war die alte, möglicherweise lag es an den Updates, die zwischenzeitlich vorgenommen wurden, vermutete man. Die Bank war auch dieselbe. Stundenlange Telefonate mit den Hotlines und dem technischen Support der Bank, als auch dem Anbieter der Software führten keinen Schritt weiter. Zum einen verwies jede der beiden Parteien auf den Anderen, da ihre Einstellungen in Ordnung wären oder sie vermuteten fehlerhafte Eingaben seitens des Vereins. Man solle doch bitte die über 350 Datensätze neu eingeben. Die Software läuft bei anderen Kunden problemlos und die Bank hat die neuen Daten des Vorstandes eingepflegt, also alles in Ordnung bei beiden. Zum anderen gibt es ständig sich widersprechende Informationen, was von einer anderen Abteilung noch getan werden müsste, um das Problem zu lösen. Alle Ansätze erwiesen sich letztlich als nicht zielführend und widersprachen sich auch in einer Weise, die Zweifel an der Kompetenz der Gesprächspartner bezüglich ihrer Produkte aufwarfen. Der Verzweiflung nahe, da dem Verein die liquiden Mittel auszugehen drohten, niemand IT- oder Bankenkompetenz hatte und man nicht spaßeshalber 350 Datensätze neu eingeben möchte, die das Jahr davor ja noch problemlos funktionierten, entschloss man sich eine SyA zu Rate zu ziehen. Geprüft wurde zunächst, ob das Problem bei einem der Parteien – Bank, Software, Verein (z. B. Eingabefehler) – oder an den
128
3 Wirtschaftswissenschaftlicher Zugang
jeweiligen Schnittstellen liegen könnte. Alles mit verdeckten Bodenankern, bei denen niemand wusste auf welchem Platz er gerade stand. Die Karten wurden geschrieben, verdeckt auf einen Stapel gelegt und gemischt – wie ein Kartenspiel – und schließlich intuitiv und verdeckt auf den Boden gelegt. Im weiteren Verlauf stellten sich drei Personen auf die verschiedenen Bodenanker. Nach eindeutigen Reaktionen aller drei Stellvertreter auf zwei Plätzen war eine erste Orientierung gegeben: Die Bank muss sich umdrehen und hinsehen und es ging um eine Schnittstelle. Mit der gleichen verdeckten Verfahrensweise ging die Untersuchung mit verschiedenen Ideen zu möglichen Ursachen innerhalb der Bank und der Schnittstelle zu ihr weiter; über BICs, die nicht akzeptiert werden oder falsche und nicht erkannte BICs wegen Bankenfusionen und andere Möglichkeiten, die der Gruppe mit ihrem Laienwissen noch einfielen. Letztlich gab es auch hier eindeutige Reaktionen auf einem Bodenanker, der sich im Anschluss als „unterschiedliche Versionen“ herausstellte in Bezug auf den Vorstandswechsel. Im Telefonat mit der Hotline der Bank wurde schließlich genau dieser Aspekt als die zentrale Fehlerstelle ausfindig gemacht. Der Vorstandswechsel war zwar in den Stammdaten der Bank vollzogen, die zugehörige Bank Card war aber noch gesperrt und damit blockierte der Lastschrifteinzug, was von den Ansprechpartnern bei der Bank leider bisher nicht bemerkt wurde. Dank der Information aus der Aufstellung konnten Unwissende die Bankmitarbeiter genau auf die Fehlerstelle lenken und das wochenlange Problem in wenigen Minuten nachhaltig lösen. Im Nachgang zeigte sich dann noch eine weitere positive Korrelation. Auf dem Bodenanker, der für die BICs stand, gab es ebenfalls Körpersensationen, wenngleich deutlich schwächer als bei den beiden anderen. Aus diesem Grund wurde diese Wahrnehmung auch nicht weiter verfolgt. Es zeigte sich im Alltag allerdings, dass auch diese Information relevant und korrekt war, denn eine BIC-Nummer von einer einzigen Bank wies tatsächlich Probleme auf. Bei ihr wurde die durch eine Bankenfusion veränderte BIC-Nummer nicht automatisch erkannt, was normalerweise der Fall sein sollte. Beispiel 7: Neu geschriebenes Programm bricht immer ab (2015) Zur Berechnung und Optimierung von Aerodynamikbauteilen wird ein Softwareprogramm verwendet, das bereits in ähnlichen Anwendungen eingesetzt wird. Eine zentrale Herausforderung stellt die sehr anspruchsvolle Anpassungsarbeit an die jeweiligen Bauteile dar. Während der Rechenarbeit wird sehr schnell deutlich, dass irgendetwas fehlerhaft ist. Die Berechnungen konvergieren nicht zu Ende und zeigen unsinnige Ergebnisse. Die eingeleiteten Überarbeitungen und Fehlersuchanalysen führen auch nach einigen Tagen zu keinem positiven Ergebnis. Der Entschluss, das Ganze mit einer Aufstellung anzugehen, lag aufgrund der bereits vorhandenen Erfahrungen nahe. Jetzt allerdings mit einer kleinen Rahmenveränderung: Der Fallbringer mit dem Problem saß in London, die Repräsentanten in München, wobei diese keinerlei Kompetenz oder sonst wie geartetes Verständnis für die Problemstellung vorweisen konnten. Per Skype wurde das Ziel und die verschiedenen, möglichen Problemparameter durch den Fallbringer festgelegt, auf Karten geschrieben, gemischt und verdeckt als Bodenanker gelegt. Schließlich lagen neun verdeckte Problemparameter als Bodenanker im Raum und das
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
129
offen sichtbare Ziel, das als Referenzplatz dienen sollte. Bezogen auf die Frage, welcher Problemparameter ist verantwortlich für die bisherigen Abbrüche und muss angepasst werden, wurden parallel in London und München Aufstellungen vorgenommen. Die tatsächliche Lage der Bodenanker war den beiden Gruppen dabei unbekannt. Jeder Bodenanker wurde von den drei verfügbaren Repräsentanten (einer in London, zwei in München) getestet und die Wahrnehmungen im Nachgang ausgetauscht. Von den neun Parametern lösten zwei signifikante, wenn auch unterschiedliche Körperwahrnehmungen bei allen drei Repräsentanten aus. Zum einen meldete sich die Information „dass das Netz nicht zusammen hängt“ und zum anderen „dass die Größenveränderung der Zellen an relevanter Stelle zu schnell geht“. Der Nachmittag war in London dann gekennzeichnet von aufwändigen Überprüfungen und schließlich Anpassungen dieser beiden Problemparameter. Am Abend kam erfreulicherweise bereits die Vollzugsmeldung. Im ersten Schritt waren die nicht zusammenhängenden Zellen gesucht und angepasst worden, worauf das Programm bereits deutlich weiter in seiner Berechnung lief. Nach partieller Anpassung der Größenveränderung der Zellen konvertierten die Berechnungen schließlich problemlos. In den drei vorangegangenen Beispielen Nr. 5, 6 und 7 handelt es sich nicht nur um eine Kopplung zwischen Mensch und Technik, sondern insbesondere um eine Kopplung Mensch und abstrakte Zeichencodes. Weder systemisch-konstruktivistische noch räumliche Koordinaten können in diesem Setting als Erklärung dienen, auch lässt sich ‚Erkennung’ und ‚Einsicht’ ausschließen. Allein das ‚Bauchgefühl’ bleibt als Option. Aber was kann diese Korrelation zwischen Aufstellungsergebnis und sich tatsächlich zeigender Problemursache erklären? Für das Beispiel Nr. 7 wollen wir eine kurze Berechnung der Wahrscheinlichkeit durchführen, diese Treffer per Zufall zu gewinnen. Wir haben 9 mögliche Fehlercluster, bei denen wir der Einfachheit halber nur zwischen zwei Antworten unterscheiden wollen: Wahrnehmung einer körperlichen oder mentalen Reaktion versus Nicht-Wahrnehmung. Tatsächlich gibt es dazwischen viele weitere Optionen, von schwach bis stark und von vage bis sehr klar. Die Wahrscheinlichkeit eines Treffers für einen der Fehlercluster liegt damit bei 50 % oder ½. Gehen wir davon aus, dass wir bei jedem der 9 Fehlercluster die richtige Wahl treffen müssen, führt das zur Konsequenz, jeden der 9 Terme einzeln zu berücksichtigen. � � (3.1) ( )� = �
���
Damit liegt die Chance für eine Person, einen Treffer richtig zu raten, bei 1 zu 512 Versuchen. In dem vorliegenden Beispiel erfolgt die Abschätzung durch drei unterschiedliche Repräsentanten, von denen jeder die gleichen Fehlercluster auswählte, was dazu führt, dass die individuellen Wahrscheinlichkeiten miteinander multipliziert werden müssen. � � (3.2) ( )� = ���
���.���.���
= 1 ∶ 1,34 ∗ 10�
(3.3)
Die Wahrscheinlichkeit, dreimal die richtige Kombination zu wählen, liegt demnach bei
130
3 Wirtschaftswissenschaftlicher Zugang
ca. 1 zu 134 Millionen. Ähnliche Größenordnungen finden sich auch bei den Beispielen Nr. 5 und 6. Organisationssystem mit technischem Element Beispiel 8: Lenkflugkörper bei Doppelblindaufstellung (2015) Eine Kollegin ist sich nicht sicher, ob sie einen Auftrag in einem Rüstungskonzern annehmen soll. Der Rahmen einer Experimentiergruppe für SyA bot eine gute Gelegenheit auch hier eine etwas andere Annäherung zu wählen. Eine Aufstellung sollte etwas mehr Klarheit in ihre Unentschiedenheit bringen. Es gab im Vorfeld nur eine Frage: Mit wie viel emotionaler Vorbelastung gehen die Kollegen an das Thema heran, wenn sie wissen würden, um was es geht? Denn Aufträge für Rüstungskonzerne tangieren sehr häufig ethische und moralische Selbstverständnisse in unserer Gesellschaft. Nachdem die Gruppe aus lauter erfahrenen Beratern und Therapeuten bestand und zudem das erklärte Ziel der Runde war, experimentell zu arbeiten, entstand die Idee, eine Doppelblindaufstellung durchzuführen. Niemand, außer der Fallbringerin, wusste um was es geht. Die eben beschriebenen Überlegungen liefen im Vorfeld ab. Nach dem Einverständnis der Gruppe für ein solches Experiment klärte die Fallbringerin still für sich die konkrete Fragestellung, bestimmte die Systemelemente und ordnete jedem Systemelement eine Zahl zu. Diese Zahlen wurden dann auf Karten geschrieben und an die sich zur Verfügung stellenden Repräsentanten verteilt. Niemand wusste jetzt für welches Systemelement er bzw. sie steht, wie das Thema und die zugehörige Fragestellung heißen oder in welchem Kontext die Aufstellung anzusiedeln ist. Nicht mal die Aufstellungsleitung wusste Bescheid. Insofern, dass auch die Aufstellungsleitung unwissend war, benennen wir dieses Setting auch eine Doppelblindaufstellung. Die einzelnen Repräsentanten suchten sich nach Erhalt der Zahlen-Karte schließlich nach eigenem Befinden einen Platz im Raum. Das Ganze war auch für die Aufstellungsleitung eine herausfordernde Aufgabe, da sie sich ausschließlich auf die Impulse der Repräsentanten einlassen musste und keinerlei eigene kognitive Konzepte verfolgen konnte. Sofort nach Start der Aufstellung ereignete sich dann eine sehr bemerkenswerte Vorstellung. Ein Repräsentant entwickelte, sobald er seinen Platz eingenommen hatte, eine Dynamik, die er kaum im Stande war zu beherrschen. Von seiner Persönlichkeit her ein eher ruhiger Zeitgenosse, trieb es ihn nun ohne Unterlass durch den Raum. Wie aufgezogen drehte er eine Schleife nach der anderen zwischen den Repräsentanten, wollte überall draufhauen und erlebt sich als völlig durchgeknallt. Seine Worte dazu: „Ich bin total aggressiv und würde am liebsten alles kurz und klein schlagen.“ Nachdem alle Versuche gescheitert waren, einen guten Platz für ihn zu finden, an dem er wieder zur Ruhe hätte kommen können, half nur eine Maßnahme: Die Tür wurde geöffnet und unser nicht zu bremsender Repräsentant entschwand und drehte im Nebenraum seine Kreise. Die Aufstellung wurde schließlich in guter Weise zu Ende gebracht. Erstaunlich war zunächst, wie klar sich die, auch nur der Fallbringerin zum Teil bekannte Situation des potentiellen Kunden, in der Aufstellung abbildete. Alle Repräsentanten bekamen signifikante Körperwahrnehmungen und Bilder, obwohl sie keinerlei Information außer einer Nummer auf einer Karte hatten. Das absolute Erstaunen kam dann, als der Vorhang der
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
131
Verschleierung gelüftet wurde und die Repräsentanten ihre Rolle mitgeteilt bekamen. Der nicht zu bremsende Kollege stand für einen Lenkflugkörper (Cruise Missile)! Es wäre selbst für einen, sich seiner Rolle bewussten Schauspieler, eine Herausforderung gewesen diesen Part besser zu repräsentieren, als wie wir ihn erleben durften. Das Experiment wurde in einer weiteren deutschen und in fünf internationalen (Mittel- und Südamerika) Gruppen wiederholt. Die Gruppen bekamen jeweils nur Zahlen als Repräsentanz für das jeweilige Element. Der deutschen Aufstellung wohnte ich bei, von den anderen gab es kurze schriftliche Rückmeldungen. Bezogen auf den Lenkflugkörper war die Aussage in der deutschen Gruppe: „Ich fühle mich körperlich steif, lang und hohl. Mein Kopf ist wie festgezurrt und innerlich wie erleuchtet; der weiße Punkt (am Boden) scheint sehr wichtig – kann ihn nicht aus dem Auge lassen.“ Die Repräsentantin bewegte sich ständig hin und her und hielt den Punkt am Boden dabei ständig im Auge. Dieser Bezug auf Punkte wurde auch von den anderen Gruppen zurückgemeldet: „Bin auf weißen Punkt am Boden fixiert“, „bin auf roten Punkt auf dem Flipchart fokussiert“ usw. Stellvertretend noch eine Aussage für ein anderes Element mit Bezug auf den Lenkflugköper: „Wirkt bedrohlich.“ Aus welchen Raumkoordinaten, vorhandenen Wissensanteilen oder Erfahrungen lassen sich die beschriebenen Wahrnehmungen und Bilder jetzt ableiten? Oder hatte die Fallbringerin in der ersten SyA telepathisch, vielleicht mittels Spiegelneuronen, die Gruppe zum Tanzen gebracht? Nachdem allerdings auch Zusammenhänge zum Vorschein kamen, von der die Fallbringerin vor Beginn der Aufstellung keine Kenntnisse hatte, erscheint diese Erklärung ebenfalls nicht sehr tragfähig. Besondere Effekte Beispiel 9: Unbewusster Priming-Effekt (2016) Die Experimentiergruppe wollte die Aussage eines Herstellers über ein medizinisches Diagnosegerät mittels SyA testen. Laut Herstellerangabe soll dieses Gerät in der Lage sein mit den Dysfunktionalitäten eines Klienten über EM-Wellen in Verbindung zu treten und diese mit einem bereits eingespeicherten Informationspool (Datensätze) zu vergleichen. AI (Artificial Intelligence) zur Diagnose zu nutzen ist ja durchaus ein aktueller Trend (Weng u. a. 2017). Aufgestellt wurden Repräsentanten für das Symptom, das technische Gerät, Therapeut, Infopool (die gespeicherten Datensätze) und im weiteren Verlauf noch ein paar weitere Elemente. Nach kurzer Abstimmung entschied sich die Gruppe kein spezifisches Symptom zu benennen, sondern das Element für Symptome im Allgemeinen stehen zu lassen. Die Aufstellung wurde wieder als Blindaufstellung durchgeführt, was in diesem Fall bedeutete, dass die Gruppe gemeinsam überlegte, welches Thema und Ziel aufgestellt werden soll und welche Elemente dazu benötigt werden. Die Auswahl der Repräsentanten und deren Zuordnung zu dem jeweiligen Element erfolgte verdeckt. Mit Ausnahme von 2 Teilnehmern (der Facilitator und die Person, die die Zuordnung vornahm) wusste niemand, wer für welches Element stand. In der Aufstellung selbst gab es dann tatsächlich eine Korrelation der Zusammenhänge zwischen Symptom, Infopool und Gerät. Als Symptome wurden Rücken- und Schulterschwierig-
132
3 Wirtschaftswissenschaftlicher Zugang
keiten und ein lahmender Arm bei den Repräsentanten wahrnehmbar. Ob das Gerät nun tatsächlich das kann, was versprochen wird, kann mit unseren Ergebnissen natürlich nicht zweifelsfrei bestimmt werden und sicher braucht es noch andere Testarrangements für ein finales Ergebnis. Das Ergebnis der Aufstellung scheint aber zumindest darauf hinzuweisen. Interessant für uns, und Ausgangspunkt ganz neuer Experimente und Beobachtungen, war ein ganz anderes Phänomen. Es stellte sich im Nachgang heraus, dass zu dem Zeitpunkt der Diskussion über die Konkretisierung des Symptoms, der Protokollführer zwar keinen Beitrag geliefert hat, sich aber gewünscht hätte, wenn seine körperlichen Probleme als Symptom genommen werden würden. Dies, wie gesagt, wurde nicht laut formuliert, sondern nur gedacht und lässt sich aufsetzend auf den Studien zur Entscheidungsforschung als ‚Intention’ definieren. Die körperlichen Probleme waren: Schulter- und Rückenschmerzen, die in den Arm ausstrahlten und diesen zeitweilig wie ‚lahm’ werden ließen. Genau die Symptome, die vom Repräsentanten des Symptoms, vom Gerät und vom Infopool wahrgenommen wurden. Die Nachfrage in der Gruppe, ob andere Gruppenmitglieder ebenfalls ähnliche Intentionen gedacht hätten, wurde von allen verneint. Schlussfolgernd lässt sich feststellen: Die nicht formulierte Intention eines Beobachters manifestierte sich bzw. korrelierte in der Aufstellung bei den Repräsentanten. Damit kann hier ein unbewusster Priming-Effekt angenommen werden wie er auch in den UTT-Studien zu beobachten war. Beispiel 10: Verzerrungseffekt (2014) Im Rahmen einer familiären Beziehungsproblematik wurde deutlich, dass das Verhältnis des Fallbringers zu seiner Frau erheblichen Belastungen ausgesetzt ist, die auch im Verhalten des Fallbringers lagen. Die Repräsentantin der Frau war während der gesamten Aufstellung ausschließlich auf Konfrontationskurs und nie bereit auf Fragen oder Angebote des Repräsentanten des Fallbringers einzugehen. Eine für SyA eher untypische Situation. Am Ende schien eine Beziehung zwischen der Frau und einem anderen Mann, die sich in der Aufstellung schon abzuzeichnen schien und letztlich die Scheidung die einzige Lösungsoption zu sein. Im Vieraugengespräch mit dem Fallbringer im Nachgang zur SyA stellte sich heraus, dass die Situation viel weniger dramatisch war als sie durch die Repräsentantin erlebt wurde. Es zeigte sich im weiteren Verlauf der nächsten Monate, dass es sehr wohl ein Reagieren der Frau auf die Angebote und veränderten Verhaltensweisen des Partners gab, die Beziehung auch 4 Jahre nach der Aufstellung noch Bestand hatte und die Gesamtsituation sich deutlich entspannt hat. Verständlich wird das Geschehen, wenn man andere SyA als Vergleich herannimmt, in der die Repräsentantin ebenfalls aktiv war. Es waren immer Situationen, die mit einem Überschuss an Emotionen und Abgrenzung gekennzeichnet waren. Schlussfolgernd lässt sich ein Bias in der Wahrnehmung und dem Ausdruck der Repräsentantin annehmen, aufgrund eigener persönlicher Dispositionen. Für Aufstellungsgruppen, in denen die Teilnehmer sich nicht kennen und in mehreren Aufstellungssituationen erleben, stellt dies eine echte Herausforderung und eine Gefahr für das Ergebnis dar.
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
3.3.4
133
Conclusio zur Methode der SyA
SyA sind für unsere westliche Kultur irritierend, da sie sich der rationalen Logik entziehen und auf Vorgehensweisen zurückgreifen, die eher als mystisch oder esoterisch angesehen werden. Sie passen einfach nicht in unser gängiges kausales, von René Descartes geprägtes Weltbild, in dem Geist und Körper getrennt zu begreifen sind. Von daher ist es auch nicht verwunderlich, dass in unseren scheinbar so rationalen Organisationen eine große Hemmung besteht, diese Methode offiziell in Managementteams einzusetzen oder sich bei wichtigen Entscheidungen darauf zu berufen. Die im Codierungsprozess gefundene Problematik der wissenschaftlichen Legitimation in Bezug auf intuitive körperliche Wahrnehmung wird hier wieder evident. Das bestenfalls intuitiv erfasste Wissen bietet keinen Glaubwürdigkeitsanker, auf den man sich beziehen könnte. Denn, wenn ‚Wissen‘ bzw. ‚impliziertes Wissen‘ ein personalisiertes Wissen meint, welches an einen Menschen gekoppelt ist, so stellt sich die Frage, wie jemand ein Wissen über ein System haben kann, welches dieser Mensch gar nicht kennt (‚Unterkategorie Übertragungswege‘). Hier wird der Zusammenhang zur Intuition (Hauptkategorie) deutlich. Mithilfe der Intuition, verstanden als körperliche oder mentale Wahrnehmung, bekommen wir Zugang zu Zusammenhängen oder besser zu Informationen, die ein System oder eine Entität repräsentiert und offensichtlich nicht nur konstruktivistischer Natur ist; genauso wenig wie es psycho-sozialer Natur sein muss. Intuition steht hier als Platzhalter für einen Prozess, der derzeit noch unklar ist. Das Ergebnis dieses Prozesses schließlich wird mit dem Etikett ‚repräsentierende Wahrnehmung’ versehen und führt zu einem inneren Zustand, der mit ‚Wissen‘, respektive mit ‚implizitem Wissen‘ bezeichnet wird. Information und Wissen sind die beiden Pole, zwischen denen Intuition und repräsentierende Wahrnehmung aufgespannt sind. Die Etikette ‚Intuition‘ als auch ‚repräsentierende Wahrnehmung’ sagen jedoch nichts über die zugrundeliegende Funktionsweise bzw. den zugrundeliegenden Prozess aus, weshalb genau dieser Sachverhalt des Unklaren weiter untersucht werden muss. Denn die Herausforderung für den westlichen Kulturkreis besteht darin, dass bei bestimmten Aufstellungsthemen und -formaten ein Wissen bei Repräsentanten entsteht, dass sich einer einfachen Erklärung entzieht (Baecker 2007: 23). Veranschaulicht wurde dieser Umstand anhand der Vorgehensbeschreibung bei SyA und der Beispiele in Kap. 3.3.3. Dennoch hat die Methode einen Erfolgsweg zurückgelegt, der nur mit ihren überragenden Ergebnissen zu erklären ist; Ergebnisse, die darauf beruhen, dass nicht sichtbare Informationen beliebiger Systeme und deren Kontext zugänglich gemacht werden sowie nicht-lokal korrelieren. Zusätzlich bleibt festzuhalten, dass zahlreiche Phänomene den Studien ähneln, die sich mit dem Nachweis von bewusstem und unbewusstem Denken im Rahmen von Entscheidungen befassen. Phänomene wie das Erspüren sozialer Interaktionen, Erkennen von richtig und falsch, unterbewusstes Gefühl für die richtige Lösung. Zudem entspricht ihre Vorgehensweise exakt dem kombinierten 5-Phasenmodell, welches sich aus dem Studium zur Strategie- und Entscheidungsforschung ergab. Insofern lässt sie sich perfekt in die verschiedenen Phasen des ‚Strategic Intuition’ als auch in die Phasen des ‚Effectuation’-Prozesses einbinden, um dort den intuitiven Part zu
134
3 Wirtschaftswissenschaftlicher Zugang
übernehmen. Der besondere Vorteil liegt dabei in der zum großen Teil kontrollierbaren Form, die SyA ermöglichen und in einer bewussten Gestaltung der ersten 4 Phasen des 5-Phasen-Entscheidungs-Modells (Kap. 3.2.4). Ergänzend bietet sie noch die Möglichkeit, intuitive Wahrnehmungsfähigkeit zu schulen und so nicht mehr vom reinen Zufall abhängig zu sein. Auf diese Weise könnte sie umgekehrt die Methode der ‚Strategic Intuition’ weiter beflügeln und ihr bei den Entscheidern zu mehr Akzeptanz und Einsatz verhelfen. Eine weitere Anschlussfähigkeit der SyA lässt sich an das Modell der Spielarten von Strategieentwicklung von Nagler/Wimmer (2002) konstruieren. In Tab. 7 wird deutlich, dass SyA eine mehrdimensionale Qualität im Rahmen der Strategieentwicklung aufweist und sich in unterschiedlichen Kontexten zum Einsatz bringen lässt. Tab. 7 | Spielarten der Strategieentwicklung unter Einschluss von SyA (vgl. Nagel und Wimmer 2002: 33), ergänzt mit der Einordnung von (5) SyA. Die Methode der SyA lässt sich sowohl der impliziten als auch der expliziten Form der Strategiefindung zuordnen und kann sowohl außerhalb als auch innerhalb des Managementprozesses zur Anwendung kommen.
Wo und durch wen findet Strategieentwicklung statt?
Formen der Strategiefindung Implizit Explizit
Außerhalb der Organisation als Vorgabe für den Managementprozess
(1) Intuitive Entscheidungen
(2) Expertenorientierte Ansätze
Als Leistung innerhalb des Systems, insbesondere innerhalb des Managementprozesses
(3) Inkrementale oder evolutionäre Strategien
(4) Periodische Strategiereflexion als gemeinschaftliche Führungsleistung
Kombination von außerhalb und innerhalb des Managementprozesses
(5) System-Aufstellung
Diese Methode SyA (5) bietet die Möglichkeit einer Integration von außen und innen sowie von implizit und explizit. Vermutlich wird sie aus diesem Grund mittlerweile von vielen Verantwortungsträgern in Organisationen zum Einsatz gebracht (Arnold 2017; Rosselet u. a. 2007).
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
135
SyA stellt ein intuitives Verfahren dar, das sowohl mit einem Gründer, dem Führungskreis als auch mit verantwortlichen Entscheidern und Mitgliedern von Subeinheiten durchgeführt werden kann. Gleichzeitig lässt sie sich explizit für bewusst organisierte Arbeitsformen (Besprechung, Workshop etc.) nutzen und ist von daher weniger zufallsbasiert. Mit ihr können inkrementale, evolutionäre als auch systemische oder gar radikale Strategie generiert und eruiert werden. Die Methode hat sowohl Potential die Grundlagen wie Zahlen, Daten, Fakten zu explorieren und evaluieren als auch Zukunftsentwicklungen zu antizipieren. In gleicher Weise lassen sich mit ihr mentale Modelle und Kulturen erforschen und adaptieren. Sie entspricht der Anforderung von Nagel/Wimmer (2002), kein aufwändiges Sonderverfahren zu sein, sondern kann auf einfachste Weise integraler Bestandteil des Führungsgeschehens werden, mit dem kurz und längerfristig relevante Fragestellungen untersucht werden können. Mit Blick auf die Unterkategorie ‚Erkenntnisformen‘ lässt sich die Methode SyA sowohl mit den verschiedenen Ansätzen des strategischen Managements als auch mit den Anforderungen an Entscheidungsfindung in direkte Beziehung setzen. Aus methodischer Perspektive wäre SyA im Rahmen der Unternehmensführung anschlussfähig (Teilaspekt von Hypothese 1 aus dem Codingprozess – Arbeit an der Integration und Nutzung von SyA im Rahmen der Unternehmensführung). Conclusio aus der bisherigen universitären Forschung Aus den bisher vorliegenden Forschungsarbeiten schließen sich rein zufällige Zusammenhänge aus, womit die persönlichen Erfahrungen von aufstellungserfahrenen Personen in recht deutlicher Weise bestätigt werden. Sichtbar wird jedoch auch, dass es offensichtlich noch keine umfangreiche Studie gibt, die die Stimmigkeit der repräsentierenden Wahrnehmung mit dem jeweiligen Ursprungssystem in Beziehung setzt, wie es beispielsweise leicht mit technischen Elementen möglich sein sollte. Darüber hinaus gibt es derzeit auch noch keine wirkliche Forschung zur Bildung einer Theorie der SyA, die Modelle zu deren Funktionsweise anbietet, wie es in dieser Arbeit versucht wird. Alle Arbeiten beinhalten einen eher kurzen theoretischen Anteil, in dem die gängigen Erklärungsversuche vorgestellt werden. Auffallend dabei ist der deutliche Fokus auf systemisch-konstruktivistische Ansätze. Faulstich (2006: 59–72) und Gutmark (2014: 39–47) setzen sich zwar intensiv mit dem phänomenologischen und systemisch-konstruktivistischen Verständnis und deren Vertreter auseinander, können letztlich aber auch keine plausiblen Erklärungen vorstellen. Andere theoretische Annäherungen erscheinen nur in überschaubarem Maße, dabei sticht Sheldrake’s ‚morphisches Feld’ am deutlichsten hervor. Fasching (Fasching 2009: 10) geht als einer der wenigen etwas tiefer auf Quantenphysik und Verschränkung ein. Die verschiedenen Ansätze werden im Weiteren noch ausführlich vorgestellt (Kap. 5.3.5 und 5.3.6). Der Bezug zur Intuition findet sich nur bei Müller-Christ. Bezogen auf das hier untersuchte Thema lässt sich festhalten: Alle bisherigen Forschungsstudien konnten signifikante Evidenz bzgl. Wirksamkeit und Nachhaltigkeit für die aus den SyA abgeleiteten Entscheidungen diagnostizieren und bestätigen damit die
136
3 Wirtschaftswissenschaftlicher Zugang
Unterkategorie zur ‚wissenschaftlichen Legitimation‘. Sie bestätigen damit die bei Teilnehmern von SyA gewonnenen subjektiven Eindrücke einer hohen Korrelation zwischen Aufstellung und Realsystem. Das bei SyA auftauchende intuitive Wissen ermöglicht auch gänzlich unwissenden Repräsentanten (auch kulturübergreifend) eine verblüffende Treffergenauigkeit ihrer Wahrnehmung und Interpretation. Conclusio aus den Beispielen zur Aufstellungsarbeit Die Hypothese 2 – Zugang zur ontologischen Welt – wurde mit den Aufstellungsbeispielen (Kap. 3.3.3) veranschaulicht. In allen Fällen konnten klare Bezüge zu realen Sachverhalten hergestellt werden. Unsere wahrgenommene Realität (z. B. Defekte) wurde quasi in der Aufstellung gespiegelt und konnten im Nachgang auch in der Realität verifiziert werden. Damit erscheint die These einer phänomenologischen Wahrnehmung wie sie Hellinger postuliert durchaus plausibel. Auch wird deutlich, dass die Methode ausgesprochen effizient im juristischen und technischen Kontext eingesetzt werden kann. Im letzteren Fall mit erheblichem zeitlichem und kostenmäßigem Einsparungspotential. Dass unbewusste Wahrnehmungs- und Verarbeitungsprozesse aktiv sein müssen, ist aufgrund der Aufstellungsstruktur eindeutig (völliges Nicht-Wissen bei Doppelblindaufstellungen oder völlige Unwissenheit bei bestimmten Aufstellungsthemen). Damit ist eine Forderung von Street und Vadillo (2016) (Kap. 3.2.3) erfüllt, dass nämlich unbewusste Prozesse verifiziert werden müssen, um die Akzeptanz entsprechender Experimente zu ermöglichen. Was jedoch nachhaltig in die Aufmerksamkeit rückt, ist die offensichtlich nicht-lokale Wahrnehmung auch von technischen Sachverhalten. Hier wird die Hauptkategorie ‚Übertragungswege‘ wieder relevant, auf die es bisher keine Antwort gibt. Demgegenüber lassen sich bewusste Prozesse nicht vollständig falsifizieren, da ihr Einfluss letztlich doch beobachtbar ist, vergleichbar dem bei den Entscheidungsexperimenten. Als erste These kann angenommen werden, dass bewusst-kognitive Prozesse wirksam werden, um in Phase 1 die Ausrichtung des unbewussten Suchprozesses zu primen und zum anderen im Anschluss zur SyA das Erlebte zu interpretieren. Allerdings scheint es so, dass unbewusste Prozesse auch bei der Interpretation selbst eine Rolle spielen, wie der Priming- (Beispiel 9) und Verzerrungs-Effekt (Beispiel 10) verdeutlichen. Auffallend waren die Resultate im Beispiel der Lenkwaffe (Beispiel 9). Die Beschreibungen des gleichen Elementes waren sehr unterschiedlich. Mit der Kenntnis über das zu repräsentierende Element können deutliche Verbindungen zum Element im Originalsystem gezogen werden. Es lässt sich auch hier die These formulieren, dass die Grundinformation (phänomenologisch) erfasst worden ist, ihre Interpretation aber vom Repräsentanten respektive der Repräsentantin in unterschiedlicher Weise vorgenommen wurde. Diese Beobachtung wiederum stützt die systemisch-konstruktivistische These der Systemtheoretiker. In Klarheit und Trefferqualität scheinen repräsentierende Wahrnehmungen in SyA deutlich höhere Signifikanzen zu erreichen, als sie in den Studien zur Entscheidungs-
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
137
theorie zu beobachten sind. Gleichwohl fordern die Resultate die derzeitigen Erklärungsansätze nachhaltig heraus. Denn das Erspüren von Bugs in einer Software oder eines falschen Datensatzes in einem Programm durch völlig Fachfremde lässt sich nur schwer mit subliminalen Wahrnehmungen oder Erfahrungswissen in Einklang bringen. Viel eher ließe sich das Modell des intuitiven Zufalls und damit Wahrscheinlichkeitsbetrachtungen, als Erklärung heranziehen; nicht jedoch, wenn in 16 SyA-Experimenten 15 Treffer realisiert werden und das Ergebnis des 16. Experiments aus anderen Gründen nicht mehr überprüft werden kann. Per se ist das Erspüren von Bugs zudem ein phänomenologisches und kein konstruktivistisches Phänomen, zumal wenn dies im Rahmen von Blindaufstellungen vonstatten geht (Hypothese 2). Dass die Beobachtungen scheinbar beide Thesen (phänomenologisch und konstruktivistisch) zulassen, wird bei einem Erklärungsmodell über einen möglichen, dahinterliegenden Mechanismus mit zu berücksichtigen sein. Die Struktur der SyA und die Vorgehensweise sollten dem von Street u. a. (ebd.) geforderten Ausschluss indirekter Methoden Genüge tun. Es braucht keine hoch entwickelte Technik, um Evidenzen nachweisen zu können, womit die Streitfrage der Methode für den weiteren Diskurs obsolet sein dürfte. Die Methode ist einfach, wiederholbar und selbst mit Varianten gut handelbar. Gleichwohl zeigen sich bei Experimenten (vergleiche Beispiel 9 und 10) mentale Einflüsse in der Aufstellung, die den Primingund Verzerrungseffekten zu entsprechen scheinen. Intentionen von Gruppenteilnehmern, die zum Teil noch nicht einmal selbst in der SyA standen, ließen sich in den Wahrnehmungen der Repräsentanten wiederfinden. Das einzige Manko von SyA entspricht dem der intuitiven Entscheidungsqualität von Pionieren: es existieren heute noch keine tragfähigen Zugänge, die es unserer rationalen und absicherungsorientierten Welt erlauben, die Methode als seriöses Instrumentarium zu akzeptieren. Die Voraussetzung für die Vervollständigung von Hypothese 2 ist damit noch nicht erfüllt. Aber was verhindert heute noch die Akzeptanz von SyA als offizielles Tool im Organisationskontext oder als wissenschaftliche Forschungsmethode? Mit großer Wahrscheinlichkeit ist es die derzeit noch existierende Vorstellung über die wissenschaftlichen Gütekriterien: Objektivität83, Reliabilität84 und Validität85. Nur wenn alle drei erfüllt sind, gilt eine Methode als akzeptierbar. Im allgemeinen Verständnis lässt sich dieser Dreiklang derzeit noch nicht für SyA abbilden. Betrachtet man die vorliegenden Forschungs- und Experimentierergebnisse, so darf jedoch konstatiert werden:
83
84
85
Als Objektivität wird hier die Unabhängigkeit von einem Beobachter und dessen subjektiver Perspektive verstanden. Unter Reliabilität wird die Zuverlässigkeit der Messergebnisse verstanden, deren tatsächliche Unterschiede nicht durch Messfehler herrühren. Validität beschreibt den Grad der Übereinstimmung zwischen empirischer Messung mit einem logischen Messkonzept.
138
3 Wirtschaftswissenschaftlicher Zugang
1. Objektivität wird durch die experimentellen Ergebnisse nachgewiesen. Unabhängig von der Methode (SyA, technische oder medizinische Untersuchung) ergibt sich das gleiche Ergebnis. 2. Reliabilität wird durch die bisherigen universitären Forschungsergebnisse bestätigt.86 3. Auch die Validität müsste als gegeben angesehen werden. Die empirischen Messergebnisse basieren aus Sicht ihrer Vertreter auf einer logischen, weil sich immer wieder bestätigenden Messanordnung, der SyA. Nur gibt es für die Logik dieser Messanordnung keine logische, auf theoretisch fundierten Konzepten begründete Erklärung. Damit verbleibt schließlich nur eine zentrale Forderung der ‚Realisten’, nämlich die einer unterstützenden Theorie für die Effekte der repräsentativen Wahrnehmung; eine Theorie, die eine Logik anbietet, nach der die Phänomene von SyA einem nachvollziehbaren und akzeptierbaren Schema folgen. Dies gilt besonders deshalb, da die mentalen Landkarten von „Wirtschaft und Wissenschaft weitgehend auf rationale Entscheidungsprozesse fokussiert sind, weil beide Systeme unter Druck stehen, ihre Entscheidungen nachvollziehbar begründen zu können“ (Müller-Christ und Pijetlovic 2018: 151). Nur mit einer solchen Theorie kann die ‚Validität’ sichergestellt und damit eine für die Rationalität im Management notwendige Bedingung erfüllt werden (Hauptkategorie ‚wissenschaftliche Legitimation‘). SyA ergeht es somit nicht anders als der ‚Strategic Intuition’. Als Hindernis auf diesem Weg dürfen die immer wieder aufgetauchten Konzepte – Intuition, Information, Übertragung von Information aber auch Glaubwürdigkeit – betrachtet werden, für die es keine oder sehr unterschiedliche Verständnisse gibt. Mit dem Themenkreis Glaubwürdigkeit wird hier das Verständnis über Erkenntnisformen, über seriöses, weil wissenschaftlich fundiertes Arbeiten als auch die Nachvollziehbarkeit möglicher Zusammenhänge verstanden.
86
Gleichzeitig war die Reliabilität auch Ausgangspunkt und Impuls zu dieser Forschung.
3.3 System-Aufstellungen, als Antwort auf die VUCA-Herausforderung
139
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
4
Notwendige interdisziplinäre Erweiterung
4.1
Intuitionsforschung
Eine Grundlage für die neueren Entscheidungstheorien In diesem Kapitel wird die zweite, aus dem Codingprozess abgeleitete Hauptkategorie ‚Intuition’ sowohl begrifflich als auch experimentell stärker ausgebaut und auf die Frage hin untersucht, inwieweit sie Antworten auf das Phänomen SyA gibt. 4.1.1
Ausgangssituation
In einer VUCA-Welt reichen Daten und Logik nicht mehr aus, um unter Zeitdruck die richtigen Schlüsse zu ziehen (siehe Kap. 3.1 und 3.2.3). Von daher scheint es nur konsequent, dass Intuition und das sprichwörtliche Bauchgefühl eine immer stärkere Rolle im Führungsalltag spielen. Diese Entwicklung spiegelt sich auch in den ansteigenden Veröffentlichungen und Beiträgen fachorientierter Zeitschriften wider. Eine Übersicht zu bisherigen Studien findet sich bei Holtfort (2013: 68–71) u. a. mit dem Ergebnis, „dass Führungskräfte bei Entscheidungssituationen eine bestimmte Art von Emotion verspüren, die bei der Auswahl aus mehreren Alternativen hilft, die richtige Entscheidung zu treffen“ (ebd. 68). Auch wird in diesen Studien festgestellt, dass Intuition und Unternehmensperformance positiv korreliert sind und dass bei hoher Dynamik und Komplexität analytisches Denken Schwachstellen bei Entscheidungen aufweist; die gleichen Erkenntnisse also, wie sie schon bei der Behandlung von Entscheidungstheorien deutlich wurden. Die zahlenmäßig größte Studie führte demnach Agor (Agor 1986) durch. Im Rahmen seiner Untersuchung über die Implementierung von Intuition in strategischen Entscheidungsprozessen wurden 3.200 amerikanische Führungskräfte aus Profit- und Non-Profit-Organisationen befragt. Holtfort fasste die Erkenntnisse wie folgt zusammen: „ein hohes Maß an Selbstbewusstsein, Offenheit für neue Situationen [...] Positives Selbstbild, Eingehen von Risiken und ein eher zwangloser denn formeller Stil macht intuitive Führungskräfte aus; Intuition ist sinnvoll bei einem hohen Grad an externer Unsicherheit und Zeitdruck“ (Holtfort 2013: 68–69). In einer weltweit durchgeführten Studie (geva-institut 2007) zu Arbeitszufriedenheit und Führungsstilen wurde unter anderem auch das Idealbild einer guten Führungskraft abgefragt. In 25 Ländern nahmen insgesamt 11.027 Personen teil. Die Intuition wird dabei in zahlreiche Regionen als eine wesentliche Kompetenz für Führungskräfte angesehen. Danach sollen sich Führungskräfte in China (83 %), Deutschland (76 %), Frankreich (72 %), Indien (82 %), USA (81 %), Schweiz (74 %), von ihrer Intuition leiten lassen und nach Konsens streben. Dennoch ist Intuition nach wie vor ein Tabuthema im Management. Dies wird auch durch den 1. Satz von Sulzberger beim Geleitwort zum Buch ‚Emotion und Intuition in Führung und Organisation’ deutlich: „Der Einbezug von Emotionen und Intuitionen in die Tätigkeiten des Organisierens, des Führens und © Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_4
142
4 Notwendige interdisziplinäre Erweiterung
des Leadership ist für viele Menschen neu, für einige bekannt aber ungewohnt und bis zu einem gewissen Grade suspekt sowie für einige zwingend aber noch ungenügend ausgeprägt“ (Fröse u. a. 2016). In seiner Dissertation über ‚Intuition als Beratungskompetenz in Organisationen’ kam Hänsel zu einem ähnlichen Schluss: „Für viele Organisationen stellt etwa die subjektive und implizite Orientierung, die durch intuitives Vorgehen eingeführt wird, eine starke Provokation der bestehenden Kultur dar“ (Hänsel 2002: 193). Mit Bezug auf die Legitimation, sich auf die Intuition zu berufen, stellt er weiter fest: „dass das Thema Intuition in einigen Fällen nicht zu den expliziten Normen und Werten einiger Organisationskulturen passt und als Provokation auf gewohnte Denk- und Verhaltensmuster aufgefasst wird“ (Hänsel 2002: 173). Es erfordert Mut, seinem Bauchgefühl im Job zu folgen, wie eine Studie von Proxidea (Menk und Martin 2011) herausgefunden hat. So betrachteten bei 522 befragten Führungskräften 68 % der Manager und 57 % der Managerinnen Intuition und Bauchgefühl als verbotenes Thema. Dass Männer der Intuition ambivalenter gegenüberstehen als Frauen, wird auch bei der Forschung von Gigerenzer (Gigerenzer 2008: 82) sichtbar. Danach schätzten sich 77 % der Frauen und nur 58 % der Männer als sehr intuitiv ein. Die realen experimentellen Ergebnisse zeigten jedoch, dass die Männer mit 72 % sogar ganz leicht vor den Frauen mit 71 % lagen. Die Qualität und Häufigkeit der Intuitionsfähigkeit war damit im Grunde gleich. 4.1.2
Definitionen des Begriffs ‚Intuition’
Es ist nun an der Zeit sich mit der Definition des Begriffs ‚Intuition’ genauer auseinander zu setzen, denn „Alles, was wirklich zählt, ist Intuition!“ (Gerbert 2004), sagte Albert Einstein. Der geniale Physiker kritisierte: „Der intuitive Geist ist ein heiliges Geschenk und der rationale Geist ein treuer Diener. Wir haben eine Gesellschaft erschaffen, die den Diener ehrt und das Geschenk vergessen hat“ (ebd.). Das gleiche Zitat findet sich bei Gigerenzer (Gigerenzer und Gaissmaier 2012: 3) Im Kap. 3.2.3 wurden bereits drei Formen von Intuition vorgestellt: ‚Bauchgefühl’ (gut feeling), ‚Erkennung’ (recognition) und ‚Einsicht’ (insight) (Woolley und Kostopoulou 2013). Tatsächlich speist sich das Verständnis von bzw. über Intuition aus vielen unterschiedlichen Richtungen, die gemeinhin als gleich angesehen werden. Reyna fasst in ihren Ausführungen zu ‚einem neuen Intuitionismus’87 das Standardverständnis zur Intuition folgendermaßen zusammen: „[...] intuition is captured in dual-process approaches pitting intuition and emotion against logic and deliberation: the old reptilian brain and limbic system (intuition) versus the neocortex (rationality [...]). This familiar dualism harkens back to Descartes and to Freud’s primary and secondary processes [...] In this standard view, intuition is the old system of animal impulses and low-level decision making (the experiential 87
Unter Intuitionismus werden die Lehren verstanden, die von einem unmittelbaren Erkennen durch Intuition ausgehen, ihr zumindest einen wesentlichen Anteil zuweisen. Hierzu gehören mathematische, psychologische und philosophische Denkrichtungen.
4.1 Intuitionsforschung
143
system “1” to reflect its primacy in evolution) as contrasted with conscious cognition and high-level decision making (the rational system “2” to reflect its recency in evolution [...]“ und sie stellt weiter fest, „that the data do not consistently support it“ (Reyna 2012: 12). Im Folgenden eine Auswahl prominenter Zugänge die zeigt, dass Intuition kein isoliertes Thema irgendwelcher Randgruppen darstellt, sondern führende Köpfe verschiedenster Disziplinen beschäftigt, da Erfahrungen mit Intuition in fast alle Lebensbereiche hineinwirken. So ist beispielsweise therapeutische Arbeit ohne Intuition gar nicht zu denken: Philosophische Zugänge Hänsel fasst das Verständnis verschiedener antiker griechischer Schulen als „reine geistige Schau“ zusammen, bei dem ein „schlagartiges Erfassen des gesamten Erkenntnisgegenstandes“ vollzogen wird. „Damit wird Intuition ein Inbegriff für die Fähigkeit des Menschen zur ‚transzendenten Wahrnehmung‘ jenseits des Materiellen und Weltlichen. Diese Möglichkeit zur Einsicht in eine dahinterliegende, andere Wirklichkeit deutet auf die Verbindung des Intuitionsbegriffs mit einer metaphysischen Weltsicht hin“ (Hänsel 2002: 7). Die griechischen Philosophen sind damit die Einzigen, die über Wissen, Erfahrungen und die klassischen Wahrnehmungskanäle hinausgehen. Als Kritiker der Metaphysik formuliert Wittgenstein eine eher sprachanalytische Perspektive: „Danach drückt die Benutzung des Wortes Intuition einfach aus, dass derjenige, der es benutzt, keine für ihn adäquate Erklärung für das Zustandekommen einer Erkenntnis hat“ (Hänsel 2002: 8). Eine Formulierung, die das allgemeine Empfinden in unserem Kulturkreis vermutlich immer noch treffend beschreibt. Die Stanford Encyclopedia of Philosophy (SEP) (Pust 2016) unterscheidet drei Arten von Zugängen: 1. Intuition als Überzeugung 2. Intuition als Disposition etwas zu glauben 3. Intuition als ein einzigartiger (Sui Generis) Zustand Zu 1. Intuition als Überzeugung Zu dieser Gruppe verortet sie Philosophen, die Intuition als Überzeugung oder als eine Art von Überzeugung sehen und zitieren dazu David Lewis: „Our ‚intuitions‘ are simply opinions; our philosophical theories are the same. Some are commonsensical, some are sophisticated; some are particular, some general; some are more firmly held, some less. But they are all opinions...“ (Lewis 1983: x)
144
4 Notwendige interdisziplinäre Erweiterung
Zu 2. Intuition als Disposition etwas zu glauben Hierzu zählt sie Vorschläge, die ohne weitere Analyse einfach geglaubt werden können und zitiert dazu: „in some cases, the tendencies that make certain beliefs attractive to us, that ‚move‘ us in the direction of accepting certain propositions without taking us all the way to acceptance“ (van Inwagen 1997: 309). Nach van Inwagen wird der Begriff der Intuition bevorzugt, da er mehr Verlässlichkeit ausstrahlt als es bei ‚Glaube‘ der Fall ist. Zu 3. Intuition als ein einzigartiger Zustand In dieser Gruppe lassen sich nach der SEP unterschiedliche Varianten differenzieren. Im ersten Fall erscheint eine auftretende Behauptung als wahr. Im zweiten Fall wird eine Behauptung als wahr präsentiert. Und im dritten Fall wird der Empfänger gepuscht, um die Behauptung zu glauben. SEP unterlegt diesen Ansatz mit: „When you have an intuition that A, it seems to you that A. Here ‘seems’ is understood, not in its use as a cautionary or ‚hedging‘ term, but in its use as a term for a genuine kind of conscious episode. For example, when you first consider one of de Morgan's laws, often it neither seems true nor seems false; after a moment’s reflection, however, something happens: it now just seems true“ (Bealer 1998: 207). Bei Philosophen dieser Verständnisrichtung gehören demnach auch wahrnehmende Erfahrungen zu dieser Kategorie. Sie suchen nach Möglichkeiten Intuition, Wahrnehmung, Erscheinungsbilder und Erfahrungen zu unterscheiden. Die SEP unterscheidet in diesem Kontext auch zwischen einer ‚a priori Intuition‘ und einer ‚physischen Intuition‘, wobei erstere als rationale Intuition angesehen wird, ohne dass eine körperliche Wahrnehmung notwendig ist. Die SEP weist selbst darauf hin, dass es sich bei diesen Definitionen mehr um psychologische Zustände handelt und in Fällen, die darüber hinausgehen, andere Fakultäten betroffen wären. Sie formuliert einen zentralen Unterschied im Intuitionsverständnis, indem sie feststellt, dass der Kontrast zwischen einem philosophischen und einem naturwissenschaftlichen Intuitionsbegriff für die Naturwissenschaften eine empirische Beobachtung fordert, nicht aber für die Philosophie (vgl. Pust 2016: 8). Auch in der experimentellen Philosophie geht es mehr um die Frage wie Menschen eigentlich denken und um die Ergründung des psychologischen Mechanismus. Psychologische Perspektive Aus der analytischen Perspektive der Psychologie kommen Freud und C.G. Jung. „Es ist wiederum nur Illusion, wenn man von der Intuition und der Selbstversenkung etwas erwartet“ (Freud 1927). Freud bleibt jedoch eine Definition seines Intuitionsverständnisses schuldig. Dass er dennoch hier aufgeführt wird, hat mit seiner Rolle im westlichen Kulturkreis, als Vater des Unbewussten, zu tun. Sein Verständnis über das Unbewusste ist zudem gut anschlussfähig an die experimentellen und theoretischen Ergebnisse im Rahmen der Entscheidungsforschung. „Die Erfahrung zeigte bald, dass der analysierende Arzt sich dabei am zweckmäßigsten verhalte, wenn er sich selbst bei gleichschwebender Aufmerksamkeit seiner eigenen
4.1 Intuitionsforschung
145
unbewussten Geistestätigkeit überlasse, Nachdenken und Bildung bewusster Erwartungen möglichst vermeide, nichts von dem Gehörten sich besonders im Gedächtnis fixieren wolle, und solcher Art das Unbewusste des Patienten mit seinem eigenen Unbewussten auffange“ (Freud 1920: 215). An anderer Stelle wählt Freud Beschreibungen, die gut auf den Kontext von biologischen und neurologischen Systemen übertragbar sind, wie wir noch sehen werden. Der Arzt „soll dem gebenden Unbewussten des Kranken sein eigenes Unbewusstes als empfangendes Organ zuwenden, sich auf den Analysierten einstellen wie der Receiver des Telephons zum Teller eingestellt ist. Wie der Receiver die von Schallwellen angeregten elektrischen Schwankungen der Leitung wieder in Schallwellen verwandelt, so ist das Unbewusste des Arztes befähigt, aus den ihm mitgeteilten Abkömmlingen des Unbewussten dieses Unbewusste, welches die Einfälle des Kranken determiniert hat, wiederherzustellen“ (Freud 1909: 381–382). Hänsel (vgl. Jung und Jung 2014: 39) unterscheidet beim Intuitionsverständnis von C.G. Jung zwei Formen: Erstens, eine extravertierte Form, das instinktive Erfassen oder Ahnen des ‚fertigen Ganzen’, das Jung als subliminale Wahrnehmung realer Objekte interpretiert. Diese Objekte sind demnach mit unseren unbewussten Gefühlen und Gedanken verbunden. Zweitens, eine introvertierte Form. Hier werden unbewusste psychische Entitäten wahrgenommen und damit verbundene ideelle Zusammenhänge und mythologische Bilder. Jung verbindet mit der zweiten Form die Möglichkeit eines Zugangs zum kollektiven Unbewussten. Berne, der Begründer der Transaktionsanalyse verstand unter Intuition: „Eine Intuition ist Wissen, das auf Erfahrung beruht und durch direkten Kontakt mit dem Wahrgenommenen erworben wird, ohne dass der intuitiv Wahrnehmende sich oder anderen genau erklären kann, wie er zu der Schlussfolgerung gekommen ist“ (Berne und Hagehülsmann 1991: 36). Für ihn ist Intuition ein wesentlicher Teil des therapeutischen Handelns. Aufsetzend auf Berne fordert Schmid: „Intuition muss wie jedes Urteilen über Wirklichkeit in verschiedenen Dimensionen beschrieben und kritisch befragt werden. Intuitives Urteilen kann zum Beispiel falsch oder richtig, qualifiziert oder unqualifiziert, befangen oder unbefangen, konventionell oder kreativ, borniert oder weitsichtig, versponnen oder der Welt zugewandt, liebevoll oder gnadenlos sein. »Intuitiv« ist also weder ein Gütesiegel noch eine Disqualifikation“ (Schmid 2010: 2). Mit Gigerenzer, Kahneman, Tversky und Klein kommen jetzt vier Psychologen zu Wort, die sich schwerpunktmäßig mit Entscheidungen beschäftigen. Für Gigerenzer sind „Bauchgefühl, Intuition oder Ahnung austauschbar“ (Gigerenzer 2008: 25). Sie dienen dazu, „ein Urteil zu bezeichnen, 1. das rasch im Bewusstsein auftaucht, 2. dessen tiefere Gründe uns nicht ganz bewusst sind und 3. das stark genug ist, um danach zu handeln“ (ebd.). „The judgments and decisions that we are most likely to call intuitive come to mind on their own, without explicit awareness of the evoking cues and of course without an explicit evaluation of the validity of these cues. [...] Intuitive skills are not restricted to
146
4 Notwendige interdisziplinäre Erweiterung
professionals: Anyone can recognize tension or fatigue in a familiar voice on the phone“ (Kahneman und Klein 2009: 519). Bei ihnen wird explizit die Kopplung an eine Professionalität aufgelöst und dem allgemeinen Erleben zur Verfügung gestellt. Kahneman und Tversky setzen Intuition und ihr System 1 synonym ein, was in ihrer Formulierung deutlich wird: „a distinction between effortless intuition and deliberate reasoning“ oder „intuitive thinking [...] is rapid and effortless.“ „The analogy between intuition and perception has been especially fruitful in identifying the ways in which intuitive thought differs from deliberate reasoning, and the notions of accessibility and dual-process analyses play a fundamental role“ (Kahneman 2003). Kahneman’s Selbstbeschreibung nach haben sie sich allerdings „nicht mit richtiger Intuition beschäftigt. Wir konzentrieren uns auf kognitive Verzerrungen [...] Wir fragten uns nicht, ob alle intuitiven Urteile unter Ungewissheit von den von uns erforschten Heuristiken hervorgebracht werden; mittlerweile wissen wir, dass dies nicht der Fall ist. [...] Wir können heute ein differenziertes und ausgewogenes Bild zeichnen, in dem Kompetenz und Heuristiken alternative Quellen intuitiver Urteile und Entscheidungen sind“ (Kahneman 2016: 22–23). Sozialwissenschaftliche Perspektive Simon beschäftigte sich, wie einige der Psychologen, intensiv mit Entscheidungstheorien. Seine Definition von Intuition basiert aus einer Expertenperspektive heraus. Der Experte erkennt aufgrund seiner Erfahrung Hinweisreize, die ihm Zugang zu gespeicherten Informationen im Gedächtnis ermöglichen, woraus er Antworten erzeugt. „We use the word intuition to describe a problem solving or question-answering performance that is speedy and for which the expert is unable to describe in detail the reasoning or other process that produced the answer. The situation has provided a cue; this cue has given the expert access to information stored in memory, and the information provides the answer. Intuition is nothing more and nothing less than recognition. [...] We are aware of the fact of recognition, which gives us access to our knowledge about our friend; we are not aware of the processes that accomplish the recognition“ (Simon 1992). Er kann dabei keine Inkompatibilität zwischen Intuition und Analyse erkennen. Damit folgt seine Definition der Tradition der Mustererkennung. Schmid u. a. verstehen unter Intuition ein spekulatives Element. „Das, was durch dieses spekulative Element möglicherweise gefasst und nutzbar gemacht werden kann, wird häufig mit ‚intuitiv‘ bezeichnet“ (Schmid u. a. 1999). Aus ihrem systemisch-konstruktivistischen Verständnis abgeleitet, bleibt für Schmid dabei offen über wen die ‚intuitive’ Spekulation etwas erzählt. Über den, der intuitiv erfasst wird, über beide (intuitiv Erfassender und Erfasster), wie sie sich in einem Bild treffen oder wie sie eine gemeinsame Wirklichkeit kreieren. Als Ergebnis ergibt sich aus einem solchen Vorgang ein intuitives Urteil. In Kombination mit der Definition von Berne kommen Schmid u. a. schließlich zu folgender Definition: „Intuition meint ein Urteilen über Wirklichkeit, ohne dass der Beurteilende weiß, wie er sein Urteil bildet und oft ohne, dass er in Worten weiß, worin sein Urteil besteht. Die Urteile zeigen sich jedoch in seinen Handlungen.
4.1 Intuitionsforschung
147
Intuition kann daher als Handlungswissen bezeichnet werden“ (Schmid u. a. 1999). Die Autoren führen weiter aus, dass der Kommunikator mit seinem möglicherweise verzerrten oder gar falschen intuitiven Urteil in der Lage ist, das Gegenüber so zu beraten, dass dieses falsche Urteil bestätigt wird und letztlich beide das (falsche) Bild teilen. Klinische Perspektive Die Struktur der Intuition in Problemlöseprozessen beschreibt Bowers aus einer klinisch-psychologischen Perspektive heraus, aufgrund verschiedener Wahrnehmungsund Gedächtnisexperimente folgendermaßen: „Accordingly, our model of intuition implies that a pattern of clues more or less unconsciously and automatically activates relevant mnemonic and semantic networks, thereby guiding thought tacitly to an explicit hypothesis or hunch“ (Bowers u. a. 1990: 94). Mit Bezug auf Benner und Tanner (1987) definiert Rew Intuition im klinischen Bereich: „Intuition, as described by nurses in clinical practice, is defined as the deliberate application of knowledge or understanding that is gained immediately as a whole and that is independently distinct from the usual, linear, and analytical reasoning process“ (Rew 2000: 95). Weber kommt aus der klinischen Psychologie und darf als eine der wichtigsten Personen angesehen werden, die SyA in die Organisationen brachte. Bereits 2005 haben Weber und Kollegen „eine Theorie des ‚ganzen Körpers’ als Wahrnehmungsorgan für zwischenmenschliche Beziehungen“ (Weber u. a. 2005: 59) gefordert und neben der diakritischen88 auf eine zweite Wahrnehmungsmöglichkeit, der koinästhetischen89, hingewiesen. Ergänzend führen sie dazu aus: „‚Bauchgefühl’ ist die umgangssprachliche Bezeichnung dafür.“ (ebd.) Und weiter: „Wenn der Körper und die koinästhetische Wahrnehmung die Grundlage für das Erleben von Beziehungen sind, so kann es nicht verwundern, dass unterschiedliche Menschen Ähnliches in ähnlichen Positionen erleben. Der Körper bzw. die biologische Umwelt der Psyche ist das verbindende Glied, das menschliche Beziehungen universell miteinander verbindet“ (ebd. 60). Gemeinsamkeiten und Unterschiede in den Definitionen Auf den ersten Blick scheint es zahlreiche, widersprüchliche Definitionen zu geben, die alle Lebensbereiche abdecken. Mit Ausnahme der philosophischen Annäherung der SEP geht es jedoch bei allen Definitionen um Unbewusstes, Unwillkürliches, Arationales und um Erkenntnisse und Schlussfolgerungen, die unvermittelt entstehen. Des Weiteren wird der intuitiven Wahrnehmung ein ganzheitlicher Charakter zugeschrieben, der bei 88
89
Diakritisch: Nutzung der einzelnen Sinnesorgane und ihrer Fähigkeiten wie Sehen, Fühlen, Schmecken, Riechen, Hören. Koinästhetische (griech. Koinos = insgesamt, ganz): darunter wird die Tiefensensibilität verstanden, bei der der Körper insgesamt reagiert und keine räumlich getrennten Einzelwahrnehmungen unterschieden werden können.
148
4 Notwendige interdisziplinäre Erweiterung
einigen Definitionen um unterstützende emotionale Zustände erweitert wird. Wenngleich in den Definitionen nicht explizit aufgeführt, wird bei allen Autoren eine nichtdiskursive Eingebung angenommen. Als möglichen Unterschied lassen sich zwei Aspekte aufführen: Zum einen werden die Erkenntnisse unterschiedlichen Ausgangsprozessen zugeordnet. Zum anderen geht in der Regel eine starke innere Sicherheit damit einher, nicht bei allen wird aber ein Handlungsdruck erzeugt. Bezogen auf die Unterscheidung und Kategorienbildung von Woolley und Kostopoulou lässt sich die in Tab. 8 gezeigte Zuordnung konstruieren, wobei der philosophische Ansatz der SEP hier keine Berücksichtigung findet. Tab. 8 | Wahrnehmungskategorien der Intuition Eigene Darstellung auf Basis der begrifflichen, aber nicht erklärungstechnischen Unterscheidung nach Woolley und Kostopoulou (2013). Mit ‚Bauchgefühl’ als Repräsentant für geistige oder körperliche Wahrnehmungen ohne Erklärungsoption. ‚Erkennung’ auf der Basis von Mustererkennung und Reduktion und ‚Einsicht’ auf der Basis von Wissen und Kompetenz. Zugeordnet sind noch bekannte Wissenschaftler, die die jeweilige Kategorie in ihren Arbeiten vertreten bzw. begründen.
Bauchgefühl (gut feeling) Griechische Philosophen (ca. 600 – 500 v. Chr) Jung (1921) Freud (1927) Dunn (2010) Smith (2014) Kandasamy (2016)
Erkennung (recognition) Simon (1992) Gigerenzer (2008) Kahneman / Tversky (2009)
Einsicht (insight) Berne (1991) / Schmid (2010) Benner / Tanner (1987) Simon (1992) Kahneman / Tversky (2009)
Es scheint eine zeitliche Veränderungstendenz in den Beschreibungen zu geben, die sich von dem meta-physischen, ‚nicht-erklärbaren’ Bauchgefühl der ersten Denker hin zu erklärbaren Ansätzen in der jüngeren Zeit bewegt. Dass es mittlerweile wieder in die umgekehrte Richtung geht und die Nicht-Erklärbarkeit mit bestehenden Modellen als Fakt angenommen wird, geht aus den folgenden Experimenten der Intuitionsforschung hervor. 4.1.3
Erstaunliche Beispiele aus der Intuitionsforschung
Weitere Merkwürdigkeiten und der Versuch einer Zuordnung Dass sich die Intuitionsfähigkeit bei Entscheidern wesentlich unterscheidet, wird durch die im Rahmen der Entscheidungstheorie untersuchten Beispiele deutlich. „Consequently, intuition either can be a powerful ally, complementing logical analysis to facilitate adaptive choices, or can lead to costly and dangerous mistakes“ (Dunn u. a. 2010). Er bezieht sich dabei u. a. auf die Ergebnisse von Myers (2007, 2004), der diesen Zusammenhang ausführlich aufbereitete. In folgenden Beispielen wird nicht auf diesen
4.1 Intuitionsforschung
149
grundsätzlichen Unterschied einer gelungenen oder weniger gelungenen Intuition Bezug genommen. Stattdessen werden im Schwerpunkt Experimente aus der expliziten Intuitionsforschung vorgestellt, die das prinzipielle Vorhandensein von Bauchgefühlen herausstellen sollen. Unter Entscheidungstheorie sind bereits zahlreiche Experimente behandelt worden, die zum heutigen Verständnis der Intuition beigetragen haben. In die folgende Auswahl aufgenommen werden Beispiele und Experimente, die über die im Rahmen der Entscheidungstheorie bereits bekannten Merkmale hinausgehen. Sie umfassen bewusst das gesamte Spektrum von Woolley und Kostopoulou (siehe Tab. 8) und werden, wie auch alle anderen Beispiele und Experimente, in Kap. 5.1 den drei Kategorien zugeordnet. Alltagsbeispiel Beispiel 1 – 3: Richtige Tonzuordnung, ermüdende und versagende Intuition Diese ersten Erlebnisse aus dem Alltag sollen die Aufmerksamkeit zunächst auf eher triviale Ereignisse und Phänomene lenken, die üblicherweise unbeachtet bleiben. Für sie haben wir sehr schnell den Zufall oder Aussagen wie ‚ist doch zu erwarten’ zur Hand. Tatsächlich fügen sie sich problemlos in den Gesamtphänomenologie der hier untersuchten Thematik. Es ist anzunehmen, dass auch sie zumindest durch einen Teil des Prozesses realisiert werden, der im Folgenden entwickelt wird. Becker startet in seinem 2. Kapitel mit einem Erlebnis in einer Radiosendung (Becker und Bongertz 2014). Die Moderatorin eröffnete ihm, dass sie extra für ihn und diese Sendung einen Ton vorbereitet habe, den er beschreiben soll. Tatsächlich hörte er in diesem Moment einen Ton, der sich wie ein Hammer anhörte, der auf einen Stein schlägt. Er konnte sich zwar nicht vorstellen, dass sein Eindruck für diese Sendung passt, sprach den Gedanken aber dennoch aus. Die Aufnahme, die dann abgespielt wurde, war tatsächlich ein auf einen Stein schlagender Hammer. Seine rationalen Überlegungen führten zu einem anderen Schluss als die erste Resonanz auf das Geschehen. Mit solchen Anekdoten lassen sich natürlich keine wissenschaftlichen Beweise führen, sie veranschaulichen aber gut, um was es bei Intuition geht. Einem Gefühl oder Eindruck folgen, ohne eine rationale Erklärung zu haben. Zwei weitere Alltagserfahrungen beschreibt Schmid (Schmid 2010: 4) wenn er feststellt, dass intuitive Arbeit ermüdet und durch Druck beeinträchtigt wird. Als Beispiel führt er die Arbeit von Menschen (z. B. Therapeuten) an, die ihre Aufmerksamkeit auf ihre intuitiven Wahrnehmungen lenken und dabei geistig munter sind, sich jedoch nach einiger Zeit oft seelisch und geistig erschöpft fühlen. Die zweite von Schmid genannte Alltagserfahrung, gestörte intuitive Prozesse bei Druck z. B. Bewährungsdruck, treten nach seiner Beobachtung vor allem dann auf, wenn die Person keine mentalen Mechanismen hat, um damit konstruktiv umzugehen. Die Frage, die sich stellt, lautet: Was passiert bei solch intuitiven Prozessen tatsächlich und was wirkt da? Weshalb ermüdet intuitive Arbeit und weshalb funktioniert sie nicht unter Druck?
150
4 Notwendige interdisziplinäre Erweiterung
Trader an der Börse Beispiel 4: Zusammenhang von Herzschlagänderung und Spekulationserfolg Eine am 19.09.2016 in NATURE, SCIENTIFIC REPORTS präsentiertes Ergebnis einer Cambridge-Studie zur Intuition von Wertpapierhändlern an der Londoner Börse (Kandasamy u. a. 2016) zeigt auch hier die Relevanz unbewusster Wahrnehmungen. Untersucht wurde, inwieweit ihr Erfolg und ihre Überlebensfähigkeit auf dem Börsenparkett von ihrer Fähigkeit auf Körpersignale zu achten, abhängt. Speziell wurde ihre Wahrnehmungsfähigkeit in Bezug auf die Änderung ihres Herzschlags beobachtet. Sie gingen dabei von früheren Studien (Sokol-Hessner u. a. 2015; Crone u. a. 2004; Bechara u. a. 1997) aus, die einen Zusammenhang zwischen Sensibilität bzgl. Herzschlagänderung und der Fähigkeit bessere Entscheidungen in risikoreichen Situationen zu treffen, erkannten. Als Ergebnis kamen die Autoren zu dem Schluss, „Our findings suggest that the gut feelings informing this decision are more than the mythical entities of financial lore - they are real physiological signals, valuable ones at that“ (Kandasamy u. a. 2016: 5). Die FAZ zitierte dazu am 21.09.2016 (Kuls 2016) den legendären Hedgefonds Manager und Multimilliardär George Soros, der weniger auf seinen Bauch als auf seinen Rücken hörte und aufkommende Rückenschmerzen als frühe Warnsignale interpretierte. Die Autoren der Studie erkennen weiter die Unmöglichkeit an, zufällige Systeme, wie sie Finanzmärkte darstellen, ausschließlich mit Intelligenz, Ausbildung oder Training erfolgreich zu managen. „We find on the contrary that the physiological state of traders does have large effects on their success and survival [...] our results suggest that economics and the behavioural assumptions upon which it rests, will benefit from a greater involvement with human biology“ (Kandasamy u. a. 2016: 5). Sie stellen weiter fest, dass die aktuellen Debatten die Rolle somatischer Signale in Bezug auf Entscheidungen und Verhalten vernachlässigen und sich nur zwischen einerseits Psychologie / Neurowissenschaften und andererseits experimenteller Wissenschaften bewegen. Die Autoren weisen explizit darauf hin, dass sie keine kausale Erklärungen für ihre Ergebnisse vorlegen können und „Furthermore, we formulated our hypothesis and interpreted our study results so as to build on existing and cumulative evidence that suggests interoceptive90 sensitivity contributes to effective risk taking, and on the known neural mechanisms underlying this evidence“ (Kandasamy u. a. 2016: 5). Bei den kumulierten Nachweisen beziehen sie sich auf die beiden Caltech-Gruppen um Smith und Bruguier (Smith u. a. 2014; Bruguier u. a. 2010). Bei Experimenten einer Forschungsgruppe aus Cambridge (Dunn u. a. 2010), in denen die Teilnehmer im Laufe von 100 Runden lernen mussten, aus vier unterschiedlichen, verdeckten Kartenstapeln die zwei profitablen auszuwählen, ergaben sich ebenfalls signifikante intuitive Treffer. Sie sollten für den ausgewählten Stapel bestimmen, ob ihre eigene Karte die gleiche oder eine andere Farbe aufweist, als die verdeckte auf dem Stapel. Treffer führten zu finanziellem Gewinn, mit dem Ziel, die emotionale Beteiligung zu erhöhen. Die Forscher konnten ebenfalls einen Zusammenhang zwischen 90
Interozeptiv bezieht sich auf Wahrnehmungen bei denen Informationen nicht über die Außenwelt, sondern aus oder über eigene Körperteile erfasst werden (vgl. Buser u. a. 2007: 93).
4.1 Intuitionsforschung
151
der Wahrnehmungsfähigkeit subtiler körperlicher Veränderungen und kognitiv-affektiver Verarbeitung (richtiges Raten), nachweisen. Je besser die Wahrnehmung desto besser die Beziehung zwischen der Körperreaktion und deren Verarbeitung. Bei diesen Versuchen gab es keine Möglichkeit mithilfe klassischer Informationen (5 Sinne, Knowhow) die Gewinnwahrscheinlichkeit zu erhöhen. Dunn u. a. (2010) zeigten darüber hinaus, dass interozeptive, körperliche Wahrnehmungsfähigkeit die Intuition nicht nur unterstützen, sondern auch hindern kann. Ob die Interozeption für die adaptive intuitive Entscheidung hilfreich oder behindernd wirkte, hing von der inneren Ausrichtung bzgl. der zu treffenden Wahl ab (wurde eher auf die Vorteile oder eher auf die Nachteile fokussiert). Beispiel 5: Neurologische Signale im Vorfeld von Spekulationsblasen Die Erkenntnisse von Smith u. a. (2014) wurden bereits in Kap. 3.2.3 vorgestellt. Sie konnten Aktivitäten im Gehirn von Tradern nachweisen, die bereits vor einer Spekulationsblase Warnsignale erzeugten. Trader, die in der Lage waren darauf zu hören, waren deutlich erfolgreicher als diejenigen, die diese Sensibilität nicht hatten. Beispiel 6: Erfassung der Intention von Insidern Auch Bruguier u. a. (2010) forschten an der ‚Intuition von Händlern’. Sie führten den Nachweis, dass unwissende Novizen in der Lage waren, bei Anwesenheit von erfahrenen Insidern, selbst erfolgreich zu spekulieren. Erfolgreich waren sie nur bei Anwesenheit von Insidern, nicht bei deren Absenz. Die Autoren vermuteten dahinter das Erkennen von Mustern bezogen auf das Verhalten der erfahrenen Kollegen und letztlich das Wirken der ‚Theory of Minds’ und dass es möglich ist, Intentionen oder Zielrichtungen anderer zu erfassen und das auch bei großen Ansammlungen von Menschen. Bezogen auf das ‚Wie’ führen sie die Beobachtung des Augenausdrucks, Bewegung von Objekten oder Wettbewerbern an. Genau diese Möglichkeiten schlossen Kandasamy u. a. aus, weshalb sie keine kausalen Erklärungsansätze mehr liefern konnten. Ihre Kandidaten kauften und verkauften Terminkontrakte. Sie hatten alle die gleiche Information und keinen Kontakt zu anderen. Sie waren damit ausschließlich von ihren eigenen Skills, den Anzeigen an den Monitoren und den Reaktionen am Markt abhängig. Intuition von Experten Beispiel 7: Drogenkurier Gigerenzer beschreibt einen typischen Fall von Polizeiarbeit am Flughafen. Die Fahnder versuchen aus der ankommenden Menschenmenge Drogenkuriere zu identifizieren. Die Blicke der Drogenkurierin und des Fahnders kreuzten sich: „Augenblicklich bildete sich jeder eine Meinung über den anderen und über die Gründe, die jeden zum Flughafen geführt hatten, und beide hatten recht.“ Der Fahnder informierte seinen Kollegen, die Frau ging durch die Tür und brauchte „lediglich zehn Sekunden, um in der wartenden Menge den Partner von [...] als das zu erkennen, was er war“ (Gigerenzer 2008: 22). Gigerenzer stellte dann die Frage, wie die Frau und der Fahnder dies erkennen konnten.
152
4 Notwendige interdisziplinäre Erweiterung
Der Fahnder konnte nicht angeben, was an ihr ungewöhnlich erschien und wie er sie erkannte. Beispiel 8: Feuerwehrmann Klein untersuchte u. a. Fälle, die unter hohem Zeitdruck und mit lebensgefährdenden Risiken verbunden waren (Klein u. a. 2010: 194–195). In einem Fall führte der Hauptmann seine Gruppe in den hinteren Teil des Hauses, zum scheinbaren Herd des Feuers. Kaum, dass sie mit dem Löschen begonnen hatten, befahl er seiner Gruppe unvermittelt das Haus zu verlassen. Er wusste nicht warum, aber unmittelbar nach dem letzten Feuerwehrmann brach der Flur in sich zusammen. Etwas, was er nicht erwartet hatte. Erst im Nachgang wurde ihm das ungewöhnlich leise Feuer und die extreme Hitze bewusst und es stellte sich heraus, dass das Feuer im Keller war und nicht im Erdgeschoß. Sein Verhalten führte er auf einen ‚sechsten Sinn’ zurück. Beispiel 9: Kunstfälschung Kahneman erzählt die Geschichte einer Marmorstatue eines schreitenden Jünglings (Gladwell 2007), bei der das J. Paul Getty Museum in Los Angeles die weltweit führenden Experten um eine Echtheitsprüfung bat. Alle Experten hatten das intuitive Gefühl eine Fälschung vor sich zu haben, konnten dies aber nirgends konkret festmachen oder in Worte fassen (Kahneman 2016: 291). Kahneman und Klein konnten sich mit diesem Ergebnis nicht abfinden und unterstellten eine unsachgemäße Untersuchung und das Übersehen von Hinweisen. Beispiel 10: Medizin Hier sei noch einmal auf die Beispiele aus der Medizin in Kap. 3.2.3 hingewiesen (Woolley und Kostopoulou 2013), bei denen Ärzten ihrem Bauchgefühl vertrauten und teilweise ohne andere Informationen innere Impulse wahrnahmen, die sich später bestätigten. Beispiele von Hebammen ergänzen diese Erfahrungen. Dörpinghaus berichtet von der Fähigkeit von Hebammen den körperlichen Zustand der Kinder im Mutterleib spüren zu können. So lag in einem Beispiel ein CTG91 mit völliger Unauffälligkeit vor. Die Hebamme bekam jedoch ein schlechtes Gefühl: „Ich habe es körperlich gespürt, dass es dem Kind nicht gut geht“ (Dörpinghaus 2016a). Ihr körperliches Gefühl stand mit konkurrierenden physikalischen Signalen der Technik im Widerspruch. Die epistemischen Ergebnisse bestätigten später ihre intuitive Wahrnehmung. Das Kind hatte eine Schulterverhakung und musste mit Kaiserschnitt geholt werden. Weitere Beispiele finden sich bei Dörpinghaus (2016b). Kahneman und Klein (2009: 517) beziehen sich ebenfalls auf Studien mit Krankenschwestern (Crandall und Getchell-Reiter 1993), die in der Lage waren, lebensbedrohende Infektionen zu erkennen, noch bevor diese im Bluttest nachweisbar waren. 91
Mit dem CTG (engl. Cardiotocography) werden die Herztöne des Kindes und die Wehentätigkeit der Mutter während der Schwangerschaft und der Geburt kontrolliert.
4.1 Intuitionsforschung
153
Beispiel 11: Teams im Sport Als letztes Beispiel mit Bezug auf Experten soll der Unterschied von Teams mit einer hohen Teamkultur und der von Gruppen aus Einzelkämpfern ohne Teamspirit betrachtet werden. Bestehende Forschungsarbeiten im Sport beschäftigen sich im Wesentlichen mit Heuristiken, die sich auf Entscheidungen von Einzelspielern beziehen. Identifiziert wurden erstens die Take-the-First, zweitens die Recognition- und drittens die Take-theBest Heuristik (Bennis und Pachur 2006: 617–622). Die letzten beiden Heuristiken waren vor allem im Vorhersagen von Ergebnissen zwischen unterschiedlichen Mannschaften im Einsatz und nicht in Bezug auf die Wahl, die ein Sportler im Wettkampf zu treffen hatte. Nicht untersucht wurde das Interagieren der Spieler untereinander, basierend auf der Annahme einer gefühlten, ‚intuitiven’ Verbindung; sicherlich auch aufgrund der messtechnischen Problematik. Bei Sportinteressierten scheint es jedoch ein bekanntes Phänomen zu sein, dass gute Teams aus durchschnittlichen Spielern sehr häufig gegen Mannschaften mit hervorragenden Einzelspielern, aber keiner Teamkultur gewinnen. An einem unterschiedlichen Training oder unterschiedlicher Fitness scheint dies nicht zu liegen. Eine Begründung mit Heuristiken scheint ebenfalls schwierig, haben die hervorragenden Einzelspieler ja schon bewiesen, dass sie diese Disziplin besser beherrschen als die durchschnittlicheren Spieler. Klassischerweise fallen in einem solchen Kontext oft Aussagen wie: wir haben uns blind verstanden, ich wusste einfach wo der Mitspieler hinläuft etc. Es braucht also keine spezielle Kommunikation, um die Bruchteile von Sekunden schneller zu sein als die Gegenspieler. Die Betroffenen wussten innerlich, wo der Teamkollege sich befindet und konnten überraschende blinde Pässe spielen. Als gängiges Argument für den Unterschied zwischen echtem Team und Gruppe wird gerne die höhere Motivation, eine größere Laufbereitschaft und der Mehreinsatz für den Mitspieler vorgebracht. Was, wenn durch eine bessere persönliche Beziehung eine bessere unbewusste Ahnung über die Position des Mitspielers entsteht, die im entscheidenden Moment genutzt wird, um den ‚tödlichen’ Pass zu spielen. Dass diese Erklärung eine realistische Möglichkeit darstellt, wird durch neueste Forschungen deutlich, die im Kap. 8.3 Neurowissenschaften vorgestellt werden. Implizites Lernen von nicht wahrnehmbaren Unterschieden Beispiel 12: Chicken Sexing Eine der bekanntesten Beispiele für intuitive Wahrnehmung und automatisches Lernen ist die japanische Methode der Geschlechtsbestimmung von Küken (Horsey 2002: 107– 108), das sogenannte ‚Sexen’. Die Züchter nehmen die noch keinen Tag alten Küken in die Hand, schauen auf das Hinterteil und wissen sofort und zuverlässig, welchem Geschlecht sie zuzuordnen sind. Ihre Trefferquote lag nahe bei 100 % bei 800 bis 1.200 Küken pro Stunde. Sie können nicht sagen, woran sie den Unterschied erkennen. Zu diesem Zeitpunkt existiert noch kein sichtbarer Unterschied zwischen männlichen und weiblichen Küken. Konsequenterweise kann auch kein bewusstes Wissen an Lernende weitergegeben werden (McWilliams 2017). Neue Geschlechtsbestimmer werden deshalb auch auf eine besondere Art ausgebildet. Sie nehmen ebenfalls die Küken in die Hand, schauen sich das Hinterteil an und raten. Der Ausbilder steht dahinter und
154
4 Notwendige interdisziplinäre Erweiterung
bestätigt oder korrigiert. In einer mehrwöchigen Ausbildung lernen die Neuen die Methodik des Chicken Sexing ebenfalls zuverlässig (ebd.). Diese implizite Form des Lernens wird in verschiedensten Kontexten untersucht (Norman und Price 2012; Cleeremans u. a. 1998) und ist ebenfalls eine Herausforderung für alle auf Rationalität und Logik beschränkte Konzepte. Die gleiche Erfahrung, etwas einfach wahrzunehmen, machen professionelle Weintester und medizinische Diagnostiker, wie bereits gesehen. Horsey vergleicht diese Kompetenz mit der grundsätzlichen Fähigkeit, Hinweise welcher Art auch immer in Form von Kategorisierungen zu lernen (Horsey 2002). Die Voraussetzung dazu muss aus seiner Sicht eine selektive Aufmerksamkeit sein, die wir über Training entwickeln können. Offen bleibt in diesem Fall, über welche Form von Wahrnehmung diese Zuordnung ermöglicht wird. Im Gegensatz zur visuellen Ununterscheidbarkeit geschlüpfter männlicher und weiblicher Küken zeigen moderne Forschungen Differenzierungsmöglichkeiten bereits wenige Tage nach der Befruchtung auf. Eine molekulare Bestimmung der Flüssigkeit der Eier gelang nach 9 Tagen (Weissmann u. a. 2013) und eine Bestimmung mittels einer optischen Spektroskopie gelang bereits nach 3,5 Tagen bei einer Wellenlänge von ≈ 910 nm (Galli u. a. 2017). Beispiel 13: Flugabwehr Wie bei den Küken war auch für die Späher im 2. Weltkrieg die Notwendigkeit gegeben etwas zu einem Zeitpunkt erkennen zu müssen, zu dem es scheinbar noch keine Unterscheidungsmöglichkeiten gab (Horsey 2002: 108–109). Horsey bezog sich dabei auf einen Bericht von Allan (Allan 1958). Während des zweiten Weltkriegs war es für die Wachmannschaft von Truppenstandorten wichtig, frühzeitig herannahende Kampflugzeuge als eigene oder als feindliche zu identifizieren. Gute Späher waren in der Lage, feindliche Flugzeuge am Horizont von den eigenen Flugzeugen zu unterscheiden, als am Horizont nur ein sehr kleiner Punkt sichtbar war. Formale Unterscheidungskriterien, die man auch für das Training neuer Späher hätte nutzen können, ließen sich nicht identifizieren. Aber auch hier scheiterte der konventionelle Versuch Wissen weiter zu vermitteln, da die Späher selbst ebenfalls nicht sagen konnten wie und woran sie die Flugzeuge erkennen, sie wussten es einfach. Das Training neuer Späher erfolgte in gleicher Weise wie beim Chicken Sexing, mit Trial-and-Error unter Anwesenheit eines Experten. Auch hier fand ein ausschließlich unterbewusster Wahrnehmungs- und Lernprozess statt. Woher stammt dieses unerklärlich, implizite Wissen? Beispiel 14: Verborgene Muster erkennen Um implizite Informationen muss es sich wohl auch in den Beispielen von Cleeremans handeln (Cleeremans 1993). Cleermans untersuchte das Phänomen des ungewollten, impliziten Lernens. Er konnte zeigen, dass Versuchspersonen in der Lage waren verborgene Muster zu erkennen und darauf aufbauend passende Vorhersagen zu treffen, unabhängig davon, ob sie wussten, dass es ein solches Muster gibt oder nicht.
4.1 Intuitionsforschung
155
In einer aktuellen Studie (Lufityanto u. a. 2016) wurden bei vergleichbaren Untersuchungen im Zusammenhang mit Entscheidungsfindung eine Bestätigung und eine relevante Ergänzung beobachtet. Zum Ersten, dass Intuition mittels praktischer Übung gelernt werden kann und zum Zweiten, dass unbewusste emotionale Begleitumstände die Entscheidungsqualität, die Entscheidungsgeschwindigkeit und das Vertrauen in die Entscheidung beeinflussen. Verborgene Begleitinformation (Bilder einer angreifenden Schlange oder eines kleinen süßen Hundes) verbesserte die intuitive Wahrnehmung und Entscheidungsbildung deutlich, gegenüber neutralen Umständen. Es zeigte sich aber auch ein unbewusstes Bias auf die Ergebnisse, der durch die emotionalen Stimuli verursacht wird. Sonstige Beispiele Beispiel 15: Antizipation verschlüsselter Informationen Mithilfe von MEG-Messungen 92 untersuchte die Gruppe um Horr die Rolle des orbitofrontalen Cortex (OFC) bei intuitiven Prozessen („Feeling before knowing why“) (Horr u. a. 2014). Im Grunde entspricht ihre experimentelle Anordnung einem impliziten Lernexperiment, wie sie eben vorgestellt wurden, nur dass hier die neuronalen Aktivitäten beobachtet wurden. Sie führten dabei die Versuche von Bowers u. a. weiter, deren Intuitionsverständnis oben mit in die Definitionen aufgenommen wurde (Bowers u. a. 1990). Versuchspersonen saßen vor Computermonitoren und sollten fragmentierte und verschlüsselte Zeichen als kohärent oder nicht-kohärent identifizieren. Die Art der Verschlüsselung konnte verschiedene bisher vermutete Zusammenhänge ausschließen: „that OFC activation was independent of physical stimulus characteristics, task requirements, and participants’ explicit recognition of the stimuli presented“ (Horr u. a. 2014). Die kohärenten Treffer zeigten sich im OFC früher als im inferior temporal Gyrus93. Die Forscher nehmen deshalb an, dass der wesentliche Gehalt unvollständig aufgenommener Information im OFC erkannt und anschließend zu anderen Gehirnzentren, z. B. dem Motorcortex, weitergeleitet wird, worauf schließlich das Bauchgefühl beruht, das letztlich unsere Entscheidungen beeinflusst. Festzuhalten bleibt die scheinbare Unmöglichkeit aus den fragmentierten und verschlüsselten Bildern irgendetwas identifizieren zu können. Dennoch ist unser System dazu in der Lage und unterstreicht unsere Fähigkeit auf unbewusster Ebene Informationen wahrnehmen und zuordnen zu können. Beispiel 16: Antizipation zukünftiger Ereignisse In Übereinstimmung mit der körperlichen Antizipation zukünftiger Spekulationsblasen an der Börse konnten Forscher in unterschiedlichen Versuchsreihen die Wahrnehmungsfähigkeit von Zufallsereignissen dokumentieren, die sich teilweise erst Sekunden 92
93
MEG steht für Magnetoenzephalographie. Mit ihrer Hilfe werden die magnetischen Aktivitäten des Gehirn sichtbar gemacht. Der inferior temporal Gyrus dient der Verarbeitung visueller Informationen. Mit seiner Hilfe werden z. B. Objekte auf der Basis von Erinnerungen identifiziert.
156
4 Notwendige interdisziplinäre Erweiterung
später vollzogen. Die zufälligen Ereignisse konnten neurologisch und psychophysiologisch beobachtet werden (Tressoldi 2015). Dass implizites, antizipatorisches Lernen eine unbewusste Fähigkeit von Menschen ist und hilft, gefährliche oder günstige Ereignisse voraus zu ahnen, wurde an den beiden vorangehenden Beispielen des Chicken sexing und der Flugzeugerkennung veranschaulicht. Die Voraussage von zufälligen Geschehnissen wird demgegenüber als Wettoption angesehen. In Tressoldi’s Aufbau mussten die Kandidaten zwischen zwei Türen wählen, hinter denen entweder ein sicheres oder ein gefährliches Ereignis verborgen war. Es gab keine Möglichkeit von Zusatzinformationen, versteckten Mustern oder subliminalen Reizen. Das ‚Roulett-Spiel’ zeigte entgegen einer 50:50 Wahrscheinlichkeitsverteilung einen konsistenten Hinweis auf eine antizipatorische Fähigkeit (Abb. 21), die sich bereits Sekunden vor dem Ereignis physisch zeigten. Der Verlauf körperlicher Veränderungen wurde mithilfe verschiedener Verfahren festgehalten, wie z. B. Puls-, EEG- oder Hautleitfähigkeitsmessungen. Mit Bezug auf verschiedene Metaanalysen (Duggan und Tressoldi 2018; Bem u. a. 2016; Mossbridge u. a. 2014, 2012) stellte er fest: „In sum, the results of this metaanalysis indicate a clear effect, but we are not at all clear about what explains it” (Tressoldi 2015: 13). Die Metaanalyse von Bem u. a., die die Evidenz solcher Experimente untersuchte, wertete dabei 90 Experimente von 33 Laboratorien aus 14 Ländern aus und konnte sowohl die Korrektheit aktueller Experimente wie auch die Qualität der Ergebnisse bestätigen. Auch die neueste Metaanalyse von Duggan und Tressoldi kommen zum gleichen Ergebnis.
Abb. 21 | EEG Aktivitäten in Bezug auf zwei unterschiedliche Stimuli. (Tressoldi 2015: 13) Die Stimuli waren übereinstimmend für Puls, EEG-Aktivitäten oder Hautleitfähigkeitsänderungen. Bis zu 1,5 Sekunden vor Einsetzen des Reizes zum Zeitpunkt 0 zeichnete sich ab, ob ein angenehmes oder gefährliches Ereignis eintreten wird. Die Ergebnisse lagen 5 – 15 % über der erwarteten Zufallswahrscheinlichkeit von 50 %.
Auch bei weiteren Experimenten (Tressoldi 2015), in denen sie neben der Pulsschlagänderung auch die Pupillenerweiterung beobachteten, waren Körperreaktionen signifikant vor dem Erscheinen der Ereignisse. Gezeigt wurde ein Smiley und eine auf den Beobachter gerichtete Pistole mit zwei Händen am Abzug, die nach Öffnen der Tür von einem akustisch hörbaren Schuss begleitet wurde. Die Pupillenreaktionen genauso wie die Herzrate weisen mit einer Treffsicherheit von 4 – 15 % über einer Zufallswahr-
4.1 Intuitionsforschung
157
scheinlichkeit von 50 %, ebenfalls eine eindeutige Evidenz für eine unbewusste vorausschauende Ahnung oder sogar körperliches Wissen auf. Die Autoren bringen ihre Ergebnisse in Verbindung mit Entscheidungsfindung und gehen von erheblicher Beeinflussung unseres Verhaltens aufgrund solch gearteter Wahrnehmungen aus. Ergänzend seien hier noch die Ergebnisse von Bem aufgeführt. Er konnte bei 9 Experimenten mit 1.000 Teilnehmern präkognitive Reaktionen auf sexuelle Reize, präkognitive Vermeidung vor negativen Reizen, rückwirkendes Priming, rückwirkende Gewöhnung und die Beeinflussung eines telefonischen Rückrufs nachweisen (Bem 2011). Aufgrund seiner Untersuchungen nimmt er vorbewusste kognitive Wahrnehmung (precognition) und affektive Vorahnung (premoniton) an, die zudem von der Zukunft ausgehend, auf das gegenwärtige Verhalten einwirken. Dieses Erkennen von Zukunftsereignissen kann aus Sicht von Bem durch keine derzeit bekannten Prozesse erklärt werden. Auch die von Bem beobachteten individuellen Unterschiede in der Reiz-Wahrnehmung sind vergleichbar mit den Unterschieden in der Wahrnehmung von Repräsentanten bei SyA. Beispiel 17: Abhängigkeit von der Stimmungslage Experimente zeigten einen klaren Zusammenhang von Intuitionsfähigkeit und deren Abhängigkeit von der Stimmung (Bolte u. a. 2003). Waren die Testpersonen vor dem Versuch in einer positiven Stimmung (durch Eingabe eines angenehmen Gedankens), so wurden die kohärenten, stimmigen Konstellationen doppelt so gut erkannt wie die inkohärenten (Abb. 22).
Abb. 22 | Treffer und Nieten, abhängig von der Stimmung (vgl. Bolte u. a. 2003: 419). Gezeigt wird der Anteil an richtigen Ergebnissen bei der Einschätzung von synonymen oder nicht synonymen Wörtern von Wort-Dreiergruppen. Die Triaden galten als gelöst, wenn die Teilnehmer das vorher festgelegte Lösungswort, ein genaues Synonym oder ein Wort, das von mindestens einem von zwei unabhängigen Bewertern als semantisch mit den Hinweiswörtern verwandt eingestuft wurde, erkannt hatten. Zu beurteilen waren kohärent vs. inkohärent mit möglichen Antworten von korrekt vs. inkorrekt. Die Gruppen wurden in unterschiedliche emotionale Zustände gebracht (positive, negative und neutrale Stimmung). Die inkohärenten Triaden wurden bei positiver Stimmung weniger gut erkannt, als die kohärenten.
158
4 Notwendige interdisziplinäre Erweiterung
Gleichzeitig wurden richtige Beurteilungen schneller getroffen als falsche (2,471 vs. 3,261 ms). Die Autoren konnten zeigen, dass Menschen offenkundig bei ihrer Intuition abhängig von schlechter und pessimistischer Gemütslage sind, auch wenn sie selbst an eine gute Intuition glauben. Die Gemütslage verursacht somit einen erheblichen Primingeffekt. Beispiel 18: Systemische Berater- und Coach-Ausbildung Im Rahmen von Berater- und Coaching-Ausbildungen mit systemischem oder TA-Hintergrund wird eine Form der Supervision gelehrt, die für jeden klassisch-denkenden Menschen eine echte Herausforderung darstellt. Zum Einsatz kommen ein Klientensystem und drei Berater (Abb. 23).
Abb. 23 | Supervisionssetting systemischer Beraterausbildung Berater 3 beobachtet den Austausch, den Berater 2 und Berater 1 im Nachgang an eine Beratungssituation von Berater 1 mit dem Klienten haben. Während dieser Beobachtung bekommt Berater 3 Zugang zu verdeckten Dynamiken und Zuständen beim Klienten, die weder Berater 1 noch Berater 2 zugänglich sind und sich im Nachgang i. d. R. bestätigen lassen. (eigene Darstellung)
Im Beratersetting der von mir absolvierten systemischen Ausbildung arbeitet ein Berater mit dem Klienten. Ein Beraterkollege beobachtet diese Interaktion und hält sich ansonsten weitestgehend aus dem Geschehen heraus. Im Anschluss an die Arbeit vor Ort (A) tauschen sich Berater 1 und Berater 2 aus (B), mit dem primären Ziel eines Feedbacks für Berater 1. Diese Interaktion wird von Berater 3 beobachtet (C). Er muss für diese Rolle körperlich nicht vor Ort sein, sondern kann dies von Zuhause aus per Telefon vornehmen. Die Aufgabe von Berater 3 besteht darin, mit gesammelter, aber offener Aufmerksamkeit dem Austausch zwischen Berater 1 und 2 zu folgen, auf innere Impulse zu achten und sein psychophysisches System als Resonanzsystem fungieren zu lassen. Berater 3 soll sich in voller Übereinstimmung mit Freud’s Empfehlung verhalten („gleichschwebender Aufmerksamkeit seiner eigenen unbewussten Geistestätigkeit überlasse, Nachdenken und Bildung bewusster Erwartungen möglichst vermeide“ (Freud 1927: 215)). In der systemischen Arbeit wird in diesem Setting offiziell das Ziel verfolgt, systemimmanente Blindheiten der Berater, d. h. eigene Prägungen, Vorlieben, aber auch Gewöhnungseffekte durch die Zusammenarbeit mit dem Klienten zu eliminieren.
4.1 Intuitionsforschung
159
Erstaunlicherweise durfte ich in meiner eigenen Ausbildung einen viel weitergehenden Effekt erleben, den unsere Ausbilder auch explizit beschrieben haben. Berater 3 bekommt nämlich Gefühle, Eindrücke und Gedanken, die ihn verstehen lassen, welche versteckten Dynamiken im Klientensystem tatsächlich ablaufen. Dabei zeigten sich immer wieder Informationen, die nicht nur vom präsenten Berater übersehen wurden, sondern für diesen schlicht nicht zugänglich oder bekannt waren. Aufgrund dieser zusätzlich gewonnenen Informationen konnten die beraterischen Interventionen entsprechend angepasst werden. Niemand konnte seinerzeit erklären, wie dieses Phänomen möglich ist. Die empirische Erfahrung sprach für sich, weshalb dieses Setting ohne weiteres Hinterfragen zum Einsatz kam. Analog zum Beratersetting ist diese Vorgehensweise in der TA als Kaskaden-Supervision bekannt (Abb. 24). Auch hier geht es offiziell darum, sich nicht im Spiel zu verlieren, sondern in der Lage zu bleiben, alternative Wirklichkeiten zu sehen und qualitative Rückmeldungen zu geben.
Abb. 24 | Supervisionssetting TA-Ausbildung in Anlehnung an Fanita English Position 1 stellt den Therapeuten in Ausbildung dar, der mit dem Klientensystem arbeitet. 2 repräsentiert den Lehrtherapeuten, der 1 supervidiert. 3 schließlich repräsentiert den Ausbilder des Lehrtherapeuten, der mit 2 über dessen Supervision von 1 reflektiert und dabei Zugang zu verdeckten Informationen über das Klientensystem erhält. (eigene Darstellung)
Die Kaskaden-Supervision geht zurück auf Fatima English. Die Beteiligten sind KlientSystem, Therapeut in Ausbildung (1), Lehrtherapeut in Ausbildung (2) und Ausbilder des Lehrtherapeuten (3). Bei Bernd Schmid läuft dieser Ansatz unter dem Begriff der ‚Drei Schwäne’, mit den Protagonisten Tünnes und Schäl (vgl. Schmid 1988). Zum Einsatz kommen allerdings nur Klient sowie 1. und 2. Berater. Tünnes schwärmt von der Vorstellung ein Schwan zu sein und fliegen zu können. Schäl wird durch diese Idee zu der Vorstellung inspiriert zwei Schwäne zu sein. Er könnte einerseits fliegen und andererseits sich beim Fliegen zusehen. Schließlich kommen beide zur Idee drei Schwäne zu sein. Der erste Schwan fliegt, der zweite schaut sich selbst zu und der dritte schaut sich zu wie er selbst fliegt und sich dabei beobachtet und erlebt, wie sie sich fliegend erleben. Bewertung der Intuitionsexperimente in der Literatur Dunn u. a. (Dunn u. a. 2010) kamen zur Schlussfolgerung, dass kognitiv-affektive Verarbeitung dem ‚Herzen folgt’ und dass mit der Abhängigkeit von der inneren Ausrichtung bzw. des inneren Zustandes auch die gemischten Ergebnisse bisheriger Forschung
160
4 Notwendige interdisziplinäre Erweiterung
zu Entscheidungsfindung zusammenhängen könnten, wie sie in Kap. 3.2.3 diskutiert wurden. Des Weiteren unterstreichen sie die Annahme, dass Entscheidungen und emotionale Erfahrungen in so komplexen Systemen wie sie Menschen darstellen, erhebliche Freiheitsgrade besitzen und je nach Situation unterschiedliche herausgebildet werden. Unbewusste und kognitive Prozesse können dabei wechselseitig wirken. Analog Dunn u. a. (ebd. 1842) weisen zahlreiche Forscher auf die derzeit physikalisch und biologisch nicht erklärbaren Mechanismen hin. Neben Dunn und Kandasamy und deren Kollegen sind dies Bem, Tressoldi und zahlreiche andere. Eine der neueren Metaanalysen (Mossbridge u. a. 2014: 8f) kommt zur Schlussfolgerung, dass die PAA Phänomene (predictive, anticipatory, activity) real, unbewusst, rückwirkend in der Zeit sind und eine physiologische Antwort auf einen Reiz darstellen. Sie nennen dies ein zeitliches Spiel zwischen Prä- und Post-Event, das sich auf körperlicher Ebene niederschlägt. Darüber hinaus lassen sich aus ihrer Sicht keine fehlerhaften Forschungspraktiken oder physiologischen Artefakte als Erklärung heranziehen. Eine Herausforderung sehen sie in der Isolierung und Verstärkung von PAA-Effekten, da die zeitliche Unschärfe und die emotionalen Überlappungen die Ergebnisse irritieren oder minimieren können. Weiterführend schlussfolgerten Tressoldi u. a.: „it might be possible to predict the future if we assume a probabilistic and not a strictly deterministic association between future and past events. This implies that even if the analysis of PPAA94 were improved, predictions would never be 100% accurate“ (Tressoldi u. a. 2015b: 16). Über die Qualität der Forschungsergebnisse scheint es mittlerweile selbst bei den größten Kritikern wenig Ansatzpunkte zu geben. Gefragt, ob die Ergebnisse und Metaanalysen von Bem u. a., seine Meinung nicht mittlerweile geändert hätten, erfolgte folgende bezeichnende Antwort: „I agree with the proponents of precognition on one crucial point: their work is important and should not be ignored. In my opinion, the work on precognition shows in dramatic fashion that our current methods for quantifying empirical knowledge are insufficiently strict. If Bem and colleagues can use a meta-analysis to demonstrate the presence of precognition, what should we conclude from a meta-analysis on other, more plausible phenomena?“ (Wagenmakers 2014). Nun, da die wissenschaftlichen Arbeiten qualitativ auch die Kritiker zu überzeugen scheinen oder besser keine Angriffshebel mehr liefern, muss die bisherige Erhebungsund Auswertungsmethode selbst infrage gestellt werden, da die Ergebnisse einfach nicht zum aktuellen Weltbild passen wollen (Wagenmakers u. a. 2011). Vielleicht ist es aber auch notwendig und auch hilfreicher unser Weltbild infrage zu stellen. Bei Wagenmakers wird deutlich, wo die Bedenken liegen, wenn er formuliert: „I do think that this line of research tarnishes the reputation of psychology as an academic discipline“ (Wagen94
PPAA steht für psychophysiological predictive anticipatory activity und bezieht sich auf implizite (nicht-bewusste) antizipatorische neurale und psychophysikalische Phänomene, die mit EEG, Puls, Pupillenerweiterung etc. noch vor Eintreffen eines unvorhersehbaren, zufälligen Ereignisses gemessen werden können. Es geht ausdrücklich nicht um implizites Lernen und versteckte Signale oder Regeln. PAA von Tressoldi stellt eine entsprechende Kurzform dar.
4.1 Intuitionsforschung
161
makers 2014). Diese Bedenken und vor allem seine Offenheit zu diesem Punkt in einem Blog verdienen es, gewürdigt zu werden. Sie zeigen gleichzeitig auch die Notwendigkeit für einen Ansatz, der nicht nur auf Teilaspekte unserer Welt beschränkt ist, sondern sich offen mit allen Möglichkeiten des heutigen Wissens auseinandersetzt. Die hier vorliegende weitere Ausarbeitung wird zeigen, ob nicht doch die Zeit gekommen ist, diese formulierten Bedenken zu überwinden und mittels neuer Theorien und Modellen zu begegnen. Ergänzende Betrachtung – Einfluss auf Intuition Eine von Schmid (Schmid 2010) eingebrachte Beobachtung zeigt, dass es sich rentiert, sich mehr mit dem ‚WIE’ als mit dem ‚OB’ zu beschäftigen. Hierzu wird die von ihm beschriebene Alltagserfahrung, Erschöpfungserfahrung bei intuitiver Arbeit, näher untersucht. Aus physiologischer Perspektive geht eine Erschöpfung immer mit einem hohen Energieverbrauch oder einer energetischen Störung einher. Der Körper hat seine Energiedepots aufgebraucht oder es bestehen Dysfunktionalitäten, die den internen Energieaustausch stören oder es wirkt ein ungünstiges Umfeld (z. B. Kälte), welches durch zusätzlichen Energieaufwand (z. B. stärkerer Verbrauch an Nährstoffen) ausgeglichen werden muss. Wodurch ist dieser Energieverbrauch zu erklären, wenn die Person eigentlich nur ruhig auf ihrem Platz sitzt und körperlich keine wesentlichen Ressourcen benötigt? Als einfachste Erklärung, weil üblich und von daher scheinbar intuitiv einsichtig, könnte ein erhöhter Energieverbrauch im Gehirn interpretiert werden. Wir wissen, dass das Gehirn, obwohl es nur ein Fünfzigstel und damit 2 % des Körpergewichts ausmacht, 20 % des Sauerstoffs verbraucht (Raichle 2015: 440–441) und damit als einer der größten Energieverbraucher im System angesehen wird. Erst seit jüngerer Zeit ist bekannt, dass bewusste Denkprozess den Energieverbrauch des Gehirns so gut wie gar nicht bzw. max. um 5 % steigern. Die verbleibenden 95 % oder mehr werden durch intrinsische Aktivitäten im ‚Default-mode’-Netzwerk (DMN)95 umgesetzt. Bewusstes Denken produziert also keinen nennenswerten zusätzlichen Energieaufwand. Raichle, auf den die Entdeckung dieses DMN zurückgeht, konnte zeigen, dass es immer dann aktiv wird, wenn wir in eine Leerlaufphase übergehen (Raichle 2015, 2011). Der endgültige Beweis der neuronalen Aktivitäten im Leerlauf erfolgte 2003 durch Greicius u. a. (2004). Gleichzeitig konnten sie eine temporale, spontane und damit intrinsische Verschaltung der beteiligten Gehirnstrukturen zeigen. Bewusste kognitive Denkprozesse und externale Aufmerksamkeit mindern oder unterbinden vollständig die Arbeit des DMN (Otti u. a. 2012), die Hintergrundaktivitäten des Gehirns werden heruntergefahren. Es ist deshalb nicht verwunderlich, dass sich im DMN u. a. der mediale präfrontale Cortex, der Ereignisse als gut, neutral oder schlecht bewertet, als auch der Hippocampus wiederfindet. Dort sind also die gleichen Gehirnareale involviert, die bei fast allen neurologisch Untersuchungen im Rahmen der Entscheidungs- und Intuitionsforschung und besonders bei präkognitiven Experimenten in Erscheinung treten, bei 95
DMN, zu dt. Ruhezustandsnetzwerk
162
4 Notwendige interdisziplinäre Erweiterung
denen ruhige, introspektive Zustände und Tagträumen, also reizunabhängige Denk- und Bewusstseinszustände vorherrschen (Mak u. a. 2016). Mittlerweile ist auch belegt, dass psychische Erkrankungen auf Störungen dieser intrinsischen Aktivitäten und auf Störungen im DMN zurückzuführen sind (Hu u. a. 2017; Fallon u. a. 2016; Salone u. a. 2016). Nach Raichle sind diese intrinsischen Gehirnaktivitäten in jedem Fall viel bedeutsamer für uns, als die im wissenschaftlichen Fokus stehenden extrinsisch motivierten Aktivitäten. Leider werden nur Letztere für die Untersuchung kognitiver Entscheidungsprozesse intensiv beobachtet. Otti u. a. ziehen als Fazit: „Das DMN ist ein dynamisches System, das den Bezug des Menschen zu sich selbst und seiner Umwelt mit allen Facetten wie Kognition, Affektivität, Antrieb, Selbstbezug und Ich-Umwelt-Grenze wesentlich mitbestimmt“ (Otti u. a. 2012: 22). Zu diesen neuen Forschungserkenntnissen passen Berne’s Selbstbeobachtungen in perfekter Weise. Hänsel fasst sie in seiner Arbeit folgendermaßen zusammen: „In seiner praktischen Arbeit entdeckte Berne, dass seine Fähigkeit korrekt zu intuieren von einer ‚intuitiven Stimmung und Verfassung‘ abhing. Diese beschrieb er als „Haltung der Wachsamkeit und Empfänglichkeit ohne aktiv gesteuerte Teilnahme des wahrnehmenden Ichs“ (Berne 1991, S.57), bei intensiver Konzentration und nach außen gerichteter Aufmerksamkeit. Einschränkungen der bewusst eingesetzten intuitiven Fähigkeit des Therapeuten entstehen durch ein häufiges und gleichförmiges Stellen intuitiver Urteile (`Intuition ermüdet )́ , durch längere Pausen der Tätigkeit, bei der intuiert wird (`Einrosten der Intuition )́ , und durch starke Eigeninteressen an dem Ergebnis der Intuition (`Fixierung der Intuition )́ “ (Hänsel 2002: 60). 4.1.4
Conclusio zur Intuitionsforschung
Als zentrale Erkenntnisse in Bezug auf die Hauptkategorie ‚Intuition‘ lassen sich wichtige Zusammenhänge resümieren, sowohl innerhalb der Kategorie als auch in Verbindung zu den Kategorien ‚Legitimation‘, ‚Information‘ und ‚Übertragungswege‘. Offensichtlich besteht zwischen den Experimenten der Intuitionsforschung eine große Gemeinsamkeit mit denen von Kingsinger und Walch (2012) als auch mit denen von Ferrari und ihren Mitautoren (Ferrari u. a. 2016) aus dem Kapitel VUCA-Welt (Kap. 3.1.2), genauso wie mit denen aus der Entscheidungsbildung: nämlich die notwendige Integration der körperlichen Seite. Erinnert sei nochmal an die Methodik der SyA von Ferrari u. a. (ebd.), bei der Führungskräfte auch ohne explizite Kenntnisse einer Situation, die richtigen Entscheidungen intuitiv zu erfassen scheinen (Kap. 3.1.2). Dies ist auch gut in Kap. 3.3.3 mit den erstaunlichen Beispielen aus der Aufstellungsarbeit veranschaulicht. Damit schließt sich ein Kreis an Verständnis, das bereits auf Da Vinci zurückgeht: „Da Vinci behauptete darüber hinaus, dass man sich dem Unbewussten anvertrauen müsste, um Probleme lösen zu können und somit bewusstes Denken oftmals nicht weiter helfe“ (Holtfort 2013: 39).
4.1 Intuitionsforschung
163
Ich möchte deshalb Dunn u. a. folgen, wenn sie vorschlagen ... „that the debate should move away from evaluating whether or not cognitive-affective processes are embodied, and instead focus on when, to what extent, and for whom different mental processes are influenced by bodily feedback versus other informationprocessing mechanisms“ (Dunn u. a. 2010: 1842). Fragen wirft die von Schmid (2010) diagnostizierte und von Berne (Berne und Hagehülsmann 1991: 36) in ähnlicher Weise getroffene seelische und geistige Müdigkeit unter einer nicht therapeutischen Perspektive auf. Welche Gründe oder Mechanismen lassen sich beschreiben, wenn in anderen Kontexten, z. B. Liebespaar, Naturbeobachtung, Lieblingstätigkeit mit ebenfalls hoher intuitiver Aufmerksamkeit, die Betroffenen statt seelisch und geistig erschöpft, sich als beschwingt und energiegeladen erleben? Weshalb wirkt hier die gleiche intuitive Aufmerksamkeit belebend und anregend? Mir scheinen da noch einige Fragen offen, die mit in die weiteren Überlegungen eingebunden werden müssen. Zumal die von Otti beschriebene Ich-Umwelt-Grenze genau die Grenze darstellt, mit der sich diese Arbeit beschäftigt und auf die es derzeit keine zufriedenstellende Theorie gibt. Bringt man den intrinsischen Störungsansatz (Störungen durch interne, inkohärente Zustände) zusammen mit den seelischen und geistigen Erschöpfungserscheinungen, würde verständlich, dass diese durch den Versuch unseres psychophysischen Systems erzeugt werden könnten, wenn dieses mit verstärktem Energieaufwand versuchen wollte, die vorliegenden Dysfunktionalitäten auszugleichen. Entsteht die Erschöpfung also durch eine von außen oder innen initiierte Störung unseres eigenen Energiesystems? Das zweite Bespiel von Schmid (Kap. 4.1.3), mentaler Druck, der die intuitive Wahrnehmung behindert, wenn die Person keinen wirksamen mentalen Gegenmechanismus hat, führt ebenfalls zu Fragen und gleichzeitig zu Erkenntnissen. Übertragen auf den Alltag zeigt sich ein Phänomen, das im Sport und bei Prüfungssituationen sehr gut bekannt ist. Nicht von ungefähr ist im Leistungssport der mentale Trainingsaufwand in vielen Disziplinen mittlerweile höher als der physische. Es gilt die Rahmenbedingungen zu schaffen, um die intuitiven, automatischen Wahrnehmungs- und Reaktionsprozesse nicht zu behindern oder sie sogar zu steigern. Damit stellt sich gleichzeitig die Frage, ob die Testbedingungen all der Versuche, bei denen es um hochsensitive Anforderungen geht, wie wir sie bisher betrachtet haben, diesen Umstand in ausreichender Weise berücksichtigt? Denn dieser Zusammenhang kann ebenfalls als ein Grund angesehen werden, dass es so uneinheitliche Testergebnisse in den bisher behandelten Kontexten gibt (siehe dazu die oben vorgestellte Bewertung von Intuitionsexperimenten von Dunn u. a. (2010)). Die meisten Situationen sind künstlich und damit psychologisch nicht frei von Erwartungseffekten sowohl von den Testpersonen selbst, als auch von den Experimentatoren. Hier haben wir es mit dem gleichen Umstand zu tun, wie wir es später im Rahmen der quantenphysikalischen Experimente vorfinden. Die Versuchsanordnungen in der Intuitionsforschung werden so isoliert wie möglich arrangiert, um mögliche unge-
164
4 Notwendige interdisziplinäre Erweiterung
wollte Einflüsse ausschließen zu können. Nur zeigen die bisherigen Ergebnisse, dass dies als Unmöglichkeit angesehen werden muss. Unter Berücksichtigung der Kombination ... a) Einfluss der Zielsetzung (möchte ich die vorliegenden Ergebnisse bestätigen oder widerlegen), b) Einfluss der Stimmungslage (schafft der Experimentator eine offene und angenehme Atmosphäre oder vermittelt er das Gegenteil) und schließlich ... c) Einfluss der Erwartungshaltung des Experimentators (entsprechend der apriori Wahrscheinlichkeit nach Bayes – sind Skeptiker oder Gläubige beteiligt) und damit die Existenz unbewusster Überzeugungen und Wünsche, wie wir sie am Beispiel des unbewussten Priming-Effektes (Kap. 3.3.3) beobachten konnten, ... wäre alles andere, als das Vorhandensein einer Vielzahl geprimter Experimente, eher als Wunder anzusehen. Für die Unterkategorie ‚Erklärungsmodelle‘ der Intuition werden zentrale Zusammenhänge offensichtlich, die berücksichtigt werden müssen. Auch wenn die folgenden Überlegungen dem gängigen Wissenschaftsverständnis zuwiderlaufen, lassen die bisherigen Experimente zumindest zwei Schlussfolgerungen zu: 1. Es wurde offensichtlich, dass kleinste Ziel-, Erwartungs- und Stimmungsänderungen erhebliche Auswirkungen auf die Ergebnisse nach sich ziehen können. 2. Wir müssen es deshalb als gegeben betrachten, dass Experimente im Rahmen solcher, subtiler Versuchsanordnungen, bei denen die menschliche Wahrnehmung und Verarbeitung auf das heftigste gefordert ist, kaum stabil reproduziert werden können. Wollte man es sehr pointiert formulieren, müsste man eine gegenteilige Überzeugung als einen Standpunkt betrachten, der durch den aktuellen Wissensstand nicht zu rechtfertigen ist. In jedem Fall sind diese Schlussfolgerungen relevant für intuitive Entscheidungsprozesse und für Methoden wie der SyA. Insofern zeigt sich die eindeutige Notwendigkeit besser zu verstehen, wie die Prozesse der intuitiven Wahrnehmung funktionieren. Dies gilt auch unter dem Aspekt des Lernens solcher Fähigkeiten. Hänsel formulierte die Frage: „Höhere Gabe oder erlernbare Kompetenz - Kann Intuition gelehrt werden?“ (Hänsel 2002: 186) und bejahte die Frage, abgeleitet aus Interviews von Beratern. Mit den vorliegenden Experimenten lässt sich sowohl eine Lernfähigkeit als auch eine höhere Gabe diagnostizieren. Intuitionsfähigkeit liegt nämlich nicht nur nach Lernprozessen vor (siehe implizites Lernen), sondern in fast allen Experimenten bereits als Grundausstattung des Menschen und vermutlich aller Lebewesen. Hierzu passen die Erkenntnisse die bereits 1989 (Reber 1989), im Rahmen einer Untersuchung über unterschiedliche Lernformen erkannt und 1996 formuliert wurden: „the acquisition of knowledge that takes place largely independent of conscious attempts to learn and largely in the absence of explicit knowledge about what was acquired. One of the core assumptions
4.1 Intuitionsforschung
165
of our work has been that implicit learning is a fundamental, ‚root’ process, one that lays at the very heart of the adaptive behavioral repertoire of every complex organism“ (Reber 1996: 5). Betont werden soll hier noch einmal die Erkenntnis, dass Intuition (Beispiel: verborgene Muster) mittels praktischer Übungen gelernt werden kann (Lufityanto u. a. 2016) und nicht nur abhängig von angeborenen Voraussetzungen ist. Schließlich ergibt sich zweitens ein relevanter Effekt bzgl. einer emotionalen Komponente. Emotionale Anregung scheint unser Wahrnehmungssystem erheblich zu aktivieren96. Solange sie einhergeht mit einer gelassenen Achtsamkeit werden Entscheidungsqualität und Entscheidungsgeschwindigkeit positiv beeinflusst. Zwei Zusammenhänge, wie sie bei SyA ebenfalls beobachtet werden können. Die Wahrnehmungen und damit verbundene Informationen zeigen sich schneller, wenn die Anliegenbringer emotional betroffen sind und die ‚Fühligkeit’ wird bei den Repräsentanten verbessert, die sehr häufig in Aufstellungen mitwirken. Allein die unschönen Verzerrungseffekte (Bias) weisen auf begleitende Prozesse hin, die besser verstanden werden müssen, um intuitiven Impulsen mehr Raum geben zu können. Die vorgestellten Experimente verdeutlichen die Bedeutung der Intuition im Erkennen unterschiedlichster Situationen und lassen ihre elementare Rolle für unseren Alltag erahnen. Gleichzeitig wird deutlich, wie wenig Wissen über die damit verbundenen Abläufe vorliegt und dass die angelaufene Erforschung mehr als sinnvoll erscheint. Denn bei den Experimenten wird auch ein klarer Zusammenhang von Intuitionsfähigkeit und deren Abhängigkeit vom Versuchssetting deutlich. Je stärker der Praxisbezug und die natürliche Umgebung, desto deutlicher die Ergebnisse. Ein Zusammenhang, wie ihn Lucadou (2000) fordert und womit sich auch der Erfolg bei SyA erklären lassen könnte. Erinnert sei auch an die Wahrnehmungsfähigkeit von Coaches und Therapeuten während ihrer Arbeit, welche als Übertragungs- und Gegenübertragungsphänomene bekannt sind; zwei Prozesse, die in gleicher Weise im Arbeitsalltag und der täglichen Kommunikation ablaufen. Es handelt sich um eine essentielle Kompetenz, deren phänomenologische Erscheinungen hohe Ähnlichkeiten mit einigen experimentellen Settings aufweisen. Hingewiesen werden muss an dieser Stelle auf zwei Aspekte: Erstens finden die kritischen Rückmeldungen fast ausschließlich innerhalb einer Forschungsdisziplin bzw. ganz spezieller Forschungsarbeiten statt, wie beispielsweise die von Dijksterhuis (Dijksterhuis und Nordgren 2006) oder Tressoldi (2015). Kaum einer der Kritiker setzt sich umfangreich mit vergleichbaren Ergebnissen aus anderen Wissenschaftsrichtungen auseinander. Zweitens werden in den kritischen Diskussionen nur Forschungen in Zweifel gezogen, die sich mit präkognitionsähnlichen oder unbewusst wirkenden Phänomen-
96
Emotionale Anregungen stehen in Zusammenhang mit Überlebensmechanismen und haben die Tendenz unsere Energie Richtung Flucht oder Verteidigung zu lenken (Spitzer 2002).
166
4 Notwendige interdisziplinäre Erweiterung
en beschäftigen. Die Ergebnisse mit Bezug auf die Trader sind derzeit noch relativ unangetastet97. Versucht man wissenschaftlich neutral zu bleiben und bindet alle vorliegenden Daten, Experimente und Erfahrungen in eine offene und allparteiliche Analyse ein, so ergibt sich wenig Spielraum für eine Infragestellung folgender Schlussfolgerung: Derzeit existieren über die unterschiedlichsten Forschungsdisziplinen verteilt, nach heutigem Forschungs- und Wissensstand, signifikante Daten, die bisherige Erklärungen an ihre Grenzen bringen. Zur Auslotung dieser Grenzen wird im Folgenden der hochrelevante Themenkreis der Information (Hauptkategorie aus dem Codingprozess) und sein Beitrag zur Überwindung der Erklärungsgrenzen tiefgehender evaluiert. Abschließend lässt sich für die Hauptkategorie ‚Intuition‘ feststellen: Nicht OB Intuition real ist, sondern WIE sie funktioniert und WIE sie zu erklären ist, sind die zentralen Fragen. 4.2
Information und Informationsübertragung
Information – Energie – Materie als äquivalente Zustände Ausgangspunkt für die folgenden Überlegungen stellt die im Kap. 3.2.3 (kognitionswissenschaftliche Überlegungen bei Entscheidungen) beschriebene Erkenntnis dar, dass unsere kognitiven Ressourcen bezogen auf Informationswahrnehmung und -verarbeitung sehr begrenzt zu sein scheinen. Nur die Informationen werden verarbeitet, die die selektive Aufmerksamkeitsbarriere passiert haben und diese Mengen werden als überschaubar angesehen. Die tatsächlichen Erfahrungen aus der Intuitions- als auch aus der Aufstellungsforschung widerlegen diese, in den Kognitionswissenschaften so festzementierte Annahme. Unsere geistigen Ressourcen scheinen deutlich größer zu sein als angenommen, weshalb der Gültigkeitsrahmen des bisherigen Verständnisses untersucht werden muss. Damit wird die dritte, beim selektiven Codierungsprozess gefundene Hauptkategorie ‚Information’ untersucht. Zudem soll die Quantenphysik mit zur Erklärung herangezogen werden, was auf zwei Gründen beruht: 1. Sie erscheint in der Literatur und bei Kongressen in Zusammenhang mit SyA ((Fasching 2009: 10) und Görnitz auf einem Kongress 2008 in Seefeld). 2. Nicht-Lokale Phänomene, wie sie bei SyA und manchen Experimenten zur Intuition auftreten, finden sich heute nur in der Quantenphysik. 97
Es drängt sich an dieser Stelle die Frage auf, ob dies mit den Institutionen Cambridge und Caltech und ihrem Ruf zu tun haben könnte und man ihnen seriösere Arbeit zubilligt?
4.2 Information und Informationsübertragung
167
Den Einbezug der Quantenphysik gelingt jedoch nur, wenn eine Brücke zwischen der makroskopischen Materie (repräsentiert durch lebende Systeme), der mikroskopischen Elementarebene (Quanten und elektromagnetische Wellen) und der Information, um die es bei intuitiver Wahrnehmung geht, hergestellt werden kann. Deshalb werden in diesem Kapitel zunächst der Informationsbegriff und ein möglicher Zusammenhang der drei Entitäten, Information – Energie – Materie, genauer untersucht werden. Dies erscheint auch deshalb sinnvoll, da Information sehr unterschiedlich verstanden (auch innerhalb der Physik) und für die weiteren Überlegungen von entscheidender Bedeutung sein wird. So beschreibt Honerkamp zu Beginn seines Blogbeitrags zum ‚Informationsbegriff der Physik’ das allgemeine Verständnis sehr treffend: „Gedanken sind somit keine Dinge, mit denen sich die Physik beschäftigt, und bei der Wechselwirkung von Dingen der Physik spielt die Information keine Rolle. Physikalische Systeme können z. B. Energie austauschen, aber keine Information, sie werden durch Kräfte beeinflusst, nicht durch Information“ (Honerkamp 2010). Was sich an diesem Verständnis geändert hat und verändern muss, ist Teil der folgenden Ausführungen. 4.2.1
Zusammenhang von Information, Wirtschaftswissenschaften und Physik
Auch hier wird ein zunächst heuristischer Ansatz gewählt, um einen ersten Überblick zum Schwerpunkt des Kapitels zu bekommen. Nähert man sich dem Thema Information und seinem Bezug zu Wirtschaftswissenschaften und Physik, letztlich die Pole meiner Untersuchung, so lassen sich recht schnell einige interessante Zusammenhänge beschreiben. Nach Bateson ist „Information ein Unterschied, der einen Unterschied ausmacht“ (Bateson 1985: 582). Danach geht es nicht um einen Zustand an sich, sondern um ‚Etwas’ in Bezug auf ‚Etwas anderes’ und um eine Bewertung eines Zustandes. Im Gegensatz zum üblichen Verständnis seiner Definition, dass es Unterschiede benötigt, um daraus Information destillieren zu können, besteht noch eine weitere Option. Etwas das unverändert bleibt und somit scheinbar kein Unterschied existiert, kann dennoch als Information angesehen werden, nämlich dann, wenn aus der Nicht-Veränderung eine Bedeutung abgeleitet werden kann. Ein Zusammenhang, der sich in der Systemtheorie findet und in dem Moment in Erscheinung tritt, wenn der Forscher, Berater, Manager hypothesengeleitet Interventionen, Experimente und Beobachtungen vornimmt. In Wirtschaftssystemen dienen üblicherweise Zahlen und deren Veränderung bzw. Nicht-Veränderung als Grundlage für solche Informationen und sollen Aussagen über den Zustand von Beziehungen, Entwicklungen etc. liefern. Solche Informationen werden im Wirtschaftskontext als Grundlage für Entscheidungen verwendet. Eine physikalische Information wiederum ist eine Information, die eine Aussage über den Zustand und die Entwicklung eines physikalischen Systems liefert. Diese Information erhält der Physiker üblicherweise mithilfe der Verwendung von Messgeräten und bezeichnet sie als Temperatur, Volumen, Druck, Frequenz, Energie, Potential, Drehim-
168
4 Notwendige interdisziplinäre Erweiterung
puls etc.98. Im Unterschied zur experimentellen Physik operiert die theoretische Physik nicht direkt mit den Messgrößen, sondern mit Observablen99 und Operatoren (Operatoren repräsentieren diese Observablen) (Reineker u. a. 2007: 5) und somit mit der Sprache der Mathematik, also Gleichungen und Codes, die dem Eingeweihten (mit dem Formalismus Vertrauten) ebenfalls Informationen liefern. Sie versucht die Grundlagen bzw. Theorien zu den experimentellen Messgrößen zur Verfügung zu stellen. Gemeinsam sind all diesen Unterschieden, Werten, Gleichungen und Codes, dass sie alle einer Definition bedürfen, ohne der sie für einen Beobachter keinen Sinn ergeben würden und somit nicht interpretierbar wären. Ein abstrakter Wert und damit eine abstrakte Information muss in den beschriebenen Fällen eine Bedeutung erhalten, soll sie für uns zu einer tatsächlichen Information werden. Es ist offensichtlich, dass in all den eben beschriebenen Kontexten unser Gehirn, andere sprechen von unserem Bewusstsein, den Ort repräsentiert, an dem Beobachtungen, Wahrnehmungen und damit letztlich Messwerte verarbeitet und interpretiert werden – im Sinne von Bateson als auch im Sinne der Physik. Einer Entität, von der wir heute noch nicht wirklich wissen, wie sie funktioniert, denn die von uns wahrgenommene Welt ist nicht die Welt direkt, sondern eine Repräsentation der Welt. Hoffmann (Gefter und Hoffman 2016)100 bezieht sich genau auf diesen Umstand, wenn er noch weitergehend formuliert, dass die von uns wahrgenommene Welt nichts mit der Realität an sich zu tun hat, sondern nur eine Illusion dessen ist, was unser Bewusstsein uns zur Verfügung stellt, um unsere evolutionäre Fitness zu maximieren. Die Wahrheit bzw. die Wirklichkeit als Ganzes wird dabei nur auf das reduziert, was für uns relevant scheint101. Damit sind Farbe, Position oder Bewusstsein nur äußere Erscheinungen und Kategorien, die das Dahinterliegende für uns verbergen, schlicht deshalb, weil wir in bestimmten Situationen nicht mehr Information benötigen. Zudem bleibt vieles davon dem Wachbewusstsein verborgen und läuft nach einigem Training vollständig im Unterbewusstsein ab, wie jeder geübte Autofahrer an sich beobachten kann. Die Entitäten und die mit ihnen verbundenen Informationen können somit nicht vollständig von uns wahrgenommen werden. Sie besitzen damit keine beobachter-unabhängige Existenz. Diese Aussage ist ganz im Sinne des Physikers Wheeler, den Hoffman in einem solchen Kontext zitiert: 98
99
100
101
In der Quantenphysik liegen im Gegensatz zur klassischen Physik keine deterministischen Größen, sondern Zustandswahrscheinlichkeiten vor. Bezogen auf die Zukunft entspricht dieser Umstand deutlich eher unserer wahrnehmbaren Realität, als es die klassische Physik vermag. Observable sind die theoretische Beschreibung physikalisch beobachtbarer Größen (Reineker u. a. 2007: 107), wie Energie, Ort, Impuls, EM-Kraft, schwache und starke Kernkraft, also die analoge Form der Eigenschaften und Wechselwirkungen der Objekte. Messgrößen werden mithilfe von Operatoren eindeutig definiert. So gibt beispielsweise der Dichteoperator die Wahrscheinlichkeit für den Zustand einer Entität an, die aus einer Gesamtheit herausgegriffen wurde. Hoffman ist Prof. für Cognitive Science an der Universität of California, beschäftigt sich mit Wahrnehmung, künstliche Intelligenz, evolutionäre Spieltheorie und dem Gehirn und entwickelte mathematische Modelle über das Bewusstsein. Er transferiert also lebendige Prozesse in mathematische Sprache. Ein Zusammenhang, auf den wir im Kapitel Neurowissenschaften (Kap. 8.3) wieder zurückkommen werden.
4.2 Information und Informationsübertragung
169
„Useful as it is under ordinary circumstances to say that the world exists ‚out there‘ independent of us, that view can no longer be upheld“ (Wheeler in Gefter und Hoffman 2016). Als eine weitere Erscheinungsform von Informationen können menschliche Gefühle interpretiert werden. Damit lässt sich neben den betriebswirtschaftlichen und physikalischen Messgrößen eine dritte Kategorie von Informationen definieren, bei der Physiologie und Psychologie mit ins Spiel kommen. Gefühle sind zwar keine Größen, die die Physik aktuell als relevant für ihren Forschungsbereich ansieht, die aber auch mit physikalischen Signaländerungen (EEG, EKG, Hautleitfähigkeit) einhergehen und somit gemessen werden können. Änderungen oder Nicht-Veränderungen dieser Signale liefern uns in analoger Weise Information, wie in den verschiedenen Experimenten zur Entscheidungs- und Intuitionsforschung offensichtlich wurde. Hat uns die Evolution gelehrt, Veränderungen von externen Messgrößen (Wetterdaten, Finanzdaten, Bevölkerungsdaten ...) als relevant für unsere Zukunft und unser Überleben anzusehen, so hat die gleiche Evolution uns gelehrt auf unsere Gefühle und Gedanken und damit auf interne, leibliche Veränderungen zu achten, um unser Gegenüber oder Situationen adäquat einzuschätzen. Man könnte auch vermuten, dass die Evolution uns dazu nicht nur befähigt, sondern wohl auch gezwungen hat, solche Überlebensleistungen zu generieren. Damit verlassen wir vielleicht den aktuellen physikalischen Denkrahmen, bleiben aber letztlich bei physikalisch messbaren Korrelationen. Sollte die Physik darauf bestehen, dass physiologische und psychologische Veränderungen nicht mehr zu ihrem Arbeits- und Forschungsbereich gehören, so liefert sie dennoch die Werkzeuge (fMRT; EEG ...), um Messwerte zu generieren, die uns entsprechende Korrelationen erfassen lassen. Korrelationen, die sich nur ergeben können, wenn ein erfolgreicher Informationsaustausch mit der Umgebung oder dem inneren System zugrunde liegt. Die Messwerte liefern dann, um im Bilde von Hoffman zu bleiben, nur die äußere Form. Auf den Mechanismus dahinter und die Information an sich kann nur über weitere andersartige Untersuchungen und Theoriebildungen geschlossen werden. In jedem Fall lässt sich festhalten, dass veränderte physikalische Messwerte wie beispielsweise EEGDaten, auf Zustandsänderungen im menschlichen System zurückgehen und von unserem Bewusstsein interpretiert werden können. Korrelieren diese Änderungen mit Rahmenbedingungen der Umwelt, lässt sich ein Informationsaustausch postulieren, der mit einer physikalischen Veränderung einhergeht. Die Bedeutungsgebung bei Menschen bleibt dabei einem Bereich vorenthalten, der heute intensiv untersucht wird, vielfach noch nicht wirklich verstanden ist und sich in verschiedene Fachdisziplinen (Biologie, Chemie, Medizin, Psychologie, Soziologie ...) aufteilt. Die Thesen, die in diesem Kapitel nun weiterverfolgt werden, lauten deshalb: 1. Die Welt und alle darin befindlichen Systeme entsprechen einer physikalischen Natur, zumindest aus unserer westlichen Perspektive. 2. Diese Systeme sind durch abstrakte Information aufgebaut und werden durch diese repräsentiert.
170
4 Notwendige interdisziplinäre Erweiterung
3. Jedes Signal, das von einem solchen System ausgeht, trägt alle Informationen über dieses System in sich. 4. Diese Informationen bedürfen geeigneter Instrumente, die für die jeweilige Information unterschiedlich sein werden, um sie wahrnehmen, decodieren und mit Bedeutung versehen zu können. 5. Auch der Mensch als Ganzes und jedes Lebewesen sind solche Messinstrumente, besonders in Bezug auf die für ihre ‚evolutionäre Fitness’ relevanten Informationen. 4.2.2
Der Informationsbegriff aus verschiedenen Perspektiven
Was lässt sich unter ‚Information’ nun eigentlich verstehen? Da wir beim Begriff Information nicht von einem einheitlichen Verständnis ausgehen können, soll zunächst ein Überblick über die unterschiedlichen Zugänge und schließlich der Versuch einer Normierung des Informationsbegriffs unternommen werden, auf den im Weiteren aufgebaut werden kann. Ausgangspunkt des Wortes ‚Information’ ist das lateinische Wort informare (eine Gestalt geben, formen, bilden) zu forma (Form), das sich im 15. Jahrhundert im Spätmittelhochdeutschen zu informieren (durch Unterweisung) bilden, unterrichten, belehren, wandelte (Duden). Im letzten Sinn wird es heute noch verwendet, im ersten Sinn, dessen Bedeutung heute fast verschwunden ist, kehrt es möglicherweise nun wieder zurück, um SyA und Intuition zu verstehen. Zudem wird deutlich, dass ‚Information’ nicht ohne beide Bedeutungen zu denken ist, wenn man auch hier genauer und exakter beobachtet. 4.2.2.1 Informationsverständnis in Enzyklopädien Informationsverständnis im Brockhaus Im Brockhaus findet sich unter Information (Brockhaus 1989: 496–497): 1. Allgemein eine „Mitteilung, Nachricht, Auskunft“. 2. Mit Bezug auf die Informatik – „allg. die formulierte Unterrichtung nicht nur von Menschen, sondern auch von anderen Organismen oder techn. Einrichtungen über Sachverhalte, Ereignisse oder Abläufe.“ 3. Mit Bezug auf die Informationstheorie – „Information ist ein Maß, das den Zeichen einer Nachricht zugeordnet wird.“ 4. Mit Bezug auf die Soziologie und Politikwissenschaften – „Der Austausch und die Verbreitung von Information sind die Voraussetzung für soziales Handeln, sie verbinden soziale Systeme (z. B. Familie, Betriebe, Unternehmen,...).“ Punkt 1 bezieht sich recht neutral auf einen bestimmten Informationsgehalt. Üblicherweise nehmen wir implizit das Vorhandensein von Menschen an, die solche Informationsgehalte austauschen.
4.2 Information und Informationsübertragung
171
Punkt 2 erweitert das Verständnis aber bereits auf alle lebenden Formen und auch auf technische Objekte. Informationen müssen also so gestaltet sein, dass sie wechselseitig verstanden werden können. Beispielhaft sei auf Forschungsergebnisse bei Pflanzen verwiesen: „plants as highly sensitive organisms that perceive, assess, interact and even facilitate each other’s life by actively acquiring information from their environment“ (Gagliano u. a. 2012: 325). Mit Punkt 3 wird Bezug auf ein mathematisches Verfahren genommen, das als Shannon-Information oder Shannon-Entropie (Shannon 1948) bekannt geworden ist und Information der systematischen Verarbeitung in der modernen Informationstechnologie (z. B. Informatik, Nachrichtentechnik, ...) zugänglich macht. Auf ihr basiert das aktuelle Informationszeitalter. Punkt 4 schließlich führt das Thema wieder zurück auf unser herkömmliches Verständnis von Information im sozialen Kontext, nun allerdings als Kombination von persönlichen und technischen Austauschmöglichkeiten102. Informationsverständnis in der Stanford Encyclopedia of Philosophy (SEP) Ergänzend findet sich in der SEP zum Begriff Information: „The term ‘information’ in colloquial speech is currently predominantly used as an abstract mass-noun used to denote any amount of data, code or text that is stored, sent, received or manipulated in any medium“ (Adriaans 2012). Weiter führt die SEP aus, dass es bei der Beschäftigung mit dem Konzept der Information darum geht, „to make the extensive properties of human knowledge measurable“ (ebd.). Mit diesem Ansatz geht es nicht mehr nur um den Transport von Informationen, sondern bereits um die Information (das Wissen) an sich und dessen Speicher- bzw. Messbarkeit. Passend dazu zitiert die SEP das Verständnis von Fisher zur ‚Information’ (Fisher 1925): „Die Menge der Information, die eine beobachtbare Zufallsvariable X über einen unbekannten Parameter θ (Theta) transportiert, bei dem die Wahrscheinlichkeit von X abhängt“ (Übersetzung des Verfassers aus: Adriaans 2012). Auf diese Formulierung wird an späterer Stelle noch einmal eingegangen. Auch wenn Fisher und Shannon (1948) sich aus statistischen bzw. mathematischen Überlegungen heraus dem Thema angenähert haben, um Informationen technisch handhaben zu können, wird deutlich, dass Information als mehr verstanden werden kann, als nur etwas das mitgeteilt werden soll. Es geht um die Möglichkeit, Information, die in einem Objekt und mithin in einem Träger enthalten ist, zu identifizieren und zu erfassen. Von den sechs in der SEP aufgeführten Konzepten sind vier quantitiver und zwei qualitativer Natur. Die Auseinandersetzung mit dem Begriff erstreckt sich von technischen Disziplinen bis hin zu Methodik, Erkenntnistheorie und Ethik. Die Untersuchung des Informationsbegriffs wäre jetzt allerdings unvollständig, ohne einen klaren Bezug zur Sprache hergestellt zu haben, der teilweise implizit in obigen Ausführungen mitschwingt. Um uns Information zugänglich zu machen oder besser, um Information transportieren zu können, benötigen wir so etwas wie einen Vermittler oder 102
Streng genommen liegt hier keine Definition vor, da der Begriff bereits vorausgesetzt wird.
172
4 Notwendige interdisziplinäre Erweiterung
Übersetzer. Die SEP führte dazu aus: „The empiricist methodology made it possible to conceive the development of language as a system of conventional signs in terms of associations between ideas in the human mind“ (Adriaans 2012: 3.1). Solche Zeichen können optische Codes sein wie beispielsweise Buchstaben, Nummern, Bilder etc. Mathematische Formeln sind daraus abgeleitet und stellen im Grunde nur eine Spezialisierung solcher Codes dar. Für unsere weiteren Überlegungen scheint mir eine kurze Betrachtung der drei unterschiedlichen Zugänge hilfreich, die die SEP (Adriaans 2012: 2.4) anbietet: 1. ‚Information’ als der Prozess des Informiert-Werdens. 2. ‚Information’ als ein Zustand eines Agenten. 3. ‚Information’ als die Fähigkeit zu informieren. Die 1. Beschreibung entspricht nach der SEP der Vorstellung des Computings und des Sendens einer Nachricht. Dieser Ansatz repräsentiert das neuere Verständnis von Information, analog zur Brockhaus-Definition und kann als Grundlage der Informationstheorie in technischen Kontexten sowie der Kommunikationstheorie in den sozialen Disziplinen betrachtet werden. Die 2. Beschreibung versucht den Zustand einer Entität an sich (Objekt, Subjekt, Bewusstsein etc.) zu erfassen. Auch diesen Ansatz finden wir heute in den technischen und physikalischen sowie den betriebswirtschaftlichen Disziplinen. Mit entsprechender Kenntnis über die jeweilige Entität lässt sich eine passende Intervention wählen. Die 3. Beschreibung schließlich beinhaltet in der SEP-Interpretation eine sehr interessante Differenzierung, nämlich zwischen dem Träger (die Form an sich) und der Information (den Inhalt an sich). „Thus information becomes something that can be stored and measured“ (ebd.). 4.2.2.2 Klassisches Informationsverständnis nach Shannon Sowohl im Brockhaus als auch bei der SEP wird u. a. auf die Informationsverarbeitung Bezug genommen, die heute im Rahmen der ‚Computer Science’ verortet ist. Der bekannteste und in fast alle kommunikativen Disziplinen hineinreichende Ansatz geht auf Claude E. Shannon (Shannon 1948) zurück. Ohne die Berücksichtigung seiner Überlegungen muss in der heutigen Zeit eine Auseinandersetzung mit dem Informationsverständnis scheitern. Shannon-Entropie Ausgangspunkt der folgenden Ausführungen ist die in der Thermodynamik verwendete Größe ‚Entropie’103: 103
Der Begriff Entropie selbst geht auf Clausius zurück (Clausius 1865: 390). Als bekannteste und gleichzeitig umstrittene Bedeutung wird sie in der Thermodynamik mit dem ‚Maß an Unordnung eines Systems’ gleichgesetzt. Allerdings ist Unordnung keine physikalische Größe. Die Entropie ist ein Maß für die Wahrscheinlichkeit, ein System in einem bestimmten Zustand vorzufinden.
4.2 Information und Informationsübertragung
173
S(X) = k � ln Ω (4.1) Mit 𝑆𝑆 als Entropie eines Zustandes 𝑋𝑋 in einem endlichen Phasenraumvolumen 𝛺𝛺 und kB als Boltzmann-Konstante. 𝛺𝛺 repräsentiert das Volumen eines zusammenhängenden Phasenraums, der durch klassische Teilchen ausgefüllt und mit klassischen Messungen zu Volumen, Dichte, Temperatur, Energie etc. bestimmt werden kann. Der Phasenraum entspricht somit allen denkbaren klassischen Zuständen eines Systems, das dynamischen Prozessen unterworfen ist. Einen Zusammenhang zwischen Physik (Thermodynamik), Mathematik und Information entwickelte Shannon, der als Begründer der Informationstheorie gilt, für technische Systeme und deren Kommunikation (Shannon 1948). Er greift dabei auf Methoden der statistischen Physik zurück, welche Systeme untersucht, die aus Mangel an Information über die Mikrozustände eines Systems, nicht anders zu spezifizieren sind. Ein Mangel an Information und damit eine nicht vollständige Beschreibung eines Systems tritt dann ein, wenn zu viele Wechselwirkungen auftreten und die Umgebung mit zu berücksichtigen ist. Ein Zustand also, der sich auch in komplexen Systemen wie Wirtschaft oder offenen Quantensystemen104 findet. In solchen Kontexten wird sowohl in der Physik wie auch in den Wirtschaftswissenschaften mit Zufallsvariablen und Wahrscheinlichkeitsverteilungen gearbeitet. Shannon greift diesen Zusammenhang auf und stellte eine sehr enge Verbindung zwischen einer zu transportierenden Information und der mathematischen Behandlung von Entropie her. Laut einem Fachbeitrag mit dem Titel ‚Energie und Information’ formulierte er: „My greatest concern was what to call it. I thought of calling it ‚information‘, but the word was overly used, so I decided to call it ‚uncertainty‘. When I discussed it with John von Neumann, he had a better idea. Von Neumann told me, ‘You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, nobody knows what entropy really is, so in a debate you will always have the advantage“ (Shannon in Tribus und McIrvin 1971: 180). Hier wird deutlich, dass Physiker Energie und Information als eine zusammengehörige Größe ansehen und wie es zum Entropiebegriff kam. Shannon beschäftigte sich mit der Entwicklung einer generellen Kommunikationstheorie, um Lösungen für Störungen bei der Signalübertragung zu finden. Er fokussierte dabei besonders auf die statistische Struktur der Nachricht, auf den endgültigen Bestimmungsort der Information, auf die Komprimierung der Information und auf die einzu-
104
Allgemein lassen sich mit dem Konzept der Entropie Systeme mit vielen Teilchen beschreiben. Im Grunde ist Entropie deshalb eine statistische Größe zur Untersuchung von Wahrscheinlichkeiten, mit deren Hilfe in der Physik Verhalten von Makrosystemen erklärt werden kann, die aus sehr vielen mikroskopischen Zuständen bestehen. Je weniger über die mikroskopischen Komponenten bekannt ist, desto größer ist ihre Entropie. Entsprechend ist die Entropie einer Flüssigkeit größer als die eines Festkörpers, bei dem die Freiheitsgrade seiner Entitäten reduziert sind. Entropie wird deshalb als Information betrachtet, die nicht zur Verfügung steht, wie hier gezeigt wird. Offene Quantensysteme sind nicht abgeschlossene Systeme, in denen Teilchen (Quarticle) delokalisiert sind. Typische Beispiele sind Laser oder biologische Prozesse bei Umgebungstemperatur.
174
4 Notwendige interdisziplinäre Erweiterung
bauenden Redundanzen, um eine Nachricht vor Fehlern zu schützen. „The fundamental problem of communication is that of reproducing at one point either exactly or approximately a message selected at another point“ (Shannon 1948: 379). In seinen Eingangsüberlegungen wird deutlich, dass die Bedeutung der Information für ihn irrelevant ist. Betrachtet wird nur, wie weit die vorhandene Information reduziert werden kann, um noch mit ausreichender Verständlichkeit beim Empfänger anzukommen und das Medium selbst, durch das die Information transportiert wird, und wie viel Information es übertragen kann. Er stellt zudem fest, dass die Information selbst mit einer physikalischen/körperlichen oder begrifflichen Entität korreliert: “Frequently the messages have meaning; that is they refer to or are correlated according to some system with certain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem. The significant aspect is that the actual message is one selected from a set of possible messages. The system must be designed to operate for each possible selection, not just the one which will actually be chosen since this is unknown at the time of design” (Shannon 1948: 379). Das von ihm entwickelte System bezieht sich dabei nur auf Nachrichten, deren Anzahl im System begrenzt und gleich wahrscheinlich sind, deshalb schreibt er wie folgt weiter: „If the number of messages in the set is finite then this number or any monotonic function of this number can be regarded as a measure of the information produced when one message is chosen from the set, all choices being equally likely“ (ebd.). Seine mathematische Formulierung veranschaulicht das heutige Verständnis zur Information im Rahmen der Informationstheorie: Ausgangspunkt sind die Wahrscheinlichkeiten 𝑝𝑝� aller möglichen Antworten 𝑖𝑖 zu einer bestimmten Frage. Diese möglichen Antworten müssen nun in Beziehung zu unserem Wissen über einen bestimmten Kontext gebracht werden und schließlich in Beziehung zu einer bestimmten Frage. Shannon’s Entropie berechnet sich dann wie folgt (Tribus und McIrvin 1971): S(Q|X) = S(p) = −k ∑� p� ln p� (4.2) mit S = Shannon’s Entropie, die sich aus der Frage Q und dem Wissen X über diese Frage Q zusammensetzt sowie aller möglichen Antworten. Auch hier ist k ein Skalierungsfaktor, der der Boltzmann-Konstanten entspricht. 𝑝𝑝� steht für die Wahrscheinlichkeit (0 ≤ 𝑝𝑝� ≤ 1) jeder möglichen Antwort in Bezug auf Q und ln pi ist der natürliche Logarithmus dieser möglichen Antworten 𝑖𝑖. Hier wird offensichtlich, dass der ursprüngliche aus klassischen Messgrößen zusammengesetzte Phasenraum 𝛺𝛺 zu einem Wahrscheinlichkeitsraum von Nachrichten mutiert, die übermittelt werden sollen. Die in einer Nachricht enthaltene Information I ergibt sich jedoch erst aus der Differenz zwischen zwei Entropien: (4.3) I = S(Q|X) − S(Q|X � ) = S(p) − S(p� ) mit X = die Information vor der versendeten Nachricht und X’ = das Wissen nach der empfangenen Nachricht. Damit wird auch deutlich, dass wir durch die Nachricht X’ nichts über X lernen können, wenn es keine Korrelation zwischen beiden gibt.
4.2 Information und Informationsübertragung
175
Sechs interessante Aspekte verbergen sich in den Ausführungen von Shannon (s.o, 1948:379.): 1. Dass im Englischen ‚physical’ sowohl für physikalisch, für materiell als auch für körperlich steht; eine Korrelation, die den Hauptfokus dieser Arbeit darstellt, da sich die untersuchten intuitiven Wahrnehmungen auf körperlicher Ebene zeigen. (In dieser Arbeit werden diese drei Unterscheidungen ebenfalls als aufeinander bezogene Synonyme verstanden. Dies steht im Gegensatz zu den Gepflogenheiten im westlichen Kulturraum, bei denen sich ‚materiell’ meist von den beiden anderen Begriffen unterscheidet.) 2. Dass es um die Kapazität bzgl. möglicher Nachrichten des übertragenden Mediums geht, nicht um den Inhalt selbst. 3. Dass es ihm nur um die abstrakte Information oder Nachricht geht, die technisch sicher verpackt vom Sender zum Empfänger transportiert wird, ohne die im Ausgangssystem enthaltenen Möglichkeiten an Informationen/Nachrichten zu reduzieren. Damit sollen alle im System vorhandenen Informationen mit gleicher Wahrscheinlichkeit gesendet werden können. Eine zunehmende Anzahl an Informationen bedeutet aber ein exponentielles Wachsen der Kombinationsmöglichkeiten mit schwer vorstellbaren Grenzen. Hier lässt sich durchaus ein Link zur Eingangsproblematik der ‚Komplexität’ legen und unserer eher intuitiven Auswahl aus einer Vielzahl von Optionen. Auch bei Shannon ist eine genaue Untersuchung aller einzelnen Optionen nicht möglich, wie er selbst herausstellt. 4. Dass nicht alle möglichen, sondern nur die für die Frage relevanten Informationen übermittelt werden. Das untersuchte System weist in der Regel mehr Informationen auf als für das Verständnis tatsächlich gebraucht wird. Bei Sätzen können deshalb Füllwörter, Umschreibungen etc. weggelassen werden. Dies ist sehr gut in der japanischen Sprache zu beobachten und wird auch bei gängigen Komprimierungsmethoden verwendet (z. B. MP3). 5. Dass durch die Bedingung nach Begrenztheit der Nachrichtenanzahl eine Kenntnis über das Gesamtsystem vorliegen muss, anhand dessen eine Orientierung möglich ist. Beispielsweise das Gesamtgewicht oder Volumen und die dazu nötige Anzahl von Molekülen, ohne genau bestimmen zu können, wie die jeweiligen Moleküle sich verhalten. Oder in der Kommunikation, ein Wissen über die Gesamtaussage und die dabei verwendete Anzahl der Wörter, ohne zu wissen welche Bedeutung in der Gesamtbotschaft steckt. 6. Dass schließlich beim Empfänger nur dann eine Nachricht zu einer Information (neue Erkenntnis) wird, wenn Korrelationen vorliegen. (Übertragen auf SyA würde dies bedeuten, dass das aufgestellte System mit dem zu untersuchenden Ursprungssystem Parallelen aufweist, die für die Beteiligten nachvollziehbar sind.) Zusammen mit Weaver veröffentlichte Shannon seine Gedanken in einem Buch mit dem Titel ‚The Mathematical Theory of Communication’ (Shannon und Weaver 1949). Aus dem ‚A’ vor Mathematical wurde ‚The’, da die beiden die generelle Bedeutung für die
176
4 Notwendige interdisziplinäre Erweiterung
allgemeine Kommunikation erkannten. Sie integrierten in ihrem Modell nicht nur Information die gesprochene und schriftliche Sprache repräsentiert, sondern auch Musik, bildhafte Kunst, Theater und generell das gesamte menschliche Verhalten. Dabei hatten sie vor allem Transmitter wie Telefon, Radio oder Fernsehen im Fokus. Schließlich unterscheiden sie drei Level von Kommunikationsproblemen (Shannon und Weaver 1949: 4): „LEVEL A. How accurately can the symbols of communication be transmitted? (The technical problem.)“ „LEVEL B. How precisely do the transmitted symbols convey the desired meaning? (The semantic problem.)“ „LEVEL C. How effectively does the received meaning affect conduct in the desired way? (The effectiveness problem)“ Weaver verortete Shannon’s mathematischen Ansatz ausschließlich auf Level A, allerdings mit dem Hinweis, dass B und C stark von der Qualität der Signale auf Level A abhängen. Es geht also nach wie vor nur um das Senden und Empfangen von Informationen, nicht um die Bedeutung der Botschaft (vgl. Shannon und Weaver 1949: 8). Die übertragenen Informationen sollen nur so beschaffen sein, dass dem Empfänger eine optimale Decodierung ermöglicht wird. Shannon und Weaver weisen noch auf Fehler beim Encodieren und Decodieren hin, die sich aus Übersetzungsproblemen und Mehrdeutigkeiten ergeben können. Das Ergebnis ist dann eine nicht vollständig empfangene oder gänzlich missverstandene Nachricht. Abb. 25 veranschaulicht das gesamte Kommunikationssystem.
Abb. 25 | Das generelle Kommunikationssystem von Shannon und Weaver (Shannon und Weaver 1949: 7). Eine Nachricht aus einer Informationsquelle wird in Signale encodiert und in Richtung eines Empfängers mittels EM-Wellen geschickt. Der Empfänger decodiert diese Nachricht und speichert sie an einem geeigneten Zielort. Beim Übertragen können Störungen auftreten, die berücksichtigt werden müssen.
Aus der Nachrichtenquelle wird eine Information aus mehreren möglichen ausgewählt oder die Quelle wählt die Information selbst aus und übergibt sie an den Transmitter
4.2 Information und Informationsübertragung
177
(Sendegerät), der die Ursprungsinformation encodiert. Die encodierte Information (Zeichenfolgen wie 0110001101001 oder ABBAACCBAA, Lichtdauer oder -intensität, Komponenten eines Vektorfeldes etc.) wird auf ein Trägermedium (Licht oder andere Formen von EM-Wellen etc.) übertragen und als Signal zum Empfänger gesendet. Dort wird das Signal mithilfe eines Empfangsgerätes aufgenommen und die Information zu einer Nachricht decodiert. Nun kann das Zielsystem (Mensch oder Maschine) die Nachricht abrufen. Die Rauschquelle repräsentiert mögliche externe Störungen, die die Signalübertragung behindern. Insofern wird auch verständlich, dass er als eines der Probleme die Übertragung der verschiedenen Bestandteile der Nachricht auf mathematische Größen ansieht. Dabei geht es um die geeignete Idealisierung eines physikalischen Gegenstücks. Hier finden wir wieder die bereits herausgearbeitete Differenz von Wirklichkeit und mathematischer Repräsentanz, die immer nur eine Idealisierung und nie die Realität selbst abbilden kann. Für die mathematische Darstellung und Übertragung griff Shannon auf eine neue Einheit, das binäre System, zurück. Dieses ist aus langen Folgen von Bits105 (0 und 1) aufgebaut, mit deren Hilfe die gewünschte Information encodiert wird. Jedem zu transportierenden Zeichen wird dabei eine Zeichenfolge (typischerweise 8 Bits pro Buchstabe) zugeordnet. Diese Encodierung hängt ab vom Medium des Transportkanals und wird beispielsweise mittels Lichtimpulsen, EM- oder Schall-Wellen transferiert. Ein sehr anschauliches analoges Beispiel stellt das Morsealphabet dar, mit langen und kurzen Zeichen, äquivalent zu 0 und 1. Voraussetzung einer gelungenen Kommunikation ist ein für Sender und Empfänger verständliches, weil bekanntes Wissen über den verwendeten Code. Zusätzlich bedarf es noch der Aufmerksamkeit von beiden Seiten und einer möglichst störungsfreien Übertragung. Shannon gelang es, den Informationsbegriff als eine messbare Größe zu definieren, indem er die in der Physik bekannte Entropie als Maß für die „missing information“ (Shannon und Weaver 1949: 3) verwendete. Dies wird nötig, wenn der Einfluss der Umgebung berücksichtigt werden soll, dieser aber nicht präzise spezifizierbar ist, wie bei Störgeräuschen (vgl. Honerkamp 2010). Shannon führte dazu Wahrscheinlichkeitsrechnungen über die Anzahl an Möglichkeiten durch, die nach der Messung im physikalischen System verbleiben und nicht bekannt sind. Alternativ formuliert: In seinem informationstheoretischen Ansatz repräsentiert die Entropie eines gegebenen Makrozustandes ein Maß für die ‚Anzahl der Mikrozustände’. Dies lässt sich mathematisch behandeln, indem bekannte Informationen in Beziehung zum bekannten Gesamtsystem gesetzt werden. Der Nachteil, der sich daraus ergibt, ist der Verlust an Exaktheit, da die Ergebnisse letztlich nur Mittelwerte und Varianzen produzieren. Ein Umstand, mit dem die Wissenschaft, auch die Physik, gut arbeiten kann, der aber auch für viel Diskussions105
Shannon verwendete wohl als Erster als Maßeinheit für den Informationsgehalt die Einheit Bit, die auf J.W. Tukey zurückgeht. Bit steht nach ihm für ‚binary digits’, zu dt. ‚binäre Ziffern’. Zur Speicherung eines Bits benötigt man die Möglichkeit einer Unterscheidung zwischen zwei Zuständen, z. B. EIN oder AUS, die gerne mit 0 und 1 dargestellt werden. (Shannon 1948)
178
4 Notwendige interdisziplinäre Erweiterung
stoff sorgt. Honerkamp führt dazu aus: „Es ist plausibel, dass man immer mehr solche Methoden nutzen muss, je komplexer die Systeme sind, und in unserem täglichen Leben erfährt man ja mehr scheinbar Zufälliges als Deterministisches, denn viele Einflüsse lassen sich nicht exakt beschreiben, sondern höchstens durch ihre statistischen Eigenschaften charakterisieren“ (Honerkamp 2010). Mit Shannon’s Ansatz geht ein Perspektivenwechsel einher: „von der reinen Betrachtung der Natur zur Beobachtung dieser Betrachtung“ (Honerkamp 2010). Nach Honerkamp ist die „Anzahl der Mikrozustände bei gegebenem Makrozustand eine reine Sache der Natur“. Die Antwort auf die Frage aber, „welchen Mikrozustand ich zu einer bestimmten Zeit bei gegebenem Makrozustand finden würde, wenn ich denn so etwas messen könnte“ (ebd.), hängt vom Beobachter ab. Es geht bei Shannon’s Ansatz also um die Wahrscheinlichkeit, einen bestimmten Zustand zu finden, der mit Zunahme der Anzahl der Mikrozustände immer kleiner wird. Damit hängen die Ergebnisse solcher Entropie-Messungen konsequenterweise vom Beobachter ab. Honerkamp formuliert dazu treffend: „Physik wird aber wie jede Wissenschaft von denkenden Wesen betrieben, und somit ist es plausibel, dass die Information, die über ein physikalisches System, in welcher Form auch immer, vorliegt, in die Beschreibung des Systems mit eingeht“ (ebd.). In dieser Aussage kommt bereits das neue Verständnis in der Physik zum Ausdruck, dass unsere Messergebnisse immer den Beobachtungsprozess miteinschließen. Nach Honerkamp erscheint demzufolge der Begriff der Information erst, „wenn man einen betrachtenden, denkenden Menschen ins Spiel bringt“ (ebd.). Diese Reduzierung des Informationsverständnisses auf Menschen mag für technische Signalübertragung gelten, erscheint aber mit Blick auf Lebensformen sehr reduziert. Auch Bienen können Informationen wahrnehmen und unterscheiden, ohne ein menschliches Bewusstsein aufweisen zu können. Information ist immer kontextabhängig und deshalb muss offensichtlich mit dem Begriff der ‚Information’ doch noch etwas anderes verbunden sein. Übertragung auf die direkte Kommunikation zwischen Menschen Das Faszinierende an Shannon’s technischem Modell ist seine einfache Anwendbarkeit auch auf die Kommunikation zwischen Menschen. Abb. 26 (Kanal 1) veranschaulicht Shannon’s Modell (Abb. 25) für die zwischenmenschliche Kommunikation. Hier wird deutlich, dass sich Shannon zunächst nur mit den technischen Herausforderungen von Kanal 1 (C) beschäftigte; wie die Information vom Transmitter, hier das Handy, erfasst und für die Weiterleitung übersetzt werden kann. Er beschäftigt sich nicht mit der Frage, was innerhalb der Quelle (A) und dem Ziel (B) (den Menschen) vonstattengeht. Kanal 2 (D) repräsentiert demgegenüber einen Kommunikationsprozess, wie er ohne technische Hilfsmittel stattfindet und Gegenstand von sozialwissenschaftlichen Betrachtungen ist. In diesem Prozess findet keine technische Codierung (01010011 etc.), sondern eine analoge (verbal und körpersprachlich) statt, und das Übertragungsmedium ist üblicherweise Luft (Hören) mittels Schallwellen und Licht (Sehen) mittels Photonen.
4.2 Information und Informationsübertragung
179
Abb. 26 | Kommunikation zwischen Menschen (eigene Darstellung) Die Kommunikation über Kanal 1 (ACB) veranschaulicht die technische Herausforderung, mit der sich Shannon beschäftigte. Neben den grundsätzlichen Fehlerquellen, die auch in einer normalen Kommunikation zwischen Personen, repräsentiert durch Kanal 2 (ADB), auftreten, kommen bei beiden Kanälen zu den internen Übersetzungsproblemen (Gedanke bis zur Verbalisierung/Hören bzw. Sehen bis zum Verstehen) Störeinflüsse durch die Übertragungsmedien hinzu.
An beiden Beispielen wird deutlich, dass es jeweils zusätzliche Encoding- und Decodingprozesse gibt, die innerhalb der Person selbst vollzogen werden. Dabei ist zwischen Bewusstsein (Informationsquelle – siehe Abb. 25) und Übersetzungsprozess im Gehirn zu unterscheiden, wobei das Gehirn die Funktion des Transmitters (encodieren) und des Receivers (decodieren) übernimmt. Eine Idee muss in Worte gefasst (encodiert) und verbalisiert (ausgesprochen) und damit gesendet werden. Das gesprochene Wort reist als Schallwelle zum Empfänger, wird dort gehört, übersetzt (decodiert) und hoffentlich richtig verstanden. Die Komplexität wird durch die parallelen optischen Signale erhöht, die stimmig (kohärent) oder nicht stimmig (dekohärent) mit dem akustischen Signal wahrgenommen werden können. In jedem dieser Prozessschritte sind Störungen möglich. So wird in der Regel die Idee schon nicht vollständig beschrieben, sondern durch geeignete (idealisierte) Worte und Sätze encodiert, die aus Sicht des Senders zum Verständnis ausreichen sollen. Der gesamte Kontext wird dabei meist bereits vernachlässigt. Wenn der Sender tatsächlich die richtigen Worte und Sätze trifft, besteht als nächste Herausforderung die stimmige Aussprache. Treffen unterschiedliche Sprachen oder Dialekte aufeinander, kann dies bereits zum Scheitern führen. Gelingt auch dieser Schritt, sollte das Umfeld die Möglichkeit zulassen, akustisch verständlich beim Empfänger anzukommen. Laute Umfeldgeräusche, beispielsweise in einem Tanzclub, wären hinderlich. Der Empfänger muss nun die gehörten Worte richtig übersetzen, was bei vielen Wörtern und Sätzen aufgrund ihrer Ambiguität ebenfalls eine Herausforderung darstellen kann. Und letztlich
180
4 Notwendige interdisziplinäre Erweiterung
muss der Empfänger die Übersetzung auch inhaltlich verstehen. Diese Ambiguität lässt sich beispielhaft mit dem Begriff der ‚Welle’ veranschaulichen, der in den späteren Ausführungen verwendet wird. Hat sich der Empfänger noch nie mit Quantenphysik beschäftigt, so hat er vielleicht eine Idee, was eine Welle ist, sicher aber nicht was eine Welle im Rahmen der Quantenphysik bedeutet und selbst dort wird ‚Welle’ sehr unterschiedlich interpretiert. Auch lässt sich die Fokussierung der möglichen Menge an sendbarer Information für dieses kommunikationspsychologische Beispiel leicht veranschaulichen. Der Informationsgehalt der Nachricht sollte an die geistige Kapazität des Empfängers angepasst sein. Dies betrifft sowohl die Geschwindigkeit des Sprechens, verwendete Abkürzungen und Codes, die Komplexität der Sprache, genauso wie die Lautstärke. Es macht einfach einen Unterschied, ob einem Kind, einem Top-Manager oder einem Professor etwas mitgeteilt werden soll und ob dieser Kommunikationsprozess in einer Besprechung, unter vier Augen oder vor 1000 Mitgliedern, in der Kirche, beim Tauchen oder im Sportstadion stattfindet. An dieser Stelle muss darauf hingewiesen werden, dass die scheinbar so selbstverständliche Vorstellung über eine akustische und lichtgebundene Informationsübertragung keineswegs so klar ist, wie sie erscheinen mag. Es stellt sich nämlich die Frage, was tatsächlich in diesen Medien enthalten ist und wie die Encodierung aussieht. Hier sei an den optischen Punkt am Horizont, der ein Flugzeug repräsentiert, erinnert. Der Punkt alleine, der als Lichtreflexion auf der Retina eingefangen wird, lässt auf Grund seiner Kleinheit keine Unterscheidung zu, die mit dem klassischen Sehverständnis erklärt werden kann. Eine Frage, auf die im Weiteren noch eingegangen wird. Übertragung des Shannon Ansatzes auf SyA Einen ersten Versuch, Shannon’s Ansatz mit SyA zu verbinden, unternahm Baecker (Baecker 2007), indem er den Raum aus Unterscheidungen, Grenzziehungen und Grenzüberschreitungen als Rahmen für die Rückmeldungen von Fallbringer und Repräsentanten interpretierte. Der Raum und die Ausrichtung im Raum könnten demnach „partiell (!) bereits alle (!) Informationen, die strukturell über diese Personen und Aspekte und ihre Stellung zueinander in einem System zu bekommen sind“ (ebd.) zur Verfügung stellen. Nach Baecker kann die „Identität der Form“ durch die „Formkopie der Systemstruktur durch die Aufstellungsstruktur und der repräsentierende Aspekt durch die Stellvertreter“ (ebd.) festgelegt werden. Heißt: Wir bekommen eine idealisierte Übersetzung der Information, die im System steckt, die statt in mathematischen Zeichen, in für die Beteiligten decodierbare Symbolik zur Verfügung gestellt wird. Dies gilt allerdings nur für die Anteile, die sich über die Realisierung im Raum darstellen lassen. Baecker nimmt an, dass die Kopie, die durch die SyA sichtbar wird, das Original empirisch, nicht aber theoretisch verfehlen kann. Was bedeutet, dass sich aus diesem Setting grundsätzlich die richtige Information destillieren lässt, wenngleich die Gefahr einer Fehlinterpretation besteht. Damit ließe sich Shannon’s mathematischer Ausdruck für SyA wie folgt adaptieren: (4.4) S��� (Q|X) = S(p) = −k ∑� p� ln p�
4.2 Information und Informationsübertragung
181
mit SyA = die Entropie und damit die Erkenntnis aus der SyA, bezogen auf die Frage Q und dem Wissen X über diese Frage Q. Da k letztlich die Einheit liefert in der S gemessen wird, kann sie auf 1 gesetzt werden106. 𝑝𝑝� steht für die Wahrscheinlichkeit jeder möglichen Antwort in Bezug auf Q und ln pi ist der natürliche Logarithmus dieser wahrscheinlichen Antworten. Realistisch betrachtet, bleibt diese Form der Darstellung jedoch nur eine mathematische Spielerei auf Symbolebene, veranschaulicht aber den prinzipiellen Zusammenhang. Viel wesentlicher ist das Vorliegen dreier Begrenzungen, die sich in der Anwendung von Shannon’s Formalismus erkennen lassen: 1. Eine kleine Einlassung bei Baecker (ebd.) weist bereits darauf hin, dass diese Sicht (Raum als Unterscheidungskriterium) nicht unbedingt stimmig sein muss, indem er eine Bedingung formuliert, dass diesen Grenzziehungen nichts anderes vorausgehen sollte. Shannon’s Entropieverständnis kann nur dann greifen, wie eingangs bereits herausgestellt, wenn der Rahmen des betrachteten Gesamtsystems bekannt ist. Lässt sich das System jedoch nicht sauber abgrenzen, kommen zusätzliche Einflüsse ins Spiel, die die Ergebnisse verfälschen, vergleichbar einem störenden Rauschen. Oder anders: Wir können Informationen aus der räumlichen Darstellung ableiten, die durch den Rahmen unserer Frage begrenzt sind. Alle anderen Antworten bleiben außen vor. Wir wissen aber, dass die Raumsprache bei weitem nicht die auftretenden Phänomene erklären kann und in vielen Fällen zwar gleiche Raumstrukturen produziert, allerdings mit gänzlich unterschiedlichen Körperwahrnehmungen und Zusammenhängen. Die Erkenntnis aus einer SyA sind demzufolge, wie oben bereits herausgearbeitet, vom Beobachter und seinem Wissen über das System abhängig, nicht anders wie auch im von Shannon entwickelten Kommunikationsmodell. 2. Eine weitere Begrenzung findet sich deshalb in der Reduzierung auf die Raumdarstellung. Alles was über die Raumdarstellung hinausgeht, entzieht sich diesem Erklärungsansatz, denn sie kann logischerweise keine Verbindung mit Informationen herstellen, die nicht über die Raumsprache ausgedrückt werden kann. 3. Aus Abb. 26 geht deutlich hervor, dass bei SyA die Variante A-C-B über Kanal 1 irrelevant ist und damit auch der weitere Bezug auf Shannon’s technische Signalcodierung. Wohingegen Übertragungsvariante A-D-B über Kanal 2 eine relevante Struktur beschreibt, zumindest für den Fall, dass wir uns nur im Lokalen bewegen. Nur genau das findet bei SyA- und vielen Intuitionsphänomenen nicht statt. Die meisten vollziehen sich unter Mitwirkung nicht-lokaler Rahmenbedingungen, indem sie auf Informationen (nicht anwesende Familien- oder Organisationsmitglieder, technische Bauteile etc.) zurückgreifen, die nicht lokal vorhanden sind. 106
Als Boltzmann-Konstante k � hätte sie die Einheit J/K (Energie/Temperatur). In Bezug auf SyA gibt es eine solche Einheit nicht, jedoch darf die Gleichung nicht Null werden, weshalb der Therm erhalten bleiben muss.
182
4 Notwendige interdisziplinäre Erweiterung
4.2.2.3 Stuart Hall – Weiterentwicklung und Kritik Dieses von Shannon entwickelte Konzept findet sich in gleicher Weise in der sozialwissenschaftlichen Welt der Kommunikation zwischen Personen, wie in Abb. 26 dargestellt. Hall (Krotz 2012) kritisiert bei dieser Form die Illusion der objektiven Verwendung der übermittelten Zeichen, Wörter etc., wie er in seinem EncodingDecoding-Modell ausführlich darlegt. Danach verstehen die Mainstream-Kommunikationswissenschaften Kommunikation als einfachen Informationstransport. Dieser scheinbar festgelegte, unbezweifelbare Inhalt und die Vorstellung eines isolierten, linearen Prozesses, wie es aus der technischen Informationsübertragung nach Shannon (Abb. 25) vermittelt wird, seien demzufolge ein Irrtum. Hall weist mit Nachdruck darauf hin, dass das Verständnis der übermittelten Zeichen immer nur im Kontext zur Kultur und der Gesellschaft insgesamt erkannt werden kann und „voraussetzungslos gedachte Fakten in diesem Sinn nicht existieren“ (Krotz 2012: 214–215). Analog zu meinen Ausführungen, dass Mathematik eine eigenständige Sprache ist und die jeweiligen Themen in eine bestimmte Form modelliert, ohne dass die Mathematik selbst die Wirklichkeit ihres Beschreibungsgegenstandes übernehmen kann, verweist Krotz auf den gleichen Zusammenhang. „Zeichen verweisen auf etwas, und ihre Bedeutung liegt dementsprechend nicht in ihnen selbst, sondern ergibt sich aus dem Kontext, [...] von denen aus es also interpretiert wird. Zeichen und ihre damit verbundenen oder verbindbaren Bedeutungen sind damit erlernt, [...] Alle Menschen lernen Sprache, Normen und Werte, aber welche sie lernen, ist bekanntlich unterschiedlich“ (ebd.: 215). Aus diesen Voraussetzungen schließt Hall, dass alles was kommuniziert werden soll, beim Sender encodiert und beim Empfänger decodiert werden muss. Die Kultur liefert dabei die Sinndeutung und mithin zerfallen unterschiedliche Kulturen in unterschiedliche Deutungssysteme. Encodierte Information wird deshalb nur von homogenen Gruppen mit größerer Wahrscheinlichkeit mit der richtigen Kontextualisierung und Interpretation versehen. Diese Idee findet sich in einigen der nachfolgenden Konzepte zur Information wieder. Übertragung auf SyA Mit diesem Hinweis von Hall (ebd.: 215) wird das Problem der Interpretation bei SyA nochmal in den Mittelpunkt gestellt. Gelingt eine Ankopplung an die Information der zu untersuchenden Entität und vermögen die Repräsentanten daraus resultierende körperliche und mentale Veränderungen zu registrieren, so bleibt am Ende die Herausforderung der richtigen systemangepassten Interpretation dieser Information. Unstimmige Kontextualisierung als auch eigene Blindheiten bzw. Verzerrungen führen leicht zu völlig falschen Rückschlüssen bzgl. dessen was sich zeigt. Die immer wieder beobachtbare, determinierende Interpretation von Aufstellungsleitern oder Teilnehmern muss, als Konsequenz aus Hall’s Überlegungen, kritisch gesehen werden.
4.2 Information und Informationsübertragung
183
4.2.2.4 Quantenphysikalischer Ansatz nach Neumann Als Einstieg dient zunächst die in der nicht-physikalischen Community wohl bekannteste Unterscheidung zwischen klassischem Zustand und Quantenzustand: der Wechsel vom ‚Bit’ (0) und (1), der kleinsten Informationseinheit im klassischen Zustand, wie er von Shannon eingeführt wurde (Kap. 4.2.2.2), zum ‚Qubit’ (Quantenbit oder Qbit) als kleinste Informationseinheit des Quantenzustandes, mit seinen Eigenzuständen 107 |0⟩ und |1⟩. Als Informationseinheit Bit, bezeichnet auch als Quanteninformation, wird dabei der Unterschied zwischen zwei Zuständen verstanden. Auch ein Qubit ist durch zwei unterscheidbare Messergebnisse (orthogonale Zustände) charakterisierbar. Diese Zustände der Qubits ergeben sich aus dem Superpositionsprinzip, dem Quantensysteme gehorchen. Diese quantenphysikalische Superposition ermöglich zwischen den beiden Eigenzuständen |0⟩ und |1⟩ unendlich viele weitere Zustände. Die Gesamtmöglichkeiten dieser beiden Basiszustände werden mit der Wellenfunktion Ψ (Psi) beschrieben und werden durch den jeweiligen Messaufbau präpariert und sind auch nur für diesen Messaufbau gültig. Ihre mathematische Formulierung lautet: |Ψ⟩ = a|0⟩ + b|1⟩ (4.5) mit 𝑎𝑎 und 𝑏𝑏 als komplexe Zahlen, die als Amplitude bezeichnet werden mit: (4.6) |a|� + |b|� = 1 Damit kann sich ein Qubit in der Superposition zweier Zustände gleichzeitig befinden, wobei das Beitragsquadrat der komplexen Zahlen die Wahrscheinlichkeit für den jeweiligen Anteil ausdrückt und so die Superposition bzw. die Überlagerung der klassischen Zustände beschreibt. Mögliche Varianten wären: � � � � � � |Ψ⟩ = |0⟩ + |1⟩ = |1⟩ mit ( )� + ( )� = + = 1 (4.7) √�
√�
√�
√�
�
�
|Ψ⟩ = 0|0⟩ + 1|1⟩ = |1⟩ mit (0)� + (1)� = 0 + 1 = 1 |Ψ⟩ =
� √�
|0⟩ +
�
� � |1⟩ mit ( )� � √�
� + (� )� �
�
�
�
�
= + =1
(4.8) (4.9)
Mit einer Messung wird die Superposition (Formel 4.5) zerstört und wir finden den Qubit mit einer Wahrscheinlichkeit |𝑎𝑎|� im Zustand |0⟩. Wissen wir, dass es sich um ein Quantensystem handelt, ist damit automatisch auch der Wert von |𝑏𝑏|� im Zustand |1⟩ festgelegt. Was bedeutet Shannon’s klassische Entropie nun für die quantenphysikalische Betrachtung der Information? Im Gegensatz zur klassischen Informationstheorie, bei der die Wahrscheinlichkeitsbetrachtung von Shannon auf einer ‚klassischen’ Unsicherheit mangels nicht vorhandener, aber prinzipiell existenter Informationen basiert, ist die Situation in der Quantenwelt fundamental anders. Dort resultiert die Unsicherheit aus einer prinzipiellen Unbestimmtheit, die das gleichzeitige, genaue Messen komplementärer Eigenschaften unmöglich macht, was in Heisenberg’s Unbestimmtheitsrelation (Heisenberg 1927) zum Ausdruck kommt. 107
Die Darstellung | … ⟩ auch genannt ‚Notation’ macht deutlich, dass es sich hier um einen Quantenzustand handelt und geht auf Dirac zurück.
184
4 Notwendige interdisziplinäre Erweiterung
Die Quanteninformation trägt nun beide Formen, Unsicherheit und Unbestimmtheit, in sich und muss deshalb beide berücksichtigen (Wilde 2017: 23). Den quantenphysikalischen Formalismus etablierte von Neumann bereits 1932 (Neumann 1996). Die Kombination von Shannon’s Überlegungen mit der Quantisierung der Information nach von Neumann bildet die Grundlage der Informatik und der Quanten-Teleportation und findet sich in der neueren Literatur als ‚Quantum-Shannon-Theory’ wieder, anstatt der adäquaten Bezeichnung ‚Quanten-Informations-Theorie’; so als Titel einer Vorlesungsreihe am Caltech (Preskill 2016) oder bei Wilde (2017: 21). In der Quantenphysik wird ein Mikrozustand |𝑖𝑖⟩ (reiner Zustand eines Mikrosystems z. B. Elektron) durch einen Vektor im Hilbertraum ℋ beschrieben. Ein Makrozustand (Teilchenzahl, Temperatur, Volumen, Energie) lässt sich dann durch einen Dichteoperator (= statistischer Dichteoperator) beschreiben, in dem die Vektoren der einzelnen Mikrozustände zusammengefasst sind (= Dichtematrix). Dieser Dichteoperator beschreibt den Makrozustand im Grunde in Form einer Statistik, die auf Wahrscheinlichkeitsberechnungen beruht, da sich Quantenzustände nicht als reine, klassische Zustände darstellen lassen. Interessant ist, dass in der Physik davon ausgegangen wird, dass in diesem Dichteoperator alle Informationen enthalten sind, die man mittels einer idealen Messung (in Form von Qubits) ermitteln kann und somit ist darin alles enthalten, was man über dieses Makrosystem wissen kann. Die Natur hat mit den Qubits demzufolge den grundsätzlichsten Weg gefunden, um Information auf elementarer Ebene (Atom, Elektron, Photon etc.) zu speichern108, was dazu führt, dass die Wellenfunktion ‚alle’ möglichen Informationen einer Entität beinhaltet. Da Qubits ALLE Information einer Entität tragen, müssten nur die Qubits dieser Entität untersucht bzw. gemessen werden, um auf alle Informationen Zugriff zu bekommen. Nur gibt es leider ein Interpretationsproblem darüber, was in diesem Sinne ALLES heißen soll. Im üblichen Verständnis bezieht sich ‚alle Information’ nur auf physikalische Messgrößen, was dazu führt, dass am Ende reale Zahlen stehen. Abweichend von dieser physikalischen Sicht soll in dieser Arbeit tatsächlich ALLE Information verstanden werden, die aus beliebigen, auch nicht-physikalischen Messungen, gewonnen werden kann. Dazu zählen Symbole, Sinn, Verhalten, Strukturen, topologische Anordnungen etc.109 Wir werden noch sehen, dass diese Interpretation keine willkürliche ist, sondern logisch aus dem Verständnis zu Information und aus dem heutigen Wissen zur Quantenphysik abgeleitet werden kann.
108
109
Mit dem Begriff ‚speichern’ wird bewusst ein Begriff verwendet, der in der Quantenphysik kontrovers diskutiert wird. Dort stellt sich die Frage, ob eine Information bereits vor der Messung existiert und als solches gespeichert und abgerufen werden kann oder erst durch die Messung entsteht. In erster Näherung ergibt sich eine solche Logik bereits aus den heute in Computer Science praktizierten Anwendungen. Dort werden alle möglichen Zustände (emotionale, topologische ...) in Zahlen übersetzt, so dass Computer bereits Gefühle erkennen könne und entsprechend darauf reagieren. Wenn die Software eines Smartphones entsprechend auf unser Befinden reagiert, wird dies sehr anschaulich.
4.2 Information und Informationsübertragung
185
Festzuhalten ist zudem, dass der Dichteoperator einem Mixed-Zustand aus klassischen und quantenphysikalischen Größen entspricht. Es wird damit deutlich, dass zwischen Dichteoperator und Wellenfunktion eine direkte Beziehung besteht, dergestalt, dass (4.10) ρ = |Ψ|� (4.11) = Ψ ∗ Ψ das Beitragsquadrat der Wellenfunktion Ψ die Wahrscheinlichkeitsdichte (= Dichteoperator) 𝝆𝝆 angibt, die gesuchte Entität auch tatsächlich bei einer Messung zu finden, mit Ψ ∗ als komplex konjugierte Funktion. Aus der Kombination von Wellenfunktion und Wahrscheinlichkeit hat sich das Verständnis ‚Wahrscheinlichkeitswelle’ abgeleitet. Der Dichteoperator beschreibt also die Wahrscheinlichkeiten 𝝆𝝆 (als Vektor) für alle möglichen Ergebnisse von allen möglichen Messungen bezogen auf einen bestimmten Zustand 𝑖𝑖, wenn der Beobachter keine Information über die jeweilig möglichen Zustände hat (vgl. Preskill 2016: 13): ρ = ∑ � p� ρ � (4.12) mit 𝑝𝑝� als Wahrscheinlichkeit eines bestimmten Mikrozustandes 𝑖𝑖, multipliziert mit seinem Vektor 𝝆𝝆� . Für ein Quantensystem im reinen Zustand schreibt sich diese Wahrscheinlichkeit 𝝆𝝆 wie folgt: ρ = ∑� p� |i⟩ ⟨i| (4.13) mit 𝑝𝑝� als Wahrscheinlichkeit eines reinen Quantenzustandes |𝑖𝑖⟩ mit orthogonaler Ausrichtung. Die von Neumann Entropie S lässt sich dann darstellen als: S(ρ) = −Tr(ρ� lnρ� ) (4.14) mit Tr (Trace) als Beschreibung der Spur des Operators. Unter Hinzunahme der Boltzmann-Konstante k ergibt sich schließlich die Verbindung zur Shannon Entropie S(𝑝𝑝). S(ρ) = −𝑘𝑘〈lnρ〉 = −𝑘𝑘Tr(ρ� lnρ� ) = −𝑘𝑘 ∑� p� ln p� (4.15) S(ρ) = S(p) (4.16) Von Neumann und Shannon Entropie unterscheiden sich somit nur durch eine Konstante. Es lässt sich festhalten, dass beide Funktionen im Grunde gleich sind und den Informationsgehalt der von ihnen beschriebenen Systeme angeben (einmal in Qubit, einmal in Bit). Interessant an diesem Ansatz ist nun, dass der nicht mehr weiter komprimierbare Informationsgehalt aus der Quantenquelle durch die ‚von Neumann Entropie’ quantifiziert werden kann, in gleicher Weise, wie es die ‚Shannon Entropie’ mit Informationen aus einer klassischen Quelle realisiert (Preskill 2016: 13). Zudem vermag die ‚von Neumann Entropie’ auch die Information in verschränkten Zuständen zu quantifizieren. Was bedeutet nun Entropie im Zusammenhang mit der Quantenstatistik in der Physik? Da das Entropieverständnis auf dem Shannon und von Neumann aufbauen einige Ankopplungsmöglichkeiten zur Erklärung von SyA und Intuition bieten, folgt nun, in
186
4 Notwendige interdisziplinäre Erweiterung
Anlehnung an die Beschreibungen der Caltech-Vorlesung, der Versuch einer kompakten Zusammenfassung (vgl. Preskill 2016: 19): Grundsätzlich lässt sich die Entropie über die Wahrscheinlichkeiten der beteiligten reinen quantenphysikalischen Zustände ermitteln, die den Makrozustand des Gesamtsystems aufbauen, womit deutlich wird, dass sogenannte Mixed-Zustände quantenphysikalisch messbar und beschreibbar werden. Nur lassen sich auch in der Quantenphysik, wie in der klassischen Physik bei Shannon, geschlossene und offene Systeme unterscheiden. Damit sind auch zwei unterschiedliche Wege einer Annäherung formulierbar: Zugang 1 betrachtet die Entwicklung eines geschlossenen Quantensystems. Hier stellt sich die Frage, was beobachtet werden kann, wenn man nur zu einem Teil des Gesamtsystems Zugang hat. Auch wenn von außen die Entwicklung des Gesamtsystems gleichmäßig aussieht, trifft dies nicht für das Subsystem zu. Die in einem Nicht-Gleichgewichtszustand lokal encodierte Information über das Subsystem wird im Moment der physikalischen Interaktion nichtlokal über das Gesamtsystem verteilt (encodiert), so dass für den Beobachter nicht mehr unterscheidbar ist, was entspricht dem Subsystem und was dem Gesamtsystem. Dies ist mit einem klassischen System vergleichbar, bei dem ein Stoff in Wasser gelöst wird. Nur kann in der Regel die Verteilung des Stoffs und damit seine Unterscheidung vom Rest mit ausreichend guten Mikroskopen im Nachgang noch beobachtet werden, bei einem Quantensystem nicht. Ein Zustand, den man in der Quantenphysik ‚Verschränkung’ nennt. Zugang 2 betrachtet die Entwicklung eines offenen Quantensystems A, das sich in Kontakt mit einem nicht beobachteten Umfeld befindet. Verfolgt wird nur die Entwicklung von A. Auch wenn es so aussieht, als ob es ein spezieller Fall vom Zugang eins ist, so verteilt sich (dekohärent) die Information auch über das Umfeld und die Information des Umfeldes korreliert mit dem beobachteten System A. System A sollte von daher nicht mehr einfach vom Umfeld unterscheidbar sein. In der Praxis der quantenphysikalischen Informationsverarbeitung hat sich gezeigt, dass mithilfe von Differenzialgleichungen (vgl. Preskill 2015: 34) bzw. eines sogenannten Markoff-Prozesses 110 (Shannon 1948) dennoch eine gute Näherung der Entwicklung von System A beschrieben werden kann, ohne dass das Umfeld explizit mitbetrachtet wird. Es gelingt somit dennoch eine stimmige, mathematisch-physikalische Informationsbehandlung und Informationsübertragung zu realisieren, die mit den untersuchten Systemen korreliert. Ergänzt sei an dieser Stelle noch, dass es einen vergleichbaren Ansatz, die ‚Beckenstein Entropie’, für die Entropiebetrachtung in der QFT gibt (Preskill 2016: 20). Die QFT ist, 110
Mittels Markoff-Prozessen (= Markoff-Kette) lassen sich Prognosen über zukünftige Entwicklungen eines Systems treffen, auch wenn über die Vorgeschichte nur wenige Informationen vorliegen. Es handelt sich dabei um ein spezielles stochastisches Verfahren.
4.2 Information und Informationsübertragung
187
wie bereits erwähnt, insofern von Bedeutung, dass Systeme ab Molekülgröße nur mit der QFT beschrieben werden können. Übertragung des von Neumann Ansatzes auf SyA Übersetzen wir diese Beschreibung jetzt auf SyA, mit der Annahme, dass sich Menschen als Mixzustand betrachten lassen (wohlwissend, dass diese Annahme noch fundiert hinterlegt werden muss), analog zu den Versuchsanordnungen in der Quantenphysik und dem oben vorgestellten mathematischen Mechanismus, so lassen sich ein paar Parallelitäten und Unterschiede feststellen. Nachdem sich die Entropie des Makrosystems aus den Wahrscheinlichkeiten der reinen Quantenzustände berechnen lässt, würde das für lebende Systeme übersetzt bedeuten, dass die Gesamtinformation beispielsweise der Person A, sich aus den Wahrscheinlichkeiten der Einzelzustände und damit auch der Einzelinformationen bestimmen, die die Person als Ganzes kennzeichnet. Betrachten wir Person A als Quantensystem A, so kann es in erster Näherung als abgeschlossenes System gesehen werden, das sich zumindest makroskopisch gut von seiner Umgebung unterscheiden lässt. Auch hier ist unklar, wie die Informationen der Einzelzustände im Inneren der Person im Detail interagieren und sich im System ausbreitet. Es lässt sich aber zweifelsohne die Beobachtung nachvollziehen, dass sich beispielsweise ein zugeführtes Essen oder eine Hiobsbotschaft zunehmend nicht-lokal im System Mensch verteilt, bis es nicht mehr vom Rest unterschieden werden kann und das Gesamtsystem darauf reagiert. In gleicher Weise korrelieren die Beobachtungen, die man in Bezug auf Person A machen kann. Die spezielle Information, die über die Nahrung oder das Ohr aufgenommen wurde, entspricht einem zunächst lokalen Nicht-Gleichgewichtszustand, dessen encodierte Information zunehmend nicht-lokal über das Gesamtsystem Person A verteilt wird, oder anders ausgedrückt ‚verschmiert’ oder physikalisch gesprochen ‚verschränkt’ ist. In zweiter Näherung wird allerdings deutlich, dass das Quantensystem Person A kein geschlossenes, sondern ein offenes System darstellt. Wie schon bei Baecker eben gesehen, lässt sich ein mit SyA untersuchtes System durch Grenzziehung von einem Umfeld unterscheiden, was dem eben beschriebenen ersten Zugang entspricht. Diese Unterscheidung findet allerdings nur auf mentaler Ebene statt oder mit einem Verständnis der klassischen Mechanik oder dem von Makrosystemen. Auf der Quantenebene handelt es sich tatsächlich aber um ein offenes System, das mit seiner Umgebung wechselwirkt. Diese Wechselwirkung findet zumindest lokal sowohl auf elementarer Ebene statt (Austausch von Molekülen z. B. über die Atmung und durch EM-Wellen z. B. Wärmestrahlung, Lichtstrahlung) als auch auf sprachlicher Ebene (verbal z. B. Erklärung des Sachverhaltes oder Beschreibung der Wahrnehmungen und nonverbal z. B. durch die Stellung im Raum, Mimik und Körperbewegungen). Lässt sich die sprachliche Ebene teilweise noch mit Shannon’s Modell oben erklären (Kap. 4.2.2.2), so kann auf elementarer Ebene eine nicht-lokale Informationsverteilung über das Gesamtsystem (Aufstellungsgruppe, Fallbringer, Facilitator etc.) angenommen werden, welche über den Prozess der Verschränkung auch mit dem Herkunftssystem korreliert und sich somit entsprechend der von Neumann Entropie verhält (Kap. 4.2.2.4). Wohlgemerkt, diese Beschreibung
188
4 Notwendige interdisziplinäre Erweiterung
hat nur Gültigkeit unter der Prämisse eines quantenphysikalischen Anteils beim Menschen, der auch zum Tragen kommen kann. Unter dieser Annahme ist jede Information, die im System von Person A encodiert ist, wozu auch Gefühle, Wünsche, Einstellungen etc. zählen, über das System von Person A verteilt und steht ebenfalls im Austausch, bzw. in Korrelation mit dem Umfeld von Person A. Konsequenterweise lässt sich dieser konzeptionelle Ansatz von Person A extrapolieren auf Team A, Projekt A, Organisation A in der Person A jeweils arbeitet, weiter auf die Gesellschaft A und noch weiter auf Kultur A etc. Informationstechnisch lassen sich diese Systeme gleich behandeln, was die experimentellen Ergebnisse aus SyA nahelegen. Formal könnte jetzt der mathematische Formalismus der Quantum-Shannon-Theory (4.8) auf diese Überlegung und auf die Versuchsanordnung der SyA angewandt werden. Praktisch wäre dies jedoch ebenfalls nur eine mathematische Spielerei ohne Nutzen, auch wenn die modernen Algorithmen in der Computersprache einer menschlichen Abbildung bereits sehr nahegekommen sind und Gefühlszustände des Nutzers interpretieren können. Mit Bezug auf die Reaktion der Wissenschaft auf die GQT (Generalisierten Quanten-Theorie vorgestellt in Kap. 5.3.6) und die Ablehnung dieser Übertragung auf die Physik, soll an dieser Stelle deshalb darauf verzichtet werden. Von Bedeutung ist allerdings die logisch-theoretische Weiterführung des Konzepts auf SyA. Wenn sich in der realen technischen Anwendung der Quantenphysik, die Quantum-Shannon-Theory bewährt hat, warum soll der gleiche Mechanismus nicht auch für reale, lebende Systeme funktionieren? Denn die Information, die bei Quantenberechnungen verwendet wird, resultiert aus den gleichen, für uns realen Entitäten wie Töne, Bilder oder sonstige Zustände, die letztlich auch nur aus EM-Wellen oder Elementarteilchen aufgebaut sind. 4.2.2.5 Verschränkung – fundamentalste Form der Informationsübertragung Vorausgeschickt sei, dass das Thema Verschränkung von so zentraler Bedeutung für die Gesamtidee des Mechanismus bei SyA und Intuition ist, dass es in Kap. 8.1.2 sehr ausführlich behandelt werden wird. Im Rahmen dieser ersten Annäherung soll nur das Grundprinzip erläutert werden, das auf Schrödinger zurückgeht (Schrödinger 1935a). Trägt System A einen Zustand mit sich und wechselwirkt mit System B im Sinne einer physikalischen Verschränkung, so teilen beide ihren Zustand und mithin ihre Information (siehe dazu später Verschränkung Kap. 8.1.2 und Quanten-Teleportation Kap. 8.1.4). Gemeinsam spannen sie jetzt ein Gesamtsystem auf. System A trägt neben seiner eigenen Information auch die Information von B in sich und umgekehrt. Trennen sich die beiden Systeme wieder, so besitzen beide die Information von A + B. Die Information kann in diesem Sinne auch als ‚weitergegeben’ verstanden werden, ohne dass ein Energietransfer benötigt wird. Bleiben beide Systeme auch weiterhin miteinander verschränkt und wechselwirkt beispielsweise System A mit einem weiteren System C, so hat System B nun auch Zugang zur Information von System C. Als Information wird
4.2 Information und Informationsübertragung
189
hier nicht nur der Drehimpuls, z. B. Spin up und down, verstanden, sondern alle Informationen, die in einem System encodiert sind. Im Gegensatz zur Signalübertragung von Abb. 26, die der Einstein’schen Relativitätstheorie und dem Axiom ‚Nichts ist schneller als Licht‘ unterliegt, wird bei einer quantenphysikalischen Verschränkung die Information ‚instantan‘, also unmittelbar, zwischen den beteiligten Systemen auch über nicht-lokale, beliebig weite Entfernungen, geteilt. Zur Vermittlung einer solchen Information bedarf es nach heutigem Verständnis keines Mediums. Es wandert somit auch kein Signal durch Raum und Zeit. Diese Informationsübermittlung wird heute in der Quanten-Teleportation genutzt. Zeilinger führt in Bezug auf diese Nutzungsform in einem Vortrag aus: „Es geht hier um Informationsübertragung [in der Quanten-Teleportation; Anmerkung Autor] in einem sehr fundamentalen Sinn, viel fundamentaler, als wir es normalerweise bei z. B. Telefonübertrag vor uns haben“ (Zeilinger 2011). Übertragung des Verschränkungskonzeptes auf Kommunikation und SyA Diese klassische Beschreibung lässt sich auf einen Kommunikationsprozess zwischen Menschen übertragen und mit Abb. 27 verdeutlichen, vorausgesetzt, die Annahme eines Mixed-Zustandes kann belegt werden. Kanal 3 stellt dabei eine weitere Variante von Abb. 25 dar, wobei er tatsächlich keinen klassischen Kanal repräsentiert.
Abb. 27 | Informationsaustausch mittels quantenphysikalischer Verschränkung (eigene Darstellung) Bei einer quantenphysikalischen Verschränkung (AEB) benötigt es keinen Informationstransport im klassischen Sinne. Die Information ist im Moment einer physikalischen Interaktion instantan im Gesamtsystem verteilt. A und B tragen in der Folge die gleiche Information mit sich und bekommen mit, wie es dem jeweils anderen ergeht. Allein die Problematik der richtigen Zuordnung an einen möglichen Sender (A) bzw. die richtige Übersetzung und damit Interpretation des Inhalts fordern einen klassischen Kontakt zw. A und B.
190
4 Notwendige interdisziplinäre Erweiterung
Nehmen wir an, Sender A ist tatsächlich quantenphysikalisch mit dem Empfänger B verschränkt, so würden dessen Gedanken unmittelbar B zur Verfügung stehen und vice versa. Wesentlich ist, dass A keine inneren Übersetzungsprozesse mehr vornehmen muss, kein Übertragungsmedium benötigt und auch eine Fehlinterpretation aufgrund des Hörvorgangs bei B vermieden wird. Es bleibt nur eine Fehlermöglichkeit durch den Übersetzungsprozess der wahrgenommenen Eindrücke hin zum Verstehen, vorausgesetzt, B ist sich des Informationskontextes bewusst und ist damit auch vertraut. Bezogen auf SyA oder intuitive Wahrnehmung fallen alle mittleren Teile (Transmitter ...) weg und nur unsere neuronalen Aktivitäten bekommen eine ultimative Relevanz. Mit dieser dritten Form der Informationsübertragung sind alle drei derzeit bekannten Übertragungswege beschrieben, aus denen ein möglicher Mechanismus bei SyA abgeleitet werden muss. Offen ist jetzt noch die Information in Beziehung zu Kopplungen zwischen Menschen und nicht-technischen Systemen und die immer wieder formulierte Herausforderung der Bedeutungsgebung. An dieser Stelle sei auf die Schwierigkeit und den Hintergrund hingewiesen, die die heutige Physik mit meiner Interpretation als dritte Variante der Informationsübertragung vermutlich haben wird: Im Verständnis der Kopenhagener Interpretation sind verschränkte Systeme wechselwirkungsfrei und deshalb kann ein Beobachter alleine durch eine Messung an einem Teilsystem nicht auf ein anderes Teilsystem schließen, oder gar Information über es gewinnen (vgl. Reineker u. a. 2007: 466). Zugestanden wird jedoch, dass etwas zwischen den Teilsystemen übermittelt wird. In der weiteren Argumentation erfolgt nun ein Umkehrschluss. Es wird ausgeschlossen, was eben nicht transportiert wird: „Wegen der Wechselwirkungsfreiheit können wir ausschließen, dass Energie zwischen den Teilsystemen transportiert wird. Ebensowenig kann Information übertragen werden. Ein Informationstransfer erfordert, dass eine bestimmte, vorher festgelegte Zeichenfolge von einem Teilsystem auf das andere übertragen wird und am Zielpunkt wieder entziffert werden kann. [...] Da aber nur die Ausbreitungsgeschwindigkeit von Materie-, Energie- und Informationstransport durch die Lichtgeschwindigkeit begrenzt wird, verletzt der instantane Kollaps der Wellenfunktion nicht die Gesetze der Relativitätstheorie“ (ebd.). Die erste wesentliche Hürde ergibt sich aus der Beobachtersituation. Ein außenstehender Beobachter kann in der Tat keine Information über den inneren Zustand eines Systems haben, außer über sich wieder im Außen zeigende Verhaltensweisen etc. Im Falle der Verschränkung muss er grundsätzlich wissen, dass es andere Teilsysteme gibt, und er muss wissen, worauf er zu achten hat. Für ein System aus der Innenperspektive betrachtet ergibt sich dieses Problem jedoch nicht. Zur Verdeutlichung zwei Analogien: Ich spüre in mir, dass ich Bauchschmerzen habe oder dass ich mich zu einer Person hingezogen fühle. Gleiches gilt, wenn sich ein Paar, das sich an sehr weit auseinander liegenden Orten innerhalb einer großen Menschenmenge befindet, sich über die größere Entfernung erkennt und daraufhin in Richtung eines imaginären Treffpunktes strebt. Ein Außenbeobachter, der nur eine Person des Paares beobachtet und nicht weiß, dass diese Person liiert ist, würde auch nicht erkennen, dass es sich hier um ein ‚verschränktes’
4.2 Information und Informationsübertragung
191
System handelt, das in Abhängigkeit zueinander agiert. Das verschränkte Paar reagiert in diesem Beispiel zwar in Abhängigkeit von der Lichtgeschwindigkeit, ansonsten würden sie sich hier nicht erkennen, der Beobachter benötigt aber im Sinn der quantenphysikalischen Experimente Zusatzinformationen. Der zweite wesentliche Aspekt ist das im klassischen Sinne verstandene Informationsübertragungskonzept, indem Information mit einer Zeichenfolge gekoppelt wird. Hier werden also explizit Zeichenfolgen geschickt, entsprechend Shannon’s Ansatz (Kap. 4.2.2.2). Naturgegebenermaßen benötigt es für einen solchen Prozess Energie, die den Einschränkungen der Relativitätstheorie entspricht. Zeilinger selbst nennt den Prozess im Rahmen der Quantenphysik „Quanten-Teleportation“ im Sinne von Transfer von Informationen und ohne dass Quanten tatsächlich transportiert werden (Zeilinger 2011). In diesem Verfahren werden nur Informationen ausgetauscht. In der Quantenphysik spricht man deshalb üblicherweise auch von korrelierenden Informationen. Nachdem es bei Wahrnehmung der Repräsentanten nicht um Außenbeobachtungen geht und auch keine Zeichenfolgen geschickt werden, scheinen die bisherigen Gegenargumente nicht stichhaltig zu sein. Allein es bestehen derzeit noch Zweifel über die Anwendbarkeit des Verschränkungskonzeptes auf Makrosysteme wie sie Menschen repräsentieren. Übertragung der Verschränkung auf SyA Mit Abb. 27 und der Verbindung A-E-B über den direkten Kanal 3 wird deutlich, dass hier die erste Option beschrieben wird, die sich auch für nicht-lokalen Informationstransfer eignet. 4.2.2.6 Informationsverständnis nach Norbert Wiener Dieses von Zeilinger formulierte ‚fundamentalere’ Verständnis von Information wurde von Wiener eingeführt. Norbert Wiener, einer der Mitbegründer der Kybernetik111, beschäftigte sich unabhängig von Shannon ebenfalls mit Information und Kommunikation. Im Gegensatz zu Shannon betrachtete er sowohl die Kommunikation mit und zwischen Maschinen als auch die Kommunikation bei biologischen Systemen. Sein mathematisches Modell beschrieb die Wahrscheinlichkeitsdichte von kontinuierlicher Information und war insofern sehr ähnlich zu den Erkenntnissen von Shannon. Interessanterweise veröffentlichte er seine Ideen im Buch ‚Cybernetics or Control and Communication in the Animal and the Machine’ im gleichen Jahr (1948) wie Shannon seine Arbeit. Mit dem Vergleich von Computern und dem menschlichen Nervensystem und dessen Fähigkeit Informationen zu speichern, geht Wiener allerdings deutlich über Shannon und von Neumann hinaus. „In the nervous system, the neurons and the synapses are ele111
Auf der Seite der ‚American Society for Cybernetics’ findet sich eine gute Übersicht über die Historie und Definitionen zur Kybernetik. Im Gegensatz zu den klassischen Richtungen der Physik als auch der Psychologie behandelt sie nicht Entitäten (unterscheidbare Objekte) in Bezug auf ‚was dieses Ding ist’, sondern fragt nach dem, was es macht und wie es etwas macht. (http://www.asc-cybernetics.org/foundations/lexicon.htm).
192
4 Notwendige interdisziplinäre Erweiterung
ments of this sort [Teile, die normalerweise bei der Übertragung von Nachrichten helfen: Anmerkung des Autors], and it is quite plausible that information is stored over long periods by changes in the thresholds of neurons, or, what may be regarded as another way of saying the same thing, by changes in the permeability of each synapse to messages“ (Wiener 1961: 124). Wiener gelang es, das individuelle Ausweichverhalten von Piloten bei Gefahr zu modellieren und vorherbestimmbar zu machen, so dass Raketensysteme ihr Zielverhalten selbstgesteuert an die Bewegung des Ziels anpassen konnten. Dies war die wahre Geburtsstunde der ‚Rückkopplungsschleifen’ und die informationstechnische Betrachtung eines Systems aus einer Verbindung von Maschinen (Flugzeug) und Menschen (Pilot). Von seinen militärischen Aktivitäten entwickelte er sich jedoch weg und wendet sich bewusst den Feldern Physiologie und Psychologie zu (Wiener 1961: 28). Dabei entspricht sein Verständnis von Information dem von Shannon in Bezug auf eine klassische Unterscheidung zwischen zwei Zuständen als Ausdruck einer Informationseinheit und noch nicht dem quantenphysikalischen Superpositionszustand eines Qubits. Nervenzellen kennen nach dem Verständnis von Wiener nur die Zustände feuern und nicht feuern. Wir werden noch sehen, dass dem nicht so ist und die Qubit-Vorstellung die bessere Analogie darstellt (Kap. 8.3). Wiener war vermutlich der Erste, der den beiden grundlegenden Konzepten ‚Energie’ und ‚Materie’ das Konzept der ‚Information’ als dritte unabhängige Größe zur Seite stellt: „Information is information, not matter or energy. No materialism which does not admit this can survive at the present day” (Wiener 1961: 132). Er entwickelt diesen Gedanken weiter zur Unterscheidung von Systemen, die durch hohe Energie, aber niedrige Information gekennzeichnet sind (I) und Systeme (Nachrichten), die so gut wie keine Energie benötigen, aber viel Information (II) enthalten: „But it may happen in the development of such a system that the internal coupling causes the information, or negative entropy, to pass from the part at low energy to the part at high energy, so as to organize a system of vastly greater energy than that of the present instantaneous input“ (Wiener 1948: 208). Diese Beschreibung passt in sehr guter Weise auf die Wechselwirkung Gehirn / Körper in Verbindung mit den in Kap. 4.1.3 vorgestellten neuesten Erkenntnissen. Wie vorgestellt, benötigen zusätzliche Denkprozesse im Gehirn, wenn Informationen aufbereitet und Nachrichten geliefert werden, so gut wie keine Energie. Diese Denkprozesse erscheinen mit System II korreliert. System I, die neuronale Grundlast und der physische Körper, verbrauchen demgegenüber ca. 99 % der Energie. Wiener’s Idee scheint somit eine späte, aber signifikante Bestätigung zu finden. Er lieferte mit seinem Verständnis, dass alle Sozialsysteme ‚Systeme der Kommunikation’ sind und umgekehrt ‚Sozialsysteme nur aus Kommunikation bestehen’ vermutlich die Vorlage für Luhmann und dessen Kommunikationstheorie (Luhmann 1991). „It is certainly true that the social system is an organization like the individual, that it is bound together by a system of communication, and that it has a dynamics in which circular
4.2 Information und Informationsübertragung
193
processes of a feedback nature play an important part“ (Wiener 1961: 24). Aus seinen weiteren Ausführungen geht hervor, dass er über die Macy-Konferenzen 112 (1946 – 1953) mit Gregory Bateson im engen Kontakt stand, auf den einer der bekanntesten Betrachtungen in Bezug zur Kommunikation zurückgeht (siehe Kapitelanfang 4.2.1), dem Zusammenhang von Information und Unterschieden. Aber auch die Hinzunahme der äußeren Form in Zusammenhang mit dem ‚Gestaltbegriff’ als auch die Einbindung der Emotion und Intension (Wiener 1961: 133–134 u. 157), führten zu einer signifikanten Erweiterung des Verständnisses und der Anwendbarkeit mathematischer Modelle und integriert unser sozial-psychologisches Erleben mit einer technischen Behandlungsweise. Zudem weist er als erster auf die zwischen den Zeichen transportierte Bedeutungsgebung hin und verlässt damit die reduktionistische, rein technische Behandlung: „a signal without an intrinsic content may acquire meaning in his mind by what he observes at the time, and may acquire meaning in my mind by what I observe at the time“ (Wiener 1961: 157). Darüber hinaus macht er in einem weiteren Gedanken klar, dass … Information nur dann eine Information ist, wenn sie zu einem beobachtbaren Verhalten führt. (ebd.157-158) Dieser Gedanke wird für die weiteren Überlegungen ein ganz relevanter, denn hier schließt sich ein Kreis von einer rein technischen Behandlungsweise, über soziale Interaktion bis zur Bedeutungsgebung und schließlich einer beobachtbaren, veränderten Handlung, die nun auch im Sinne der Physik als beobachtbare Messung einer Observablen betrachtet werden kann. Wiener bewegt sich zwischen allen möglichen Welten und entwickelte ein System, das wechselseitig Einfluss ausüben und Prognosen treffen kann, die unsere wahrnehmbare Wirklichkeit abzubilden vermag. ‚Information’ ist nicht länger ein abstrakter Begriff eines rein mentalen Modells, sondern lässt sich in gleicher Weise operationalisieren wie es die Wellenfunktion oder der Dichteoperator vermag. Information ist damit ein Begriff, der genauso wie Energie und Materie messbar ist. Anlässlich einer Konferenz zu Ehren Wiener’s wurden seine und Shannon’s Arbeit als ‚komplementäre Konzepte zur Information’ gewürdigt (Hill 2014). In diesem Beitrag wurde auch resümiert, dass Wiener’s Zeit gekommen ist und sich im Internet der Dinge wiederfindet und weiter: „cross-disciplinary advances in everything from robotics and prosthetics to synthetic biology and neurology are affirming the validity of Wiener’s vision. The complete synthesis of humans and machines predicted by
the transhumanists could represent the vindication of cybernetics“ (ebd.). 112
Unter dem Namen ‚Macy-Konferenzen’ subsummieren zehn Konferenzen mit interdisziplinärer Beteiligung, speziell zum Thema Kybernetik. Als Schirmherr fungierte die Josiah Macy, Jr. Foundation (Macy-Stiftung) unter Leitung von Warren McCulloch. (http://www.asc-cybernetics.org/foundations/history/MacyPeople.htm).
194
4 Notwendige interdisziplinäre Erweiterung
Wiener war sich sehr bewusst, dass seine Erkenntnisse nur der intensiven Zusammenarbeit mit führenden Köpfen unterschiedlichster Disziplinen zu verdanken war und sich nur im „no-man's land between the various established fields“ (Wiener 1961: 2) entwickeln konnten. Folglich ist auch verständlich, dass er einen interdisziplinären Austausch anmahnte: „If a physiologist who knows no mathematics works together with a mathematician who knows no physiology, the one will be unable to state his problem in terms that the other can manipulate, and the second will be unable to put the answers in any form that the first can understand“ (ebd. 2-3). 4.2.2.7
Informationsverständnis von Bateson und den Konstruktivisten
Der Austausch, wie er auf den Macy-Konferenzen praktiziert wurde und bei denen auch Gregory Bateson einen wesentlichen Beitrag leistete (Lutterer 2002: 52–58) und sich gleichzeitig zentrale Inspirationen holte, führte zu einem der prägendsten Erklärungsansätze in Bezug auf Information. Auf Bateson geht der in Abb. 26 (A) und (B) dargestellte Übergang von Vorgängen der Außenwelt zu Vorgängen der Innenwelt zurück, den er mit dem Begriff der ‚Codierung’ aus der Nachrichtentechnik versah (Lutterer 2002: 43). Demnach müssen für eine erfolgreiche Transferierung des Außenbildes zu einem repräsentierenden geistigen Bild zwei Minimalkriterien erfüllt sein (konsequenterweise auch vice versa): 1. Die Codierung muss systematischer Art sein und kein Zufall, ansonsten läge nur ein Rauschen vor. 2. Bei der Codierung müssen die Relationen zwischen den Objekten erhalten bleiben. Unter diesen Voraussetzungen könnten äußerliche Ereignisse intern neuronal repräsentiert werden. Lutterer komprimiert die Ideen von Bateson in drei Arten von Codierungen: digitale, analoge und Gestaltcodierung, wobei Bateson für die neuronale Speicherung nur die digitale (= Nervenimpulse) und die Gestaltcodierung (Mustererkennung) als relevant ansieht. Analoge Mechanismen wurden von Bateson eher ausgeschlossen. Als Konsequenz seiner Überlegungen schließt er auf die leichtere Wahrnehmung von Veränderungen als auf die Wahrnehmung von unbewegten Entitäten, was in seinen legendären Satz mündet: „Information [...] ist ein Unterschied, der einen Unterschied ausmacht.“ (Bateson 1985: 582) Bateson bringt diesen Unterschied in Zusammenhang mit Kreide und die sie aufbauenden Molekülen, die in unendlich vielen unterschiedlichen Möglichkeiten lokalisiert sein könnten, von denen jedoch nur eine beschränkte Anzahl bei Untersuchungen selektiert und zur Information werden. Die Unterscheidung der Moleküle vom Rest des Universums, die Kreide aufbauen, können nicht als Ding an sich (genauso wenig wie die Kreide
4.2 Information und Informationsübertragung
195
als Ding an sich) „in die Kommunikation oder in den geistigen Prozess eingehen“ (Bateson 1985: 582). Die Information, die die Kreide für den Beobachter ausmacht, findet mittels Unterschiede der Licht- oder Schallausbreitung statt, die von unseren Nervenbahnen transformiert und in unser Gehirn weitergeleitet werden. Hierzu findet eine Umwandlung von Information (Unterschiede) in angeregte Nervenzellen statt. Energie kommt nach Bateson erst jetzt ins Spiel, weil Energie die Nervenzellen versorgt. Bateson betrachtet den Impuls, den ein Hammer einem Nagel vermittelt als etwas anderes als den Prozess in den Nervenzellen. „Es ist eher ein semantischer Fehler, eine irreführende Metapher, zu sagen, daß das, was in einem Neurit reist, ein »Impuls« ist. Man könnte es zutreffend als »Nachricht von einem Unterschied« bezeichnen“ (ebd). In diesem Zusammenhang führt er die üblicherweise vermutete Trennung zwischen physischer und geistiger Welt auf den Kontrast in der Codierung, außerhalb und innerhalb des Körpers, zurück. Seinen Ansatz der Differenzbildung wendet Bateson damit auch auf ‚den Weg der Information’ an. So unterscheidet er den äußeren Weg von einer Entität zu einem Beobachter und dessen inneren Weg über den Stoffwechsel. So wird, als weiteres seiner Beispiele, der Unterschied zwischen Holz und dem fertigen Papier über die unterschiedliche Übertragung von Licht oder Geräusch an die sensorischen Organe des Empfängers realisiert. Dieser erste Teil unterliegt Bateson zufolge den klassischen Naturwissenschaften. Wenn die Unterschiede schließlich auf die Rezeptoren des Empfängers treffen, findet eine Umwandlung der Information und eine Energetisierung des körperlichen Stoffwechsels statt, um sie zur geistigen Verarbeitungszentrale zu leiten (Bateson 1987). Vergleichen wir Bateson’s Idee, dass die Energie resultierend aus dem Stoffwechsel, nicht der Impuls selbst ist, sondern nur die Grundversorgung darstellt, mit der bereits vorgestellten neuen Erkenntnis, dass Denken so gut wie keine Energie verbraucht, so lässt sich, wie bei Wiener (1961: 132), eine perfekte Stimmigkeit zwischen Bateson und der neuen neurowissenschaftlichen Forschung konstatieren. Als weitere Konsequenz seiner Überlegungen unterscheidet sich das Territorium von der Karte. Letztere ist immer nur eine Abbildung beispielsweise unserer Retina. Auf jeder Stufe einer Umwandlung von Unterschieden entstehen neue „Karten-TerritoriumRelationen“ (vgl. Bateson 1985: 584). Dies gilt für Bateson für physikalische Messungen und deren Interpretation genauso wie für empfangene Abbildungen (= Daten = Information) nach denen sich Muskelkontraktionen und Handlungen richten. Für ihn läuft dieser Prozess auch umgekehrt, indem auf geistiger Ebene Ideen Handlungen und schließlich Daten erzeugen. Wie bereits zu Beginn von Kap. 4.2.1 kann in diesem Sinne auch eine Nicht-Veränderung eine Veränderung im Sinne einer Information darstellen, nämlich dann, wenn wir eine Veränderung erwarten, die aber ausbleibt. Veränderungen sind in diesem Sinne immer Störungen bzw. ausbleibende Störungen, die neuronal wahrgenommen werden können. Bateson veranschaulicht dies eindrücklich mit dem Beispiel eines nicht geschriebenen Briefes (Steuererklärung), der genau dadurch, dass er nicht geschrieben wird, energetische Folgen auslöst, indem die Steuerbehörde ärgerlich wird und Nachfor-
196
4 Notwendige interdisziplinäre Erweiterung
schungen anstellt. „The letter which never existed is no source of energy” (Bateson 1987). Bateson verbindet in seinem Ansatz, genauso wie Wiener (1961: 132), Information mit Energie mit Materie und zeigt einen Weg der Transformation der jeweiligen Zustände auf. Mit Bezug auf Ashby (Ashby und Huber 1985: 47) zieht Lutterer einen wichtigen Schluss: „Dies [die Reaktion durch Nervenimpulse, Anmerkung des Verfassers] ist insofern bedeutsam, als hiermit eine neue Organisationsebene in der physikalischen Welt auftritt. Bedeutsam für Signal- oder Informationsverarbeitung ist nicht Kraft, Masse oder Energie, sondern die Übermittlung von Unterschieden.“ Und weiter: „Das Neue der Kybernetik besteht somit auch darin, dass festgestellt wurde, dass es einen sehr bedeutsamen Unterschied zwischen Signalverarbeitung und bloßem Energietransport gibt“ (Lutterer 2002: 55–56). Mit dieser, letztlich aus der interdisziplinären Arbeit von Physikern, Ingenieuren, Mathematikern Neuropsychologen, Anthropologen, Sozialwissenschaftlern und vielen mehr, auf den Macy-Konferenzen gewonnenen Erkenntnis kann und muss Informationsübertragung als mehr verstanden werden, als nur reine Signalübertragung. Signalübertragung ist eine Form, Informationen zu übertragen, aber wie gleich dargestellt werden wird, nur eine. Aus den Überlegungen von Bateson und den in Abb. 26 (A) und (B) dargestellten internen En- und Decodierungsprozessen leiten die Konstruktivisten ihr Verständnis einer prinzipiellen Unmöglichkeit ab, die Welt außerhalb von uns direkt wahrnehmen zu können. Die von Menschen wahrgenommene Information ist eine vom Beobachter ausgewählte mit der er die Wirklichkeit konstruiert, die letztlich durch die innere Struktur des Beobachters festgelegt wird. Aus dieser Logik heraus gibt es keine objektive Information, sondern zwingend immer nur eine subjektive, die im Wesentlichen von der Grenzziehung und der Bedeutungsgebung festgelegt wird. In diesem Sinne spricht Simon in Bezug auf die menschliche Kommunikation ebenfalls von der „Unmöglichkeit, Information zu übertragen“ (Simon 2012: 75). Sehr anschaulich wird dieser Prozess des Erkennens für biologische Systeme im dem Werk ‚Der Baum der Erkenntnis’ (Maturana und Varela 2009) vorgestellt. Die Autoren arbeiten auch sehr anschaulich heraus, dass noch nicht einmal unsere Gene die für das Lebewesen relevante Informationen zur Gänze tragen (ebd. 78). Die für die Zelle notwendige Information ergibt sich demnach aus der Interaktion mit ihrem Umfeld. Bateson’s Zugang soll mit seinem Gedanken abgeschlossen werden, der sehr gut als Beschreibung dessen verwendet werden kann, womit sich diese Forschungsarbeit auch beschäftigt - der Überwindung der körperlichen Grenzen und damit der Descart’schen Unterscheidung: „Der individuelle Geist ist immanent, aber nicht nur dem Körper. Er ist auch den Bahnen und Mitteilungen außerhalb des Körpers immanent; und es gibt einen größeren Geist, von dem der individuelle Geist nur ein Subsystem ist“ (Lutterer 2002: 593).
4.2 Information und Informationsübertragung
197
Bateson formuliert damit einen Gedanken, der mithilfe der SyA immer wieder verifiziert werden kann. 4.2.2.8 Informationsverständnis C.F. von Weizsäcker und T. und B. Görnitz Bereits in den 1950er Jahren hat Weizsäcker über die Information als abstrakte, quantisierte binäre Alternative zur Begründung der Physik nachgedacht und diese als „Uralternativen“ oder „Urfeld“ bezeichnet, „dessen Wechselwirkung mit sich selbst alle bekannten Felder hervorbringen müsste“ (Weizsäcker 2002; Weizsäcker u. a. 1958: 721). Dieses ‚Ur’ repräsentiert 1 Bit und damit eine Entscheidung zwischen JA und NEIN. Wie oben bereits beschrieben, wird in der klassischen Physik die Information in Bit angegeben, die ‚faktische’ Entscheidungen beschreiben. Die kleinste Informationseinheit ist, wie bei Shannon (Kap. 4.2.2.2), demnach 1 Bit. Die Information bezieht sich dabei auf den Informationsgehalt, also die Menge an Informationen, die in einem System steckt, wenn zwischen zwei Zuständen unterschieden wird. Das Pendant in der Quantenphysik nennt sich Qubit113, das ‚mögliche’ Entscheidungen beschreibt, die getroffen werden können (Görnitz und Görnitz 2002: 107). Wichtig ist auch hier, dass dieses Bit von der Versuchsanordnung abhängt. Weizsäcker sieht das ‚Ur’ letztlich als Grundlage für Materie und Energie an: „Materie ist Form. Bewegung ist Form. Masse ist Information. Energie ist Information“ (Weizsäcker 2002: 361). Hier wird zum zweiten Mal (nach Wiener) Information als eigenständige Entität gedacht und der Unterschied zwischen Materie und Geist nur als pragmatischer Unterschied betrachtet (vgl. Görnitz 2011: 271). „Die Information einer Situation ist in dieser Beziehung gleich der Anzahl der in sie eingehenden Uralternativen“ (Schweitzer 1997), also aller möglichen Alternativen, die in einer Situation stecken und durch ein Ereignis zum Faktum werden. ‚Masse ist Information’ wird in diesem Sinne verständlich. So ist die Ruhemasse eines Teilchens „die Anzahl der zum Aufbau des ruhenden Teilchens notwendigen Uralternativen, also exakt die im Teilchen investierte Information“ (Weizsäcker 2002: 363). Energie ist Information’ erklärt sich aus der Gleichsetzung von Masse und Energie, womit das über die Masse Gesagte auch für die Energie gilt. m = f(I) (4.17) E = f(I) (4.18) mit m ist Masse, E ist Energie und beide sind jeweils eine Funktion der Information I. Schweitzer bezieht sich auf Weizsäcker wenn er dazu formuliert: „In diesem Sinne kann Evolution auf quantenmechanischer Grundlage interpretiert werden als ein Prozess, bei dem ständig zwischen Ur-Alternativen entschieden wird und - im Vollzug dieser Entscheidung - Information generiert wird“ (Schweitzer 1997). Die Überlegungen von Weizsäcker beziehen sich demnach bisher auf das ursprüngliche Verständnis von Information, dem informare (gestalten, formen, bilden, eine 113
Vorstellung nach Görnitz: Eine Quanteninformation (= 1 Qubit) ist über den gesamten Raum ausgedehnt und trägt unendlich viel Information. Dies erklärt sich aus zwei Gründen: a) weil wir sie überall finden könnten; b) wegen der Verschränkungstheorie von Zeh (Dekohärenztheorie) Kap. 8.1.2.2.
198
4 Notwendige interdisziplinäre Erweiterung
Gestalt geben). Information baut damit die uns bekannte Realität auf und ist für Form und Gestalt verantwortlich. Schweitzer bezieht sich weiter auf Weizsäcker, wenn er schreibt: „Das heißt letztlich, die Information, die aus den entscheidbaren Ur-Alternativen gewonnen wird, ist keine faktische, sondern eine potentielle oder eine virtuelle Information“ (ebd.). Die Ur-Alternativen spannen damit einen „Informationsraum“ auf. „Der faktische Zustand wäre in diesem Bild nur ein Punkt in jenem hochdimensionalen Raum, der gerade durch die Entscheidung zwischen den entsprechenden Ur-Alternativen lokalisiert wird“ (ebd.). Offen bleibt an dieser Stelle, wie aus der potentiellen eine faktische Information wird. In jedem Fall besteht eine auffällige Ähnlichkeit mit dem in der Quantenphysik bekannten ebenfalls hochdimensionalen Hilbertraum114. Über seine Überlegungen zu Information und Wahrscheinlichkeit kommt Weizsäcker schließlich zu zwei grundlegenden Thesen: „Information ist nur, was verstanden wird“ (Weizsäcker 2002: 351) und „Information ist nur, was Information erzeugt.“ (ebd. 352) Und er stellt weiter fest: „Man beginnt sich daher heute daran zu gewöhnen, dass Information als eine dritte, von Materie und Bewusstsein verschiedene Sache aufgefasst werden muss“ (Weizsäcker 2002: 51). Bewusstsein erscheint in seiner Vorstellung offensichtlich dann als vierte unabhängige Größe. T. Görnitz führt diese Überlegungen weiter, wobei er sich sowohl mit der Information als solche und ihrer Herkunft bzw. ihrem Wesen auseinandersetzt, als auch mit ihrer Bedeutung, dem Verstehen. Entsprechend dem zweiten Aspekt, dem des Verstehens, ergibt sich fast immer auch die Existenz eines Beobachters und einer damit verbundenen Beziehung zwischen einem Sender und einem Empfänger, die mitgedacht werden muss. T. und B. Görnitz (Görnitz und Görnitz 2002: 70–71) stellen diesen Zusammenhang infrage, indem sie beispielsweise den Magnetfeldmessungen zur Erzsuche oder den aufgefangenen Daten (z. B. Licht) von Sternsystemen den klassischen Sender absprechen, da diese nichts aktiv tun, sondern nur existieren. Ähnliches trifft nach ihnen auf eine Eizelle zu, die nicht befruchtet wird und deshalb abstirbt. Hier gibt es keinen Empfänger für eine potenziell vorhandene genetische Information. Die Frage, die sich deshalb aus ihrer Sicht ergibt, lautet: Ist dann auch keine Information vorhanden? Offensichtlich scheint eine solche Schlussfolgerung, ihrer Meinung nach, unsinnig. Eine Information ist prinzipiell vorhanden, kommt aber nicht bei diesem spezifischen Empfänger an. Die Frage bezieht sich somit auf die grundsätzliche Existenz einer Information, unabhängig von Sender
114
In der Quantenmechanik bilden die Zustände eines quantentheoretischen Systems einen Hilbertraum, was bedeutet, dass sich aus diesem Hilbertraum ein Faktum in der Realität ergeben kann.
4.2 Information und Informationsübertragung
199
und Empfänger und einer mit ihr verbundener Bedeutung. In einem ersten Schritt kommen sie auf folgende Definition: „Information ist etwas, von dem es nicht prinzipiell unmöglich erscheint, dass es gewusst werden könnte, etwas, das die Struktur von Wissbarem hat, was Gegenstand von Wissenschaft sein kann“ (ebd. 71). Sie kommen in ihren weiteren Überlegungen auf den gleichen Zusammenhang wie Wiener, dass Information keine Energie und auch keine Materie sei, sondern ein dritter ontologischer Zustand: „Information ist dasjenige, was übrig bleibt, wenn jeder konkrete Träger weggedacht wird“ und damit wird Information als „Information über etwas“ angesehen (ebd. 72). Mit dieser Beschreibung sind sie zu den Gedanken von Bateson und Wiener anschlussfähig. T. und B. Görnitz gehen allerdings über die Äquivalenz der drei Aspekte hinaus wenn sie formulieren, „dass die Quanteninformation als die eigentliche Grundlage des Seienden angesehen werden muss“ (Görnitz und Görnitz 2009: 17). Hier spinnen sie die Gedanken von Weizsäcker fort. Information kann zwar über einen Träger vermittelt werden, ganz im Sinne der obigen Verständnisse, sie ist aber nicht an einen Träger gebunden. In Bezug auf die Überlegungen von C.F. von Weizsäcker, der Information als relative Größe ansah, (Görnitz und Görnitz 2002: 73), überwinden T. und B. Görnitz diese ‚relative Größe’ in Verbindung mit Überlegungen zum Kosmos und entwickeln sie weiter zur ‚absoluten’ und schließlich ‚abstrakten Information’. „Die abstrakte [...] Information kann bestimmt werden als die hypothetisch ‚vollständige oder maximale Kenntnis über ein System’, von dem nichts weiter als seine Existenz im Kosmos und damit seine Masse bzw. Energie vorausgesetzt werden“ (ebd. 125).
In dieser Definition lassen sich zwei wichtige Zusammenhänge ableiten: 1. Die bereits von Shannon verwendete Entropie als Ausdruck der Unkenntnis über ein System, aus dem heraus dennoch Informationen erkannt werden können. 2. Die Gesetzmäßigkeit, dass je mehr Information über ein System vorhanden ist, dieses um so genauer bestimmt bzw. lokalisiert werden kann 115, zum Preis, dass andere ursprünglich vorhandene Verbindungen sich einer Beobachtung entziehen. Und weiter: Je mehr Informationen vorhanden sind, desto mehr mögliche Manifestationen existieren. Hier kommt wieder die Rolle des Beobachters zum Einsatz, indem dieser durch Fokussierung auf bestimmte Aspekte bzw. Teilsysteme, den Überblick und damit die Aussagefähigkeit über das Gesamtsystem verliert, viel aber über das Teilsystem sagen kann.
115
Zur exakten Definition eines Photons ist aus Sicht von Görnitz unendlich viel klassische Information nötig.
200
4 Notwendige interdisziplinäre Erweiterung
T. und B. Görnitz veranschaulichen diesen Zusammenhang als Analogie, passend zu Shannon’s Ansatz, mit einer Mitteilung (ebd. 127). Als ‚abstrakte Information’ nehmen sie die Anzahl der Buchstaben, die in einer Mitteilung verwendet werden. Je mehr Buchstaben zur Beschreibung herangezogen werden, desto konkreter lässt sich ein Sachverhalt darstellen, was allerdings nicht unbedingt heißt, dass er auch verstanden wird. So werden die einzelnen Buchstaben in Form von Wörtern weitervermittelt, die ihrerseits einen Kontext aufspannen, der interpretiert werden muss. Sprechen die Beteiligten dieser Kommunikation die gleiche Sprache und ist für sie der Kontext klar, kann der ‚abstrakten Information der Buchstaben’ eine Bedeutung zugeordnet werden. Weiter verweisen sie darauf, dass der Teil der Information, der Materie oder Energie (den Trägern) zugeordnet werden kann, üblicherweise nicht mehr als Information wahrgenommen wird. Obwohl diese Träger zusätzliche Information zur Verfügung stellen würden, bleibt sie schlicht deshalb unberücksichtigt, da diese zusätzliche Information für die gesendete Botschaft (Wörter) keinen Mehrwert bietet. Auch bei ihnen ist die Bedeutung von Information ein Aspekt, der nur in Verbindung mit einem Empfänger Sinn macht. Zum anderen wird abstrakte Information damit so real wie Materie und Energie und sie kann auf beide einwirken (vgl. Görnitz und Görnitz 2002: 128). „Information ist zu begreifen als eine Entität, die dadurch definiert ist, letztlich auf sich selbst bezogen zu sein“ (Görnitz und Görnitz 2009: 173) und „dass Teilchen nicht nur Träger von Information sein können, sondern selbst als Information zu verstehen sind“ (ebd. 153). Der Ansatz, dass Information eine fundamentale Ursubstanz sein soll, vergleichbar der Materie als eine Form der Energie, gefällt allerdings nicht allen Physikern (vgl. Honerkamp 2010). Nach Görnitz (Görnitz und Görnitz 2009: 163) lässt sich somit Quanteninformation an drei unterschiedlichen Aspekten der Wirklichkeit erkennen, die äquivalent zueinander sind. Sie lassen sich also wechselseitig transformieren: Materie Energie Information
ist materiell, wenn sie so verdichtet ist, dass sie im Raum ruhen kann (Faktum). kann Bewegungen und Veränderungen des Materiellen bewirken (Faktum). kann an instabilen Systemen Steuerungsaktivitäten auslösen (Potenzial).
Materie ist deshalb Information, die zum Stofflichen kollabiert ist. Abgeleitet aus diesen Überlegungen lassen sich materielle Objekte als „spezielle Zustände dieser Quanteninformation beschreiben“ (ebd. 11). Aus ihrer Sicht „besteht die Evolution des Kosmos in erster Linie in einem Anwachsen der Menge [an abstrakter, noch bedeutungsfreier (Anmerkung des Autors)] Quanteninformation“ und damit wächst „auch die Fülle der Gestalten, zu denen sie sich ausformen kann“ (ebd. 13). Als Konsequenz dieser zunehmenden Ausformung wird immer weniger offensichtlich, wie das Ganze zusammenhängt und eine Einheit bildet. Dieser Gedanke findet sich wieder in der immer populärer
4.2 Information und Informationsübertragung
201
werdenden Dekohärenztheorie von Zeh, die im Kap. 8.1.2 (Verschränkung und Dekohärenz) noch eingehend vorgestellt wird. Bei T. und B. Görnitz findet sich nun neben der ‚abstrakten Information’ auch ‚bedeutungsvolle Information’. Bedeutungsvoll wird danach die ‚abstrakte Information’ durch Lebewesen, die auf die Information aus ihrer Umgebung reagieren. „Bedeutung ist informationstheoretisch gesprochen ›Codierung‹, der Ausdruck einer Information durch eine andere Information. Wie bei jeder Codierung kann also der Sinn einer solchen Information nicht allein aus dieser selbst erschlossen werden, sondern erst im Zusammenspiel mit den Beziehungen, aus denen heraus sie erwachsen ist.“ (Görnitz und Görnitz 2009: 173). Und damit ist Codierung Information über Information (ebd. 21) und damit selbstbezüglich. Dass Lebewesen zu einem solchen Austausch in der Lage sind, hat mit ihrem physikalisch-chemischen Aufbau zu tun, der sich in einem Nicht-Gleichgewichtszustand (einem sog. Fließgleichgewicht) befindet und nur dadurch lebensfähig ist, dass sie sich ständig mit der Umgebung in materiellem und energetischem Austausch befindet. An diesen Übergangsstellen, den sog. Bifurkationsstellen kann Quanteninformation im Makroskopischen angreifen. „Die Bifurkationsstellen sind die Bereiche innerhalb der klassischen Physik, an denen man die dahinterliegende und genauere Beschreibung der Quantentheorie nicht mehr sinnvoll ausblenden kann“ (ebd. 61-62). T. und B. Görnitz verwerfen den von Biologen oftmals gebrachten Einwand einer Verletzung des Energieerhaltungssatzes mit dem Hinweis seiner Gültigkeit nur für die klassische Physik. Er tritt im Kontext von Lebewesen, wegen der quantenphysikalischen Energie-Zeit-Unbestimmtheit und Phänomenen wie dem Tunneleffekt, in den Hintergrund (ebd. 178). Jetzt sind Lebewesen aber nicht nur von Nahrung (klassischer Weise verstanden als Materie) und Energie (z. B. Licht) abhängig, sondern auch von der richtigen Interpretation einer Gefahr, also von einer Bedeutungsgebung dessen, was sie über Licht- oder Schallwellen aufnehmen. Licht oder Schall sind damit nur Träger von Informationen, denen jede Lebensform ihre eigene Bedeutung zumessen muss. Wie an verschiedenen Stellen bereits angemerkt, bedarf die Aufnahme und Verarbeitung von solchen trägergebundenen Informationen nur wenig bis keine Energie, ist aber von eminenter Bedeutung für die Lebensform. „Die einlaufende Information kann dann durch die Wechselwirkung mit der vorhandenen Information und mit der Physis des Lebewesens physikalisch gesprochen das Generieren eines Faktums auslösen“ (Görnitz und Görnitz 2009: 174), was im üblichen physikalischen Verständnis einem Messprozess entspricht. Dieses Faktum resultiert aus mehr als nur dem Erkennen von Energie oder Materie. Das Lebewesen vermag offensichtlich die darin codierte Information, mit bei ihm selbst gespeicherter und codierter Information in Resonanz zu bringen und sinnvolle Rückschlüsse zu ziehen. Den gleichen Gedanken verfolgt Josephson, wenn er zwischen Form und Bedeutung unterscheidet und lebenden Organismen eine größere Spezialisierung bei der Erkennung einer solchen zuspricht (Josephson und Pallikari-Viras 1991: 202). Ihre Herangehensweise und ihr Verständnis unterscheiden sich damit von dem der heutigen Physik.
202
4 Notwendige interdisziplinäre Erweiterung
Das bisher herausgearbeitete Verständnis bietet die Möglichkeit einen wesentlichen Schritt weiter zu denken. Nach den von C.F. von Weizsäcker und T. und B. Görnitz entwickelten Zusammenhängen lassen sich Lebewesen aus meiner Sicht als ‚MixedZustand’ definieren, der sowohl der Quanten- als auch der klassischen Realität gehorcht und einer Information die Möglichkeit gibt, zwischen beiden zu wechseln. T. und B. Görnitz verweisen bereits auf einen möglichen Mechanismus, der Quanten-Teleportation, um Quanteninformation zwischen lebenden Systemen nutzbringend zu übertragen116. Mit Verweis auf evolutionäre Entwicklungen wie Mutation117 und Selektion sowie dem Ladungstransport von Elektrolyten, der als Informationstransport118 verstanden werden muss (Görnitz und Görnitz 2009: 188), versuchen sie diesen Zusammenhang zu hinterlegen. Damit lässt sich die Shannon-Quantum-Theory ebenfalls direkt auf Lebewesen und deren Informationstransfer anwenden. Übertragung auf SyA Mit den von Görnitz vorgestellten Zusammenhängen der Erzeugung quantenphysikalischer Ganzheiten auf biologischer Ebene lässt sich ein perfekter Übertrag auf SyA vornehmen. Passend dazu formulieren sie: „Wenn eine solche Ganzheit an einer beliebigen Stelle eine Einwirkung erfährt, so wird sie als Ganzheit augenblicklich und über ihre gesamte Ausdehnung verändert“ (Görnitz und Görnitz 2009: 76). Repräsentanten in einer Aufstellung, die über Optik (Licht), Geräusche (Schall) und Wärmestrahlung u. a. mit den Repräsentanten und dem Fallbringer interagieren, lassen sich Görnitz folgend als physikalisch interagierend, damit verschränkt und schließlich über die lokal anwesende Gruppe hinaus mit dem Herkunftssystem zusammen als Ganzheit ansehen. Informationen des Herkunftssystems lassen sich in der Aufstellungsgruppe beobachten und vice versa können Informationsänderungen in der Gruppe zu Verhaltensänderungen im Herkunftssystem führen. Einwirkungen, die auf mental-geistiger Ebene (Bifurkationsstellen) vorgenommen sowie emotional zum Faktum werden und schließlich zur veränderten Handlung führen, entsprechen in vollem Umfang dem Verständnis von Wiener (1961: 132) und Weizsäcker, dass Information nur dann eine Information ist, wenn sie zu einem beobachtbaren Verhalten führt und damit in irgendeiner Form auch verstanden wird. Gleichzeitig wird damit auch der Nachweis einer physikalischen Verschränkung erbracht.
116
117
118
Physiker haben mit der Formulierung ‚Übertragung von Information’ im Rahmen der Quanten-Teleportation meist ein erhebliches Problem, da mit Übertragung i. d. Regel eine Signalübertragung verstanden wird. Aus diesem Grund wird gewöhnlich von Korrelation von Information gesprochen. Dass wir bei Lebewesen dennoch von ‚Übertragung’ sprechen können, wird an späterer Stelle noch eingehend erläutert. Dass dieser Zusammenhang mittlerweile tatsächlich schon bestätigt werden kann, wird im Kap. 8.2 zur Quantenbiologie gezeigt. Ionen werden nicht einzeln durch Elektrolyte geleitet, vielmehr wird an der Eingangselektrode die Information eines eigehenden Ions festgestellt und diese Information an die Ausgangselektrode geleitet, die als Folge ein identisches Ion abgibt.
4.2 Information und Informationsübertragung
203
4.2.2.9 Informationsverständnis von Lucadou Lucadou entwickelt sein ‚Modell einer pragmatischen Information’ (MPI) (Lucadou 2015) ausgehend von system-theoretischen Überlegungen, die an die Psychologie anlehnen und nutzt dabei die Konzepte ‚Komplementarität’ und ‚Verschränkung’ wie sie in der generalisierten Quantentheorie (GQT) verwendet werden. Wesentlich ist sicher, dass er nicht versucht, sein Modell mit der Quantentheorie gleichzusetzen oder etwas über das zugrundeliegende Substrat aussagen zu wollen, wohl aber isomorphe (gleichgestaltige) Strukturen zwischen Quanten- und Psi-Phänomenen erkennt und nutzt. Die historische Entwicklung des Konzepts der ‚pragmatischen Information’ wird von Gernert sehr anschaulich dargestellt und in seinem Abstract mit folgender Kommentierung versehen: „From a modern point of view, the measurement of pragmatic information is possible but requires novel and specific procedures“ (Gernert 2006). E. und C. von Weizsäcker haben die ersten Gedanken von Charles Sanders Peirce aufgegriffen und bei ihren Überlegungen auf den Aspekt des Informierens und damit auf den Empfänger fokussiert, statt wie bei Shannon auf die Nachricht selbst (Weizsäcker und Weizsäcker 1972). Lucadou entschloss sich aber, nur den Bereich des Konzeptes zu antizipieren, der sich auf lebende Systeme bezieht. Wie zu sehen sein wird, sind Weizsäcker’s Elemente (Neuartigkeit, Bestätigung und pragmatische Information als Maß für die Wirkung der Information beim Empfänger) identisch mit Lucadou’s Modell (Weizsäcker 1974; in Lucadou 2015). E. und C. v. Weizsäcker vertraten die These, dass sich lebende Systeme zwischen den Grenzfällen Neuartigkeit und Bestätigung bewegen, wenn sie die Wirkung von Information bewerten (Weizsäcker und Weizsäcker 1972; in Schweitzer 1997). Schweitzer fasst diese Idee folgendermaßen zusammen: „die für die Evolution bedeutsame Information muss einerseits einen gewissen Neuheitswert haben, der andererseits aber auf der Grundlage der bereits vorhandenen Information auch verstanden werden kann.“ Dies gelingt seiner Ansicht nach durch die Nutzung von natürlichen Sequenzen der Natur, die strukturell bereits so aufgebaut sind, dass sie einer pragmatischen Information entsprechen. Hier wird im Grunde der Annahme nachgegangen, dass Informationen so strukturiert sind, dass sie auch in komplementären Situationen eine ähnliche, interpretierbare Botschaft vermitteln können – zumindest dann, wenn Struktur- und Funktionsähnlichkeit besteht. Im Gegensatz zu Görnitz wird beim MPI also keine Unterscheidung zwischen ‚abstrakter Information’ und deren Bedeutung vorgenommen, sondern die Annahme getroffen, dass die Struktur S und die Funktion F komplementäre Observable (Messgrößen) sind, und das was sich bei einem Psi-Phänomen zeigt, bereits die Bedeutung für das Gesamtsystem repräsentiert. Mit diesem Ansatz bedarf es keiner speziellen Codierung und Speicherung mehr und damit auch keiner Trägersubstanz. Genau wie in der Quantenphysik, ist in der Kommunikation oder bei lebenden Systemen bekannt, dass Information (im Sinne eines Messergebnisses) oft von der Reihenfolge ihrer Untersuchung/Wahrnehmung abhängt. Lucadou veranschaulicht dies mit den
204
4 Notwendige interdisziplinäre Erweiterung
komplementären Größen aus der Biologie: dem Verhalten (Funktion = F) versus der Anatomie (Struktur = S) eines Lebewesens, in der Form: S ∗ F − F ∗ S ≠ 0 oder S ∗ F ≠ F ∗ S (4.19) Lucadou, der die Parapsychologische Beratungsstelle in Freiburg leitet, die vom Land Baden-Württemberg bezuschusst wird, musste sich im Rahmen seiner Arbeit mit zahlreichen Erfahrungen und Phänomenen auseinandersetzen, von denen ein kleiner Teil nicht mit gängigen Erklärungsmodellen verstehbar war. Als Physiker und Psychologie hat er jedoch Zugang zu beiden Welten und deren Denkmodellen. So geht er von einer fundamentalen Komplementarität von Struktur und Funktion aus und einer daraus ableitbaren Unbestimmtheitsrelation. Gleichgestaltigkeit sieht er besonders in Bezug auf die Nicht-Lokalität der Wellenfunktion und die scheinbare Unabhängigkeit von Raum und Zeit bei Psi-Phänomenen, aber auch das Messproblem und die Rolle des Beobachters in beiden relevante Aspekte. In seinem MPI geht er bei Psi-Phänomenen von einer Korrelation aufgrund einer Verschränkung aus und nicht von Signalübertragungen. Diese Korrelation wird durch die Bedeutung der Situation erzeugt, was Lucadou als ‚pragmatische Information’ bezeichnet. Er versucht damit die Bedeutung einer vorhandenen Information zu quantifizieren, indem er deren Wirkung auf ein System misst, analog zu Weizsäckers Idee. Als Schlüsselgrößen dienen ihm dabei (vgl. Lucadou 2015): Pragmatische Information (I) Die Bedeutung einer vorhandenen Information, gemessen durch ihre Wirkung auf ein System. Neuartigkeit (E) Aspekte der pragmatischen Information, die für das empfangende System völlig neuartig sind. Bestätigung (B) Aspekte der pragmatischen Information, die für das empfangende System bereits bekannt sind. Autonomie (A) Verhalten eines Systems, das nicht vorhergesagt werden kann. Zuverlässigkeit (R) Verhalten eines Systems, das erwartet wird. Zeitliche Dimensionalität (D) Maß für die Wechselbeziehung von zeitlichen Ereignissen, die zu einer Geschichte gehören. Minimum Wirkung (i) Kleinste Wirkung auf ein System, die während einer Messung oder Beobachtung nicht vermieden werden kann. Zusammengefasst in einem mathematischen Ausdruck bei n Messungen ergibt sich: I=R∗A=B∗E=n∗i (4.20) Diesen Formalismus bezieht er auf ein ‚operativ geschlossenes System’, das mit seiner Umwelt in Interaktion steht und ‚pragmatische Information’ austauscht. Mit seinem einfachen mathematischen Formalismus wird deutlich, unter welchen Bedingungen die pragmatische Information I eine wahrnehmbare Wirkung entfalten kann: I = E ∗ B bzw. I = f(B; ∆B/∆t) (4.21)
4.2 Information und Informationsübertragung
205
mit B als Vorstruktur (= Bestätigung), die eine bedeutsame Information haben muss und ∆B als einer, für das empfangende System wahrnehmbaren Neuigkeit. Die Grenzen einer solchen Wahrnehmung verortet Lucadou im Konzept einer ‚organisierten Geschlossenheit’ natürlicher Systeme nach Maturana und Varela (Maturana und Varela 2009; Varela 1998). Er betont die Wichtigkeit der Spezifikation von Subsystem und übergeordnetem System, um I einschätzen zu können, also die genaue Abgrenzung zwischen beiden. Zudem stellt er auch fest, dass „Erwartung“ in diesem Kontext ein pragmatisches Kriterium darstellt, nämlich eine potentielle Messung von 𝑥𝑥 und nicht nur eine mentale Haltung“ (Lucadou 2000). Darüber hinaus konnte er für die, zusammen mit anderen Experimentatoren (Lucadou 2000), durchgeführten zahlreichen Untersuchungen einen Decline-Effekt der messbaren Wirkung bei Psi-Experimenten sowohl theoretisch vorhersagen als auch praktisch beobachten. TR(n) = B/√(n) (4.22) Mit TR als Trefferrate bei 𝑛𝑛 Versuchen und B als Bestätigung in Abhängigkeit der Versuche ergab sich eine Reduzierung der Trefferrate über die Versuchslänge (vgl. Lucadou 2015). Erklärt wird dies mit der Tatsache, dass die Ergebnisse der einzelnen Versuche nicht einfach akkumuliert werden können: „In solchen Systemen kann Evidenz nicht einfach akkumuliert werden, weil die Bedingungen, die Evidenz erzeugen, sich während der Entwicklung des Systems verändern“ (Lucadou 2000). Als Ergebnis verneint er die Möglichkeit, nicht-lokale Korrelationen als Signal zu verwenden. Versucht man es dennoch, verschwinden die Effekte oder verändern sich in unvorhergesehener Weise. Dies bringt er besonders mit Laborversuchen in Verbindung, die ohne Historie und ohne Verbindung zu einer relevanten Realität mehr oder weniger Zufallsergebnisse produzieren. Aufgrund dieser Beobachtungen leitete er die in Kap. 7.3.2 formulierten 13 Bedingungen für Experimente ab, auf deren Basis nicht-lokale Verschränkungsuntersuchungen durchgeführt werden sollen. Übertragung auf SyA Lucadou (2015) liefert mit seinen ‚Schlüsselgrößen’ des MPI’s genau die Messgrößen, die in SyA untersuchbar sind und anhand derer Teilnehmer sich immer wieder verwundert die Augen reiben bzgl. der Stimmigkeit der Repräsentationen nicht-lokal vorhandener Systeme. Wie in Kap. 7.3.2 noch herausgearbeitet wird, lassen sich die 13 Bedingungen fast vollständig auf SyA, als auch auf Versuchsanordnungen wie bei den Tradern an der Börse, dem Chicken-Sexing oder anderen realen Situationen übertragen (Kap. 4.1.3). Lucadou’s Forderungen nach Einbettung in ‚live events’ werden damit erfüllt und können die deutlich besseren Ergebnisse solcher Untersuchungen erklären. So kann die Wirkung der von ihm geforderten klaren Abgrenzung zwischen Subsystem und übergeordnetem System, bzw. dessen Fehlen, in SyA beobachtet werden (siehe auch Kap. 3.3.3),
206
4 Notwendige interdisziplinäre Erweiterung
wenn Intentionen von außen Einfluss auf die Versuchsergebnisse nehmen. Dies trifft genauso für ‚Erwartungen’ zu, die er als potentielle Messung ansieht und die sich im Experiment nachvollziehen lassen. Auch sein Postulat, Erwartungen als pragmatisches Kriterium zu betrachten, das sich bei der Messung bemerkbar machen kann, findet eine Entsprechung in der in Kap. 3.3.3 vorgestellten SyA und dem aufgetauchten unbewussten Priming-Effekt. Zweifelsohne wäre es hilfreich, die von ihm untersuchten Psi-Phänomene noch genauer zu unterscheiden, zu klassifizieren und sie jeweils mit SyA in Beziehung zu setzen. Da dies für die hier untersuchten Sachverhalte vermutlich keinen zusätzlichen Mehrwert generieren würde, soll dies weiterer Forschung überlassen bleiben. 4.2.2.10 Selbstorganisation und Information nach Schweitzer In den Informationsverständnissen von Weizsäcker, Görnitz und Lucadou (Kap. 4.2.2.8 und 4.2.2.9), in denen auch lebende Systeme integriert wurden, sind verschiedene Ansätze vorgestellt worden, in denen sich Information als mehr darstellt, als nur energetisch oder materiell basiert. Nach klassischem Verständnis würde man in erster Näherung vermuten, dass es hier nur um Mustererkennung von EM-Wellen geht, die auf ähnliche Muster treffen, die mit Bedeutung verbunden sind. Mit Verweis auf die Arbeiten von Feistel (1990) und Ebeling u. a. (Ebeling und Feistel 1994) vermutet Schweitzer allerdings, dass sich zunächst an physikalische Zustände gebundene Information im Zuge der Evolution zur freien Information wandelte. Danach handelt es sich um eine „Entmaterialisierung“ von Information, welche als Grundvoraussetzung angesehen wird, um Information in Symbolen zu speichern, sie auszutauschen und weiterzuverarbeiten. „Durch die Symbolisierung wird strukturelle Information eingefroren, sie ist gespeichert und unterliegt nicht mehr den systemspezifischen Gesetzen der gebundenen Information.“ [...] „Ebenso wie freie strukturelle Information ausgetauscht, kopiert und weiterverarbeitet werden kann, kann nun auch die freie funktionale Information ausgetauscht werden“ (Schweitzer 1997). Nach Schweitzer wird mit dieser evolutionären Entwicklung Symbol- als auch Sinntransfer möglich und es ermöglicht einen weiteren Übergang von der biologischen zur soziologischen Ebene, denn symbolhafte Information wird nur im Bereich des Lebendigen angenommen (Feistel und Ebeling 2016). Schweitzer stellt fest, dass Information deshalb als komplementäre Beschreibung von struktureller und funktionaler Information angesehen werden darf. Wobei strukturelle Anteile z. B. materielle Grundlage sind, wohingegen funktionelle Anteile, z. B. Verhalten, kontextabhängig sind und die Selbstreferenzialität operational geschlossener Systeme beschreibt. Schweitzer’s Schlussfolgerung schließt damit sehr gut an Lucadou’s Überlegungen an. Er sieht in der funktionalen Information den Übergang von der strukturellen zur pragmatischen Information und: „Strukturelle und funktionale Information erscheinen dann als zwei Seiten einer Medaille, die nur im Rahmen bestimmter Näherungen unabhängig voneinander diskutiert werden können“ (Schweitzer 1997).
4.2 Information und Informationsübertragung
207
Ein praktisches Beispiel aus der Psychophysik veranschaulicht diesen Zusammenhang. „Damit ein Gegenstand gesehen wird, zum Sehding wird, müssen Lichtstrahlen von ihm ausgehen (Reizquelle) und auf die Netzhaut des Auges gelangen. Dort müssen die Rezeptoren den physikalischen Reiz in elektrische Energien umwandeln, die vom Sehnerven zu einem raum-zeitlichen Erregungsmuster geordnet und auf weiteren Stationen der Sehbahn verarbeitet, schließlich die Sehrinde erreichen. Heuristisch folgt aus dem Isomorphieprinzip, dass sich Wahrnehmung und der ihr zugeordnete Hirnvorgang funktionell und strukturell einander entsprechen, die Befunde der Wahrnehmungs- und Hirnforschung sich somit gegenseitig ergänzen und stützen“ (Ehrenstein 2017). Ehrenstein bezieht sich mit diesem Beitrag in einem Essay auf seine Forschungen, die sich mit dem Zusammenhang messbarer physikalischer Signale, Neuronenaktivitäten und subjektiver und objektiver Antworten auf äußere Reize beschäftigte (Ehrenstein und Ehrenstein 1999). Bei seinen Ausführungen zur ‚Selbstorganisation und Information’ stellt Schweitzer weiter fest, dass der Selbstorganisationsansatz sowohl in der anorganischen als auch in der organischen Natur, in sozialen Systemen, bei Kognitionsprozessen oder komplexen künstlerischen Produktionen erfolgreich zum Einsatz kommt. Dieser Ansatz tritt demnach unter verschiedenen Namen auf: „wie Synergetik, Autopoiese, dissipative Strukturbildung, selbstreferentielle Systeme, Chaostheorie“ (Schweitzer 1997). Allerdings scheinen sich dahinter unterschiedliche Konzepte zu verbergen, wie er annimmt, die zumindest teilweise inkompatibel anmuten. Diese möglichen Unterschiede überwindet Schweitzer mithilfe physikalischer Konzepte, die er auf den Informationsbegriff anwendet und mithilfe einer Selbstorganisation von Algorithmen (ausschließlich selbstreferentielle Rückkopplungsschleifen) veranschaulicht. Es zeigt sich, dass Information eine aktive Rolle im Strukturbildungsprozess übernimmt: „Während des ablaufenden Selbstorganisationsprozesses wird mithilfe von funktionaler Information ständig aus vorhandener struktureller Information pragmatische Information gewonnen. Diese pragmatische Information beeinflusst die Bewegung der Agenten und hat daher einen Einfluss auf die weitere Erzeugung struktureller Information“ (Schweitzer 1997). 4.2.3
Information als Problem der Evidenz
Mit der Evidenz wird nochmal auf die Hauptkategorie ‚wissenschaftliche Legitimation’ eingegangen, weil nun die dazu notwendigen Begriffe vorliegen bzw. angemessen in Beziehung gebracht werden können. 4.2.3.1 Unterschiedliches Verständnis zu Evidenz Wie aus den verschiedenen Beiträgen zur Information zu ersehen ist, bestehen zum einen gewisse Unterschiede im Verständnis über Information, zum anderen lässt sich aus den unterschiedlichen Forschungsdisziplinen wie Entscheidungstheorie, Intuition oder Aufstellungsarbeit und ihren Experimenten, ein Grundproblem erkennen. Wann erfüllen
208
4 Notwendige interdisziplinäre Erweiterung
die Daten den Tatbestand einer belastbaren Information und welche Form von Daten benötigt es, damit Entitäten und Beobachtungen/Wahrnehmungen eine zu berücksichtigende Wertigkeit zugeordnet werden kann, die als Evidenz interpretierbar ist? Hier geht es also nicht um die bisher betrachtete Information an sich, die als phänomenologische oder als konstruktivistische Information in Erscheinung tritt, sondern um ihre Gültigkeit. Eine Frage, die in direktem Zusammenhang mit schwarzen Schwänen und schwarzen Elefanten gesehen werden kann. Taleb’s Verständnis, dass eine Beobachtung ausreicht, die bisherigen Erklärungsmodelle der Geschichte zuzuordnen und neue Modelle entwickeln zu müssen und die fälschliche Fokussierung auf Details, statt auf die großen Ausnahmen (Taleb 2010), findet in diesem Rahmen genauso seine Gültigkeit, wie der schwarze Elefant von Gupta (2009), der trotz existierender Evidenz ignoriert wird. Energie und Materie lassen sich relativ eindeutig messen. Information dagegen scheint sich dieser Eindeutigkeit zu entziehen, was sich bei genauerer Betrachtung allerdings auch als Illusion erweist. Evidenz scheint die Größe zu sein, die sich zwischen Information und die anderen beiden Zustände schiebt und es stellt sich die Frage: Was ist unter Evidenz zu verstehen und wie kann auf sie im weiteren Ausarbeitungsprozess Bezug genommen werden? Im Folgenden wird deshalb die Unterkategorie ‚Evidenz‘ aus dem Codingprozess genauer untersucht. Beschäftigen wir uns mit dem Begriff Evidenz, so wird deutlich, dass auch er eine Klarstellung benötigt, denn in der Literatur finden sich unter dem Begriff Evidenz ebenfalls unterschiedliche Verständnisse: 1. Das Offensichtliche bzw. das Einsichtige 2. Der Beweis bzw. der Nachweis So ergibt sich das Offensichtliche aus einem zweifelsfreien Erkennen. Der Brockhaus definiert aus der Perspektive der Philosophie: „unmittelbare, mit Wahrheitsanspruch auftretende Einsicht. Im Gegensatz zu einer durch einen Beweis belegten Wahrheit ist die Evidenz nicht vermittelt. Sie ist intuitiv und nicht diskursiv“ (Brockhaus, Stand 2014). Vielleicht nicht im Rahmen der Entscheidungstheorie und Intuition, wohl aber im Rahmen der SyA, kann das, was sich den Teilnehmern zeigt, sehr gut unter diesem Verständnis des Offensichtlichen und einer damit verbunden Einsicht, subsumiert werden. Passend dazu formuliert Husserl in seinen phänomenologischen Betrachtungen: „Im laxeren Sinne sprechen wir von Evidenz, wo immer eine setzende Intention (zumal eine Behauptung) ihre Bestätigung durch eine korrespondierende und vollangepasste Wahrnehmung, sei es auch eine passende Synthesis zusammenhängender Einzelwahrnehmungen, findet [...] ihr objektives Korrelat heißt Sein im Sinne der Wahrheit oder auch Wahrheit“ (Husserl 1984: 651). Und an anderer Stelle: „Evidenz ist in einem allerweitesten Sinne eine Erfahrung von Seiendem und So-Seiendem, eben ein Es-selbst-geistig-zu-Gesicht-Bekommen“ (Husserl 2012: 13). Husserl stellt jedoch fest, dass es Grade und Stufen der Evidenz gibt, wobei
4.2 Information und Informationsübertragung
209
der letzte Vollkommenheitsgrad, die adäquate Wahrnehmung sei, bei der die Entität vollständig erscheinen würde (Husserl 1984: 651). Mit dieser Form von Verständnis wird einsichtig, weshalb es viel unterschiedliches Verständnis über das gibt, was wir als real ansehen. Aufstellungsphänomene oder allgemeine körperliche Wahrnehmungen werden von Menschen als real angesehen, wenn sie solche Erfahrungen erleben durften und die daraus erkannten Ergebnisse in Übereinstimmung mit ihrem Wissen und Verständnis bringen konnten. Menschen, die solche Erfahrungen nicht gemacht haben, haben verständlicherweise zu einer solchen Evidenz keinen Zugang. Sie brauchen verallgemeinerte Formen von Evidenz, die mit Glaubwürdigkeit gekoppelt sind. Husserl selbst zieht in seinen Arbeiten zudem diese Erfahrungsevidenz in Zweifel und sieht darin letztlich nur ein Gestaltungsphänomen (Husserl 2012: 18–19), womit er dem Verständnis in der Quantenphysik und der Systemtheorie bereits sehr nahe kommt. Unter Berücksichtigung der Verzerrungsproblematik wie sie Kahneman herausgearbeitet hat, lässt sich in der Tat die Erfahrungsevidenz in Zweifel ziehen, mindestens aber ihre Unfehlbarkeit infrage stellen. Als Antwort auf das ‚in Zweifel ziehen’ einer persönlichen Evidenz und entsprechend dem westlichen Verständnis, dass sich im Mittelpunkt der Untersuchung ein Subjekt befindet, das mit ewigen Wahrheiten ausgestattet ist, entwickelte sich in den Wissenschaften das zweite Verständnis von Evidenz: das des Beweises oder Nachweises, der diese verallgemeinerte Form der Evidenz repräsentiert. Ziel ist es, die persönlichen Einfärbungen zu eliminieren und so etwas wie objektive Wahrheiten zu gewinnen. Um diese Beweise zu erbringen, werden in viele Wissenschaftsdisziplinen zweifellos die quantitativen Erhebungs- und Berechnungsverfahren als Königsweg angesehen. Sie versuchen mithilfe von Statistiken und Evidenzangaben, Aussagen über die Signifikanz und damit die Qualität der Daten zu geben. Als Grundlage gilt bei diesen Verfahren heute immer noch das wissenschaftliche Paradigma, das das untersuchte Objekt unabhängig vom untersuchenden Subjekt ansieht, wie bei Husserl und Blume bereits herausgestellt. Vor allem in der Sozialforschung wird die Erkenntnis, dass Ergebnisse einer Beeinflussung durch den Beobachter unterliegen, in stärkerem Maße mit qualitativen Untersuchungsformen und hermeneutischen Interpretationen berücksichtigt. Mit der GT steht zudem eine anerkannte Methode zur Verfügung, mit deren Hilfe auch Untersuchungsgegenstände strukturiert erforscht werden können, die nicht nur Zahlen in großen Mengen produzieren. Dass darüber hinaus eine Vielzahl an unterschiedlichen Verständnissen der Nachweisverfahren (Belege, Daten) und der Evidenz im speziellen, in den unterschiedlichen Disziplinen existieren, zeigt eine umfangreiche Untersuchung eines interdisziplinären Forscherteams (Engelen u. a. 2010). In dieser Arbeit wird deutlich, dass auch in den Naturwissenschaften nicht nur statistische Berechnungen wie die 5 %Grenze im Signifikanztest als Grundlage oder gar als ausreichend für eine Evidenz angesehen werden. Auch spielen ganz unterschiedliche Häufigkeiten des Auftretens eine wesentliche Rolle. Sie konnten verschiedene Kategorien unterscheiden, die von der Statistik über Graphiken, bildgebende Verfahren (z. B. Fotos, EEG-Kurven) und Tabellen
210
4 Notwendige interdisziplinäre Erweiterung
bis zu autoritativen Verfahren (Zitate, Verweise auf andere Veröffentlichungen, Stellung der Zeitschriften) und Kontrollexperimenten gehen. Betrachtet man diese Evidenzansätze genauer, scheint – mit Bezug auf Husserl (2012: 13) (die eigene Erfahrung), mit Bezug auf die Wahrscheinlichkeit von Bayes (1763) (nach der die Wahrscheinlichkeit eines Messergebnisses vom Grad der persönlichen Überzeugung abhängt) und mit Bezug auf Kahneman (2016) (Verzerrungseffekte) – bereits im konventionellen Erklärungsrahmen erhebliche Vorsicht gegenüber empirischen Daten geboten zu sein. Die von Wagenmakers (Kap. 4.1.3) festgestellte Bemerkung, dass die offensichtlich gut ausgearbeiteten Analysen, in denen zahlreiche Metastudien zusammengefasst wurden, als nicht mehr glaubwürdig anzusehen sind und deshalb der ganze Erhebungsprozess geändert werden müsste, zeigt ein weiteres Problemfeld auf. Oder besser, er bestätigt die von Engelen u. a. 2010 gefundenen Erkenntnisse der unterschiedlichen Evidenzzugänge. Nun reichen auch schon tausendfach durchgeführte Experimente nicht mehr als Evidenznachweis. Nicht nur, weil sich die statistischen Evidenzen sehr häufig nur geringfügig vom Zufallswert unterscheiden, sondern weil sich aus Sicht der Kritiker auch starke Evidenzen darstellen lassen, für die es aber keine plausiblen Erklärungen gibt. Es lässt sich daraus ableiten, dass eher der schwarze Elefant als Problem angesehen wird, für den es keine Erklärung gibt und er deshalb weiter ignoriert werden soll. Somit erscheint das gleiche Muster erkennbar, wie es schon in der Entscheidungstheorie und in der Intuitionsforschung auftrat: Eine nicht vorhandene Theorie führt zur Ablehnung von Beobachtungen und Wahrnehmungen, was einen erhellenden Blick auf unsere westliche Kultur und ihr Selbstverständnis, ihre Werte und ihre Ängste wirft. Dieses Muster ist insofern irritierend, als sich die Wissenschaft selbst immer als offen definiert, deren Aufgabe es ist, Antworten und Erklärungen für alle beobachtbare Phänomene zu suchen bzw. zu entwickeln. An dieser Stelle soll deshalb nun ein kurzer Blick auf verschiedene Ansätze geworfen werden, die die bisherigen Vorgaben zur Ermittlung des Evidenznachweises untersucht, ohne jedoch das große Feld der statistischen Möglichkeiten in seiner Gänze behandeln zu wollen. 4.2.3.2 Signifikanz und ihre Grundlagen Wie bereits im Rahmen des methodologischen Vorgehens ausgeführt, reicht in der Physik ein Gegenbeispiel aus, um es als evident anzusehen, sofern es durch andere Forscher reproduziert werden kann. In den Sozialwissenschaften werden demgegenüber in der Regel statistische Größen zum Nachweis einer Relevanz gefordert (Freund und Oberauer 2010: 231). Evidenzen werden mithilfe von Signifikanzberechnungen zu erzielen versucht, wobei es ursprünglich um die Bestimmung des ‚wahrscheinlichen Fehlers bei Mittelwerten von kleinen Stichproben’ ging (Honey 2017: 7). Die Signifikanz steht für die Zuverlässigkeit eines Resultates und wird als Grundlage eines Beweises (der Evidenz) angesehen.
4.2 Information und Informationsübertragung
211
Honey stellt aber auch fest: „Die größten Entdeckungen der Naturwissenschaft kamen zu Stande, auch ohne dass jemand ihre Signifikanz berechnete“ (ebd. 5). Neben Elektromagnetismus, Röntgenstrahlen, Entdeckung der Krümmung des Lichtes, führte er auch die Entdeckung der Ursache von Skorbut als Beispiel an, die auf der Basis von nur 12 erkrankten Seeleuten und einer systematischen Vorgehensweise erfolgte. Hier reichte jeweils eine Ausnahme bzw. ein erfolgreiches Experiment (ein schwarzer Schwan), um Evidenz zu erzeugen und bisherige Annahmen/Theorien zu verwerfen. Aus der Sicht Honey’s geht es nicht um große Datengrundlagen, sondern um die Eliminierung bzw. Minimierung von Störfaktoren innerhalb dieser Daten. Honey zitiert den Wirtschaftsprofessor Ziliak mit den Worten: „Keine große Entdeckung in der Naturwissenschaft hat allein auf Grund kleiner Signifikanzwerte stattgefunden“ (ebd. 7). Der bei solchen Signifikanzberechnungen verwendete p-Wert gilt als Maß für die Wahrscheinlichkeit, einen Zufallstreffer gelandet zu haben, oder wie Honey es formuliert: „Wie oft müsste man ein Experiment im Schnitt durchführen, damit einem der Zufall einmal diesen Effekt vorgaukelt?“ (ebd.). Alternativ formuliert geht es um eine Irrtumswahrscheinlichkeit, also darum einen Effekt zu messen, den es gar nicht gibt. Er führt weiter aus, dass es keine Grundlage für die „spezifische Grenze von 1 in 20 (äquivalent zu 1,96 Sigma und p = 0,05)“119 gibt, die von Fischer 1925 eingeführt wurde (Fisher 1925: 54). Wie Honey feststellt, hatten die Begründer mit der Signifikanzgrenze nur im Fokus, eine erste Entscheidung über die Sinnhaftigkeit weiterer Experimente treffen zu können. Mit der heutigen Interpretation der Signifikanzgrenze von p = 0,05 hat deshalb die ursprünglich angedachte Verwendung nichts mehr zu tun. Heute wird diese Grenze als „die Grenze der Wahrheit“ (Honey 2017: 9) angesehen, wobei auf der einen Seite die Nullhypothese und auf der anderen Seite die untersuchte Hypothese steht. Die Nullhypothese entspricht genau dem Gegenteil, das die Forschung belegen soll. Für dieses Gegenteil wird nun die Wahrscheinlichkeit berechnet, mit dem das beobachtete Ergebnis auftreten würde (Nuzzo 2017: 14). Werte unterhalb von p = 0,05 verneinen die Nullhypothese und bestätigen damit die Existenz der eigentlich angenommenen Vermutung. Je kleiner er ist, desto unwahrscheinlicher (falsch) ist die Nullhypothese, was vom Forscher von Anfang an bewiesen werden wollte. Ein Wert über der 0,05 Grenze bestätigt die Nullhypothese und verneint die untersuchte Alternative. Worauf Honey bei diesen Werten jedoch mit Nachdruck hinweist: „Signifikanzwerte beschreiben keine Grenze, ab der eine Hypothese wahr wird und die andere falsch, sondern die Wahrscheinlichkeit, dass ein gemessener Effekt aus einer ungünstigen Zufallsstichprobe rührt“ (Honey 2017: 9). Damit wird also nichts über die Größe des Effektes ausgesagt oder dass es sich um einen falschen (positiven wie negativen) Befund handelt. Es handelt sich also um ein Missverständnis, mit oft schwerwiegenden Folgen, wie er mit Beispielen aus dem pharmazeutischen Bereich belegt. Passend zu Honey (ebd.) wird ganz aktuell wieder darauf hingewiesen (Hirschauer u. a. 2019), dass in mehr als 50 % der Fachartikel eine falsche Interpretation des p119
Die Forschung gibt mit diesem Wert an, dass sie Fehler nur in weniger als 5 % der Fälle bereit ist zu akzeptieren.
212
4 Notwendige interdisziplinäre Erweiterung
Wertes vorgenommen wird. Hirschauer und Kollegen gehen sogar noch einen Schritt weiter, wenn sie feststellen, dass der p-Wert keine Bestätigung oder Widerlegung der Nullhypothese zulässt. Aus diesem Grund sollte auch nicht von ‚Statistischer Signifikanz‘ gesprochen werden. Dieser Wert hängt immer von den im Vorfeld getroffenen Annahmen ab und kann stark schwanken. Als weiteres Problem in der Arbeit mit Nullhypothesen wird der Umstand angesehen, dass es nicht nur eine Alternativhypothese geben kann, sondern viele (Freund und Oberauer 2010: 232). Die Wichtigkeit dieser Unterscheidungen ergibt sich aus dem praktizierten Versuch, die eigene Hypothese positiv zu bestätigen, da damit Forschungsgelder oder wirtschaftliche Gewinne verbunden sind (Nuzzo 2017: 13 u. 17), siehe hierzu auch zahlreiche Belege in (Gøtzsche 2014). ‚p-Hacking’ (löschen einzelner Daten aus den Untersuchungen) und ‚selektives Publizieren’ (Wiederholung der Experimente bis die Ergebnisse passen und nur dieses veröffentlichen) sind genauso Probleme, wie die fehlende Reproduzierbarkeit von Experimenten (z. B. bei kleinen Stichproben 120 oder verrauschte Messgrößen). Diese fehlende Reproduzierbarkeit findet sich oft in der Psychologie und den Neurowissenschaften (vgl. Honey 2017: 10). Aus Sicht von Honey benötigt es deshalb besser kontrollierte Experimente, bis „so etwas wie Wahrheit unabweisbar aus den Daten spricht“ (ebd.). Nuzzo weist darauf hin, dass für Fischer diese Berechnung ursprünglich nur ein kleines Glied in der Kette war, zusammen mit Beobachtungen und zusätzlichem Wissen. Die Bemühungen von Neyman und Pearson (Pearson 1900) mit dem Versuch, die Trennschärfe (‚power’) zu erfassen und evidenz-basierte Entscheidungen zu ermöglichen, ließen den p-Wert außen vor. Der Chi2-Test wie ihn Schlötter in seiner Forschung zur Untersuchung der Wiederholbarkeit bei SyA angewandt hat, geht auf Pearson zurück. In der weiteren Entwicklung wurden die Konzepte gemischt und führten zu erheblichen Differenzen und Verwirrungen, siehe (vgl. Nuzzo 2017: 14). Ein weiteres Problem stellt die Abhängigkeit von der Abschätzung der Ausgangswahrscheinlichkeit dar (im Sinne Bayes), die beim p-Wert zu ganz unterschiedlichen Werten führen kann. Es wird somit nichts über die tatsächliche Größe des Effekts ausgesagt und auch nichts, darüber, ob es den Effekt überhaupt gibt (ebd. 15). Als Lösungsoption gegen p-Hacking etc. empfehlen sie mit Bezug auf Simonsohn, ein völliges Offenlegen der Vorgehensweise und Auswahlkriterien. Zum Zweiten fordern sie bereits in der Analyse ein Hinzuziehen ähnlicher anderer Untersuchungen als auch Überlegungen zu möglichen Mechanismen und dies nicht erst in der Abschussdiskussion. Sie empfehlen somit das Gleiche wie die Grounded Theorie (ebd. 19).
120
Nicht nur kleine Stichproben sind ein Problem für die Signifikanzaussagen, sondern auch sehr große Probandenzahlen, denn je größer die Stichprobe, desto eher entwickeln sich kleinste Effekte zu statistisch signifikanten (Persike 2017: 21).
4.2 Information und Informationsübertragung
213
4.2.3.3 Lucadou’s Decline-Problem Lucadou bezieht sich in seiner Arbeit auf die erste Definition wenn er von einer intuitiven Sicherheit ausgeht, die auf empirischen Daten oder theoretischen Überlegungen fußt (Lucadou 2000: 3). Die wissenschaftliche verbindet er mit der persönlichen Evidenz, „weil jedes Mitglied der wissenschaftlichen Gemeinschaft seine eigene persönliche Evidenz benutzen muss, um ein wissenschaftliches Ergebnis zu akzeptieren“ (ebd). Dass dennoch die wissenschaftliche Evidenz als zuverlässiger bewertet wird, führt er auf die meist langen historischen Prozesse zurück, aus denen die Ergebnisse hervorgehen. Aufgrund der wissenschaftlichen Irrtümer hält er es deshalb für nicht immer sinnvoll, sich nur darauf zu verlassen (vgl. ebd. 4). Mit einem Beispiel (Fernwahrnehmung im Zusammenhang mit einem Unfall) untermauert er seine Interpretation. Vergleichbare Erlebnisse und Zusammenhänge finden sich in Schmid (Schmid 2015). Mit Bezug auf Bayes stellt auch er fest, dass bei evident gewordenen Paradigmen die Notwendigkeit entsteht, viele empirische Daten vorlegen zu müssen, um das alte Paradigma zu überwinden. Gleiches findet sich bei Lucadou (2000: 6–7). Bei seinem Versuch zu verstehen, weshalb die Akkumulation von Evidenz bei nichtklassischen Experimenten scheitert, kam er auf neue Zusammenhänge. Lucadou konnte zeigen (Kap. 4.2.2.9), dass bei nicht-lokalen Korrelationen Decline-Effekte auftreten, wenn Verschränkungsexperimente (siehe Abb. 27) durchgeführt wurden. Dies ist besonders bei nicht-klassischen Informationsübertragungs- oder InformationserkennungsVersuchen relevant. Dabei stellt die heute gängige Praxis der ständigen Wiederholung der immer wieder gleichen Laborversuche, das Hauptproblem dar. „Man hat den Eindruck, dass in der wissenschaftlichen Parapsychologie eher eine Erosion als eine Akkumulation von Evidenz stattfindet“ wodurch „eine Diskrepanz zwischen der persönlichen und wissenschaftlichen Evidenz“ (ebd. 3) entsteht. Er begründet dies mit den sich ständig ändernden Bedingungen, die sich aus den Messprozessen ergeben und sich das untersuchte System dadurch ständig weiterentwickelt (ebd). Jeder Messvorgang beeinflusst das System und hinterlässt seine Spuren. Gleichzeitig reduziert sich der Unterschiedseffekt, der für die Erkennung notwendig ist, dieser wird immer kleiner. Seine Erkenntnisse passen in analoger Weise zur Quantenphysik. Messungen von Quantensystemen lösen Dekohärenz-Prozesse zwischen untersuchtem System, Messapparatur und Beobachter (nähere Erklärung im Kap. 8.1.2 und 8.1.3) aus und können nie zweimal in exakt gleicher Weise vorgenommen werden. Wenn wir, wie hypothetisiert, bei lebenden Systemen von Mixed-Zuständen ausgehen, bei denen zumindest in Teilbereichen Quantenprozesse ablaufen, dann ist es nur logisch und konsequent, dass in diesen Systemen quantenphysikalisch-ähnliche Beobachtungen gemacht werden sollten. Eine Veränderung, in diesem Fall die Abnahme der Unterschiede aufgrund zunehmend stärkerer Überlagerung, lässt sich als eine solche Beobachtung interpretieren. Konsequenterweise müsste bei solchen Messungen eine zunehmend stärkere Berücksichtigung qualitativer Methoden eingebaut werden, vergleichbar dem Aufstellungsexperiment mit dem Lenkflugkörper (Kap. 3.3.3) oder den Messreihen von Schlötter (Kap. 3.3.2). Hier geht es nicht mehr um Effektstärken, Sigma- oder P-Werte (auch wenn
214
4 Notwendige interdisziplinäre Erweiterung
Schlötter diese letztlich noch verwendet hat), sondern um wiedererkennbare Merkmale, die sich in analoger Weise, innerhalb einer Messreihe, auch ändern dürfen. Genau diese veränderten Merkmale, in den Beschreibungen seiner Repräsentanten, hat Schlötter bei seinen Auswertungen auch herangezogen. 4.2.4
Conclusio zur Information
Die Conclusio zur Hauptkategorie Information könnte sehr kurz gehalten werden, wenn wir uns an den prägnantesten Beiträgen orientieren würden. Die Information ist als Uralternative existent, die Energie und Materie aufbaut, und zwar dann, wenn sie zu einem Faktum wird, also einem Beobachtungs- und Messprozess ausgesetzt wird. Verschränkung, die die Information verschiedener Entitäten zu einer übergeordneten Entität zusammenführt, führt zur Lesbarkeit der Gesamtinformation für alle beteiligten Entitäten. Als wichtige Bedingung gilt die Forderung nach einem grundsätzlich ähnlichen Aufbau, was für alle Elemente des Kosmos anzunehmen ist, sowie eine strukturelle und funktionelle Komplementarität. Je ähnlicher die Entitäten schließlich sind, desto einfacher und klarer lesbar und interpretierbar sind die Informationen für einen Beobachter. Der Mangel dieser Kurzform findet sich leider bereits am Beginn mit Bezug auf Weizsäckers Uralternativen als Grundelemente des Kosmos, die wohl nur wenigen bekannt sein dürften und auch keine wissenschaftliche Reputation besitzt; womit wieder Schwierigkeiten mit der Hauptkategorie ‚wissenschaftliche Legitimation‘ verbunden sind. Deshalb folgt nun die ausführlichere Conclusio mit Blick auf unterschiedliche Aspekte. Die folgenden Ausführungen verdichten das Thema Information und damit die 3. Hauptkategorie und bestätigen gleichzeitig Hypothese 3 aus der GT. 4.2.4.1 Normierung des Informationsbegriffes Die Annäherungen an den Begriff der Information repräsentieren letztlich unterschiedliche Forschungsdisziplinen, die ihr Augenmerk jeweils auf ganz unterschiedliche Zusammenhänge, Rahmenbedingungen und Untersuchungsmethoden richten. Zusammengefasst lassen sich drei Zugänge definieren, wie sie bereits in der SEP herausgestellt werden; im Folgenden nur mit veränderter Reihenfolge aufgeführt, wie es prozessorientiert sinnvoller erscheint: 1. ‚Information’ als ein Zustand eines Agenten. 2. ‚Information’ als die Fähigkeit zu informieren. 3. ‚Information’ als der Prozess des Informiert-Werdens. Diese drei Zugänge fokussieren auf unterschiedliche Aspekte im Kontext von Information, die alternativ auch in dieser Form unterschieden werden können: a. Die Information selbst. b. Der Träger einer Information. c. Der klassische Prozess zwischen Sender und Empfänger, incl. dem Zustand bzw. die Fähigkeiten von Sender und Empfänger.
4.2 Information und Informationsübertragung
215
Basierend auf den vorliegenden Erkenntnissen und Perspektiven, scheint mir die Möglichkeit zu bestehen, den Informationsbegriff grundsätzlich neu zu normieren. Zu 1: Das klassische Verständnis der Physik bewegt sich nur auf der Ebene von Materie und Energie als ‚Information über etwas’ (1) und geht zudem in der Regel von Menschen aus, die involviert sind (siehe SEP). Erkenntnisse aus verschiedensten Disziplinen bestätigten kybernetische Konzepte und damit die Universalität der zugrundeliegenden Gesetzmäßigkeiten. Information wird immer mehr als unitäre Einheit betrachtet, deren Erscheinungsform und Übergänge abhängig vom Kontext und den beteiligten Akteuren sind. Aber sie kristallisiert sich als etwas Unterscheidbares und Unabhängiges in Bezug auf Energie oder Materie heraus. Damit geht es um die Information selbst und um den Zustand eines Agenten (einer Entität bzw. eines Systems). Mit der Transformation von Information in Energie in Materie und vice versa, löst sich das heutige Verständnis von der klassischen Perspektive und betrachtet Information auch als elementare Voraussetzung für alles, was wir in unserer Realität wahrnehmen. Weizsäcker und Görnitz (Kap. 4.2.2.8) zeigen, wie Entitäten fundamental aufgebaut sein können, basierend auf einem ausschließlich physikalischen Verständnis von Information und wie sich Information weiterentwickelt. Wiener (Kap. 4.2.2.6) machte deutlich, dass eine abstrakte Gestalt Information darstellt und sich daraus neue Gestaltmöglichkeiten generieren lassen. Mit den Ansätzen von Lucadou (Kap. 4.2.2.9) und Schweitzer (Kap. 4.2.2.10) lässt sich neben der rein physikalischen Erklärung nun auch eine system-theoretische vorstellen, die als emergentes Phänomen komplexer Systeme interpretiert werden kann. Gemeinsam mit Weizsäcker (Information ist nur, was Information erzeugt) und Görnitz (Kap. 4.2.2.8) gehen sie von einem evolutionären Verständnis von Information aus (keine Invarianz der Information), also der Tatsache, dass sich Information jenseits von Energie und Materie weiterentwickelt und auf diese wiederum zurückwirkt. Schweitzer (Kap. 4.2.2.10) geht vielleicht am weitesten wenn er zeigt, dass pragmatische Information ständig neu, als faktische und nicht als potentielle Information, entsteht und dies in Abhängigkeit einer komplementären Beziehung von funktionaler und struktureller Information. Seine Beispiele veranschaulichen auf signifikante Weise, wie künstliche Intelligenz scheinbar genau das Gleiche produziert, wie wir es bei Individuen und Gesellschaften beobachten können und dass es keiner von außen einfließenden Kraft, Information oder sonst etwas bedarf, um Entwicklungen zu generieren, die auf Information aufbauen. Dies stellt ein Phänomen dar, das natürlich die Frage nach einer möglichen Grenzziehung zwischen lebenden Systemen und Artificial Intelligence (AI) oder sogar einer göttlichen Wesenheit aufwirft. Damit werden die neuen Ordnungsebenen, wie sie Lutterer (Nervenimpulse, Übermittlung von Unterschieden) (Kap. 4.2.2.7) und Schweitzer (Symbol- und Sinntransfer) (Kap. 4.2.2.10) konstituierten, in einem Informationsbegriff berücksichtigt werden müssen. Von der physikalischen über die biologische, neurologische bis hin zur soziologischen Ordnungsebene kann Information jetzt einheitlich verwendet werden. Einzu-
216
4 Notwendige interdisziplinäre Erweiterung
schlie-ßen sind nicht nur die Anteile, die Aufbau (Struktur und Bewegung) repräsentieren, sondern auch die Anteile, die Funktion, Symbolik und Sinn repräsentieren. Insofern würde ich als übergreifende Definition vorschlagen: Information ist etwas, was eine Entität repräsentiert. und Eine Entität ist etwas, was sich gegenüber einem Umfeld unterscheiden lässt. Hier geht es nicht um ein Senden oder Empfangen einer Information, sondern um den Tatbestand der Existenz einer Information, die auch existiert, wenn kein Lebewesen hinschaut ober involviert ist, im Sinne von Weizsäcker und Görnitz (Kap. 4.2.2.8). Dies können Elementarteilchen, Materie, verschiedene Energieformen, aber auch Zellen, Nervenimpulse, Programm-Codes, Gedichte, Symbole, Erfahrungen, Wünsche oder anderes sein. Zu 2: Information wird in unserem bisherigen Sinne erst zur Information, wenn sie an einen Träger gekoppelt wird. Jede Information, die wir wahrnehmen, denken bzw. visualisieren, benötigt deshalb ein Pendant auf der physikalischen Ebene – einen Träger. Ob das nun eine bestimmte Drehrichtung des Spins ist, eine in einer Wellenform integrierte Codierung, eine Nervenzelle, eine abstrakte Entität oder etwas ganz anderes. Fakt ist, dass wir diese Information in Form von rein physikalischen Größen wie Druck, Geschwindigkeit, Drehimpuls, Polarisierung, energetische Anregung in EEG- und EKGDiagrammen, Hautleitfähigkeitsänderungen, aber auch in Bildern, Gefühlen oder Handlungen messen können. Damit stellt sich der Sachverhalt in gleicher Weise dar, wie bei Elektronen oder anderen physikalischen Phänomenen. Die Physiker selbst sagen, dass noch niemand ein Elektron gesehen hat, aber die Wirkung ist beobachtbar. Selbiges gilt eben auch für andere physikalische Größen, deren Erscheinen sich erst indirekt bemerkbar macht, wie beispielsweise somatische Marker. Wie Wiener und Bateson festgestellt haben (Kap. 4.2.2.6 und 4.2.2.7), sind Neuronen bereits manifestierte Information und damit sind unsere Gedanken (virtuelle Informationen) genauso real wie Energie oder Materie (Äquivalenzprinzip). Diese Träger selbst sind nun von Bedeutung, da mit ihrer Hilfe Information erkannt bzw. übertragen werden kann. Aus den bisherigen Ausführungen leiten sich drei Übertragungsarten von Information ab: Zwei signalgebundene ... I. in Form von technischen Signalen (technische, lokale Encodierung). II. in Form von EM- oder anderen Wellen (natürliche, lokale Encodierung). Eine nicht-signalgebundene ... III. in Form der Verschränkung (natürliche, nicht-lokale Encodierung).
4.2 Information und Informationsübertragung
217
Übertragungsvariante I Erst mit Shannon rückte Information als physikalische Größe in den Fokus (Kap. 4.2.2.2), ohne dass deren Herkunft oder Bedeutung eine Relevanz bekam. Bei seinen Bemühungen zur Optimierung der Übertragungskapazitäten und -qualität durch geschickte Codierung und der Wiederholung zur Vermeidung von Fehlern über Neumann’s Ausdehnung auf Quantenzustände (Kap.4.2.2.4) wird Information völlig ohne Bedeutung gedacht, was Beiden jedoch bewusst war. Shannon und von Neumann legten die Grundlage, Information auf Trägermedien zu verschlüsseln und zu transportieren. Es geht bei ihnen also um die rein technische Fähigkeit: ‚zu informieren‘. Alle Informationen, die auf klassischem Weg per Signalübertragung vermittelt werden, lassen sich als stark reduziert betrachten. Es werden immer nur beschränkte Sachverhalte übermittelt, die zudem auch noch vielfältigen Verfälschungseffekten unterliegen können. Die Shannon-Entropie bringt diesen Effekt zwingend mit sich. Damit lassen sich einige der aus der Entscheidungs- und Intuitionsforschung bekannten Verzerrungseffekte erklären. Zudem ist diese Form der Informationsübermittlung nur lokal und mit zeitlichem Aufwand möglich, wobei als lokal auch telekommunikations-technisches Verbinden angesehen wird. Shannon’s Ansatz zeigt aber, dass es sehr wohl möglich ist, verwertbare Information zu codieren und auf einem Trägermedium zu platzieren, ohne dass alles gewusst werden muss. Einzig eine Information über das Gesamtsystem und Teilinformationen über einen bestimmten Ausschnitt sind notwendig, um erfolgreiche Kommunikation zu realisieren. Aus den bisherigen Überlegungen und Beispielen geht jedoch klar hervor, dass wir es bei SyA und Intuition nicht mit klassischer Signalübertragung zu tun haben, wie sie in der Telekommunikation etc. Verwendung findet. Im Kontext von SyA und Intuition werden keine Morsezeichen, gepulste Lichtwellen oder ähnlich modellierte künstlichen Zeichen von einem Sender zu einem Empfänger geschickt. Übertragungsvariante II Die Frage nach den Codes stellt sich auch hier: Wie kommunizieren Pflanzen oder niedere Tierarten, von denen wir wissen, dass sie so etwas wie eine Kommunikation (Austausch von Informationen) besitzen? Oder wie kommunizieren überhaupt die Grundbausteine unserer Welt, die chemischen Elemente oder gar die Elementarteilchen? Sowohl Görnitz als auch Zeilinger haben die interessante Frage aufgeworfen: „Woher wissen Quarks, Protonen, Neutronen oder Atome bzw. Moleküle was sie aufbauen sollen?“ Heute gehen wir in jedem Fall davon aus, dass ab den niederen Lebensformen abwärts keine expliziten Codes entwickelt und verwendet werden, und dennoch besteht ein Austausch. Nach unserem heutigen Verständnis führen wir deren Kommunikation auf Botenstoffe, chemische Verbindungen oder Frequenzen zurück. Näheres dazu im Kap. 8.2 zu biologischen Systemen. Auf der subatomaren Ebene agiert unser Körper als EM-System, so wie jede andere materialisierte Entität (Atome, Moleküle etc. und die aus ihnen aufgebauten Gestalt-
218
4 Notwendige interdisziplinäre Erweiterung
formen) und ist damit in der Lage, mit diesen Energien und Informationen in Wechselwirkung zu treten. Eine der ersten, im Körper wahrnehmbaren Reaktion ist eine entsprechende Reaktion im Gehirn, nämlich das Feuern der Neuronen. Diese lösen einen biochemischen Prozess aus, der wiederum für uns in Form von Bildern, Gefühlen oder anderen Körperphänomen wahrnehmbar wird. Wenn man Shannon’s Methodik ernst nimmt, braucht es deshalb noch nicht einmal den quantenphysikalischen Ansatz zur Erklärung des Informationsaustausches zwischen lokal, an einem Platz befindlichen Entitäten. Dieser könnte im klassischen Modell behandelt werden. Im klassischen Ansatz bestehen alle Entitäten aus EM-Wellen, deren Wesen in diesen Wellen codiert sind und die mit ihrem Umfeld in Wechselwirkung treten können. Die Frage, die sich nur stellt, lautet: Enthalten diese EM-Wellen auch die symbol- bzw. sinnhafte Information (Codes) oder benötigt es noch etwas anderes? Anhand des Beispiels der Flugzeugerkennung und des Chicken Sexing ist davon auszugehen, dass mehr Information übertragen als gemeinhin angenommen wird. Eine entsprechende Schlussfolgerung lässt sich auch aus dem Verhalten von Tieren schließen, die teilweise schon Tage vor einer Naturkatastrophe Fluchtverhalten zeigen. Dass Übertragungsart II letztlich aber doch nicht als vollständiger Erklärungsansatz ausreicht und andere Annäherungen notwendig sind, ergibt sich aus der Nicht-Lokalität beobachtbarer Phänomene bei SyA- und Intuitions-Experimenten. Übertragungsvariante III Die zwei einzig derzeit verbleibenden Konzepte sind in der Kybernetik und in der Quantenphysik lokalisiert: 1. Das Konzept der kybernetischen Regelkreise, in denen Struktur und Funktion komplementäre Größen sind und eine pragmatische Information generieren können. 2. Das Konzept der Quanten-Shannon-Theorie. Ein theoretischer Ansatz, der mittlerweile sehr erfolgreich praktisch bei der Quanten-Teleportation genutzt und im Weiteren noch eingehend vorgestellt wird. Das kybernetische Konzept kann per se nicht als Träger interpretiert werden, da es sich aus einer strukturellen und funktionellen Kopplung eines Sinns ableitet. Die Information selbst muss an anderer Stelle getragen werden, um die Kopplung überhaupt erst möglich zu machen. Demgegenüber steht der quantenphysikalische Informationsaustausch, der mittels Verschränkung zum Tragen kommt, mit Qubits als Träger der Information. Qubits repräsentieren einen Quantenzustand, vom dem Zeilinger sagt: „Der Quantenzustand ist der Inbegriff aller Eigenschaften, die ein System trägt“ (Zeilinger 2011). Deshalb werden hier ALLE Informationen zwischen den beteiligten Systemen ausgetauscht oder besser formuliert, die vorher getrennten Informationen unterschiedlicher Systeme korrelieren zu einem Gesamtsystem. Auf fundamentaler und damit zunächst unbewusster Ebene liegen somit alle Informationen vor, nur unterliegen sie beim Decodieren wieder den Gesetzmäßigkeiten von Shannon bzw. besser den von-Neumann-Bedingungen
4.2 Information und Informationsübertragung
219
(Kap. 4.2.2.2 und 4.2.2.4). Es gibt Verfälschungen durch Übersetzungsprobleme, die sich jedoch nur noch auf systeminterne Restriktionen reduzieren. Alles, was von außerhalb des Systems als Störung kommt, ist bei diesem Ansatz eliminiert. Diese Schlussfolgerung ergibt sich aus folgenden Überlegungen: Wenn die Umwandlung von Information von einem äußerlichen Geschehen zu einer inneren Wahrnehmung, wie sie Bateson und Wiener beschreiben (Kap. 4.2.2.7 und 4.2.2.6), von Unterschieden abhängt und in Form von Handlungen beobachtet werden kann, so lässt sich ein nicht wahrnehmbarer Unterschied, der dennoch wahrnehmbar ist, nur mit einem Verschränkungszustand interpretieren. Als Beispiele sei hier noch einmal auf Chicken Sexing, ankommende Flugzeuge verwiesen, aber genauso gut auf das Geschehen bei der Börse (alle in Kap. 4.1.3) oder bei den Doppelblind-Aufstellungen mit technischen Bauteilen (Kap. 3.3.3). Es handelt sich in einem solchen Fall also nicht um ein Signal, das gesendet wird, sondern um eine Information, die innerhalb eines übergreifenden Systems ausgetauscht wird. Unterstützt wird diese Annahme von einer prinzipiellen Nicht-Existenz von Materie, die nur in unserer Wahrnehmung als Materie angesehen werden kann und in Kap. 8.1.1 eingehend untersucht werden wird. In Anbetracht der Tatsache, dass mit der 3. Form keine Signale verbunden sind, fallen auch sämtliche Beschränkungen weg, die sich aus der Relativitätstheorie heraus ergeben. Konsequenzen für die Informationswahrnehmung bei Lebewesen Die von Görnitz (Kap. 4.2.2.8) beschriebene physikalische Wechselwirkung zwischen einlaufender Information und Physis des Lebewesens wird zu Recht als physikalische Wechselwirkung interpretiert. Mit der bei von Neumann (Kap.4.2.2.4) entwickelten quantenphysikalischen Übertragung von Information mittels Qubits, wobei diese Information nicht gekannt werden muss und der Schlussfolgerung von Adriaans (Adriaans 2012), dass die Natur mit den Qubits den grundsätzlichsten Weg gefunden hat, um Information auf elementarer Ebene (Atom, Elektron, Photon etc.) zu speichern, bleibt nur eine Schlussfolgerung: Die Wellenfunktion Ψ, in der ALLE möglichen Informationen einer Entität beinhaltet sind, lässt sich nun auch auf Lebewesen anwenden, wobei in der Wellenfunktion eines Lebewesens alles enthalten ist, was dieses Lebewesen ausmacht – genetische Voraussetzungen, Erfahrungen, kulturelle Prägungen, Hoffnungen und Ziele, genauso wie Ängste. Mit der Verschränkungstheorie geht einher, dass bei Interaktion zweier physikalischer Systeme die Informationen von beiden Systemen miteinander korreliert sind und sich über den gesamten Raum bzw. über die gesamte Zeit ausbreiten. Damit ergibt sich die theoretisch begründete, realistische Möglichkeit einer Verschränkung auch von Lebewesen incl. der Option, wechselseitig die Information erkennen und decodieren zu können. Unterstützt wird dies durch die Nicht-Begrenzung der Schrödinger-Gleichung, die die ungestörte Entwicklung von Quantensystemen beschreibt. Die in der Wissenschaft vorhandenen Zweifel, ob Quantenphänomene tatsächlich in Lebewesen zum Ausdruck kommen können oder doch einer Dekohärenz zum Opfer fallen, weil die Umgebungsbedingen dies verursachen, erfährt durch die bisherigen
220
4 Notwendige interdisziplinäre Erweiterung
Überlegungen ein theoretisch fundiertes klares JA. Quantenphänomene können in Lebewesen auftreten. Diese aktuellen Zweifel sind allerdings auch der wesentliche Grund, weshalb die Hauptkategorie ‚Übertragungswege‘ noch nicht abgeschlossen werden kann und die Themen in Kap. 8 (Quantenphysik, Quantenbiologie, Neurowissenschaften) zwingend noch eruiert werden müssen. Zu klären ist, ob das theoretischen JA auch ein praktisch-realistisches sein kann. Angemerkt werden darf an dieser Stelle, dass diese Zweifel in den Kap. 8.2 und 8.3 entkräftet werden. Feststellen lässt sich nun auch, dass für diesen zweiten Zugang (Träger und Weg der Information) die neue Definition von Information Gültigkeit besitzt. Information ist etwas, was eine Entität repräsentiert. Mit der Erkenntnis, dass Information für unser Erkennen an einen Träger gekoppelt sein muss, bekommen wir eine Information über eine Entität, die zusätzlich auch eine Aussage über den Träger und den Weg der Informationskopplung trifft. Die Information repräsentiert damit eine ursprünglich vorhandene Entität, über die wir etwas wissen können, in Verbindung mit dem Übertragungsweg. Konsequenterweise führt dies gleichzeitig zu einer Reduktion der Möglichkeiten, die in dem noch nicht trägergebundenen Zustand enthalten wären. Die quantenphysikalische und systemische Erkenntnis, dass unser Wissen immer ein Wissen eines Beobachters ist und niemals in der Lage sein wird, das GANZE zu erfassen, wird auch hier evident. Womit der dritte Zugang, die Bedeutungsgebung, zu betrachten ist. Zu 3: Wir haben als Konsequenzen aus den Erkenntnissen von Wiener, Weizsäcker und Görnitz als auch von Bateson und den Konstruktivisten (Kap. 4.2.2) ‚Information’ sowohl als eigenständige Entität, neben Energie und Materie (1), als auch die Gebundenheit an einen Träger als Signal oder als Verschränkungszustand mit einer Entität (2) kennengelernt. Es verbleibt jetzt nur noch ‚Information als der Prozess des Informiert-Werdens’ zusammenzufassen. Hierzu gehört der klassische Prozess zwischen Sender und Empfänger, incl. dem Zustand bzw. die Fähigkeiten von Sender und Empfänger (3). Wie gesehen, repräsentieren Bits und Qubits einen Unterschied und veranschaulichen auch in der physikalischen Welt, dass Informationen immer mit Unterschieden einhergehen. Es ist offensichtlich, dass die Kritik von Hall (objektive Verwendung der Zeichen) (Kap. 4.2.2.3) und der Ansatz von Görnitz (abstrakte Information braucht Bedeutungsgebung) (Kap. 4.2.2.8) übereinstimmen und als das Gleiche betrachtet werden können. Allein die Wellenlänge des Lichtes (als Beispiel) gibt eine solche Bedeutungsgebung nicht her. Eine Übereinstimmung definieren Lucadou und Schweitzer, indem sie eine komplementäre Passung zwischen Struktur und Funktion fordern, aus der heraus sich eine pragmatische Information ergibt, die den Sinn und damit die Deutung bereits in sich trägt. Information kann also nicht alleine aus sich heraus als Information gedeutet
4.2 Information und Informationsübertragung
221
werden, sondern braucht immer auch ein Gegenüber, das mit dieser Information etwas anfangen kann. Mit Bateson’s Aussage „Information ist ein Unterschied, der einen Unterschied ausmacht“ und Weizsäcker’s Definition „Information ist nur, was verstanden wird“ (Kap. 4.2.2.7) werden Ausgangspunkt (Sender) und Endpunkt (Empfänger) in den Fokus genommen und deren Ankopplungsfähigkeit betrachtet. Wiener’s Definition „Information ist nur dann eine Information, wenn sie zu einem beobachtbaren Verhalten führt“ (Kap. 4.2.2.6), setzt auf Bateson’s Beobachtungsfokus auf und führt ihn bis zu einer Handlung weiter. Wiener (ebd.) schafft darüber hinaus eine Verbindung zwischen Menschen und physikalischen Kräften mithilfe von Algorithmen. Gemein ist all diesen Aussagen, dass ein Beobachter eine Veränderung wahrnehmen kann. Bei Bateson und Weizsäcker ist dies der Empfänger selbst, bei Wiener und Schweizer (Kap. 4.2.2.10) sind dies außenstehende Beobachter. Auch für diesen dritten Zugang (Zusammenspiel Sender - Empfänger) lässt sich die neue Definition von Information anwenden. Information ist etwas, was eine Entität repräsentiert. In diesem Fall eine Entität, die sich aus zwei Einzelentitäten (Subsysteme) zusammensetzt. In diesem Fall geht nämlich die Information über die Einzelteile verloren, analog zu einem Messprozess in der Quantenphysik. Zusätzlich zur Information über eine ‚Entität in Verbindung mit ihrem Träger’ und den ‚Weg der Informationskopplung’ erhalten wir auch Information über den ‚Empfänger und seine Beziehung (strukturell und funktionell) zu der Quelle’ (üblicherweise dem Sender). Die eigentlich mögliche Informationsmenge ist nochmals reduziert auf die Übereinstimmungsmöglichkeiten mit dem Empfänger. Bateson’s Verständnis (Kap. 4.2.2.7), dass unser Wissen immer ein Wissen eines Beobachters ist, und das Verständnis von Görnitz (Kap. 4.2.2.8), dass je mehr Information wir über ein System haben, desto besser ist dieses lokalisierbar und desto weniger Information haben wir über den Rest, wird hier sehr plausibel veranschaulicht. 4.2.4.2 Ebenen der Möglichkeiten und Kontingenz Im Rahmen der Zielsetzung dieser Arbeit wurde auf die Bedeutung der Kontingenz und doppelten Kontingenz hingewiesen, die im Rahmen von SyA relevant werden sowie auf die Rolle der Wahlmöglichkeiten und der selektiven Wahrnehmung. Wie aus den Ausführungen zur Information deutlich geworden ist, lassen sich zwei Ebenen unterschieden: Erstens die Ebenen der formal vorhandenen Möglichkeiten (auch wenn wir sie nicht vollständig erkennen mögen) und zweitens die selektive Wahrnehmung dieser Möglichkeiten. Die erste Ebene entspricht der Information, die eine Entität prinzipiell aufbauen kann entsprechend Zugang (1). Die Wahrnehmungen reduzieren die Gesamtinformation auf eine spezifische Information über eine Entität entsprechend
222
4 Notwendige interdisziplinäre Erweiterung
Zugang (2) und (3) bei der Träger, Weg und Empfänger mitzuberücksichtigen sind und in der Sprache der Quantenphysik zu einer Superposition (Entität, Träger, Weg, Empfänger) führen. Sowohl die Quantenphysiker als auch die Systemtheoretiker öffnen dem Interessierten die Augen, wenn sie den Beobachter und den Kontext mit in die Beschreibung einführen. Die völlig subjektive und niemals objektive Aussage über eine Entität (System) wird aus zwei, scheinbar völlig gegensätzlichen Disziplinen hinterlegt, die mit zunehmender Betrachtung immer ähnlicher werden. Dies wird auch in Bezug auf die Kontingenz deutlich. Die technischen Überlegungen zur Informationsübertragung lassen sich in direkter Weise mit den eingangs eingeführten Kontingenz-bedingung in Übereinstimmung bringen, wohingegen die sozialwissenschaftlichen Annäherungen die doppelte Kontingenzbedingung repräsentieren. Bei der einfachen Kontingenz geht es um die Wahlmöglichkeiten (Kontingenz) in einer nicht vollständig und eindeutig erfassbaren Realität. Es sind Wahlmöglichkeiten, die nach Luhmann nicht automatisch festgelegt sind, sondern auch anders hätten sein können und von einem Beobachter / Entscheider aktiv aus Alternativen ausgewählt werden müssen (Luhmann 1991: 154). Das was dieser dann bekommt, repräsentiert genau den und nur den Informationsumfang aus dem Möglichkeitsraum einer Entität, für den er sich entschieden hat. Übertragen auf SyA bedeutet dies, dass nur Informationen in Rahmen der Fragestellung und des Denkrahmens der Beteiligten erhalten werden. Mit einem Trick, der Repräsentation „Was sonst noch möglich ist“ bzw. einem „freien Element“, lässt sich das Fenster etwas weiter öffnen, wird letztlich aber doch im Rahmen der strukturellen und funktionellen Möglichkeiten der Beteiligten liegen. Die doppelte Kontingenz (Abhängigkeit der eigenen Handlung von der erwarteten Kontingenz der anderen Beteiligten) wird bei Bateson, Weizsäcker und Wiener sichtbar, indem der Sender seine Botschaft so ausrichten muss, dass sie für den Empfänger einen Unterschied macht, der schließlich zum Verstehen und auch zur Handlung führt. Mit SyA kann die beim Empfänger vorliegende Informationsverarbeitungsart, quasi als Probehandeln, überprüft werden. Die Repräsentanten zeigen durch ihre Wahrnehmungen, inwieweit eine strukturelle und funktionelle Kopplung möglich ist (ein gemeinsamer Sinn kreiert werden kann) und wie eine geeignete eigene Aktion aussehen kann, die für alle Beteiligten zu einem erfolgreichen Ergebnis zu führen vermag. Die zunächst vorliegende Unbestimmtheit lässt sich durch das Modellieren in der SyA zu einem Faktum verändern, indem ein Realitätsausschnitt in den Vordergrund gestellt wird, der letztlich durch die Verschränkung auch nicht-lokal „strukturbildende Bedeutung“ bekommt, wie Luhmann es in seiner Systemtheorie 2. Ordnung formuliert (ebd.). 4.2.4.3 Konsequenzen aus dem Evidenz-Problem Drei Aspekte drängen sich auf: 1. Die Schwierigkeit die Phänomene (z. B. bei SyA, Intuition etc.) als tatsächlich gegeben hinzunehmen, scheint mit dem Nicht-Vorhandensein einer geeigneten
4.2 Information und Informationsübertragung
223
Theorie zusammenzuhängen. Dieser Umstand verhindert, dass die verschiedenen Informationskanäle gleichwertig untersucht werden können und die wahrnehmbare Information zur Gänze eine Wertigkeit bekommt. In diesen Zusammenhang passt auch die Tatsache, dass ohne Theorie viele wichtige Erkenntnisse gar nicht existieren würden, weil nicht nach ihnen gesucht worden wäre. Herausstechend kann als Beispiel die Quantenphysik genommen werden, die erst mit der Quantenhypothese von Planck in unsere Welt trat (näheres dazu im Kap. 8). 2. Bei SyA handelt es sich in der Regel um Einzelstichproben, die nicht wiederholt werden und wenn sie wiederholt werden, hat sich die Ausgangssituation bereits wieder verändert. Ähnlich sieht die Situation bei intuitiven Wahrnehmungen aus. Auch hier kann nicht, wie in den klassischen Versuchsmodellen, eine Intuitionserfahrung des Alltags einfach so repliziert werden. Im Grunde handelt es sich auch hier um Einzelstichproben. Die Kunst besteht also darin, die beiden Interpretationen der Evidenz – (1) das Offensichtliche bzw. das Einsichtige und (2) der Beweis bzw. der Nachweis – miteinander zu verbinden. Es geht um ein Ensemble von qualitativen und quantitativen Messverfahren. Das Offensichtliche erlebt jeder Aufstellungsteilnehmer und dieses wurde in zahlreichen wissenschaftlichen Untersuchungen bestätigt (Kap. 3.3.2). Einen Nachweis im Sinne des heutigen Wissenschaftsverständnisses mit großen Versuchszahlen hat Schlötter mit seiner Dissertation erbracht. Er konnte das Problem der Wiederholung bei gleicher Ausgangslage dadurch lösen, dass er nur Situationsaufnahmen dokumentierte und keine Erkundungs- und Lösungsprozesse vornahm. 3. Die Unterschiede in der Informationsübertragung bedürfen unterschiedlicher Versuchsanordnungen, wie sie bei Lucadou zu finden sind (Kap. 4.2.2.9). Sollte die in dieser Arbeit aufgestellte These einer quantenphysikalischen Verschränkung stimmen, hätte dies, aufgrund der Korrelation bzw. Wechselwirkung zwischen Beobachter und Quantensystem, einen nachhaltigen Einfluss auf alle Experimente, die sich mit nicht-lokalen Phänomenen oder Beziehungen beschäftigen. Der Beobachtereffekt würde sich in den Versuchen widerspiegeln und bei ungünstigem Versuchsaufbau wären die untersuchte Entität und eine vorhandene Kontrollgruppe nicht unabhängig, sondern über die Versuchsleiter und -beteiligten verschränkt. Es müssten sich dann Annäherungseffekte beobachten lassen. Konsequenterweise ist dann von einem Messproblem auszugehen, das sowohl die untersuchten Entitäten als auch Kontrollexperimente betrifft. Und als weitere Konsequenz müssten diese Experimente neu gedacht und konzipiert werden. Kahneman’s Ansatz Unsicherheit mit Statistiken (Kap. 3.2.3) zu begegnen, um damit Verzerrungen auszuschließen, ist zweifelsohne ein Ansatz, der bei großen Datenmengen adäquat erscheint. Hier ist der wissenschaftliche, quantitative Evidenzansatz auch gut anwendbar. Bei persönlicher Betroffenheit und unter Abwesenheit großer Datenmengen bleibt für die meisten Entscheider dann aber doch nur die Einzelstichprobe. Der Entscheider muss mit dem arbeiten, was ihm in der jeweiligen Situation zur Verfügung steht und das sind lückenhafte Information und seine Intuition bzw. die seiner/einer Gruppe;
224
4 Notwendige interdisziplinäre Erweiterung
eine Intuition, die noch wenig Reputation im wirtschaftlichen und industriellen Kontext hat. Unter den eben herausgearbeiteten Bedingungen, dass das Thema Evidenz so uneinheitlich verstanden und interpretiert wird, ist es schwer, die Reputation von Intuition und SyA zu verbessern (Kategorie: ‚wissenschaftliche Legitimation‘). Versuchsanordnungen und Theorien sind notwendig, die Wege finden, eindeutige Beobachtungen zu generieren, in denen wenig bis kein Spielraum für Interpretationen bleibt. Die technischen Aufstellungen sind aus meiner Sicht ideal für solche Versuche geeignet. Dort gibt es in den meisten Fällen nur ein überprüfbares JA oder NEIN auf die Frage: Was ist für den Ausfall der Technik verantwortlich und findet sich der Fehler dann auch in diesem Bereich? Eine Verschmierung ergibt sich allerdings auch dort, wo die Aufstellungsteilnehmer nur unzureichende Kenntnisse über das System haben und/oder das zu untersuchende System nicht ausreichend klar unterschieden worden ist. Können gefühlte Impulse aus SyA weitere rationalen Schlussfolgerungen so animieren, dass die Schwachstelle doch präziser abgegrenzt werden kann, so wäre auch eine solche SyA mit einem JA, im Sinne einer passenden Antwort, zu etikettieren. Gleichzeitig entspräche dieses Vorgehen dem kombinierten 5-Phasenmodell (Abb. 17), wie sie im Rahmen der Entscheidungstheorie herausgearbeitet wurde. Als weitere Konsequenz aus der Evidenzbetrachtung wird es für die Theoriebildung in dieser Forschungsarbeit notwendig, Experimente und Theorien in den nun folgenden Disziplinen zu finden, die wenig Spielraum im Spekulativen lassen, sondern möglichst klare Zusammenhänge zeigen und formulieren können. Idealerweise lassen sich starke Evidenzen mit eindeutigen, beobachtbaren Korrelationen und nachvollziehbaren theoretischen Modellen finden, um quantenmechanische Hypothesen zu hinterlegen und eine Gesamttheorie anbieten zu können. Für den Teil der Naturwissenschaften reicht dabei ein verifiziertes Gegenbeispiel aus, um heutige Modelle und Paradigmen zu verwerfen. Verständlicherweise wird sich der Fokus in den folgenden, naturwissenschaftlichen Überlegungen auf solche aktuell akzeptierten Ausnahmen richten. 4.2.4.4 Ergänzende Schlussfolgerungen Als einfachste Interpretation kann physikalische Information als Information verstanden werden, die mit physikalischen Geräten gemessen wird. Woher die Information bzw. der Impuls kommt, darf dabei zunächst offenbleiben. Sie muss nur mit physikalischen Größen in Wechselwirkung stehen. Ein Beispiel einer solchen Wechselwirkung könnte sein: Bewegung – Trommeln – Energieübertragung – Schallwellen – EM-Wellen (Ohr zum Gehirn) – EEG oder Hautleitwiderstandsänderungen – innere Bilder oder Gefühle. Wenn diese mit dem ursprünglichen Impuls korrelieren, können wir von einer physikalischen Informationsübertragung sprechen. Womit es sich um Information handelt, die auch den Zustand einer Entität (hier den Trommler) beschreibt oder das, was man über diese Entität wissen kann. Damit erhalten wir eine spezifische, dem System Trommler innewohnende Information. Es lässt sich in dieser Beschreibung ein direkter Bezug zu Fisher’s Definition herstellen.
4.2 Information und Informationsübertragung
225
„Die Menge der Information, die eine beobachtbare Zufallsvariable X über einen unbekannten Parameter θ (Theta) führt, bei dem die Wahrscheinlichkeit von X abhängt“ (Fisher 1925). Die Zufallsvariable wäre die Art und Weise des Trommelns, die direkt vom Trommler abhängt und die uns versteckte Information über den Trommler liefert (Wissen, Kompetenz, Gefühlszustand, Kraft etc.). Zum anderen kann durch das Trommeln auch eine Shannon-Information transportiert werden, entsprechend Punkt 1 der Brockhaus-Definition, nämlich durch die Form des Trommelns an sich. Es lässt sich daraus weiter ableiten, dass entsprechend Shannon’s und von Neumann’s Ansatz, sämtliche abstrakte Information, die ein System in sich trägt und den Zustand, den diese abstrakte Information definiert und beschreibt, zwischen Senderund Empfängersystemen ausgetauscht (Signale) bzw. verschränkt (quantenphysikalisch) werden kann. Durch Rückkopplungs- und Feedbackprozesse wird auf diese Weise auch eine gewisse Richtigkeit der ausgetauschten Information sichergestellt. Für die korrekte Interpretation dieser Information bedarf es jedoch einer gewissen Ähnlichkeit der Deutungssysteme, womit die doppelte Kontingenz ins Spiel kommt. Hier stellt sich zunächst die Frage, wie die Partner die Signale decodieren. Allein dadurch ergeben sich schon Grundlagen für andere Schlussfolgerungen, Entscheidungen und Empfehlungen. In der Intuitionsforschung genauso wie bei SyA ergeben sich Erkenntnisse aus leiblichaffektiven Körperregungen (z. B. Unbehagen, Schwitzen, Ärger). „Allgemein gesagt besteht das Erkenntnispotenzial solcher Leibregungen somit darin, dass sie einer Differenzerfahrung entsprechen, und Differenzerfahrungen die Grundlage von Erkenntnis sind – frei nach Gregory Bateson: Erkenntnis basiert auf der Wahrnehmung eines Unterschieds, der einen Unterschied macht“ (Gugutzer 2017: 386). Dennoch muss zunächst eine Information wahrgenommen werden. Allein dieser Vorgang hängt von verschiedenen Voraussetzungen ab, die u. a. mit den körperlichen und geistigen Fähigkeiten und mit der Interessenlage in Verbindung stehen. Das Postulat von Lucadou und Schweitzer, (Kap. 4.2.2.9 und 4.2.2.10) dass Information nur wahrgenommen wird, wenn eine strukturelle und funktionale Kopplung besteht, könnte als erste Bedingung angesehen werden. Ihre Annahme, dass damit auch gleichzeitig ein Sinnzusammenhang besteht, lässt sich über die Erfahrungen bei SyA und Intuitionsforschung nicht bestätigen. Zu viele Fehlinterpretationen der Wahrnehmungen weisen auf weitere notwendige Rahmenbedingungen hin, wofür sich der Ansatz von Görnitz anbietet. Gehen wir nun davon aus, dass eine Information wahrgenommen und Information in diesem Sinne als abstrakte Information verstanden wird, die zunächst ausschließlich neutral ist und erst mit Bedeutung hinterlegt werden muss, scheint der Prozess vollständig zu werden. Die Bedeutungsgebung der abstrakten Information lässt sich analog dem konstruktivistischen Verständnis verstehen. Bedeutet z. B. die Antwort "JA" auf eine Frage, dass der Antwortgebende mir zustimmt oder nur, dass er mir bestätigen will, dass er die Frage gehört hat? Oder in einem zweiten Beispiel: Muss ich mir wegen einem negativen Kontostand von -10.000 € Sorgen machen? Habe ich keine Arbeit und muss auch noch weitere Schulden zurückzahlen, sollte ich das vermutlich.
226
4 Notwendige interdisziplinäre Erweiterung
Bin ich aber Millionär und habe nur für einen Tag den negativen Kontostand und weiß, dass morgen wieder eine Million eingezahlt wird, dann wohl eher nicht. Das heißt, dass der Kontext und mein Wissen darüber der abstrakten Information eine Bedeutung zuordnen. Habe ich keinerlei Beziehung, Vorwissen oder ähnliches zu einem Thema (wie in dem bereits geschilderten Experiment mit der Cruise Missile), so fällt es sehr schwer die Situation vernünftig einzuordnen. Hieraus lässt sich in jedem Fall schon die dringende Empfehlung an Aufstellungsleiter ableiten, sich mit Deutungen dessen, was sich in SyA zeigt, zurückzuhalten. Er kann sich in dieser Rolle nie sicher sein, ob seine Deutungen denen des Klienten entsprechen. Selbiges gilt für die formulierten Wahrnehmungen der Repräsentanten, besonders, wenn diese über die rein körperliche Zustandsbeschreibung hinausgehen. Je weiter entfernt ich von einem zu untersuchenden System bin (mental oder erfahrungstechnisch), desto mehr Übersetzungsleistung und Analogie steckt in den von Repräsentanten wahrgenommenen inneren Bildern. Logisch weiter abgeleitet, lässt sich schlussfolgern: Alle Formen von menschlichen Codes sind einzig für einen bewussten, fehlerreduzierenden Austausch innerhalb der Spezies Mensch und als Hilfe zur Entschlüsselung der Welt um uns herum konzipiert. Solche bewusst und unbewusst entwickelten Codes funktionieren damit nur zwischen Entitäten, die einen gemeinsamen Lern- und Sozialisierungsprozess (Lebewesen allgemein) geteilt haben. Alles was darin nicht enthalten ist, bietet Potential für Nicht-Wahrnehmung, Unverständnis und Fehlinterpretation. Im Wirtschaftskontext ist diese Problematik sehr gut zwischen kaufmännischen und technischen Einheiten, zwischen unterschiedlichen Wirtschaftssystemen und Kulturen oder auch zwischen verschiedenen Hierarchien beobachtbar. Im allgemeinen wissenschaftlichen Kontext auch zwischen den Wissenschaftsdisziplinen. Und dennoch liegen die unterschiedlichsten Informationen gleichzeitig und abrufbar vor, nur ohne das jeweils notwendige und geeignete Beobachtungs- und Messgerät; keine Beobachtung bzw. Messung und damit auch keine Information. Die Beispiele aus der Aufstellung oder der Intuitions- und Entscheidungsforschung veranschaulichen, dass Informationen über eine Entität von einem menschlichen Individuum erfasst werden können, auch ohne dass es eines speziellen, externen Messgeräts oder anderer künstlicher Codes bedarf. Die Beispiele und Versuche weisen damit auf eine Ebene von Informationen hin, die wir unbewusst erfassen können, bisher aber über unsere Vorstellungen an Umfang und Verarbeitungsform hinausgehen. Sicherlich ist davon auszugehen, dass lebende Systeme solche Fähigkeiten entwickelt haben, denn eine solche Qualität unterstützt zweifellos unsere Schnelligkeit zu reagieren und als Folge unsere Überlebensfähigkeit. 4.2.4.5 Der Homo Physicus Informationstheoretisch lässt sich der Mensch als Mixed-Zustand von Quanten- und klassischer Welt ansehen, vergleichbar den Messprozessen von Quantensystemen mit
4.2 Information und Informationsübertragung
227
makroskopischer Messtechnik. Nur die makroskopische Messtechnik ermöglicht uns das Wahrnehmen von Quantenprozessen auf der Elementarebene. In Erweiterung des Homo oeconomicus in der Ökonomie, der rein objektiv-rational entscheidet, erscheint ein Verständnis hilfreicher, das von einem Homo Physicus ausgeht, indem das Zusammenspiel zwischen physikalischen Ausgangsbedingungen und psycho-sozialen Einflussprozessen repräsentiert ist. Der Mensch unterliegt scheinbar in viel umfassenderem Umfang den Gesetzmäßigkeiten unserer physikalischen Welt, die er allerdings auch nutzenstiftend für sich zum Einsatz bringen kann. Nichts widerspricht der Idee eine Verschränkung lebender Systeme, wenn die bisherigen Überlegungen zur Information herangezogen werden. Ganz im Gegenteil lässt sich daraus fast eine zwingende Notwendigkeit ablesen. Information kann eine Wirkung auslösen, die abhängig von der internen Arbeitsweise des jeweiligen Systems schließlich bis zu einer Realisierung auf der stofflichen Ebene führt. In diesem Sinne kann unter „Kollaps der Wellenfunktion Ψ“ das Entstehen eines Faktums auf der stofflichen Ebene verstanden werden. Alles, was sich vor der letztlichen, konkreten, stofflichen Manifestation ereignet, befindet sich im Stadium einer Superposition und kann damit im Prinzip noch unendlich viele Möglichkeiten annehmen. Aus den bisherigen Überlegungen zur Information wird deutlich, dass zur vollständigen Erfassung aller Phänomene, die Quantentheorie mit einbezogen werden muss, wie sie im Kontext der modernen Informationstheorie behandelt wird. Wilde reduziert die damit verbundenen Konzepte auf nur fünf, die sich sowohl aus der Quantenphysik, als auch aus der klassischen Physik herleiten (Wilde 2017: 26): 1. Indeterminismus 2. Interferenz 3. Unbestimmtheit 4. Superposition 5. Verschränkung Indeterminismus und Unbestimmtheit sind bereits ausreichend betrachtet worden. Der Indeterminismus ergibt sich aus der Tatsache, dass für Entitäten/Systeme, die quantenphysikalische Anteile haben, nur Wahrscheinlichkeitsvorhersagen für das Finden von Zuständen/Fakten getroffen werden können. Die Unbestimmtheit wiederum resultiert aus der nicht gleichzeitigen Bestimmung komplementärer Größen wie wir sie auch in der Informationstheorie finden (Struktur versus Funktion). Die verbleibenden drei – Interferenz, Superposition, Verschränkung – werden im Weiteren eingehender untersucht. Diese Themen liefern Antworten für die mittels der GT entwickelte Hauptkategorie ‚Übertragungswege‘ mit ihren Unterkategorien ‚lokal versus nicht-lokal‘, Verschränkung‘, ‚Messung‘ und ‚zwischen lebenden Systemen‘.
228
4
Wie die technischen Disziplinen von Neurowissenschaften (neuronale Netze) gelernt haben, kann die hier vorliegende Arbeit eine Möglichkeit aufzeigen, wie wir von der Physik lernen können. Sollten die weiteren Überlegungen die Thesen zur Funktionsweise von SyA und Intuition untermauern können, müssten wir wohl unser Verständnis über den Aufbau des Menschen und anderer Lebensformen und deren fundamentale Mechanismen nutzbringend erweitern. Vielleicht sind die unbelebte und belebte Natur doch näher beieinander als gemeinhin angenommen wird. Und möglicherweise ist das ‚Bewusstsein’ tatsächlich der einzige Unterschied zwischen beiden oder noch weitergedacht: Vielleicht gibt es gar keinen Unterschied zwischen beiden. Der Unterschied eines Bewusstseins erscheint uns nur als Unterschied, weil wir das Ganze noch nicht verstanden haben. Lange ist in der westlichen Welt auch davon ausgegangen worden, dass Tiere kein Bewusstsein hätten und nichts empfinden würden. Eine Ansicht, die sich für immer einfachere Lebensformen als falsch herausstellt. Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
5
Erklärungsansätze
Bevor der Schritt in die Welt der Quantenphysik tatsächlich unternommen wird, werden die im Rahmen der bisherigen Forschung erfassten Möglichkeiten noch einmal einer kritischen Prüfung unterzogen. Dies erfolgt im Sinne einer Berücksichtigung von Ockhams Rasiermesser (Rothman 2011), nach der nicht mehr als nötig für eine Erklärung herangezogen werden soll. In diesem Kapitel werden deshalb sämtliche bestehende Erklärungsansätze auf ihre Brauchbarkeit hin untersucht, inwiefern sie in der Lage sind, eine belastbare und nachvollziehbare Antwort für einen zugrundeliegenden Prozess ‚aller’ bisher aufgeführten Beobachtungen und Phänomene zu liefern. Für den Schwerpunkt der Entscheidungstheorie und Intuitionsforschung wird dabei vor allem der Unterscheidung von Woolley und Kostopoulou (Bauchgefühle, Erkennung, Einsicht) nachgegangen (Woolley und Kostopoulou 2013), wie sie bereits in Tab. 8. zum Einsatz kam. Besonders im Fokus stehen die aus dem Codierungsprozess destillierten Unterkategorien in Bezug auf ‚Bauchgefühl‘ (Tab. 2). Die Basis diese Vorgehens findet sich in Popper’s Falsifikation (Bartels und Stöckler 2007: 29), bei der versucht wird, die Theorie durch die Erfahrung zu widerlegen. Gelingt dies, muss nach neuen Erklärungen gesucht werden. Gelingt dies nicht, sollte der jeweilige Erklärungsansatz weiterhin Platz in der Modell-Landkarte erhalten. Eine Verifikation ist demgegenüber noch nicht möglich. Maximal lassen sich Hinweise ableiten, in welchen Wissenschaftsrichtungen weitere Forschungen sinnvoll erscheinen. 5.1
Bewertung bisher betrachteter Experimente
Zum Einstieg wird eine Übersicht aller bisher betrachteter Experimente gegeben (Tab. 9 - 11) und ein Versuch der Zuordnung zu Wooley’s und Kostopoulou’s Unterscheidung unternommen (Woolley und Kostopoulou 2013). Zur Erinnerung sei nochmal angemerkt, dass nach Kahneman (Kahneman 2016) und Anderen unterbewusste Körperreaktionen wie neuronale, Pupillen-, Herzvariabilitäts- oder Hautleitwiderstands-Änderungen zuverlässigere Hinweise auf zu treffende Entscheidungen liefern können, als es rein bewusste Überlegungen vermögen, und das bereits deutlich im Vorfeld eines Ereignisses. Die bisherigen Zuordnungen der Forscher sind nur Annahmen, die noch nicht mit letzter Konsequenz verifiziert sind, sondern nur plausibel im Rahmen des derzeitigen Weltbildes erscheinen. Damit existieren keine gesicherten Erkenntnisse darüber, ob Bauchgefühl, Erkennung oder Einsicht die adäquaten Beschreibungen für den zugrundeliegenden Mechanismus darstellen oder doch noch etwas anderes mitspielt. Bauchgefühl steht in der folgenden Unterscheidung für Experimente, bei denen es keine heute existenten Erklärungsmöglichkeiten gibt, bei denen es sich um physische als auch geistige Wahrnehmungen handelt für die Wiedererkennung und Einsicht ausgeschlossen sind oder die zeitlich im Vorfeld des Ereignisses gemessen wurden. Dies wird vor allem dann angenommen, wenn die Informationen, die sich beim Empfänger/Repräsen© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_5
230
5 Erklärungsansätze
tanten zeigen, keine Andockmöglichkeiten an Vorwissen und Kategorienbildung aufgrund bestimmter Merkmale aufweisen oder grundsätzlich keine Informationen vorliegen, an denen sich die Wahrnehmenden orientieren können. In die Kategorie Bauchgefühle werden die Experimente auch dann mit aufgenommen, wenn zumindest ein Teil der Experimente über Erkennung und Einsicht hinausweisen. Insofern sind Doppelkategorisierungen möglich. Tab. 9 | Zuordnung der Experimente aus Entscheidungsforschung Eigene Darstellung auf Basis der begrifflichen, aber nicht erklärungstechnischen Unterscheidung nach Woolley und Kostopoulou (2013). Die Zuordnung erfolgt nach den vermuteten Beschreibungen der jeweiligen Forscher (Kap. 3.2.3). Veränderte bzw. erweiterte Zuordnungen sind mit * markiert und gegebenenfalls unter Bemerkung kommentiert.
Beispiele aus Entscheidung 2.2.3
1. Bauchgefühl
2.2.3
Lügenerkennung*
2.2.3
Medizinische Diagnose Trader
2.2.3
2. Erkennung
3. Einsicht
Erdbeermarmelade Kurswahl Uni Posterwahl Produktauswahl Lügenerkennung
Erdbeermarmelade Kurswahl Uni Posterwahl Produktauswahl Lügenerkennung
Medizinische Diagnose
Medizinische Diagnose
Bemerkung
* kein Unterschied zw. Experten und anderen, Zunahme an Information brachte keinen Unterschied
5.1 Bewertung bisher betrachteter Experimente
231
Tab. 10 | Zuordnung der Experimente aus SyA Eigene Darstellung auf Basis der begrifflichen, aber nicht erklärungstechnischen Unterscheidung nach Woolley und Kostopoulou (2013). Die Zuordnung erfolgt aufgrund der Tatsache, dass Doppelblindkonstellationen (Kap. 3.3.3) nicht auf Erkennen und Einsicht zurückgreifen können und die Erfassung technischer Informationen nach klassischem Verständnis keine Erklärungsgrundlage besitzen.
Beispiele aus SyA 3.3.3 3.3.3 3.3.3
3.3.3 3.3.3 3.3.3 3.3.3 3.3.3 3.3.3
1. Bauchgefühl Unbekannte Halbschwester Nicht das eigene Kind Reaktion eines weit entfernten Umfeldes KFZ-Unfall Programmfehler Lastschrifteinzug Programm bricht ab Lenkflugkörper Unbewusster Primingeffekt
2. Erkennung
3. Einsicht
Bemerkung
232
5 Erklärungsansätze
Tab. 11 | Zuordnung der Experimente aus Intuitionsforschung zu Woolley und Kostopoulou. Eigene Darstellung auf Basis der begrifflichen, aber nicht erklärungstechnischen Unterscheidung nach Woolley und Kostopoulou (2013). Die Zuordnung erfolgt nach den vermuteten Beschreibungen der jeweiligen Forscher (Kap. 4.1.3). Veränderte bzw. erweiterte Zuordnungen sind mit * markiert und gegebenenfalls unter Bemerkung kommentiert.
Beispiele aus Intuition 4.1.3 4.1.3 4.1.3 4.1.3
1. Bauchgefühl
2. Erkennung
3. Einsicht
Bemerkung
Trader Intentionserfassung Drogenkurier
Drogenkurier
Feuerwehrmann
Feuerwehrmann
* Scheint mir mit Intensionserfassung vergleichbar * Kat. 2 u. 3 können sein, müssen aber nicht, typische Erklärungskonstruktion im Nachgang * Kat. 2 und 3 waren reine Vermutungen von Kahnenman und Klein
Ärzte
Ärzte
Hammer auf Stein Trader Herzschlagänderung Trader Spekulationsblase Trader Intentionserfassung
4.1.3
Drogenkurier*
4.1.3
Feuerwehrmann*
4.1.3
Kunstfälscher*
4.1.3
Ärzte Hebammen Krankenschwester
5.1 Bewertung bisher betrachteter Experimente
4.1.3
Teams im Sport*
4.1.3 4.1.3 4.1.3
Chicken Sexing Flugabwehr Verborgene Muster Antizipation zufälliger, zukünftiger Ereignisse Berater- u. Coachausbildung*
4.1.3
4.1.3
233
* Kat. 2 u. 3. spielen eine Rolle, müssen aber nicht die entscheidendste sein
* hier zeigten sich Informationen, die weder genannt wurden noch gewusst werden konnten
Die Beispiele aus Entscheidungs- und Intuitionsforschung lassen sich mindestens einer, oft aber auch mehreren Kategorien zuordnen, was für die erstaunlichen Beispiele aus der Aufstellungsarbeit nicht zutrifft, ihnen bleibt nur die Kategorie ‚Bauchgefühl’ vorbehalten. Die beiden Definitionsansätze ‚Erkennung’ und ‚Einsicht’ lassen sich zumindest nur schwer in Verbindung mit Blind- und Doppelblindaufstellungen bringen. Dass die Beispiele in Kategorie 2 und 3 in vielen Situationen auf Erkennung und Einsicht zurückgreifen, klingt plausibel. In Verbindung mit den zahlreichen Beispielen aus Kategorie 1 werden sie sich jedoch mit der neuen, noch vorzustellenden Theorie viel einfacher beschreiben lassen. Bezogen auf Chicken Sexing und Flugabwehr (Kap. 4.1.3) sei noch die Frage erlaubt, wie aus nicht vorhandenen und auch nicht subliminal vorliegenden Unterscheidungsmöglichkeiten klassisches implizites Lernen und Wiedererkennung stattfinden soll. Klassisches implizites Lernen meint hier das Vorhandensein von, mit unseren normalen Sinnesorganen, wahrnehmbaren Informationen. Subliminale Informationen gehören hier ebenso dazu. Ein Punkt am Horizont, der für das normale Sehen keine Unterscheidungsmöglichkeiten bietet, lässt sich nur der Kategorie ‚Bauchgefühl’ zuordnen.
234
5 Erklärungsansätze
5.2
Intuition als mögliche Erklärung für die Phänomene bei SyA
Ein erster Versuch Bei vielen Autoren, die sich mit Intuition beschäftigen, findet sich eine Aussage, wie sie Schmid formuliert hat: „Sowohl die Entstehung einer Intuition als auch ihre erlebensund verhaltenssteuernde Wirkung selbst entziehen sich einer Erklärung. Häufig weiß der Urteilende nicht einmal, dass er urteilt und welches Urteil als Ergebnis entstanden ist, aber er orientiert sein Erleben und Handeln daran!“ (Schmid 2010: 2). Reicherts formuliert zwei mögliche Herkunftsvarianten der Intuition, wobei er sich auf Charles Sanders Peirce beruft, der die abduktive Erkenntnismöglichkeit als erster formuliert hat. Das intuitive Wissen „wird dann entweder von einer allwissenden Entität, die das Wissen übergeben hat, oder durch den Prozess der Evolution und das (bisherige) Überleben der Menschheit verbürgt“ (Reichertz 2013: 104). Die erste Option lässt sich derzeit wohl nur philosophisch, nicht aber soziologisch, psychologisch oder naturwissenschaftlich erfassen und soll deshalb in diesem Rahmen nicht weiter betrachtet werden. Die zweite Option, die der Evolution hingegen, führt eine Möglichkeit ein, die mit heutigem Wissen sehr wohl verfolgt werden kann – die nähere Betrachtung der Prozesse, die für Leben und Überleben zuständig sind. Eine Spur, die in der weiteren Arbeit nachhaltig verfolgt werden wird. Tatsächlich ist die Bandbreite der von den Forschern genannten Erklärungsansätze im Bereich Entscheidungstheorie und Intuitionsforschung sehr weit. Diese, in der Literatur gehandelten Erklärungen, werden nun eingehend inspiziert, um mögliche erste Ansätze für SyA zu identifizieren (Abb. 28). 10. Quantenphysikalische Theorie
1. Unbewusste Wahrnehmung
9. Enterisches Nervensystem 8. Spiegelneuronen 7. Somatische Marker & fraktale Affektlogik 6. Subliminale Wahrnehmung
2. Erfahrungswissen und Heuristiken Erklärungsansätze Zur Intuition
3. Verzerrungen 4. Fuzzy-Trace-Theorie 5. Gestalt-Wahrnehmung
Abb. 28 | Übersicht zu Erklärungsversuchen aus der Intuitionsforschung (eigene Darstellung)
5.2.1
Unbewusste Wahrnehmung
Die unbewusste Wahrnehmung findet sich in verschiedenen Kommunikationsmodellen wieder, mit dem Eisbergmodell als dem wohl bekanntesten. Das Eisbergmodell geht auf
5.2 Intuition als mögliche Erklärung für die Phänomene bei SyA
235
den Schriftsteller Ernest Hemingway zurück, mit dem er die Kunst der Reduzierung zu verdeutlichen sucht: „If a writer of prose knows enough of what he is writing about he may omit things that he knows and the reader, if the writer is writing truly enough, will have a feeling of those things as strongly as though the writer had stated them. The dignity of movement of an ice-berg is due to only one-eighth of it being above water“ (Hemingway 1932: 192). Die spätere Übertragung auf bewusste und unbewusste Kommunikations- und Interaktionsprozesse führt diesen Ansatz weiter. Unterschieden werden Zahlen, Daten, Fakten auf der bewussten und Gefühle, Stimmungen, Empfindungen auf der unbewussten Ebene, wobei letztere über Körpersprache oder nicht sichtbare Anteile transportiert werden können. Für die unbewussten Signale wird in der Regel davon ausgegangen, dass das Gegenüber schwächste Reize erfasst und darauf reagiert. Neueste Forschungen können nun zeigen, dass über diese sehr schwachen Reize hinaus eine unbewusste, aber neuronal eindeutig messbare Verbindung zwischen Kommunikationspartnern stattfindet (Liu u. a. 2017). Gehirnaktivitäten korrelieren um so besser, je besser die Kommunikation gelingt. Misslingende Kommunikation zeigt demgegenüber eine Nicht-Korrelation der Gehirnareale. Auch wenn damit eine Wechselwirkung sichtbar wird, die in sogenannten ‚Spiegelneuronen’ und einer angepassten Herzvariabilität sichtbar wird, bleibt dennoch unklar, wie dieser Mechanismus vonstatten geht. Deshalb bietet die Beschreibung ‚unbewusste Wahrnehmung’ keine Auskunft darüber, wie eine Information tatsächlich wahrgenommen wird und stellt von daher nur ein Etikett und eine phänomenologische Beschreibung eines Vorgangs dar. Etwas detaillierter formuliert Hänsel als Zusammenfassung seiner Arbeit: „Phänomenologisch umfasst das Erleben intuitiver Prozesse ein hohes Maß an Unwillkürlichkeit, propriozeptive Selbstwahrnehmung, bildhaft - assoziatives Denken und inneren Dialog“ (Hänsel 2002: 192). ‚Bauchgefühle’ (‚gut feelings’) können als Kurzform dieser Phänomene verstanden werden. Über die möglichen Mechanismen gibt es heute nur Vermutungen, wie bereits herausgearbeitet wurde. Kahneman bezieht sich auf dieses Phänomen, wenn er über die Arbeitsweise von System 1 und 2 spricht: „System 1 arbeitet automatisch und schnell, weitgehend mühelos und ohne willentliche Steuerung. System 2 lenkt die Aufmerksamkeit auf die anstrengenden mentalen Aktivitäten, die auf sie angewiesen sind, darunter auch komplexe Berechnungen. Die Operationen von System 2 gehen oftmals mit dem subjektiven Erleben von Handlungsmacht, Entscheidungsfreiheit und Konzentration einher“ (Kahneman 2016: 33). Damit wird jedoch ebenfalls nichts über den vorgelagerten Prozess ausgesagt, der zu den von System 1 vorgenommenen Operationen führt. Wie in Kap. 3.2.2 herausgearbeitet wurde, ist nur offensichtlich, dass beide Systeme aufeinander Einfluss ausüben können. 5.2.2
Erfahrungswissen und Heuristik
Als ein Vertreter des Denkmodells ‚Erfahrungswissen’ kann Eric Berne angesehen werden (Berne und Hagehülsmann 1991). Nach ihm ist Erfahrung die Voraussetzung für intuitive Wahrnehmungen, wie er in der obigen Definition ausführt. Im Kontakt zwi-
236
5 Erklärungsansätze
schen Erfahrung einerseits und der Wahrnehmung von etwas Anderem andererseits kommt es unterbewusst zum Zugriff auf implizites Wissen, das dann ins Bewusstsein angehoben wird. Typische Beispiele sind Schachspieler, Piloten und Autofahrer bei denen dies nachgewiesen wurde (Dreyfus und Dreyfus 1998: 262ff; Chi u. a. 1981; Chase und Simon 1973). Dieses Muster entspricht der ‚Einsicht’ von Woolley und Kostopoulou (2013). Anlehnend am Konzept ‚Erfahrungswissen’ argumentiert Gigerenzer die Funktionsweise der Intuition mit: „1. einfache Faustregeln, die sich 2. evolvierte121 Fähigkeiten des Gehirn zunutze machen“ (Gigerenzer 2008: 26). Der wissenschaftliche Fachbegriff für Faustregel lautet Heuristik, von dem er zahlreiche Formen entdeckt hat. Bauchgefühle sind nach ihm Produkte der Heuristik und werden durch die Heuristik auf die Bewusstseinsebene gehoben (vgl. Gigerenzer 2008: 56). Dahinter steht die weiterführende Idee, dass die Situation vereinfacht wird und Informationen weggelassen werden können. Die Diagnose basiert auf wenigen Informationen und erfolgt sehr schnell. Damit ist dieser Ansatz analog der ‚Erkennung’ von Woolley und Kostopoulou (2013). Beide Ansätze produzieren Schwachstellen. Es kann Fehleinschätzungen geben, wenn falsche Bezüge gewählt werden, z. B. falscher Kontext, überholte und veraltete Informationen. Es braucht somit eine Kontinuität im gleichen Kontext, um zuverlässige intuitive Einsichten zu erhalten. An diesem Erfahrungswissen und den Fehleinschätzungen setzen auch Kahneman, Tversky und Klein an. Danach funktioniert Intuition im Zusammenspiel von System 1 und 2. „This blend corresponds to the System 1 (fast and unconscious) / System 2 (slow and deliberate) account of cognition put forward [...]“ (Klein 2008: 458). Entsprechend formuliert Klein über sein Recognition-Primed Decision Model, das auf Kahneman’s und Tversky’s Überlegungen aufbaut: „RPD model is a blend of intuition and analysis. The pattern matching is the intuitive part, and the mental simulation is the conscious, deliberate, and analytical part“ (Klein 2008: 458). Kahneman gibt dazu allerdings zu recht zu bedenken, dass mit dieser Definition eine Reduzierung auf die Alltagserfahrung des Gedächtnisses vorgenommen wird, was mit vielen untersuchten Fällen nicht in Übereinstimmung zu bringen ist (vgl. Kahneman 2016: 293). Eine dieser Schwachstelle stellt die Unmöglichkeit dar, das erfolgreiche Verhalten von Novizen und Unerfahrenen zu erklären, wie im Beispiel der Trader an der Börse und in einigen Experimenten von Dijksterhuis (Dijksterhuis und Roth 2010) zu sehen ist. Zweifelsohne lassen sich viele Beispiele finden, bei denen der Rückgriff auf Erfahrungswissen ausreicht, um das Geschehene zu erklären. Wie damit die verschiedenen Zufallsexperimente bei Tressoldi u. a., die Körpersymptome bei den Händlern lange vor
121
Unter evolvieren versteht Gigerenzer die von der Natur gegebene Möglichkeit, durch Übung bestimmte Fähigkeiten auszubilden. Evolvierte Fähigkeiten sind nicht von der Natur oder Kultur hervorgebracht.
5.2 Intuition als mögliche Erklärung für die Phänomene bei SyA
237
dem Crash, Chicken Sexing oder Flugabwehr oder gar die Blind- und Doppelblindaufstellungen erklärt werden können, bleibt mir unklar. 5.2.3
Verzerrungen
Verzerrungen beschreiben ebenfalls keinen Mechanismus, der die Körperreaktionen und Ahnungen erklären könnte. Verzerrungen wirken sich nur auf die Interpretation selbiger aus und führen zu Verfälschungen. Ausgangspunkt sind u. a. Heuristiken, Framing- und Primingeffekte, die die intuitiv gewonnenen Eindrücke verfälschen, wie Kahneman (2016), Roth (2007) und andere verdeutlichen konnten. Es geht also darum zwischen Intuition und Beurteilung zu trennen und nicht um die Intuition selbst zu erklären. Damit scheiden ‚Verzerrungen’ ebenfalls als Erklärung für das Phänomen ‚Intuition’ und damit auch für SyA aus. Sie bleiben jedoch wichtig, wenn es um die Beurteilung der aus SyA gewonnen vermeintlichen Erkenntnisse geht. Holtfort führte dazu aus: „dass zwischen verzerrten Emotionen bzw. Heuristiken einerseits und professionalisierter Intuition andererseits differenziert werden muss. Wird Intuition bspw. bei einer Entscheidung falsch interpretiert, kann sie nicht als effektive Ressource dienen“ (Holtfort 2013: 67). Damit werden auch die beiden Beispiele (Kap. 3.3.3) unbewusster Priming-Effekt und Verzerrungseffekt besser verständlich. Im ersten Fall nahmen die Repräsentanten den Wunsch als Primingeffekt auf. Im zweiten Fall hatte die Repräsentantin eine eigene Prägung und übertrug diese auf die Person, für die sie stand. Nicht verständlich bleibt zunächst dennoch, wie die Repräsentanten im Aufstellungsbeispiel einen nur gedachten Wunsch nach Untersuchung spezifischer Symptome eines Beobachters in der Aufstellung wahrnehmen konnten. 5.2.4
Fuzzy-Trace-Theorie
Die Fuzzy-Trace-Theorie (FTT) als 4. theoretisches Erklärungskonzept arbeitet im Grund mit Kahneman’s Ansatz und der Unterscheidung von System 1 und System 2 (Kahneman 2016). Dabei besteht bei System 1 die Möglichkeit ‚dumm’ oder ‚intelligent’ zu denken. ‚Dumm’ bedeutet ‚eine gedankenlose impulsive Reaktion’, wohingegen eine intelligente Reaktion sich auf ein ‚unscharfes Wesentliches’ bezieht. Menschen codieren ihre Erfahrungen nach der FTT auf zwei Arten mentaler Repräsentation, verbatim (wortwörtlich) und gist (auf das Wesentliche reduziert) (Reyna u. a. 2015), wobei sich die Entwicklung von der Kindheit bis zum Erwachsenen vom Ersten zum Zweiten vollzieht. Der Versuch alles wortwörtlich zu verarbeiten und dabei auch unwichtige Informationen mit zu berücksichtigen, führte aus Sicht der Begründer zu Interferenzen und damit zu Verzerrungen. Zudem können Fuzzy-Trace (unscharfe Spuren) mit wenig Aufwand erkannt und aktiviert werden. Adaptive Entscheider orientieren sich nach der FTT hauptsächlich an der „gist-based“ Intuition, also an den unscharfen Spuren (Reyna 2012). Auch wenn die Autoren ihre Theorie als einen neuen Intuitionismus bezeichnen und damit der Intuition eine Priorität gegenüber dem kognitiven, bewussten Denken einräumen wollen, beziehen sie sich mit ihrem Ansatz ausschließlich auf Erfahrungs-
238
5 Erklärungsansätze
werte und Gelerntes, bei dem unmittelbar erkannt wird. Konsequenterweise liefert die FTT für zahlreiche unserer Beispiele keine Erklärung und kann nur für Situationen der Wiedererkennung und der Einsicht als Möglichkeit herangezogen werden. 5.2.5
Gestalt-Wahrnehmung
Die Gestalt-Wahrnehmung (Hänsel 2002: 43–44) hat ihren Ursprung in der frühen Gestalt-Therapie und geht von einer charakteristischen Gestalt aus, die wahrgenommen wird, einem Muster, das sich von anderen Mustern unterscheidet. Eine solche Intuition nimmt Lücken, verborgene Beziehungen, Sinn und Bedeutung oder Andersartigkeiten wahr und bewegt sich an der Grenze bewusster Aufmerksamkeit. Die Wahrnehmung geschieht unbewusst und taucht plötzlich im kognitiven Bewusstsein auf, womit sie der Kategorie ‚Einsicht’ zuzuordnen ist. 5.2.6
Subliminale Wahrnehmung
Als ‚subliminal’ werden unterschwellige Wahrnehmungen (Felser 2017) verstanden, die durch visuelle, akustische und kinästhetische Signale ausgelöst werden. Die Informationen sind von ihrer Reizstärke an sich zu schwach bzw. zu kurz, um bewusst verarbeitet zu werden oder sie gehen in der Masse anderer Reize unter. Bei solchen Reizen wird gefordert, dass sie auch mit bewusst gerichteter Aufmerksamkeit nicht wahrgenommen werden können. Als weitere Option gelten Reize, denen man keine Beachtung schenkt und sie deshalb unter der Wahrnehmungsschwelle bleiben. Es handelt sich somit entweder um psychophysikalische oder um kognitive Bedingungen, die zur Nicht-Wahrnehmung führen. Dass sie dennoch wahrgenommen werden können, wird durch die Definition des Duden deutlich. Dort wird das zugehörige Adjektiv ‚sublim’ mit „nur mit großer Feinsinnigkeit wahrnehmbar“ (Duden) beschrieben. Die Geschichte über das Pferd ‚Der kluge Hans’ (Pfungst und Stumpf 1907) steht stellvertretend für dieses Phänomen. Angeblich hat das Pferd bei Zählexperimenten feinste Bewegungen seines Besitzers wahrgenommen und zur Anzeige der richtigen Zahlen genutzt. Auch wenn ein Teil der Psychologen (Uhlhaas 2008) und die Werbeindustrie (Florack 2015) behauptet, dass es sich bei einer solchen unterschwelligen Beeinflussung eher um einen Mythos handelt bzw. sie nicht wirksam und entsprechende Gesetze zum Verbot deshalb auch überflüssig seien, konnten Experimente (Kiss und Eimer 2008) entsprechende neuronale Veränderungen beobachten. Es konnte sogar gezeigt werden, dass solch unterschwelligen Beeinflussungen die bewusste, nicht aber die unbewusste Wahrnehmung tangiert (Sweeny u. a. 2009; Debner und Jacoby 1994; Silverman und Geisler 1986). Eine umfangreiche Übersicht über entsprechende Forschungen findet sich im Online Journal of Business and Media Psychology (Höpcke und Freyer 2016). Die Forscher erkannten mittlerweile, dass die Wirksamkeit einer solch subliminalen Wahrnehmung von der Erwartungshaltung und der Intention abhängt (Kiesel 2012; Marien u. a. 2012). Dies entspricht den Erfahrungen der Stellvertreter in SyA und deren gerichteter Aufmerksamkeit.
5.2 Intuition als mögliche Erklärung für die Phänomene bei SyA
239
Damit lässt sich auch das Phänomen des optischen Schnell-Lesens (Rösler 2016; Scheele 2004) verständlich erklären. Die Zielsetzung und damit verbundene Aufmerksamkeit entscheidet darüber, wo im Gehirn der subliminale Reiz verarbeitet wird. Dieser subliminale Reiz wird als Wort erkannt, die Wortketten werden entschlüsselt und die entsprechende Repräsentation im Gehirn abgerufen (vgl. Uhlhaas 2008: 41). Durch die beim Schnelllesen empfohlene Vorgehensweise122 wirken zudem Priming-Effekte geschwindigkeits- und verständniserhöhend. In jedem Fall sind Priming-Effekte bei Entscheidungsfindungen die Folge, wie sie in zahlreichen Studien nachgewiesen wurden (Höpcke und Freyer 2016; Verwijmeren u. a. 2011; Bermeitinger u. a. 2009; Karremans u. a. 2006; Strahan u. a. 2002). Die Schwierigkeit, subliminale Wahrnehmung als Erklärung heran zu ziehen, liegt deshalb nicht in der Unterschwelligkeit der Reize, sondern an dem, was heute in der Wissenschaft als Signalreiz interpretiert wird sowie in verschiedenen Versuchsanordnungen der SyA. So lassen sich die stimmigen Ergebnisse von Doppelblind-Aufstellungen in keiner Weise erklären, bei denen weder Aufstellungsleiter noch Repräsentanten irgendwelche Informationen über das System besitzen oder gar nicht wissen, für welches Element wer steht, wie Sparrer (Sparrer 2002: 180) feststellt. Zudem entziehen sich die nicht-lokalen Phänomene der Vorstellung einer klassischen Signalübertragung. Gleichwohl deuten die Beschreibungen der Stellvertreter auf genau solche Wahrnehmungen hin. Wie weit eine subliminale Wahrnehmung eine Rolle spielt und wie die Reize zu interpretieren sind, wird im Rahmen dieser Arbeit weiter untersucht. 5.2.7
Somatische Marker und fraktale Affektlogik
Das 7. Erklärungsmodell, somatische Marker (SM), zeigt sich bei positiven oder negativen Ereignissen als begleitendes Körpergefühl und dies auch bereits im Voraus. Domasio, auf den das Konzept der SM zurückgeht, vermutet eine Verbindung von Lernerfahrungen und dem emotionalen Erfahrungsgedächtnis. Bei emotional schwierigen Konstellationen liefert der Körper entsprechende Rückmeldungen: „somatic markers are a special instance of feelings generated from secondary emotions. Those emotions and feelings have been connected, by learning, to predicted future outcomes of certain scenarios. When a negative somatic marker is juxtaposed to a particular future outcome the combination functions as an alarm bell. When a positive somatic marker is juxtaposed instead, it becomes a beacon of incentive“ (Damasio 2005: 174). In weiteren Untersuchungen wurden seine Versuche (Erkennen guter und schlechter Kartendecks) exakt wiederholt (Bechara u. a. 2005) und bestätigt. Wie bereits im Rahmen der Entscheidungstheorie vorgestellt, vermochten die Teilnehmer intuitiv die richtigen Karten122
Beim Schnelllesen wird als Vorbereitung empfohlen: sich ein klares Ziel für das, was man nach dem Lesen wissen möchte, zu überlegen; Inhaltsangabe und Rückseite des Buches, bzw. Abstract lesen; querblättern und Bilder, Überschriften oder sonstige herausstechende Inhalte scannen. Im Nachgang sollte man sich in eine entspannte Haltung begeben und das Schnellgelesene sich setzen und verankern lassen, idealerweise dann noch eine Mindmap von dem Erinnerten anlegen. Der Gesamtablauf passt zu 100 % mit den Empfehlungen des erweiterten 5-Phasenmodells für Entscheidungen überein.
240
5 Erklärungsansätze
stapel auszuwählen, was neuro-physiologisch gemessen werden konnte. In vielen Fällen entschieden sie sich dann aber doch für den falschen. Zum einen scheint auch hier so etwas wie implizites Lernen stattgefunden zu haben, zum anderen zeigten sich in den Versuchen erhebliche bereits bekannte Verzerrungseffekte. Dunn u. a. (Dunn u. a. 2006) gehen zwar mit in der Überzeugung, dass Emotionen bei Entscheidungsprozessen beteiligt sind, nicht jedoch mit der Erklärung über die SM. Sie erkennen aber auch an, dass es bei SM unklar bleibt, wie die kausale Wirkkette vonstatten gehen soll. Der Ansatz der SM veranschaulicht, wie so viele andere Beispiele und Erklärungen, dass der Körper passende Signale produziert, diese jedoch missinterpretiert werden können. Er liefert jedoch keine plausible Erklärung für das Phänomen des Wahrnehmens an sich und wird deshalb auch nicht weiter berücksichtigt werden. Für sich genommen lässt sich der Begriff ‚SM’ analog zur ‚unbewussten Wahrnehmung’ setzen und als phänomenologische Beschreibung und Etikett verstehen. Holtfort führt noch die fraktale Affektlogik an (Holtfort 2013: 36–37). Mit Bezug auf Ciompi sind danach affektive Komponenten, wie beispielsweise die Intuition, wesentliche Grundlagen des Denkens, wobei sich Denken und Gefühle gegenseitig beeinflussen (Ciompi 1997). Der Affekt resultiert demnach aus inneren oder äußeren Einflüssen, produziert eine psychophysische Stimmung und stellt eine Verbindung zum Gedächtnisspeicher her. Damit unterscheidet sich ein solcher Affekt nicht wirklich von Damasio’s ‚somatischen Marker’, nur dass beim Affekt etwas mehr Emotion im Spiel sein sollte. 5.2.8
Spiegelneuronen
Einige der Beschreibungen zu Spiegelneuronen123 subsumieren unter Intuition und meinen damit die Fähigkeit, zu erfassen wie es einem anderen geht (Bauer 2006). In der Wissenschaft wird insbesondere im Bereich der Empathie- und Theory of Mind-Forschung (ToM) versucht zu verstehen, was hier passiert und welche Mechanismen zugrunde liegen. So erkannten zahlreiche Forscher den Zusammenhang zwischen erfolgreicher sozialer Interaktion und der Fähigkeit empathisch die Emotionen anderer zu erfassen und deren Gedanken und Intentionen zu begreifen (Kanske u. a. 2016, 2015; Singer 2012, 2006; Frith und Frith 2005). Auch hier ist nach wie vor unklar welcher Mechanismus zugrunde liegt (Kanske u. a. 2016). Spiegelneuronen sind nun die Kandidaten, die als Verantwortliche für diese Fähigkeit hoch gehandelt werden. Sie zählen zu den neuen spannenden Entdeckungen unserer Zeit und werden mit Phänomenen aus sozial-kognitiven Kontexten wie Lernen, Emotionen und vor allem Empathie in Verbindung gebracht. Spiegelneuronen wurden erstmals Anfang der 90er Jahre entdeckt (Rizzolatti u. a. 1999, 1996; di Pellegrino u. a. 1992). Rizzolatti und seiner Gruppe fiel bei der Untersuchung von Makaken auf, dass spezielle Neuronen (Nervenzellen) im Gehirnbereich des motorischen Cortex 124 dann feuern, wenn bestimmte zielgerichtete Handlungen durchgeführt werden. Interessanterweise 123
124
Der Großteil der folgenden Inhalte ist zum Teil wortwörtlich einer bereits 2015 erfolgten Veröffentlichung entnommen (Gehlert 2015b). Als Funktion wird dem Motorcortex das Steuern motorischer Handlungen zugeschrieben.
5.2 Intuition als mögliche Erklärung für die Phänomene bei SyA
241
auch dann, wenn diese Handlungen nur bei anderen beobachtet werden, also wenn der Makake seinen Pfleger beim Greifen nach einer Banane zusieht. Sie unterscheiden zwei Formen von Spiegelneuronen: Diejenigen, die die Handlung imitieren und diejenigen, die ein Verstehen der Handlung repräsentieren. Im Weiteren wurde auch entdeckt, dass akustische Signale, die mit bestimmten Handlungen assoziiert werden, die gleichen Aktivitäten im auditiven Cortex des Beobachters auslösten. Zunächst brachte man sie deshalb nur mit aktiver Wahrnehmung in Bezug auf Sehen und Hören in Verbindung. 1999 publizierte der Hirnchirurg Hutchison (Hutchison u. a. 1999) das gleiche Phänomen in Bezug auf Schmerz-Nervenzellen im limbischen System bei Menschen, die Schmerzen anderer beobachten. In beiden Fällen reagieren die Neuronen der jeweils gleichen Region im Gehirn eines Beobachters und ‚spiegeln’ quasi die Wahrnehmung. Es dauerte einige Zeit bis Vergleichbares auch beim Menschen beobachtet werden konnte. Erst 2005 veröffentlichte Iacoboni und seine Kollegen Untersuchungen an Menschen, in denen sie nachweisen, dass nicht nur die reine Wahrnehmung, sondern vor allem auch die dahinter liegende, äußerlich nicht erkennbare Intention wahrgenommen und im Gehirn abgebildet werden kann (Iacoboni u. a. 2005). Bis heute sind Neurowissenschaftler kontinuierlich dabei, weitere Areale des Gehirns zu entdecken, in denen Spiegelneuronen in Erscheinung treten. Eine ausführliche und tiefere Betrachtung der neueren Forschung wird in Kap. 8.3.3.4 vorgenommen. Dass die nicht-lokale Verbindung zwischen Menschen tatsächlich nicht-sichtbare Intensionen abbilden können, zeigen Untersuchungen mit 18 Monate (Meltzoff 1995) respektive 15 Monate (Sanefuji u. a. 2004) alten Kleinkindern. Die Kinder bei Meltzoff zeigen völlig andere Reaktionen, wenn ihnen Menschen oder technische Geräte etwas präsentieren. Sie können die Intentionen der Menschen verstehen und danach handeln, nicht aber die der Apparatur; bei Menschen auch dann, wenn die Intention nicht zu Ende gebracht wird und es gelingt den Kindern bereits beim ersten Versuch. Simuliert wurden Fingerbewegungen bzw. in vergleichbarer Weise Zangenbewegungen. Die Kinder unterschieden sich in ihrer Tendenz die Zielhandlungen zu produzieren, und zwar mit einer Wahrscheinlichkeit von 60 % (Menschen) zu 10 % (Apparat). Die Forscher resümierten: „persons (but not inanimate objects) are understood within a framework involving goals and intentions.“ Iacoboni’s und Meltzoff’s Ergebnisse werfen nun einige Fragen auf: Wie kann der Beobachter, respektive sein Wahrnehmungsapparat, verdeckte Informationen greifen bzw. in sich abbilden? Welcher Mechanismus liegt dem zugrunde? Wie weit geht diese Fähigkeit bzw. wo sind die Grenzen? Diese Fragen stellen sich ganz abgesehen von der Tatsache, dass wir bei den Beispielen aus der Intuitionsforschung und im Prozess der Aufstellungsarbeit viele Situationen kennen, die zumindest nicht auf einfache Weise mit Spiegelneuronen in Verbindung gebracht werden können. Als Beispiele seien Reaktionen von nicht lokal Anwesenden genannt, bzw. auf das eben schon beschriebene Wahrnehmen von abstrakten Elementen oder elektro-technische Bauteile verwiesen. Auch hier bleiben also wesentliche Fragen offen.
242
5 Erklärungsansätze
Spiegelneuronen lassen sich damit in Beziehung zu den ‚Bauchgefühlen’ bringen, auch wenn sie im Gehirn angesiedelt sind. Etwas löst einen Eindruck aus, der, zumindest auf den 1. Blick, nichts mit Wiedererkennung und Einsicht zu tun hat, sondern anderen Ursprungs scheint. Gleichwohl können Spiegelneuronen beteiligt sein, wenn soziale Systeme unter Anwesenheit des Fallbringers gestellt werden. Nach der Theorie der Spiegelneuronen vermag es vorstellbar sein, dass die Repräsentanten die verdeckten Gedanken des Fallbringers erfassen und damit spiegeln können. Das ‚Wie’ bleibt hier die finale Frage. 5.2.9
Enterisches Nervensystem – Bauchgehirn
Das Enterische Nervensystem (ENS) (das sogenannte Bauchgehirn) ist in jüngerer Zeit in den Fokus als Erklärungsansatz gekommen. Gershon erkannte bei seinen Forschungen, dass 90 % des Informationsaustausches vom enterischen (Darm) zum zentralen Nervensystem (Gehirn) verläuft (Gershon 2001). Das als zweites Gehirn bezeichnete ENS stellt mit exakt gleichen Neuronen, Rezeptoren und Wirkstoffen ein Abbild des Kopfhirns dar. Das ENS generiert und verarbeitet die Daten seiner Sensoren selbst und bildet auch die gleichen Krankheiten ab, wie Depressionen, Parkinson, Alzheimer etc. (Jenkins u. a. 2016: 407) – nur viel früher. Entsprechend werden Analysen aus dem Darm heute auch zur Früherkennung genutzt. Dass der Zustand des Darmes und vor allem die darin befindlichen Bakterien und Parasiten Einfluss auf das emotionale und kognitive Verhalten seines Trägers ausübt, konnten neue Untersuchen nachweisen (Jenkins u. a. 2016; Tillisch 2014). So konnten sowohl die Stimmung als auch die kognitiven Leistungen und Entscheidungsbildungen durch nützliche Bakterien und Probiotika positiv verändert werden und vice versa mit entsprechend anderen Bakterien. Forscher gehen heute davon aus, dass es eine Kopplung zwischen den Nervenzellen des Darmes und unseres Denkhirns gibt, wobei unser Denkhirn die im ENS anfallenden Erfahrungen als Emotionen speichert. Deshalb werden wir von den unbewussten Informationen und Erfahrungen des Darmhirns mitgesteuert und zwar vorzugsweise emotional (Jenkins u. a. 2016: 6). ‚Bauchgefühle’ und ‚Bauchentscheidungen’ hätten demnach eine durchaus reale Grundlage: „this gut–brain crosstalk have revealed a complex, bidirectional communication system that not only ensures the proper maintenance of gastrointestinal homeostasis and digestion but is likely to have multiple effects on affect, motivation and higher cognitive functions, including intuitive decision making“ (Mayer 2011). Zwischen Bauchgefühl und somatischen Markern lässt sich aufgrund dessen ebenfalls ein möglicher Zusammenhang kreieren, ebenso zu den Spiegelneuronen. Wird eventuell zumindest ein Teil der Spiegelneuronen vom ENS ausgelöst? Wie bei den Spiegelneuronen, besteht (allein schon semantisch) eine Zuordnung zu den Intuitionen, die aus ‚Bauchgefühlen’ gespeist werden. Nur sollte nach dem bisherigen Verständnis hier eher eine Wiedererkennung oder Einsicht zugrunde liegen. Eine Erweiterung auf ‚Unbekanntes’ würde zwingend eine veränderte Interpretation der dem ENS und seinen Neuronen zugeschriebenen Informationen nach sich ziehen.
5.2 Intuition als mögliche Erklärung für die Phänomene bei SyA
243
5.2.10 Quantenphysikalische Annäherung Aufgrund der Schwierigkeit bei einigen der Experimente (Trader, Flugzeugerkennung, Vorbewusstes Erkennen von Gefahren – Kap. 4.1.3) Erklärungen wie Wiedererkennung, Erfahrungswissen oder Heuristik heranziehen zu können, nehmen die Versuche kontinuierlich zu, Quantenphysik als Option in Betracht zu ziehen. Der Fokus richtet sich dabei auf Korrelation und eine damit verbundene Verschränkung über Raum und Zeit (Tressoldi u. a. 2015a; Maier und Büchner 2015; Mossbridge u. a. 2014; Busemeyer und Wang 2014; Bem 2011; Radin 2006; Schmid 2005). So haben beispielsweise Tressoldi u. a. den mathematischen Formalismus der Verschränkung (Bellsche Inequality und Non-Signaling Theorem) als Grundlage seiner Experimente genommen und zeigen können, dass die körperliche Wahrnehmung (‚Rückwärtsverursachung’) T1, korreliert ist mit dem zeitlich später eintreffenden Ereignis T2. Fast alle Autoren gehen momentan noch von einer Analogie oder Metapher in Bezug zu Quantenprozessen und noch nicht von einem tatsächlichen Mechanismus aus, obwohl sie auf die Parallelität der Phänomene hinweisen und auch erste Quantenprozesse in der Biologie erkannt wurden (dieses Thema wird später eingehend behandelt). Der Akzeptanz, das Geschehen als Quantenprozess zu interpretieren, stehen derzeit noch grundsätzliche Bedenken entgegen, wie sie Tegmark (2000) und Kiefer (2008: 106) formulieren. Sie halten die Gegebenheiten in unserem Gehirn nicht für Quantenprozesse geeignet und vermuten zu schnelle Dekohärenz. Auf die Arbeiten dieser beiden Autoren begründen sich heute die Hauptzweifel, weswegen es unabdingbar ist, die Kap. 8.2 und 8.3 für eine belastbare Grundlage zur ‚wissenschaftlichen Legitimation‘ (1. Hauptkategorie aus Codingprozess) mit heranzuziehen. 5.2.11 Conclusio zur Erklärungsansätzen aus der Intuitionsforschung Über alle Erklärungsversuche lässt sich festhalten, dass der Mechanismus, der den Experimenten und Phänomenen unterliegt, nicht vollständig klar ist. Mit Ausnahme der rein begrifflichen Metaphern, Etikette und phänomenologische Beschreibungen lassen sich Situationen darstellen, in denen verschiedene Teilaspekte der Erklärungsansätze plausibel erscheinen. Für einige erlebbare Realitäten jedoch geben die bisherigen Erklärungsideen keine finale, zumindest keine vollständige Lösung her. Aufgrund dessen werden zwei mögliche, wenngleich derzeit umstrittene Thesen formuliert: „that quantum processes are involved in human physiology or that they reflect fundamental time symmetries inherent in the physical world“ (Mossbridge u. a. 2014: 9). Mit St. Augustin lässt sich weiter feststellen: „Wunder stehen nicht in Gegensatz zur Natur, sondern nur im Gegensatz zu dem, was wir über die Natur wissen.“ (St. Augustin 354 n. Chr.)
244
5.3
5 Erklärungsansätze
Erklärungsversuche im Rahmen von SyA
Zusammengestellt aus unterschiedlichsten Disziplinen Zur Einstimmung auf die nachfolgenden Überlegungen sei nochmal auf das Besondere in SyA hingewiesen. Systemelemente (Personen, Gruppen, Ziele, Hindernisse oder andere abstrakte Elemente) werden durch Stellvertreter im Raum repräsentiert und treten miteinander in Beziehung. Die Stellvertreter treten sozusagen in Verbindung mit dem Originalsystem, sind quasi mit ihm assoziiert und oft ohne explizite oder detaillierte Informationen. Unabhängig von Zeit- und Raumdistanzen zeigen sich in den SyA Zustände und Zusammenhänge, die in außergewöhnlicher Weise mit dem Originalsystem korrelieren: bemerkenswerterweise im Anschluss an eine SyA auch rückwirkend in das Originalsystem. Im Gegensatz zu den Beispielen und Erklärungen im Rahmen der Intuitionsforschung bieten SyA einfache und gleichzeitig harte Versuchsarrangements, die es ermöglichen ‚sowohl-als auch’ Konstellationen auszuschließen. Zu den ‚sowohl-als auch’ Konstellationen gehören die in der Intuitionsforschung unterschiedenen Optionen wie ‚Bauchgefühl’, ‚Erkennung’ oder ‚Einsicht’. Wie in den Beispielen aus SyA bereits gezeigt, lassen sich ‚Erkennung’ und ‚Einsicht’ recht einfach eliminieren. SyA schließen Erklärungen auf der Basis einfacher, unterschwelliger Signale oder kompetenzabhängige Einschätzungen schlicht aus. Deshalb entziehen sie sich bisher weitestgehend wissenschaftlichen Erklärungsversuchen. Hölscher hat zu Recht auf einen „großen Erklärungsbedarf“ bzw. auf einen „Erklärungsnotstand“ (Hölscher 2003: 68) hingewiesen. Was natürlich nicht bedeutet, dass keine Versuche unternommen worden sind eine plausible Theorie zu entwickeln. Die bisher gefundenen und beliebtesten Formen der Erklärung leiten sich im Wesentlichen ab aus Soziologie, Biologie und (wenn auch weniger bekannt) aus der Physik. Ob diese Erklärungen tragen, wollen wir in diesem Kapitel untersuchen und werden den von den Naturwissenschaften und vor allem von Physikern geforderten Ansatz verfolgen: Genau hinzuschauen, um herauszufinden, welche Ansätze tragfähig sind und wo Erweiterungen oder neue Ansätze gefunden werden müssen! Vorweggenommen sei schon jetzt, dass wir dabei eine erstaunliche Beobachtung machen werden. Denn zum einen lassen sich die bekanntesten angebotenen Erklärungen eher als Beschreibung der Phänomene verstehen, also dem was wir in der Aufstellung erleben bzw. beobachten. Und zum anderen handelt es sich eher um Etikette oder Label und nicht um Beschreibung des Mechanismus. Einen Zustand, wie er bereits im Rahmen der Intuitionsforschung ans Licht trat. Obwohl in der Aufstellungscommunity die physikalischen Annäherungen unterrepräsentiert sind, nehmen die physikalischen Optionen bzw. deren Begriffe im Folgenden einen größeren Raum ein. Verständlich wird dies, wenn wir uns die Vielzahl der unterschiedlichen physikalischen Begriffe vor Augen führen, die an der einen oder anderen Stelle auftauchen (Abb. 29). Angemerkt sei noch, dass auch Spiegelneuronen bereits als Erklärungsmodell benannt wurden, nur trifft für SyA das Gleiche wie für die Experimente bei den Intuitions-
5.3 Erklärungsversuche im Rahmen von SyA
245
forschern zu: Es bleiben das ‚Wie’ und die ‚Korrelation mit abstrakten Elementen oder technischen Bauteilen‘ als unerklärliche Phänomene. 6. Quantenphysikalische Felder
5. Morphogenetische, morphische und wissende Felder
1. Systemtheorie
Erklärungsansätze Zur Intuition
4. Repräsentierende Wahrnehmung
2. Raumsprache
3. Topologischer Ansatz
Abb. 29 | Übersicht zu Erklärungsversuchen im Rahmen von SyA (eigene Darstellung)
5.3.1
Systemtheoretische Erklärung
Da die Methode ihre Ursprünge aus der therapeutischen und dort vor allem aus den systemtheoretischen Ansätzen heraus entwickelte, lag es nahe, die Erklärung zur Wirkung zunächst auch daraus abzuleiten. Dies wirft sofort die Frage auf, was unter systemtheoretisch und unter System in diesem Zusammenhang verstanden wird. Einfach formuliert ist ein (lebendiges) System – und man ging zunächst nur von lebenden Systemen aus, eine Anzahl von Elementen (Personen, Gruppen, Abteilungen, Unternehmen, Familien etc.), die miteinander in ständiger Wechselbeziehung stehen und vom Umfeld unterschieden werden können (Willke 2006; Luhmann 1991). Jede Veränderung an einem Element bewirkt gleichzeitig Veränderungen an allen anderen Elementen. Ein lebendiges System funktioniert als ein Ganzes, das mehr ist als die Summe seiner Teile. Dieser Zusammenhang ist auch unter dem Begriff der ‚zirkulären Kausalität’ bekannt und stellt eine der Grundlagen selbstorganisierter Systeme dar und mithin der Systemtheorie. In Systemen können Wirkungen eintreten, „deren Ursache wir nicht finden. Denn diese Wirkung kann aus einer Ursache resultieren, die gleichzeitig, aber für uns unsichtbar, an anderer Stelle auftritt und selbst Wirkung einer dritten Ursache ist“ (Horn u. a. 2001: 17). Man geht nun davon aus, dass es im Familiensystem (genauso wie in Unternehmen) ein verborgenes Wissen darüber gibt wie diese Wechselwirkungen zusammenhängen, was nützt und was schadet. Holitzka und Remmert bezeichnen dieses Phänomen als „systemischen siebten Sinn“ der es uns ermöglicht „auf einer unbewussten Ebene die unterschwelligen, alles andere als offensichtlichen Beziehungsgeflechte in Systemen sehr genau wahr“ zu nehmen, „die sich uns auf bewusster Ebene verschließen“ (Holitzka und Remmert 2006: 24). Sie gehen davon aus, dass dem System, also uns als Systemmitglieder, Störungen durchaus bewusst sind und wir, gesteuert durch unser Unbewusstes, in eine Ausgleichsbewegung gehen. Nach ihnen enthält der „systemische siebte
246
5 Erklärungsansätze
Sinn“ zwar das Programm, nachdem das System funktioniert, nur läuft es im Verborgenen. Die Ausgleichsbewegungen drücken sich demnach durch „Unmut“ aus und äußern „sich in unserem Verhalten und unserer Kommunikation. Denn nur diese beiden Ausdrucksmöglichkeiten stehen uns Menschen überhaupt zur Verfügung, andere haben wir nicht“ (Holitzka und Remmert 2006: 25). Dieses implizite Wissen ist also in einer Art Informationsfeld gespeichert. Mit systemischer Aufstellung schließt man sich an dieses Informationsfeld an (Horn u. a. 2001: 21). Offensichtlich ist, dass mit dem Begriff des Informationsfeldes etwas eingeführt wurde, von dem man nicht weiß was es ist und wie es funktioniert, aber man hat es zumindest etikettiert. Neben diesem grundsätzlichen Verständnis kämpfen zwei widersprüchliche Interpretationen um Deutungshoheit, bekannt als phänomenologischer und systemisch-konstruktivistischer Ansatz. Phänomenologen gehen bei ihrem Realitätsverständnis davon aus, dass wir etwas nicht ‚erfinden’, sondern ‚vorfinden’. Sie betrachten deshalb ein System ohne Konzept oder einer Änderungsabsicht – eben wie ein unbekanntes ‚Phänomen’. Deutlich wird dies mit Hellinger’schem Spruch: „Es zeigt sich was ist“ (Weber u. a. 2005). Konstruktivisten vertreten demgegenüber die Meinung, Realität wird von den Menschen sozusagen erfunden und konstruiert, daher ‚konstruktivistisch’. Das was sich zeigt, wird konsequenterweise bereits als Konstruktion des Fallbringers oder des Systems interpretiert. Darauf aufbauend wird versucht neue, funktionalere Optionen zu schaffen und den Möglichkeitsspielraum zu erweitern (ebd.). Beide gehen davon aus, dass Lösungen und neue Ziele möglich und erreichbar sind – jedoch nicht beliebig. Sie müssen im Einklang mit den systemerhaltenden Prinzipien stehen. Gemeinsamkeiten aller Schulen (Mitschrift aus der SyA-Ausbildung bei Weber 2003): ü „Die Probleme Einzelner müssen im Wirkungszusammenhang des Systems betrachtet werden. ü Jedes Verhalten, sei es auch noch so verrückt, ist in seinem System-Kontext sinnvoll. ü Der Blick des Therapeuten/Beraters richtet sich nicht mehr auf das Problem, sondern auf die Lösung. ü Lösungen sind auch in kurzer Zeit erreichbar.“ Trotz dieser Gemeinsamkeiten stehen sich beide Lager recht unversöhnlich gegenüber. Nun lässt sich abschließend festhalten, dass alle Vertreter des systemtheoretischen Ansatzes die unzureichende Erklärungsmöglichkeit ihres Ansatzes für viele Phänomene der System-Aufstellungen erkennen und akzeptieren. So entziehen sich nicht zuletzt auch die technischen Aufstellungen völlig einer systemtheoretischen Erklärung. Gerne wird deshalb auf den nächsten Erklärungsansatz zurückgegriffen – die Raumsprache. Beenden möchte ich diesen ersten Erklärungsversuch mit einem Zitat von F.B. Simon, einem der konsequentesten Vertreter der konstruktivistischen Richtung: „Aber dass jemand, der von einem System nichts weiß, aufgestellt wird und Symptome ent-
5.3 Erklärungsversuche im Rahmen von SyA
247
wickelt, die offensichtlich nicht zu ihm gehören, das ist doch sehr beeindruckend und auch aus konstruktivistischer Sicht erklärungsbedürftig. Ich habe keine Erklärung“ (Weber u. a. 2005: 43). 5.3.2
Raumsprache
Hierunter verbirgt sich das Verständnis, dass Menschen anhand der Positionierung von Personen zueinander im Raum in der Lage sind in gewisser Weise Zusammenhänge erfassen zu können und dass die Raumkoordinaten die wesentlichen beeinflussenden Faktoren darstellen. Schlötter formulierte sie in seiner zentralen Forschungshypothese (Schlötter und Simon 2005: 15): „Gibt es eine allgemeingültige nichtverbale Sprache der Stellung von Personen zueinander im Raum, die Menschen tendenziell verstehen und anwenden können?“ Seine gemessenen Ergebnisse sind beeindruckend eindeutig, seine Schlussfolgerung, dass es sich hierbei um eine „Stellungssprache“ (S. 176) handelt und damit um eine „nicht-verbale Sprache von geometrischen Positionen“ (S.186) scheint dagegen zu eng geführt zu sein und diskussionsbedürftig. Er schließt sich damit der „Transverbalen Sprache“125 von Varga von Kibéd (Kibéd 2013: 246) an, lässt aber dessen verbale Seite außer Acht und geht mit der Fokussierung auf die 'Stellung im Raum' sehr viel spezifischer auf räumliche Koordinaten. Was können wir bei SyA aber tatsächlich beobachten? Stellen wir uns eine typische Situation in Familienaufstellungen vor: die Eltern stehen direkt vor ihrem Kind (Abb. 30). Nach dem Verständnis der Raumsprache müssten in allen Konfigurationen, die sich so zeigen, die gleichen Wahrnehmungen auftreten. Geübte Aufsteller wissen jedoch aus eigener Erfahrung, dass sich die Wahrnehmungen sehr unterscheiden können: einmal werden die Eltern als sehr stärkend, ein anderes Mal gar nicht oder sogar als schwächend, bedrohend und noch vieles mehr, wahrgenommen.
Abb. 30 | Eltern und Kind in einer typischen Familienaufstellungssituation Das Kind findet seinen Platz in den meisten Fällen einer ungestörten Familiensituation in einer Position gegenüber den Eltern. (eigene Darstellung)
Interessanterweise passen die Beschreibungen in den Aufstellungen so gut wie immer zur tatsächlichen Situation der Familie. Grochowiak stellte in seiner Stellungnahme zum 125
Die transverbale Sprache umfasst nach Varga von Kibéd die verbale und nonverbale Sprache, geht aber über beide hinaus. Sie schlossen sich damit einer Idee von Hölscher an, der Aufstellungsbilder als ‚Form der verallgemeinerten Bildtheorie der Sprache’ auffasste.
248
5 Erklärungsansätze
Buch ‚Aufstellungsarbeit revisited ... nach Hellinger’ (Grochowiak 2006: 8) diesen Sachverhalt sehr deutlich heraus und veranschaulicht dies mit einigen Beispielen. Da sich wie hier illustriert, in vielen SyA zeigt, dass bei unterschiedlichen Kontexten aber scheinbar gleicher räumlicher Zuordnung sehr unterschiedliche Wahrnehmungen durch die Repräsentanten erfolgen, ist eine einfache Erklärung mithilfe der Raumsprache nicht ausreichend. Was also verursacht den Unterschied, den Repräsentanten in unterschiedlichen Kontexten erfahren? Jedenfalls nicht die Raumsprache. Bezogen auf die überaus signifikanten Ergebnisse von Schlötter in seiner Dissertationsarbeit scheint mir seine Erklärung und Schlussfolgerung nachvollziehbar. Er hat sinnvollerweise immer die gleiche Aufstellung und damit den gleichen Kontext untersucht, um die Frage der Reproduzierbarkeit durch beliebige Repräsentanten zu erforschen (Schlötter und Simon 2005: 13). Da er mit der zu untersuchenden Hypothese der Raumsprache in seine Forschung eingestiegen war, die Aussagen der Repräsentanten ebenfalls hierzu passten, musste er seine Hypothese bestätigt finden. An sich handelt es sich somit um ein Phänomen der Interpretation und mit Kahneman (Kahneman 2016) gesprochen um eine ‚theorieinduzierte Blindheit’ (Kahneman 2016: 340) oder einen ‚WYSIATI-Effekt‘ (What you see is all there is) (Kahneman 2016: 113). Seine Aufstellungen in China zeigen jedoch räumliche Verschiebungen bei ansonsten inhaltlicher und emotionaler Übereinstimmung (Schlötter 2018). Mit dieser Beobachtung lassen sich zwei Thesen formulieren: 1. Die reine Raumsprachen-Interpretation ist auch von ihm selbst nicht bestätigbar. 2. Die Raumsprache könnte einen kulturabhängigen Anteil enthalten. Letztere weist auf einen, bei der Interpretation der Wahrnehmungen zu beachtenden Aspekt hin, wie er bereits erkannt und zukünftig berücksichtigt werden muss. Mit einem erweiterten Theorieansatz führt Baecker bei seiner Erklärungsvariante das Theorem der Selbstähnlichkeit und fraktale Strukturen ein (Baecker 2007: 9). Er beantwortet die Frage „wie es sein kann, dass Stellvertreter eine Struktur realisieren können, die sie nicht kennen können.“ auf folgende Weise: „Die Antwort auf diese Frage kann entsprechend dem Theorem der Selbstähnlichkeit nur lauten, dass die Stellvertreter die Struktur zwar nicht kennen, sie jedoch in dem Moment realisieren können, in dem sie durch den Fallbringer so positioniert werden, dass sie über die beiden Variablen der Position und der Ausrichtung in den Stand gesetzt werden, selbst ein Teil der Struktur zu sein, die sie realisieren“ (ebd. 10). Diese Idee wird von ihm aber sofort wieder verworfen, indem er darauf hinweist, dass dieses mechanistische Bild aus der Newton’schen Physik sofort in die Irre führt, wenn angenommen wird, dass es einen fixen Bezug zwischen Körper und Raum geben soll. Stattdessen führt Baecker auf den Feldbegriff des Sozialen, der in Kombination mit dem Formbegriff des Individuums, jede Position mit einer Vielzahl von Informationen koppelt, die leider nicht zu erfahren sind. Von der europäischen Tradition eines „reflektierenden Raumbegriffs“ wechselt er zu einem „operativen Raumbegriff“(ebd.), der als Ergebnis von Unterschiedsbearbeitungen, Aussagen über Systemstrukturen liefern kann, die mit dem untersuchten System
5.3 Erklärungsversuche im Rahmen von SyA
249
korrelieren. „Wenn ein Raum aus Unterscheidungen, Grenzziehungen und Grenzüberschreitungen entsteht und nicht etwa ihnen voraus liegt, dann enthalten die Position und Ausrichtung im Raum, interpretiert im Rahmen der Rückmeldung von Stellvertretern und Fallbringer, partiell (!) bereits alle (!) Informationen 126, die strukturell über diese Personen und Aspekte und ihre Stellung zueinander in einem System zu bekommen sind“ (ebd. 12). Im Verständnis von Schlötter scheint eher der ‚reflektierende Raumbegriff’ gemeint zu sein (Schlötter und Simon 2005: 176), da in seiner Versuchsanordnung keine Prozessarbeit vorgenommen wird, sondern die Repräsentanten nur bereits Gefundenes wahrnehmen und verifizieren sollen. Der Raum entspricht somit dem vorgefundenen, phänomenologischen Zustand. In Baeckers Verständnis (ebd. 12) stellt der Raum dagegen eine für die beteiligten Repräsentanten und Beobachter lesbare Abbildung des untersuchten Systems dar und wird zu einer operativen, gestalterischen Funktion. Aus der systemisch-konstruktivistischen Perspektive erscheint diese Interpretation, mit Bezug auf die Prozess- und Lösungsarbeit, hilfreicher. Das Gesamtsystem der SyA verhält sich entsprechend einer unbewussten Logik und Codierung, die möglicherweise kulturabhängig (siehe Schlötter’s Experimente in China), in jedem Fall aber kohärent aufeinander bezogen sind. Aber auch dieser Theorieansatz liefert keine Plausibilität über die Stimmigkeit der Korrelation zwischen Ursprungssystem und Repräsentant, wenn wir auf technische Systeme reflektieren. Und er liefert ebenfalls keine Plausibilität, wenn wir Blind- und Doppelblindaufstellungen betrachten, bei denen die Repräsentanten sich selbst die Plätze suchen und eben nicht durch den Fallbringer positioniert werden. Diese Positionierung durch den Fallbringer ist der Ausgangspunkt von Baecker’s Überlegungen und wird damit auch zur Antithese seines Ansatzes (Baecker 2007: 12). 5.3.3
Topologischer Ansatz
Einen weiteren Ansatz aus dem Wissenschaftsfeld der Soziologie hat Latka (Latka 2006) angeboten. Er stellt „Soziale Systeme als topische Systeme“ vor. Danach ist im Verständnis von Kitaro Nishida (japanischer Philosoph, 1870 - 1945) mit „Ort stets die gesamte Begriffspalette von Raum, Feld, Klima, Atmosphäre“ gemeint. „Die Ortlogik folgt im Urteil nicht der subjektorientierten Logik ‚S ist P’, sondern geht aus von der Form ‚S ist in P‘. Damit will Nishida die aristotelische Trennung von Materie und Form umgehen, zugunsten eines konkreten prädikativen Feldes.“ „Raum und Zeit gehören dabei ebenso zusammen“ (ebd.). „In topischen Systemen ist der Raum ‚zwischen Mensch und Mensch’ nicht leer, sondern - so seltsam das auch klingen mag – gefüllt“ (ebd.), wie wenn zwischen allen ein Feld existieren würde. „Das sich in der Aufstellung entwickelnde Feld drückt sich im Einzelnen aus, genauso wie der Einzelne das Feld selbst ausdruckshaft bestimmt.“ Weiter führt er aus: „Die wohl bemerkenswerteste Eigenschaft topischer Elemente ist es, 126
Seinen Informationsbegriff bezieht er auf die von Shannon 2000 vorgeschlagene Selektion der Information, welcher im Kap. 4.2.2 zu Information, Energie, Materie behandelt wurde.
250
5 Erklärungsansätze
dass sie für das gemeinsam aufgespannte Feld durchlässig sind. Das Verbindende ist also zugleich das Durchdringende.“ […] „So könnte man formulieren: Ein topisches System kann deshalb durch Stellvertreter hergestellt werden, weil diese in ihrer Aufstellung dieselben topischen Beziehungen herstellen können, wie das Originalsystem“ (ebd.). Dieser Ansatz wird uns im Weiteren noch beschäftigen. Die Frage, die sich stellt, lautet: Handelt es sich hier um eine reine Analogie oder doch um das tatsächliche Geschehen wie es in der Quantenphysik verstanden wird? Auch dort ist der Raum zwischen verschränkten Teilsystemen nicht leer. Und haben wir es hier bereits mit einem intuitiv richtig erfassten Zusammenhang zu tun, wie ihn Capra in seiner Gegenüberstellung von westlicher Wissenschaft und östlicher Philosophie bereits aufgezeigt hat (Capra 2010)? Des Weiteren findet sich diese Form des allgemeinen Verständnisses auch in der japanischen Sprache, die keine konjugierte Form der Verben verwendet und deshalb ohne Subjekt und Objekt auskommt. Es heißt also nicht „Ich liebe Dich“, sondern nur „lieben“ (ebd.). Der Begriff „lieben“ spannt sich demnach bereits zwischen den Beteiligten auf. „In der japanischen Sprache ist der Kontext Teil des Sprechens und kann gar nicht ausgeklammert werden. Das Gesprochene wird nur durch diesen Kontext, auf den der Sprechende angewiesen bleibt, verständlich. Eine europäische Sprache kennt zwar auch den Kontext, der aber wird – quasi als Zeichen des Mangels – nur bemüht, wenn die satzinterne Grammatik nicht mehr hergibt“ (Latka 2006). Der topologische Ansatz schließt also ebenfalls an der räumlichen Idee an. Sein räumliches Verständnis bildet sich darüber hinaus auch in der Sprache ab. Raum und Interpretation bringen daraus abgeleitet die Phänomene der SyA hervor und lassen die implizit vorhandenen Informationen durch die Repräsentanten in Erscheinung treten. In diesem japanischen Sinn kann in der Aufstellungsarbeit, der Therapie, der Kommunikation oder anderen Formen der menschlichen Interaktion, das Verhalten von Personen und Gruppen nur vor ihrer Position und dem Raum dazwischen verständlich werden und sollte mitbedacht werden. Als interessante Analogie kommt dieses topologische Konzept dem aktuellen Verständnis der Physik in zweifacher Weise nahe. So könnte der obige Absatz „In topischen Systemen ist der Raum ‚zwischen Mensch und Mensch’ nicht leer“ (ebd.) fast vollständig einer quantenphysikalischen Beschreibung entnommen sein. Des Weiteren würden die Physiker den oben ausgeführten Zusammenhang von Raum und Zeit als 'Raumzeit' benennen. Eine weitere Analogie zur Physik, in diesem Fall zur Einstein'schen Relativitätstheorie. Die Trennung von Raum und Zeit kann nur als Näherung in der klassischen Physik angewandt werden, auch wenn sie für uns so real und manifest erscheinen mag. Die Phänomene in der SyA entsprechen ebenfalls nicht dem klassischen Verständnis, sondern eher dem der modernen Physik. Auch dort kann eine Trennung zwischen Systemelementen nur als Näherung angenommen werden. Auch wenn im Grundsatz der Raumbezug in Latka’s Überlegungen im Mittelpunkt steht, wird der Kontext und die Sprache implizit mit eingewoben. Jedoch auch hier bleibt die Frage unbeantwortet: Was also verursacht den Unterschied, den Repräsentanten erfahren? Ist die rein metaphorische Interpretation tatsächlich ausreichend?
5.3 Erklärungsversuche im Rahmen von SyA
5.3.4
251
Repräsentierende Wahrnehmung
Der Begriff, der sich zur Beschreibung des Geschehens bei Aufstellungen eingebürgert hat, heißt ‚repräsentierende Wahrnehmung’. Er wurde von Varga von Kibéd und Sparrer eingeführt und ist in den allgemeinen Sprachgebrauch übernommen worden. Weitere von ihnen definierten Begriffe zur Unterscheidung wie ‚rezeptive Feldwahrnehmung’, ‚interagierende Feldwahrnehmung’ und weitere konnten sich nicht in gleichem Maße durchsetzen (Kibéd 2013: 224–227). Von den zahlreichen und differenzierten Überlegungen der beiden Autoren sollen nur einige für unsere Untersuchung relevante Aspekte aufgegriffen werden. Ihre Definition der repräsentierenden Wahrnehmung lautet wie folgt: „die spontane Modifikation der körperlichen Selbst- und Fremdwahrnehmung (einschließlich der Modifikation der Körperempfindungen), die Mitglieder eines Modellsystems in guter Entsprechung zu Beziehungsqualitäten, (Möglichkeiten von) Befindlichkeitsänderungen, Strukturen, Kontextbezügen, Veränderungstendenzen und Choreografien (der Veränderung) des modellierten Systems erfahren“ (Kibéd 2013: 202). Sehr deutlich wird in ihrer Definition die phänomenologische Beschreibung, womit sie das Beobachtbare in Worte fassen und durch zwei prägnante Begriffe ‚repräsentierende Wahrnehmung’ sehr anschaulich, kurz und gleichzeitig einprägsam etikettieren. Mit der zentralen Fokussierung auf die „spontane Modifikation der körperlichen Selbstund Fremdwahrnehmung“ (ebd.) wird Außenstehenden sofort ein klares Bild vom Geschehen vermittelt. Man hat eine Vorstellung bekommen, ohne den dahinterliegenden Mechanismus verstehen zu müssen oder zu kennen. Sehr viel Wert legen die beiden Autoren bei ihren Erläuterungen auf die Feststellung, dass es bei der repräsentierenden Wahrnehmung um einen unterschiedsbasierten Begriff geht, und zwar in Bezug auf Choreografien, damit örtlichen Positionen und die Bewegung dazwischen und das was es bei den Repräsentanten auslöst („Befindlichkeitsänderungen“). Sie beziehen ihren „Wahrnehmungsbegriff auf relationale Aspekte und auf Unterschiede und nicht auf (absolut genommene) Eigenschaften (von Systemelementen etc.)“ (ebd.). Auch hier kann man bei genauem Hinsehen die Erkenntnis gewinnen, dass die scheinbare Selbstverständlichkeit, nicht so selbstverständlich ist. Im ersten Moment scheint es so, dass Weber und andere nicht auf Unterschiede achten würden. Worauf beziehen sich Varga von Kibéd und Sparrer mit ihrem Unterschiedsverständnis aber tatsächlich? Weber fragt gerne zu Beginn wie es den Stellvertretern an ihren Plätzen geht. Varga von Kibéd und Sparrer hingegen fragen in der Regel nach Unterschieden, die während des Hinführens an die Plätze wahrnehmbar werden. Scheinbar geht es ihrer Interpretation nach bei Weber eher um Eigenschaften und bei ihnen um die besagten Unterschiede. Nur, wie kann ich eine Antwort auf die Frage von Weber geben – wie es mir an dem Platz geht – wenn ich diese Antwort nicht in Beziehung zu anderen Situationen bringe, die ich schon erlebt habe? Ich fühle mich stark, schwach oder sonst wie, steht natürlich in Bezug zu etwas anderem, nur in diesem Falle verwenden die Stellvertreter ihr inneres Bezugssystem als Referenzrahmen. Das was von ihnen beschrieben wird, wird abgeglichen mit etwas Bekanntem und ist ebenfalls
252
5 Erklärungsansätze
eine Unterschiedsbeschreibung. Ich fühle mich stark oder schwach im Unterschied zu dem, womit ich es vergleiche. Im Allgemeinen wird der dafür verwendete Bezugsrahmen nicht sichtbar und damit transparent nachvollziehbar. Varga von Kibéd und Sparrer verzichten auf diesen ersten, inneren Bezugsrahmen. Ob das für die SyA und was mit ihr erreicht werden soll hilfreich oder weniger hilfreich ist, soll hier nicht weiter untersucht werden. Wichtig festzuhalten ist nur, dass es in allen SyA um Wahrnehmung von Unterschieden geht. Wichtig deshalb, weil wir auf die Frage, wie es zur Wahrnehmung von Unterschieden kommen kann, ja letztlich eine Antwort suchen. Den Bezug zur Sprache finden wir ebenfalls bei Sparrer und Varga von Kibéd. SyA werden hier als 'transverbale Sprache' und Gruppensimulationsverfahren angesehen. Transverbale Sprache definieren sie wie folgt: „denn sie umfasst die verbale und nonverbale Sprache, geht aber über beide hinaus, da nur die ganze Gruppe der RepräsentantInnen, in Kooperation mit KlientInnen und LeiterInnen, als SprecherIn des Transverbalen angesehen werden kann, während die Einzelpersonen zu Teilen dieser Sprache werden.“ Das Gruppensimulationsverfahren „ermöglicht eine außerordentliche Form von Modellbildung und erfüllt damit Korzybskis zentrales Kriterium der Sprachlichkeit. Dabei werden Personen als RepräsentantInnen zu Nomina, ihre Anordnungen und Körperempfindungsunterschiede zu Adjektiven, Adverbien und relationalen Prädikaten, die einzelnen Aufstellungsbilder damit zu (komplexen) Sätzen, die Aufstellungen als Ganzes zum Text als (strukturierter) Satzfolge“ (Kibéd 2013: 245–246). Die Erkenntnisse ergeben sich demzufolge aus der Sprache, die sich wiederum aufbaut aus Repräsentanten, deren Anordnungen und Körperempfindungen und eben der in Beziehung zueinander gesetzten Bewegung. In ihren Ausführungen wird der Versuch unternommen, eine Definition der Art und Weise des Umgangs mit SyA und der Interpretation der Bilder und Phänomene anzubieten. Wir finden hier eine auf der Soziologie basierte Auseinandersetzung mit den Erscheinungen der Phänomene. Insbesondere in ihrer Eingangsdefinition der ‚repräsentierenden Wahrnehmung’ wird deutlich, dass das Phänomen als solches einen Namen bekommen hat und mithilfe ihrer Definition genau spezifiziert wurde. Auch hier bleibt die Frage unbeantwortet: Was also verursacht den Unterschied den Repräsentanten erfahren, wenn sie Gleiches in SyA tun, nur eben in unterschiedlichen Kontexten? Wie also kommt es zu den wahrgenommenen Impulsen und wie werden sie ausgelöst? Weber, Varga von Kibéd und Sparrer verbinden mit der repräsentierenden Wahrnehmung den Gewinn von Erkenntnissen bzgl. Beziehungen und Dynamiken des dargestellten Systems. Insofern ähnelt die Interpretation anderen Darstellungsverfahren wie Psychodrama, Familienskulptur oder Soziogramm. Wie erfahrene Aufsteller jedoch wissen, gehen die gewonnenen Erkenntnisse oft weit darüber hinaus. Erfolgreiche neuere Formen von SyA haben mittlerweile deutlich gemacht, dass die Fokussierung auf Beziehungsthemen und deren soziale, interpersonelle Aspekte nur einen Teil des Ganzen repräsentieren. Darüber hinaus kann auf alle möglichen Formen von technischen Bauteilen oder andere abstrakte Elemente erweitert werden, bis hin zu absoluten Informationen, wie sie unter Kap. 3.3.3 vorgestellt wurden.
5.3 Erklärungsversuche im Rahmen von SyA
5.3.5
253
Morphogenetische, morphische und wissende Felder
Der Begriff ‚Morphogenetisches Feld’ wird in der Biologie verwendet und beschreibt die Möglichkeit von Signalmolekülen, sogenannte Morphogene, über unterschiedlich große Reichweiten Gene zu aktivieren, um dadurch bestimmte Muster und Formen auszubilden. Die Reichweite hängt dabei von der Stärke der Konzentration an Morphogenen ab. Prigogine beschreibt diesen Sachverhalt in folgender Weise: „Einer der interessantesten Aspekte der dissipativen Strukturen ist zweifellos ihre Kohärenz. Das System verhält sich danach als ein Ganzes, so als wäre es der Sitz von langreichweitigen Kräften. Obwohl die Wechselwirkungen zwischen den Molekülen nicht über eine Reichweite von einigen I0-8 cm hinausgehen, ist das System so strukturiert, als wäre jedes Molekül über den Gesamtzustand des Systems 'informiert' [...]. Embryologen haben vor langer Zeit den Begriff des morphogenetischen Feldes eingeführt und die Hypothese aufgestellt, dass die Differenzierung einer Zelle von ihrer Position in diesem Feld abhängt. Doch wie ‚erkennt' eine Zelle ihre Position? Eine vielfach diskutierte Idee ist die eines ‚Gradienten’ einer charakteristischen Substanz, eines oder mehrerer ‚Morphogene'. Derartige Gradienten könnten in der Tat durch symmetriebrechende Instabilitäten unter weit vom Gleichgewicht entfernten Bedingungen entstehen. Einmal entstanden, kann ein chemischer Gradient für jede Zelle eine andere chemische Umgebung schaffen und so jede von ihnen veranlassen, eine spezifische Reihe von Proteinen zu synthetisieren. Dieses heute vielfach untersuchte Modell scheint mit zahlreichen experimentell untersuchten Fällen [...] übereinzustimmen“ (Prigogine und Stengers 1993: 171–172). Prigogine’s Vorliebe für die stoffliche Interpretation fokussiert auf die Entwicklung von Zellen und auf deren Austausch untereinander. Er gibt uns damit keinerlei Möglichkeit, darüber hinausgehende Phänomene der Informationskorrelation, wie wir sie in SyA erleben, zu begründen. Seine phänomenologische Beschreibung „Das System verhält sich danach als ein Ganzes [...] als wäre jedes Molekül über den Gesamtzustand des Systems ‚informiert‘“ (ebd.), öffnet jedoch Überlegungen, wie sie Sheldrake eingebracht hat, auch wenn diese Wechselwirkungen weit über die physikalisch-chemische Reichweite von 10-8 cm hinausgehen. Gehen die meisten Biologen nämlich heute davon aus, dass diese Signalmoleküle stofflicher Natur sind, so z. B. bestimmte Proteine, so interpretiert Sheldrake sie als Informationsfeld und unsichtbare Entwürfe (Sheldrake 1999: 356–358). Als Analogie führt er unterschiedlich gebaute Häuser an, und dass ihre unterschiedliche Form nicht durch die Baumaterialien entstehen, sondern durch die Idee dahinter. Er greift den Begriff des ‚morphogenetischen Feldes’ zwar auf, entwickelt ihn aber weiter. Er vermutet, dass ihre Eigenschaften über normale physikalische und chemische Phänomene hinausgehen. Sheldrake schreibt ihnen die Fähigkeit zu, Gestalt anzunehmen und sich wie Organismen zu entwickeln. Zudem enthalten sie ein immanentes Gedächtnis aufgrund eines Prozesses, den er ‚morphische Resonanz’ nennt. Da er davon ausgeht, dass sie Teil einer größeren Familie von Feldern sind, leitet er daraus seinen Begriff des ‚Morphischen Feldes’ ab.
254
5 Erklärungsansätze
Dieses wiederum steht in Zusammenhang mit dem in der Aufstellungsszene ebenfalls sehr populären Begriff des ‚Wissenden Feldes’. Der Begriff ‚Wissendes Feld’ geht wohl auf Albrecht Mahr zurück. Er hat in seinem Vortrag auf der ‚Ersten Arbeitstagung des Familienstellens’ in Wiesloch (Mahr 1997) den Begriff eingeführt und ihn mit Sheldrake's ‚Morphisches Feld’ in Beziehung gesetzt, beziehungsweise seinen Begriff des ‚Wissenden Feldes’ durch Sheldrake’s ‚Morphisches Feld’ erklärt: „Familienaufstellungen als morphische Felder. Das Kraftfeld einer Aufstellung können wir am besten mit dem Begriff des englischen Biologen Rupert Sheldrake vom „morphischen Feld“ verstehen: die gesamte Natur vom Photon über die Schneeflocke, die Lebewesen und Familien bis hin zu Planeten und Galaxien ist durch Felder organisiert, in deren Einflussbereich die zugehörige Energie in jeweils spezifischer Weise gebunden und gestaltet wird. Durch diese organisierenden Energiefelder entstehen die Formen sowie die physischen und geistigen Eigenschaften aller Erscheinungen - und dabei sind zwei Feststellungen besonders wichtig: zum ersten enthält das Feld ein Gedächtnis von seiner Geschichte; und zum zweiten tritt es mit anderen Feldern in Resonanz und lernt und entwickelt sich fortwährend. Bezogen auf ein Familiensystem und dessen Aufstellung heißt das: In einer Aufstellung ist das gesamte Wissen über die Entwicklung dieser Familie und ihrer Vorfahren im Guten wie im Schlimmen - enthalten. Und wir können mit dem Guten wie mit dem Schlimmen dieses Wissens in Verbindung treten durch Resonanz: unsere Haltung, unsere geistige Ausrichtung gegenüber diesem System bzw. seiner Aufstellung bringt gleichsinnige Inhalte des Systems zum Klingen - das nennt Sheldrake „Morphische Resonanz“ - d. h. sie werden sichtbar, fühlbar, kurzum: wahrnehmbar. Wahrnehmbar für alle an einer Aufstellung Beteiligten, die ja bereit sind, sich diesen Resonanzphänomenen in der Teilhabe an einem fremden Feld zu öffnen. Ein Feld antwortet uns also auf der Ebene, auf der wir es fragen, wir treten in Wechselwirkung mit dem Feld dort, wo wir selbst stehen: wenn wir bereit zu neuer Einsicht und aus unserem Herzen heraus fragen, so macht das Feld uns einsichtiger und weiser als wir es zuvor waren - so dass wir gelegentlich überrascht sind, was da plötzlich aus uns herausgekommen ist. Jurek Becker sagt in seinem letzten Interview, 4 Wochen vor seinem Tod (Spiegel 13/97 v. 24.3.97): „Ich lese manchmal Texte von mir und komme zu dem Schluss: eigentlich sind diese Texte intelligenter als ich es bin. Und ich frage mich, wie das möglich ist - ich habe sie doch geschrieben, da war kein Dritter in dem Geschäft dabei. Wer weiß, vielleicht doch - ein wissendes Feld, das sich ihm öffnet, wenn er sich ihm seinerseits ganz gesammelt öffnet“ (Mahr 1997). In Anbetracht dessen, dass das ‚Morphogenetische Feld’ auf letztlich stoffliche Informationsweitergabe fokussiert, um verschiedene Prozesse innerhalb von Lebewesen zu erklären, schließt es sich für raum-zeitliche Dimensionen aus. Zumindest gibt es bis heute keinen Ansatz, der stofflichen Informationsaustausch über Raum- und Zeitgrenzen erklären könnte, wie wir es in der SyA erleben. Weitere Möglichkeiten, innerhalb von lebenden Systemen Informationstransport zu realisieren, werden im Kapitel zu biologischen Systemen untersucht.
5.3 Erklärungsversuche im Rahmen von SyA
255
‚Morphisches’ und ‚Wissendes Feld’ weisen einen identischen Ausgangspunkt auf. Beide stellen mit ihren Ansätzen den auftretenden nicht-lokalen Effekten bei SyA Rechnung, bei denen Information nicht auf stofflichem Weg vermittelt wird. Sheldrake verband mit seinem Begriff sehr tiefe wissenschaftliche Überlegungen, fand in der Wissenschaftswelt jedoch wenig Akzeptanz für seine Idee, da sie bis heute nicht verifizierbar ist. Obwohl er wohl immer noch die Idee eines völlig neuartigen Feldes für möglich hält, das nicht durch die Physik beschrieben wird, konnte er nach längerem Zögern doch die quantenphysikalische ‚non-local Theory’ als mögliche Erklärung mit seinem Ansatz in Verbindung bringen: „dann könnten morphische Felder im Sinne der Quantentheorie neu interpretiert werden. Dies würde auf eine enorme Ausweitung der Quantentheorie hinauslaufen, die dann auch die biologische und die soziale Organisation umfassen müsste. Das kann durchaus ein Schritt sein, den die Physik tun muss“ (Sheldrake 1999) Er fand mit seinen Überlegungen außerordentlich kompatible Ansätze bei David Bohm (Bohm und Hiley 1982), Amit Goswami (2013) und Hans-Peter Dürr (Duerr u. a. 2012). Alle drei sind namhafte Quantenphysiker, deren Interpretationen allerdings im Widerspruch zum quantenphysikalischen Standardmodell stehen. ‚Morphisches’ oder ‚Wissendes Feld’ repräsentieren aktuell nur eine phänomenologische Beschreibung bzw. Etikettierung, mit dem ‚morphischen Feld’ als grundlegenden Ansatz. Die Schwäche dieses Ansatzes liegt in zwei Aspekten: Zum einen konnte er bis heute noch nicht verifiziert werden. Er befindet sich von daher zunächst noch im Status der Hypothesenbildung. Zum zweiten bieten er noch keine Antwort auf die Frage, weshalb nicht jeder Mensch in jeder Situation auf diese Informationen zugreifen kann. Bisher benötigt es noch spezielle Arrangements, um die Phänomene der SyA zu erzeugen, zumindest bei den meisten Menschen. Die Erkenntnisse aus der Intuitionsforschung, bei deren Experimente es analoge Bedingungen gibt, weisen hier einen Ausweg. Es scheint auf unsere mentale Ausrichtung (Erwartungen, Ziele, Intentionen, Empfangsbereitschaft) anzukommen. Damit bleiben mit ‚Morphischem’ und ‚Morphogenetischem Feld’ zwei Kandidaten im Rennen, die allerdings noch Erweiterungen bezogen auf ihren Erklärungsrahmen bedürfen. 5.3.6
Erklärungsversuche im Rahmen der Quantenphysik
Nach der jetzt folgenden ersten Eruierung werden die Themen im Kap. 8 genauer erforscht. Quanten-, Vakuum-, Null-Punkt-, Psi-, Skalar- und Vektor-Feld Die neuesten Überlegungen zur Erklärung der SyA setzen genau hier an. Dabei dürfen die verschiedenen quantenphysikalische Feldbegriffe genau genommen nicht synonym betrachtet werden und werden deshalb im Folgenden kurz vorgestellt. All diese Begriffe und angeschlossenen Erklärungsansätze kommen, zumindest im Wesentlichen, aus der Physik und beschäftigen sich vom Grundsatz her mit dem Elementarsten aus dem unsere Welt aufgebaut oder besser, aus der sie entsprungen sein
256
5 Erklärungsansätze
könnte. Demzufolge stoßen wir bei der Beschäftigung mit diesen Begriffen auf die Welt des ganz Kleinen, dem Mikrokosmos und fast möchte man sagen, dem was davor liegt, und auf die Welt des ganz Großen, dem Universum und darüber hinaus. Die Begriffe selbst stehen für Modelle, mit denen sich Physiker diesen Dimensionen annähern und aus denen heraus sie versuchen die Welt zu beschreiben. Quantenfeld Beginnen wir mit dem Quantenfeld. Das Quantenfeld wird durch die Quantenfeldtheorie (QFT) beschrieben, die über die Quantenmechanik hinausgeht und in Kombination mit den Prinzipien klassischer Feldtheorien zu einer erweiterten Theorie entwickelt wurde (Kuhlmann 2014: 50). Das Wesentliche bei ihr ist die Gleichbehandlung von Teilchen und Wellen, was damit auch den Welle-Teilchen-Dualismus der Quantenmechanik auflöst (Kuhlmann und Stöckler 2015: 226). Nach diesem Verständnis handelt es sich immer um wechselwirkende Felder statt um wechselwirkende Teilchen. In der QFT lassen sich Objekte nicht durch einzelne Attribute (Größe, Farbe etc.) beschreiben, sondern nur als Bündel von Eigenschaften, die zusammen das ganze Feld aufspannen. Deutlich wird hier bereits die Relevanz von Beziehungen, hier die Beziehungen der unterschiedlichen Eigenschaften, die nur als Ganzes das Objektfeld definieren127. In der Zeit von 1927 1934 wurden die wesentlichen mathematischen Formalismen der QFT (Haag 1970) von Dirac, Fermi, Heisenberg, Pauli, Jordan und Wigner entworfen. Durch die Arbeiten von Schwinger, Tomonaga und Feynman entwickelte sich daraus die Quantenelektrodynamik (QED) (Feynman 1992), die ihren Abschluss um 1948 fand. Die QED ist die bis heute beste verifizierte wissenschaftliche Theorie überhaupt. Die QFT wurde nötig, weil die in der Quantenmechanik übliche Betrachtung von kleinteiligen Systemen für vielteilige Systeme, wie es bereits bei größeren Molekülen der Fall ist, an ihre Grenzen stieß. Zudem musste ein Weg gefunden werden Systeme mit variierenden Teilchenzahlen zu beschreiben, wozu die Quantenmechanik nicht in der Lage ist (vgl. Kuhlmann und Stöckler 2015: 226). Sowohl Objekte als auch die Observablen werden quantisiert und als Quantenfeld interpretiert. Rein prinzipiell betrachtet wird mit diesen Ausführungen schon klar, dass nicht die Quantenmechanik, sondern wenn überhaupt nur die QFT Lösungen für lebende Systeme anbieten kann. Dort handelt es sich nämlich um vielteilige Systeme mit variierenden Teilchenzahlen, ausgelöst durch ein ständiges Aufnehmen und Abgeben von Photonen, Molekülen etc. wie wir an anderer Stelle noch sehen werden. Was versteht man jetzt in der QFT unter Feld? Als Feld versteht man in der Physik einen Raum, der an jedem Punkt und zu jeder Zeit einen bestimmten Wert hat, wodurch das Feld eine Funktion von Raum und Zeit (x,t) ist. Im Unterschied zur klassischen Physik befinden sich die Objekte (oder besser Systeme) in der Quantentheorie in sogenannten Überlagerungszuständen und besitzen deshalb an bestimmten Raum- oder Zeitpunkten in der Regel keine eindeutigen Werte, sondern nur Wahrscheinlichkeiten eines 127
Analog dem Verständnis der Systemtheorie, bei dem das Ganze auch mehr ist als die Summe seiner Teile.
5.3 Erklärungsversuche im Rahmen von SyA
257
bestimmten Zustandes (Kuhlmann 2014). Genauer formuliert erhält man Wahrscheinlichkeitsamplituden, die den Werte des Quantenfelds psi(x,t) am Raumzeitpunkt (x,t) bestimmen. Demzufolge ist beispielsweise ein Elektron nicht mehr als Teilchen zu interpretieren, das sich an einem bestimmten Ort aufhält, sondern als Elektronenfeld, das an unterschiedlichen Raum-Zeitpunkten mit gewissen Wahrscheinlichkeiten zu finden ist (Abb. 31). Die auf der QFT basierenden Erklärungen gehen davon aus, dass Felder (in der Quantenmechanik wären das dann z. B. Teilchen), die einmal miteinander in Wechselwirkung standen (wie die beiden Wasserstoff-Ionen), quantenphysikalisch ein Gesamtsystem aufspannen. Entsprechende Experimente, die auf dem hier zugrundeliegenden Mechanismus der Verschränkung und der Quanten-Teleportation operieren, sind bereits seit einiger Zeit im Einsatz (Sabín u. a. 2012; Noh u. a. 2009).
Abb. 31 | Symbolhafte Darstellung für ein Wasserstoffmolekül-Ion mit zwei Protonen (H+) und einem Elektron, welches mit unterschiedlicher Wahrscheinlichkeit innerhalb des angedeuteten Feldes angetroffen werden kann. (eigene Darstellung)
Die enthaltene Information erstreckt sich dann über den gesamten Bereich, unabhängig wie weit sich die Felder (Teilchen) danach wieder auseinander bewegen – sie bleiben eins. Prinzipiell könnten sich die Felder der Subsysteme auf der jeweils anderen Seite des Universums aufhalten (Kuhlmann 2014: 48). Die beiden letzten Sätze sind an sich inkorrekt, denn es handelt sich quantenphysikalisch eben nicht mehr um separate Felder, sondern nur noch um eines. Das Besondere in der Quantenphysik ist nun aber, dass dieses Eins-sein nicht nur räumlich zu verstehen ist, sondern auch zeitlich. Jede Information ist dann sofort, die Physiker sprechen von instantan, überall innerhalb des Gesamtfeldes abgreifbar – über Raum- und Zeitgrenzen hinweg. In diesem Verständnis ist es möglich, Informationen aus der Vergangenheit oder aus der Zukunft im Hier-und-Jetzt messbar zu machen (Sabín u. a. 2012). Damit wird auch verständlich, weshalb die Phänomene in den SyA, insbesondere die erstaunlichen Spukeffekte (Wahrnehmungen und Auswirkungen von Lösungsaufstellungen über Entfernungen und Zeiten hinweg), mit dem Quantenfeld in Verbindung gebracht werden. Die Korrelation ist erstaunlich oder dürfen wir hier zunächst nur den Begriff der Analogie verwenden? Im Gegensatz zum wissenden oder morphischen Feld wird das Quantenfeld heute naturwissenschaftlich als verifiziert angesehen, auf dessen Basis auch technische Entwicklungen vorangetrieben werden. Was allerdings auch hier offen bleibt, ist die Antwort auf die Frage, weshalb nicht jeder Mensch in jeder Situation auf diese Informa-
258
5 Erklärungsansätze
tionen zugreifen kann oder es zumindest nicht bewusst wahrnimmt. Und natürlich die grundsätzliche Frage: Lassen Menschen sich quantenphysikalisch erklären oder lässt sich zumindest ein Prozess beschreiben, der quantenphysikalische Einflüsse bei Menschen als denkbar erscheinen lässt? Hier stellt sich insbesondere auch die Frage der raum-zeitlichen Korrelationen? Ist Vergangenheit und Zukunft für uns tatsächlich wahrnehmbar und gestaltbar? Mit unserem noch eher klassisch geprägten Weltbild sind das für viele Naturwissenschaftler schlicht unsinnige Fragestellungen, die sich prinzipiell schon verbieten. Nach diesem Weltbild dürfte es allerdings die Phänomene der SyA ebenfalls nicht geben. Wir werden sehen, wie weit das Spektrum der Antworten heute möglich ist. Vakuum- und Null-Punkt-Feld Im Grunde leiten sich beide Varianten aus der Theorie des Quantenfeldes ab bzw. sind Spielarten davon, die sich aus unterschiedlichen Verständnissen bzw. Herleitungen ergeben. Insofern ändern sich auch die offenen Fragestellungen nicht weiter. In der klassischen Physik versteht man unter Vakuum die Abwesenheit von Teilchen (Kuhlmann und Stöckler 2015: 270; Lambrecht 2005: 86). Da in der QFT aber Felder betrachtet werden, die Energie und sogar Wirkungen ohne Energie aufweisen (wie beispielsweise Licht, elektrisches Feld, Magnet-, Gravitations-, Vektor-, Skalar- oder andere Felder) und das Vakuum damit eben nicht ‚leer’ ist, musste eine andere Form der Definition gefunden werden. Tatsächlich ist das Vakuum nach dem Verständnis der QFT nämlich ein komplizierter Überlagerungszustand aus unterschiedlichen Feldanordnungen, weshalb sich daraus der Begriff des Vakuumfeldes logisch ableitet. Als Vakuumenergie (auch bezeichnet als Quantenvakuum) wird die Energie des ‚leeren Raumes’ bezeichnet - jetzt verstanden als „Zustand mit der niedrigst-möglichen Energie“. Die Null-Punkt-Energie ergibt sich aus der Kombination von quantenmechanischer und klassischer Beschreibung. Sie ist die Energiedifferenz zwischen dem quantenmechanischen Grundzustand eines Systems und dem Energieminimum entsprechend der klassischen Beschreibung. Da in der Quantenmechanik die Energie dem Systems nie vollständig entzogen werden kann, wie es in der klassischen Physik möglich wäre, bleibt immer eine gewisse Restenergie im System und das ist die Null-Punkt-Energie. Es ist die Energie, die auch am absoluten Temperatur-Nullpunkt noch im System steckt. Der in der QFT verwendete Begriff der Vakuum-Energie, also die Energie des Nichts im Sinne der Quantenmechanik, wiederum ergibt sich aus der Summe aller Null-PunktEnergien. In diesem ‚Nichts’ (dem Null-Punkt-Feld) sind keine Teilchen, wie sie die Teilchenphysik versteht, sondern nur angenommene ‚Virtuelle Teilchen’ enthalten, die in der sogenannten Vakuumfluktuation zum Ausdruck kommen. Die QFT stellt sich unter dieser Vakuumfluktuation die Bildung von Teilchen-Antiteilchen-Paaren vor, die im Vakuum entstehen und sofort wieder zerfallen, da die virtuelle Energie des Vakuums mit geladenen Teilchen interagiert. (Anmerkung: Ein Überschuss an Teilchen, die eben nicht sofort wieder mit ihrem Antiteilchen zerfallen, soll die Grundlage der uns bekannten Welt darstellen und dass über dieses Feld alles mit allem verbunden ist.)
5.3 Erklärungsversuche im Rahmen von SyA
259
Allerdings ist dieses Vakuum nicht leer, sondern voll von Energie, deshalb auch die Bezeichnung Vakuum- oder Null-Punkt-Energie und sie unterliegt Schwankungen, entsprechend den Bewegungen von Wellen. Ausgehend von dieser Null-Punkt-Energie gibt es berechenbare Wahrscheinlichkeiten, dass aufgrund dieser Schwankungen etwas Messbares auftaucht, was auch tatsächlich passiert, wenn man dieses Vakuum einsperrt, also Grenzen setzt. So nimmt man an, dass sich als Folge dieser Vakuumfluktuation und Null-Punkt-Energie u. a. der Casimir-Effekt beobachten lässt. Hendrik Casimir, nachdem er benannt ist, hat dieses Verhalten 1948 aus theoretischen Überlegungen heraus vorhergesagt (Casimir 1948). 1956 und 1958 konnte dieser Effekt dann auch experimentell nachgewiesen werden. Im Versuch wurde deutlich, dass auf zwei, parallele, leitfähige Platten im Vakuum eine Kraft wirkt, die sie zusammendrückt. Damit nimmt die Wissenschaft an, dass das Vakuum tatsächlich nicht leer ist, sondern das gesamte Universum durchdringt (Lambrecht 2005). (Bei der Interpretation des verursachenden Mechanismus scheiden sich allerdings die Geister. Der Physiker Jaffe kam auf die Idee, dass die beiden Platten aufgrund ihrer elektrischen Ladungen miteinander über das Quantenfeld wechselwirken könnten und dabei van-der-Waals-Wechselwirkungen relevant werden (Jaffe 2005).) Diese Vakuum- oder Null-Punkt-Energie ist heute eine wichtige Größe zur Bestimmung des Energieinhaltes des Universums und stellt gleichzeitig eines der größten Probleme der modernen Physik dar. Unglücklicherweise liegen die theoretischen Vorhersagen und die experimentellen Daten noch um viele Größenordnungen auseinander. Das letzte Kapitel wird also noch geschrieben werden müssen; Überraschungen bzgl. Theoriebildung nicht ausgeschlossen. Praktisch findet die Null-Punkt-Energie heute aber schon bei der Fertigung von Computerchips Verwendung. Seit etwa 2005 muss sie aufgrund der Miniaturisierung bei der Chipherstellung berücksichtigt werden. Für unsere bereits in Bezug auf das Quantenfeld gestellten Fragen, gibt es hier wohl zunächst keine darüber hinausgehenden Antworten. Psi-Feld Das Psi-Feld geht auf Ervin László zurück. Er erweitert die in der Physik bekannten vier Elementarkräfte (elektromagnetische Kraft, schwache und starke Kernkraft, Gravitation) um ein fünftes Feld, das Psi-Feld (László 2000). Aus der Beschäftigung mit den wichtigsten alternativen Theorien von Geist, Materie und Bewusstsein entwickelte er die Idee einer vereinheitlichten Theorie, unter der die verschiedensten Wissenschaften vernetzt werden könnten (ebd. 272). Unter diesem Dach finden seinem Verständnis nach sowohl die Quanten als auch die Organismen, Geist und Bewusstsein, Psychologie und Neurophysiologie, Biologie und Ökologie, Physik und Kosmologie und damit auch die gesamten modernen Naturwissenschaften ihren Platz. Er bewegt sich damit ganz im Sinne von Tegmark und Wheeler (Tegmark und Wheeler 2001), auf deren Ansatz im Kapitel 7.2 ‚Ausgangsbasis für eine komplementäre Theorie der SyA’ eingegangen wird. In seinem Buch arbeitet er sehr anschaulich die verschiedenen, gegenwärtigen Konzepte heraus, aus der unsere Gesellschaft – oder sollten wir besser sagen die Gesell-
260
5 Erklärungsansätze
schaften – auf die Welt und ihre Wirkungsweise schauen. Dies ist insofern von Bedeutung, als die im Folgenden beschriebenen Unterschiede den geistigen Bezugsrahmen darstellt, vor dem wir heute die verschiedenen Wissenschaftstheorien diskutieren, was in der Regel ja leider eher kontrovers als erkundend128 vonstatten geht. Ersteres zielt darauf ab, sein Weltbild abzusichern und zu bestätigen. Letzteres trägt die Möglichkeit in sich, seinen Horizont zu erweitern und die Basis der eigenen Schlussfolgerungen zu überprüfen. Nun aber die fünf unterschiedlichen Ansätze in dem Geist, Materie und Bewusstsein in Beziehung gebracht werden können (László 2000: 258–260): 1. „Materialismus: Das Bewusstsein ist ein Produkt des Gehirns – oder genauer: ein Nebenprodukt der Überlebensfunktion, die das Gehirn für den Organismus leistet.“ 2. „Idealismus: Geist und Bewusstsein sind die eigentliche und letzte Realität. Die Materie ist lediglich eine vom Bewusstsein erzeugte Illusion.“ 3. „Dualismus: Sowohl das Bewusstsein als auch die Materie sind fundamentale, doch völlig unterschiedliche Gegebenheiten. Sie werden durch das menschliche Gehirn zueinander in Beziehung gesetzt.“ 4. „Holismus: Materie sowie Geist und Bewusstsein bilden ein Ganzes, das weder theoretisch noch in der realen Welt geteilt werden kann.“ 5. „Evolutionismus: Sowohl Materie als auch Geist und Bewusstsein sind real, doch sie sind keine fundamentalen Größen. Sie haben sich gemeinsam aus einer noch grundlegenderen Ebene der Realität heraus entwickelt.“ In dieser 5. Alternative sieht er das notwendige „Element der Vernetzung“ realisiert. „Die materiell-geistigen Systeme“ sind durch den „kosmischen Schoß“ - dem ‚Quantenvakuum’ – geboren und für immer vernetzt (vgl. ebd.). In Anlehnung an das ‚Nullpunkt-Feld des Quantenvakuums’ und damit unter Einbezug des in der Quantenphysik bereits existierenden Ausdrucks Psi (Ψ) nannte er seine Alternative das ‚5. Feld’ oder ‚Psi-Feld’. Er integrierte darin zusätzlich auch Information, Kommunikation und Rückkopplung. Konzepte, die wir auch bei Vertretern der neueren Quantenphysik wiederfinden, wie wir noch sehen werden. Bewerten wir nun das ‚Psi-Feld’ in Bezug auf ein tragbares Erklärungsmodell für die Intuitionsexperimente und SyA, so können wir feststellen, dass es in seinem Ansatz über die rein quantenphysikalischen Beschreibungen hinausgeht und eine metaphysische Betrachtung (Geist und Bewusstsein) mit aufgenommen wird. Jedoch bleibt auch hier die Frage nach einem möglichen konkreten Prozess, der quantenphysikalische Einflüsse bei Menschen als denkbar erscheinen lässt, offen.
128
Der namhafte Quantenphysiker David Bohm stellte der Welt mit dem Konzept des ‚Dialog’ (Bohm 2014) eine praxistaugliche Methode zur Erkundung zur Verfügung.
5.3 Erklärungsversuche im Rahmen von SyA
261
Skalar- und Vektor-Feld Zunächst ist das Skalarfeld eine mathematische Größe, also eine Funktion von (x,y,z), die im 3-D-Raum, dem Punkt eines Raumes zu einer bestimmten Zeit, reelle Zahlen (sogenannte Skalare) zuordnet, z. B. Druck, Temperatur oder allgemein Potentiale, deshalb auch alternativ die Bezeichnung Skalarpotential (Dullemond 2011). Ein Vektorfeld ist im Grunde das Gleiche, nur dass es den Raumpunkten Vektoren zuordnet, die in Pfeilform dargestellt werden (Vektorpotentiale), mit deren Hilfe Richtung und Stärke z. B. von Geschwindigkeit oder Kraft angezeigt werden. Beide werden für mehrdimensionale Analysen verwendet und sind in der Physik von erheblicher Bedeutung zur Beschreibung von Feldern. Dass sie aber nicht nur mathematische Größen sind, zeigt der Aharonov-Bohm-Effekt, benannt nach Yakir Aharonov und David Bohm (Hiley 2013). Dabei handelt es sich um ein Phänomen, das vom ‚New Scientist’-Magazin als eines der Sieben Wunder der Quantenwelt ausgewählt wurde (New Scientist 2010). Das merkwürdige Phänomen, das sich zeigte, war die Beeinflussung geladener Teilchen ohne scheinbar anliegendes Feld. Ein Feld, dessen elektrische und magnetische Komponenten Null ergeben, bewirkt dennoch messbare Wechselwirkungen, da die Potentiale eben nicht Null sind. Ein Erklärungsansatz sind quantenphysikalische Fernwirkungseffekte bei denen sich Wellenfunktionen überlagern, wie beim Doppelspaltexperiment (Reineker u. a. 2007: 341–346) – siehe dazu auch Kap. 8.1 – wobei die Skalarpotentiale bestehen bleiben und tatsächlich Wirkung entfalten. Einen vergleichbaren Effekt für elektrische Felder lässt sich beim Aharonov-Casher-Effekt erzeugen (Rohrlich 2009). Dieses Phänomen ist insofern von Bedeutung als es zeigt, dass Wechselwirkungen entstehen können, die scheinbar ohne Krafteinwirkung vor sich gehen und unser klassisches Verständnis konterkarieren. Die Schlussfolgerung, die daraus gezogen wird, interpretiert das Verständnis des Vakuum- oder Null-Punkt-Feldes als komplexes Feld. Es wird demzufolge zusammengesetzt aus allen möglichen Feldern, eben auch aus Skalarund Vektorfeldern, wie es oben beschrieben wurde. Die Vorstellung ist nun, dass sich solche Skalar- bzw. Vektorfelder zusammen mit den von ihnen gespeicherten Informationen innerhalb des Psi-Feldes des Quantenvakuums ausbreiten, sich dabei überlagern und das Vakuum in einen angeregten Zustand versetzen und auf diese Weise Vakuumfluktuationen erzeugen. Durch Überlagerung kommt es jetzt zu sogenannten Interferenzmuster. Diese Interferenzmuster stellt man sich als Hologramme vor. Die enthaltenen Informationen sind damit im gesamten Hologramm verteilt und können an jeder Stelle abgerufen werden. Aufgrund des beobachteten Aharonov-Bohm-Effekt’s geht man jetzt weiter davon aus, dass diese Informationen aus dem Vakuumfeld in unsere Welt treten und mit unserem Gehirn bzw. Organismus wahrgenommen werden können. Das Verfahren an sich, aus überlagerten Wellen einzelne Wellen und deren Information zu isolieren, ist heute in der Physik eine Selbstverständlichkeit. Mithilfe der FastFourier-Transformation werden in der Gehirnforschung die gemessenen EEG-Potentiale in ihre einzelnen Frequenzanteile zerlegt und spektralanalytisch dargestellt. Anwen-
262
5 Erklärungsansätze
dungsfelder sind Lern- und Gedächtnisstörungen sowie anderen Beeinträchtigungen von Gehirnfunktionen. Im Unterschied zum vorher beschriebenen Psi-Feld geht diese Erklärung noch einen Schritt weiter und bietet auch erste Ansätze zur Kopplung des Quantenfelds mit Organismen und dem menschlichen Gehirn (Meyl 2007). Diese Interpretation des Skalarrespektive Vektorfeldes wird heute noch sehr kontrovers diskutiert und überwiegend abgelehnt und kann demzufolge noch nicht als Erklärungsansatz genutzt werden. Generalisierte (GQT) oder auch schwache Quantentheorie (WQT) Die initiale Idee zur GQT geht auf von Lucadou zurück (Lucadou 2015) und wurde von Atmanspacher, Römer und Walach (Walach und Stillfried 2011; Atmanspacher u. a. 2002) mit dem algebraischen Formalismus der Quantentheorie hinterlegt. Ihr Ansatz versucht Phänomene im transpersonalen und damit makroskopischen Bereich zu erklären. Die ursprüngliche Terminologie Weak Quantum Theory (WQT) benannten sie später in Verallgemeinerte bzw. Generalisierte Quantentheorie (GQT) um, bei Beibehaltung des ursprünglichen Formalismus. Sie übernahmen die fundamentalen Begriffe der Quantentheorie wie System, Zustand und Observable und den Formalismus, der ein System ∑, zumindest prinzipiell, durch Aufsummieren aller Arten seiner Realitäten beschreibbar macht. Dabei gehen sie davon aus, dass ein solches System vom Rest der Welt isolierbar und untersuchbar ist. Im Unterschied zur Quantentheorie gehen sie für die Zustandsbeschreibung des Systems nicht von einem Hilbertraum aus (Lucadou 2015). Transpersonale Erfahrungen sind Bewusstseinszustände, die jenseits der personalen Erfahrung liegen. Typischerweise zählen dazu außersinnliche Wahrnehmungen wie Telepathie, Hellsehen oder Präkognition sowie Reinkarnations-, Nahtod- und Synchronizitätserlebnisse (Walach u. a. 2014). Diese dem Transzendenten und Spirituellen zugerechneten Wahrnehmungen sprengen fast immer Raum- und Zeitgrenzen und beinhalten deshalb das, die Quantenphysik charakterisierende Phänomen der Nicht-Lokalität. Eine ganze Reihe präkognitiver Erlebnisse präsentiert G.B. Schmid in seinem Buch „Klick Warum wir plötzlich etwas wissen, das wir eigentlich nicht wissen können“ (Schmid 2015). Analog zu Verschränkungen von atomaren Teilchen in der Quantenmechanik wurde von ihnen eine makroskopische Verschränkung postuliert, die sich nicht notwendigerweise aus physikalischen Gegebenheiten heraus speisen muss. Sie lösen sich dadurch von einigen quantenmechanischen Restriktionen und legen ihren Schwerpunkt auf Komplementär- und Verschränkungsprinzipien. Sie gehen also über die aktuellen, physikalischen Begrenzungen hinaus. Im Wesentlichen konnten sie zeigen, dass der quantenmechanisch-mathematische Formalismus in vielen Fällen auf das Alltagserleben und menschlich-psychologische Kontexte übertragbar ist. Genauso wie sich die Heisenberg’sche Unbestimmtheitsrelation zumindest in analoger Weise in unserem Alltag wiederfindet. Nach Heisenberg ist eine gleichzeitige, exakte Messung von Ort und Impuls eines Teilchens unmöglich. Solche unmöglich gleichzeitig bestimmbaren Gegensatzpaare finden sich eben auch in der
5.3 Erklärungsversuche im Rahmen von SyA
263
Alltagswelt. Als Beispiele seien hier genannt: Form – Inhalt, Individuum – Gemeinschaft oder Sache – Prozess. Zusammen mit von Lucadou und dessen Arbeit konnten zahlreiche empirische Studien durchgeführt werden, in denen sich die Vorhersagen aus den Berechnungen, wie beispielsweise ‚Decline Effekte’129, verifizieren ließen (Lucadou 2015). Mit ihrem Ansatz scheint es auf jeden Fall ein Modell zu geben, das den Voraussetzungen und Phänomenen im Aufstellungskontext entspricht. Auch hier liegt der Wermutstropfen derzeit noch in der mangelnden Akzeptanz ihrer Theorie. Insbesondere die analoge Verwendung des quantenmechanischen Ansatzes auf nicht-physikalische Kontexte wird von der klassischen Wissenschaftsgemeinde sehr kritisch gesehen und die Selbstverständlichkeit, dass sie transpersonale Erfahrungen als gegeben ansehen. Doch genau diese transpersonalen Erfahrungen lassen sich in SyA als alltägliches Geschehen reproduzieren. Zudem scheint mir auch bei ihrem Ansatz die Antwort auf die Frage noch offen zu sein: Kann man in einer zutiefst physikalisch basierten Welt die Physik außen vor lassen und so tun, als ob es Phänomene ohne diese Physik geben kann? 5.3.7
Conclusio aus den weiteren Erklärungsversuchen
Dass wir bei Aufstellungen Korrelationen wahrnehmen können, steht außer Zweifel. Doch wie kommt es zu dieser Wahrnehmung und wo kommt diese Wahrnehmung her? Dass wir in gewissen Grenzen auch ein Gefühl oder Verständnis für räumliche Bezüge zueinander haben und diese auch interpretieren können, steht ebenfalls außer Frage. Wie kommt es aber, dass Stellvertreter in gleicher Art und Weise zueinander stehen und dabei völlig unterschiedliche Wahrnehmungen haben können, die sich jedoch als völlig stimmig zum jeweiligen Kontext herausstellen? So kann es sein, dass wir einmal zusammenbrechen, das zweite Mal über uns hinauswachsen und Glücksgefühle entwickeln, das dritte Mal einen Drehimpuls bekommen oder viertens sonstige Schmerzsymptome entwickeln. Genau die Antworten auf diese Fragen stehen noch aus, weil hierfür noch keine theoretisch tragfähigen Ansätze existieren. Repräsentierende Wahrnehmung, wissende Felder, Topologie etc. stehen für die beobachtbaren Phänomene und lassen sich eher als 'Etikette' verstehen. Sie sagen nichts über den dahinter liegenden Prozess aus. Aus diesem Grund können alle diese Ansätze im wissenschaftlichen Sinn nicht als tragfähige Erklärung für die Phänomene der SyA verwendet werden. Sie müssen entweder verworfen werden, weil sie zumindest zum Teil im Widerspruch zu den Beobachtungen stehen (Raumsprache, topologischer Ansatz) oder weil sie eben nur als phänomenologisches Etikett (repräsentierende Wahrnehmung, wissendes oder morphogenetisches Feld) Verwendung finden. Die Spiegelneuronen gehen aus empirischen Untersuchungen hervor und wurden im Rahmen der ‚Intuition als mögliche Erklärung’ bereits betrachtet. Sie können für bestimmte Situationen (Anwesenheit von Fallbringer und Aufstellungsgruppe) als Er129
Mit ‚Decline Effekt’ meint von Lucadou die Abnahme der statischen Signifikanz mit Zunahme der Häufigkeit von Wiederholungen.
264
5 Erklärungsansätze
klärung dienen, decken jedoch nicht das ganze Spektrum der Phänomene ab (technische Bauteile, Nicht-Lokalität von Betroffenen) und haben selbst ein Problem ihr Zustandekommen zu erklären. Quanten-, Vakuum-, Null-Punkt- und Psi-Feld liefern demgegenüber Mechanismen, wie wir uns die Grundprinzipien vorstellen können. Es ist dies die grundsätzliche Verbundenheit über die verschiedenen Felder. Bei dieser ‚Verbundenheit’ existiert in der Welt der Physik allerdings ein sehr heftiger Disput, der die Lager der Physiker auseinandertreibt: In Befürworter eines solchen Ansatzes und in deren Gegner. Mathematische und technische Versuche lassen ihre Existenz wahrscheinlich erscheinen, zumindest liefern sie brauchbare Modelle, um sich bestimmte Gegebenheiten erklären zu können. Das Psi-Feld von László bezieht den Menschen mit ein und ist deshalb mehr als umstritten. Die Modelle des Skalar- oder Vektorfeldes werden mit Übertragung von Informationen ohne Energiebeteiligung in Verbindung gebracht. Ihr Nutzen steht für Analysen und Berechnungen außer Frage, weshalb sie neben Physik und Chemie zunehmend stärker auch in technischen Fachbereichen zum Einsatz kommen. Ihre Akzeptanz bezüglich einer Kopplung von Information und Mensch steht derzeit jedoch noch völlig außer Frage. Zuviel grundsätzliche Fragen sind noch ungeklärt. Gleiches gilt für das Modell der Verallgemeinerten Quantentheorie (GQT). Noch wird ihr die Anschlussfähigkeit zu bisherigen Ansätzen der Quantenphysik abgesprochen, wobei sie sich selbst nur als analoge Form zum physikalischen Pendant sieht. Auch wenn sie bisher nur von einer kleinen Gruppe von Wissenschaftlern vertreten wird, muss dies nicht heißen, dass sie sich nicht irgendwann als gesellschaftlich akzeptierte Theorie wiederfindet. Selbiges lässt sich für die anderen, aus der QFT abgeleiteten quantenphysikalischen Feldtheorien als auch dem Skalar- und Vektorfeldansatz resümieren. Derzeit ist noch zu viel im Fluss und zu viele offene Fragen warten auf eine Antwort. Zusammenfassend lässt sich festhalten, dass nur die quantenphysikalischen Modelle einen Mechanismus hinterlegen, der alle Phänomen der Intuitions- und der SyA-Forschung erklären könnte. Noch sind sie allerdings zu generell oder eigenständig, dass sie zumindest weitere vertiefende Untersuchungen nach sich ziehen müssen. Offen bleiben zudem auch die Fragen nach der Gültigkeit einer Verbundenheit von Systemen sowie die grundsätzliche Anwendbarkeit quantenphysikalischer Ansätze auf lebende Systeme, insbesondere uns Menschen, als auch bezüglich der Situationsbezogenheit der Phänomene. Weshalb sind wir eigentlich nicht immer in der Lage auf solche Wahrnehmungen zurückzugreifen? Aus Ermangelung einer nachvollziehbaren Bestätigung der Hypothese 4 aus dem Codingprozess der GT, welche eine Theorie für die Übertragungswege von Information zwischen lebenden Systemen voraussetzt, fehlt damit nach wie vor die dringend notwendige Bestätigung für Hypothese 1. Diese fordert eine belastbare theoriebasierte ‚wissenschaftliche Legitimation‘, auch wenn die experimentelle Datenlage mehr als überzeugend scheint.
5.3 Erklärungsversuche im Rahmen von SyA
265
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
6
Zwischenresümee – Erkenntnisse und Fragen
Die Forderungen, die für strategisches Management und Entscheidungen im VUCAUmfeld aufgestellt wurden und die in der Entscheidungstheorie und in der Intuitionsforschung untersucht wurden, führen zu Empfehlungen die sich im ‚5 Phasenmodell der Entscheidungsfindung’ (Abb. 17) wiederfinden. Neben einer bewussten Auseinandersetzung mit den Zielen, Rahmenbedingungen und Regeln in einer Vorphase schließt sich eine unbewusste Sammel- und Verarbeitungsphase an, in deren Folge sich sogenannte Bauchgefühle, Wiedererkennungen oder Einsichten einstellen können. Begleitet werden solche Verarbeitungsprozesse oft mit körperlich messbaren Symptomen. Die in unterschiedlichsten Wissenschaftsrichtungen durchgeführten Untersuchungen weisen eine hohe Parallelität und Ähnlichkeit auf, sowohl was die physischen als auch psychischen Phänomene betrifft. In vielen Fällen kann derzeit keine Erklärung für die damit verbundenen Wahrnehmungen angeboten werden. Hier deckt sich die Situation zwischen Intuitionsforschung und SyA. Ähnlichkeiten zwischen Intuitionsforschung und SyA scheint es auch bei Verzerrungseffekten und Nachhaltigkeitsergebnissen zu geben. Die einzigen Unterschiede, die nach den bisherigen Untersuchungen festzustellen sind, scheinen die deutlich signifikanteren Resultate als auch Replikationen bei SyA zu sein. Bei SyA sind 90 und 100 %-ige Korrelationen zwischen Originalsystem und Aufstellungsgruppe keine Seltenheit. Insofern darf mit Fug und Recht eine Evidenz behauptet werden, dass SyA ein geeignetes Verfahren für komplexe Entscheidungsprozesse zur Verfügung stellt, das alle bisher aus der Entscheidungstheorie abgeleiteten Forderungen besteht. Dies um so mehr, als SyA zur Vorbereitung von Entscheidungen, die Möglichkeit bietet, sehr viel umfassender und vielfältiger, Hintergrundinformationen erfassen zu können und das in wesentlich kürzerer Zeit, als es klassische Erhebungsverfahren vermögen. In der bisherigen Ausarbeitung sind zahlreiche experimentelle Beispiele aus Entscheidungs-, Intuitions- und Aufstellungsforschung zusammengetragen worden. Darüber hinaus sind alle derzeit im Umlauf befindlichen Theorien analysiert worden, die Hinweise zu einer möglichen Erklärung der dahinter liegenden Mechanismen zur Verfügung stellen. Die folgende Übersicht versucht nun diese Theorien den Experimenten zuzuordnen (Tab. 12). Ziel ist eine klare Darstellung dahingehend, in welchen Fällen es heute noch keine plausible Erklärung gibt. Dabei werden die Erklärungsversuche unterschieden, die Etikette, phänomenologische Beschreibungen oder andere prinzipielle Ausschließungsgründe anbieten. Der Einfachheit und der besseren Zuordenbarkeit wegen, orientiert sich die Übersicht wieder an den von Woolley und Kostopoulou angebotenen drei Optionen ‚Bauchgefühl’, ‚Wiedererkennung’ und ‚Einsicht’. Bauchgefühl steht auch hier für Experimente, bei denen es keine heute existenten Erklärungsmöglichkeiten gibt und Wiedererkennung und Einsicht ausgeschlossen sind.
© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_6
268
6 Zwischenresümee – Erkenntnisse und Fragen
Tab. 12 | Zuordnung der Erklärungsmodelle zur Unterscheidung nach Woolley und Kostopoulou Eigene Darstellung auf Basis der begrifflichen, aber nicht erklärungstechnischen Unterscheidung nach Woolley und Kostopoulou (2013). * Die hier aufgenommenen Erklärungen greifen nur mit einer erweiterten physikalischen Erklärung, wie sie in Kap. 8 noch vorgestellt wird, ansonsten müssten sie verworfen werden. ** Hier werden alle Erklärungen aufgenommen, die als Etikette oder rein phänomenologische Beschreibungen anzusehen sind oder aus anderen Gründen keine Erklärung des Mechanismus bieten können.
Theorie
1. Bauchgefühl
2. Erkennung
3. Einsicht
Intuition Subliminale Wahrnehmung* Spiegelneuronen* Somatische Marker* Fraktale Affektlogik* Enterisches Nervensystem* Quantenphysikalische Erklärung SyA Morphogenetisches Feld* Morphisches Feld* Quantenfeld Vakuumfeld Nullpunktfeld Psi-Feld Skalar- und Vektorfeld GQT
Heuristik FTT Gestaltwahrnehmung
Erfahrungswissen
Systemtheoretische Erklärung Raumsprache Topologischer Ansatz
Systemtheoretische Erklärung Raumsprache Topologischer Ansatz
Keine Zuordnung** Unbewusste Wahrnehmung Verzerrung Artifactional Correlation Allwissende Entität Prozess der Evolution
Repräsentierende Wahrnehmung Wissendes Feld
Aus Tab. 12 wird sehr anschaulich, dass konventionelle Modelle Bauchgefühle nicht abdecken können. Die einzig möglichen Modelle finden sich derzeit in der Physik, müssen sich dort jedoch einem Umfeld stellen, das derartige Erklärungsansätze fast schon aus prinzipiellen Überlegungen heraus, ablehnt. Somit bleibt es notwendig, eine neue, über die aktuellen Denkgrenzen hinausgehende, plausible Antwort auf die Frage zu finden, inwieweit nicht-lokale physikalische Prinzipien und Mechanismen in lebenden Systemen vorstellbar sind. Zusätzlich benötigt es auch eine Antwort auf die Frage, wie
6 Zwischenresümee – Erkenntnisse und Fragen
269
die in Richtung 100 % gehende Korrelation (zumindest bezogen auf Sinnhaftigkeit dessen was sich zeigt) bei zahlreichen SyA möglich ist, finden sich in der Intuitionsforschung demgegenüber nur schwache bis starke Signifikanzen, aber keine 90 - 100 % Werte, vergleichbar einem p-Wert von 1. Als Zwischenresümee lässt sich feststellen: Obwohl die Schlussfolgerungen aus der Informationstheorie eine Plausibilität für die Phänomene bei SyA und Intuition nahelegen, existiert derzeit noch keine Klarheit und damit auch keine Theorie für einen konkreten Prozess, der ‚Bauchgefühle’ nachvollziehbar macht. Ein Umstand, der erhebliche Berührungsängste und Widerstände sowohl in der Forschung als auch im ökonomischen und technischen Umfeld auslöst. Gesucht wird nach wie vor eine plausible nachvollziehbare Logik und einen darauf aufbauenden Prozess, wie Menschen Informationen, jenseits der bekannten Modelle, zu erfassen vermögen. Mit dem in dieser Arbeit bisher zusammengetragenen Forschungsstand lassen sich zumindest die Hypothesen 2 und 3 (Kap. 2.1) verifizieren. Es konnten, entsprechend Hypothese 2, die Verbindungen zwischen Intuition und Information sowie die Übereinstimmung mit den phänomenologischen und ontologischen Gegebenheiten aufgezeigt werden. Bezüglich Hypothese 3 konnte Information als grundsätzliche Größe disziplinenübergreifend behandelt werden. Somit eröffnet sich die Möglichkeit, die intuitiv wahrgenommenen körperlichen und mentalen Impulse, die mit phänomenologischen Entitäten im strategischen Managementprozess und bei Entscheidungen korrelieren, als Form der Informationswahrnehmung zu interpretieren, nicht anders wie bei SyA. Damit rückt von den vier Hauptkategorien wieder die ‚wissenschaftliche Legitimation’ in den Mittelpunkt, um direkt auf die Frage und damit die vierte Hauptkategorie aus dem Codingprozess, den ‚Übertragungswegen’ weiterzuleiten. Die ‚wissenschaftliche Legitimation’ fordert in unserer Kultur ein theoriebasiertes Modell, welches die Übertragungswege solcher verdeckter und teilweise nicht-lokaler Information nachvollziehbar beschreiben kann. Insofern bleibt nur der zwingend nächste Schritt einer quantenphysikalischen Annäherung als noch verbleibende Möglichkeit der Informationsübertragung bzw. Informationskorrelation. Kap. 7 wird zunächst Voraussetzungen dazu eruieren.
270
6 Zwischenresümee – Erkenntnisse und Fragen
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
7
Auf dem Weg zu einer neuen Theorie
7.1
Eine heuristische Betrachtung als Ausgangspunkt
Worauf bauen die weiteren Überlegungen auf? 130 Von diesem Kap. 7 bis incl. Kap. 9 steht die Suche nach ‚Übertragungswegen’ der Information im Mittelpunkt und damit die Suche nach Antworten zur vierten Hauptkategorie aus dem selektiven Codierungsprozess. Diese Antworten bilden die Basis auf der eine ‚wissenschaftliche Legitimation’ aufgebaut sein muss. Vor der weiteren detaillierten Darstellung des neuen Theoriemodells soll, anhand 12 heuristischer Überlegungen, eine erste Orientierung gegeben werden (Abb. 32). Eine plausible ‚Theorie zur Funktionsweise von Intuition und SyA’ muss Antworten zumindest für elf der zwölf Säulen finden. Allein Säule 12 wäre eine nützliche, aber keine hinreichende Bedingung. Gleichzeitig wird verständlich, wie sich der Gesamtzusammenhang der Argumentationskette darstellen und auf welchen Säulen er aufbauen wird. (Zugehörige Literaturangaben werden in den vertiefenden Kapiteln beigefügt.)
Abb. 32 | Die 12 Säulen zur heuristischen Annäherung an das Gesamtmodell Diese 12 Säulen bilden die Grundlage dieser Forschungsarbeit, um ein plausibles, belastbares Modell zum Wirk-Prozess von SyA zu entwickeln. Dabei muss jede dieser Säulen bestätigt bzw. falsifiziert werden. (eigene Darstellung)
130
Die folgenden Inhalte sind im Wesentlichen bereits 2015 veröffentlicht worden und werden zum Teil wortwörtlich wiedergegeben (Gehlert 2015a).
© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_7
272
7 Auf dem Weg zu einer neuen Theorie
Säule 1 – Gleiche Phänomene in anderen Kontexten Säule 1 zeigt die Ähnlichkeit der Phänomene von SyA in Bezug zur Entscheidungs- und Intuitionsforschung. Ein neues theoretisch fundiertes Modell, welches den zugrundeliegenden Prozess zu beschreiben in der Lage ist, wird auf die gesamte Klasse anwendbar sein. Kurze Beschreibungen und Vergleiche zu anderen, heute noch als merkwürdig angesehenen Phänomenen aus Therapie, Medizin, Beratung, Kommunikation, Mentaltechniken und Bewusstseinsforschung zeigen, dass das Theoriemodell deutlich über die SyA hinaus Gültigkeit entwickeln kann. Dies ist in den vorangegangenen Kap. 3 und 4.1 bereits veranschaulicht worden. Säule 2 –Ausschluss klassischer Erklärungen Sie ergibt sich aus dem Ausschluss aller klassischen Erklärungen (wie bereits in Kap. 5 geschehen) und zwingt zur Erweiterung der Perspektive bei der Suche im Möglichkeitsraum. Säule 3 – Der Informationsbegriff Im Übergang von den physikalischen Grundlagen zum Menschen lässt sich Säule 3 positionieren. Hier geht es um den Informationsbegriff wie er mittlerweile in der Physik und in den Geisteswissenschaften verwendet wird. Wie auch hier bereits gezeigt wurde, liegen ausreichende Modelle vor, wie sich eine Anwendung des Informationsbegriffs und der -übertragung auf die Methode der SyA denken lässt. Mit der in Kap. 4.2 vorgenommenen Normierung ist das gleiche Verständnis bzgl. ‚Information’ auf alle Forschungsgebiete ausdehnbar. Säule 4 – Theorie zum Quantenverhalten in Makro-Systemen Säule 4 wird durch die theoretischen Überlegungen von a) Tegmark und Wheeler, b) Greenstein und Zajonc und schließlich c) von Lucadou gebildet. Die Ersteren bieten eine strukturelle, hierarchische Gliederung, in der das Puzzle verschiedener Wissenschaftstheorien in Beziehung zueinander gesetzt wird. Auf dieser Basis lässt sich die im Weiteren angebotene Theorie der SyA als holistische oder komplementäre Theorie verstehen und bietet keine Möglichkeit eines reduktionistischen Verständnisses. Die Zweiten haben drei Bedingungen formuliert, unter denen quantenphysikalisches Verhalten auch bei makroskopischen Systemen möglich ist. Wie wir noch sehen werden, fallen in diese Kategorie eindeutig die Spezies Mensch sowie alle lebenden Organismen. Von Lucadou schließlich zeigt Rahmenbedingungen auf, unter denen die Experimente (z. B. SyA) durchgeführt werden sollten, bei denen quantenphysikalische Effekte Wirkung entfalten können. Säule 5 – Nachweisverfahren zur Nicht-Lokalität Zu Beginn der 5. Säule steht eine Frage: Wie kommt es zu Modellbildungen und wie weisen unsere Wissenschaften nach, dass ihre Modelle sinnvolle Beschreibungen der Wirklichkeit darstellen? Betrachten wir die Physik, so orientiert sich diese an beobacht-
7.1 Eine heuristische Betrachtung als Ausgangspunkt
273
baren Ereignissen, für die sie die dahinter liegenden Prozesse sucht. Als Besonderheit gilt in dieser Disziplin die fast ausschließlich mathematische Behandlung der Annahmen. Ohne eine solch mathematisch plausible Beweisführung finden die Modelle keine Akzeptanz – so nimmt man zumindest üblicherweise an. Tatsächlich braucht es auch in der Physik noch die Experimente, die die mathematische Beweisführung stützen oder widerlegen. Auf diese Weise gelang es schließlich, Fragestellungen, für die keine Erklärungen im Rahmen der klassischen Physik zu finden waren, zu überwinden und die Quantenphysik zu entwickeln. Dass die Kombination von Experimenten und Mathematik auch in der Physik nicht immer die letzte Frage zu beantworten vermag, wird in der gegenwärtigen Situation deutlich. Denn die heutigen quantenphysikalischen Theorien bieten zumindest zwei grundverschiedene mathematische Ansätze, die beide zu den gleichen präzisen Ergebnissen für die damit verbundenen Experimente führen, allerdings mit absolut gegenläufigen Theorieansätzen. Zum einen das 1932 von John von Neumann formulierte Modell auf das sich die Kopenhagener Interpretation bezieht (Neumann 1996: 101–157) und zum anderen die De-BroglieBohm-Theorie oder auch Bohmsche Mechanik genannt (Goldstein 2017; Passon 2010). Experimentell lassen sich beide Ansätze nicht unterscheiden. Darüber hinaus gibt es eine Vielzahl von Ansätzen, wobei jede für sich noch Fragen unbeantwortet lässt (z. B. Stringtheorie, M-Theorie, Vielwelten-Theorie). Einerseits hatte dies nun zur Konsequenz, dass weiterhin intensiv nach Modellen gesucht wird, die die scheinbaren Widersprüche auflösen. Andererseits wird in den Argumentationen und Positionierungen so getan, als ob schon alles klar und bewiesen wäre. So vermitteln Blog-Beiträge oder manche Bücher den Eindruck, als ob die jeweils andere Seite völlig ahnungslos oder unwissend wäre (Hümmler 2017). Dies ist mitnichten so, wie die Entwicklungen in Quanten-Biologie und -Chemie aktuell zeigen und konsequenterweise existiert damit auch ein unbekannter Raum für Neues. Dazu passen auch die Ansichten von Heisenberg (Hägele 2000: 22) und Zeilinger (2002), nach der die Naturwissenschaften uns nur ein Bild unserer Kenntnis von der Natur vermitteln und nicht ein Bild der Natur selbst. Das Nachweisverfahren einer Verschränkung und der damit verbundenen Nicht-Lokalität, eines der zentralen Phänomene der Quantenphysik, stellt deshalb die 5. Säule dar. Mit diesem Punkt wird ein weiteres Grundproblem deutlich: Dass sich viele mathematisch behandelbare Phänomene einer direkten Beobachtung entziehen. So kann die Physik heute noch nicht erklären, wie der Raum bzw. die Verbindung innerhalb eines verschränkten Systems zu beschreiben ist. Allerdings kann beobachtet werden, dass die beiden verschränkten Systeme etwas Gemeinsames aufspannen. Die Unterscheidung, ob Systeme131 verschränkt sind oder nicht, lässt sich also nicht direkt beobachten, sondern nur indirekt über ihr Verhalten bestimmen. Dazu wird üblicherweise ein mathematisches Verfahren, die Wahrscheinlichkeitsberechnung, herangezogen.
131
Gewöhnlich bezieht sich der Physiker dabei auf Teilchen und physikalische Objekte.
274
7 Auf dem Weg zu einer neuen Theorie
Analog dazu dienen auch in den Wirtschaftswissenschaften, der Soziologie, Psychologie und Medizin Wahrscheinlichkeitsbetrachtungen zur Bestimmung von Zusammenhängen und zur Verifikation von Modellen bzw. Behandlungsmethoden. Nun existiert auch für SyA eine Wahrscheinlichkeitsuntersuchung, die sozial- und naturwissenschaftlichen Ansprüchen genügt (Schlötter und Simon 2005). Es konnte dabei die Wiederholbarkeit von Wahrnehmungen im Rahmen von SyA eindeutig nachgewiesen werden und diese Ergebnisse lassen keinen Spielraum für einen Zufall. Säule 6 – Dekohärenzmodell von H.-D. Zeh Säule 6 basiert auf dem Dekohärenzmodell von Zeh, das von einer allgemeinen Verschränkung aller Entitäten ausgeht. Die in diesem Modell vorhandene Beobachtungsproblematik bei Makrosystemen wird sich als Sonderfall herausstellen, der behandelbar ist. Säule 7 – Quanten-Teleportation Die 7. Säule wird durch den Versuchsaufbau von Zeilinger zur Quanten-Teleportation repräsentiert, bei dem die eben erwähnte ‚Verschränkung’ eine zentrale Rolle spielt. Eine analoge Struktur finden wir bei SyA als auch bei zahlreichen anderen Phänomenen. Sie gehören alle der gleichen Klasse an, nämlich einer spezifischen Form von Informationswahrnehmung, für die es heute noch keine grundlegende Erklärung gibt. Säule 8 – Überwindung des Temperatur-Paradigmas Der oben angeführte Versuchsaufbau zur Quanten-Teleportation liefert die Vorlage für die 8. Säule, nämlich die Überwindung des Paradigmas der Notwendigkeit sehr niedrigen Temperaturen, um Quantenverschränkungen messbar und damit beobachtbar zu machen. Die meisten quantenphysikalischen Versuche fanden bei Tiefsttemperaturen statt, welche zur Isolierung der untersuchten Quantensysteme von ihrem Umfeld nötig sind. Man ging in der Dekohärenztheorie davon aus, dass die Umweltbedingungen einen sofortigen Verlust beobachtbarer Quanteneigenschaften aufgrund von Wechselwirkungen nach sich ziehen würden. Dass dem nicht so ist, konnten neueste Experimente eindrucksvoll bestätigen. Säule 9 – Überwindung des Makrosystem-Paradigmas Womit wir zur 9. Säule kommen: Der Überwindung des Paradigmas, dass Makrosystemen, wie beispielsweise Zellen, wegen der angenommenen Wechselwirkungen mit der Umwelt, keine Quanteneigenschaften zeigen. Durch die Arbeiten von Physikern und Biologen konnten solche Eigenschaften mittlerweile nicht nur in Bakterien nachgewiesen werden. Einher geht ein Shift im Verständnis von geschlossenen hin zu offenen Quantensystemen.
7.1 Eine heuristische Betrachtung als Ausgangspunkt
275
Säule 10 – Neurowissenschaftliche Experimente Und schließlich Säule 10: Sie basiert auf der Basis neuer neurowissenschaftlicher Experimente, die EEG-Korrelationen zwischen Menschen incl. des Einsatzes eines Faraday’schen Käfigs zeigen konnten. Mithilfe des Faraday’schen Käfigs bzw. abgeschirmter Räume scheiden in bestimmten Situationen normale EM-Wellen als Erklärung aus. Unterstützung für Säule 10 liefern zudem die Erkenntnisse aus der SpiegelneuronenForschung. Säule 11 – Arbeitsweise unseres Gehirns Die 11. Säule stellt alternative Modelle zur Arbeitsweise des Gehirns vor, nach denen auch quantenphysikalische Aktivitäten in unserem Gehirn angenommen werden können. Darüber hinaus lassen Entwicklungen im Bereich von Quantencomputern die alternativen Modelle sehr plausibel erscheinen; dort speziell die Möglichkeit von Fehlerkorrekturen und das Erzeugen stabiler Kohärenz. Hier können die biologische Struktur des Gehirns und theoretische und experimentelle Ergebnisse der Quantenphysik in einer Form in Beziehung gebracht werden, bei der auch für das Gehirn quantenphysikalische Prozesse als wahrscheinlich erscheinen. Säule 12 – Homologer Zusammenhang von Quantenphysik, Systemtheorie und SyA Last but not least führt der Vergleich von Quantenphysik, Systemtheorie und SyA zu Säule 12. Eine unglaubliche Ähnlichkeit, um nicht zu sagen Synchronizität der Grundprinzipien der verschiedenen Disziplinen unterstützen die Annahme, dass wir es hier nicht nur mit Analogien, sondern mit einem fundamentalen Zusammenhang zu tun haben. Säule 1 bildete den Start, indem sie Parallelitäten in Bekanntem sichtbar werden ließ. Sie macht deutlich, dass SyA mitnichten so einzigartig sind, wie sie heute noch erscheinen mögen. Säule 2 und 3 erforschten vorhandene Erklärungsoptionen und arbeiten Schwachstellen und Möglichkeitsräume heraus. Die Säulen 4 – 8 folgen im Prinzip einer Logik vom Mikro- zum Makro-Kosmos. Soll heißen: Die Säulen legen die weitere Grundlage, wobei ausschließlich die Quantenphysik im Fokus steht. Die Säulen 9 – 11 bilden den Übergang zu lebenden Systemen. Basieren die ersten 10 Säulen dieser heuristischen Zusammenfassung im Wesentlichen auf den Ergebnissen und Überlegungen der Forscher aus den verschiedenen Wissenschaften, so wird bei der 10. und 11. Säule zwar auf vorhandener Forschung aufgesetzt, ergänzend aber eigene weiterführende Ideen und Interpretationen entwickelt. Säule 12 schließt mit der Untersuchung der Beziehungen der zentralen Theoriekonzepte ab, die dieser Forschung zugrunde liegen. Des Weiteren werden auch hier am Ende jedes Kapitels sofort die Bezüge herausgearbeitet, die mit speziellen Aspekten der SyA in Zusammenhang zu bringen sind. Gegen Ende der Arbeit werden diese der besseren Übersicht wegen noch einmal in Kap. 9 zusammengefasst.
276
7.2
7 Auf dem Weg zu einer neuen Theorie
Ausgangsbasis für eine komplementäre Theorie der SyA
SyA lassen sich nur unter Berücksichtigung verschiedener Forschungsgebiete adäquat beschreiben Ausgehend von den bisherigen Ergebnissen und den aus verschiedensten Forschungszweigen zusammengetragenen experimentellen und theoretischen Erkenntnissen wird im Folgenden ein Gesamtzusammenhang entworfen, der anschließend detailliert aufbereitet und untermauert wird. An dieser Stelle sei noch eine persönliche Anmerkung erlaubt: Eine interessante Erfahrung bei meiner Forschung zu Erklärungen der Aufstellungsarbeit waren die unterschiedlichen Reaktionen meiner Gesprächspartner. Je nachdem aus welcher Wissenschaftsdisziplin sie kamen, waren die Erklärungsversuche, fast möchte man sagen natürlicherweise, völlig unterschiedlich. Von einem völligen Verzicht auf die Notwendigkeit einer fundierten Erklärung bis hin zu Ansätzen aus der eigenen Profession. Der ‚verrückte’ Ansatz, SyA aus der Physik besser aus der Quantenphysik heraus erklären zu wollen, stieß nur bei sehr wenigen auf Verständnis, inklusiv den Physikern selbst. Neben dem grundsätzlichen Problem, dass Menschen und lebende Systeme im allgemeinen Verständnis der Physik als makroskopische Systeme betrachtet werden, in denen sich keine Quanteneffekte zeigen können, war der Hinweis, dass eine quantenphysikalische Erklärung ein eher reduktionistischer Ansatz wäre, eine weitere gewichtige Rückmeldung. In der Tat liefert die Quantenphysik nicht alles, was für ein vollständiges Verständnis von SyA im Auge zu behalten ist – allerdings kann sie wohl doch mehr erklären, als ihr üblicherweise zugeschrieben wird. Im Folgenden soll deshalb ein Bogen, ausgehend von der Quantenphysik, über verschiedene Wissenschaften gespannt werden, aus denen Antworten abgeleitet werden, um das Phänomen von SyA in seiner Gänze zu verstehen und zu interpretieren. Verschiedene Formen der Darstellung sollen helfen die Gleichstellung und Zusammenhänge dieser Wissenschaftstheorien anschaulich zu machen. Zur Vermeidung von Redundanzen wird bis auf Weiteres überwiegend nur noch auf SyA Bezug genommen. Sie soll stellvertretend für den weiten Bereich der Intuitionsphänomene stehen. Beginnen wollen wir bei der Physik. Hier ist es in keiner Weise so, dass führende Köpfe sich nur auf Rechenoperationen fokussieren und keinerlei Versuch unternehmen würden, ihre Erkenntnisse in einen Gesamtzusammenhang bringen zu wollen. So haben Tegmark und Wheeler (Tegmark und Wheeler 2001) eine strukturelle, hierarchische Gliederung vorgestellt, in der das Puzzle verschiedener Wissenschaftstheorien in Beziehung zueinander gesetzt wird (Abb. 33).
7.2 Ausgangsbasis für eine komplementäre Theorie der SyA
277
Theorie of Everything Quantenfeld- und Allgemeine Relativitätstheorie Quantenmechanik, spezielle Relativitätstheorie Elektromagnetismus, Atomphysik, klassische Mechanik ... Chemie, Biologie, Materialwissenschaften ... Informatik, Neurowissenschaften, Medizin, Psychologie, Soziologie, Philosophie ...
Abb. 33 | Hierarchische Gliederung der Wissenschaftstheorien die sich von oben nach unten immer weiter aufteilen und letztlich immer neue, emergente Phänomene behandeln. In Anlehnung an Tegmark und Wheeler (Tegmark 2008: 103; Tegmark und Wheeler 2001).
Nach ihnen lassen sich Theorien „grob in einem hierarchischen Schema anordnen, wobei sich jede – zumindest im Prinzip – von fundamentaleren Theorien herleitet, die in der Hierarchie über ihr stehen. [...] All diese Theorien enthalten zwei Komponenten: mathematische Gleichungen sowie Worte, die erklären, wie die Gleichungen mit experimentellen Beobachtungen zusammenhängen. [...] Auf jeder Stufe der Theorie-Hierarchie werden neue Begriffe – wie Proton, Atom, Zelle, Organismus, Kultur – eingeführt, weil sie auf bequeme Weise das Wesentliche einfangen, ohne auf die übergeordneten Theorien zurückgreifen zu müssen. Im Großen und Ganzen nimmt das Verhältnis von Gleichungen zu Worten ab, wenn man in der Hierarchie abwärts schreitet, und fällt für sehr anwendungsnahe Gebiete wie Medizin und Soziologie fast auf null. Hingegen sind die Theorien in der Nähe des Gipfels fast reine Mathematik, und die Physiker kämpfen noch immer darum, die mathematisch verschlüsselten Begriffe zu verstehen“ (Tegmark und Wheeler 2001). Diese auf den ersten Blick reduktionistische Darstellung wandelt sich bei genauer Betrachtung in eine holistische132, wie im Folgenden deutlich wird oder in eine komplementäre, wie sie aus der Quantenphysik bekannt ist und dort von Niels Bohr eingeführt wurde. „dass gerade das Grundpostulat der Unteilbarkeit des Wirkungsquantums vom klassischen Standpunkt aus ein irrationales Element darstellt, das unvermeidlich einen Verzicht fordert hinsichtlich der Kausalitätsbeschreibung in Raum und Zeit und infolge der Zusammenkettung zwischen Erscheinung und Beobachtung uns auf eine Beschreibungsweise hinweist, die in dem Sinne als komplementär bezeichnet wird, dass jede gegebene Anwendung von klassischen Begriffen den gleichzeitigen Gebrauch von anderen klassischen Begriffen ausschließt, die in anderem Zusammenhänge gleich notwendig für 132
Holistisch meint in diesem Zusammenhang eine ganzheitliche Erklärung, bei dem Erscheinungsformen und Erklärungen aus unterschiedlichen Kontexten in Verbindung miteinander gebracht werden. Erscheinungsformen, die je Kontext individuell beschrieben werden müssen, aber in Summe eine Ganzheit hervorbringen ohne als Summe dieser Teile verstanden werden zu können.
278
7 Auf dem Weg zu einer neuen Theorie
die Beleuchtung der Erscheinungen sind“ (Bohr 1931: 6). „In dieser Verbindung muss jedoch nicht vergessen werden, dass es bei der Zusammenfassung der physischen und psychischen Seite des Daseins sich um ein besonderes Komplementaritätsverhältnis handelt, das sich nicht erschöpfend mittels einseitig physikalischer oder psychologischer Gesetzmäßigkeiten veranschaulichen lässt“ (Bohr 1931: 15). Aus diesen Ausführungen geht hervor, dass Bohr den Begriff ‚Komplementarität’ über den Zusammenhang Welle-Teilchen 133 hinaus verwendete. Komplementär bedeutet in diesem Sinne, dass sich bei der Beobachtung eines Geschehens, unterschiedliche Blickwinkel gegenseitig ausschließen, dennoch zusammengehören und einander ergänzen. Das bedeutet, dass wir je Untersuchungssituation und verwendeter Methoden nur einen der komplementären Begriffe anwenden können und jeweils individuelle Ergebnisse aus dieser Untersuchung erhalten. In unserem Fall gehen mit den unterschiedlichen Blickwinkeln unterschiedliche Methoden einher, so wie es für das zweite Zitat von Bohr auch notwendig wird. Der Zusammenhang kann demzufolge auch nur erkannt werden, wenn die verschiedenen Perspektiven in Beziehung zueinander gesetzt werden, was zwingend eine disziplinübergreifende Forschung und Theoriebildung nach sich zieht. Fahrenberg 134 bezeichnet ‚Komplementarität’ als Meta-Relation „um verschiedene Bezugssysteme zu kombinieren oder zu vereinigen“ (Fahrenberg 2013: 288). Aus sich heraus bleiben die Einzelergebnisse der jeweiligen Forschungsdisziplinen Stückwerk, gänzlich unverständlich oder täuschen eine Scheinplausibilität vor, die aus einer übergeordneten Perspektive nicht hält, was sie verspricht. Zur Wirkung kommt eine Variante von Kahneman’s ‚theorieinduzierte Blindheit’ (Kahneman 2016), sofern man sich nur auf einer theoretischen Betrachtungsebene bewegt. Insofern bietet sich eine alternative Darstellung an, die den hierarchischen Eindruck von Abb. 33 auflöst und einen Zusammenhang veranschaulicht, der die Wissenschaften in einen emergenten Zusammenhang bringt (Abb. 34). Ausgehend von einem naturwissenschaftlich verankerten Zentrum emergieren neue Systeme mit immer spezifischeren Phänomenen, die in jeweils anderen Wissenschaften behandelt werden müssen. Physikalisch kann man hier von einer Symmetriebrechung (Penrose 2010: 324) sprechen, bei der sich übergeordnete Symmetrien (geschlossene Zusammenhänge) in immer neue Teilsymmetrien (wieder in sich geschlossene Zusammenhänge) ausdifferenzieren. Das für die Emergenz typische Erscheinungsbild, dass das ‚Ganze’ Eigenschaften besitzt, die nicht in den Teilen zu beobachten sind (Drossel 2016: 8), zwingt zu neuen Modellen, Untersuchungsmethoden und Vorgehensweisen. In den jeweiligen Verzweigungen las-
133
134
Jordan (Jordan 1938: 110) hat den Komplementaritätsbegriff in Zusammenhang mit dem Welle-Teilchen-Dualismus sehr schön herausgearbeitet: „Die mit der Wellennatur des Lichtes verknüpften Eigenschaften einerseits und die mit der korpuskularen Natur des Lichtes andererseits verknüpften Eigenschaften sind ‚komplementär‘ zueinander in dem Sinne, dass sie niemals in einem und demselben Experiment zugleich in Erscheinung treten (und dann in einen wirklichen unmittelbaren Widerspruch geraten) können“ (in: Fahrenberg 2013: 324). Das Thema ‚Komplementarität’ wird ausführlich bei Fahrenberg behandelt (Fahrenberg 2013).
7.2 Ausgangsbasis für eine komplementäre Theorie der SyA
279
sen sich Konzepte und Gesetze beschreiben, die jeweils nur für diese Gültigkeit besitzen.
Abb. 34 | Verbindungen zwischen den Wissenschaftstheorien mit Übergangssprüngen Veranschaulicht werden die Emergenz der Phänomene und eine Auswahl an zugehörigen Wissenschaften, die in einem komplementären Zusammenhang zueinander stehen. Im Gegensatz zu dem scheinbar kontinuierlich sich entwickelnden klassischen Stammbaum ergeben sich bei genauer Betrachtung Sprünge bei den Übergängen, bei denen Phänomene erscheinen, die in der jeweils vorgeschalteten Ebene noch nicht enthalten waren und durch diese nicht vollständig erklärt werden können. Eigene Darstellung in Anlehnung an Tegmark (Tegmark 2008: 103).
Ein Gesamtverständnis ergibt sich deshalb nicht, wenn ich vom Einzelnen auf das Ganze schließe (Induktion) oder vice versa (Deduktion), wohl aber, wenn die verschiedenen Phänomene, Konzepte und Modelle miteinander in Verbindung gebracht werden. Im Prinzip sollte man dabei erwarten, dass die Gesetzmäßigkeiten eines Ausgangspunktes auch auf die entfernteren Phänomene und Wissenschaften zutreffen und Wirkung entfalten (Drossel 2016: 10). Mit jeder Schicht bildet sich zudem eine immer komplexer werdende Realität aus, die sich rein linearen, deterministischen Entwicklungen entzieht, wie es bereits in Kap. 3.1 herausgearbeitet wurde. In diesem Sinn definieren physikalische Gesetze nur „den äußeren Bereich von möglichen Prozessen in Natur und Gesellschaft“ (Ebeling und Scharnhorst 2015: 427) ohne die SyA und Intuition nicht verstanden werden kann. Gleichzeitig können physikalische Gesetze soziale Prozesse nicht vollständig abbilden oder soziale Prozesse physikalische Gesetze verletzen (vgl. ebd.). „Physikalische, chemische, biologische und soziale Gesetzmäßigkeiten bilden ineinander geschachtelte Trichter, die jeweils die Randbedingungen festlegen, unter denen die immer komplexer werdenden Systeme operieren“ (Maturana & Varela 1987 in ebd.).
280
7 Auf dem Weg zu einer neuen Theorie
Ausgehend von diesem komplementär-theoretischen Verständnis können fünf Wissenschaftsdisziplinen identifiziert werden, die wesentliche Beiträge zur Erklärung von SyA liefern. Es sind dies Physik, Biologie, Neurowissenschaften, Psychologie und Soziologie (Tab. 13). Würde nur auf eine dieser fünf Hauptkategorien verzichtet werden, fiele die logische Kette einer in sich geschlossenen Theorie der SyA in sich zusammen, wäre nicht nachvollziehbar und damit angreifbar. Tab. 13 | Wissenschaften mit Beiträgen zur Erklärung von SyA Diese fünf Wissenschaften sind notwendig, um eine Theorie der SyA beschreiben zu können. (eigene Darstellung)
Wissenschaft Physik
Biologie
Neurowissenschaften
Psychologie
Soziologie
Beitrag zur Erklärung Erklärt die Basismechanismen, sozusagen die Grundprinzipien und damit den Ausgangspunkt. Die auftretenden Phänomene lassen sich vollständig nur auf dieser Ebene beschreiben. Erklärt wie Quantenprozesse in biologischen Systemen wirken bzw. sich koppeln.
Betroffene Unterkategorie Quantenfeldtheorie und Quantenmechanik Kohärenz, Verschränkung, Superposition und Nicht-Lokalität
Quantenbiologie (Biochemie, entsprechend dem klassischen Verständnis, ist vermutlich nicht ausreichend) Erklärt wie elektromagnetische Arbeitsweise des Gehirns, Gebzw. elektrochemische Impulse hirnwellen und Spiegelneuronen und Informationen in Menschen Prozesse in Gang setzen. Beschäftigt sich mit den persön- Wahrnehmungs- und Aufmerklichen Voraussetzungen und samkeitsforschung Einfärbungen. Framing, Priming, Verzerrungen Erklärt wie soziale Systeme mit Hermeneutik, abstrakter Information umgehen Konstruktivismus und und wie es zu den dann folgen- Kybernetik den Interpretationen kommt. (Letztere ließe sich allerdings auch bei den anderen Wissenschaftstheorien zuordnen) generalisierte Q-Theorie
Mit diesen Überlegungen wird auch eine Antwort auf die in den Wissenschaften so gerne geforderte Berücksichtigung von Ockhams Rasiermesser (Rothman 2011) geliefert.
7.2 Ausgangsbasis für eine komplementäre Theorie der SyA
281
„Entia non sunt multiplicanda praeter neccessitatem.“ „Entitäten dürfen nicht über das Notwendige hinaus vermehrt werden.“ William van Ockham (1285-1347) (in Clauberg 1654: 320) Sie wird als eine der Prämissen guter wissenschaftlicher Arbeit angesehen. Dieses heuristische Forschungsprinzip der Scholastik fordert Sparsamkeit bei der Verwendung von Theorien und damit das Wegschneiden überflüssiger Anhängsel. Also die Reduzierung auf die passendste und vor allem einfachste Erklärung, die möglich ist. Als Einschränkung dieser Forderung lässt sich ausführen, dass sie nur Sinn macht, wenn zwischen mehreren Theorien, die den Sachverhalt zu beschreiben vermögen, gewählt werden kann. Genau diese Bedingung liegt im Fall von Intuition und SyA nicht vor. Zwar lassen sich bei der Intuition einige Phänomene in scheinbar einfacher Weise erklären, dies gilt mitnichten für alle. Es existiert derzeit keine einfache Erklärung im Untersuchungsfeld der SyA, die sich auf ein Wissenschaftsgebiet reduzieren ließe. Dies sei nochmals veranschaulicht durch die Art der bisherigen Annäherung an das Phänomen SyA. Die Mehrheit der bisherigen Erklärungsversuche kommt aus dem Feld der Soziologie: ‚Raumsprache’, ‚Topologischer Ansatz’, ‚repräsentierende Wahrnehmung’ versuchen auf unterschiedlichen Wegen der Phänomene habhaft zu werden. Aus der Biologie werden ‚morphogenetische Felder’ und daran angelehnt ‚wissende Felder’ angeboten. Schließlich liefert die Physik erste Ansätze in Verbindung mit dem ‚Psi- oder Vakuum-Feld’. Wie bereits ausgeführt, bestehen in allen Beschreibungen erhebliche Schwächen. Entweder sind sie nicht-ausreichend, nicht-zutreffend, nicht-akzeptiert oder sie sind nur Etikette ohne Inhalt, mithin fehlt die geforderte ‚wissenschaftliche Legitimation‘ aus Hauptkategorie 1 und Hypothese 1. Wollen wir uns den Prozess bildlich vorstellen, so bietet sich als geeignete Metapher die Zwiebel an. Schale für Schale muss abgetragen werden, um zum Kern vorzustoßen. Dennoch ist die Zwiebel ohne ihre Schalen nicht vollständig. Folgen wir den psychologischen und soziologischen Erklärungen, stellen wir fest, dass wesentliche Phänomene nicht erklärt werden können. Das Gleiche passiert mit Beschreibungen der Neurowissenschaften. Auch hier bleiben Fragen unbeantwortet. Und so stoßen wir Schicht für Schicht auf immer tiefere verborgene Fragen und Mechanismen, bis wir schließlich bei der Quantenphysik enden. Tatsächlich scheint es heute so, dass wir auch quantenphysikalische Konzepte zur vollständigen Beschreibung des Informationstransfers bei SyA heranziehen müssen. Das was Menschen letztlich als Phänomene und Ergebnisse von SyA wahrnehmen, entfaltet sich vom Zentrum her, Schale für Schale nach außen gerichtet, bis sie sich schließlich in der Makrowelt manifestieren. Die Quantenphysik stellt den Ausgangspunkt für die wahrnehmbaren Phänomene dar und damit für alles was danach kommt. Ohne sie gibt es keinerlei Möglichkeit die Phänomene vollständig zu beschreiben, denn die aktuellen Darstellungen liefern, wenn man sie genau betrachtet, wie wir es getan
282
7 Auf dem Weg zu einer neuen Theorie
haben, keine tragfähigen Modelle. Die vier weiteren Wissenschaftsrichtungen sind zwingend nötig, um zu verstehen, wie sich Information in uns zu wahrnehmbaren Wirkungen und letztlich zu interpretiertem Sinn entwickelt. Aufgrund dieser Zusammenhänge wird auch verständlich, weshalb sich ein narrativer Ansatz besser zur Beschreibung des untersuchten Gegenstandes (Wirkungsweise der SyA) eignet, als es ein mathematischer Ansatz könnte. Zum einen existieren keine mathematisch-übergreifenden Modelle zur Beschreibung und zum anderen bestünde die gleiche Problematik wie sie die GQT erlebt. In diesem Ansatz werden physikalische-mathematische Formalismen auf soziologische Fragen angewandt, ohne sich auf die Physik selbst beziehen zu wollen. Als Folge erscheint dieser Zugang den meisten derzeit noch wenig plausibel. Aus diesen Überlegungen ergibt sich eine klare Antwort auf die Frage, ob eine quantenphysikalische Erklärung ein eher reduktionistischer Ansatz wäre. NEIN, selbst unter ausschließlicher Berücksichtigung der Quantenphysik läge keine reduktionistische Beschreibung vor, denn die Quantenphysik selbst ist von Haus aus schon keine Wissenschaft, die reduktionistische Ergebnisse liefert. Und NEIN, weil die anderen Wissenschaften zwingend mit eingebunden werden müssen, will man eine adäquate Beschreibung des Geschehens liefern. Die Symmetriebrüche und die immer wieder emergenten Erscheinungen innerhalb der neuen Teilsymmetrien erfordern eine eigenständige Berücksichtigung. Jede dieser Perspektiven muss ihren Beitrag leisten, um das Gesamte verstehen zu können. Das Gesamtverständnis kann sich dann einstellen, wenn die Fachgebiete mit einem UND verbunden statt mit einem ENTWEDER-ODER getrennt werden. Diese Überlegungen möchte ich mit einem Zitat von Feynman abschließen, das unsere Ausgangsposition sehr treffend beschreibt, wie ich finde: „Wir Physiker haben uns mit diesem Problem [Warum die Natur sich so verhält wie sie sich verhält? Anmerkung des Autors] herumschlagen und einsehen müssen, dass es nicht darauf ankommt, ob uns eine Theorie passt oder nicht, sondern darauf, ob die Theorie Vorhersagen erlaubt, die mit dem Experiment übereinstimmen“ (Feynman 1992: 21). 7.3
Bedingungen für Quantenverhalten in Makrosystemen
Wie es doch gehen könnte! Wie bereits erwähnt, betrachten die meisten Physiker lebende Systeme wie Zellen, Pflanzen, Tiere oder Menschen als Makrosysteme, bei denen sich keine quantenphysikalischen Überlagerungszustände beobachten lassen. So liegt für Zeilinger das Problem nicht in der Übertragung von Quanteneigenschaften auf den Makrokosmos bzw. dass solche Eigenschaften im Makrokosmos nicht existieren würden, sondern in der Schwierigkeit, diese mit unseren beschränkten Möglichkeiten wahrzunehmen (Zeilinger 2005: 102). Unter dieser Voraussetzung entzögen sich Verschränkung und Nicht-Lokalität unserem alltäglichen Zugriff.
7.3 Bedingungen für Quantenverhalten in Makrosystemen
7.3.1
283
Drei Bedingungen nach Greenstein und Zajonc
Lösen wir uns zunächst aber vom Anspruch der Wahrnehmung und betrachten nur die Möglichkeit quantenphysikalischer Mechanismen in makroskopischen Systemen so stoßen wir auf die Arbeiten von Greenstein und Zajonc. Ihre Überlegungen lassen sich auch als Vorlage für einen ersten Plausibilitätscheck verwenden. Greenstein und Zajonc beschreiben drei Bedingungen, die zu erfüllen sind, damit auch in makroskopischen Systemen quantenphysikalisches Verhalten möglich (Greenstein und Zajonc 2005: 203–205) ist. 1. „The macroscopic variable must be well decoupled from the motion of the microscopic degrees of freedom. 2. The motion of the macroscopic variable must be controlled by a microscopic energy. 3. The temperature must be low.“ Wie wir gleich sehen werden, lassen sich die Punkte 1 und 2 relativ leicht auf lebende Systeme wie Menschen, ja sogar bis hin zu Organisationen übertragen. Untersuchen wir zunächst Bedingung 1: Greenstein und Zajonc führten als Beispiel das Zusammenspiel von Atomen und schwingendem Pendel an. Die Atome befinden sich in ihrer eigenen mikroskopischen Bewegung. Das von ihnen aufgebaute und schwingende Pendel ist mit seiner Gesamtmasse jedoch primär nicht von dieser Mikrobewegung, sondern von der Gravitation abhängig. Das Pendel ist somit von der inneren Bewegung entkoppelt. Dieser Zusammenhang lässt sich auch auf Menschen übertragen. Der Mensch als Ganzes (Körper und Geist/Verstand) lässt sich offensichtlich nicht einfach auf seine Einzelbausteine wie Moleküle, Proteine etc. zurückführen. Letztere verrichten ihre Arbeit in einem weitestgehend entkoppelten Zustand vom Gesamtsystem. Wenn einzelne Moleküle, Proteine etc. ausfallen, bemerkt dies das Gesamtsystem Mensch in der Regel nicht bzw. nicht sofort. Erst wenn viele Grundbausteine betroffen sind, können sich Wirkungen bemerkbar machen. Und dass diese Einzelbausteine das Wesen eines Menschen nicht aus sich heraus ausmachen, wird sehr deutlich, wenn wir an den Tod denken. Etwas ist abhanden gekommen, von dem wir heute noch nicht genau sagen können, was dieses ‚Etwas’ tatsächlich genau ist. Untersuchung von Bedingung 2: Hier führten die Autoren als Beispiel das makroskopisch relevante Quantentunneln bei SQUIDS135 an (ebd. 205), bei dem mikroskopische Prozesse (das Tunneln von Elektronen) makroskopisch relevante Auswirkungen haben (Stromflüsse ohne Verlust). Auch hier finden wir vergleichbare Prozesse bei Menschen, denn das Befinden und Wohler135
SQUID steht für superconducting quantum interference device, zu dt. supraleitende Quanteninterferenzeinheit. Mit solchen Geräten können sehr kleine Magnetfeldänderungen gemessen werden. B.D. Josephson lieferte hierzu die theoretischen Überlegungen.
284
7 Auf dem Weg zu einer neuen Theorie
gehen des makroskopischen Systems Mensch hängt von seinen Einzelbausteinen ab und kann von diesen wesentlich beeinflusst werden. Der Transformationsprozess von Energie (Abb. 35) respektive Information (Abb. 36) im Menschen lässt sich entsprechend darstellen.
Abb. 35 | Beispiel: Einfluss einer mikroskopischen Energie auf das Makrosystem Mensch Photonen tunneln in die Zellen und Nerven und lösen bio-chemische Prozesse aus. Sonnenlicht unterstützt den Körper zur Bildung von Vitamin D. Vitamin D ist an der Regulierung des Calciumspiegels beteiligt, der wiederum für den Aufbau von Knochen und Organen mitverantwortlich ist. Ein Mangel hat schließlich Konsequenzen für die Gesundheit des Menschen (Dusso u. a. 2005).
Informationen gekoppelt an Träger (Photonen, Moleküle etc.) treffen auf einen Menschen und fließen oder tunneln in das neue System, um dort neue Impulse auszulösen. Impulse, die über elektro-magnetische auf bio-chemische Prozesse einwirken und so Resonanz im Körper oder Gehirn bewirken; Resonanz, die durch den Menschen wahrgenommen werden kann und dessen Bewusstsein diese Wahrnehmungen schließlich interpretiert. Diese Prozesse werden in den Kapiteln Biologie und Neurowissenschaften eingehend behandelt. An dieser Stelle sei nur auf das Erkennen feindlicher Flieger und die bisher vorgestellten neurowissenschaftlichen Forschungen verwiesen.
Abb. 36 | Transformation von Information Als verallgemeinertes Modell wird hier gezeigt, wie Information sich über verschiedene Stufen von der Quantenebene bis zur Makroebene eines Menschen entfalten kann. (eigene Darstellung)
Untersuchung von Bedingung 3: In diesem Punkt gehen die Autoren noch davon aus, dass thermische Bewegungen Quanteneffekte ‚auswaschen’ (ebd. 204). Diese noch sehr weitverbreitete Überzeugung geht davon aus, dass hohe Temperaturen (bereits wenige Kelvin über dem absoluten Nullpunkt) und die damit verbundene thermische Bewegung die Wechselwirkungen zwischen den Quantensystemen so fördert, dass die spezifischen Eigen-Zustände verloren gehen. Punkt 3 scheint deshalb auf den ersten Blick Probleme aufzuwerfen. Wie jedoch noch zu zeigen sein wird, lassen sich quantenphysikalische Mechanismen bereits bei normalen Umgebungstemperaturen beobachtet. Beispielhaft sei schon einmal auf die QuantenTeleportation von Zeilinger’s Gruppe (Ma u. a. 2012a) und auf den Nachweis von Tunnelprozessen in Bakterien von der Gruppe um Plenio (Chin u. a. 2013) verwiesen. Es
7.3 Bedingungen für Quantenverhalten in Makrosystemen
285
kann sich deshalb hier um keine absolute Forderung nach tatsächlichen Tieftemperaturen handeln. Worauf es scheinbar letztlich ankommt, ist die Forderung nach Energieniveaus136 oder Erregungszuständen, die jeweils wechselwirken können und sich gegenüber dem Umfeld als widerstandsfähig erweisen. Daraus abgeleitet, drängt sich eine Schlussfolgerung auf (Greenstein und Zajonc 2005: 203–205). Die Forderung ... „The temperature must be low“ kann als relative Größe verstanden werden! denn jedes System und das mit ihm interagierende Umfeld hat jeweils spezifische Zustände, bei dem Verschränkung und Kohärenz möglich sind, deshalb ... Temperatur und Erregungszustand sind ‚relativ‘ zu sehen. Relativ zu den betrachteten Systemen, die interagieren! Sichergestellt werden muss nur eine für die beteiligten Systeme stimmige Ebene, auf der Kohärenz möglich ist. Greenstein und Zajonc formulieren damit drei Bedingungen, die relativ problemlos auf den Menschen und eigentlich alle lebenden Systeme übertragen werden können. Mit der Überwindung des Tieftemperatur-Paradigmas, das auch von Greenstein und Zajonc noch nicht gesehen wurde, sind Voraussetzung definiert, die jetzt Quantenverhalten in Makrosystemen denkbar erscheinen lassen. 7.3.2
Dreizehn Bedingungen nach Walter von Lucadou
Dass SyA die geeignete Methode darstellt, um mögliche nicht-lokale Effekte und damit die Hypothese einer Quantentheorie als Basismechanismus zu untersuchen (im Sinn der GQT als auch im Sinn der Physik), geht aus 13 von Walter von Lucadou aufgestellten Forderungen zur Untersuchung von Psi-Phänomenen hervor (Lucadou 2000). Denn im Grunde geht es bei SyA um heute noch nicht erklärbare Psi-Phänomene, nur dass sie signifikanter und wiederholbarer sind, als die bisher in dieser Kategorie untersuchten. Zudem entsprechen die Forderungen seiner Auflistung dem natürlichen Aufbau und Ablauf von SyA. In Klammern ist meine Einschätzung ergänzt, inwieweit Aufstellungsarbeit der jeweiligen Forderung entspricht; mit einer Skala von 0 bis 10, wobei 0 der Forderung ‚gar nicht’ entspricht und 10 die Forderung zu 100 %’ erfüllt. 136
Ein Energieniveau in quantenphysikalischen Systemen entspricht bestimmten Energiewerten. Da immer mehrere solcher Energieniveaus für ein System existieren, lässt sich für jedes System ein Gesamtenergiespektrum definieren. Das niedrigste Energieniveau entspricht dem Grundzustand des Systems, alle anderen sind demzufolge angeregte oder sogenannte Erregungszustände. Etwas Vergleichbares gibt es in der Psychologie. Ein Mensch im Grundzustand ist i. d. R. ruhig, im Erregungszustand dagegen aktiv bis aggressiv. Eine konstruktive Wechselwirkung erfordert zunächst die Anpassung an den Erregungszustand des Gegenübers, wie es im NLP als Pacing gelehrt wird.
286
7 Auf dem Weg zu einer neuen Theorie
Vorneweg formuliert Lucadou noch eine Metaforderung, auf die im Kapitel Verschränkung näher eingegangen wird (ebd. 15-16): „Behandelt Psi nicht wie ein Signal!“ Nun die 13 Forderungen: 1. „Sympathie, empathische Versuchsatmosphäre; (10) 2. Epidemiologische Studien, Feldstudien; (10) 3. Keine Akkumulation, kurze Runs; (10) 4. Nahe am physikalischen Prozess, Fluktuationen, viele Kanäle; (10) 5. Korrelationen zwischen physiologischen und psychologischen Variablen; (10) 6. Komplette Aufzeichnung des Prozesses – keine Datenreduktion; (10) 7. Keine unabhängigen Ereignisse, besser Markoff-Ketten*; (10) 8. Einfache Displays, eindeutige Instruktionen, keine Verschleierungen; (10) 9. Dreifachblindheit**; (5 bis 10) 10. Organisierte Geschlossenheit des Experiments, räumlich und zeitlich; (10) 11. Auswertung mit ‚Distanz‘ (Daten reifen lassen); (5 bis 10) 12. Konzeptuelle Replikationen (identische Replikationen sind nicht möglich); (10) 13. Abhängige Variablen.“ (10) * Von Lucadou, weist hier auf Ergebnisse aus PK-Experimenten (Präkognition) hin, bei denen reine Zufallsfolgen nicht so gut nachweisbar sind. Als Ursache vermutete er die Unabhängigkeit der Ereignisse, wobei Systemfluktuationen bei natürlichen Systemen immer interne Korrelationen aufweisen. Diesen Umstand setzt er in Beziehung mit Markoff-Ketten, die vergleichbar mit natürlichen Systemen, immer eine Geschichte haben. Es liegt nahe, die deutlich schwächeren Signifikanzen bei den bisher vorgestellten experimentellen Beispielen gegenüber von SyA, mit diesem Zusammenhang zu erklären. ** „Sowohl der Experimentator als auch der Teilnehmer sollte blind in Bezug auf die experimentellen Hypothesen sein (Doppelblind-Bedingungen)“ (Lucadou 2000: 17). Diese reicht aber noch nicht aus: „Weil die operationale Kenntnis von früheren Experimenten einen realen Einfluss auf jedes weitere Experiment hat, müssen der Experimentator und der Versuchsteilnehmer auch blind in Bezug auf das operationale Resultat früherer Versuche sein“ (ebd.). Auch hier lässt sich ein Zusammenhang mit unseren vorgestellten SyA- und Intuitions-Experimenten konstruieren. Viele von diesen Experimenten wurden mit (nach unserer Sprache) doppelter Verblindung durchgeführt. Im Sinne von Lucadou entsprach dies allerdings einer ‚Dreifachblindheit’. 7.3.3
Bedingungen aus der GQT für mentale Verschränkungszustände
Tressoldi und seine Gruppe, auf deren Experimente über nicht-lokale, soziale Interaktionen bereits hingewiesen wurde, fassten die Übertragung der physikalischen Gegebenheiten auf mentale Interaktionen im Sinne der GQT wie folgt zusammen (Giroldini u. a. 2016):
7.4 Anwendung der geforderten Bedingungen auf SyA
287
„This theory predicts mind-to-mind and mind-to-matter non-local correlations similar to the entanglement phenomena observed in quantum physics if the following conditions are fulfilled: 1) A system is given, inside which subsystems can be identified. Entanglement phenomena will be best visible if the subsystems are sufficiently separated such that local observables pertaining to different subsystems are compatible. 2) There is a global observable of the total system, which is complementary to local observables of the subsystems. 3) The total system is in an entangled state. For instance, eigenstates of the global observable are typically entangled states. The theory of Generalized Entanglement assumes that a distant social interaction between two persons who know each other must satisfy these requirements: a) the two persons represent two subsystems of a single larger one created by their relationship, and b) this relationship constitutes an entangled state, and furthermore that c) the measurable psychological and physiological variables represent the system’s comprehensive characteristic even though measured individually.“ Im Umgang mit mentalen Beobachtungsmerkmalen sehen sie allerdings noch Identifikations- und Operationalisierungsprobleme. So suchen sie aktuell nach Möglichkeiten Experimente zu kreieren, mit deren Hilfe die Bellsche Ungleichung (Wiseman 2014b, 2014a) überprüft werden kann; also der Unterschied zwischen klassischer Signalübertragung und quantenphysikalischer Korrelation. Mit der GHZ-Versuchsanordnung (Greenberger u. a. 2008, 1990) bedarf es nur noch der Sicherstellung einer physikalischen Verschränkung, womit ihre Suche nach Bell-Konfigurationen mittlerweile obsolet geworden ist, wie noch gezeigt werden wird. 7.4
Anwendung der geforderten Bedingungen auf SyA
Entsprechend der ersten heuristischen Betrachtung unter Kap. 7.1, wird zunächst eine zweite heuristische Annäherung unternommen, die sich auf die eben vorgestellten Bedingungen und Forderungen bezieht. Wir werden den aktuell akzeptierten Interpretationsrahmen der Quantenphysik probehalber verlassen und erste Vertiefungen bzw. Übertragungen vornehmen, um einen möglichen Argumentationsweg aufzuzeigen, wie die Phänomene in SyA entstehen könnten. Zum Zweiten werden wir noch einen Schritt weitergehen und den Betrachtungshorizont bis hin zu Organisationen erweitern. Den heuristischen Bezug starten wir in umgekehrter Reihenfolge: Die GQT (Atmanspacher u. a. 2002) und die von Giroldini u. a. (Giroldini u. a. 2016) vorgenommene Übersetzung für mentale, transpersonale Zustände lässt sich perfekt auf SyA übertragen. Ihre Fragen zur Bellschen Ungleichung und der Identifikations- und Operationalisierungsgestaltung werden sogar durch SyA beantwortet, sprich: SyA stellt die geeignete Untersuchungsmethode dar. Die technischen Problem-Aufstellungen sind
288
7 Auf dem Weg zu einer neuen Theorie
hierfür in besonderer Weise geeignet. Liefern sie einerseits die Möglichkeit einer nachgelagerten eindeutigen Identifizierung, andererseits einfache, klar definierbare Messanordnungen, die nach Schlötter so gut wie von jeder Person eingenommen werden können (Schlötter und Simon 2005: 13). Lucadou’s Erkenntnisse (Lucadou 2000) korrelieren zu 100 % mit Ergebnissen von SyA. Mit Nachdruck wird noch einmal auf die Deckungsgleichheit zwischen den 13 Forderungen und dem Ablauf bei SyA verwiesen. Damit lässt sich zunächst ebenfalls eine Entsprechung zur GQT herstellen und dem auf soziale Kontexte übertragenen quantenphysikalischen Formalismus (Atmanspacher u. a. 2002). Greenstein und Zajonc formulierten drei Bedingungen für makroskopisches Quantenverhalten (Greenstein und Zajonc 2005: 203–205): Beginnen wir mit Bedingung 3 und überlegen uns, wie diese Forderung in Verbindung mit SyA stehen könnte. Es ging hier um die Forderung nach niedriger Temperatur, die gleichzeitig als eine relative Größe in Bezug auf die beteiligten Systeme verstanden wird. Man könnte also sagen: Die Repräsentanten in der SyA schwingen im gleichen Erregungszustand (ruhige gesammelte Aufmerksamkeit) und können so eine gemeinsame Kohärenz herstellen. Dies entspricht den Forderungen, die heute an die Präparation von Qubits gestellt werden: Die Anregung muss zur physikalischen Natur des Qubits passen; jetzt eben angewandt auf das bio-physikalische System Mensch.
Für Bedingung 2, bei der es um die Abhängigkeit der makroskopischen Größe von der mikroskopischen Energie ging, ließe sich folgender Zusammenhang herstellen: Aus den Untersuchungen und den Überlegungen zu Bakterien (Chin u. a. 2013), dass sich die Photonen in bewährter quantenphysikalischer Weise den für ihre Aufgabe und ihr Ziel effektivsten und schnellsten Weg durch das Bakterium wählen, könnte das Gleiche für Photonen bzw. Informationen bei menschlichen Systemen geschlussfolgert werden. Wir betrachten den Organismus damit als offenes Quantensystem, was im Gegensatz zum Verständnis der klassischen Biologie und Physik und auch zu einem Teil der Quantenphysiker steht. Extrapolieren wir an dieser Stelle den Prozess noch bis zum System ‚Organisation’, so lässt sich etwa folgender Zusammenhang darstellen, der für ein erweitertes Verständnis zu Entscheidungstheorie und dem Überleben von Organisationen eminent wichtig ist (Abb. 37). Ideen, Ziele und Wünsche, auf mikroskopischer Ebene gekoppelt an Neuronen, treten in Kohärenz mit korrelierten Zuständen anderer Systeme (Menschen), erzeugen mentale Bilder oder Körpersymptome, beeinflussen dadurch das Verhalten ihrer Träger, welches wiederum auf das Verhalten von Gruppen und schließlich auf die gesamte Organisation wirkt.
7.4 Anwendung der geforderten Bedingungen auf SyA
289
Abb. 37 | Beispiel für Einflüsse von Ideen auf das Makrosystem Organisation Mentale Ideen und Ziele lösen Hoffnungen und Befindlichkeiten aus, welche das Verhalten von Mitarbeitern einer Organisation beeinflussen. Einzelne Mitarbeiter wiederum können das Verhalten von Gruppen und darüber schließlich eine Wirkung auf die Organisation als Ganzes entfalten. (eigene Darstellung)
Und last but not least extrapolieren wir auch Bedingung 1, bei der es um eine ausreichende Entkopplung des Makrosystems von seinen Einzelbausteinen geht, über den Menschen hinaus bis hin zu Organisationen, so lässt sich festhalten: Die Organisation ist nicht gleich der einzelne Mitarbeiter, eine Idee oder ein Ziel. Gibt es keine Ideen, keine Ziele oder fällt ein Mitarbeiter aus, kann deren Ausfall über mehr oder weniger lange Zeiträume kompensiert werden. Erst bei ausreichender Ausdehnung dysfunktionaler (dekohärenter) Zustände fängt das Gesamtsystem an Schaden zu nehmen. Wie wir sehen, lassen sich die Bedingungen recht einfach über das Makrosystem Mensch hinaus bis hin zu von ihm geschaffenen Organisationen oder gar Kulturen extrapolieren. Sicher und ohne Widerspruch auszulösen, lassen sich diese Zusammenhänge einfach als Analogie verstehen. Wir werden aber im Weiteren sehen, dass es sich mitnichten um eine reine Analogie handeln muss. In Summe drängt sich in jedem Fall die Frage in den Vordergrund: Reichen die eben aufgeführten Erklärungen, um quantenphysikalische Effekte als Grundlage für SyA plausibel erscheinen zu lassen? Die Antwort von Experten wird zu diesem Zeitpunkt wohl recht eindeutig ausfallen. NEIN! Die eben vorgenommenen Übertragungen erscheinen aus konventioneller Sicht zu beliebig und viel zu weit hergeholt. Soll der Weg des Erklärungsansatzes tatsächlich erfolgreich zu Ende gebracht werden, ergibt sich zwingend die Notwendigkeit folgende weiterführende Fragen präzise beantworten zu können: Sind Quanteneffekte (Verschränkungen, Teleportation etc.) bei Umgebungstemperatur und in Makrosystemen möglich? Lassen sich Quantenprozesse in biologischen Systemen beobachten und beschreiben? Lassen sich bei Menschen (Körper und Gehirn) quantenmechanische Wechselwirkungen definieren und diagnostizieren? Insbesondere, gibt es eine Möglichkeit, wie Menschen das Problem der Wahrnehmung verschränkter Zustände lösen können? Lässt sich schließlich eine lückenlose Prozesskette von der Mikro- bis zur Makrowelt beschreiben, in der Informationen transportiert bzw. zugänglich gemacht werden können?
290
7 Auf dem Weg zu einer neuen Theorie
Mit erfolgreicher Beantwortung dieser Fragen wäre Hauptkategorie 4 und in Folge Hypothese 4 (Kap. 2.1) und somit der letzte Baustein zur (natur-)wissenschaftlichen Legitimation gelegt. Genau dieser Versuch soll im weiteren Verlauf unternommen werden und mit ... „Alles, aber auch Alles ist Quantenphysik, und Alles ist mit Allem verbunden“ (John Archibald Wheeler) überprüfen wir, ob sich diese These von Wheeler durch SyA bestätigen lässt. Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
8
Modellentwicklung von der Mikro- zur Makrowelt
Um zu prüfen, ob die Welt des Kleinsten tatsächlich Relevanz für Prozesse im Menschen haben könnte, die mit Entscheidungen zu tun haben. 8.1
Quantenphysikalische Annäherung
Was ist Realität im naturwissenschaftlichen Sinn und woraus leitet sie sich ab? 8.1.1
Über die Illusion der Materie und die Verbindung zum Wellenmodell
Ich möchte diesem Kapitel einen Gedanken von Stephan Weinberg voranstellen, denn mit den folgenden Seiten beginnt der zweite Teil meiner Zielsetzung, dem konkreten Versuch, die Phänomene bei SyA und Intuition als ein von seinen Wurzeln her ‚quantenphysikalisches Phänomen’ zu beschreiben. Wie sich zeigen wird, findet sich in den heutigen Experimenten und Interpretationen bereits alles, was dazu nötig ist. „Unser Problem ist nicht, dass wir unsere Theorien zu ernst nehmen, sondern dass wir sie nicht ernst genug nehmen“ Stephen Weinberg (in Zeh 2011: 1). Allein diese Ergebnisse auch anzunehmen, könnte die Herausforderung sein. Bekannt ist nämlich, dass die ‚materiellen Grenzen’ eine reine Illusion darstellen, die überwunden werden muss, sollen auch Phänomene verstanden werden, die sich bisher einer Erklärung entziehen. Nachfolgend startet nun die vertiefte Untersuchung zu Säule 4 ‚Theorie zum Quantenverhalten in Makrosystemen’ und somit die Ausarbeitung der Hauptkategorie ‚Übertragungswege’ aus dem Codierungsprozess. 8.1.1.1 Die Illusion der Materie Aus den bisherigen Erkenntnissen wird ersichtlich, dass es einen Zusammenhang zwischen Materie, Energie und Information gibt, der über das übliche Verständnis weit hinausgeht. Mit der These einer Verschränkung wird auch die Notwendigkeit deutlich, sich mit dem bisher allgemeingültigen Konzept von Materie und unserer Realität auseinanderzusetzen. Dies scheint insofern notwendig, da eine der fundamentalsten Überzeugungen in der Vorstellung einer ‚festen Materie’ besteht, auf die nicht durch mentale, geistige Prozesse Einfluss genommen werden kann. Ohne eine Veränderung dieser Vorstellung wird vermutlich jede damit nicht korrespondierende Erklärung ignoriert oder abgelehnt werden. Die folgenden Ausführungen setzen deshalb die Überlegungen in Kap. 4.2.2 fort, in denen die Konzepte von Wiener und C.F. von Weizsäcker mit der Unterscheidung Materie, Energie und Information behandelt wurden. Die Frage, die hier beantwortet wer© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_8
292
8 Modellentwicklung von der Mikro- zur Makrowelt
den soll, lautet: Was ist Realität im naturwissenschaftlichen Sinn und woraus leitet sie sich ab? Weizsäcker weist bei seinem Versuch einer Sprachnormierung darauf hin, dass in den ‚exakten’ Wissenschaften der „Name einer Wesenheit mit dem Namen ihres quantitativen Maßes“ verwechselt wird. Er unterscheidet die drei Wesenheiten ‚Materie‘, ‚Bewegung‘, ‚Form‘ von ihren drei Maßgrößen ‚Masse‘, ‚Energie‘, ‚Information‘. Die bekanntesten Messgrößen in der Physik (in der Quantenphysik auch Observable137 genannt) sind sicherlich Energie (𝐸𝐸), Masse (𝑚𝑚) und Lichtgeschwindigkeit (𝑐𝑐). Größen, um die sich fast alles in der klassischen Physik dreht und die wohl zur bekanntesten Formel der Physik kombiniert wurden: 𝐸𝐸 = 𝑚𝑚𝑐𝑐 � (8.1) Diese Formel steht für die von Einstein gefundene Beziehung zwischen Energie und Masse und ist eine der Konsequenzen seiner speziellen Relativitätstheorie. Sie bezieht sich auf ein Objekt, das sich mit relativ zum Beobachter konstanter Geschwindigkeit bewegt138. „Die Relativitätstheorie hat uns in gewissem Sinne die Identität der beiden Substanzen gelehrt. Erhaltung der Materie heißt in heutiger Terminologie Erhaltung der Masse; und Energie und Masse sind relativistisch äquivalent“ (Weizsäcker 2002: 344–345). Masse ist insofern nicht mit Materie identisch, sondern nur eine Erscheinungsform selbiger. Mit Bezug auf Einstein’s Erkenntnis unterscheidet er darüber hinaus Materie und Bewegung als Substanz, wobei Bewegung als ‚das Bewegende’ definiert wird und nicht als „der aktuelle Prozess des Bewegtseins“ (vgl. ebd. 360-361). Die Energie bewegt demzufolge das, was sich als Masse (Atome, Moleküle ...) im Raum manifestiert hat und ist nicht selbst bewegt. Das, was als Frequenzen wahrgenommen wird, entspricht nach diesem Verständnis der bewegten Masse und ist Ausdruck einer dahinter wirkenden Energie. Wir werden sehen, dass diese Beschreibung mit der heutigen Vorstellung des Quantenvakuums respektive des Vakuumfeldes korrespondiert. Aus diesem Grund lässt sich Energie letztlich auch nur indirekt messen, über die Wechselwirkungen mit ihrem Umfeld, was durch Frequenzen und Frequenzänderungen zum Ausdruck kommt. Für die Energie selbst existieren unterschiedlichste Formen, wie beispielsweise thermische und elektrische Energie, Gravitationsenergie, Atomenergie oder auch kinetische oder potentielle Energie. Egal aus welcher Quelle sie stammen, sie werden letztlich alle 137
138
Im Unterschied zu den scheinbar realen, eindeutigen Messwerten der verschiedensten Wissenschaftsdisziplinen bezieht sich die ‚Observable’ in der Quantenphysik immer auf einen Wert, von dem man weiß, dass er einer von vielen möglichen ist und somit aus einer Wahrscheinlichkeitsverteilung herrührt. Camejo bezieht sich auf Bohr und Heisenberg, nach denen „in der Quantenmechanik nur messbaren Größen ein Realitätswert zugesprochen werden kann“ (Camejo 2007: 153) und Heisenberg sehr stolz darauf war, dass in seine Theorie der Matrizenrechnung nur beobachtbare und messbare Größen einflossen. Diese Beziehung ‚relativ zum Beobachter‘ wurde bereits in Kap. 4.2.2 relevant. Signalübertragung im konventionellen Sinn entspricht genau einer solchen Relativbeziehung. Wird keine Energie respektive Signale gesendet, findet auch keine Relativbewegung mehr statt und der Term c2 wird obsolet. Dieser Zusammenhang wird beim Thema Quanten-Teleportation noch relevant.
8.1 Quantenphysikalische Annäherung
293
gleichbehandelt und mit Joule (J) als Einheit versehen. Unter Masse (kg) versteht man, vereinfacht ausgedrückt, die gesamte Menge an Materie in einem Körper. Formal stellt die Masse139 die Widerstandskraft gegen eine Beschleunigung, also die Trägheit eines Körpers, dar. Einstein gelang es eine Äquivalenz zwischen Energie und Masse herzustellen und zu zeigen, dass Masse (Materie) letztlich nur sehr dicht gepackte Energie ist. Genau zum gleichen Ergebnis kommt Planck 1944: „As a man who has devoted his whole life to the most clearheaded science, to the study of matter, I can tell you as a result of my research about the atoms this much: There is no matter as such! All matter originates and exists only by virtue of a force which brings the particles of an atom to vibration and holds this most minute solar system of the atom together“ (Planck 1944). Planck gilt als der Urheber der Quantentheorie und auf ihn geht auch die Erweiterung von Einstein’ s Formel zurück: (8.2) 𝐸𝐸 = 𝑚𝑚𝑐𝑐 � = ℎ𝑣𝑣 Damit gilt der Dreiklang, Energie ist Masse ist Frequenz, mit 𝑣𝑣 als Frequenz und ℎ als Plancksches Wirkungsquantum. ℎ ist eine Naturkonstante (genauso wie c), die eine zentrale Rolle in der Quantenphysik einnimmt. Heute weiß man, dass die Planck’sche Formel eine universelle Bedeutung hat, die alle Formen von Energie umfasst. Betrachten wir uns die Materie genauer, wird auch deutlich, wie Planck zu diesem Verständnis kommen konnte. Zuvor soll zunächst noch einmal darauf hingewiesen werden, was in der klassischen Physik unter Materie verstanden wird: Als Materie werden dort die Elementarteilchen angesehen, die eine Ruhemasse besitzen und sich von außen betrachtet nicht bewegen. Ursprünglich war darunter das kleinste nicht mehr teilbare Atom verstanden worden, aus dem sich alles andere aufbaut. Demgegenüber werden der Strahlung im klassischen Verständnis die Entitäten zugeordnet, die keine Ruhemasse besitzen. Diese Vorstellung hat sich mittlerweile dahingehend geändert, dass alle Entitäten mit einem Spin ½ (Quark, Proton, Neutron, Elektron, Neutrino) zur Gruppe ‚Materie’ gezählt werden, wobei das Quark die kleinste Entität darstellt. Aber auch dieses Verständnis wird mittlerweile infrage gestellt140. Als Folge wird in den meisten Lehrbüchern nur noch von Materie gesprochen, ohne präzise Definition. Wie gleich zu sehen sein wird, kann die Aussage von Planck – es gibt keine Materie – sehr anschaulich dargestellt werden. Allgemein bekannt ist, dass das Atom sich durch Protonen, Neutronen und Elektronen aufbaut. Allerdings handelt es sich nicht um feste Bahnen, auf denen sich die Elektronen bewegen bzw. zwischen denen sie springen, wie Bohr annahm und in den Schulen vermittelt wird (Abb. 38).
139
140
Masse (kg) und Gewicht (N) sind nicht das Gleiche, was schon durch die Einheiten deutlich wird. Das Gewicht in Newton (N) angegeben bezieht die Gravitationskraft, die auf einen Körper wirkt, mit ein. Eine sehr anschauliche und ausführlichere Beschreibung auch zur Entwicklung des Materiebildes findet sich bei (Camejo 2007: 27ff).
294
8 Modellentwicklung von der Mikro- zur Makrowelt
Orbital s (l = 0, ml = 0)
Abb. 38 | Klassisches Bohrsches Atommodell und quantenmechanische Realität Links Bohr’s Vorstellung von Elektronen auf Bahnen. Rechts die gefundene quantenmechanische Wahrscheinlichkeitsdichte eines Orbitals (Ein-Elektron-Wellenfunktion). Gezeichnet wird meist nur der Bereich, innerhalb dessen es eine 90 %-ige Wahrscheinlichkeit gibt das Elektron zu finden. (Image: CC RJHall).
Mittels des Bohrschen Atommodells lassen sich nur das Wasserstoffatom und einige ähnliche Atome befriedigend erklären (Camejo 2007: 151f). Nach den Erkenntnissen der Quantenphysik gibt es vielmehr das Problem, dass sich nur räumliche Aufenthaltswahrscheinlichkeiten |Ψ� (xyz)| 2 (mit Ψ� als Zustandsfunktion des Elektrons) für die Elektronen beschreiben lassen, die sich vom Zentrum des Atomkerns bis ins Unendliche erstrecken (Abb. 39): Die sogenannten „Wolken negativer Elektrizität“ (Schrödinger 1935b: 811). Auch hier wird die räumliche Verteilung der Elektronen als Atomorbital bezeichnet. Aus diesem Grund kann dem Atom, nach der Vorstellung der Quantenphysik, keine absolute Größe zugeordnet werden, da es keine definierte Grenze besitzt. Die unterschiedlichen Größen der Atome ergeben sich aus den chemischem Bindungstypen (z. B. Ionen-, Van-der-Waals-, Metallbindung etc.), womit die feste Struktur und räumliche Ausdehnung als erstes als Illusion enttarnt wird.
Abb. 39 | Verteilung von Elektronen der ersten und zweiten Elektronenschale141. Die obere Reihe zeigt die Verteilung der Wahrscheinlichkeitsdichte |Ψ(xyz)|2 als Punktwolke, die untere Reihe als sog. Isowolke oder Grenzflächendiagramm innerhalb deren sich das Elektron mit einer 90 %-igen Wahrscheinlichkeit aufhält. (Image: AOs-3D-dots, gemeinfrei) 141
Unter http://www.orbitals.com/orb/index.html findet sich eine wesentlich umfangreichere Palette verschiedenster Verteilungsdarstellungen.
8.1 Quantenphysikalische Annäherung
295
Betrachten wir nun die Protonen und Neutronen des Atomkerns, so werden diese nach heutiger Vorstellung im Wesentlichen von Quarks142 143 gebildet. Zwei Up-Quarks und ein Down-Quark bilden ein Proton, ein Up-Quark und zwei Down-Quarks bilden ein Neutron (Hawking 2004: 87) (Abb. 40).
Proton
Neutron
Abb. 40 | Proton und Neutron gebildet durch unterschiedliche Konfigurationen von Up- und Down-Quarks. (eigene Darstellung)
Im Standardmodell der Elementarteilchenphysik bilden die Quarks damit die Grundbausteine der Materie. Tatsächlich hat man noch keine freien Quarks beobachten können, genauso wenig wie es bisher gelungen ist ihre Größe zu bestimmen. Bis zu einer Größe von 10-16 cm konnte bisher kein Wert ermittelt werden, woraus die Vermutung abgeleitet wird, dass es keine kleineren Teile mehr gibt. Entsprechend wurde auch keine innere Struktur erkannt, was dazu führt, dass sie als punktförmige Elementarteilchen betrachtet werden; was im Übrigen vollumfänglich auch für Elektronen zutrifft. Insofern scheint die Aussage ‚Protonen und Neutronen bestehen aus’ schwer zu halten und es scheint treffender formuliert: „Richtig wäre es zu sagen, dass Protonen und Neutronen innere Freiheitsgrade besitzen, die mit dem Quarkmodell gut beschrieben werden können“ (Görnitz und Görnitz 2002: 123). Da sie darüber hinaus immer nur in Gruppen auftreten, lassen sich ihre Größenangaben nur aus Rückschlüssen ableiten. Klar scheint zu sein, dass nur ca. 1 % der Masse von Proton und Neutron von der Masse der Quarks herrühren. 99 % resultieren aus Bewegungs- und Bindungsenergien zwischen Quarks und Gluonen. Das Äquivalent dieser Bewegungs- und Bindungsenergie von 1 Milliarde Tonnen würde in einen Kubikzentimeter passen (Zeilinger 2007: 72). Zur Veranschaulichung der Größendimensionen setzt Abb. 41 Atome und Quarks ins Verhältnis. Wie bereits beschrieben, kann es sich dabei nur um Werte handeln, auf die man auf der Basis von experimentellen Ergebnissen gekommen ist und die sich aus dem Zusammenhang mit bestimmten Bindungszuständen ergeben. Hingewiesen sei auf den Umstand, dass sich physikalische Realität auch aus Ableitungen ergeben kann und nicht nur eine physische Beobachtung voraussetzt, nicht unähnlich dem Untersuchungsgegenstand dieser Arbeit. 142 143
Der Begriff Quarks geht auf Gell-Mann zurück (Gell-Mann 1964). Darüber hinaus gibt es in der Teilchenphysik noch eine Vielzahl weiterer Untergruppen, bekannt auch unter dem Begriff Elementarteilchenzoo. Ein regelmäßiges Update findet sich bei der Particle Data Group unter http://pdg.lbl.gov/.
296
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 41 | Mikroskopischer Größenvergleich von Atom bis Quark (eigene Darstellung).
An dieser Stellte bietet sich ein kleines Gedankenexperiment an, um die Illusion einer festen, materiellen Welt weiter zu untergraben: Nehmen wir an, wir wollen das Volumen der 7 Milliarden aktuell auf der Erde lebenden Menschen berechnen, das nur durch das ausgefüllt wäre, was wir derzeit als kleinste Form der Materie ansehen können. Einmal zusammengesetzt aus den Atomkernen (1) und ein zweites Mal nur zusammengesetzt aus den Quarks (2). Der leere Raum zwischen Elektronen und Kern respektive Quarks wird vernachlässigt, wohlwissend, dass für das Erscheinungsbild der Form dieser Raum eine wichtige Funktionalität hat und Kräfte beinhaltet. In diesem Gedankenexperiment geht es aber nur um das, was als Materie verstanden wird. Verzichtet wird deshalb auch auf die Berücksichtigung der Elektronen, da sie sich überall aufhalten können und derzeit (genauso wie Quarks) noch keine innere Struktur aufweisen. Insofern füllen sie auch keinen Raum aus und können als punktförmig ohne Dimension betrachten werden. Gleichwohl werden sie in der Fachliteratur mit der gleichen Ausdehnungsdimension wie Quarks aufgeführt sind (Durchmesser 10 -16 cm). Darüber hinaus nehmen wir zur Vereinfachung an, dass der Mensch nur aus Wasser aufgebaut ist, was ja zum größten Teil zutrifft und dass die Weltbevölkerung im Mittel 70 kg schwer ist. Daten: In der Chemie wird die molare Masse für 6,022×1023 Wassermoleküle mit 18 g angegeben. Daraus ergeben sich für einen 70 kg schweren Menschen 2,34*10 27 Wassermoleküle. Ein H2O-Molekül besteht aus 8 Protonen O + 8 Neutronen O + 2 Protonen H = 18 Elementarteilchen für den Atomkern; 18 Elementarteilchen * 3 Quarks = 54 Quarks. �
�
� �
� �
Volumen Atom:
𝑉𝑉���� = 𝜋𝜋𝑟𝑟 � = 𝜋𝜋 (0,5 ∗ 10��� 𝑐𝑐𝑚𝑚� )� = 0,5 ∗ 10��� 𝑐𝑐𝑚𝑚�
Volumen Quark:
𝑉𝑉����� = � 𝜋𝜋𝑟𝑟 � = � 𝜋𝜋 (0,5 ∗ 10��� 𝑐𝑐𝑚𝑚� )� = 0,5 ∗ 10��� 𝑐𝑐𝑚𝑚�
8.1 Quantenphysikalische Annäherung
297
Volumen Weltbevölkerung bestehend aus Atomkernen: VAtom = Volumen Atom * Elementarteilchen * Wassermoleküle * Menschen = (0,5 * 10-36 cm3) * 18 * (2,34 * 1027) * (7 * 109) = 147 cm3 = 0,15 l als dichteste Packung 𝑃𝑃 =
� �
�∗ �� � ��
; mit 𝑃𝑃 als Packungsdichte, N Anzahl der Teilchen und
𝑎𝑎 als Abstand zwischen den Teilchenmittelpunkten: 𝑎𝑎 = 2 ∗ 𝑟𝑟 würde sich das Volumen nur auf zirka 0,3 l verdoppeln. Volumen Weltbevölkerung bestehend aus Quarks (unter der Annahme einer Größe von 10-16 cm) V����� = Volumen Quark * Quarks * Wassermoleküle * Menschen = (0,5 * 10-48 cm3) * 54 * (2,34 * 1027) * (7 * 109) = 442 * 10-12 cm3 = ca. 4,42 * 10-14 l Als Ergebnis für Atome ergibt sich ein Glas mit 0,15 l Inhalt oder als gepackte Variante (die Zwischenräume nicht ausgefüllt) mit ca. 0,3 l nur unwesentlich mehr. Für die Variante mit Quarks liegt das Ergebnis bei einer maximalen Größe von 10-14 cm3. Dieses kleine Gedankenexperiment veranschaulicht Planck’s Aussage von der NichtExistenz der Materie und macht seine Gleichsetzung von Energie und Masse nachvollziehbar. Aus der bisherigen Unmöglichkeit Quarks direkt zu beobachten lässt sich vermuten, dass Quarks, wie der gesamte Teilchenzoo, letztlich nur Energiepakete darstellen und bestimmte definierte Energieformen repräsentieren. Diese Energieformen sind nun die, die eine über unsere räumlichen Grenzen hinausgehende Interaktion zwischen Systemen ermöglichen und die Basis für Phänomene wie SyA und Intuition zu liefern vermögen. Interaktionen, die in Gestalt von konstruktiven und destruktiven Interferenzen wirken. Ketterle geht bei seiner Nobelpreisrede in Bezug auf die destruktiven Interferenzen noch einen Schritt weiter (Ketterle 2002: 1144): „atoms plus atoms add up to vacuum!“ Nochmal mit Weizsäcker: Das Faktum (das Konkrete) setzt sich nach Weizsäcker immer aus Materie und Form zusammen, was er am Beispiel eines Schrankes (Form) und dem Holz (Materie) aus dem er gefertigt ist, veranschaulicht (Weizsäcker 1961: 361). Aber auch das Holz besteht wiederum aus Molekülen und weiter aus Elementarteilchen, die die Form der jeweilig größeren Entität (Holz) aufbauen. Wie oben gesehen, bestehen diese Elementarteilchen nun nicht aus Materie, sondern sind pure Energie (Wellen mit spezifischen Frequenzen), die deshalb auch über die scheinbar räumlich abgrenzbare Gesamtentität hinauswirken kann. In diesem Sinn müsste heute bei Wiener statt ‚Materie’ eher der Begriff ‚Stoff’ (von lat. materia, = Stoff) Verwendung finden, als Repräsen-
298
8 Modellentwicklung von der Mikro- zur Makrowelt
tant für all das, was physische Körper aufbaut und in der Erscheinung von Elementarteilchen einen Spin ½ besitzt (wie beispielsweise Quarks, Atome, Moleküle, aber auch Elektronen ...). Zeilinger fasst für den Aufbau der Materie analog zusammen: „Sie hat nur drei verschiedene Bestandteile, Up-Quark, Down-Quark und Elektron. Dazu kommen noch der Kleber, Photonen und Gluonen, der das Ganze zusammenhält“ (Zeilinger 2007: 72–73). Für die Zusammensetzung dieser drei Bestandteile ist auch nach ihm die Information verantwortlich: „Information ist der fundamentale Baustein des Universums“ (ebd. 73). Aus den eben vorgenommenen konkreten Größen- und Zustandsvergleichen ergibt sich somit die gleiche Beobachtung wie aus den Überlegungen zur Information in Kap. 4.2. Der physikalische Formalismus (8.2) 𝐸𝐸 = 𝑚𝑚𝑐𝑐 � = ℎ𝑣𝑣 erweitert mit der Information 𝐼𝐼, als Ergebnis der Äquivalenzüberlegungen ergibt: (8.3) 𝐸𝐸 = 𝑚𝑚𝑐𝑐 � = ℎ𝑣𝑣 = 𝑓𝑓(𝐼𝐼) Mit Energie 𝐸𝐸 , Masse 𝑚𝑚 , Lichtgeschwindigkeit 𝑐𝑐 , Frequenz 𝑣𝑣 , Plancksches Wirkungsquantum ℎ und Information 𝐼𝐼 als Funktion, womit sich Energie und Materie in eine Funktion von 𝐼𝐼 und umgekehrt überführen lassen. Auf dem Weg von der Materie zum unendlich Kleinen verschwindet die Materie, um der Energie und schließlich der Information Platz zu machen. Ein kleiner Ausflug: Die ‚Form’, wie sie Weizsäcker versteht, die der jeweiligen Entität ihre äußere Erscheinung gibt, findet ihren materiellen Ausgangspunkt bisher in den Quarks. Die Wahl ihrer Zusammensetzung entscheidet, was ein Proton, was ein Neutron werden soll. Denkt man hier weiter, stellt sich die Frage, wo die Information letztlich ihren Ursprung hat, wie sich daraus Quarks und darauf aufbauend weitere strukturierende Formen modellieren. Die Frage stellt sich zumindest solange man den Quarks kein eigenes Bewusstsein zubilligt. Hierzu gibt es heute noch keine Antworten, sondern nur philosophische Überlegungen. Folgen wir dem Modell, dass Information den Ausgangspunkt der Entwicklung unserer Realität darstellt, dann bekommt der Bibelspruch „Im Anfang war das Wort“ (Offenbarung 19.13) eine ganz zentrale Bedeutung. Damit wird ein immaterieller Zugang beschrieben, der sich in der Welt erst realisieren muss, in gleicher Weise wie bei Wiener, Weizsäcker u. a. Ähnliches findet sich in der östlichen Lehre mit dem Konzept von Brahman, das in den Veden als ‚heiliges Wort’ bezeichnet wird, der Geist der alles durchdringt. „Durch das Wissen des ‚großen Wortes‘: aham brahma asmi ‚ich bin Brahman‘, wurde Brahman zum Weltall: und so jeder, der dasselbe weiß“ (Brihadaranyaka Upanishade 1.4.9.). Oder ist es ein Bewusstsein, das sich emergent aus den sich dann
8.1 Quantenphysikalische Annäherung
299
entwickelnden Entitäten (Teilchen- bzw. Energiearten) herausgebildet hat, oder ist es ein Gott, wie er in den Religionen angenommen wird? An diesem Punkt sind wir vermutlich an der Schnittstelle zum metaphysischen Bereich angekommen, der im Rahmen dieser Arbeit nicht weiter vertieft werden kann. Festgehalten soll nur werden, dass es eine große Bewegung unter den Naturwissenschaftlern gibt, die eine Erklärung in einer rein physikalischen Emergenz suchen und eine Gegenbewegung, die sich davon löst. 8.1.1.2 Die Illusion von Teilchen, Lokalität, Zeit Mit der oben vollzogenen Betrachtung sind wir noch im Teilchenmodell der Physik geblieben. Die Quantenphysik stellt dieses Modell nun durch Experimente und Beobachtungen in mehrfacher Hinsicht infrage: 1. Das Erscheinungsbild eines Teilchens hängt von der Beobachtungssituation ab und verwandelt sich in einem unbeobachteten Moment in ein Wellenbild. 2. Zustände sind wahrscheinlichkeits- bzw. möglichkeitsabhängig und nicht deterministisch festgelegt. 3. Wellen entwickeln sich nicht kontinuierlich, sondern ergeben sich durch viele Einzelereignisse. 4. Es scheint keinen leeren Raum zu geben. 5. Zeit verhält sich in keiner Weise mehr wie ein nach vorne gerichteter Zeitpfeil. Mit dieser Veränderung von einem Teilchen- zu einem Wellenverständnis werden nun konsequent die Beobachtungen (Kap. 8.1.1.1) in ein Modell überführt, das Energie und Information tatsächlich als sehr viel relevanter für unsere Realität erscheinen lässt als bisher angenommen. Gleichzeitig werden die Vorstellungen von Planck, Weizsäcker, Görnitz, Wiener u. a. fundiert hinterlegt. Das Modell ermöglicht ein Verständnis, das die Phänomene bei SyA aus naturwissenschaftlicher Perspektive beschreibt. Alle fünf Aspekte lassen sich durch das Doppelspalt- (Abb. 42) und seiner Variante, dem Delayed-Choice-Experiment, darstellen. 144
144
Eine Gruppe von Physikern verfolgt derzeit einen Ansatz, genannt ‚quantum retrocausality’, der eine kausale Erklärung liefern würde. Aus ihrer Sicht kann die Gegenwart sehr wohl die Vergangenheit beeinflussen. Die Vorträge zu einer Konferenz 2016 in San Diego finden sich unter (Sheehan 2017) oder als einzelne Paper unter https://aip.scitation.org/toc/apc/1841/1?expanded=1841
300
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 42 | Doppelspaltexperiment und seine experimentelle Demonstration Das linke Bild (CC NekoJaNekoJa) stellt eine Prinzipskizze eines Doppelspaltexperimentes dar. Das rechte Bild (CC Tonomura) zeigt das Interferenzmuster eines realen Doppelspaltexperiments. Jeder Punkt steht für das Ankommen eines Elektrons auf dem Schirm. Anzahl Elektronen: 10 (a), 100 (b), 3.000 (c), 20.000 (d), 70.000 (e) (Tonomura u. a. 1989: 120).
Doppelspalt-Experiment Ein Elektronenstrahl (aber auch Photonen, Neutronen, Atome) wird durch zwei parallele Schlitze geschickt und auf einem Schirm145 (z. B. Fotoplatte oder andere Detektoren) aufgefangen (Reineker u. a. 2007: 451–452). Drei Varianten treten nun in Erscheinung: 1. Verschließt man einen Spalt, so zeigen sich hinter dem jeweils offenen Spalt Streifen, die das Auftreffen der Elektronen anzeigen. 2. Öffnet man beide Spalten, so findet man keine zwei Streifen, was üblicherweise bei Teilchen zu erwarten wäre, sondern ein Interferenzmuster146. Erstaunlicherweise zeigt sich dieses Interferenzmuster auch, wenn die Elektronen soweit reduziert werden, dass sie praktisch einzeln den gesamten Weg von der Quelle bis zum Detektor zurücklegen. Im letzten Fall entsteht der Eindruck, dass die einzelnen Elektronen mit sich selbst interferieren. Aus diesem Experiment leitet sich die Vorstellung der Wellennatur der Elementarteilchen ab. Die Teilchenvorstellung war deshalb nicht aufrechtzuhalten, weil auch die Teilchen, die mit sich selbst interferiert haben, sich als ganze Teilchen erwiesen (ebd. 450). 3. Sind beide Spalten offen und wird jetzt versucht, den Weg der Elektronen zu erkennen, womit eine Beobachtungssituation kreiert wird, so erscheinen wiederum nur zwei Spalten. Das Interferenzmuster verschwindet. In der experimentellen Demonstration von Abb. 42 (a) bis (e) (Tonomura u. a. 1989) lässt sich die scheinbare Teilchennatur als auch die Wellennatur erkennen. Jedes Elektron erzeugt auf dem Schirm einen Punkt. Je mehr Elektronen gesendet werden, desto 145 146
Eine ausführliche Darstellung findet sich in (Greenstein und Zajonc 2005: 1–21). Interferenzmuster sind Überlagerungen zweier oder mehrerer Wellen. Als Ergebnis ergibt sich eine Superposition dieser Wellen.
8.1 Quantenphysikalische Annäherung
301
deutlicher bildet sich der Wellencharakter ab, der erst bei großer Intensität deutlich in den Vordergrund tritt. Wie man sehr schön erkennen kann, wird im Experiment der Wahrscheinlichkeitscharakter der Quantenwelt offensichtlich. Die einzelnen Einschläge lassen sich nicht deterministisch vorhersagen, wie es in der klassischen Welt üblich ist, zusammen bilden sie jedoch ein Verteilungsmuster. Mithilfe diese Versuches lässt sich auch das quantenphysikalische Verständnis zur Superposition veranschaulichen (Reineker u. a. 2007: 450): Ist der Zustand eines Elektrons vor dem Schirm noch als ein Zustand |Ψ⟩ zu beschreiben, so liegen nach Durchgang durch den Spalt zwei Teilzustände |Ψ� ⟩ und |Ψ� ⟩ vor. Beide Teilzustände zusammen ergeben dann eine Superposition. � |Ψ⟩ = (|Ψ� ⟩ + |Ψ� ⟩) (8.4) √�
Diese Gleichung beschreibt zunächst nur die Wahrscheinlichkeitsfunktion für die Zustände hinter dem Schirm. Für die Wahrscheinlichkeit die Teilchen tatsächlich am Ort 𝑥𝑥 auf dem Schirm zu finden, bedarf es, wie schon bei Neumann Kap. 4.2.2.4 ausgeführt, die Berechnung der Wahrscheinlichkeitsdichte. � |Ψ(x)|� = [|Ψ� (x)|� + |Ψ� (x)|� + |Ψ� (x)⟩⟨Ψ� (x)| + |Ψ� (x)⟩⟨Ψ� (x)|] (8.5) � Die Terme eins und zwei stehen für die Wahrscheinlichkeit, dass die Teilchen durch Spalt 1 oder Spalt 2 geflogen sind. Die weiteren Terme beschreiben das Interferenzmuster. Weshalb in einer Beobachtungssituation sich ein klassisches Bild zeigt, wird durch eine genaue quantenphysikalische Betrachtung ebenfalls anschaulich. Für die Beobachtung bedarf es einer Wechselwirkung mit einem Detektor (z. B. Lichtblitz oder induzierter Stromstoß). Diese Wechselwirkung beeinflusst den Zustand des Teilchens und liefert eine konkrete Information über den Ort. Mit diesem tiefen Eingriff auf physikalischer Ebene verschwindet die Unbestimmtheit und dadurch die Superposition der Quarticle147. Konsequenterweise löst sich dann die Interferenz (Term 3 und 4) auf und es verbleiben nur noch Term 1 und 2. Ein Teil der Physiker spricht jetzt vom Kollaps der Wellenfunktion, von vielen Möglichkeiten zu einem Faktum, bei gleichzeitigem Verschwinden der ursprünglich vorhandenen anderen Möglichkeiten. Ein anderer Teil der Physiker spricht bei einem solchen Vorgang von Dekohärenz, einem Verlust der Superposition und Übergang in Zustände ohne Interferenz. Diese gängigen Erklärungsmodelle werden jedoch zweifelhaft, wenn die wechselwirkungsfreien Messverfahren herangezogen werden. Ein solches Verfahren stellt das Mach-Zehnder-Interferometer (ebd. 493) zur Verfügung. Wenn keine Wechselwirkung existiert, wie erklärt sich dann die Zustandsveränderung? Als weitere Konsequenz wird auch verständlich, weshalb die Quantenphysik erkannt hat, dass Kontext (Lapkiewicz u. a. 2011) und Beobachter eine zentrale Rolle für den 147
In diesem Zusammenhang werde ich weiterhin für den Begriff des Teilchens in der Quantenphysik den Begriff ‚Quarticle’ verwenden, der auf Wilczek (Wilczek 2017) zurückgeht und quantenphysikalische Teilchen beschreibt, für die die Unbestimmtheitsrelation gilt.
302
8 Modellentwicklung von der Mikro- zur Makrowelt
Ausgang eines Experimentes spielen. Ihre Wechselwirkung mit dem zu beobachtenden System verändert das System und damit auch die Ψ-Funktion. Wie dieses Geschehen zu verstehen ist, wird heute noch nicht einheitlich beantwortet. Die Kollaps-Interpretation und die Dekohärenztheorie kommen zu unterschiedlichen Auslegungen. Neue Experimente im Kontext von Verschränkungsuntersuchungen ermöglichen eine Überwindung dieser Pole. Beide Ansätze spielen eine wichtige Rolle für das weitere Verständnis und werden noch vertieft betrachtet, deshalb mehr dazu in diesem Kap. und in Kap. 8.1.2. Eine weitere Einschränkung ergibt sich aus dem Zweifel einer besonderen Rolle des Bewusstseins beim Messprozess (ebd. 458), auf das ebenfalls weiter unten und im Kap. 8.1.3 eingegangen wird. Vergleichen wir das quantenphysikalische Wellenmodell mit EM-Wellen oder Wasserwellen so lässt sich folgendes konstatieren: EM-Wellen erscheinen zwar als kontinuierliche Wellen, unterliegen aber den gleichen Gesetzmäßigkeiten, da sie als EM-Strahlung aus Quanten aufgebaut sind. Diese scheinbar kontinuierlichen klassischen Wellen setzen sich konsequenterweise ebenfalls aus vielen Einzelereignissen zusammen, zumindest wenn man sie misst. Sie unterscheiden sich nur durch Wellenlänge und Frequenzen und bilden das gesamte EM-Strahlungsspektrum ab, von Radio- bis Gammawellen. Licht-Photonen sind dabei ebenfalls Quanten, nur dass sie für uns als sichtbares Licht erscheinen. Das Gleiche gilt im Grunde auch für Wasserwellen. Die scheinbar einheitliche, an der Oberfläche sichtbare Welle setzt sich aus vielen kleinen Einzelwellen zusammen, die zudem auch noch unterschiedliche Frequenzen und Wellenlängen haben. Sichtbar ist deshalb auch hier nur die Superposition des Gesamtsystems. Mit diesen Erkenntnissen sind die Punkte 1 bis 3 (Beobachtungsabhängigkeit, nicht deterministisch, Wellen zusammengesetzt aus vielen Einzelergebnissen) unterlegt und der Unterschied zur klassischen Vorstellung veranschaulicht. Die verbreitete Vorstellung, dass sich diese Phänomene nur im rein Mikroskopischen und bei sehr niedrigen Temperaturen ereignen und beobachten lassen, wird als nächstes widerlegt. Quantenphysik in Makrosystemen und Hochtemperatur Die experimentellen Entwicklungen führen die Evidenz von quantenphysikalischen Möglichkeiten auch in unserer normalen Umwelt vor Augen. Dies liefert die Voraussetzung für Quantenprozesse in biologischen Systemen. Mittlerweile wurde das Doppelspalt-Experiment nämlich erfolgreich mit Makrosystemen durchgeführt, wozu Bose-Einstein-Kondensate nahe dem Nullpunkt (Ketterle 2002) und komplexe Moleküle wie Fullerene (Sezer u. a. 2015; Gerlich u. a. 2011; Arndt u. a. 1999) zählen. In diesen Fällen sprechen die Physiker von Materie-Wellen. In weiteren Versuchen konnte das Mikrogitter durch ein Gewebeskelett von Algen ersetzt werden (Sclafani u. a. 2013). Damit lässt sich zeigen, dass Zellen respektive deren Gewebestruktur wie ein Doppelspalt zu wirken vermögen, hinter dem eine quanten-
8.1 Quantenphysikalische Annäherung
303
physikalische, kohärente148, wellenmäßige Ausbreitung der Information möglich ist. Die Nachweismöglichkeit mit ihrer Technologie erstreckt sich nach Arndt u. a. bis zur Größe von Viren, Proteinen und darüber hinaus (Arndt und Hornberger 2014; Hackermüller u. a. 2004). Die Forscher können zeigen, dass dieses Verhalten in biologischen Makrosystemen mit deren Speicherfähigkeit von Energie zusammenhängt und der quanten-klassische Übergang z. B. bei C70 Fullerene im Bereich von über 600 bis 2.700 °C liegt. Verantwortlich dafür wird die thermische Emission von Photonen (ebd.) gemacht, die in thermischen Nicht-Gleichgewichts-zuständen eben nicht notwendigerweise ihren kohärenten Zustand verlieren und dekohärieren. Gleichzeitig wird auch die Vorstellung überholt, dass quantenphysikalische Experimente nur bei nahe 0 °C durchgeführt werden können. Neue Experimente (Tomkovič u. a. 2014) zeigen, dass spontan emittierte Photonen unter gewissen Umständen (hier ein in der Nähe befindlicher Spiegel) ein verschränktes Atom-Photon System aufbauen. Dabei fungiert das emittierte Photon quasi als kohärenter Strahlenteiler für die Materiewelle der Atome, vergleichbar dem Teiler zwischen den beiden Spalten des Doppelspaltexperiments. Diese Beobachtung eröffnet zusammen mit dem Experiment von Sclafani u. a., bei dem die Zellstruktur der Alge als Doppelspalt fungiert, eine Option für die Erklärung einer quantengleichen, wellenartigen Ausbreitungsdynamik von Photonen in Algen (Chin u. a. 2013), welche in Kap. 8.2, Biologie, noch eine Rolle spielen wird. In diesem Fall würde die Skelettstruktur wie bei Sclafani u. a. das Gitter bilden und die Photonen würden sich als Welle innerhalb der Zelle ausbreiten, bei gleichzeitigem Aufbau einer Atom-Photon-Verschränkung. Ein Mechanismus, der auch im Kap. 8.3, Neurowissenschaften, zum Tragen kommt. Nach den oben erwähnten Experimenten stellt die Temperatur in den Zellen ebenfalls keine verhindernde Größe mehr dar und wird deshalb irrelevant für die Frage von Quantenprozessen in lebenden Entitäten sein. Welle-Teilchen-Dualismus In fast allen wissenschaftlichen Abhandlungen wird auf Grund der obigen Beobachtung von einem Welle-Teilchen-Dualismus gesprochen und gerne auch als unumstritten dargestellt. Tatsächlich existieren einige kritische Anmerkungen zu diesem Modell und zahlreiche alternative Erklärungen. Drei werden hier näher betrachtet, denn sie sind für den Übergang von der Quanten- zu Makrowelt relevant: 1. Kopenhagener Interpretation 2. De-Broglie-Bohm-Theorie 3. Erweiterte De-Broglie-Führungswellen-Theorie
148
lat.: cohaerere = zusammenhängen; Kohärenz beschreibt hier alle Korrelationen (Beziehungen, Zusammenhänge) zwischen physikalischen Größen. Sie ist eine physikalische Eigenschaft von Wellen, die Interferenzphänomene ermöglicht.
304
8 Modellentwicklung von der Mikro- zur Makrowelt
Zu (1) Kopenhagener Interpretation (KI) Die oben bereits beschriebene Idee, dass sich die Elektronen wie eine Welle ausbreiten und erst durch die Beobachtung zu einem Faktum kollabieren, entspricht der KI. Sie haben allerdings zunächst keine definierte Position im Raum, und deshalb kann auch jedes Elektron durch beide Spalten gleichzeitig gehen und mit sich selbst interferieren. Zudem wird hier die Vorstellung vertreten, dass das Elektron erst durch den Prozess der Messung entsteht. Zu (2) De-Broglie-Bohm-Theorie (DBBT) Die erste Idee in der Quantenphysik, dass Teilchen sich wie Wellen verhalten, geht auf De Broglie zurück (Broglie 1987). Er verwendete auch als erster den Begriff der Führungswelle (engl. ‚pilot wave’), ohne jedoch Angaben zu ihrer physikalischen Grundlage zu liefern. Auf ihm basiert das heutige Konzept des ‚Quantenvakuums’ (Bush 2015: 49). In späteren Jahren unterzog er seinen Ansatz einer Neuinterpretation (Broglie 1970), indem er den von Bohm entwickelten Ansatz, bekannt unter ‚Bohmscher Mechanik’ (Bohm und Hiley 1982), mit einbezog. Beide Theorien firmieren heute gemeinsam unter ‚De-Broglie-Bohm-Theorie’. Die alternative Vorstellung der Bohmschen Mechanik geht von einer immer vorhandenen, definierten Position des Elektrons aus. Seine Position wird jedoch von einer Führungswelle beeinflusst. Während in diesem Modell die Elektronen nur durch ‚einen’ Spalt wandern, durchläuft die Führungswelle beide Spalten gleichzeitig. Durch den gleichzeitigen Durchgang der Führungswelle durch die Spalten entstehen Interferenzen, die die beobachtbaren Interferenzmuster verursachen. Unter Beobachtung (Messung am Spalt) tritt eine Störung der Führungswelle bereits am Spalt auf und verrät so den Weg des Elektrons (Balken statt Interferenzmuster). Die Lokalisation ergibt sich erst durch diese Messung. Bohm verwendet bei seinen Berechnungen sowohl die zeitabhängige Schrödingergleichung als auch eine Führungsgleichung, in der die Wellenfunktion das Teilchen führt. Beide Modelle (KI und DBBT) lassen sich experimentell nicht unterscheiden, da sie jeweils die exakt richtigen Werte für die Messungen liefern. Ihr zentraler Unterschied bezieht sich nur auf den Beitrag zur Erklärung der Phänomene wie dem Doppelspalt. Neueste Experimente (Mahler u. a. 2016) konnten die Annahmen von Bohms Theorie exakt bestätigen und werden vermutlich dieser wenig beachteten Interpretationsvariante neuen Auftrieb geben. Zu (3) Erweiterte De-Broglie-Führungswellen-Theorie (EDBFT) Experimente im Bereich der Strömungsmechanik mit mikrokleinen Tropfen (Couder und Fort 2006) zeigen überraschend hohe Ähnlichkeit mit Quantenverhalten149. SilikonTropfen schweben über einer Oberfläche von vibrierendem Silikonöl (Bad), angetrieben durch ihr eigenes Wellenfeld (Abb. 43). Die Vibration ist auf eine Frequenzschwelle des 149
Quantenverhalten wie: „single particle diffraction, tunneling, wave-like statistics in confined geometries, quantized orbits, spin states, orbital-level splitting, and more“ (Bush 2015: 48).
8.1 Quantenphysikalische Annäherung
305
Bades eingestellt, bei der sich keine Kohärenz zwischen Bad und Tropfen zeigt, weshalb der Tropfen nicht ins Silikonöl eintaucht und kein ununterscheidbarer Teil des Ganzen wird. Die Tropfen oberhalb der Oberfläche bleiben stabil, wohl aber finden Wechselwirkungen zwischen Bad und Entität statt. Diese Beobachtung übertragen Bush und andere auf ein Modell der ‚wandernden Tropfen’, das näher bei De Broglie als bei Bohm liegt150. Berechnungen und Überlegungen führen zur Idee, dass in diesen Experimenten der Übergang von der Quanten- in die Makrowelt beobachtbar ist und dass die Quantenwelt entsprechend aufgebaut sein könnte. Der Ablauf am Doppelspalt verhält sich danach analog zu einer realen Welle, die auf ein Hindernis trifft, wobei sich die Elektronen mithilfe ihres selbst generierten Wellenfelds auf der Welle des Vakuumfeldes reitend im Raum ausbreiten und selbstgesteuert einen Spalt aussuchen, jedoch zunächst ohne von außen wahrnehmbare spezielle räumliche Lokalisation. Auch hier ergibt sich die Lokalisation erst durch eine Messung.
Abb. 43 | Tanzender Tropfen (Image aus Bush 2015). Ein Silikontropfen schwebt über einer Oberfläche aus Silikonöl. Dies gelingt durch unterschiedliche Schwingungsfrequenzen von Tropfen und Öl. Auf der Oberfläche des Öls bildet sich ein Wellenfeld, das die Wechselwirkung sichtbar werden lässt.
Interessant ist die erstmalig entwickelte Vorstellung einer direkten Verbindung von elektromagnetischem Feld (EMF) und dem Feld des Quantenvakuums. La Peña und seine Gruppe weisen diesen Zusammenhang über die Verbindung von der De-BroglieWellenlänge zur Natur von EM-Wellen und deren Vibrationen sehr klar nach (Peña u. a. 2015). Demnach stammt die Führungswelle aus dem Vakuum- bzw. Null-Punkt-Feld und strukturiert das Gesamtsystem. Die Vibrationen der Entitäten wiederum, also die Schwingungen dessen was wir als Partikel/Entitäten wahrnehmen, triggern die Führungswelle, indem sie selektiv mit Wellen im Vakuumfeld in Resonanz treten. Diese Resonanzwechselwirkung verstärkt wiederum die EM-Führungswelle und macht sie und die Entitäten selbst für uns wahrnehmbar (Bush 2015: 49 u. 52). Die moderne Erweiterung erscheint nach Bush als eine plausible Möglichkeit, die Brücke zwischen Mikro- und Makrokosmos zu schließen. 150 Bei Bohm gibt es keine wirkliche Unterscheidung zwischen dem Teilchen und seiner Führungswelle. Bei De-Broglie dagegen kann dem Quarticle eine größere Eigenständigkeit zugesprochen werden.
306
8 Modellentwicklung von der Mikro- zur Makrowelt
Im Quantum Magazin wird Bush (Damiano u. a. 2016) mit den Worten zitiert: „This is a classical system that exhibits behavior that people previously thought was exclusive to the quantum realm, and we can say why. [...] The more things we understand and can provide a physical rationale for, the more difficult it will be to defend the ‘quantum mechanics is magic’ perspective“ Bush in (Wolchover 2014). Bush weist mit seinem Modell einen Weg auf, der die Inkonsistenzen der KI überwindet und nachvollziehbare Zusammenhänge anbietet, zumindest aber die Möglichkeit eröffnet, neu Theoriebildungen anzustoßen. Aus dem jetzigen Ansatz von Bush reduzieren sich zumindest die Unterschiede zwischen Quanten- und klassischer Physik auf wenige Merkmale. An gleicher Stelle kommen aber auch einige kritische bzw. zweifelnde Stimmen zum Ausdruck, die dem Konzept der Führungswelle noch nicht folgen wollen. Einer der Interviewpartner stellt fest: Die Theorie „only describes simple interactions between matter and electromagnetic fields“ Wallace (in Wolchover 2014). Für einen neutral Außenstehenden wirft diese Aussage natürlich Fragen auf: Welche Ergebnisse benötigt eine Physik, um Theorien auszusortieren, die offensichtliche Lücken besitzen? Wie lässt sich wieder eine Offenheit für neue Theoriebildungen generieren, wenn Beispiele aus der Physik selbst diese nicht initiieren können? Die KI mit ihrer rein mathematischen Wirklichkeitskonstruktion lässt in jedem Fall viele Fragen offen, die sich für das Phänomen SyA und Intuition stellen. Unterschiede und Gemeinsamkeiten: Der wesentliche Unterschied der drei Modelle liegt in ihren Annahmen. So geht die KI von einer reinen Wahrscheinlichkeitsbetrachtung aus, bei der vor der Messung nichts existiert und festgelegt ist, wohingegen die DBBT und EDBFT rein deterministisch interpretiert werden. Alle drei Theorien beinhalten allerdings das Konzept der Nicht-Lokalität, das Korrelationen bzw. Wechselwirkungen auch über räumliche und zeitliche Entfernungen zulässt, wie sie nachfolgend im Delayed-Choice-Experiment auftreten und auch über kosmische Distanzen nachgewiesen wurden (Leung u. a. 2018). Im Gegensatz zur KI bieten die beiden anderen Ansätze einfacher nachvollziehbare Modelle für das, was als Fernwirkung (spooky actions) bezeichnet wird und in SyA beobachtet werden kann, denn die Wellenfunktion bei Bohm und De-Broglie bindet letztlich alle Entitäten des gesamten Universums zusammen. Im Gegensatz zur reinen Wahrscheinlichkeitsbetrachtung im Kopenhagener Ansatz bleibt auch hier die Wahrscheinlichkeitsrechnung gültig, nur ergeben sich die Resultate aus den Aktionen und Wechselwirkungen aller involvierten Entitäten und nicht nur rein zufällig; letztlich auch zwischen der Messapparatur und dem Bediener (Mahler u. a. 2016: 1). Auch wenn die letzten beiden Modelle als deterministisch angesehen werden, beinhalten sie keine deterministische Festlegung der Zukunft. Die unüberschaubare Komplexität, ausgelöst durch die Wechselwirkungsmöglichkeiten aller Entitäten über Raum und Zeit, ermöglicht eine sich immer weiter entwickelnde Emergenz neuer Möglichkeiten. Mit der DBBT und der EDBFT erscheint nun eine neue Frage: Handelt es sich um lokale oder nicht-lokale Theorien bzw. Realitäten? In unserer Wahrnehmung scheint die Nicht-Lokalität die richtige Antwort. Durch die Verbindung mittels Führungswelle
8.1 Quantenphysikalische Annäherung
307
schrumpft das Universum andererseits zu einem einzigen Ort zusammen, der zwar ausgedehnt ist, in dem jedoch alles miteinander in Verbindung steht. Strenggenommen kann man auch hier von einer Superposition sprechen, eine Überlagerung von lokal und nicht-lokal, von Verbindung und Trennung, abhängig von der Perspektive. Aus der Perspektive eines Menschen würden wir auch nicht von nicht-lokal sprechen, wenn Störungen bei Nerven im Gehirn zu Problemen an den Füßen führen oder grundsätzlich mentale Probleme (z. B. Trauer) Herzprobleme nach sich ziehen. Würde eine beliebige Zelle im Körper die gleiche Antwort geben? Zeh meint zur Wirklichkeitskonstruktion der Quantenphysik, dass sie den „Begriff lokaler realer Zustände aufgeben muss – nicht aber den einer global definierten Realität“ (Zeh 2011: 25). Die Antwort in erster Näherung würde er somit als Problem der Dimensionen auffassen. Die Antwort zweiten Grades könnte das Problem als komplementäres Phänomen beschreiben, bei dem durch eine Beobachtung (Messung) nicht beides (lokal und nicht-lokal) gleichzeitig erkannt werden kann. Aus Bohm’s Sicht lässt sich das Problem einer wechselseitigen Wirkung über Entfernung oder Superpositionen interner Zustände in jedem Fall nicht einfach auf separierte Teilsysteme reduzieren, wie es in den meisten Modellen geschieht. Entsprechend wird der DBBT von einigen Wissenschaftlern eine holistische Perspektive zugeschrieben: „to see the world as an undivided whole“ (Greenstein und Zajonc 2005: 166). Sie ist, wie es aussieht, aktueller als je zuvor151. Welle – Teilchen – Unterscheidung im Rahme der QFT Wie bereits in Kap. 5.3.6 ausgeführt, werden in der QFT Systeme, die sich aus mehreren Teilchen zusammensetzen als Quantenfelder betrachtet. Mit der QFT erweitert sich jetzt der Anwendungsbereich quantenphysikalischer Überlegungen. Die Behandlung der Quantenmechanik in diesem Kapitel ist deshalb nötig, weil sich auf ihrer Ebene der erste Übergang zur Information verorten lässt. Mit der Erweiterung auf QFT entspricht das quantenphysikalische Verhalten nicht mehr dem des einzelnen Teilchens, sondern nur noch dem des gesamten Feldes. Konsequenterweise werden in der QFT deshalb Teilchen und Wellen gleichbehandelt, was damit auch den Welle-Teilchen-Dualismus der Quantenmechanik grundsätzlich auflöst (Kuhlmann und Stöckler 2015: 226). Die bisher in diesem Kapitel vorgestellten Modelle resultieren noch aus dem Versuch der Quantenmechanik einzelnen Entitäten gezielte Eigenschaften zuzuordnen. Große Mehrteilchensysteme besitzen jedoch ein Bündel solcher Eigenschaften, die ein ganzes Feld aufspannen, welches ebenfalls mit einer Wellenfunktion Ψ beschrieben 151
Eine Bestätigung würde auch Bell recht geben, der zu einem ausgewiesenen Unterstützer der Führungswellen-Theorie wurde und zu dieser Theorie verlauten ließ: Sie, die Führungswelle, „seems to me so natural and simple, to resolve the wave-particle dilemma in such a clear and ordinary way, that it is a great mystery to me that it was so generally ignored“ (Wolchover 2014). Denn er ging ebenfalls von einem existierenden Mechanismus aus: „there must be a mechanism whereby the setting of one measuring device can influence the reading of another instrument, however remote“ Bell in (Josephson und Pallikari-Viras 1991: 199).
308
8 Modellentwicklung von der Mikro- zur Makrowelt
werden kann und sich deutlich über den normalerweise beobachtbaren Ausdehnungszustand hinaus erstreckt. Im klassischen Sinne sind damit die von jeder Entität abstrahlenden EMF zu sehen. Im quantenphysikalischen Sinn kommen alle Verschränkungszustände hinzu. In Anbetracht dessen, dass dem Vakuum ein Quantenzustand mit einer Wellenfunktion zugebilligt wird und mit ihr unendlich viele Freiheitsgrade fundamentaler Felder repräsentiert werden (Zeh 2011: vgl. 24), gleichzeitig die Kosmologie das Universum mit einer Wellenfunktion für den Kosmos beschreibt (Görnitz und Görnitz 2009), liegt es nahe den Übergang vom Photon zum Kosmos in der gleichen Logik zu behandeln: Ψ������ Ψ������ Ψ���� Ψ�����ü� Ψ����� Ψ������ Ψ������ Mit jeder Größenordnung erweitern bzw. verändern sich die Möglichkeiten der Beziehungen zwischen den Quantenfeldern. Es wird offensichtlich, dass es unter dieser Perspektive keinen Sinn macht, noch von Teilchen zu sprechen. Aus Sicht von Zeh können die Wellenfunktionen der mikroskopischen Einzelentitäten immer nur vorübergehend als „separat existierend betrachtet werden“, da sie sich „mit der Umgebung und dadurch häufig auch mit der internen Wellenfunktion verschränkt“ (Zeh 2011: 100). D. h. die Verschränkung der jeweiligen Subsysteme (Atom, DNA, Mensch) ist für sich genommen jeweils stärker als die Wechselwirkung mit der Umgebung, was zum Eindruck einer Dekohärenz führt. Gleichzeitig ist sie nicht ohne diese Verschränkung zu denken, nur entzieht sich diese Verschränkung mit der Umgebung einer direkten Beobachtung. Allgemein gilt: „Bei wechselwirkenden Quantenfeldern [...] müssen die internen Energieeigenzustände durch eine stabil verschränkte Feldkonfiguration beschrieben werden – eine Situation, die sich wegen ihrer Komplexität gewöhnlich einer quantitativen oder gar exakten Behandlung entzieht“ (ebd.). Keine quantitative oder exakte Behandlung bedeutet den zwingenden Rückgriff auf qualitative Messformen, wollen wir etwas über die Systeme aussagen. Abschließend zur Frage ‚Welle oder Teilchen?‘ zwei Zitate, die den aktuellen Stand sehr treffend beschreiben: „Students should not be led to doubt that electrons, protons and the like are particles [...] The waves cannot be observed in any way than by observing particles.“ (Mott 1964: 409) „The electron is either here, or there, or somewhere else, but wherever it is, it is a point charge.“ (Feynman u. a. 1965) Die erste Aussage lässt sich ebenso als treffend betrachten wie die von Feynman. Unsere Beobachtung nimmt nur so etwas wie Partikel wahr, was letztlich aber nur Punktladungen sind. Auch Zeh interpretiert beispielsweise Photonen als „intern punktförmig“ (Zeh 2011: 101). Unglücklicherweise führt die Umsetzung der ersten Empfehlung sehr leicht zum Glauben, dass wir es mit fester Materie zu tun haben und zum Ausblenden aller anderen Optionen.
8.1 Quantenphysikalische Annäherung
309
Delayed-Choice-Experiment und Quanten-Radierer Das was sich beim Doppelspaltexperiment zeigt, hängt davon ab, was wir beobachten wollen. Dass dies auch in unserem Zeitverständnis rückwärtslaufen kann, veranschaulicht eine modifizierte Form dieses Experimentes. Beim Delayed-Choice-Experiment wechselwirkt ein Quantensystem mit einem anderen System. Das andere System kann eine automatische Vorrichtung oder ein Experimentator sein (Reineker u. a. 2007: 492; Greenstein und Zajonc 2005: 39–44), die die experimentellen Vorgaben erst ändern, nachdem z. B. die Elektronen bereits durch die Spalten getreten sind. Ergäbe die Ausgangseinstellung ein Interferenzmuster am Schirm und der Aufbau wird im Nachgang Richtung Teilchenbild mit zwei Spalten verändert, so zeigt sich tatsächlich das Teilchenbild (Jacques u. a. 2007). Zentral bei diesem Experiment ist, dass der Versuchsleiter zwar messen, diese Ergebnisse aber erst nach Änderung der Einstellungen anschauen darf. Nach unserem alltäglichen Weltbild müsste nach Passieren der Spalten das Wellenbild erscheinen. Es drängt sich der Eindruck auf, dass das Teilchen mit dem Experimentator auch über die Entfernung verbunden ist und zeitgleich, oder gar schon vorausschauend, die Veränderung in der Einstellung mitbekam bzw. antizipiert. Dass Quantenobjekte wissen, was die richtige Wahl ist, macht sich auch die Arbeit mit Quantencomputern oder Feynman mit seinen Pfadintegralen zunutze. Ein Umstand, der mit einer Verschränkungstheorie, die das Umfeld mit einbezieht, in Übereinstimmung wäre. Damit zeigt sich auch die Relevanz des Gesamtaufbaus. Ein Ergebnis entwickelt sich in der Quantenwelt nicht in zeitlich wohldefinierten Schritten. Für wohldefinierte Schritte wäre der Zeitpunkt nach Durchgang durch die Spalten bereits zu spät. Dass die Zeit aber tatsächlich irrelevant ist, zeigen Gedankenexperimente und reale Experimente, die auch dann noch erfolgreich sind, wenn die Einstellungsänderung erst am nächsten Tag oder Milliarden von Jahren später vorgenommen wird; z. B. für die Untersuchung der Strahlung von Quasaren (Reineker u. a. 2007: 492). Durchgeführte Experimente zeigen tatsächlich diese theoretische Vorhersage einer Veränderung der beiden Zustände erst nach der Messung und sogar eine Gleichzeitigkeit von Welle- und Teilchenverhalten (Kaiser u. a. 2012; Peruzzo u. a. 2012); eine typische quantenphysikalische Überlagerung. Die Autoren der beiden Veröffentlichungen stellen in ihrer Conclusio die bisher naive Unterscheidung von Welle und Teilchen infrage. Da beides gleichzeitig als Überlagerung erscheint, stellt sich die Frage, ob es einen prinzipiellen Unterschied der beiden Zustände überhaupt gibt, oder ob sie nicht tatsächlich ausschließlich ein Beobachtungsphänomen darstellen. In einem ähnlichen Experiment, allerdings nicht mit einer Doppelspaltanordnung wohl aber mit einem Delayed-Choice-Versuchsaufbau in Verbindung mit einer Quanten-Teleportation, gelang es Photonen sogar erst im Nachgang zu verschränken, zu einem Zeitpunkt als die Photonen schon lange gemessen und Verschränkungspaare nicht länger existent waren (Ma u. a. 2012b). Die Experimentatoren realisierten damit ein Gedankenexperiment, welches der Physiker Peres bereits 2000 entwickelt hatte (Peres 2000).
310
8 Modellentwicklung von der Mikro- zur Makrowelt
Mithilfe einer GHZ-Versuchsanordnung152 und Photonen konnten Ma und Kollegen zeigen, dass auch wenn erst im Nachgang zur Messung die Wahl der Versuchseinstellung getroffen wurde, die Ergebnisse streng korrelierten. Solange niemand die Messergebnisse vorher auswertet, verhielten sich Photonen entsprechend den Versuchseinstellungen. Was bedeutet, dass nach unserem Zeitverständnis die Photonen zum Zeitpunkt der Messung bereits wussten, was später eingestellt werden würde. Die Autoren der Studie formulierten entsprechend: „This can also be viewed as ‚quantum steering into the past’“ (Ma u. a. 2012b: 479). Der im Verständnis der KI formulierte Erklärungsansatz lautet: Das entfernte Objekt hat sich instant verändert, was eine geisterhafte Fernwirkung erfordert. Demgegenüber heißt es nach dem Verständnis der Dekohärenztheorie: „Der Quantenzustand ist bereits nichtlokal und erfordert daher keine Fernwirkung mehr“ (Zeh 2011: 86). Auch hier wird eine existierende Verbindung auf fundamentaler Ebene herausgestellt. Der Raum zwischen Quantenobjekten ist demzufolge nicht leer und auch die Zeit verhält sich nicht wie wir üblicherweise glauben, sondern ermöglicht ein wechselseitiges Wissen, womit auch Punkt 4 (Nichtexistenz eines leeren Raumes) verifiziert ist. Wir haben es in den drei letzten Fällen mit dem zu tun, was als Quanten-Radierer (Quantum Eraser) bekannt ist. In einem solchen Experiment ist es möglich, ein früheres Messergebnis wieder rückgängig zu machen und z. B. ein Interferenzmuster wieder erscheinen zu lassen. Klassisch gesprochen heißt das dann, dass die Information wieder ausradiert (vernichtet) wird. Hierzu bietet Zeh aus der Dekohärenztheorie heraus eine andere Antwort an: „Ein „Radieren“ (also eine Transformation der physikalisch vorliegenden Information in unkontrollierbare, also etwa thermische Freiheitsgrade) würde die Dekohärenz nur verstärken. Der sogenannte Quantenradierer erfordert eine Refokussierung der Superposition auf das lokale System – also den physikalischen Vorgang einer Rekohärenz, der nur bei mikroskopischen Systemen realisierbar ist“ (ebd. 86). Die Ausdehnung der quantenphysikalischen Mechanismen auf den Homo Physicus als Mixed-System widerspricht diesem Verständnis nicht. Denn die mentalen Vorgänge bei SyA und Therapie erscheinen genau in dieser Weise, nur auf mentaler und damit auf mikroskopischer Ebene. Umstellungen oder Reintegrationen in der Aufstellung, genauso wie Umdeutungen und emotionaler Neuaufbau von Beziehungen entsprechen exakt einer solchen Refokussierung bzw. Rekohärenz. Nach Feynman lässt sich dieses Paradoxon „‚auch als Summe der beiden Möglichkeiten auffassen‘ und es bedeutet nicht ‚dass erst in diesem Augenblick die Wellenfunktion kollabiert. Vielmehr wird eine der beiden bis dahin nur als Möglichkeiten existierende Historie zur Realität, die andere wird gelöscht‘“ (Reineker u. a. 2007: 458–459). Seine nach ihm benannten Feynman-Diagramme veranschaulichen diese Option sowohl gra152
GHZ steht für Greenberger, Horner, Zeilinger, die Entwickler dieses Experiment. In Kap. 8.1.4 wird es näher beschrieben.
8.1 Quantenphysikalische Annäherung
311
phisch (Abb. 44) als auch mathematisch (8.6). In seinen Beschreibungen zu Beispielen wird deutlich, dass für ihn die Vorstellung eines in der Zeit zurücklaufenden Vorgangs kein Problem darstellt. „Der Weg eines solchen rückwärts laufenden Elektrons kann sogar so lang sein, dass es bei Experimenten im Labor wirklich in Erscheinung tritt“ (Feynman 1992: 115). Der mathematische Ausdruck lautet: (8.6) Ψ� = Ψ� Ψ� + Ψ� Ψ� Mit Ψ� als Gesamtzustand des Systems, Ψ� als Ausgangs-Zustand und mit Ψ� als EndZustand. Die Reihenfolge gibt den Zeitpfeil der Entwicklung an, mit 1-2 Richtung Zukunft und 2-1 Richtung Vergangenheit. Formal benötigt es in jedem Fall die Berücksichtigung beider Varianten in der Gleichung, um ein mit dem Experiment korrespondierendes mathematisches Ergebnis zu erzielen (Greenstein und Zajonc 2005: 66). Damit liegt immer auch eine Superposition von Vergangenheit und Zukunft vor.
Abb. 44 | Feynman-Diagramme (a) mit einer Vor-Beziehung entsprechend einer Wirkung von der Vergangenheit in die Zukunft. (b) mit einer Nach-Beziehung entsprechend einer Wirkung von der Zukunft in die Vergangenheit. Mit e und e’ als Elektron sowie p und p’ als Photon jeweils vor und nach dem Zusammenstoß (eigene Darstellung).
Feynman lässt mit seinem Konzept der Pfadintegrale und der damit verbunden Aufsummierung aller Möglichkeiten viele Optionen der Interpretation zu. In Bezug auf eine ähnliche wie in Abb. 44 dargestellten Variante, dass das Photon sowohl in der Zeit nach vorne und nach hinten laufen kann, führt er aus: „Was die Berechnung (und die Natur) angeht, ist das alles ein und dasselbe (und alles genauso gut möglich)“ (Feynman 1992: 113). Womit auch der letzte, der eingangs aufgelisteten Punkte, seine Bestätigung findet. Es gibt keinen eindeutig von der Vergangenheit in die Zukunft gerichteten Zeitpfeil. Vergangenheit und Zukunft können Einfluss auf den Zustand eines Systems nehmen.
312
8 Modellentwicklung von der Mikro- zur Makrowelt
Übertragung auf SyA und Therapie Interpretiert man diesen Zusammenhang, so ergibt sich eine mögliche Schlussfolgerung in der Form, dass alles was in der Gegenwart noch kein Faktum geworden ist, sondern sich nur im Möglichkeitsraum (mentaler Raum) bewegt, in der Vergangenheit verändert werden kann. Betrachten wir das Geschehen im therapeutischen oder grundsätzlich im Gesundheitsbereich, so finden sich hierzu sehr passende Parallelitäten. Das Faktum eines amputierten Armes lässt sich nicht wieder zurückentwickeln (im Sinne von Zeh eine echte Dekohärenz), anders als es bei defekten Zellen, teilweise auch Nerven oder mentalen Zuständen beobachtbar ist. Letztere würden bei Zeh als virtuelle Dekohärenz interpretiert. Bei SyA ist sehr häufig das Phänomen erlebbar, dass Geschehnisse in der Vergangenheit, die mentaler Natur waren, sich nach der Aufstellung vollständig verändert bzw. aufgelöst haben (siehe Bsp. 3 in Kap. 3.2.1, Reaktion eines weit entfernten Umfeldes). Gleiches gilt auch für positive Entwicklungen gesundheitlicher Zustände im Anschluss zu Aufstellungen. 8.1.1.3 Neuinterpretation der Wellenfunktion Wie aus den verschiedenen Interpretationen hervorgeht, bestehen sehr unterschiedliche Verständnisse über das, was die Wellenfunktion repräsentiert. Im Folgenden soll der Versuch einer Neuinterpretation vorgenommen werden, der die verschiedenen Perspektiven miteinander versöhnt und wie bei der Information eine Normierung bedeuten würde. Nach Schrödinger ist die Ψ-Funktion „jetzt das Instrument zur Voraussage der Wahrscheinlichkeit von Maßzahlen. In ihr ist die jeweils erreichte Summe theoretisch begründeter Zukunftserwartung verkörpert, gleichsam wie in einem Katalog niedergelegt“ (Schrödinger 1935c: 823). Im ähnlichen Sinne formuliert Heisenberg: „Die Naturwissenschaft beschreibt und erklärt die Natur nicht einfach so, wie sie ›an sich‹ ist. Sie ist vielmehr ein Teil des Wechselspiels zwischen der Natur und uns selbst.[...] Was wir beobachten, ist nicht die Natur selbst, sondern Natur, die unserer Art der Fragestellung ausgesetzt ist“ (Heisenberg 2006: 40; in Capra 2010: 141). Eine Beschreibung anlässlich 100 Jahre Quantenphysik formuliert das KI-Verständnis noch schärfer: “The complete knowledge of a system is described by its wave function, and from the wave function one can calculate the possible values of every observable quantity” (Kleppner und Jackiw 2000). Die Wellenfunktion im Verständnis der KI wird heute als reine Wahrscheinlichkeitswelle verstanden, die zwar die Möglichkeiten der Entitäten gewichten, aber deren Realität verneinen. Born führte zwar die Wahrscheinlichkeitsinterpretation für Schrödinger’s Wellenfunktion ein, aber erst Pauli bezog sie ausschließlich auf das Auftreten von Teilchen. Pauli geht sogar noch weiter wenn er formuliert, dass: „das Erscheinen eines bestimmten Teilchenortes bei der Beobachtung als eine außerhalb der Naturgesetze stehende Schöpfung aufgefasst werden muss“ (Zeh 2011: 98). Im Gegensatz zur Teilchenperspektive dehnt Zeh das Verständnis der Wellenfunktion auf Quantenfelder aus und damit auf realistische Umstände: Bei der Quantisierung von Feldern „muss man die
8.1 Quantenphysikalische Annäherung
313
quantenmechanischen Wellenfunktionen dagegen konsequenterweise als Wahrscheinlichkeitsamplituden für Feldstärken interpretieren“ (ebd.). Denn: „Die Dekohärenz besagt aber, dass sich die relevanten Superpositionen bei Messungen praktisch irreversibel auf verschränkte Zustände von System, Apparat und Umgebung ausdehnen, also nicht mehr nachzuweisen sind, wenn man ‚lokal’ nur den Apparat betrachtet“ (ebd. 99). In diesem Verständnis ist der Messprozess selbst zentraler Mitverursacher der jeweils sich zeigenden Wellenfunktion und ihrem spezifischen Wert und geht mit in die Messung ein153. Es verbirgt sich also etwas weit weniger Übernatürliches in der Wellenfunktion als bei Pauli. Von Neumann’s spätere Formulierung geht wieder auf Born’s Ansatz zurück, wenn er Ψ als „Wahrscheinlichkeit für neue Wellenfunktionen – also als einen Kollaps“ (ebd. 98) betrachtet. Wir finden nun auch bei Zeh das Verständnis des Mitwirkens des Umfeldes und damit letztlich auch des Bedieners, vergleichbar (Mahler u. a. 2016). Deutlich wird aber auch, dass sich hinter den Vorschlägen die oben herausgearbeitete Unterscheidung von rein mathematischer Größe (wie bereits in Kap. 4.2.2 in Zusammenhang mit Information geschehen) und tatsächlichem Realitätsbezug verbirgt. Da die mathematischen Berechnungen dennoch die Ergebnisse und unsere wahrnehmbaren Realitäten korrekt wiedergeben, hat sich das counter-intuitive Verständnis der Quantenphysik eingebürgert: „Quantum mechanics is just counterintuitive and we just have to suck it up”, wie Seth Lloyd (in Wolchover 2014) zitiert wird. In diesem Sinne argumentieren auch Fuchs und Peres wenn sie erklären, dass Quantentheorie keine Interpretation benötigt. Interessanterweise tun sie dann genau das: „From this [..], it is clear that a wavefunction is only a mathematical expression for evaluating probabilities and depends on the knowledge of whoever is doing the computing.“ Und weiter „Collapse is something that happens in our description of the system, not to the system itself. Likewise, the time dependence of the wavefunction does not represent the evolution of a physical system. It only gives the evolution of our probabilities for the outcomes of potential experiments on that system” (Fuchs und Peres 2000: 71). Die Autoren veranschaulichen ihre Perspektive mit einem Beispiel, indem für einen Außenbeobachter die Wahrscheinlichkeit 50/50 ist, wenn er nicht weiß, welche Entscheidung von zwei Optionen jemand anderes getroffen hat. Also eine klassische Superposition. Dies ändert sich sofort zu einem Faktum, wenn er die Information von dieser Person bekommt. Auch wenn es sich bei dem Beispiel um eine klassische Situation handelt (zwei Sorten von Kuchen), repräsentiert das Ergebnis der Berechnung das Wissen des Beobachters, analog zur Wellenfunktion, und schließt diesen mit in das Ergebnis ein. Deshalb kommen sie zu dem Schluss, „no wavefunction exists either before or after we conduct an experiment“ (ebd.). Führen wir diesen Ansatz weiter, so zeigt sich am Ende einer physikalischen Messung das Ergebnis physischer Observablen, die sich, mit Ergänzung zu bisherigen Überlegungen, aus der Quanteninformation manifestieren. Als Konsequenz lässt sich eine real existierende Information annehmen, die gemessen wird und nicht nur eine Wahrschein153
Siehe dazu auch Kap. 0 und 8.2.3
314
8 Modellentwicklung von der Mikro- zur Makrowelt
lichkeit ohne Hintergrund. Die Quanteninformation kann sich als physikalische Größe zeigen, muss aber nicht. Die aus vorhergehenden Überlegungen (Kap. 4.2) logisch ableitbare Erweiterung auf alle möglichen Informationen wird auch im folgenden Gedanken unterstützt: „The perception of reality by biosystems is based on different, and in certain respects more effective principles than those utilised by the more formal procedures of science. As a result, what appears as random pattern to the scientific method can be meaningful pattern to a living organism. The existence of this complementary perception of reality makes possible in principle effective use by organisms of the direct interconnections between spatially separated objects shown to exist in the work of J.S. Bell“ (Josephson und Pallikari-Viras 1991: 197). Als ‚Wahrscheinlichkeit’, auf die sich die Wellenfunktion bezieht, kann nur ‚das Manifestieren an sich’ verstanden werden. Eine Information ist vorhanden, sie zu lokalisieren wird nur in direktem Zusammenhang mit einer spezifischen Messapparatur möglich und ist nur mit dieser richtig zu interpretieren. Mit der folgenden Neuinterpretation der Wellenfunktion Psi (Ψ) wird der Versuch unternommen, die scheinbare Unvereinbarkeit der Interpretationen von KI und Dekohärenztheorie zu überwinden und zu einem kohärenten System zusammen zu führen. Ausgehend von dem in Kap. 4.2.4 definierten Informationsbegriff ... Information ist etwas, was eine Entität repräsentiert. und Eine Entität ist etwas, was sich gegenüber einem Umfeld unterscheiden lässt. schlage ich eine neue Interpretation zu Ψ bzw. |Ψ|2 vor, skizziert in Abb. 45: Ψ
Psi als Ausdruck einer möglichen Beobachtungssituation und der Abhängigkeit von einem Messvorgang. Die Wellenfunktion Ψ repräsentiert eine spezifische Beobachtungssituation in Abhängigkeit von einem spezifischem Messvorgang. D. h. in Ψ ist alles enthalten, was man über den Zustand eines Quarticles oder eines Systems und der von ihnen getragenen Information wissen kann. Im Unterschied zur rein physikalischen Interpretation sind darin auch alle anderen, nicht nur durch physikalische Messapparaturen erfassbare Informationen enthalten. |Ψ|2 Psi2 als Ausdruck der tatsächlichen Einbindung eines Beobachters und Ergebnis der Interaktion von Entität und Beobachter. Die Wahrscheinlichkeitsamplitude (= Wahrscheinlichkeitsdichte) repräsentiert den realen Messvorgang, bei dem das zu untersuchende System mit seinen spezifischen Möglichkeiten Ψ in Verschränkung mit einem Beobachter tritt, der aufgrund der Verschränkungssituation ebenfalls mit Ψ gekennzeichnet werden kann. Beide spannen einen gemeinsamen Raum auf, dessen Wahrscheinlichkeit sich zu manifestieren erst durch den realen Beobachter ermöglicht wird. Ψ in diesem Sin-
8.1 Quantenphysikalische Annäherung
315
ne repräsentiert nur den Ausschnitt der Wirklichkeit, der sich in einer gemein-samen Übereinstimmung von Beobachtetem, Messapparatur und Beobachter befindet. Alle Informationen außerhalb dieser überschneidenden Gemeinsamkeiten werden nicht in der jeweiligen Ψ-Funktion erfasst.
Abb. 45 | Neu-Definition von Psi als Ausdruck einer speziellen, unter Beobachtung stehenden und von einer speziellen Messanordnung abhängigen, geteilten Realität. Für Ψ sind nur die Größen relevant, die einen gemeinsamen, identischen Raum zwischen beiden Entitäten aufspannen (eigene Darstellung).
Nähere Erläuterung: Aus den Betrachtungen im Kap. 4.2 Information – Energie – Materie wurde abgeleitet, dass sich mithilfe der Wellenfunktion die Information beschreiben lässt, die eine Entität vollständig repräsentiert. Die Natur hat mit den Qubits den grundsätzlichsten Weg gefunden, um Information auf elementarer Ebene (Atom, Elektron, Photon etc.) zu speichern, was dazu führt, dass die Wellenfunktion ‚alle’ möglichen Informationen einer Entität beinhaltet. Wäre der Forscher nun allwissend und würde alles nur mit EINER Messung erfassen wollen, so würde die Wellenfunktion für dieses gesamte Wissen stehen. Im wirklichen Leben möchte der Experimentator mithilfe einer Messung jedoch nun ein ganz spezielles Problem mit einer ganz speziellen Messapparatur untersuchen. In diesem Moment repräsentiert Psi nur diesen einen Versuchsaufbau mit den Möglichkeiten den dieser lässt. Womit die Wellenfunktion das Spektrum dieses Problems konstituiert, was physikalisch auch als Definition des Zustandes diese Systems (A) interpretiert wird. Die Wellenfunktion ergibt sich damit als Ergebnis einer Unterscheidung eines Beobachters. Würde der Beobachter eine andere Perspektive oder eine andere Messapparatur wählen, ergäbe sich automatisch auch eine neue Wellenfunktion. Dies ist dann der Fall, wenn das aktuell betrachtete System (A) mit einem anderen System (B) wechselwirkt und damit die Perspektive auf ein erweitertes System (A-B) gelegt wird. Die Physiker mit Bezug zur KI sprechen dann vom Kollaps der Wellenfunktion, was in der Tat zutrifft, denn die alte Ausgangssituation gibt es aufgrund der Wechselwirkung mit der Messapparatur und dem Bediener nicht mehr. Psi selbst sagt somit nichts über das System an sich aus, sondern nur über den Ausschnitt eines Ganzen, der vom Forscher untersucht wird. Insofern stimmt Schrödinger’s Aussage, dass Psi all das beinhaltet, was wir über ein (genau dieses) System wissen können. Eine andere Forschungsfrage, eine andere Messapparatur oder sogar ein anderer Forscher führt demzufolge automatisch zu einer neuen Wellenfunktion. Womit die Wellenfunktion mehr über den Forscher (Beobachter) aussagt, als über das System selbst,
316
8 Modellentwicklung von der Mikro- zur Makrowelt
analog dem Verständnis der Systemtheorie. Damit ist die Veränderung bzw. der Kollaps der Wellenfunktion ein mathematisch-versuchstechnisches und kein grundsätzliches Problem, wie es oben auch Fuchs und Peres interpretieren. Das grundsätzliche Problem wird in der Dekohärenztheorie von Zeh behandelt (Zeh 2011), wenn er eine allgemeine Verschränkung schon aufgrund des Urknalls postuliert, und dass durch eine Wechselwirkung ein beobachtetes System mit seinem Umfeld dekohäriert, damit für einen Beobachter ununterscheidbar wird. Mit Fokussierung auf eine Frage und den damit gewonnen Informationen lässt sich schließlich wieder ein für die Frage kohärentes, unterscheidbares System mit einer spezifischen Wellenfunktion konstituieren. Damit liegt genau der Umstand vor, den die Quantenphysiker zur Untersuchung von Quarticle bewusst und unter großem Aufwand herstellen müssen und den jede einzelne Wissenschaftsdisziplin für ihr Forschungsfeld zu organisieren sucht: Reduktion auf einen genau bestimmten Aspekt der Wirklichkeit. Die hier neu gefundene Interpretation, übertragen auf verschiedene Disziplinen (Tab. 14), eröffnet ein neues Verstehen der Zusammenhänge und ein Überwinden der so heiß diskutierten Entweder-oder-Postulate. Mit der Annahme von Zeh (Zeh 2011), dass die Welt auch ohne menschliche Systeme existiert und die Umwelt die Rolle des Beobachters einzunehmen vermag sowie der quantenphysikalischen These, das ‚Nichts’ als ‚komplexes, strukturreiches Gebilde’ anzusehen, gewinnt die ontologische Perspektive eine verallgemeinerte Rolle und die Systemtheorie demgegenüber eine spezifische Unterscheidungsfunktion. SyA lassen sich demzufolge allgemein als phänomenologisch begründbar und konstruktivistisch ausdifferenzierbar deuten. Mit einem gewagten weiteren Schritt erscheint die Quantenphysik als das grundsätzliche Modellgebäude, in dem die Relativitätstheorie nur für bestimmte Rahmenbedingungen und Unterscheidungen ihren Gültigkeitsbereich findet. Hier speziell der Kontext von Beobachtungssituationen. Tab. 14 | Gegenüberstellung spezifischer vs. grundsätzlicher Perspektiven verschiedener Disziplinen Entwurf eines neuen Verständnisses, wie verschiedene Theorieentwürfe innerhalb einer Disziplin zueinander stehen können. Als Ergebnis ergibt sich eine Integration der verschiedenen Theorien anstatt einer Entweder-oder-Unterscheidung. (eigene Darstellung)
Disziplin Quantenphysik Physik Philosophie SystemAufstellung
Spezifisch
Grundsätzlich
Ψ in der Kopenhagener Deutung Relativitätstheorie Systemtheorie
Ψ in der Dekohärenztheorie Quantenphysik Ontologie
konstruktivistisch
phänomenologisch
8.1 Quantenphysikalische Annäherung
317
8.1.1.4 Von Qubits in die Realität Wie lässt sich nun der Prozess der Manifestation von Realität vorstellen? Die Ausgangsfrage hierzu lautet: „Wann und warum bricht das Superpositionsprinzip zusammen, wie es in der Kopenhagener Deutung stillschweigend für alle Quantenmessungen angenommen wird?“ (Zeh 2011: 3). Mit der Neuinterpretation der Wellenfunktion haben wir zwar eine Antwort auf das mathematische versus reale Problem gefunden, nicht aber auf den in der Realität ablaufenden Prozess. Wir wissen mittlerweile auch was Information sein kann und wie der Messprozess Information kreiert. Nur wie kann aus abstrakter Quanteninformation Energie und Stoff werden? Wie lässt sich erklären, dass durch die Potentiale vieler scheinbar einzelner Lichtquanten tatsächlich ein sichtbares Potentialfeld aufgebaut wird, in deren Mulden sich reale Atome verteilen (Abb. 46). Entsprechende Experimente werden derzeit in einigen Labors mit dem Ziel praktiziert, Quantencomputer zu entwickeln (Goldschmidt u. a. 2016; Buluta u. a. 2011; Anderlini u. a. 2007).
Abb. 46 | Rubidium-Atomverteilung in einem optisches Lichtgitter (Image aus Buluta u. a. 2011) Die Rubidium-Atome verteilen sich gleichmäßig auf ein energetisches Potentialfeld und veranschaulichen, dass sich Potentiale in beobachtbaren Realitäten widerspiegeln.
Im physikalischen Verständnis setzt sich Licht aus einer Menge von einzelnen Lichtquanten zusammen oder Wahrscheinlichkeitswellen. Aus der Perspektive der KI stellen diese Lichtquanten ‚nur’ Potentiale154 dar, die sich offensichtlich im Raum zu einer tragfähigen Welle konfigurieren können. Aus der realistischen Perspektive von De-Broglie, Bohm und Zeh (Kap. 8.1.1.2) handelt es sich um reale Größen, die aber auch erst durch die Messung im Raum sichtbar werden. In jedem Fall entsteht für einen Beobachter etwas Reales. Wenn die Intension eine Information ist, die sich über Energie in Materie verdichten kann, dann müsste dieser Prozess beschreibbar sein. Die bisherigen Interpretationen sagen nach wie vor nichts darüber aus, wie die Quarticle respektive Wellen ihre Verdichtung im Moment der Messung bekommen. Darauf zielt exakt die Frage am Ende von Kap 8.1.1 in Bezug auf die Herkunft von Photonen und Quarks sowie der weiteren Strukturierung der Welt. Deshalb soll nun der Versuch der Beschreibung eines Prozesses vom Qubit zur Realität unternommen werden, mit dem Ziel, die Gedanken zur ‚Information’, deren Manifestation und deren Übertragung mit einem physikalischen Modell zu hinterlegen.
154
Potential (von lat. potentia „Stärke, Macht“), im allgemeinen auch verstanden als nicht ausgeschöpfte Möglichkeiten.
318
8 Modellentwicklung von der Mikro- zur Makrowelt
Ein paar Grundlagen vorweg Wenn wir davon ausgehen, dass die Information, die die Entitäten aufbaut, irgendwo gespeichert wird, stellt sich die Frage: Wo? Dazu gibt es derzeit zwei naturwissenschaftliche Antworten: im Spin der Quarticle und in den EM-Wellen. Die aktuellen physikalischen Konzepte rund um diese beiden Größen sollen deshalb zunächst untersucht werden. Quantenvakuum (Null-Punkt-Feld, Vakuumfeld) Vom Quantenvakuum (siehe auch Kap. 5.3.6) nimmt man an, dass es den Ausgangspunkt sogenannter Quanten-Fluktuationen darstellt, die zur Bildung von Quarticle-Anti-Quarticle-Paaren führt. Ursache dafür ist die Interaktion der virtuellen Energie des Vakuums mit geladenen Quarticle. Es gibt berechenbare Wahrscheinlichkeiten, dass aufgrund dieser Schwankungen etwas Messbares auftaucht, was auch tatsächlich passiert, wenn man dieses Vakuum einsperrt, also Grenzen setzt. So nimmt man an, dass sich als Folge dieser Vakuumfluktuation u. a. der Casimir-Effekt beobachten lässt (Gambassi 2009). Die Annahme von De-Broglie ist nun, dass ein Überschuss an Quarticle, die eben nicht sofort wieder mit ihrem Anti-Quarticle zerfallen, die Grundlage der uns bekannten Welt darstellen und dass über dieses Feld alles mit allem verbunden ist. Diese realen, aber für uns nur indirekt wahrnehmbaren Wellen resultieren aus der Überlagerung aller möglichen Felder und stellen eine Superposition dieser Felder dar. Diese Interpretation lässt sich aus den Experimenten und Berechnungen von Bush und Peña ableiten (Bush 2015; Peña u. a. 2015). Peña kann auch eine direkte Verbindung von Quantenvakuum und EM-Welle herleiten. Eine alternative Theorie (Haramein 2013b, 2013a), die mit ihrem Ansatz im Widerspruch zum Standardmodell steht, interpretiert das Universum als holographisches Fraktal, aber ebenfalls als Vakuumfeld bestehend aus reiner Energie. Als wesentlicher Unterschied seines Ansatzes geht er von Schwarzen Löchern in Planck-Größe aus, die das Vakuumfeld bilden. In seinen Berechnungen vermag er einige heute noch existierende Abweichungen sehr präzise zu korrigieren. Die bisherigen experimentellen Nachweise scheinen seinem Ansatz recht zu geben (Heiße u. a. 2017; Antognini u. a. 2013). Ausgehend von seinen Überlegungen kommt Haramein zu dem Schluss, dass alles mit allem über das Vakuumfeld verbunden ist. Quanten und Qubits Der Brockhaus definiert Quanten „[zu lateinisch quantum »wie groß«, »wie viel«], als eine allgemeine Bezeichnung für kleinste, unteilbare Einheiten physikalischer Größen“. Physikalische Größen können elektrische Ladung, Wirkung, Drehimpuls etc. sein. Deutlich wird hier die Nicht-Gleichstellung mit einem klassischen Objekt. Gemeint ist vielmehr eine kleinste, diskrete Einheit, die durch einen Zustandswechsel der jeweiligen physikalischen Größe erzeugt wird. Den-
8.1 Quantenphysikalische Annäherung
319
noch werden üblicherweise Photonen als Quanten verstanden, als kleinste Einheit des EMF für den Bereich des sichtbaren Lichtes und bekommen damit eine quasi objekthafte Zuschreibung. Für das restliche EM-Spektrum wie Radio- oder HFWellen spricht man zwar auch von Photonen, sinnvollerweise aber besser von Quanten. Andere Formen von Quanten sind beispielsweise: Higgs-Boson (verantwortlich für das Auftreten von Masse), Gluon (Kraftfeld, Übertragung starker Wechselwirkung im Proton und Neutron des Kerns), Graviton (Gravitationsfeld), Quant des Drehimpulses, Magnon (Magnetfeld). Analog zum Photon wird der Begriff Quant auch für die Träger dieser quantisierten Größen verwendet, z. B. bei den Eichbosonen oder den Quasiteilchen (Elementaranregung von Festkörpern). Leicht ersichtlich ist, dass die Unschärfe in der Sprache auch eine Unschärfe im Verständnis nach sich zieht. Alternativ betrachtet lässt sich auch die Interpretation ableiten, dass selbst diese Unschärfe und Dualität Ausdruck unserer Realität ist, in dem das eine nicht ohne das andere geht, solange die Beobachterseite eingenommen wird. Wie in Kap. 4.2.2 bereits vorgestellt, bilden Qubits (Quanten-Bit) die kleinste Informationseinheit eines Quantenzustandes. Da Information auch als ‚Unterschied’ definiert wurde, repräsentiert der Zustandswechsel, der mit einem Quant beschrieben wird, genau die dadurch gewonnene Information. Das besondere gegenüber einem klassischen System liegt letztlich in der Unterscheidung von drei Zustandsvarianten. Zwei in unserer Welt wahrnehmbar und unterscheidbare Messergebnisse |0⟩ und |1⟩ (stellvertretend für vor und nach dem Zustandswechsel) und eine für uns nicht wahrnehmbare Superposition aller weiterer Möglichkeiten dieses Quantensystems. Die Spinausrichtung stellt eine solche messbare Unterscheidung dar. Sie wird auch als eine der Optionen bei Quanten angesehen, mit deren Hilfe Informationen codiert und gespeichert werden können. Spin Der Spin repräsentiert eine quantenmechanische Eigenschaft eines Quantenobjektes und verhält sich physikalisch wie ein Drehimpuls. Im Gegensatz zum kontinuierlichen Verlauf in der klassischen Physik ist auch er quantisiert, besitzt also nur feste Werte. Des Weiteren werden die Drehrichtungen ‚Rotation’ rechts (positiv) und links (negativ) unterschieden. Befinden sich z. B. zwei Elektronen in einem Molekül, so unterscheiden sich immer ihre Spinrichtungen155. Diese Rotation erzeugt wiederum ein Magnetfeld, das gemessen werden kann. Unterscheiden lassen sich die Quarticle durch ihre ‚Spinquantenzahl’ (0, + ½, - ½, + 1, - 1 ...), die unveränderlich ist. Veränderlich ist jedoch die ‚Spinausrichtung’ einzel-
155
Deshalb ergibt sich aus der Messung eines der Elektronen automatisch der Zustand des anderen Elektrons. Dieses Verhalten macht sich die Physik für ihre Messungen zunutze, um beispielweise verschränkte Systeme nachzuweisen.
320
8 Modellentwicklung von der Mikro- zur Makrowelt
ner Quarticle und der Gesamtspin aus mehreren Quarticle 156. Mit seiner Hilfe werden zwei fundamentale Quarticlearten – Bosonen und Fermionen – unterschieden. Eine ‚Spinpolarisation’ realisiert sich durch eine gemeinsame Ausrichtung eines Ensembles 157 von mehreren Quarticle 158 . Alle Spins zeigen in die gleiche Richtung mit der Folge, dass die im System enthaltene Information über das gesamte System verteilt ist. In einem solchen Fall spricht man auch von Kohärenz des Ensembles. Verschränkungszustände lassen sich entsprechend daran erkennen, dass die Summe einzelner Messergebnisse eine Gesamtheit ergeben muss, z. B. bei Einzelentitäten minus und plus Drehimpuls, bei Ensembles die gleich Spinausrichtung. Aus diesen Zusammenhängen wird bereits offensichtlich, dass Spins Quanteninformation tragen können, was mittlerweile auch mehrfach nachgewiesen wurde (Amsüss u. a. 2011). Bosonen Sie besitzen einen ganzzahligen Spin und alle Quarticle können den gleichen Zustand und damit auch den gleichen Platz einnehmen wie z. B. Photon, Gluon, Graviton (postuliert, aber noch nicht nachgewiesen), Bose-Einstein-Kondensat, Cooper-Paare aus Photon und Elektron (Reineker u. a. 2007: 423). Innerhalb desselben Systems lassen sie sich nicht unterscheiden, was sie zu Konformisten macht (Wilczek 2017; Jolie 2002). Photonen sind die Vermittler der EM-Wechselwirkung und damit übertragen sie Kräfte, ohne dass sie selbst Masse oder Ladung besitzen. Sie geben also den Impuls für eine Bewegung und sind nicht selbst die Bewegung, wie Weizsäcker zu Beginn von Kap. 8.1.1.1 bereits zum Ausdruck gebracht hat. Bei Vorgängen mit nicht-unterscheidbaren Quarticle (Bosonen) werden die Amplituden addiert, womit sich die Intensität (z. B. Energie oder Kraft der Wechselwirkung) erhöht. 156
157
158
Der Spin kann nicht als Eigenrotation eines Quantenobjektes verstanden werden, da Quarticle keine genau definierte Achse haben. Hawking interpretiert den Spin als Mitteilung, wie das Quarticle aus verschiedenen Richtungen aussieht. „Ein Teilchen mit dem Spin 0 ist ein Punkt: Es sieht aus allen Richtungen gleich aus. Ein Teilchen mit dem Spin 1 ist dagegen wie ein Pfeil: Es sieht aus verschiedenen Richtungen verschieden aus. Nur bei einer vollständigen Umdrehung (360 Grad) sieht das Teilchen wieder gleich aus. Ein Teilchen mit dem Spin 2 ist wie ein Pfeil mit einer Spitze an jedem Ende. Es sieht nach einer halben Umdrehung (180 Grad) wieder gleich aus. Entsprechend sehen Teilchen mit höherem Spin wieder gleich aus, wenn man Drehungen um kleinere Bruchteile einer vollständigen Umdrehung vollzieht. [Darüber hinaus gibt es Teilchen], die nach einer Umdrehung noch nicht wieder gleich aussehen: Es sind dazu vielmehr zwei vollständige Umdrehungen erforderlich! Der Spin solcher Teilchen wird mit ½ angegeben“ (Hawking 2004: 87f). Ein Ensemble ist in der Physik ein gleichartig präpariertes System von Teilchen. Bose-Einstein-Kondensate sind dementsprechend dreidimensionale Ensambles, die sich mit einer Y–Funktion beschreiben lassen. Diesen Effekt macht man sich in der Magnetresonanztomographie zunutze.
8.1 Quantenphysikalische Annäherung
321
Fermionen Sie bauen das Atom auf, besitzen einen ½-zahligen Spin und können nicht den gleichen Zustand und deshalb auch nicht den gleichen Raum einnehmen (PauliPrinzip) (Reineker u. a. 2007: 424). Fermionen lassen sich innerhalb desselben Systems durch die dabei auftretende Änderung zumindest einer physikalischen Eigenschaft (z. B. Spin) unterscheiden (Galindo und Pascual 2012: 233), was sie zu Individualisten macht 159 (Wilczek 2017). Zu ihnen gehören Quark, Proton, Neutron, Elektron, Neutrino. Sie repräsentieren das, was wir gemeinhin unter Materie verstehen. Bei Vorgängen mit unterscheidbaren Quarticle (Fermionen) werden Wahrscheinlichkeiten addiert und somit die Vielfalt an möglichen Erscheinungsformen erhöht. Anyonen Anyonen160 stellen virtuelle Quarticle dar, die zwischen Fermionen und Bosonen switchen bzw. beide ineinander überführen (Arovas u. a. 1985). Entdeckt und mit ihrem Namen versehen wurden sie von Wilczek (Wilczek 2017; Arovas u. a. 1985), mit einer Wismut-Antimon-Legierung erstmals 2004 nachgewiesen u. a. von Hsieh u. a. (Hsieh u. a. 2009). Es handelt sich bei ihnen um exotische Quasiteilchen, deren Materiezustand aus den kollektiven Eigenschaften vieler Quarticle hervorgeht. Beobachtungen haben ergeben, dass es im dreidimensionalen Raum nur Bosonen und Fermionen geben kann. Im zweidimensionalen Raum sind Bosonen und Fermionen nur zwei Spezialfälle. Dazwischen repräsentieren Anyonen ein Kontinuum von Möglichkeiten. Bosonen und Fermionen lassen sich deshalb auch interpretieren als extreme Ausprägungen von Anyonen. Zwei Eigenschaften zeichnen sie aus (Wilczek 2017): 1. Ihre Fähigkeit zur Stabilität durch die von ihnen gebildeten Zöpfe. Durch sie lassen sich hoch stabile Verschränkungen von Elektronen erzeugen, auch unter normalen Umgebungsbedingungen. 2. Ihre Erinnerungsfähigkeit, wie Wilczek formuliert. „Many-anyon systems build up a gigantic collective memory“ (ebd.). Diese Erinnerungsfähigkeit hängt mit ihrem speziellen Aufbau, den sogenannten Knoten161 zusammen. Sie lassen sich im Gegensatz zum zwei- und dreidimensionalen Zustand in einem 159
160 161
Nach dem Verständnis der Supersymmetrie ergibt sich der Unterschied zwischen Bosonen und Fermionen durch ihren symmetrischen, respektive antisymmetrischen Zustand, wohingegen sie innerhalb ihrer Klassen als identisch und nicht-unterscheidbar angesehen werden (Galindo und Pascual 2012: 233; Schwabl 2004: 212). Fermionen werden jedoch unterscheidbar, wenn sie sich innerhalb desselben Systems (z. B. Atom) befinden. Nicht zu verwechseln mit Anionen aus der Chemie, einem negativ geladenen Ion. Knoten sind in diesem Zusammenhang eine Größe für Mathematiker und werden von ihnen als kontinuierliche Kurve im Raum gesehen.
322
8 Modellentwicklung von der Mikro- zur Makrowelt
vier-dimensionalen Zustand sehr leicht entwirren. Nun ist die vierte Dimension, die Zeit, die auch in der Relativitätstheorie mit dem Raum (drei Dimensionen) zu einer Raum-Zeit verbunden ist. Wilczek macht diese Beziehung (Bewegung im dreidimensionalen Zopf, aber eingebunden in der Raum-Zeit) für ihren stabilen Verschränkungszustand verantwortlich. Fast drängt sich der Verdacht auf, dass es sich hier nicht um eine zufällige Synchronizität zwischen Relativitätstheorie und Quantenphysik handelt, sondern um einen fundamentalen Zusammenhang. Neue Überlegungen gehen wohl auch deshalb davon aus, dass sich die Raum-Zeit aus der Relativitätstheorie als emergentes Phänomen einer quantenphysikalischen Verschränkung ergibt (Lin u. a. 2015; Moreva u. a. 2014). Auch hier wird der Unterschied zwischen internem und externem Beobachter relevant für die Wahrnehmung der Zeit, analog zur Wahrnehmung der Geschwindigkeit. Von Bedeutung ist noch, dass die Eigenschaften zweidimensionaler Entitäten von ihrem Material und ihrer Oberflächenstruktur abhängen. Die in ihnen enthaltenen Fehlstellen tragen dabei entscheidend zur Stabilität der Zöpfe und ihrer Verschränkung bei. Solche Umstände, in denen sich Materie verhält als wäre sie zweidimensional, sind Oberflächenschichten (Filme, Membrane, Schnittstellen, Phasenübergänge) mit einer oder wenigen Atomlagen. Im technischen Bereich sind dies z. B. Graphit oder Supraleiter (Hsieh u. a. 2009; Tillemans 2011) und die oben erwähnte Wismut-Antimon-Legierung. Damit liegen Anyonen genau zwischen Bosonen und Fermionen und entsprechen dem fehlenden Bindeglied zwischen den fundamentalen Quarticlesorten. Sie besitzen wohl nicht umsonst die Fähigkeit zwischen Bosonen und Fermionen hin und her zu switchen. Auch die Forscher um Keilmann gehen davon aus, dass Bosonen kontinuierlich in Anyonen und weiter bis zu Fermionen verwandelbar sind und vice versa (Keilmann u. a. 2011). Auf diese Quarticleform wird in Kap. 8.3 noch vertieft eingegangen, denn die Vorstellung, dass zirkulierende Anyonen in topologischen Quantencomputern, die fähigste künstliche Intelligenz auf zweidimensionalen Materialien sein werden, ist für Wilczek (Wilczek 2017) eine sehr realistische Vorstellung und kann mit Mechanismen in unserem Gehirn in Verbindung gebracht werden. Quantenfeld Ein Quantenfeld (siehe auch Kap. 5.3.6) repräsentiert größere Ansammlungen von Fermionen und Bosonen, letztlich das, was wir als Energie oder Stoff wahrnehmen können. Größere Moleküle und Systeme mit variierenden Teilchenzahlen gehören zu dieser Kategorie. Zuständig ist die QFT, die aus der Quantenmechanik in Kombination mit den Prinzipien klassischer Feldtheorien zu einer erweiterten Theorie entwickelt wurde (Kuhlmann 2014: 50). Hier werden sowohl Objekte als auch die Observablen quantisiert und als Quantenfeld interpretiert.
8.1 Quantenphysikalische Annäherung
323
Der Welle-Teilchen-Dualismus wird durch ein Verständnis wechselwirkender Felder ersetzt (Kuhlmann und Stöckler 2015: 226). Die Entitäten werden nicht durch einzelne Attribute (Spin, Größe, Farbe etc.) beschrieben, sondern nur als Bündel von Eigenschaften, die zusammen das ganze Feld aufspannen. Zentral ist demzufolge die Relevanz von Beziehungen und der sich daraus entwickelnden Zustände und Eigenschaften. Elektromagnetisches Feld Wie oben bereits ausgeführt, ergibt sich das EMF aus Bosonen, Fermionen und den sehr skurrilen, virtuellen Anyonen und deren Zusammenspiel. Auch hier sind Quanten die kleinste Einheit und Qubits die Träger von Information. Wie unter Quantenvakuum und in Kap. 8.1.1.2 bereits ausgeführt, lässt sich eine direkte Verbindung von Quantenvakuum und EM-Welle herleiten. Phasenübergänge Für die Wechselwirkung von Entitäten mit ihrer Umgebung stellen Phasenübergänge den wesentlichen und letztlich kritischen Bereich dar. Hier entscheidet sich auch, ob die von Zeh angenommene zwingende Dekohärenz (Wechselwirkung mit der Umgebung) tatsächlich so zwingend ist, oder ob es Möglichkeiten der Beibehaltung getrennter Entitäten gibt bzw. getrennter Kohärenzen von verschränkten Systemen. Neben den bereits aufgeführten Anyonen existieren tatsächlich zwei weitere Prozesse, die in den Phasenübergängen wirksam sind und gleichzeitig erheblichen Einfluss auf die Eigenschaft von Materialien ausüben. Für beide gab es 2016 den Nobelpreis in Physik (The Royal Swedish Academy of Sciences 2016a, 2016b). Für Phasenübergänge im zweidimensionalen Raum und unter Beteiligung eines Magnetfeldes entdeckten Kosterlitz / Thouless einen speziellen Mechanismus (den Kosterlitz-Thouless-Phasenübergang), der im Zusammenhang mit topologischen Defekten auftritt (Kosterlitz und Thouless 2013, 1973). Bei ihrem Mechanismus ändert sich das zweidimensionale System an der Oberfläche durch Wirbel von Spins (Quantenwirbel), die an verschiedenen Stellen der Oberfläche auftreten und sich verändern. Die Spins richten sich an der Oberfläche anders aus und ändern dadurch unvermittelt das Verhalten des Materials in einem sehr weiten Bereich, ohne dass deren innerer Aufbau involviert ist. Sie erkannten die wesentlich größere Relevanz der Oberfläche für die Eigenschaft des Materials, als dessen innerer Aufbau. Haldane entdeckte ergänzend einen Effekt (Haldane 1988), der sich im eindimensionalen Raum abspielt. Reiht man die eindimensionalen Spins in einer Reihe auf, ergibt sich für die Kette ein Gesamtspin, z. B. ½. Topologisch unterscheidet sich eine solche Kette von einer mit einem Gesamtspin von 1, was u. a. durch die Veränderung eines Spins erreicht werden kann. In der Festkörperphysik ändert dieser topologische Unterschied beispielsweise das magnetische Verhal-
324
8 Modellentwicklung von der Mikro- zur Makrowelt
ten und zwar erheblich, verursacht durch die Wechselwirkung benachbarter Spins. So entscheiden sie, ob aus dem gleichen Grundmaterial Isolatoren, Halbleiter oder Leiter werden. Die dort relevante Anregungsenergie, als wichtige Information abgeleitet von den aneinandergereihten Spins, ist aufgrund der hohen Komplexität (Vielzahl von Spins und möglichen Konfigurationen) allerdings nur schwer berechenbar. Die sich an der Oberfläche von zweidimensionalen, topologischen Strukturen kreuzenden Spinreihen (sogenannte Energiebänder oder nur Bänder) mit gegenläufigen Ladungen entsprechen Supraleitern. Die Spinrichtung gibt vor in welche Richtung der Strom fließt. Dies wird durch ihre Verdrillung offensichtlich von Natur aus unterstützt. Der Josephson-Effekt für Supraleiter (Josephson 1962) und vor allem seine Erweiterung auf nicht-magnetische Systeme (Gaury u. a. 2015) ermöglicht so einen quantenphysikalischen Verschränkungszustand über Energiebarrieren hinaus in allen möglichen stofflichen Konfigurationen. Bei Josephson bilden sich dabei sogenannte Cooper-Paare, die es bei den hier beschriebenen gegenläufigen Energiebändern nicht braucht, aber den gleichen verschränkenden Effekt bewirkt. Das besondere bei den Bändern ist das Nicht-Benötigen eines magnetischen Feldes, vergleichbar dem verallgemeinerten Josephson-Effekt. Somit haben wir einen stabilen, kohärenten, verschränkten Quantenprozess vorliegen, der sich auch bei Umgebungstemperatur und in zweidimensionalen Übergangsphasen realisiert. Beide Effekte treten beispielsweise wegen ‚Wirbeln’ oder trotz ‚Fehler’ in der Oberfläche auf. Sie unterstützen ausgedehnte Eigenschaftsänderungen, die heute in der Festkörperphysik als ‚topologische Isolatoren’ intensiv erforscht und angewandt werden (Kane und Mele 2005). Kane und Mele dehnten die oben beschriebenen einbändigen Spinreihen auf Multiband- und interagierende Systeme aus. Solche Isolatoren funktionieren mittlerweile auch bei Umgebungstemperaturen. Interessanterweise dienen zunehmend ontologische Strukturen, besonders topologische Ansätze, wie sie bei Koserlitz/Thouless, Haldane (Haldane 1988) und bei Wilczek genutzt werden, für eine eher realistische Beschreibung der Quantenphysik. Ganz besonders verspricht man sich mit ihnen Quanten-Computer realisieren zu können. Zusammenfassung und mögliche Konsequenzen Zunächst muss festgehalten werden, dass alle hier aufgenommenen Entitäten (vom Vakuumfeld über Anyonen bis zum Quantenfeld) erst einmal ausschließlich aus der Brille der unbelebten Natur untersucht und beschrieben sind. Die Messergebnisse und die daraus abgeleiteten Theorien bewegen sich immer noch auf der fundamentalsten Ebene und damit in der reinen Physik und anorganischen Chemie. Dennoch sind an einigen Stellen Beschreibungen und Analogien aufgetaucht, die sehr leicht in die belebte Natur überführt werden können, zumindest in Form von Analogien. Wie aber schon im Kontext der Quantenfelder festgehalten, scheitert die Quantenmechanik als Physik der Quar-
8.1 Quantenphysikalische Annäherung
325
ticle bereits an kleinen Vielquarticle-Systemen. Die QFT übernimmt an dieser Stelle, vermag aber keine detaillierten Berechnungen vorzunehmen, sondern muss ihre verallgemeinernden Ansätze immer mit realen Beobachtungen in Verbindung bringen. Es geht deshalb im Grunde um eine indirekte Beweisführung mithilfe von Experimenten und Feldbeobachtungen. Als weitere Erkenntnis liegt eindeutige Evidenz sowohl für kurzlebige als auch für ausgesprochen langlebige Verschränkungszustände vor, die weitreichende Kohärenzen aufrechterhalten können; Kohärenzen, die auch bei Umgebungstemperatur existieren und die die vermutete, sofortige Dekohärenz zumindest über relevante Zeitskalen verhindert. Die Tatsache, dass bisher keine Quarticle mit Spin 3/2 (supersymmetrische Teilchen) und 2 (Gravitonen) entdeckt wurden, könnte damit zusammenhängen, dass es sich bei ihnen um Entitäten 2. Ordnung in Sinne der Kybernetik handelt. Also um Etwas, das nur durch Beobachtung von Beobachtung entsteht, weswegen es keine eigene Realität besitzt und letztlich nur so scheint als ob. In diesem Fall einfach ausgedrückt, man verfolgt vielleicht die falschen Schlussfolgerungen, denn aus den Überlegungen zum Gluon, könnte Gravitation eine emergente Eigenschaft dieses Quarticles sein, nachdem es bereits für die starke Wechselwirkungskraft im Kern verantwortlich gemacht wird. Wilczek hat mit seiner Entdeckung und seinen Gedanken den Weg für einen beschreibbaren Übergang von einer immateriellen Welt in eine reale Welt bereitet. Die Vorstellung über eine Supersymmetrie und der damit verbundenen Quantenstatistik162 als ein rein abstrakter Erklärungsansatz, kann durch eine ‚realistische’ Vorstellung ergänzt oder gar abgelöst werden. „Nature, in her abundance, provides materials to embody all theoretically consistent possibilities. Trusting in that principle, I strive to exercise what Richard Feynman called ‘imagination in a straitjacket’, expecting that“ „If you build it (imaginatively), they will come (physically)“ (Wilczek 2017). Mit diesem Spruch kommt er zur gleichen Erkenntnis wie Capra 1975, 42 Jahre vor ihm (Capra 2010), dass wir unsere Welt selbst kreieren. Wilczek’s Idee der Imagination einer physikalischen Realität geht mit einer Besonderheit im Konzept der Anyonen einher. Hier ist die Zeit als beobachtbare, berechenbare Größe enthalten. Die Zeit emergiert als ein Ergebnis der Verwirbelung und damit als Ergebnis der topologischen Struktur. Interessanterweise sorgen ähnliche topologische Besonderheiten bei den Phasenübergängen von Haldane (Haldane 1988) und Kosterlitz/Thouless (Kosterlitz und Thouless 2013, 1973) für zeitliche Stabilität verschränkter Systeme. Ein Zusammenhang zu den neuen Annahmen, dass sich Raum-Zeit aus 162
Die Supersymmetrie geht von einer Parallelität von Eigenschaften bei Bosonen und Fermionen aus (Superpartner), da sie bisher unterschiedlichen Kategorien zugeordnet wurden, aber dennoch zusammen wirken müssen. Das dabei bei Makrosystemen (vielteiligen Quantensystemen) beobachtbare Verhalten wird dann mit der Quantenstatistik behandelt.
326
8 Modellentwicklung von der Mikro- zur Makrowelt
solchen Verschränkungen ergibt, erscheint insofern sehr plausibel. Die vermutete Annahme, dass unsere Zeitwahrnehmung in diesem Übergang vom Virtuellen zum Konkreten zu suchen ist, liegt nahe. Damit könnte sich auch erklären lassen, wie es zu scheinbaren Veränderungen in der Vergangenheit kommen kann, wie das DelayedChoice-Experiment veranschaulicht. In gleicher Weise wie Wilczek die Knoten nutzen möchte (Wilczek 2017), um auf der Ebene von Quanten-Computern den zeitlichen Ablauf von Berechnungen zu speichern und sie wieder rückverfolgen zu können, in gleicher Weise lässt sich vorstellen, wie diese Knoten auch in unserer Realität zurückverfolgt werden können, um an bestimmten Stellen veränderte Operationen vorzunehmen; Veränderungen, die sich entsprechend ihrer jeweiligen Freiheitsgrade wieder im Jetzt bemerkbar machen können. Eine zweite relevante Besonderheit wird sowohl durch Wilczek’s Anyonen (Wilczek 2017) als auch durch die Ansätze von Kosterlitz/Thouless (Kosterlitz und Thouless 2013, 1973) und Haldane (Haldane 1988) beschrieben: Das Auftauchen einer Verbindung zu Strukturen, in diesem Fall topologischen Strukturen. Diese sind in der Lage Informationen auch bei Zustands- respektive Formänderungen zu speichern. Etwas, was als nötige Fähigkeit für das Vergleichen von Strukturähnlichkeiten angenommen werden muss. Wie sonst kann das Gleiche in unterschiedlichen Ausdrucksformen erkannt werden? Hier lässt sich ein direkter Zusammenhang zu den Ideen von Lucadou und Schweitzer (Kap. 4.2.2), als auch mit der Arbeitsweise von Quanten-Computern bzw. unseres Gehirns vermuten. Hilfreich scheinen die Erkenntnisse zu den Übergängen auch für eine Modellierung zu sein, wie Informationen mittels Spins gespeichert werden können. Man stellt sich eine Oberfläche mit einer unendlichen Vielzahl von Quarticles und deren Spins vor (Abb. 47), die für eine spezifische Entität definiert ausgerichtet sind und deren Zustände und Eigenschaften festlegt.
3FDEQM>FOLCSLOQF@BP
+LTBO3BJMBO>QROB
2FKDIBSLOQF@BP
3LMLILDF@>I/E>PB3O>KPFQFLK
'FDEBO3BJMBO>QROB
Abb. 47 | Spinwirbel in zweidimensionalen Oberflächen (Aus Popular science background - The Nobel Prize in Physics 2016; © Johan Jarnestad / The Royal Swedish Academy of Sciences 2016 / nobelprize.org) Jede Spinveränderung und jeder Spinwirbel verändert die Eigenschaften der betroffenen Entität. Insofern sind kleinste Veränderungen auch für makroskopische Verhaltensweisen hoch relevant.
8.1 Quantenphysikalische Annäherung
327
Stellt man sich weiter vor, dass ... a) innerhalb dieser unzähligen Spins an bestimmten Stellen einzelne Spinveränderungen vorgenommen werden (z. B. deren Ausrichtung), die die Eigenschaft und damit das Erscheinungsbild der Gesamtentität erheblich verändern können (Haldane-Effekt) oder b) statt einer Veränderung einzelner Spins verschiedene Quantenwirbel das Gesamtsystem verändern können (Koserlitz/Thouless-Effekt), ... so wird deutlich, dass alleine über die Art und Weise der Verteilung dieser sogenannten Fehlstellen unvorstellbar viel Möglichkeiten generiert werden können. Die hier betroffenen Spins der Elektronen lassen sich zudem schwach mit den Spins der Kerne und deren Quarks koppeln (Amsüss u. a. 2011), was die Vielfalt an Kombinationen weiter in unvorstellbare Größen treibt. Da die vorgestellten Experimente und ihre Weiterentwicklung sich auch in dünnen Schichten bewegen und damit dreidimensionale Konfigurationen relevant sind, erhöht sich die Vielfalt weiter um eine dritte Dimension 163. Jede dieser Möglichkeiten kann als Ausdruck und Repräsentanz für eine bestimmte Information betrachtet werden. Durch deren Kopplung zu topologischen Systemen, die ja auch strukturelle Informationen speichern, wird anschaulich, dass auf diese Weise nahezu unendlich viele Informationen gespeichert und abgerufen werden können. Für diese Informationscodierung und -speicherung kommen nicht nur Elektronen, Photonen oder auch Atomkerne infrage, sondern auch Ionen, Dipol-Dipol-Verbindungen und Verbindungen unterschiedlicher Spin-Kombinationen zu einem Raum (Astner u. a. 2017; Amsüss u. a. 2011). Amsüss und seine Kollegen zeigen sogar die kohärente Verbindung von Elektronenspin und Photon, die für einen langen Informationstransfer bei Umgebungsbedingungen über einer Großstadt verwendet werden. Zudem wiesen sie eine Spin-Kopplung zum Atomkern des Kohlenstoffs nach, was sie explizit als ersten Schritt zu einem Quantenspeicher auf der Basis von Ensembles von Atomkernen ansehen. Somit drängt sich der Eindruck auf, dass quantenbasierte Informationsspeicherung überall stattfinden kann und dass wir tatsächlich von einer allgemeinen Verschränkung, beginnend beim Quantenvakuum, ausgehen können. Dass die Wissenschaft sie noch nicht früher entdeckt hat, mag mit unzureichender Technik zusammenhängen, möglicherweise aber eher von einer bisher dazu noch nicht vorhandenen theoretischen Vorstellung. Das Modell: Vom Qubit zur Realität Nun sollten alle Ingredienzien vorhanden sein, um ein Modell der Entwicklung vom Quantenvakuum bis zu unserer Realität zu beschreiben (Abb. 48), vom Virtuellen zum Konkreten. Ausgehend vom Quantenvakuum, von dem nach wie vor unklar ist, wo es seinen Ursprung hat, erscheinen Bosonen (Higgs-Boson, Photon, Gluon etc.) als erste unter163 In einer fortführenden Arbeit wäre die Berechnung solcher Größenordnungen zur Erfassung der tatsächlichen Dimension an Möglichkeiten, hilfreich.
328
8 Modellentwicklung von der Mikro- zur Makrowelt
scheidbare Entität. Damit manifestiert sich ein erster Unterschied aus dem Meer aller Möglichkeiten. Ein Unterschied, der allerdings immer noch alle Information trägt, die im Quantenfeld mit der Dimension Null existiert. Am Übergang von der Dimension Null zur Dimension 1 (Photon, Gluon etc.) scheint das Higgs-Boson beteiligt zu sein, da es einen Spin Null trägt, was eine dimensionslose Größe darstellt. Damit lässt sich das Higgs-Boson als erstes Übergangselement oder als erste Übergangsphase interpretieren. Das Wechselspiel zwischen den ersten Bosonen und dem Quantenfeld lässt sich anhand des Modells der EDBFT und den wandernden Tröpfchen auf einem durch Oberflächenspannung getrennten Medium veranschaulichen. Mit Zunahme der Unterscheidung vom Vakuumfeld bildet sich eine immer größere Dekohärenz und Eigenständigkeit aus. Damit lässt sich auch vorstellen, dass die wechselseitige Wahrnehmung abnimmt.
Abb. 48 | Vom Qubit zur Realität Aus dem Vakuumfeld lösen sich Bosonen, die sich unter Zuhilfenahme von Anyonen zu Fermionen wandeln. Fermionen bauen Quantenfelder und damit unsere bekannte Realität bis hin zu Lebewesen und dem Kosmos auf. An den Phasenübergängen besteht jeweils die Einflussmöglichkeit für Überraschendes. (eigene Darstellung)
Die sich gebildeten Bosonen, die Kräfte vermitteln, stoßen nun einen weiteren Prozessschritt an. Mithilfe der virtuellen Anyonen verwandeln sie sich an einem zweidimensionalen Phasenübergang zu Fermionen, unter Mitnahme aller in ihnen gespeicherten Informationen164. Ausgangspunkt bei den Fermionen sollten Elektronen und Quarks sein, 164
Ein solcher Phasenübergang ist auch der äußere Rand unseres Universums oder jedes anderen Universums, wozu auch der Ereignishorizont von schwarzen Löchern zählen sollte. Von daher sollte tatsächlich Information über diesen Ereignishorizont hinaus gelangen.
8.1 Quantenphysikalische Annäherung
329
beide ohne innere Struktur und deshalb räumlich überall und nirgends. Bereits hier stellt sich wieder die Frage: Woher wissen die Anyonen was sie zu konfigurieren haben, zumal auch noch zwischen zwei unterschiedlichen Quarks differenziert wird? Das ist die gleiche Frage, die sich jetzt auch für die Quarks stellt. Zusammen mit Gluonen165 bilden nun zwei unterschiedliche Quarks entweder ein Proton oder ein Neutron. Die letzten Beiden bauen zusammen mit Elektronen Atome auf und diese wiederum Moleküle und weiter ganze Molekül-Ensembles, womit wir bei Quantenfeldern angekommen sind. An den Phasenübergängen der Quantenfelder kann es zu Kohärenz und damit zu einer weiteren Verschmelzung kommen, muss aber nicht. Die Natur hat offensichtlich verschiedene Verfahren entwickelt, um Entitäten voneinander getrennt zu halten. Zum einen sind das unterschiedliche topologische Strukturen in Form von verdrillten Energiebändern, zum anderen sind dies unterschiedliche Frequenzspektren oder Magnetfelder. Mit den unterschiedlichen Spinreihen und den Verwirbelungen zeigt sich zudem, dass die Natur neben dem inneren Aufbau auch sehr viele Optionen zur Eigenschaftsveränderung an den Oberflächen geschaffen hat. Hier drängt sich sofort der Vergleich zum Menschen auf. Ein stabiles inneres System kann durch ein verändertes Oberflächenverhalten (Lachen, Weinen, böser Blick etc.) völlig unterschiedliche Zustände repräsentieren. Die Natur hat aber auch gezeigt, dass es verschiedene Formen von Brücken gibt, mit deren Hilfe Grenzen (Phasengrenzen) überwunden werden können und ein gemeinsames Ganzes aufgebaut wird (Josephson-Effekt), ohne die innere Struktur der beteiligen Entitäten zu verändern. Auch wenn mittlerweile in den physikalischen Experimenten eine Überwindung von begrenzenden Voraussetzungen, wie Magnetfeld und sehr kalten Temperaturen, stattgefunden hat, so lässt sich zumindest für das Magnetfeld festhalten: Die Erde als unser Lebensraum weist ein permanentes Magnetfeld aus, das für Lebewesen eine zentrale Bedeutung für seine körperlichen Lebensfunktionen besitzt. Im Kap. 8.2 und 8.3 wird darauf eingehend eingegangen. Allein daraus sollten sich schon die gleichen Möglichkeiten ableiten lassen, wie sie in den rein physikalischen Experimenten beobachtbar sind. Diese oben vorgestellten Phasen und Übergänge sind in ihrer theoretischen und praktischen Behandlung bezogen auf Energie und Kräfte sehr weit fortgeschritten, wenngleich nach wie vor noch viele Fragen offen sind. Was bisher wenig untersucht wurde, sind all die Aspekte, die mit Information außerhalb anorganischer Entitäten einhergehen sowie deren Speicherung und Weitergabe. Auf einer prinzipiellen Ebene gibt es Ansätze der Erklärung (Kap. 4.2.2 – Wiener, Weizsäcker, Görnitz, Josephson, Lucadou und Schweitzer). Auf der konkreten, die tatsächlich vorstellbar ist, wie Information gespeichert und weitergegeben werden kann, gibt es die Verschränkung und seit wenigen Jahren das Konzept der Teleportation. In beiden Fällen werden bisher nur rein physikalische und codierte Information behandelt. Mit der Idee, dass die Information in den Spin-Konfigurationen zu suchen ist und mithilfe der EDBFT sich miteinander in Beziehung setzen kann – und zwar jedwede 165
Der Einfachheit halber wird auf den gesamten Teilchenzoo verzichtet und nur das Gluon stellvertretend betrachtet.
330
8 Modellentwicklung von der Mikro- zur Makrowelt
Information, werden bisherige prinzipielle Vorstellungen konkretisiert und teilweise auch erweitert. Zur Vervollständigung benötigt es jetzt nur noch eine Ausformulierung dessen, wie die Interaktion zwischen den Entitäten und Spins zu neuen Informationsmustern kommt. Aus den bisherigen Betrachtungen wurde deutlich, dass aus dem Vakuumfeld emergierte Bosonen Träger von Spins und damit Qubits sind, in denen die Gesamtinformation des gesamten Vakuumfeldes in Form von Überlagerungen enthalten ist. Der Umfang dieser Informationen wird mit Entropie umschrieben und kann berechnet werden. Durch weitere Umwandlungsprozesse entstehen immer konkretere Entitäten mit immer spezifischeren Informationen. Paradoxerweise benötigen wir mit der Ausdifferenzierung der Entitäten immer mehr Information über diese Information statt weniger. Information, die letztlich in der Gesamtstruktur und den Spins der Entität durch deren Ausrichtung und Kopplungen codiert ist. In dieser Codierung sind auch topologische Informationen enthalten, die Erkennungsprozesse von anderen topologischen Strukturen ermöglichen. Die Gesamtinformation des Vakuumfeldes geht nicht verloren, tritt aber immer mehr in den Hintergrund und wirkt von dort aus verdeckt weiter. Treten zwei oder mehr Entitäten in Wechselwirkung, so finden Veränderungen auf Spin-Ebene und topologischer Ebene statt, die im neuen, verschränkten System ebenfalls codiert sind. Aufgrund der topologischen Strukturen und Knoten lassen sich alte Informationen jedoch wieder zurückholen. Je größer die Ensembles werden, desto mehr Spins und topologische Strukturen lassen sich abbilden und speichern und desto komplexer werden Messversuche. In solchen Systemen benötigt es sehr viele unterschiedliche Messanordnungen, um auch nur die wichtigsten Informationen erfassen zu können. Das Gesamtsystem lässt sich vergleichen mit einer Computerfestplatte, die mit zunehmender Größe immer mehr Speicherplatz besitzt, in dem Informationen codiert sind. Da für organische Systeme nicht nur Energie, Masse etc., sondern auch ganz andere Größen für das Überleben relevant sind, kann mit Sicherheit angenommen werden, dass diese Informationen ebenfalls in den Spins codiert und abrufbar vorliegen. Über EMF stehen die Entitäten schließlich auch über nähere Distanzen miteinander in direktem Kontakt und damit auch die ihnen innewohnenden Spins mit ihrer Information. Analog dem tanzenden Tropfen und dem Silikonöl-Medium kann es bei einer Trennung bleiben, zur Annäherung oder zur Verschmelzung kommen. Dies ist zunächst auf Makroebene abhängig von der Ähnlichkeit der Frequenzen, inwieweit sie Überlagerungen zulassen. Mit Zunahme der Nähe werden die Spin-Konfigurationen schließlich nachhaltig beeinflusst und festgelegt. Diese Konfigurationen charakterisieren schließlich den Zustand und das Verhalten der jeweiligen Entität und schaffen Realität. 8.1.1.5 Idee einer Normierung der physikalischen Theorien Mit den bisherigen Ausführungen wird deutlich, wie Information zur makroskopischen Realität werden kann. Sie liefern auch Anhaltspunkte die bestehenden physikalischen Theoriegebäude in einem neuen Licht zu sehen. Auch wenn dies für diese Forschung nicht zwingend notwendig erscheint, soll zur Erzeugung einer stimmigen Konsistenz
8.1 Quantenphysikalische Annäherung
331
des Gesamtzusammenhangs ein Versuch zur Normierung der bestehenden physi-kalischen Theorien unternommen werden. Dies geschieht in der Hoffnung auf ein einheitliches Modell, auf welches in den folgenden Kapiteln einfacher Bezug genommen werden kann und das die Komplexität der bisherigen Ausführungen verdichtet. Eine Auffälligkeit an Ähnlichkeit lässt sich zwischen Higgs-Boson (The Royal Swedish Academy of Sciences 2013a, 2013b) und Vakuumfeld feststellen. Im Standardmodell der Elementarteilchenphysik bekommen alle Quarticle ihre Masse erst durch die Wechselwirkung mit dem ‚allgegenwärtigen’ Higgs-Feld. Dieser ca. 4 % für uns sichtbaren Masse stehen ca. 96 % der Gesamtmasse des Universums (Dunkle Energie und Dunkle Materie) gegenüber. Das Vakuumfeld selbst wird im alternativen Bild von De-Broglie als Überlagerung realer Felder angesehen aus dem heraus Teilchen-Antiteilchen-Paare hervorgehen und die als Führungswellen den Quarticlen einen strukturellen Rahmen geben. Es liegt auf der Hand beide (Higgs-Feld und Vakuumfeld) als äquivalent anzusehen, als Ausgangspunkt der von uns wahrnehmbaren Welt. Aus den in Kap. 8.1.1.4 geschilderten Zusammenhängen lässt sich Gravitation als eine Wechselwirkung zwischen ähnlichen Systemen aufgrund einer Verschränkungs-situation verstehen. Im Teilchenzoo lässt sich diese Wirkung dem Gluon zuschreiben, das mit seinem Gegenpart, dem Photon, aus dem Higgs-Boson (Spin 0, neutrale Ladung und sehr schneller Zerfall) hervorgeht. Rein theoretisch müssten sich daher für die beiden Quarticle Photon und Gluon gleiche, aber gegenläufige Werte ergeben. Tatsächlich werden beide mit Ladung 0 und Masse 0 angegeben und beide mit Spin 1. Sollte es einen Unterschied geben, so bleibt nur der Spin, der sich dann von + 1 beim Photon in ein – 1 beim Gluon spiegeln lassen müsste und vice versa, abhängig vom Zeitpfeil. Genau dieser Umstand findet sich in der Form, wie der Spin für beide beschrieben ist: Spin Parität = 1� . Der Begriff Parität bezeichnet in der Physik genau so eine Raumspiegelung und die Symmetrieeigenschaft, wobei die Zeit unveränderlich bleibt. Im Gegensatz zum Gluon strebt das Photon mit Lichtgeschwindigkeit weg. Konsequenterweise muss es für dieses Wegstreben ein gegengerichtetes Pendant geben, was eben durch das Gluon realisiert werden sollte. Als Gemeinsamkeit dieser Einzelentitäten zu den anderen Bosonen (Bose-Einstein-Kondensat oder Cooper-Paare), die als Entitäten von Ensembles auftreten, lässt sich die Ununterscheidbarkeit ansehen. In diesem Sinne weisen sie zum einen eine Ähnlichkeit mit dem Higgs-Boson (Ununterscheidbarkeit) auf und zum anderen eine Ähnlichkeit mit den Photonen und Gluonen, deren Bestrebung zu sein scheint, sich innerhalb des Ensembles auszugleichen. Maximale Ähnlichkeit führt somit zur Verschmelzung und Nicht-Unterscheidbarkeit. In diesem Sinn lässt sich die Wellenfunktion auch als Ausdruck der Unterscheidbarkeit interpretieren. Mit Abnahme der Unterscheidbarkeit findet eine Annäherung und Austauschbarkeit bzw. Gleichheit der Einzelentitäten statt, wie es im Extremfall bei den Bosonen und im Quantenvakuum zu beobachten ist. Mit Abnahme der Unterschiede und einer Annäherung an einen gemeinsamen Energiezustand reduzieren sich die abstoßenden Kräfte und die gemeinsamen Wechselwirkungskräfte beginnen miteinander zu
332
8 Modellentwicklung von der Mikro- zur Makrowelt
interagieren; im besten Fall bis zur völligen Verschmelzung, womit wir wieder im Vakuumfeld respektive Quantenvakuum sind. Unterscheidbarkeit ist aber immer an die Existenz eines Außenbeobachters oder eines Außen gekoppelt. Aus dieser Perspektive scheint die Suche nach einer eigenständigen dritten Komponente, der Gravitation, die neben der Quantenfeldtheorie und der allgemeinen Relativitätstheorie existieren soll, nicht schlüssig zu sein. Die Gravitation müsste sich aus der Quantenfeldtheorie selbst erklären können. Mit den neuesten Entwicklungen, dass auch in mathematischen Modellen die Verbindung von Relativitätstheorie mit ihren Wurmlöchern (Susskind 2016) und der QFT mit ihren Verschränkungen Wege gefunden wurden, beide Systeme miteinander zu verbinden, anstatt wie bisher üblich, sie als nebeneinander stehend zu betrachten, scheint dieser Zusammenhang ein mathematisches Äquivalent gefunden zu haben. Einstein-Rosen-Brücken (Wurmlöcher) über die gekrümmte Raumzeit und verschränkte Subsysteme sind demnach das Gleiche. (Der Ansatz von Susskind beinhaltet zudem exakt den Messaufbau, der bei SyA Verwendung findet, weshalb auf ihn in Kap. 8.1.4 noch einmal Bezug genommen wird.) Als weiteres Puzzleteil auf diesem Weg scheint die ebenfalls neueste Veröffentlichung zur nicht notwendigen Existenz der Dunklen Materie herangezogen werden zu können (Verlinde 2017). Auch Verlinde geht von der Gravitation als einem emergenten Phänomen aus, vergleichbar der Temperatur als Folge der Bewegung von Quarticle. „The observed phenomena that are currently attributed to dark matter are the conesquence [sic!] of the emergent nature of gravity and are caused by an elastic response due to the volume law contribution to the entanglement entropy in our universe“ (Verlinde 2017: 35). Aus seinen Überlegungen schließt er auf Zustandsveränderungen von Qubits, die in den Strukturen der Raum-Zeit gespeichert sind, mit Entropie und verschränkter Quanteninformation in Zusammenhang stehen und durch ihre Veränderungen Gravitation erscheinen lassen. Mit seiner Annahme, dass „our universe is entirely dominated by dark energy and that ordinary matter only leads to a small perturbation“ (ebd. 36), kommt er zur gleichen Beschreibung wie wir sie bei EDBFT und den tanzenden Tropfen kennengelernt haben. Auch daraus lässt sich eine Äquivalenz von Vakuumfeld und Dunkler Energie ableiten. Er kommt genauso wie Haramein, Wilczek u. a. zu einem holistischen Bild des Universums. Schon aus den anfangs vollzogenen Überlegungen zu Photon und Gluon, als zwei Seiten desselben, bedarf es keiner Dunklen Materie. Das was als solche wahrgenommen oder besser geschlussfolgert wird, sind vermutlich Wechselwirkungskräfte zwischen dem Gesamten (Vakuumfeld) und seinen separierten Teilen oder zwischen Entitäten untereinander, die sich aus Zu- und Abnahme (bei Verlinde ist das eine elastische Komponente) von Unterschieden und einer damit einhergehenden Änderung der ‚Oberflächendurchlässigkeit’ ergibt. Auch wenn die Dunkle Materie für Physiker so offensichtlich erscheint, ist sie noch nie beobachtet worden, sondern muss indirekt abgeleitet werden. Genauso wie bei Haramein (Haramein 2013b, 2013a) benötigt es hier keine Sonderkonzepte, sondern alles lässt sich aus den bestehenden Grundlagen konsistent erklären.
8.1 Quantenphysikalische Annäherung
333
Haramein postuliert in jedem System ein schwarzes Loch bis hinunter zum Proton, und dass darüber alles mit allem verschränkt sein. Aus dieser Überlegung lässt sich das schwarze Loch als Wurmloch interpretieren, das am Ereignishorizont in Verbindung mit einem unterscheidbaren Umfeld kommt. Dieser Ereignishorizont wäre in diesem Sinne wieder ein Phasenübergang mit all den dort anzutreffenden Gesetzmäßigkeiten, die sich je nach Übergang zwar unterscheiden können, letztlich aber dasselbe sind. Insofern wäre Haramein’s Modell eine dritte Variante neben dem Standartmodell und der EDBFT, nur dass es sich möglicherweise durch eine geschicktere Interpretation und mathematische Behandlung auszeichnet. Mit Tegmark’s ausschließlich mathematischen Bild, „our universe is not just described by mathematics – it is mathematics“ (Tegmark 2008, 2007: 1) besteht möglicherweise ein vierter Zugang zum Gleichen, nur dass in diesen Modellen ein anderer Schwerpunkte gesetzt wird. Bei Übertragung auf die Wellenfunktion müssten sich die einzelnen Terme in der Rechnung jeder dieser vier Ansätze unterscheiden, am Ende jedoch das gleiche Ergebnis zeitigen. Die gesuchte vereinheitlichte Theorie würde sich deshalb auch als bereits existent darstellen lassen, mit der QFT als übergeordnete Theorie und der Allgemeinen Relativitätstheorie für die Besonderheit an den Rändern und damit als Beschreibung von Phasenübergängen und schwachen Kopplungen (Abb. 48) unter Anwesenheit eines Beobachters. Vergleichen wir den Formalismus der Gravitation im Rahmen der Allgemeinen Relativitätstheorie (Einstein 1915) und deren Auftreten, so scheint sie prinzipiell identisch mit der Wellenfunktion im Rahmen der QFT (Tab. 15). Neueste Forschungen scheinen diese Annahme zu unterstützen, indem sie feststellen, dass die Gravitation einer QFT-Beschreibung unterliegen sollte (Belenchia u. a. 2018). Beide, Gravitation und Wellenfunktion, werden nicht als Kraft166 verstanden und beide werden als Welle bezüglich ihrer Ausbreitungsform beschrieben; mit einer Geschwindigkeit im Vakuum, die der Lichtgeschwindigkeit entspricht. Mit den in dieser Arbeit entwickelten Überlegungen, dass es sich nicht nur um Wahrscheinlichkeiten, sondern um reale Möglichkeiten handelt, welche in realen Wellen eingebettet sind, findet auch eine vollständige Ankopplung an eine wie auch immer entstandene ‚Realität’ statt. Der wesentliche Unterschied der beiden aktuell fundamentalsten Theorien liegt dennoch im Verständnis der Ausbreitungsgeschwindigkeit der Information. Aber auch hier wurde in dieser Arbeit bereits eine Kopplung entwickelt. Von Beginn an besteht für eine räumlich und zeitlich existente Entität immer eine Phasen-
166
Wie bei Einstein stellt auch Haramei’s Ansatz eine geometrische Lösung für die Zusammenhänge dar, denn die bis heute gültige und experimentell nachgewiesene Gültigkeit der Allgemeinen Relativitätstheorie basiert auf einer Krümmung der Raumzeit und lässt die Gravitation als die Folge dieser Krümmung erscheinen und nicht als Folge einer Kraft. Mit der Quanten-Schleifengravitation gibt es zudem noch einen Ansatz, der ebenfalls ohne Kräfte auskommt, den Gesetzen der Quantenmechanik gehorcht und mit den gleichen Knoten und Spin-Netzwerken arbeitet, wie sie bei den Anyonen bereits beschrieben wurden. Nach ihr bekommt die Zeit ihre Bedeutung durch Veränderung der Netzwerke und durch die aufeinanderfolgende Verknüpfung der Knoten. Die Quanten der Gravitation (Graviton) in der QFT werden in der Quanten-Schleifengravitation zu Loops (Schleifen) (Pullin 2017; Rovelli 2011).
334
8 Modellentwicklung von der Mikro- zur Makrowelt
grenze zu einem vorhandenen Umfeld. Eine solche Phasengrenze setzt jedoch immer einen außenstehenden Beobachter voraus. Tab. 15 | Vergleich Gravitation und Wellenfunktion Der Unterschied besteht nur in der Ausbreitungsgeschwindigkeit von Information. Bei der ART geht dies nur maximal mit Lichtgeschwindigkeit. In der QFT liegt die Information instantan im Gesamtsystem vor. (eigene Darstellung)
Gravitation in der ART
Wellenfunktion Ψ in der QFT
Kraft
0
0
Ausbreitungsgeschwindigkeit im Vakuum
Lichtgeschwindigkeit 𝑐𝑐
Lichtgeschwindigkeit 𝑐𝑐
Ausbreitungsform
Welle
Welle
Informationsverteilung
Max 𝑐𝑐
instantan
Die Bewegung an dieser Phasengrenze würde dann den Gesetzmäßigkeiten der Relativitätstheorie unterliegen mit der bekannten Gesetzmäßigkeit von ‚Nichts ist schneller als Licht’. Alles was sich innerhalb dieser Phasengrenze bewegt unterliegt jedoch der QFT, womit das Postulat ‚Nichts ist schneller als Licht’ keine Gültigkeit mehr besitzt. Im Inneren von Systemen besitzt das Konzept der ‚Verschränkung’ mit einer instantanen Informationsverteilung Gültigkeit. Abb. 49 veranschaulicht den möglichen Zusammenhang wie ART und QFT verbunden sein können in einer zweidimensionalen Darstellung. Durch die zugrundeliegende Raum-Zeit wäre eine exakte Darstellung nicht nur dreidimensional, sondern auch in sich verdreht und gekrümmt. Aus dem Urknall entwickeln sich Entitäten jeweils mit einer eigenständigen PsiFunktion, die sich innerlich ausdifferenzieren und sich gleichzeitig mit Lichtgeschwindigkeit entsprechend der ART ausdehnen. Innerhalb der Gesamtausdehnung bleiben die Entitäten verschränkt. Diese Verschränkung verändert sich allerdings von 100 % zu einer immer kleiner werdenden Verschränkungsintensität. Grund ist die Ausdifferenzierung, auch innerhalb der jeweiligen Entitäten, die Gemeinsamkeiten reduzieren, aber nie auf Null gehen werden. Die neuen Modelle zeigen, dass zwischen den Blasen, die eine Entität repräsentieren auch raum-zeitliche Krümmungen bestehen, die letztlich aus der ART heraus als Tunnel beschrieben werden. Auf diese Weise kann sowohl die ART mit ihren tunnelartigen Verbindungen als auch die QFT mit ihrer allgemeinen Verschränkung, die derzeit gültigen Modelle bestätigen. Es besteht auch kein Widerspruch durch die maximale Ausbreitungsgeschwindigkeit an den Rändern, welche auch für die Randzonen der individuellen Entitäten Gültigkeit besitzt.
8.1 Quantenphysikalische Annäherung
335
Mit diesem Modell bestünde auch eine Antwort darauf, weshalb die ART bei sehr kleinen Radien unbrauchbare Ergebnisse produziert. Zu Beginn gilt das Regime der Quantenwelt mit ihren Quanten. Erst mit Existenz von Bosonen, Fermionen und vor allem sich daraus bildenden Ensembles entstehen Dimensionen und Beziehungen, die für die ART Relevanz bekommen. Nicht von ungefähr bezieht sich ihre Relevanz auf Relationen, die immer auf andere angewiesen sind. Am anderen Ende der Ausbreitung, an den Rändern der jeweiligen Entitäten besteht wiederum ein zweidimensionaler Phasenübergang, der ebenfalls keine Radien mehr besitzt. Je näher die ART an diese Phasenübergänge herankommt, desto irrelevanter wird ihre Gültigkeit, da jetzt wieder die Gesetzmäßigkeiten der Phasenübergänge der Quantenwelt relevant werden. Insofern lässt sich die Quantentheorie als Universaltheorie betrachten, wie es auch Leggett in einem Vortrag in Heidelberg formulierte (Spillner 2009).
Abb. 49 | Möglicher Zusammenhang ART und QFT Ausgehend von einem Urknall entwickeln sich eigenständige Entitäten, die sich immer weiter ausdifferenzieren, hier als Bubbles dargestellt. Die Bubbles lassen sich als verschränkt im Sinne der QFT und durch Wurmlöcher verbunden (ART). (Bild erstellt von Petra Weinmann.)
Neueste theoretische Ansätze und experimentelle Daten aus der Kosmologie scheinen in eine ähnliche Richtung zu deuten. Die theoretischen Ideen und Berechnungen von Mersini-Houghton (Valentino und Mersini-Houghton 2017a, 2017b; Mersini-Houghton und Holman 2009) in Verbindung mit dem ‚dark flow’ Modell und aktuellen Daten (Atrio-Barandela u. a. 2015) führen zu einem Mulitverse-Modell, in dem die Universen in Energiemulden kosmischer Dimensionen lokalisiert sind und Wechselwirkungen auf angrenzende Universen ausüben, vergleichbar Abb. 46 mit der Rubidium-Atomverteilung auf der Lichtwelle im Mikrokosmos. Mersini-Houghton spricht in ihrem Modell
336
8 Modellentwicklung von der Mikro- zur Makrowelt
von 2009 ebenfalls von nichtlokaler Verschränkung jenseits unseres Horizonts (‚superhorizon entanglement’). Als beobachtbares Ergebnis einer solchen Wechselwirkung ergeben sich demnach die Ungleichverteilung der kosmischen Hintergrundstrahlung mit ihren kälteren Regionen und den Galaxienclustern. Gleichzeitig gelingt es mit diesem Modell bestehende Anomalien im kosmologischen Standard-Modell zu erklären. 8.1.1.6 Conclusio aus der Illusion der Materie Aus den Kapiteln zur Illusion der Materie lassen sich verschiedene Rückschlüsse ableiten. Konsequenzen aus der Illusion der Materie Kurz zusammengefasst liegt eine eindeutige Evidenz vor, den sichtbaren Körper nicht als reale Grenze seiner Wechselwirkungsmöglichkeiten anzusehen. Diese sichtbare Grenze hängt nur mit der Art und Arbeitsweise unserer 5 Sinne zusammen. Auf elementarer Ebene bleiben nur Energie und Information als relevante Größe übrig, was bedeutet, dass prinzipiell alle auf dieser Ebene existierenden Möglichkeiten auch für Lebewesen angenommen werden können. Der Homo Physicus als Mixed-Zustand zwischen Quanten- und klassischer Welt lässt sich daraus in jedem Falle ableiten. Konsequenzen aus dem Doppelspalt-Experiment Aus diesem Experiment lässt sich klar ableiten, dass Phänomene, die auf der Quantenebene ablaufen, keine deterministischen Vorhersagen zulassen, sondern nur Wahrscheinlichkeiten für das Auftreten eines Ereignisses. Auch die prinzipiell vorhandene deterministische Ausgangslage der DBBT und der EDBFT führen durch die enorme Komplexitätszunahme zu einer nicht mehr deterministischen Verhaltensweise; verursacht durch eine Führungswelle auf der unendlich viele Wechselwirkungen stattfinden und die damit sowohl Einfluss als auch Unbestimmtheit ermöglicht. Diese Startsituation wird durch die weiteren Ausdifferenzierungen von Entitäten noch weiter gesteigert, weshalb Wahrscheinlichkeitsaussagen die konsequente Folge sind. Dies entspricht den Bedingungen von Unbestimmtheit und Komplexität, wie sie bereits im Rahmen der VUCA-Welt herausgearbeitet wurden. Sowohl experimentell (Kohärenz in Nicht-Gleichgewichtssystemen, Temperaturen über 600 °C) als auch theoretisch (Energiehaushalt als Garant der Kohärenz) liegt Evidenz vor, die die Fixierung auf die reine Elementarebene und isolierte Systeme bei Temperaturen nahe dem Nullpunkt überwindet. Als Folge sind ganz wesentliche Gegenargumente falsifiziert. Die Variante des Delayed-Choice-Experimentes scheint eine Möglichkeit zu liefern, wie der menschliche Beobachter mit in das Experiment eingebettet werden kann und weshalb Repräsentanten in Aufstellungen auch mit technischen Bauteilen und Codes in Beziehung treten können. Darüber hinaus bestehen auch Modelle, um eine Veränderung der Vergangenheit zu beschreiben und auch zu realisieren. Eine Refokussierung und
8.1 Quantenphysikalische Annäherung
337
eine Rekohärenz ermöglichen verdeckte oder überlagerte Informationen wieder zugänglich zu machen. Erstaunlicherweise existiert für jedes der Quantenphänomene respektive Experimente eine exakte Entsprechung auf der psycho-physischen Ebene von Menschen. Dies ist eigentlich nur zu erwarten, wenn die gleichen Prozesse zugrunde liegen. Entsprechend der Aussage von Bush167, erscheint die Quantenwelt in keiner Weise mehr so counter-intuitiv wie bisher angenommen. Sie entspricht vielmehr in vollem Umfang menschlichen Erfahrungen, sofern wir die bisher ausgeschlossenen oder ignorierten Erfahrungen einschließen. Selbst die Aussage, ‚das sind ja nur Zufälle‘, wenn Menschen an jemanden denken und just in diesem Moment von ihm angerufen werden, bekommt unter dem bisher Herausgearbeiteten eine begründbare Realität ohne Zufallsbezug. Konsequenzen aus der Interpretation der Wellenfunktion Offensichtlich ist, dass die KI keine Antwort liefert, was Welle oder Teilchen tatsächlich sind und wie sich daraus Realität schaltet. Ihre rein mathematische Aussage gibt per Definition schon keine Antwort auf die Realität, sondern bildet nur Möglichkeiten von Erscheinungen ab, die sich aus der jeweiligen Kombination von Beobachtetem – Messapparatur – Beobachter ergeben. Zweifellos gelingt dies in ausgezeichneter Weise. Als reine mathematische Wahrscheinlichkeit ohne konkrete Realitätsanbindung kann nur eine indirekte Beweisführung über den Output von Experimenten geleistet werden. Die KI als Begründung für die Phänomene bei SyA oder Intuition heranzuziehen scheitert deshalb, denn es gibt keine aus ihr ableitbare Begründungsoption. Damit könnte an diesem Punkt meine Forschung auch schon beendet werden, denn statistische Evidenz wurde schon ausreichend nachgewiesen. Gefunden wurde eine Interpretation der Wellenfunktion, die sowohl dem mathematischen Ansatz als auch der Beobachtungssituation Rechnung trägt und verständlich macht, weshalb sie bzw. ihr Quadrat einen realistischen Ausdruck für Messergebnisse darstellt. Daraus abgeleitet lassen sich die unterschiedlichen Polaritäten (Psi in den unterschiedlichen Interpretationen, Beziehung Quantenphysik – Relativitätstheorie, Ontologie – Systemtheorie, phänomenologisch - konstruktivistisch) miteinander in Beziehung bringen und einem grundsätzlichen bzw. spezifischen Bereich zuordnen. Konsequenzen aus dem Welle-Teilchen-Dualismus Die EDBFT mit den springenden bzw. gleitenden Tröpfchen weisen auf eine Option auch im biologischen Kontext hin. Das Experiment veranschaulicht nämlich den Umstand, dass es trotz gleicher Ausgangsbasis (das Bad als auch die Tröpfchen bestehen aus dem gleichen Medium) nicht zwingend zu einer Verschmelzung (Kohärenz bzw. Dekohärenz) kommen muss. Entscheidend sind die Frequenz- und damit die Erregungsunterschiede der beteiligten Entitäten. Die sich unterscheidende Eigenfrequenz des Bades verhindert ein Eintauchen des Tröpfchens. Der jeweilig dekohärente Zustand wird aufrechterhalten bzw. die Kohärenz beider Systeme wird vermieden. Dennoch besteht 167
Siehe weiter oben im Kontext der erweiterten De-Broglie-Führungswellen-Theorie (EDBFT)
338
8 Modellentwicklung von der Mikro- zur Makrowelt
bei ausreichender Nähe die Option, Zustände (Wellenfunktionen) durch gegenseitige Wechselwirkungen zu beeinflussen und diese auch von außen zu beobachten. Dieser Vorgang bildet eine hochgradig phänomenologische Ähnlichkeit mit beobachtbaren Interaktionen zwischen Menschen, die im Wesentlichen aus dem gleichen Medium aufgebaut sind. Nehmen wir eine Kultur (Familie, Organisation, Land), welche sich im Prinzip als kohärentes System beschreiben lässt. Die Einzelelemente (Menschen) sind solange mit dem Gesamtsystem kohärent, solange sie in absolut gleicher Weise (quasi stereotyp) denken und agieren. Entwickeln sie andere Gedanken und anderes Verhalten, so manifestiert sich dieses auch in Form anderer Frequenzen und SpinKonfigurationen. Die Einzelentität wird unterscheidbar und löst sich aus dem Gesamtsystem. Solange noch gewisse Ähnlichkeiten bestehen, lässt sich eine wechselseitige Beeinflussung beobachten, durch interaktive Unruhen an den Berührungspunkten. Darüber hinaus bewegt sich die Entität weitgehendst selbstgesteuert und gleichzeitig gelenkt von der Führungswelle (Gesamtheit der Anderen), die das Gesamtfeld und seine Möglichkeiten strukturiert und die Freiheitsgrade für das Einzelsystem definiert. Ab einem bestimmten Unterschied von Einzelentität und Gesamtsystem gehen die wechselseitigen Beeinflussungen gegen Null und die Systeme leben nebeneinander her, beobachtbar nur über Fehl- bzw. Leerstellen im Gesamtsystem. Die von Zeh (Zeh 2013) formulierte Rekohärenz (die Wiederherstellung einer Kohärenz) kann über Gespräche und wiederfinden von Gemeinsamkeiten erzeugt werden (Refokussierung). Für jedes physikalische System sind Störungen letztlich energetisch ungünstig. Das normale Bestreben ist der Versuch, wieder auf den energetischen Grundzustand zu kommen, was meist durch eine kohärente Struktur zum Ausdruck kommt. Energetischer Grundzustand oder energetisch günstig kann jedoch für unterschiedliche Kulturen ganz unterschiedlich beantwortet werden. Für das Gesamtsystem z. B. Organisation oder Land bedeutet die Zunahme von Unterschieden in der Regel einen Zusatzaufwand, um den Bedürfnissen aller gerecht zu werden. Als natürliches Verhalten kann aus dessen Perspektive deshalb der Versuch, Einheitlichkeit zu erzeugen, als Versuch interpretiert werden, schonend mit Ressourcen umzugehen. Einheitlichkeit (zu starke Kohärenz) geht allerdings oft einher mit fehlenden Kristallisationskeimen, an denen sich neue Ideen konstituieren; genau das, was die Überlebensfähigkeit von Systemen in sich verändernden Umwelten sichert. Auf der anderen Seite können für Einzelentitäten (Person, Team) zu große Unterschiede zum übergeordneten System einen erheblichen Mehraufwand und damit Energieaufwand bedeuten, was gefühlt zum Phänomen Stress führt und auf Körperebene dem biologischen System Energie raubt. Energie, die fehlt, um Fehlstellen bzw. Fehlentwicklungen innerhalb des kohärenten Systems des Lebewesens angemessen zu begegnen. Die vom System wahrgenommene Information über Fehlentwicklung bedarf Energie um entsprechende Reparatur-, respektive Rekohärenzprozesse zu initiieren. Als Ergebnis treten körperliche oder psychische Krankheiten auf. Die Experimente mit flüssigen Medien wie dem Silikonöl und den wandernden Tropfen bei der EDBFT lässt sich, zumindest in erster Näherung, auch gut auf den Menschen an
8.1 Quantenphysikalische Annäherung
339
sich übertragen; besteht dieser doch zu 75 - 50 % aus Wasser168 und wechselwirkt in stärkerem Maße mit der Umgebungsfeuchtigkeit der Natur und den Photonen und Quarticles des Umfeldes. Stellt man sich den Bereich der Haut als zweidimensionale Oberfläche vor, mit einer systemabhängigen Frequenz und im Wesentlichen aufgebaut aus Wasser als dynamisches Medium, so lässt sich die Führungswelle gut auf diesen Oberflächenzustand übertragen. Korrespondierende, ankommende Quarticle sollten einer ähnlichen Wechselwirkung unterliegen wie der wandernde Tropfen. Je nach Übereinstimmung der EM-Frequenzen und Spin-Konfigurationen kommt es zu einer vollständigen, teilweisen oder zu keiner Wechselwirkung. Dies könnte auch erklären, weshalb manche Menschen Krankheiten vom Umfeld annehmen und andere verschont bleiben. Der abnehmende Wasseranteil im Körper vom Kleinkind zum alten Menschen erklärt vielleicht auch die hohe Sensibilität und implizite Lernfähigkeit in jungen Jahren und die Abnahme der Sensibilität und Lernfähigkeit im fortgeschrittenen Alter. Je mehr Wassermoleküle, desto einfacher, weil automatischer, ist ein Lern- und Veränderungsprozess. Konsequenzen aus der Entwicklung von Qubits in die Realität Die bisherigen Zusammenhänge unterstützen Antworten, inwieweit Superposition und damit Interferenzen auch auf biologische Systeme bzw. auf die Informationsverarbeitung bei Menschen übertragbar sind. Die theoretischen Modelle und Experimente speziell zu den Phasenübergängen sind offensichtlich gut mit der EDBFT kompatibel. Zusätzlich zeigen sie Wege auf, wie Kohärenz und Dekohärenz unter normalen Umweltbedingungen und zwischen Makrosystemen verhindert bzw. beibehalten werden können (topologische Energiebänder, Frequenzunterschiede). Es wurde auch offensichtlich, wie Informationen und damit verbundene Zustände und Eigenschaften durch Spins und Spin-Konfigurationen der Quarticle, speziell auf den Oberflächen, gespeichert werden und wie dadurch beobachtbare Realität entsteht und modifiziert wird. Veränderungen der Spins verändern die Information des Systems und schließlich dessen Eigenschaften und Verhalten. Durch topologische Konfigurationen lassen sich so auch nicht identische Informationen in Beziehung bringen. Die im technischen Sinn verwendeten Qubits lassen sich als extrinsisch betrachten, die künstlich erzeugt und mit aufgeprägten Zeichencodes versehen werden. Demgegenüber stehen die intrinsisch erzeugten Qubits, die sich emergent aus einer Entwicklungsgeschichte heraus konstituieren und die quasi unendlich viele Zustände einnehmen und speichern können. Das EMF stellt schließlich die für uns im klassischen Sinne messbare Form dar. Es enthält alle Informationen der Quanten und Qubits, verbirgt sie allerdings durch die Form des Auftretens. Die in ihr enthaltenen Informationen sind deshalb nur indirekt beobachtbar, beispielsweise an synchronen Erscheinungen und Verhaltensweisen. Eine solch indirekte Beobachtung ist jedoch nicht untypisch für physikalische Untersuchungen. 168
Laut WHO beträgt das Gesamtkörperwasser (total body water, TBW): Kinder 75 – 60 %, Männer 65 - 60 %, Frauen 55 - 50 %, mit dem Alter stark abnehmend; davon 64 % intrazellulär (innerhalb der Zellen) und 36 % extrazellulär (zwischen den Zellen).
340
8 Modellentwicklung von der Mikro- zur Makrowelt
Es gibt keinen ersichtlichen Grund, weshalb diese von der Natur entwickelte Realität nicht auch bei organischen Lebewesen Anwendung finden sollte. Schließlich sind Zellen aus Quarticle aufgebaut und werden als makroskopische Entität letztlich durch die Spin-Konfigurationen im Gesamtsystem zu einer ganz spezifischen, informationstragenden Einheit. Konsequenzen aus der Normierung physikalischer Ideen Die Arbeiten von Lin und Moreva und deren Gruppen zeigen (Kap. 8.1.1.4) dass interne und externe Wahrnehmungen unterschiedlichen Gesetzmäßigkeiten gehorchen, die äquivalent zu den Aussagen der ART bzw. der QFT sind. Entsprechend sind meine Ableitungen aus dem Prozess vom Qubit zur Realität und insbesondere die Idee der emergenten Zeit aus den Knoten vollständig deckungsgleich zu den neuen Ideen der Schleifen-Quantengravitation. Danach ist der Verzicht auf Dunkle Materie, wie es in neuesten Konzepten herausgearbeitet wurde und die ausschließliche Fokussierung auf die Dunkle Energie, als Äquivalent zum Vakuumfeld und den sich daraus entwickelnden Entitäten, scheinbar übereinstimmend mit dem Modell der Wechselwirkung, wie sie sich aus meinen quantenphysikalischen Überlegungen ergaben. Die Verbindung von ART und QFT wie sie u. a. von Susskind entwickelt wurde (Susskind 2016), legt die Grundlage für ein konsistentes Erklärungsmodell, das eine Verschränkung von Quantenfeldern und eine damit verbundene instantane Informationsübertragung bzw. -wahrnehmung ermöglicht, auch bei organischen Lebensformen. Daraus lassen sich alle Phänomene bei SyA und Intuition als quantenphysikalisch begründbar und nicht im Widerspruch zur Relativitätstheorie stehend ansehen. Übertragung auf SyA Sollten SyA und Intuition auf diese Ebene der Physik wie vermutet zurückgreifen, sind auch dort getroffene Vorhersagen Wahrscheinlichkeitsaussagen und keine deterministischen Ergebnisse. Experimente müssten tatsächlich den oben beschriebenen, wahrscheinlichkeitsbasierten Evidenzmessungen entsprechen. Konsequent höhere Signifikanzen als die Gaußverteilung würden dann bereits auf Quanteneffekte hinweisen. Gleichzeitig ermöglicht es Repräsentanten den Zugriff auf nicht-lokale, ontologische Gegebenheiten auch rückwirkend in die Vergangenheit. Die phänomenologische Wahrnehmung wird konstruktivistisch durch die Wechselwirkung zwischen den Entitäten modifiziert und durch Veränderungen von Spin-Konfigurationen gespeichert, die schließlich eine Verhaltensveränderung bewirken. Konkret scheint die Bestätigung einer verbreiteten These einen Evidenzhinweis zu liefern: Je höher der energetische Austausch, desto klarer die Wahrnehmung, da sich das Interferenzmuster klarer vom Hintergrund abhebt. Dies würde jedoch nur für lokale Nähe Gültigkeit besitzen, in denen die Entitäten direkt miteinander wechselwirken. Bei SyA trifft dies für die Aufstellungssituation vor Ort auch zu. Damit könnte sich erklären, weshalb fremde oder eher unerfahrene Gruppenmitglieder erst mit Berührung durch den Fallbringer starke körperliche Wahrnehmungen entwickeln. Durch das Auflegen der
8.1 Quantenphysikalische Annäherung
341
Hände des Fallbringers auf den Rücken des Repräsentanten findet eine maximale lokale Interaktion der beiden Körperfelder statt, mit maximalem Energieaustausch und maximaler Wechselwirkung zwischen den Spins der beiden Körperfelder. Dass hier ein Energieaustausch stattfindet, ist beispielsweise durch Wahrnehmung der Körperwärme verifiziert. Als weitere Möglichkeit wäre ein aufeinander Einschwingen denkbar, wie es in kommunikativen oder therapeutischen Settings praktiziert wird. Durch das Anstreben eines gleichen, kohärenten energetischen Zustandes (Anpassung auf den Erregungszustand des Gegenübers) kommt es auch zur Anpassung der EM-Frequenzen analog der tanzenden Tröpfchen. Folglich würde sich auch die Menge ähnlicher, wechselwirkender Frequenzen zwischen den Teilnehmern erhöhen. EEG, EKG oder HautleitwiderstandsDaten müssten sich angleichen bzw. aufeinander reagieren. Konsequenterweise würde dies dann zu verstärkter Überlagerung und mithin zur Erhöhung der wahrnehmbaren Intensität führen, mit Verbesserung der Wahrnehmung der inneren Zustände des Gegenübers. Ein Teil dieser Zusammenhänge wurde im Rahmen der Experimente zu Entscheidungstheorie und Intuition bereits nachgewiesen. In Kap. 8.2 und 8.3 wird dies noch weiter untersucht. Bei einer Aufstellung werden Wahrnehmungen an Brüchen von gemeinsamen Kohärenzen gemacht. Die Störungen (Leer- und Fehlstellen oder zumindest Veränderungen an den Wellenfunktionen der Beteiligten) weisen auf Unterschiede hin, die durch Suchbewegungen in Richtung einer kohärenten Gesamtsituation (wieder) ausgeglichen werden sollen. Die Suche nach neuen, vielversprechenden Kristallisationskeimen mittels SyA bedeutet die Suche nach Unterschieden im Feld und nach kohärenter Anschlussfähigkeit auf eine Ebene, die dem bewussten Verstand nur schlecht zugänglich ist. Ist das Ziel die Wiederherstellung von energiesparendem Zusammenleben (z. B. Team, Familie), so bedeutet dies die Suche nach Störstellen und Unterschieden und die Suche nach Möglichkeiten einer neuen Übereinstimmung. Die gefühlte Wahrnehmung der Repräsentanten würde damit den Turbulenzen im kohärenten Wellenbad entsprechen. Die Bewegung hin zu einer guten Lösung entspräche der Reduzierung dieser Unterschiede bis hin zu einer Gesamtkohärenz (Rekohärenzprozess). Dabei ist anzunehmen, dass mit der Integration des Neuen sich auch die Wellenfunktion des Gesamtsystems (Gruppe plus Einzelperson) verändern wird. In Bezug auf Wirtschaftskontexte und deren Repräsentation mittels SyA ergibt sich ebenfalls ein sehr anschauliches Beispiel. Frühe Entwicklungen und deren Ideen sind aufgrund der allgemeinen Verschränkung bereits von Beginn an auf der Ebene des Quantenfeldes existent. Die Ideen sind zunächst in den Elementarteilchen respektive den Quantenfeldern, die die Ideengeber (Menschen) repräsentieren, codiert. In diesem Stadium ist die Intensität dieser Informationsfelder jedoch noch sehr klein im Vergleich zur Gesamtbevölkerung. Je mehr Menschen diese Ideen aufgreifen und sich damit beschäftigen, desto größer wird die Intensität und desto einfacher wird die Idee als Resonanz spürbar. Im normalen Alltag, besonders wenn wir auf unsere eigenen Ideen und Begrenzungen konzentriert sind, wird unser Bewusstsein kaum solch niederschwellige
342
8 Modellentwicklung von der Mikro- zur Makrowelt
Informationen und Resonanzen wahrnehmen. Umfangreiche Marktstudien können dies nur teilweise ausgleichen, denn sie müssten die Nester entdecken, in denen neue Entwicklungen entstehen. SyA sind dazu viel früher und kostengünstiger in der Lage. Das mentale Öffnen ermöglicht den Repräsentanten, mit sehr niederschwelligen Informationen in Resonanz zu treten. Als Unsicherheit bleibt nur die Interpretation der Wahrnehmungen. In jedem Fall lassen sich aber die dabei entstehenden intuitiven Ideen nutzen. Es gibt somit ausreichende theoretische Konzepte und experimentelle Beobachtungen, die eine Übertragungsmöglichkeit oder besser eine Integration menschlicher Erfahrungen in quantenphysikalische Beschreibungen als realistisch erscheinen lassen. Zumindest gibt es bisher keinerlei Argumente, die gegen eine Ausdehnung quantenphysikalischer Beschreibungen und Zusammenhänge sprechen. Offen bleibt jetzt nur noch eine tatsächliche Beobachtung im biologischen Kontext und letztlich bei Menschen. Vor diesem Schritt werden zur Ausschließung häufig formulierter Einwände noch die Themen Verschränkung und Messproblem vertieft betrachtet und mit einem konkreten Modell der Informationsübertragung plausibilisiert. 8.1.2
Verschränkung und Dekohärenz
An unterschiedlichen Stellen, besonders aber im Kap. 4.2, 5.3 und 8, wurde bereits auf das Thema ‚Verschränkung’ verwiesen und verschiedenste Experimente vorgestellt. Über das Phänomen existieren allerdings, auch innerhalb der Physik, unterschiedliche und teilweise auch sehr konträre Vorstellungen. Da jedoch SyA und Intuition nicht ohne diese Grundlage erklärt werden können, soll im Folgenden das Wesentliche zusammengefasst sowie der Stand der Forschung in konzentrierter Form vorgestellt werden. Dies ist auch deshalb notwendig, da die Entwicklungen der letzten Jahre einige der heute noch verbreiteten Annahmen infrage stellen oder gar widerlegen. Zum Zweiten soll überprüft werden, ob das Phänomen der Verschränkung tatsächlich auf Menschen anwendbar ist. Neben der Modellentwicklung zur Säule 5 ‚Nachweisverfahren zur Nicht-Lokalität’, Säule 6 ‚Dekohärenzmodell von H.-D. Zeh’ und Säule 8 ‚Überwindung des TemperaturParadigmas’ werden entsprechend die Unterkategorien ‚Lokal versus Nicht-Lokal’ und ‚Verschränkung’ ausgearbeitet. 8.1.2.1 Verschränkung allgemein Von Verschränkung spricht man ganz allgemein, wenn der Zustand eines Quantensystems nicht durch die Einzelzustände seiner Subsysteme bestimmt wird, sondern nur als Ganzes verstanden und gemessen werden kann. In der Sprache der Physik: Die Wahrscheinlichkeitsverteilung der Ergebnisse, die an einem Teil eines Quantensystems gemessen werden, wird durch die Messung an einem anderen Teil des gleichen Quantensystems beeinflusst. Wie bereits ausgeführt, geht man bei den Einzelzuständen in der Regel von Quarticle wie Photonen, Elektronen, Atomen etc. aus. Im Falle der Ver-
8.1 Quantenphysikalische Annäherung
343
schränkung spannen die verschränkten Quarticle ein wohldefiniertes Ganzes auf, dessen Gesamteigenschaft beschreibbar und messbar ist. Die Möglichkeit Ein-Teilchen-Systeme per Addition zu kombinieren und daraus auf das Ganze zu schließen, funktioniert in einem solchen System nicht. Dies steht im Gegensatz zu unserem bisherigen klassischen naturwissenschaftlichen Verständnis. Auf den ersten Blick bietet sich eine Analogie zur Systemtheorie an, bei der ein Gesamtsystem (Team, Organisation etc.) ebenfalls mehr ist als die Summe seiner Teile und ebenfalls nur als Ganzes verstanden werden kann. Physikalisch gibt es aber doch noch ein paar Spezifika, die berücksichtigt werden müssen und mit denen wir uns zunächst auseinandersetzen wollen. Teilchenkonzept der Verschränkung – Compton-Effekt Das verbreitete Verständnis über das Entstehen von Verschränkung spielt im Teilchenmodell und ist mit dem Compton-Effekt (auch Compton-Streuung) verbunden. Dieser Effekt trifft auf alle physikalischen Prozesse zu, in denen Quarticle wechselwirken (Camejo 2007: 74–85; Greenstein und Zajonc 2005: 64–65). Abb. 50 veranschaulicht diesen Mechanismus anhand einer Wechselwirkung von Photon und Elektron. Ein einfallendes Photon trifft auf ein Elektron und trennt sich anschließend wieder. Für das Verständnis der Verschränkung ist dabei relevant, dass nach dem Trennprozess die beiden Quarticle nicht getrennt vorliegen, wie wir es in der klassischen Physik erwarten. Die beiden Quarticle zeigen stattdessen einen sogenannten Überlagerungszustand (die sogenannte Superposition), der unabhängig von der räumlichen und zeitlichen Entfernung bestehen bleibt. Im Extremfall befinden sich die beiden Quarticle jeweils an der entgegengesetzten Seite des Universums und wissen dennoch voneinander.
Abb. 50 | Verschränkung dargestellt mithilfe der Compton-Streuung. Mit λ als einfallende Wellenlänge und λ’ als veränderte, gestreute Wellenlänge (eigene Darstellung). Nach einer Interaktion zwischen einfallendem Photon und ruhendem Elektron und einer nachfolgenden Separierung bleibt eine Überlagerung (Superposition) zwischen abprallendem Elektron und gestreutem Photon bestehen. Beide Entitäten bleiben verschränkt. (eigene Darstellung)
344
8 Modellentwicklung von der Mikro- zur Makrowelt
Dieses Phänomen ist in der Physik als Nicht-Lokalität bekannt und wurde von Einstein Zeit seines Lebens abgelehnt. Er vermutete dahinter nicht verstandene Zusammenhänge, die er bis zu seinem Tod zu erforschen suchte. Denn letztlich wurde mit diesen Beobachtungen eine fundamentale Annahme verletzt, dass Eigenschaften von Quarticle über große Entfernungen von anderen Quarticle ohne direkte Wechselwirkung nicht beeinflusst werden können. Dieses Postulat ist bekannt unter dem Begriff des ‚lokalen Realismus‘ und wurde u. a. von Hensen und seinen Kollegen schließlich 2015 und 2017 vollständig und zweifelsfrei experimentell widerlegt, u. a. über kosmische Distanzen (Handsteiner u. a. 2017; Hensen u. a. 2015). Wellenkonzept der Verschränkung – Doppler-Effekt Der Compton-Effekt wird üblicherweise für das Teilchenmodell des Lichtes beschrieben und zur Berechnung der Veränderung der Wellenlänge der beteiligten Systeme genutzt. Weniger bekannt ist der Umstand, dass diese Wellenlängenveränderung auch mit dem reinen Wellenmodell beschreibbar ist und sich im Doppler-Effekt169 wiederfindet. Der Verschränkungseffekt kann somit äquivalent auf das Wellenmodell übertragen werden (vgl. Camejo 2007: 84). Vier weitere Verschränkungsmöglichkeiten 1. Quarticle können nicht nur verschränkt sein, wenn sie miteinander interagieren, sondern auch, wenn sie von der gleichen Quelle emittieren (Siegfried 2016). Dies trifft beispielsweise für die Photonen eines Lasers zu, wie sie von Hensen und anderen bei Verschränkungsexperimenten üblicherweise verwendet werden. Dieser Zusammenhang bekommt besonders in Kap. 8.2 bei den biologischen Systemen eine relevante Bedeutung. 2. Verschränkung kann auch entstehen, wenn die am Ende verschränkten Quarticle A und D gar nicht selbst miteinander in Kontakt waren, sondern nur verschränkte Zustände übertragen werden; wenn also die Verschränkung von AB und CD über unterschiedliche Quellen erfolgt und der verschränkte Zustand selbst auf AD übertragen wird. Das Verfahren ist unter ‚Entanglement Swapping’ bekannt und wird in Kap. 8.1.4 noch näher erläutert: „One can entangle without any direct interaction particles which were independent of each other or, what is more important for us, construct entanglement of higher order“ (Pan u. a. 2012: 779). Siehe auch (Pan u. a. 2001; Żukowski u. a. 1993). 3. Als neue, vierte Form wurde die Möglichkeit einer direkten, wechselwirkungsfreien Verschränkung über das Vakuumfeld erkannt (Sabín u. a. 2012; Olson und Ralph 2012). Analog dem Delayed-Choice-Experiment beeinflussen die Parameter sowohl 169
Je nach Bezugssystem und Beobachtungssituation scheint beim Doppler-Effekt dieselbe Welle unterschiedliche Frequenzen zu haben. Eine einfallende EM-Welle mit einer Wellenlänge λ wird nach Zusammenstoß und erneuter Trennung vom Elektron zu λ’ (aus Sicht des Elektrons) mit λ’ > λ (siehe auch Abb. 50). Diese wellentheoretische Annäherung führt zu den gleichen Ergebnissen wie sie mithilfe der Compton-Streuung erhalten wird (vgl. Camejo 2007: 84f).
8.1 Quantenphysikalische Annäherung
345
die Zukunft als auch die Vergangenheit, ohne dass die beteiligten Qubits zu irgendeinem Zeitpunkt miteinander interagiert haben und ohne Entanglement Swapping. Die sich zeigenden starken Korrelationen und Informationstransfers, bei räumlicher als auch zeitlicher Separierung, werden aus Sicht der Autoren ausschließlich mittels des Skalarfeldes des Quantenvakuums erzeugt. Damit erhält der theoretische Ansatz aus Kap. 5.3.6, der Fernwahrnehmungs-Phänomene mit dem Skalar- und VektorFeld in Zusammenhang bringt, möglicherweise doch noch seine Berechtigung und Unterstützung. Die Forscher kommen auf diese Erklärung, da selbst bei der Einstellung, bei der ein Photonenaustausch verboten ist, die Qubits Verschränkungskorrelationen aufweisen. Als weiteres Resultat betrachten sie das Geschehen als QuantenTeleportation über Zeitgrenzen (past-future entanglement) hinweg und als neue Form eines Quantenspeichers. Auf diese Weise kann ihrer Ansicht nach auch Information P (past) aus benachbarten Quanten-Feldern codiert, klassisch gespeichert und zu einem späteren Zeitpunkt F (future) wieder reaktiviert werden, dies unabhängig von weiteren Interaktionen nach P. (vgl. Sabín u. a. 2012). Mit ihrem Ansatz liegt neben Verdrillungen und Knoten eine weitere Möglichkeit vor, zeitabhängige Information zu speichern und zu anderen Zeiten wieder abzurufen bzw. auch noch zu verändern. 4. Mit Susskind ist seit neuestem noch eine 5. Verschränkungsoption hinzugekommen. Er führt in seinen Überlegungen ART und QFT zusammen und veranschaulicht die Gleichheit von Tunnel- und Verschränkungsphänomenen. Verschränkung findet daraus abgeleitet über eine Verbindung von ‚Schwarze Löcher’ und einem damit verbundenen Tunneln statt (Susskind 2016: 556). Damit bewegt sich Susskind in der gleichen Logik wie Haramein, der eine solche Verbindung bis hin zu den einzelnen Protonen ermittelte. Bei Haramein ist jede physikalische Entität über ‚Schwarze Löcher’ der Protonen gekoppelt (Haramein u. a. 2008). Der Ansatz wird bei der Quanten-Teleportation noch relevant, weshalb er hier aufgenommen wurde. Erweiterter Geltungsbereich Der Mechanismus der Verschränkung gilt heute nicht nur für die Quarticle, für die die Physik zuständig ist, sondern er bildet mittlerweile auch die Grundlage für das Verständnis der Chemie. So werden die Elektronen, die sich im Umfeld eines Atomkerns befinden (Abb. 51), als verschränkt angesehen, weshalb sie nicht einzeln bzw. separiert gemessen werden können; genauso wie Moleküle, z. B. H2+-Ionen (Abb. 52), als verschränktes System betrachtet und berechnet werden. Nach diesen auf der Quantenphysik beruhenden Schlussfolgerungen stellen „alle organisch-chemischen Bindungen Überlagerungszustände“ (Polley 1997: 9) dar, die im Wesentlichen auf den Gesetzen der Quantenmechanik basieren.
346
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 51 | Die Elektronen um einen Atomkern liegen nicht separiert vor sondern sind nach quantenphysikalischem Verständnis verschränkt und bilden deshalb eine Ganzheit. Ihr Aufenthaltsort ist mit einer Y–Funktion berechenbar. Die gängige Darstellungsform der Orbitale ist letztlich nur eine Hilfskonstruktion. (Crystal ball_Fotolia_37959026)
Die aktuellen Versuche zeigen, dass heute keine belastbare Aussage getroffen werden kann, bei welcher Größe von Makrosystemen die Grenze solcher Verschränkungen erreicht ist. Dies wird auch an der auf den Kosmos bezogenen Psi-Funktion deutlich (Kap. 8.1.1.2).
Abb. 52 | Überlagerung (Superposition) zweier Wasserstoff-Ionen mit einem Elektron Der Aufenthalt des Elektrons bleibt quantenphysikalisch unbestimmt und lässt sich deshalb nur mit Wahrscheinlichkeiten bezüglich des möglichen Aufenthaltsortes berechnen. Entsprechende Darstellungen sind bereits im Kap. 8.1.1.1 vorgestellt worden. (eigene Darstellung)
Für die experimentelle Forschung besteht die Herausforderung darin, Wege zu finden, wie die Schwierigkeit des Nachweises der Interferenz- und damit auch Verschränkungsfähigkeit bei Zunahme der Größe der Makrosysteme gelöst werden kann. Entscheidend für diesen Ansatz ist die immer kleiner werdende de-Broglie-Wellenlänge. Die Theorie besagt nämlich: Je kleiner die de-Broglie-Wellenlänge, desto schwieriger der Nachweis eines quantenphysikalischen Verhaltens. Einfacher ausgedrückt: Überlagerungen, wie sie mit Verschränkung einhergehen, haben nur sehr kurze Reichweiten. Soweit die heutige Theorie. Dass die quantenmechanischen Überlagerungen im mikroskopisch Kleinen auftreten und makroskopische Systeme nicht beträfen, war deshalb die anfängliche Grundannahme. Kohärenzen und damit Quanteneigenschaften würden auf dem Weg vom Photon zum Kosmos irgendwo verlorengehen. Die Schrödingergleichung (8.6) und das mit ihr verbundene Superpositionsprinzip (8.7) legt diese Grenze auf jeden Fall nicht fest. Sie sind in ihrem Formalismus nach oben hin offen. Ĥ|Ψ⟩ = E|Ψ⟩ (8.7) Der Hamiltonoperator (Ĥ), der die Zeitentwicklung eines Eigenzustands (Ψ) des Hamiltonoperators beschreibt, ist proportional der Energie (E) des Zustandes des Systems mal der Superposition eines Systems (8.7): (8.8) |Ψ⟩ = ∑���� c� |Ψ� ⟩
8.1 Quantenphysikalische Annäherung
347
Mit |Ψ⟩ als Gesamtzustand, der durch die Überlagerung seiner Einzelzustände |Ψ� ⟩ beschrieben wird, mit c� als komplexe Wahrscheinlichkeitsamplitude. Aus der de-Broglie-Gleichung, die jedem Teilchen und jedem zusammengesetzten Körper eine Welle zuordnet,
�
λ = �
(8.9)
mit λ als die de-Broglie-Wellenlänge, h als das Planck’sche Wirkungsquantum und p dem Impuls eines Photons, ergeben sich zwar Beschränkungen, die letztlich aber eher messtechnischer Natur sind. Denn aus dem Zusammenhang � p= (8.10) �
und E = mc � (8.11) mit p = Impuls des Photons, E = Energie, c = Lichtgeschwindigkeit und m = Masse, lässt sich λ auch folgendermaßen schreiben: � (8.12) λ= ��
Die Wellenlänge und die beobachtbaren Quanteneffekte hängen damit im Wesentlichen von ihrer Masse ab. Je größer die Masse, desto kleiner kann die Wellenlänge bei Interferenzen beobachtet werden. Für größere Teilchen werden solche Interferenzen auch Materiewellen oder de-Broglie-Welle genannt. Aber auch hier war die Entwicklung nicht aufzuhalten. Ein Schritt in die Richtung, Kohärenzen bei Makrosystemen zu messen, konnte bereits 1999 durch Einsatz neuer Messtechnologie realisiert werden. Mit einem Interferometer gelang es Arndt und seinen Kollegen (Aspelmeyer und Arndt 2012) für sogenannte C60-Buckminster-Fullerene Materiewelleninterferenzen nachzuweisen (Abb. 53).
Abb. 53 | Buckminster-Fulleren C60 (Von Sponk (talk) - erstellt mit Pymol (0.99rc2) und Gimp (2.6.10), © BY-SA 3.0) Für solche Fullerene konnten Materiewelleninterferenzen nachgewiesen werden.
Abb. 54 zeigt ein entsprechendes Experiment mit diesen Farbmolekülen. Die nicht-lokale Natur der Quantenphysik auch für den Makrobereich kann mithilfe solcher Beugungsversuche an massereichen Molekülen mustergültig dargestellt werden.
348
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 54 | Interferenzmuster zum Materiewellennachweis des Farbmoleküls PcH2 Die Moleküle setzen sich aus 400 Atomen und Massen um 7.000 atomare Einheiten zusammen und gehören damit bereits zur Makrowelt. Die Grafik ist Spektrum der Wissenschaften entnommen (Aspelmeyer und Arndt 2012).
Spekulativ könnte auch formuliert werden, dass sich die für das Vakuumfeld angenommenen realen Wellen in der EDBFT als Überlagerung auch aus den makroskopisch riesigen Entitäten wie Galaxien ergeben (Greenstein und Zajonc 2005: 43). 8.1.2.2 Unterschiedliche Verständnisse zur Verschränkung und Dekohärenz Es ist nun offensichtlich geworden, dass Materie zwar eine für unsere Realität relevante Wesenheit darstellt, ihre wesentlichen Eigenschaften jedoch von dahinterliegenden Prozessen ausgehen, die eine über ihre äußerliche Form hinausgehende, kohärente Wechselwirkung ermöglicht. Diese Wechselwirkungen werden mit den Konzepten der Verschränkung und Dekohärenz beschrieben, die aus den bisherigen Überlegungen abgeleitet, verantwortlich für die Phänomene von SyA und Intuition sein könnten. Deshalb werden die beiden Konzepte im Folgenden untersucht. Verschränkung im Verständnis der Kopenhagener Deutung Der Begriff der Verschränkung geht auf Erwin Schrödinger (1935) zurück. Nach ihm kommt es zwangsläufig zur Verschränkung, wenn zwei physikalische Systeme in Wechselwirkung miteinander treten: „When two systems, of which we know the states by their respective representatives, enter into temporary physical interaction due to known forces between them, and when after a time of mutual influence the systems separate again, then they can no longer be described in the same way as before, viz. by endowing each of them with a representative of its own. I would not call that one but rather the characteristic trait of quantum mechanics, the one that enforces its entire departure from classical lines of thought. By the interaction the two representatives (or Ψ functions) have become entangled“ (Schrödinger 1935a: 555).
8.1 Quantenphysikalische Annäherung
349
Interessanterweise beschreibt Schrödinger im gleichen Artikel auch ein Szenarium, in dem Entflechtung (Auflösung der Verschränkung oder Disentanglement) durch Zugewinn von Informationen möglich wird170. Also letztlich die Möglichkeit, durch Beobachtung eines der Systeme, dieses aus der Überlagerung (Superposition) zu separieren. Das Gleiche finden wir bei Zeh unter der Bezeichnung ‚Refokussierung’ und ‚Rekohärenz’ (Zeh 2013). „To disentangle them we must gather further information by experiment, although we knew as much as anybody could possibly know about all that happened. Of either system, taken separately, all previous knowledge may be entirely lost, leaving us but one privilege: to restrict the experiments to one only of the two systems. After reestablishing one representative by observation, the other one can be inferred simultaneously. In what follows the whole of this procedure will be called the disentanglement“ (Schrödinger 1935a: 555). Und noch wesentlicher: In der Regel bleibt bei den Diskussionen zu Schrödinger’s Verschränkungsdefinition die Tatsache unberücksichtigt, dass im Summary des zitierten Papers ausdrücklich darauf hingewiesen wird, dass zumindest eine Übereinstimmung zwischen den beteiligten Systemen vorhanden sein muss, es aber auch mehr sein dürfen. „The two families of observables, relating to the first and to the second system respectively, are linked by at least one match between two definite members, one of either family. The word match is short for stating that the values of the two observables in question determine each other uniquely and therefore (since the actual labelling is irrelevant) can be taken to be equal. In general there is but one match, but there can be more“ (ebd. 563). Aus diesen Überlegungen lässt sich auch eine gänzlich andere Interpretation als üblich ableiten. Die verbreitete Ansicht im Verständnis der KI ist eine vollständige Auflösung der Verschränkung zwischen den betroffenen Systemen. Im Gegensatz dazu kann jetzt auch angenommen werden, dass sich eine Separierung im Weiteren nur auf die untersuchte Übereinstimmung (Interferenz/Superposition) bezieht, die mit dieser Wellenfunktion korrespondiert, nicht aber gleich alle anderen Übereinstimmungen auflöst. Da die Wellenfunktion Ψ einen konkreten Zustand definiert, muss sie sich verändern, wenn der Zustand sich verändert. Das ergibt die mathematische Logik und ist in Übereinstimmung mit der vorgenommenen Neudefinition der Psi-Funktion in Kap. 8.1.1.3 Dies als Kollaps zu interpretieren, ist jetzt eine Sache. Damit aber schon eine vollständige Trennung auf allen möglichen weiteren Verschränkungsebenen zu resümieren, eine andere. Eher ist anzunehmen, dass durch Hinzuziehen der neuen Bedingungen sich eine neue Ψ–Funktion ergibt, die den neuen (quantenmechanischen) Zustand adäquat beschreibt. Dies lässt sich somit auch als ein Ergebnis unserer Messanordnung und Rechenoperationen interpretieren und nicht als ein Ergebnis der tatsächlich realen Gegebenheiten. Neue Überlegungen zur Interpretation der Kausalität (Näger 2016) unterstützen die Idee 170
Diese Ausführungen von Schrödinger sind allerdings wenig in der öffentlichen Diskussion bekannt.
350
8 Modellentwicklung von der Mikro- zur Makrowelt
einer kausalen Abhängigkeit der scheinbar reinen Zufallskorrelationen bei Verschränkungsexperimenten, wie sie bei den ERP-Untersuchungen auftreten. Schrödinger ging in diesem zitierten Paper immer von einem Beobachter aus, der die Informationen über beide Systeme kannte und vergleichen konnte, was logischerweise immer ein außenstehender Beobachter sein musste. „The probability relations which can occur between two separated physical systems are discussed, on the assumption that their state is known by a representative in common“ (ebd. 563). Verzichten wir auf diesen Außenbeobachter und begeben uns selbst als Teilsystem (in der Rolle als Mensch) in das Gesamtsystem (viele Menschen) lassen sich wiederum ganz andere Schlussfolgerungen ziehen, wie wir noch sehen werden. Verschränkung im Verständnis der Dekohärenztheorie Wo die Grenzen für Verschränkungsphänomene liegen ist, wie bereits festgestellt wurde, mehr als offen. H.-D. Zeh stieß in den 70er Jahren die Tür zu einem viel weiterführenden Verständnis von Verschränkung auf, indem er das Universum in seiner Definition einschloss und Verschränkung als normalen Grundzustand definierte. In seiner Antwort auf einen typischen Irrtum, dass nämlich „Verschränkung eine gelegentlich auftretende, aber normalerweise instabile Quanteneigenschaft ist, die speziell präpariert werden muss“ wird dies sehr deutlich: „Verschränkung ist eine ganz allgemeine Eigenschaft quantenmechanischer Systeme, die im Prinzip immer als Subsysteme des ganzen Universums zu betrachten sind. Daher müssen umgekehrt separierende Zustände speziell präpariert werden“ (Zeh 2011: 84). Folglich: „Der Quantenzustand ist bereits nichtlokal und erfordert keine Fernwirkung mehr“ (ebd. 86). Der Zustand eines entfernten Objektes wird auch nicht instantan verändert, sondern: „Wegen der Nichtlokalität des Quantenzustands ist die zu teleportierende Eigenschaft (oder eine kausale Vorstufe dazu) bereits nach dessen Präparation in einer seiner Komponenten am gewünschten Ort. Diese Komponente muss dann nur noch durch Dekohärenz zu einer eigenständigen ‚Welt’ werden“ (ebd.). Sein Ansatz steht damit im Widerspruch zum Verständnis der KI. Nach deren Verständnis kollabiert die Wellenfunktion eines Systems bei einer Messung (wie bereits kennengelernt), also bei Wechselwirkung mit anderen Systemen und nimmt einen isolierten Zustand ein. Es kommt zur Entschränkung (Disentanglement), und das Gesamtsystem verliert deshalb seine typischen quantenmechanischen Eigenschaften. In seinem Modell der Dekohärenztheorie wird die Welt dagegen als völlig quantenmechanisch angesehen, entstanden aus den universellen Überlagerungen aller physikalisch möglichen Ereignisse, zu denen auch Messapparatur und Beobachter gehören (ebd. 77-88). Nach ihm beschreibt die Dekohärenz eine „Dislokalisierung der Superposition“ (ebd. 81). Die dekohärierten Eigenschaften sind ‚quasi-klassisch’. Danach ist auch die Vorstellung reines Wunschdenken und falsch, dass die Dekohärenz „einzelne Komponenten der nichtlokalen Superposition (oder alle bis auf eine) zum Verschwinden“ (ebd. 81) bringt. Auch dreht er den Spieß gegenüber dem klassischen Verständnis um, wenn er annimmt: „Dekohärenz entsteht durch einen störenden Einfluss der Umgebung auf
8.1 Quantenphysikalische Annäherung
351
das System“ (ebd.). Vielmehr ‚stört’ (beeinflusst) bei reiner Dekohärenz „das System die Umgebung und nicht umgekehrt. Der Dekohärenzeffekt am System selber ergibt sich nur als Konsequenz der daraus resultierenden Verschränkung“ (ebd. 86). Er vermutet im Rahmen seiner Dekohärenztheorie, dass kohärente Superpositionen und damit Verschränkungen nur solange existieren, solange die Welt nichts von ihnen weiß. In dem Moment, in dem beispielsweise Photonen in Wechselwirkung mit einer solchen Superposition treten, wird die Superposition zerstört. Es kommt zur Dekohärenz. Die Beobachterfunktion wird durch die Umgebung übernommen. Daraus schließt er, dass Quanten-Superpositionen bei makroskopischen Systemen nur deshalb nicht beobachtet werden können, weil wir nicht in der Lage sind, sie ausreichend lange zu isolieren, um Dekohärenz zu verhindern. Dekohärenz und der scheinbare Verlust der Verschränkung ist somit ein Beobachterproblem. Die Ψ -Funktion kollabiert also nicht, sondern wir können sie nur nicht messen. Die Information selbst bleibt aber weiterhin im System vorhanden. Zeh geht somit davon aus, dass wir bei Messungen, solange wir sie nicht speziell präparieren, immer Verschränkungszustände messen. Nur wissen wir nichts davon bzw. können sie ausmitteln. Wenn man so will, ist das Universum mit in den Ergebnissen enthalten. Nach diesem Verständnis, das sich zunehmend bei den Physikern durchsetzt171 (Friebe 2015: 60; Tegmark und Wheeler 2001), kommt es im normalen Umfeld (dem sogenannten offenen Quantensystem) sofort zu unkontrollierbaren Wechselwirkungen mit der Umgebung und damit geht die Superposition, also die quantenmechanische Interferenzfähigkeit für uns als teilnehmender Beobachter verloren. Aus Zeh’s Überlegungen drängt sich konsequenterweise eine logische Schlussfolgerung auf (Zeh 2011): Die in der Physik vorgenommenen Anstrengungen bei den Versuchsanordnungen, in denen Quarticle gemessen werden sollen, dienen im Wesentlichen nur zur Isolierung der zu untersuchenden Elemente oder Systeme; Anstrengungen, die Messungen vor allem im Tiefsttemperaturbereich nahe dem absoluten Nullpunkt zum Ziel haben. Dort können die Wechselwirkungen auf Elementarebene recht gut kontrolliert und blockiert werden. Ansonsten könnten wir gar keine Aussagen über die kleinsten Systeme unserer Welt treffen172. Eine daraus abgeleitete zweite logische Schlussfolgerung ist für unser gewohntes Denken ausgesprochen verstörend. Wenn eine Verschränkung nicht erst herbeigeführt werden muss, sondern von Haus aus schon existent ist, müsste das bedeuten, dass Informationen bereits im gesamten Universum verteilt vorliegen sollten. Eine Idee, wie sie von zahlreichen Forschern mittlerweile geteilt wird (siehe Kap. 8.1.1), in der Variante der Vakuum-Verschränkung auch untersucht und mit der Normierung der physikalischen Theorien (Kap. 8.1.1.5) beschrieben wurde. 171
172
Bei einer Umfrage 1999 anlässlich einer Tagung über Quanten-Computer in Cambridge bekannten sich von 90 befragten Physikern nur noch 8 zur KI und dem Kollaps, 30 für Interpretationen ohne Kollaps und damit für die Dekohärenz-Interpretation und 50 entschieden sich, wegen dem ‚grassierenden terminologischen Wirrwarr‘ erst gar nicht (vgl. Tegmark und Wheeler 2001). Für viele sind auch heute noch kleine Moleküle und niedrige Temperaturen die Voraussetzung für das Phänomen der Verschränkung (Hümmler 2017: 159), auch wenn sich die Welt weitergedreht hat.
352
8 Modellentwicklung von der Mikro- zur Makrowelt
8.1.2.3 Neuere Entwicklungen Und die Bestrebungen gehen weiter, die Grenze der beobachtbaren Verschränkung in immer größere Skalen auszudehnen. Ursache für diese Entwicklungen sind die Bemühungen um Fortschritte auf dem Gebiet der Quanten-Information, des Quantencomputers und der Quanten-Kryptographie; aus wirtschaftlicher und technischer Perspektive ausgesprochen lukrative Einsatzgebiete. Hier werden Antworten auf die Frage gesucht, ab welcher Größe oder vielleicht besser unter welchen Bedingungen Quantenphänomene verloren und in die ‚quasi-klassische’ Realität übergehen. Mittlerweile gelingt es bereits vollständige Atomrümpfe so miteinander zu verschränken, dass auf jedes einzelne der Qubits zugegriffen werden kann ohne den Verschränkungszustand aufzulösen (Friis u. a. 2018). Der Rekord liegt derzeit bei 20 aneinandergereihten Kalziumatomen, bei denen einzelne Paare der Atomrümpfe verschränkt wurden und sich die Verschränkung selbständig auf die umliegenden Ionengruppen ausdehnte. Realisiert wurden so genuine Vielteilchenverschränkungen. Auf diese Weise lassen sich stabile Quantencomputer realisieren, wie die Autoren betonen. Hybride Verschränkungen Das Verständnis über Verschränkungsbedingungen erweiterte sich durch Überlegungen zu hybriden Quantenschaltungen. Solche Schaltkreise kombinieren mehrere unterschiedliche physikalische Systeme, um die jeweiligen Stärken und Vorteile zu nutzen. Ein guter Überblick findet sich bei Xiang u. a. (Xiang u. a. 2013). Die Spannbreite der Elemente, die in hybriden Quantenkreisläufen koppeln, umfasst Atome, Spins, supraleitende Qubits, Hohlräume und Festkörper-Apparaturen wie beispielsweise Supraleiter und nanomechanische Systeme (Membrane oder MikrowellenResonatoren). So wurde u. a. 2009 lichtgetragene Information in Rubidiumwolken gespeichert und per An- und Ausschaltung wieder selektiv freigesetzt (Lvovsky u. a. 2009). All diese Elemente können auf beliebige Art miteinander verschränkt und zur Speicherung von (Quanten-)Information genutzt werden. Beeinfluss- und steuerbar werden sie durch elektrische Ströme (von Elektronen oder Ionen), Ladung und Mikrowellenfelder. Ihre im Experiment gezeigten Kohärenzzeiten belaufen sich von < 100 ms bis > 20 s (ebd.). Für die hier genannten Hohlräume und Resonatoren gilt: „The quantized electromagnetic field in the cavity can interact with an atom (or spin or SC qubit) and exchange energy with it. Thus, a cavity can serve as a data bus173 in quantum information processing and transfer quantum data between different qubits. […] In general, atoms and spins couple to conventional cavity systems, while SC qubits easily couple to SC resonators, such as SC coplanar waveguide (CPW) resonators and LC resonators, playing the role of cavities“ (ebd. 629). Dies gelingt mittlerweile auch für Hohlraumresonatoren bei Raumtemperatur in Verbindung mit Audiofrequenzen (Cripe u. a. 2018). Solche konventionellen Hohlräume finden sich auch in Zellen und zellaufbauenden Strukturen (Kap. 8.2 und 8.3), weshalb der Mechanismus hier vorgestellt wird. Abb. 55 173
Unter ‚Data Bus’ versteht man ein System zur Datenübertragung zwischen Teilnehmern bzw. Steckplätzen.
8.1 Quantenphysikalische Annäherung
353
veranschaulicht Aufbau und Wirkungsweise solcher Apparaturen. Im Hohlraum (a) sind Quarticle oder ganze Ensembles stationär gefangen, was auch für den hier dargestellten CPW-Resonator (b) gilt.
Abb. 55 | Schematische Darstellungen von (a) einem Hohlraum- und (b) einem CPW-Resonator Image entnommen (Xiang u. a. 2013: 629). Innerhalb dieser Hohlräume bzw. Röhren lassen sich Quarticle oder ganze Ensembles von Entitäten fangen und ihr Verhalten beobachten.
Im Unterschied zum reinen Hohlraumresonator ermöglicht Letzterer die Untersuchung ausgedehnter kollektiver Spinausrichtung von Ensembles z. B. bei Flüssigkeiten oder auf Oberflächen von Substraten (Abb. 56). Eine typische Anwendung ist die Kernspintomographie (MRT). Resonator Grundplatte
Abb. 56 | Ausgerichtete Spinensembles im koplanaren Resonator Die Spins sind über das elektrische und magnetische Feld mit dem CPW-Resonator gekoppelt. Die Ladungs-Qubits repräsentieren zusätzliche supraleitende Qubits, die ebenfalls an den Resonator gekoppelt sind. Auf diese Weise können die Spins und supraleitenden Qubits indirekt gekoppelt und als Data-Bus genutzt werden. Die Ladungs-Qubits sind im elektrischen Feld der Grundplatte integriert, wohingegen die Spins mit dem magnetischen Feld des Resonators verbunden sind. Image entnommen (Xiang u. a. 2013: 638).
„Building a practical quantum information processor will profit from a hybridization of different quantum systems in order to fulfill the requirements of long storage times, fast processing speeds, long-distance information transfer, and scalability“ (Astner u. a. 2017). Eine der neusten Entwicklungen stellt die rein quanten-optische Nutzung von Phononen (Quasiteilchen des Photons) zur Kontrolle von mechanischen Oszillatoren dar (Hong u. a. 2017). Auch hier wird ein Übergang von der Quantenwelt in die klassische Welt realisiert und Licht als Vermittler von zeitlichen und räumlichen Kohärenzeigenschaften verwendet, um Quanten-Information zu speichern.
354
8 Modellentwicklung von der Mikro- zur Makrowelt
Verschränkung in Supraleitern Den Gegenpol zum Gefangenenzustand von Ensembles im Resonator bildet der Mechanismus bei schon lange bekannten Supraleitern (Abb. 57). In ihnen fließen widerstandsfrei elektrische Ströme, was bedeutet, dass sie keine bzw. nur sehr schwache Wechselwirkungen mit dem Umfeld eingehen.
Abb. 57 | Supraleiter aus zwei Systemen mit trennendem Isolator Die scheinbar isolierten Systeme Y1 und Y2 spannen dennoch einen gemeinsamen verschränkten Zustand auf, der über eine gemeinsame Y-Funktion beschrieben werden kann. (eigene Darstellung)
Josephson hat für Supraleiter nachgewiesen (Josephson 1962), dass sich ein Quantensystem über zwei scheinbar getrennte Systeme trotz zwischenliegendem Isolator erstrecken kann, mit dann nur noch einer Y-Funktion. System 1 und 2 sind über sogenannte Cooper-Paare174 gekoppelt. Auch hier liegt eine Verschränkung über beide Systeme vor. Entgegen des verbreiteten Verständnisses handelt es sich bei den eben genannten Supraleitern nicht immer um Systeme im Tiefsttemperaturbereich von 0 – 77 K. Zum einen hat Josephson den Effekt selbst bereits auf biologische Systeme ausgedehnt (Josephson und Pallikari-Viras 1991: 204–205), zum anderen wurde der Effekt auch prinzipiell auf photonische und fermionische Anregungszustände erweitert (Gaury u. a. 2015). Als Ergebnisse der Gruppe um Gaury sollten solche Tunneleffekte in allen oszillierenden, kohärenten und damit verschränkten Systemen ablaufen, in denen mehr als ein Weg zum Energie- oder Informationstransport verwendet wird. Er schließt damit alle Geräte und Materialien ein, die eine elektrische Resonanz aufweisen. Ihr ermittelter Gültigkeitsbereich erstreckt sich bis hin zu Raumtemperatur oder Frequenzen im THzBereich. Zum THz-Bereich gehört das sichtbare Licht. Zudem weisen alle lebenden Organismen elektrische Resonanzfähigkeit auf. Möglicherweise gibt es sogar bei den Supraleitern ein direktes Pendant in der Biologie. Zumindest deuten entsprechende Entdeckungen auf einen supraleitenden Mechanismus bei organischen Materialien hin, was ebenfalls bei normaler Umgebungstemperatur ablaufen soll (Little 1964). Zwar bestehen derzeit noch erhebliche Schwierigkeiten diese Temperaturen zu realisieren, dennoch wurden neue Materialien und Eigenschaften auf der Basis dieser Modelle in den letzten Jahren bereits entwickelt (Lebed 2008; Dressel und Drichko 2004). Es sollte nicht verwundern, wenn auch hier entsprechende 174
Elektronen, die sich paarweise über den Isolator hinweg in einer schwachen Kopplung zusammenschließen.
8.1 Quantenphysikalische Annäherung
355
Prozesse im Bereich der Natur entdeckt werden. Auf den ersten Blick bestehen nämlich gewisse Ähnlichkeiten zwischen manchen der organischen Strukturen und beispielsweise unserer DNA oder verschiedenen Elementen aus langen C-Ketten wie Kohlenhydraten, Lipiden, Proteinen. Kopplung makroskopischer mechanischer Oszillatoren mit Spins von Atomen Eine typisch hybride Messanordnung stellt das folgende Experiment dar. Als Nebenprodukt zur Hochpräzisionsmessung eines Membrans aus Siliziumnitrid entwickelten Forscher eine Vorrichtung, mit der makroskopisch mechanische Oszillatoren mit Spins von Atomen (hier Milliarden tiefgekühlter Cäsium-Atome) über Licht verschränkt werden können (Møller u. a. 2017). Die Reaktion der Cäsium-Spins zeigt Zustandsänderungen des Membrans an und umgekehrt konnte das Membran die manipulierten Veränderungen bei den Spins registrieren. Diese Anordnung kann aus ihrer Sicht auch für einen Verschränkungszustand über große Entfernungen und damit zur Realisierung einer Quantenkommunikation zwischen mechanischen und atomaren Systemen verwendet werden. Die Kopplung makroskopischer, fast sichtbarer Objekte gelang auch Riedinger ((Riedinger u. a. 2018) und Ockeloen-Korppi (Ockeloen-Korppi u. a. 2018). Riedinger verschränkte zwei mechanische Oszillatoren über 20 cm mittels Photonen bei 80 – 90 mK, wobei nach Aussage dieser Forschergruppe auch 75 km mit normalen Telekommunikationskabeln und normale Temperaturen kein Problem darstellen. Ockeloen-Korppi verschränkten zwei Aluminium-Trommelfelle mit jeweils einer Breite eines menschlichen Haares mittels Mikrowellen. Die Verschränkung war nur abhängig von den Mikrowellen und konnte uneingeschränkt aufrechterhalten werden. Gleichzeitig verhinderte die Mikrowelle die thermische Störung und hielt so die Verschränkung bis zu 30 Minuten aufrecht. Schwache Quantenmessung Die ‚schwache Quantenmessung’ repräsentiert verschiedene Verfahren, die schon seit längerem eindeutig widerlegen, dass jede Messung den Zusammenbruch der Wellenfunktion nach sich zieht oder das System nachhaltig verändert. Sowohl Haroche mit dem Mikrowellen-Resonator (Brune u. a. 1996) als auch Wineland mit seiner Laserkühlung (Schmidt u. a. 2005) haben es geschafft Quanten zu beobachten, ohne dass diese Schaden nehmen und dekohärieren, wofür sie 2012 den Physik-Nobelpreis bekamen. Bei einer sogenannten ‚schwachen Quanten-Messung‘ konnten auch Rozema u. a. mittels eines GHZ-Aufbaus nachweisen, dass es eine Interaktion zum System gab, aber ohne Kollaps bzw. Dekohärenz (Rozema u. a. 2012). Wie sie feststellten, führten die schwachen Interaktionen zu einer Zunahme an Störungen und Effekten bzgl. der Genauigkeit der Messergebnisse, aber nicht zu falschen oder keinen Ergebnissen, was auf eine irreversible Dekohärenz geschlossen hätte. Offensichtlich gibt es Situationen und Arrangements, die Dekohärenz und damit den Verlust von Quanteneigenschaften verhindern und die Verschränkung nur reduzieren, aber nicht zum Erliegen bringen.
356
8 Modellentwicklung von der Mikro- zur Makrowelt
Starke Quantenmessung und nicht-lokale Superposition gleichzeitig. Okamoto und Takeuchi realisierten eine von Aharonov und Vaidman (Aharonov und Vaidman 2003) entwickelte theoretische Lösung, wie eine starke Quantenmessung vorgenommen werden kann, ohne dass die Superposition dekohäriert. Es konnte gezeigt werden, dass ein Photon beobachtbare physikalische Effekte gleichzeitig an unterschiedlichen Plätzen bewirken kann. „This experimental demonstration, where the strong measurement and non-local superposition seem co-existing, provides an alternative to weak measurements as a way to explore the nature of quantum physics. […] the unusual physical properties of preselection and postselection in quantum theory“ (Okamoto und Takeuchi 2016: 1). Es ist damit evident, dass auf Quantenebene eine Verschränkung erhalten bleibt und gleichzeitig gemessen werden kann; letztlich nur abhängig vom Messarrangement. Und es scheint weiter evident, dass auf dieser Ebene Wirkungen in die für uns vermutete Zukunft als auch in die scheinbare Vergangenheit angestoßen werden können. Damit steht dieses Ergebnis im Widerspruch zu Heisenbergs Unbestimmtheitsannahme (Steinberg 2016) und eben auch im Widerspruch zur Kollaps- oder irreversiblen Dekohärenz-Interpretation. Nicht-Lokalität in fast-klassischen Zuständen - Rekohärenzbestätigung Kwiat (2001) und Wang (2006) konnten Zehs Annahme bestätigen, dass die Nicht-Lokalität in den fast-klassischen Zuständen ‚in verborgener Weise’ vorhanden ist. Dazu bedurfte es noch nicht einmal größerer Ensembles, sondern nur einfache Photonen. In ihren Experimenten lagen zu Beginn weitestgehend getrennte Zustände und nur schwache gemeinsame Korrelation vor. Sie demonstrierten den in der Realität vorhandenen Normalfall, dass üblicherweise in der Quantenkommunikation keine vollständige Verschränkung der beteiligten Entitäten vorliegt. Im Verlauf der Experimente wurden schließlich aus unvollkommen verschränkten Photonenpaaren maximal verschränkte erzeugt. Damit wurde ein weiteres Mal die Annahme widerlegt, dass verschränkte Quarticle durch Wechselwirkungen mit der Umwelt ihre Verschränkung vollständig verlieren. Das Gegenteil war sogar der Fall. Sie konnten zeigen, dass sich hinter jedem klassischen Zustand beliebige Quantenzustände verbergen, die herausgefiltert werden können, wodurch sie einen perfekten, quanten-klassischen Mixed-Zustand präsentierten. Entsprechend der Annahme von Schrödinger (wie oben beschrieben), nach der eine Verschränkung auch aufgelöst werden kann, sofern die passenden Informationen vorliegen, lässt sich umgekehrt eine Verschränkung auch wieder herstellen; was prinzipiell auch von Zeh mit seiner Rekohärenz gesehen wird (Zeh 2013). Im Rahmen quantenmechanischer Fehlerkorrekturverfahren, die bei der Entwicklung von Quantencomputern benötigt werden, konnte die kohärenzzerstörende Wechselwirkung mit der Umgebung wieder rückgängig gemacht werden. Strunz u. a. führen aus (Strunz u. a. 2002): „Allgemein ist schnelle Dekohärenz das Schicksal von Superpositionen jener Systemzustände, die aufgrund ihrer Wechselwirkung mit der Umgebung von dieser unterschieden werden
8.1 Quantenphysikalische Annäherung
357
können. Superpositionen von Zuständen eines offenen Quantensystems, die von der Umgebung nicht unterschieden werden können, sind wesentlich stabiler“ (ebd. 49). [...] „Dementsprechend erwarten wir, dass umgebungsinduzierte Fehler Superpositionszustände dann unversehrt belassen, wenn aufgrund der auftretenden Fehler zwischen einzelnen Komponentenzuständen nicht unterschieden werden kann“ (ebd. 52). [...] „Entscheidend dafür ist, dass die Umgebung nicht mehr als unbeobachtbare Ansammlung vieler Freiheitsgrade angesehen wird; ganz im Gegenteil, gezielte Messungen an der Umgebung müssen ausgeführt werden, die es erlauben, Kohärenzverluste im System durch geeignete unitäre Operationen zu korrigieren“ (ebd. 51). Das bedeutet: Bei einem System, das von der Umgebung nicht oder nur schwer unterscheidbar ist, lässt sich eine Superposition, also eine (quantenmechanische) Überlagerung, relativ gut aufrechterhalten. Umgekehrt, wenn Wechselwirkungen des Systems mit der Umgebung bekannt sind, führen genaue Beobachtungen bzw. entsprechende Messungen zur Erzeugung einer Dekohärenz bzw. einer Wiederherstellung der Kohärenz, je nachdem welche System-Umwelt-Relation ich wähle. Dies gilt offensichtlich nur für Wechselwirkungen, die bekannt sind. Wechselwirkungen, die nicht bekannt sind bzw. nicht untersucht werden, lassen sich demzufolge als weiterhin kohärent betrachten. Systeme mit vielen unterschiedlichen Systeminformationen und Subzuständen können deshalb für bestimmte Aspekte dekohärent (unterscheidbar) erscheinen und gleichzeitig kohärent in Bezug auf andere Informationen und Zustände sein. Zwei interessante Aspekte fallen auf: 1. Analog zur QFT, bei der es zur Überlagerung unterschiedlicher Felder kommt, führt eine Veränderung in einem Teilaspekt (einem spezifischen Feld) nicht automatisch zur Dekohärenz aller anderen Aspekte (Felder). Vergleichbar auch dem GHZ-Experiment, bei dem alle involvierten Subsysteme miteinander verschränkt bleiben. 2. Dieser Zusammenhang von Kohärenz und Dekohärenz ist auch bei der Arbeit mit Personen oder Gruppen bekannt, wie sich am Beispiel einer therapeutischen Sitzung gut veranschaulichen lässt. In der Regel wird an bestimmten Verhaltensoder Belastungsthemen gearbeitet. Solange der Fokus nur auf diesem spezifischen Aspekt bleibt, kann der Eindruck entstehen, dass dies das spezielle Problem des Klienten sei. Der Klient ist somit als dekohärent zu bezeichnen – er und sein Problem lassen sich vom Umfeld unterscheiden und erscheinen als Faktum. Erweitert der Therapeut aber seinen Fokus auf das Umfeld, so wird meist deutlich, dass es verschiedene Wechselwirkungen zwischen Klient und Umfeld gibt – die Dekohärenz des Klienten beginnt sich in Richtung Kohärenz mit seinem Umfeld zu verschieben; typisch für systemische Therapierichtungen. Tatsächlich wird es aber weitere Kohärenzen (gemeinsame Verbindungen und Bedingtheiten) zwischen Klient und Umfeld geben, die wir in einer solchen Sitzung nicht sehen und damit nicht unterscheiden können. Für all diese lässt sich eine Kohärenz definieren, für all das, was wir unterscheiden können eine Dekohärenz.
358
8 Modellentwicklung von der Mikro- zur Makrowelt
Photon-Photon-Wechselwirkung über zwischengeschaltetes Atom Wie sich eine vollständige Informationsweitergabe mittels Photon-Photon-Kommunikation unter Zuhilfenahme von Atomen als Zwischenspeicher realisieren lässt, zeigten Hacker u. a. (2016). Sie realisierten ein deterministisches Photon-Photon-Gatter, also ein stark gekoppeltes System, unter Zuhilfenahme eines Rubidium-Atoms. Der Trick in ihrer Versuchsanordnung liegt in der wechselseitigen Beeinflussung der beiden Photonen indirekt über ein Atom. Die Photonen geben die von ihnen getragene Information an das Atom ab, wo sie gespeichert wird und von weiteren Photonen zu einem späteren Zeitpunkt aufgenommen und weitergetragen werden. Photonen lassen sich somit als Kuriere und Atome als Quantenspeicher betrachten. Dass die beiden Photonen tatsächlich verschränkt waren, zeigte der zweite Teil ihres Experimentes. Im Anschluss an deren indirekten Kontakt über das Atom wurde eines der Photonen manipuliert mit der Folge, dass auch das zweite Photon sich entsprechend dieser Manipulation verhielt. Die Forscher realisierten damit eine eindeutige Photon-Photon-Wechselwirkung über ein zwischengeschaltetes Atom und mit dem dazugehörigen Tatbestand eines verschränkten Quantensystems. Hacker u. a. (ebd.) liefern mit ihren Ergebnissen einen wesentlichen Beitrag zum Verständnis von Informationsübertragung in biologischen Systemen und den Neurowissenschaft, wie wir noch sehen werden. Die Grundlage dieser Versuche lieferte die bereits erwähnte Methode von Haroche u. a. (Brune u. a. 1996). Mit ihrer Methode lassen sich Lichtquanten mittels eines Mikrowellen-Resonators untersuchen. Mikrowellen-Resonatoren erzeugen EM-Schwingungen durch die Nutzung der Eigenresonanz von Hohlräumen mit gut leitenden Wänden. Form und Größe des Hohlraums bestimmen bei welcher Frequenz eine Eigenresonanz (elektrische als auch magnetische) auftritt (Universität Bern 2006). Wie mit Ionen in EM-Fallen lässt sich Quanteninformation auch zwischen Atom und Photon über weite Strecken austauschen. Die Quanteninformation selbst ist in stationären Quantenbits gespeichert (Pollmann 2013), z. B. in Atomen, und über die Kopplung mit der Eigenschwingung des Resonators raum- und zeitübergreifend in Kontakt mit anderen Ensembles verschränkt. Da die atomaren Energieniveaus der beteiligten Stoffe mit der Eigenschwingung des Resonators gekoppelt sind, lassen sich Messungen vornehmen und Aussagen über den zu untersuchenden Stoff treffen. Konsequenterweise gilt dies vice versa – der Stoff bekommt so auch die Schwingung des Resonators mit, womit wir eine Verschränkung zweier Systeme haben. Virtuelle Photonen (Stickstoff-Leerstellen-Defekte) und Mikrowellen Forschergruppen ist es bei Umgebungstemperatur und über Dipol-Dipol-Kopplungen (Dolde u. a. 2013; Jelezko u. a. 2004) sowie mithilfe von Mikrowellen (Greiner u. a. 2017; Rong u. a. 2015; Liu u. a. 2013; Amsüss u. a. 2011) gelungen Quantenzustände mit Diamanten zu koppeln. Aktuell gelang dies auch für die Verschränkung von zwei Diamanten bei Ensembles über eine Distanz von 5 mm (Astner u. a. 2017) und bei einzelnen Spins über 3 m (Pfaff u. a. 2014) und 10 s Kohärenzzeit bei 98 %-iger Übertragungsgenauigkeit (Yang u. a. 2016).
8.1 Quantenphysikalische Annäherung
359
Grundlage für diese Möglichkeit bieten u. a. negativ geladene Defekte in Diamanten, die als Quantenspeicher verwendet werden können. Hierzu werden Stickstoffatome anstelle von Kohlenstoffatomen in die Diamantstruktur eingebaut. Das Stickstoffatom (N) bildet dann zusammen mit den danebenliegenden Leerstellen (V)175 ein Quantensystem. Über die virtuellen Photonen der NV-Defekte werden Verschränkungen zwischen verschiedenen Ensembles realisiert (Abb. 58). Diese Unregelmäßigkeiten bilden, obwohl die Interaktionen ausgesprochen schwach sind, einen sehr langlebigen Zustand auch bei Raumtemperatur, der an- und ausgeschaltet werden kann. Deshalb können diese NVDefekte zum Aufspüren schwacher elektrischer und magnetischer Felder genutzt werden, ohne auf Tieftemperatur-Detektoren zurückgreifen zu müssen. Die MikrowellenResonatoren bei den Diamanten haben die gleiche Rolle wie ein Data Bus in einem normalen Computer. Die Forscher konnten mit ihren Versuchen ebenfalls nachweisen, dass der Spin der Atomkerne in der Lage ist Quanteninformation zu speichern. Aus Sicht der Forscher können auf diese Weise Milliarden von NV-Defekten kollektiv verschränkt werden (Vienna University of Technology 2017) und so Ensembles mittels virtueller176 Photonen über Hohlräume und Defekte hinweg koppeln.
Abb. 58 | Kopplung über Stickstoff (N)-Leerstellen (V)-Defekt zwischen Diamanten Image basierend auf (Xiang u. a. 2013). Über die NV-Kopplung lassen sich Diamanten über Entfernung langlebig, auch bei Raumtemperatur, miteinander verschränken und verhalten sich als ein System.
In diesen Experimenten entscheidet die Magnetfeldrichtung darüber, ob der einzelne Diamant oder das verschränkte Diamantensystem untersucht wird. Die Annahme, dass Dekohärenz zum Verlust der Information führt, ist auch hier widerlegt. Sowohl das verschränkte System als auch die Subsysteme lassen sich im Wechselspiel untersuchen. Ganz praktisch lassen sich daraus NV-basierte Sensoren herstellen, die einzelne Spins auch in thermischen Umgebungsbedingungen detektieren (McGuinness u. a. 2013). Aus dieser Anwendung ergibt sich die Option, dass unter ähnlichen Bedingungen in biologischen Systemen, sehr leicht quantenphysikalische Kohärenzen und entsprechende 175 176
Leerstelle = engl. vacancy Virtuelle Photonen repräsentieren in der QFT die Wechselwirkung zwischen Elementarteilchen vergleichbar den Photonen in der Quantenmechanik. Man stellt sie sich als kurzlebiger Zwischenzustand von Teilchen vor, die sich im realen Zustand befinden und miteinander wechselwirken.
360
8 Modellentwicklung von der Mikro- zur Makrowelt
Messungen und Informationsübertragungen unter Umgebungsbedingungen möglich werden (Bruderer u. a. 2016; Wu u. a. 2016). Indem Nano-Diamanten mit eingebautem NV-Defekt in Zellen lebender Organismen eingebracht werden, lassen sich über deren Kopplung mit den umgebenden biologischen Strukturen, Innensichten unter in vivo Bedingungen auf Nanoebene generieren. Mit diesem Nachweis ist auch ein Beweis für Quantenkohärenz in thermischen Nicht-Gleichgewichtssystemen und normalen Umweltbedingungen erbracht und mithin die Möglichkeit von Quanten-Kommunikation und Quanten-Teleportation in lebenden Organismen, denn mit solchen Messungen werden nichts anderes als die Übertragung verschränkter Zustände vorgenommen. Verschränkung im Rahmen der Quanten-Teleportation Die Quanten-Teleportation treibt die Erkenntnisse über Verschränkungsmöglichkeiten in normalen Umgebungen unaufhaltsam weiter. Verschiedene Gruppen zeigen, dass Verschränkungszustände über Glasfaser vermittelbar sind. Zeilinger’s Gruppe machte über 400 m den Anfang unter der Donau (Zeilinger 2007: 281ff; Ursin u. a. 2004) und andere Gruppen führten diese Experimente innerhalb von Städten weiter (Rosenfeld u. a. 2017; Sun u. a. 2016; Valivarthi u. a. 2016). Sie erreichten aktuell bis zu 30 km in der Ausdehnung. Neueste Entwicklungen setzten eine ebenfalls von Zeilinger’s Gruppe begonnene Entwicklung fort (Villoresi u. a. 2008) und realisierten Quanten-Teleportation durch die freie Atmosphäre von La Palma nach Teneriffa über 143 km (Ma u. a. 2012a) und global mithilfe eines Satelliten (Yin u. a. 2017) bis 2400 km. 2017 wurde auch von der ersten Boden-zu-Satellit-Teleportation berichtet (Ren u. a. 2017). Speziell die Satellitenvermittlung arbeitet mit vieldimensionalen Verschränkungen. Dabei werden ganze Quantenfelder und ihre zeitlichen Schwankungen (Noh u. a. 2009) und ganz aktuell auch mehrere Zustände (‚Hyperentanglement’) gleichzeitig übermittelt (Steinlechner u. a. 2017; Xie u. a. 2015). Steinlechner und seine Kollegen schickten die Photonen 1,2 km durch die vielfach belastete Luft über Wien. In allen Fällen waren die Verschränkungszustände robust gegenüber Umwelteinflüssen der realen Welt. Beim Einsatz von Hyperentanglement-Zuständen wurde auch deutlich, dass mit der Dimensionalität der Zustände auch deren Stabilität gegenüber Umwelteinflüssen zunimmt: „The size of the entangled quantum state can increase with the number of particles or, as in the present paper, with the number of involved dimensions. We explore a quantum system that consists of two photons which are 100-dimensionally entangled“ (Krenn u. a. 2014). Mit einer modifizierten Konfiguration hat eine Gruppe von Zeilinger (Lemos u. a. 2014) mittlerweile eine Quantenkamera patentieren lassen, die Materialprüfungen ermöglicht, bei der verschränktes, aber unterschiedliches Laserlicht zum Einsatz kommt (Abb. 59). Infrarotlicht trifft auf eine Materialprobe, die für sichtbares Licht undurchdringlich ist und das sichtbare Licht als verschränktes Pendant trifft auf die Kamera. Auf der Fotoplatte erscheinen gleichzeitig ein Negativ und ein Positiv der Aufnahme (quasi die beiden möglichen Zustandsvarianten), wobei das von der Kamera eingefangene
8.1 Quantenphysikalische Annäherung
361
Licht zu keinem Zeitpunkt die Materialprobe gesehen hat. Damit vermag eine normale Kamera das Innenleben undurchdringlicher Materialien abzubilden.
Abb. 59 | Abbildung einer Katzenschablone auf einem Silizium-Plättchen durch verschränkte Photonen. Image von ©IQOQI / G. B. Lemos u. a. 2014. Das mit dem Silizium-Plättchen interagierende Infrarotlicht teilt seine Information mit dem mit ihm verschränkten sichtbaren Licht. Dieses sichtbare Licht trifft auf die Fotoplatte einer Kamera und hinterlässt dort die Information aus dem Silizium-Plättchen als Überlagerung von Positiv- und Negativaufnahme. Das sichtbare Licht hat das Silizium-Plättchen mit der dort eingravierten Katzenschablone nie gesehen.
Heiße Verschränkung und offene Quantensysteme Mit zu den wichtigsten Entwicklungen gehören die Untersuchungen von Verschränkungen in heißen Umgebungen. Darunter fallen alle Kohärenz- und Verschränkungsphänomene, die bei Temperaturen deutlich über dem absoluten Nullpunkt bis hoch in den Bereich unserer normalen Umweltbedingungen stattfinden, wie die oben beschriebenen Experimente mit den NV-Defekten. Nicht zuletzt wegen Zeilingers Quanten-Teleportation und Experimenten mit Bakterien (Engel u. a. 2007) und Algen (Collini u. a. 2010) wurde es nötig, die theoretischen Konzepte und ihre angenommenen Grenzen zu überdenken. Einen ganz wesentlichen Schritt in der Theoriebildung für heiße Verschränkungen und über sehr lange Distanzen gelang Duan u. a. wiederum im Zusammenhang mit Überlegungen für Quantenkommunikation, dem Bestreben nach sicheren Übertragungsverfahren sowie der Realisierung von Quanten-Repeatern177 (Duan u. a. 2001). Voraussetzungen für ihren Ansatz ist zum einen, dass die Verschränkung selbst nicht über einzelne Photonen hergestellt wird, sondern über größere Ensembles von Atomen und zum anderen, dass sie über Licht-Photonen gekoppelt werden. Photonen bilden sehr häufig die Informationsbrücke zwischen den Atomen. In den Atomen selbst findet, wie schon gesehen, schließlich die anhaltende Informationsspeicherung statt. Im damaligen Fall ließen sich über mehrere Millisekunden stabilen Kohärenzen erzeugen: „Long-lived excitations in atomic ensembles can be viewed as waves of excited spins“ (ebd. 414), wie Duan formuliert. Zusätzlich können sie langwellige EM-Wellen zum Informationstransfer verwenden, was bedeutet, dass hier der oben beschriebene Mixed-Zustand der Informationsübertragung zwischen klassisch und quantischen Zuständen erfolgt: „We 177
Quanten-Repeater fangen verschränkte Signale auf, bereitet diese wieder auf und leiten sie weiter.
362
8 Modellentwicklung von der Mikro- zur Makrowelt
can also use the established long-distance EME178 states for faithful transfer of unknown quantum states through quantum teleportation, with the set-up“ (ebd. 416). Zur Vereinfachung ihrer Demonstration platzierten sie ihre Atome in ringförmigen Hohlräumen. Wie wir im Kapitel Neurowissenschaften noch sehen werden, sind alle ihre Bedingungen in den Mikrotubuli und Axonen der Nervenzellen erfüllt. Ihre Überlegungen erklären experimentell nachgewiesene Verschränkungen bei makroskopisch großen Objekten bei Raumtemperatur (Maynard u. a. 2015; Phillips u. a. 2001), die sich ausgesprochen robust gegen Dekohärenz und Fehler verhalten. Lange Zeit ging man davon aus, dass die thermische Energie der Umwelt gegenüber der Energie auf Elektronenebene vernachlässigbar sei, da Letztere mehrere hundertmal größer ist. Aufgrund dieser großen Energiedifferenz könne das Quantenverhalten auf der Mikroebene auch nicht gestört werden. Entsprechend wurde geschlussfolgert, dass das Quantenverhalten bei hohen Temperaturen verloren gehen und es zu Dekohärenzen kommen würde. Einer der Meilensteine in dieser Frage wurde durch die Arbeiten von Galve u. a. erzielt, als die Gruppe nachhaltige Quanteneffekte bei hohen Temperaturen bis zu 50 Kelvin (-223°C) messen konnte( Galve u. a. 2010). Für typische quantenphysikalische Experimente sind das hohe Temperaturen. Weitere theoretische und experimentelle Forschungen in Bezug auf nanomechanische Oszillatoren führten zu einem Verständnis, das Vedral folgendermaßen zusammenfasst: „no matter what systems we look at, a general rule says that if the interaction strength between the subsystems is larger than the thermal energy due to their coupling to the environment, entanglement should exist between these subsystems provided that they are in thermal equilibrium with the environment“ (Vedral 2010). Dies galt für Experimente bis zu 50 Kelvin. Galve u. a. stellten aber auch fest, dass dies jedoch nicht für thermische Nicht-Gleichgewichtszustände zutrifft. Zu dieser Kategorie gehören die Versuche mit den C70 Fullerenen im Doppelspalt (Kap. 8.1.1.2), bei denen der quantenklassische Übergang im Bereich von über 600 bis 2.700 °C liegt. Aufgrund der Interferenzmuster ist auch bei ihnen eine sichtbare Kohärenz und damit Verschränkung aufgetreten, was auf die thermische Emission von Photonen zurückgeführt wurde. Solche Nicht-Gleichgewichtszustände sind aber auch typisch für biologische Prozesse bei Umgebungstemperatur, den sogenannten ‚offenen Quantensystemen’. Unter solchen Bedingungen, dass es also hohe Interaktionen zwischen den Subsystemen gibt und gleichzeitig thermische Nicht-Gleichgewichtszustände vorliegen, kann Quantenkohärenz auch bei viel höheren Temperaturen existieren und damit schließlich für lebende Systeme und Umgebungstemperatur relevant werden. Hier wird auch die Theorie von Duan u. a. relevant. Solche Systeme sind zudem in der Lage, ‚Fehlerkorrekturen’ in der Verschränkung vorzunehmen. Die Überlegungen zielten explizit auf Erklärungen in Bezug auf Quantenphänomene bei Alltagsbedingungen. Eine gute Zusammenstellung der Erkenntnisse zu diesem Thema liefern Guerreschi u. a. (Guerreschi u. a. 2012).
178
EME steht für Electromagnetic Energy.
8.1 Quantenphysikalische Annäherung
363
Vedral, der sich ebenfalls mit der Übertragung der Verschränkung auf biologische Systeme beschäftigte, stellte fest, dass: „The most exciting macroscopic and ‘hot’ nonequilibrium systems we know are, of course, the living ones. We can, in fact, view any living system as a Maxwell’s demon 179 , maintaining life by keeping its entropy low against the environmental noise — that is, by being far from equilibrium“ (Vedral 2010: 770), womit die oben beschriebenen Bedingungen voll erfüllt sind. Und er schloss seine Ausführungen zu ‚Hot Entanglement’ mit einer für unsere Untersuchungen sehr aktuellen Überlegung: „could it be that life does not just keep its entropy low, but rather, also aims to keep its quantum entanglement high if and when needed for an increased efficiency of energy transport?“ (ebd.) Klassische Verschränkung Unser Weg im Erforschen der Verschränkung ist allerdings noch nicht zu Ende. Im Januar 2016 veröffentlichten Forscher der Universität Jena Experimente (Guzman-Silva u. a. 2016), in denen ein Informationstransfer mithilfe einer ‚klassischen’ Verschränkung vollzogen wurde. Damit, so scheint es, funktioniert die Teleportation von Informationen und Eigenschaften nicht nur in der Quantenwelt, sondern auch in der klassischen Welt. Ausgehend von mathematischen, algebraischen Strukturen (Aiello u. a. 2015; Ghose und Mukherjee 2014; Holleczek u. a. 2011; Luis 2009; Qian und Eberly 2011; Spreeuw 1998, 2001) entwickelte sich die Annahme, dass eine ‚quantenmechanische Verschränkung’ auch in der klassischen, lokalen Physik möglich sein müsste. Damit ergibt sich die Option, Informationen und Zustände zwischen zwei Systemen auf der Basis EMF zu teilen. Licht produziert ein solches EMF, genauso wie jede Form von Wärmestrahlung. Es bedarf also keinerlei komplizierter Quantenstatistik mehr. Dabei werden ausschließlich Informationen ausgetauscht, ohne dass Materie oder Energietransport stattfindet. Im Unterschied zur vorher behandelten Quantenverschränkung wirkt diese Form der Verschränkung nur lokal und wird deshalb auch als ‚klassische Verschränkung’ bezeichnet. In diesem Fall wurden Eigenschaften von (radialpolarisierten) Lichtstrahlen miteinander gekoppelt und Informationen sofort und vollständig übertragen – also teleportiert. Aus Sicht der Forscher wird in diesem Experiment eine bestimmte Polarisationsrichtung eines Lichtstrahls mit der Information über die räumliche Struktur des Strahls auf klassische Weise verschränkt. Hochgeschwindigkeits-Teilchen, die einen solch präparierten Lichtstrahl durchfliegen, hinterlassen Spuren, die gemessen werden können. Die Forscher sehen zahlreiche Anwendungen im Bereich von Geschwindigkeitsmessungen und für die Informationsübertragung im Rahmen der Telekommunikation.
179
Maxwell’s Dämon ist ein Gedankenexperiment bei dem die Entropieänderung bei Messungen immer mit einbezogen werden muss. Dies verdeutlicht zum einen den Zusammenhang zwischen Information und Energie, analog Masse und Energie. Zum anderen wird damit die Berücksichtigung eines Beobachters ebenfalls evident, der durch eben diese Beobachtung das Ergebnis beeinflusst. Entwickelt wurde es von dem Physiker J. C. Maxwell 1871.
364
8 Modellentwicklung von der Mikro- zur Makrowelt
Was bedeutet dies nun im Allgemeinen? Es lässt sich schlussfolgern, dass nun auch das Phänomen der Verschränkung keine ausschließliche Eigenschaft der Quantenwelt mehr darstellt, sondern auch für die klassische Welt Gültigkeit besitzt (Hashemi Rafsanjani u. a. 2015). Informationsaustausch ohne beobachtbaren Materie- und Energietransfer ist damit auch für den lokalen Bereich anzunehmen, und zwar immer dann, wenn EM-Prozesse und Wechselwirkungen im lokalen Spiel sind. Damit kann als derzeit einziges Unterscheidungskriterium für Quantenund klassische Welt nur noch die Nicht-Lokalität angesehen werden. In ihrer Conclusio bringen die Forscher aus Jena ihre Hoffnung zum Ausdruck, dass ihre Ergebnisse den Weg zu einer hybriden Infrastruktur zwischen klassischer und quantischer Kommunikation ermöglichen. Als ein typisches Exemplar eines klassisch-quantischen Hybriden kann indes jedes biologische System und damit auch der Mensch angesehen werden. Die EM-Prozesse auf der Mikroebene und damit der Quanten und Elementarteilchen sind die Voraussetzungen für das als Makrosystem beobachtbare System Mensch und eine Bestätigung für die Existenz eines Homo Physicus. Eine, wie auch immer geartete Kommunikation zwischen diesen Ebenen darf wiederum angenommen werden, um die Lebensfähigkeit des Gesamtsystems zu sichern. 8.1.2.4 Conclusio zur Verschränkung und Dekohärenz Beginnend mit den letzten Ergebnissen zu klassischer Verschränkung kann konstatiert werden, dass die Vielfalt der Verschränkungsansätze keine quanten-klassische Unterscheidung mehr ermöglicht. Ein Umstand, der bereits für die Quantenphysik 2002 erkannt wurde: „The variety of known partial results, in particular, about entanglement measures, makes it today obvious that there is no one-parameter classification of entanglement. This Letter concerns classifications related to what is called ‘quantum nonlocality‘“ (Collins u. a. 2002: 1). Als einziges Unterscheidungskriterium bleibt demnach nur noch die ‚Nicht-Lokalität‘. Nach diesem neuen Verständnis der Physik ist der Mechanismus der ‚Verschränkung’ sowohl für die Quantenwelt als auch für die klassische Welt incl. der Biologie in gleicher Weise gültig. Aus dem Verständnis der Quantenphysik entstehen Quarticle erst durch den Messprozess und der damit verbundenen Beobachtung. Dies setzt nicht zwingend das Vorhandensein eines bewussten Beobachters voraus, sondern kann nach Zeh auch durch die Umwelt erfolgen (Zeh 2011). Konsequenz dieser Beobachtung und Nicht-Beobachtung ist das Erscheinen von Wellenbildern und Teilchenbildern. Für beide muss es folglich auch eine Beschreibung für den Verschränkungsvorgang geben. Wenn nun der Compton-Effekt als Verschränkungsprozess bei Quarticle angesehen wird, so stellt der Doppler-Effekt das Pendant für das Wellenbild dar und damit repräsentieren EM-Feldvarianten ebenfalls eine Verschränkung. Des Weiteren wurden Verschränkungen im rein quantenphysikalischen als auch im klassischen Bereich nachgewiesen. Als praktische
8.1 Quantenphysikalische Annäherung
365
Konsequenz darf deshalb allgemein von einer Verschränkung gesprochen werden, unerheblich auf welche Weise sie zustande kommt. Diese Verschränkungen basieren auf Wechselwirkungen, die sich vom Vakuumfeld bis in die kosmische Dimension von Galaxien erstrecken und in einem derzeit bekannten Temperaturbereich von -273 bis 2700 °C reichen, incl. normaler Umweltbedingungen über Städten. Enthalten sind darin klassische Photon-Atom-, Vakuum-, virtuelle-, Dipol-Dipol-, Atom-, Spin-, Ensemble-Ensemble, NV-Defekt- bis hin zu makroskopischen Oszillator-Verschränkungen. Die Spannbreite reicht von Einzel-Quarticle bis hin zu Milliarden-Ensemble und von schwacher bis starker Quantenmessung unter Beibehaltung von Superpositionen. In gleicher Weise wie Dekohärenz erzeugt werden kann, lässt sich auch reversibel eine Rekohärenz darstellen, bei der keine bzw. schwache Korrelationen entstehen, was in den Experimenten teilweise durch einfaches An- und Ausschalten gelingt. Mitnichten verschwindet die Information oder wird nachhaltig verändert. Es sieht so aus, als ob die für die Schrödinger-Gleichung gültige Bedingung ‚no ban exist’, es also keine Einschränkungen gibt, in analoger Weise auch für die Verschränkungen gilt. Zu berücksichtigen sind allerdings die unterschiedlichen Zusammenhänge und Rahmenbedingungen, die Verschränkungen ermöglichen. So finden sich im physikalisch isolierbaren Kontext andere Bedingungen wie in Nicht-Gleichgewichts-Zuständen der realen Welt. Als begrenzendes Limit kristallisieren sich nur unsere Möglichkeiten des experimentellen Aufbaus heraus. Dieses Limit ist letztlich wohl dem Versuch geschuldet, isolierte, vom Umfeld abgekoppelte Systeme zu untersuchen, um auf diese Weise so etwas wie eine objektiv Beschreibbarkeit zu ermöglichen. Ein Unterfangen, das aufgrund der Dekohärenztheorie jedoch nur eine scheinbare, aber keine tatsächliche Isolierung zur Folge hat. Dass heute noch in vielen Fällen Laserlicht als zentrales Medium zur Herstellung von Verschränkung Verwendung findet, ist wohl auf messtechnische Gründe zurückzuführen. Licht, über das die zu verschränkenden Systeme miteinander in Wechselwirkung treten und Information austauschen. Licht, das zudem relativ einfach manipulier- und kontrollierbar ist. Die gefühlt objektiv wiederholbaren Messungen ergeben sich aufgrund eines Versuchs, hochgradig redundante Anordnungen zu konstituieren, bei denen das Wissen oder besser die Erwartungshaltung über den Ausgang des Experimentes ebenfalls kollektiv vergemeinschaftet ist und als solche in die Psi-Funktion Einzug hält. Für hochisolierte Quarticle oder Energieformen scheint dieser Ansatz, vergleichbar der Newtonschen Mechanik, ausreichend brauchbare Ergebnisse zu liefern. Geht es aber darüber hinaus in das weite Feld der spezifischen Information, so werden sich kleinste Unterschiede bemerkbar machen und der Einfluss eines Beobachters wird sichtbar. Lokale Welleninterferenzen, die zwingend bei Wechselwirkungen entstehen und Interaktionen von Quarticle, führen zu einer quantenphysikalischen als auch klassischen
366
8 Modellentwicklung von der Mikro- zur Makrowelt
Verschränkung. Manche dieser Verschränkungen sind lokal beobachtbar, z. B. durch direkte Zustands- oder Verhaltensveränderungen, in jedem Fall wirken sie auch nichtlokal. Aufgrund dessen, dass die für uns klassisch erscheinenden Zustände tatsächlich auf dahinterliegende weitreichende Quantenzustände und Superpositionen basieren, handelt es sich bei allem was wir wahrnehmen um Mixed-Zustände, bei denen das Universum mitgemessen wird, wie Zeh (2011) formuliert hat. Mixed-Zustände, deren Verschränkungszustand reduziert, aber auch wieder vervollständigt werden kann, bieten besonders bei lebenden Systemen die Möglichkeit, Informationen zwischen Quantenwelt und klassischer Welt wechselwirken zu lassen. Im Gegensatz zur verbreiteten Annahme folgen aus solchen Wechselwirkungen auch keine zwingenden Veränderungen im Außen oder das Separieren (Kollabieren) der Informationen und Zustände. Veränderungen im Außen ergeben sich erst durch ausreichende Unterschiede und Erreichung bestimmter Schwellenwerte, die schließlich Einfluss auf relevante Energieniveaus ausüben. Energieniveaus, die zu messbaren Reaktionen und Handlungen führen. Wesentlich ist, dass die Informationen erhalten bleiben, aber die Intensität der Verbindung (Verschränkung) variieren kann, was ebenfalls Einfluss auf die Energieniveaus mit sich bringt. Wie gezeigt wurde, können hochempfindliche Resonatoren kleinste Veränderungen auf Spinebene detektieren und vice versa. Ob sich eine solche Messung schließlich als Zustandsänderung bemerkbar macht, hängt somit von der Empfindlichkeit des Messgeräts und der Interpretationsqualität des Experimentators ab. Nicht-lokale Effekte treten schließlich auf, wenn sich die verschränkten Teilsysteme räumlich oder zeitlich trennen oder wenn Energiebarrieren (Wände, Faraday’scher Käfig etc.) zwischen sie treten. Diese nicht-lokalen Effekte sind heute auch die einzigen Effekte, die Quantenphysik und klassische Physik unterscheiden und noch keinen klassischen Bezug aufweisen. Zu beobachten sind sie nur, wenn wir darauf achten und/oder spezielle Untersuchungsmethoden anwenden, ansonsten erscheinen sie als Zufall, Schicksal oder werden gar nicht wahrgenommen. Zusammenfassend ergibt sich: Alle bisher vorgebrachten Bedenken gegen eine Verschränkung und damit stabile Kohärenz auf Makroebene, wie auch unter normalen Umfeldbedingungen, sind als widerlegt zu betrachten. Genauso ist die Vorstellung obsolet geworden, die eine Nicht-Einflussmöglichkeit von Quarticle auf die Makroebene annimmt. Sobald Makrosysteme Resonatoren wie Membrane oder Hohlräume aufweisen, deren Veränderung größere Einheiten steuern, ist eine Kopplung von Qubitänderungen auf Spinebene im Makrosystem wahrnehmbar. Technisch wird diese z. B. mit dem MRT bereits ausgenutzt. Eine weitere Option eröffnen die Experimente mit NV-Defekten in Diamanten, denn sowohl Kohlenstoff, aus dem Diamanten aufgebaut sind, als auch Stickstoff sind Elemente, die sich in lebenden Systemen finden. Sollten sich entsprechende Strukturen in Makroorganismen finden, ist auch zu vermuten, dass entsprechende Verschränkungsmechanismen direkt übertragbar sein sollten. Und auf eine weitere Besonderheit soll noch hingewiesen werden: Die Option Photon-Atom-Photon-Verschränkung, bei der die Photonen als Kuriere agieren und die
8.1 Quantenphysikalische Annäherung
367
Atome als Speicher, von denen die gespeicherte Information zu beliebigen Zeiten abgerufen werden kann, eröffnet den grundsätzlichen Zugang für Datenübertragung und Datennutzung auch in Organismen. Mit diesen Überlegungen sind die Säulen 4 (allgemeine Verschränkung) und 5 (Paradigma der sehr kalten Temperatur) implementiert und schließlich ist für Säule 6 (Quanteneffekte in Makro- und biologischen Systemen) eine technische und für biologische Systeme mindestens schon die theoretische Grundlage gelegt. Übertragung auf SyA Einige der Ergebnisse lassen sich sehr gut auf das Geschehen bei SyA anwenden und ermöglichen Erklärungsansätze für beobachtbare Phänomene. Dies trifft besonders vor dem Hintergrund zu, dass keine der bisher vorgestellten Messtechniken der Physik bedeutungshaltige Informationen bei Menschen in direkter Weise zu ermitteln vermögen. Mit der von Schrödinger formulierten Interpretation, dass eine einzige Kopplung zwischen Entitäten (Photon bis Milliarden-Ensemble) bereits ausreicht, um eine Verschränkung zu realisieren, kann sofort ein direkter Bezug zu den Phänomenen bei SyA hergestellt werden. Unterstützt durch die neuen Erkenntnisse zur Nicht-Lokalität in fast-klassischen Zuständen ließe sich daraus der Beginn einer SyA erklären; nämlich der Moment, bei dem die Repräsentanten durch Berührung durch den Fallbringer und in gesammelter Achtsamkeit (Fokussierung) auf ihre Plätze geführt werden. Dieser Prozess lässt sich als Übergang von einer allgemeinen bzw. teilweisen Verschränkung zu einer maximalen Verschränkung interpretieren. Interagiert ein System (der Fallbringer) mit den Repräsentanten (R) kommt es zu dieser Verschränkung. Als Interaktion darf hier eine physikalische Interaktion angenommen werden, die durch Austausch von Photonen, Wärmestrahlung oder anderer physikalisch-chemischer Entitäten wie Atem realisiert wird. Damit ist die Eigenschaft (Information) des Systems unmittelbar bei R. Die damit verbundene Störung löst bei R Prozesse aus, die schließlich zu Wahrnehmungen werden. Diese Wahrnehmungen entsprechen dem Entstehen einer eigenständigen Welt und damit der Dekohärenzforderung. Sichtbar wird das, was untersucht wird und worauf sich die Repräsentanten in der Aufstellungsgruppe fokussieren, analog den physikalischen Untersuchungen. Da wir nicht alle Aspekte eines Systems untersuchen können, bleiben die nicht untersuchten Informationen und Zustände kohärent im System und sind deshalb für uns nicht sichtbar. Es lassen sich nur die Aspekte bearbeiten, die durch unsere Beobachtung unterscheidbar und deshalb dekohärent werden. Zwischengespräche oder Ablenkungen erfordern immer wieder eine Refokussierung. Dadurch besteht aber auch die Möglichkeit, analog zu den oben beschriebenen Experimenten, die Kohärenz an- und abzuschalten. Gleichzeitig können durch kontinuierliche erneute Fokussierungen (Refokussierung und Rekohärenz) die Freiheitsgrade möglicher Wechselwirkungen und Dekohärenzen reduziert werden. Das heißt, wir können die Gefahr von unerwünschten anderen Einflüssen oder das Abdriften in eine falsche Richtung zumindest reduzieren.
368
8 Modellentwicklung von der Mikro- zur Makrowelt
Unter der Annahme, dass sich Menschen, Familien oder Organisationen als Quantenfelder interpretieren lassen, führt eine Veränderung an einem Teilaspekt nicht automatisch zum Zusammenbruch (Dekohärenz) aller anderen, kohärenten Verbindungen. Die schwache Quanten-Messung übertragen auf SyA liefert wiederum die Grundlage für die Möglichkeit, dass wir Informationen aufnehmen und untersuchen können, ohne das System sofort auch schon zu verändern. Die nicht eintretende vollständige Dekohärenz erlaubt das Spiel mit Alternativen und Untersuchungen des Möglichkeitsraums, entsprechend dem, was bei der Suche nach einem guten Lösungsbild in Aufstellungen passiert. Fokussierung auf das Ziel und das zu betrachtende System, plus ständige, neue Konzentration auf die eigene Wahrnehmung in Bezug auf beide, verhindert die Dekohärenz und das Erzeugen von Fakten. Die Superposition kann somit bis zum Ende der Aufstellung aufrechterhalten werden. Erst mit dem Abschlussbild und darauf aufbauenden Handlungen werden Fakten geschaffen, die für die Makrowelt von Bedeutung sind. Veränderungen in der SyA und ihre emotionale Verankerung können ihre Wirkung über die verbleibenden Kohärenzzustände im nicht anwesenden Ursprungssystem entfalten. Veränderungen am Ursprungssystem (Dekohärenzeffekte) sind der Verschränkung Ursprungssystem–Fallbringer–Gruppe geschuldet. Konzentrieren sich die Repräsentanten am Ende der Aufstellung wieder auf sich – entrollen sie sich, wie man in der Aufstellungssprache sagt – verschwinden die übernommenen, repräsentierenden Wahrnehmungen sofort wieder, da die Verschränkung quasi abgestellt wird. Fazit Für SyA ergibt sich somit die theoretische Möglichkeit, dass zunächst über den Weg der Verschränkung die Informationen lokal im räumlichen Kontext der Aufstellung geteilt werden. Im Weiteren, nicht-lokalen Prozess können die Informationen aus dem Aufstellungsprozess schließlich über den Fallbringer mit dem Herkunftssystem in Kontakt gebracht werden. Lassen sich Verschränkungen in SyA nun nicht nur theoretisch ableiten, sondern auch tatsächlich in Makrosystem Mensch messen, und wenn ja, wie? Um diese Frage allgemeingültig zu beantworten, bedarf es jetzt noch eines gemeinsamen Verständnisses über das sogenannte Messproblem. Ein in der Physik ebenfalls kontrovers behandeltes Thema. 8.1.3
Das Messproblem
Unterschiede und Ähnlichkeiten in Physik, Soziologie/Psychologie und SyA Die Physik als grundlegende Wissenschaft ist spätestens seit der Kopenhagener Interpretation der Quantenmechanik aus dem Jahr 1927 mit der Tatsache konfrontiert, dass auf der Ebene des Mikrokosmos der Beobachter das Messergebnis mit beeinflusst und so die bis dahin vermutete Linearität der Kausalität und damit die Vorhersagbarkeit und
8.1 Quantenphysikalische Annäherung
369
Berechnung von Ursache und Wirkung nicht mehr gegeben ist. In der Makrowelt wird diese Funktion des Beobachters durch die Theorie des Konstruktivismus gestützt. Das Messproblem ist in der Quantenphysik deshalb ein sehr wichtiges und bis heute intensiv diskutiertes Thema. Zum einen, weil es Wechselwirkungen zwischen Eigenschaften des Messobjektes und der Messapparatur und zum anderen, weil es unterschiedliche Ansichten darüber gibt, wo die Grenzen quantenmechanischer Messungen liegen. Zudem stellt sich das Problem, ob das Messergebnis bereits vor der Messung im Messobjekt enthalten war oder erst durch die Messung erzeugt wurde. Diese Frage ist bereits im Rahmen des Welle-Teilchen-Dualismus und der Wellenfunktion (Kap. 8.1.1.2) evident geworden. Zeilinger’s Antwort auf diese Frage bietet einen bemerkenswerten Interpretationsrahmen: „Die Natur ist offenbar nicht reich genug, um schon von vornherein Antworten auf alle Fragen festgelegt zu haben. Wenn wir einem System Fragen stellen, die nicht einer wohldefinierten Eigenschaft entsprechen, so existieren diese Fragen eben nicht, ehe wir die Frage stellen“ (Zeilinger 2005: 222). Es lässt sich daraus nämlich ableiten, dass bei bereits vorhandener bekannter Eigenschaft und damit bekannter Information sich dieses Ergebnis reproduzieren lässt. Bei unbekannten Eigenschaften entsteht dagegen durch den Messprozess etwas Neues. Interessanterweise kennen Psychologie und Soziologie ähnliche Fragestellungen, die je nach Schule (Weltanschauung) unterschiedlich beantwortet werden. Auch hier geht es um die Wechselwirkung zwischen Subjekt und Objekt bzw. welche Eigenschaften waren schon da und welche sind erst durch den Kontakt bzw. die Beobachtung erzeugt worden. Und wie ist die System-Umwelt-Relation zu ziehen? Was gehört dazu und was ist ausgeschlossen? Im Folgenden soll die Frage untersucht werden, ob Möglichkeiten bestehen, physikalische Messverfahren (klassisch und quantenmechanisch) mit psychologisch-soziologischen Ansätzen in Beziehung zu bringen. 8.1.3.1 Klassische versus quantenmechanische Messung Aus messtechnischen Gründen fokussiert sich die Physik bei ihren Untersuchungen auf beobachtbare Größen wie Energie, Impuls, Spin (Drehimpuls eines Teilchens) oder Ortskoordinaten. Es sollen Größen sein, die eindeutig zu ermitteln sind und keine Interpretation zulassen. Im Zusammenhang mit Messungen, die Verschränkungen untersuchen sollen, gilt es eine Besonderheit zu berücksichtigen: Betrachten wir die Verschränkung aus der Perspektive der Messtechnik, so muss man feststellen, dass die Verschränkung selbst nicht gemessen werden kann. Es gibt nichts (zumindest nach dem heutigen Verständnis), das sich im Raum zwischen den Quarticle messen ließe und dennoch besteht eine Verbindung; eine Verbindung, die sich letztlich nur aus den Messergebnissen ableiten lässt.
370
8 Modellentwicklung von der Mikro- zur Makrowelt
So nimmt bei der Messung eines der Quarticles sein Partner instantan, also sofort ohne Zeitverzögerung, das für den Gesamtzustand notwendige ergänzende Eigenschaftsprofil an. Besitzt beispielsweise ein aus zwei Quarticle bestehendes System die Zustände |0⟩ und |1⟩ und messen wir an einem der Quarticle den Wert |0⟩, so ist automatisch der Wert |1⟩ für das zweite Quarticle festgelegt. Sehr häufig wird zur Veranschaulichung der Spin verwendet. Ist der Gesamtspin Null, so ergeben sich als Messwerte -1/2 für Quarticle A und +1/2 für Quarticle B. Etwas vereinfacht darstellen lässt sich dieses Phänomen gut mit einem Stabmagneten (Abb. 60). Im Gegensatz zu einem Quantensystem, bei dem die Verteilung erst durch die Messung entsteht, steht das Ergebnis hier bereits vor der Messung fest, weshalb dieses Beispiel nur zur besseren Veranschaulichung dienen soll.
Abb. 60 | Der Stabmagnet spannt ein Gesamtsystem auf, vergleichbar einem Quantensystem was nicht in seine Einzelteile Süd- und Nordpol zerlegt werden. Im Gegensatz zu einem Quantensystem steht hier das Ergebnis jedoch bereits vor der Messung fest. (eigene Darstellung)
Stabmagnete haben einen Nord- und einen Südpol. Messe ich an der einen Seite die abstoßende Reaktion, ist sofort die anziehende Reaktion für die andere Seite festgelegt. Versuche ich jetzt den Magneten auseinander zu schneiden, um die beiden Seiten zu separieren, muss ich feststellen, dass ich keine separierten Hälften bekomme, sondern nur zwei statt einem Magneten, wobei jeder für sich jedoch nur die Hälfte der ab- bzw. anstoßenden Reaktionen zeigt, entsprechend der Formel: ����� (8.13) P= �
mit P = Polstärke, mmagn = magnetischer Moment des Stabes und l = Länge des Stabes. Im Unterschied zum quantenphysikalischen Zustand besteht im klassischen System des Magneten die Verteilung Nord- vs. Südpol bereits bevor wir die erste Messung vornehmen und kann von einem Beobachter gewusst werden. Er muss deshalb nicht mehr an das andere Ende des Magneten treten und die Messung dort mit seiner vergleichen. Im Gegensatz dazu verhalten sich quantenphysikalische Systeme für einen Beobachter signifikant anders. Als Beispiel bietet sich ein Versuchsaufbau (Abb. 61) an, bei dem zwei verschränkte Photonen A und B in zwei unterschiedliche Richtungen geschickt werden, nämlich zu Alice und Bob. In beiden Richtungen steht ein Strahlenteiler, der das Photon durchlässt (also transmittiert) oder reflektiert. Auf beiden Seiten stehen Quantenzufallsgeneratoren, die tatsächlich rein zufällig festlegen, ob die Quarticle am Strahlungsteiler transmittiert oder
8.1 Quantenphysikalische Annäherung
371
reflektiert werden. Unabhängige Detektoren, die auf jeder Seite positioniert sind, erfassen diese Ergebnisse. In unserem Fall sind dies Aussagen zur Polarisation der Photonen. Bei verschränkten Photonen verhalten sich beide Photonen immer gleich. Wird eines reflektiert (A1), so wird auch das zweite reflektiert (B1). Wird es transmittiert (A2), wird auch das andere transmittiert (B2). Bei nicht verschränkten Photonen können keine solche Zusammenhänge erkannt werden. Die Ergebnisse wären rein zufällig und in keiner Weise miteinander korreliert. Anhand solcher Messungen kann Verschränkung gezeigt werden.
Abb. 61 | Verschränkungsexperiment (eigene Darstellung). Ein Photonenteiler teilt einfallendes Laserlicht in die Photonen A und B, die zu Alice bzw. Bob weitergeleitet werden. Quantenzufallsgeneratoren lassen die Photonen schließlich durch einen Strahlungsteiler oder reflektieren sie. Bei verschränkten Photonen verhalten sich die Photonen auf Seite A und B immer in Abhängigkeit voneinander. Bei nicht verschränkten Photonen gibt es keine solche Zusammenhänge.
Der Versuchsaufbau legt zu Beginn fest, welche Form von Ergebnissen gemessen werden kann. Der Zufall entscheidet, welches der vier möglichen Ergebnisse sich dann tatsächlich zeigt (A1/B1, A1/B2, A2/B1, A2/B2). Jetzt müssen die Ergebnisse von Alice (A1/A2) mit denen von Bob (B1/B2) verglichen werden, um verschränkte Photonen von nicht-verschränkten Photonen zu unterscheiden. Verschränkte Photonen verhalten sich zu 100 % immer gleich. Demgegenüber zeigen unverschränkte keine solche Gemeinsamkeiten. Würden wir nur die Ergebnisse eines Detektors betrachten, wäre eine Aussage über Verschränkung oder Nicht-Verschränkung unmöglich. Bei einer solchen quantenphysikalischen Messung ist der Beobachter jedoch gezwungen in Kontakt mit allen Detektoren zu treten, um das Ergebnis richtig zu interpretieren. In der klassischen Physik würde eine einzige Messung ausreichen, weil dadurch das Gesamtsystem festgelegt wäre. Dieser Aufbau geht auf ein Gedankenexperiment von Einstein, Podolsky und Rosen zurück, mit der sie Unzulänglichkeiten in der Quantentheorie nachweisen wollten, weshalb alle vergleichbaren Konfigurationen auch EPR-
372
8 Modellentwicklung von der Mikro- zur Makrowelt
Experiment und die Quelle verschränkter Quarticle als EPR-Quelle bezeichnet wird (Näger und Stöckler 2015). Und auch hier handelt es sich um einen weitverbreiteten Irrtum. Ein solcher Kontakt mit allen Detektoren ist nur unter der Bedingung notwendig, wenn ich einen Verschränkungszustand von einem klassisch getrennten unterscheiden möchte, wie es bei den ursprünglichen Experimenten beabsichtigt war. Weiß ich demgegenüber sicher, dass eine Verschränkung vorliegt und habe ich auch Kenntnisse über die möglichen Zustände, so reicht auch in der Quantenphysik eine einzige Messung, um auf den verbleibenden Zustand des anderen Detektors zurückzuschließen (siehe dazu noch Kap. 8.1.4.2). Dies darf analog auf die Photonen übersetzten werden, die, hätten sie ein Bewusstsein, bemerken würden, dass ihr entfernter Partner eine Zustandsänderung oder eine Fixierung durch die Messung erfährt. Innerhalb eines Quantensystems bedarf es keinen Beobachter, um Verschränkungszustände zu diagnostizieren. An diesem Punkt spiegelt sich auch das, was als Messproblem gehandelt wird. Unter welcher Perspektive ist eine solche Messung zu betrachten? Was gehört zu der Messung und was darf vernachlässigt werden? Sind die Photonen als eigenständig zu betrachten? Nach dem Delayed-Choice-Experiment spielen Spiegel, Zufallsgenerator und möglicherweise auch Alice und Bob eine Rolle. Schrödinger’s Katze und Wigner’s Freund Schrödinger’s Katze ist ein weiteres sehr anschauliches Problem der quantenphysikalischen Messung (Schrödinger 1935b: 812). Sie dient gerne zur Veranschaulichung, dass bei makroskopischen Dimensionen keine Kohärenzen und quantenphysikalische Superpositionen zu beobachten sind. Im Gedankenexperiment (Abb. 62 Geschehen innerhalb des größeren Kastens) wird eine Katze zusammen mit einer ‚Höllenmaschine’ in einen Kasten gesteckt. Ein Geigerzähler (quantenphysikalischer Mechanismus) erfasst den Zerfall einer radioaktiven Substanz und setzt über einen (makroskopischen) Mechanismus Blausäure frei. Ob der radioaktive Zerfall stattgefunden hat und die Katze infolgedessen tot ist, erschließt sich einem Beobachter erst nach dem Öffnen. Bis dahin gibt es keine Information, was in der Psi-Funktion zum Ausdruck kommen würde. Die damit verbundene ‚Verschmierung’, heute würde man eher Superposition sagen, ändert sich mit dem Öffnen in zwei unterscheidbare, klassische Zustände – tot oder lebendig. Der Überlagerungszustand bleibt einem makroskopischen Beobachter vorenthalten. Die Frage, die in einem solchen Fall immer gestellt wird, lautet: Ist der Beobachter durch Öffnen des Kastens für den Zusammenbruch oder besser die Änderung der Psi-Funktion verantwortlich? Nach der in Kap. 8.1.1.3 entwickelten Definition der Wellenfunktion würde diese Frage mit Ja beantwortet werden können. Im verbreiteten Verständnis der Physik wird darüber jedoch heftig diskutiert. Vielmehr wird die Frage gestellt: „wann genau und wie eigentlich der Kollaps der Wellenfunktion erfolgt?“ (Reineker u. a. 2007: 457). Eine Frage, die sehr merkwürdig anmutet, denn man sollte davon ausgehen, dass nicht der Beobachter durch das Öffnen den Tod herbeigeführt hat, sondern dieser unabhängig von ihm eingetreten ist. Mit dem Öffnen wird der dann aktuelle Zustand jedoch für ihn
8.1 Quantenphysikalische Annäherung
373
sichtbar. Die bereits bekannte Formel (8.4) beschreibt den Superpositionszustand des Systems vor dem Öffnen. Die Terme 1 und 2 repräsentieren tot oder lebendig, der Rest die ‚Verschmierung’: � |Ψ(x)|� = [|Ψ� (𝑥𝑥)|� + |Ψ�(𝑥𝑥)|� + |Ψ� (𝑥𝑥)⟩⟨Ψ� (𝑥𝑥 )| + |Ψ� (𝑥𝑥 )⟩⟨Ψ� (𝑥𝑥)|] (8.5) �
Mit dem Öffnen fällt die ‚Verschmierung’, also der gemischte Term und einer der beiden Fakten 1 oder 2, weg. Übrig bleibt ein einziges Ergebnis: 1 oder 2; tot oder lebendig. Aber auch hier gilt, die Entitäten (Katze, radioaktive Substanz, Blausäure und Kasten) selbst wissen was intern passiert ist. Konsequenterweise sollte hier die Wellenfunktion respektive die Wahrscheinlichkeitsdichte als Ausdruck der Beobachtungssituation angesehen werden und dessen, was von außen über das System bekannt ist. Auf dieses Experiment passen die Gedanken von Pössel, der in Bezug auf die Dekohärenztheorie und das Beobachterproblem folgende Überlegungen anstellte: „Wer die Welt beobachtet oder eine andere Art von Messung vornimmt, nutzt immer nur einen unvollständigen Satz von Informationen. Ein Physiker, der ein Experiment auswertet, beschränkt sich dabei zwangsweise auf einen Ausschnitt der Welt - bestimmte Einflüsse werden dokumentiert (etwa die Feldstärke des direkt am Experiment angebrachten Magneten), andere werden vernachlässigt (etwa das von außen auf den Experimentalaufbau fallende Sonnenlicht). Für solch eine Situation lassen sich ‚gemittelte Quantenzustände’ definieren, in die unser Unwissen über die Details bereits eingebaut ist. Zwischen diesen Zuständen, so stellt sich heraus, gibt es im Allgemeinen keine Interferenzeffekte mehr“ (Pössel 2010: 309). Die Interferenzeffekte wurden für den Beobachter zum Faktum, was jedoch entsprechend dem weiteren Verständnis der Dekohärenztheorie nicht heißen muss, dass außerhalb unserer Wahrnehmung nicht weitere Interferenzen bestehen. Mit Wigner’s Freund (Wigner 1995: 252) wollte Wigner das Absurde verdeutlichen, dass die Reduktion der Wellenfunktion von der direkten Messung des Objektes (Kasten mit Katze) abhängen soll, indem er einen zweiten Beobachter, seinen Freund, mit einbezog. Dieser Freund öffnet nun den Kasten, während sich Wigner selbst an einem anderen Ort aufhält (Abb. 62). Aus Wigner’s Sicht kann die Wellenfunktion nicht das Objekt selbst beschreiben, sondern nur einen gemeinsamen Zustand: Freund plus Objekt, und dieses gemeinsame System hätte auch nach der Interaktion eine Wellenfunktion, bis Wigner selbst die Information von seinem Freund bekommt: „The answer is that the information available about the object cannot be described by a wave function. One could attribute a wave function to the joint system: friend plus object, and this joint system would have a wave function also after the interaction, that is, after my friend has looked. [...] However, even in this case, in which the observation was carried out by someone else, the typical change in the wave function occurred only when some information (the yes or no of my friend) entered my consciousness. It follows that the quantum description of objects is influenced by impressions entering my consciousness“ (ebd.).
374
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 62 | Schrödinger’s Katze und Wigner’s Freund mit Katze (K), Wigner’s Freund (F) und Wigner (W) selbst. Aus Wigner’s Sicht kann die Wellenfunktion nicht das Objekt selbst beschreiben, sondern nur einen gemeinsamen Zustand und unser Wissen über diese Situation. (eigene Darstellung)
Aus dieser Perspektive wird wieder offensichtlich, dass der Beobachter eine zentrale Rolle spielt und sich die Wellenfunktion je nach Konstellation von Beteiligten ändert. Es lässt sich eine Psi-Funktion formulieren, die Schrödinger’s Katze (K) repräsentiert, � |Ψ� ⟩ = [|Ψ��� ⟩� + |Ψ���� ⟩� ] (8.14) √�
mit ihren Eigenzuständen: |0⟩� + |1⟩� (8.15) Wenn Wigner’s Freund (F) nun die Katze beobachtet, erweitert sich die Psi-Funktion auf: |0⟩� |0⟩� + |1⟩� |1⟩� (8.16) Kommt jetzt noch Wigner (W) selbst hinzu, weil er wissen möchte, wie das Ergebnis lautet, dann erweitert sich die Funktion noch um einen weiteren Term: |0⟩� |0⟩� |0⟩� + |1⟩� |1⟩� |1⟩� (8.17) In vollständiger Weise geschrieben ergibt sich: � � |Ψ��� ⟩� = [|0⟩� + |1⟩� ] = [|000⟩ + |111⟩] (8.18) √�
√�
Mit dieser Beschreibung erhalten wir eine Form, die als GHZ-Theorem180 oder GHZZustand in der Quanten-Teleportation Bedeutung bekommen hat und im Kap. 8.1.4 weitere Verwendung findet. Dass der Beobachter tatsächlich auf elementarer Ebene Relevanz bekommt, wurde bereits beim Delayed-Choice-Experiment (Kap. 8.1.1.2) deutlich. Die Veränderung der Einstellungen zu einem Zeitpunkt, zu dem die Detektoren schon längst das Ergebnis hätten registrieren müssen oder die beteiligen Quarticle schon lange nicht mehr existieren, veranschaulicht in sehr eindrücklicher Weise die Rolle der Beobachter.
180
Greenberger-Horne-Zeilinger haben als Erste diesen 3-Entitäten-Zustand untersucht.
8.1 Quantenphysikalische Annäherung
375
Die Rolle der Beobachtung wird auch noch an einem anderen Experiment deutlich, dem Quanten-Zeno-Effekt (Reineker u. a. 2007: 489ff; Itano u. a. 1990). In diesem Experiment wird durch permanente Beobachtung ein quantenphysikalisches System verlangsamt oder gar zum Stillstand gebracht. Je mehr Beobachtungen, desto anhaltend stabil der Ausgangszustand. Die jüngsten Untersuchungen und Erklärungen bestätigen dieses Phänomen der Nicht-Veränderung unter Beobachtung eindrücklich und zeigen, dass es hier nicht um einen Kollaps geht und die realistischen Erklärungsansätze sehr viel wahrscheinlicher sind (Gosson u. a. 2016; Gosson und Hiley 2014; Patil u. a. 2015). Jenseits der technischen Erklärungen, die in diesen Veröffentlichungen gegeben werden, erscheint es aus den hier entwickelten Überlegungen sehr nachvollziehbar, dass sich bei den Experimenten keine Entwicklungen und damit Veränderungen einstellen. Halte ich meinen Blick ununterbrochen auf ein System, kann sich weder im System noch bei mir ein neues Wissen in Form von Informationen einstellen. Damit ergibt sich keine Notwendigkeit für eine Änderung der Wellenfunktion und damit eines zu beobachtenden Ereignisses. Mit all diesen Experimenten und theoretischen Ansätzen sollte die Frage nach der Rolle eines Beobachters eigentlich eindeutig beantwortet sein. Stellvertretend für ein Verständnis, das nach wie vor eher am Rande der Wissenschaftsgemeinde zu finden ist, aber dennoch sehr namhafte Vertreter hinter sich weiß, ist von Stapp formuliert: „Our bodies and brains thus become, in von Neumann’s approach, parts of the quantum mechanically described physical universe. Treating the entire physical universe in this unified way provides a conceptually simple and logically coherent theoretical foundation that heals the rupturing of the physical world introduced by the Copenhagen approach. It postulates, for each observer, that each experiential event is connected in a certain specified way to a corresponding brain event. [...] However, von Neumann quantum theory gives, in principle, much more than Copenhagen quantum theory can. By providing an objective description of the entire history of the universe, rather than merely rules connecting human observations, von Neumann’s theory provides a quantum framework for cosmological and biological evolution“ (Stapp 2001: 1471). Tatsächlich findet sich in den Lehrbüchern keine einheitliche Meinung und diese Frage wird auch heute noch in verschiedenen Wissenschaften intensiv diskutiert. Aufgehängt sind diese Diskussionen unter dem Begriff ‚Heisenbergschnitt’, der nachfolgend untersucht wird. 8.1.3.2 Heisenberg-Schnitt Im Grunde geht es beim Heisenberg-Schnitt um die Frage, inwieweit ein zu untersuchendes System (in diesem Fall ein Quantensystem) unabhängig von Messapparatur und Umwelt angesehen werden kann. In der KI wird eine Unterscheidung gemacht zwischen der Messapparatur und dem (mikroskopisch kleinen) Quantensystem unbestimmten Zustandes. Dabei wird die Messapparatur als klassisches System betrachtet. Man nimmt an, dass im Moment der
376
8 Modellentwicklung von der Mikro- zur Makrowelt
Messung, also wenn das Quantensystem auf die Messapparatur trifft, der Quantenzustand ‚kollabiert’, der berühmte ‚Kollaps der Wellenfunktion‘, entsprechend dem Doppelspaltexperiment, bei dem die Wellennatur der Photonen zu einem Punkt mutiert. Die quantenmechanische Unbestimmtheit wandelt sich in ein eindeutiges Messergebnis. Heisenberg und seine Mitstreiter gehen davon aus, dass vor einer solchen Messung kein teilchenhaftes Objekt vorliegt. Aus quantentheoretischer Betrachtung ist dabei unstrittig, dass das Quarticle erst durch die Messung festgelegt und lokalisierbar wird. Im klassischen Weltbild der Physik dagegen wären Photon und Elektron schon vorher existent gewesen. Damit bekommen wir eine Situation, die für den westlich ausgebildeten Betrachter sehr merkwürdig erscheint. Wir erhalten nämlich Messergebnisse, die keine objektiven Aussagen über ein Quantensystem machen können und damit auch nicht über eine vermutete reale Wirklichkeit. Der Einfluss des Messapparates bleibt in diesem Ansatz unberücksichtigt, schlicht weil das Ausmaß seines Einflusses unbekannt ist. Man gibt sich zufrieden mit dem was man hat und blendet das was man nicht hat einfach aus. Insofern wird auch nachvollziehbar, wenn Werner Heisenberg (Zeilinger 2002) zur Überzeugung kommt, dass die Naturwissenschaften uns nur ein ‚Bild unserer Kenntnis von der Natur’ und nicht ein Bild der Natur selbst liefert. Aus Sicht einer zweiten Gruppe von Physikern stellte sich bei diesem Ansatz die Frage: Wie kommt es, dass sich Quantensysteme einmal entsprechend der Schrödingergleichung zeitlich ungestört entwickeln und andererseits im Verständnis der KI eine Entwicklung eintritt, bei der das Quantensystem in bestimmten Situationen auf einen Zustand festgelegt wird? Hier hat sich im Gegensatz zur KI ein Verständnis herausgebildet, das die Entwicklung von Quantensystemen immer zeitlich bestimmt sieht und ohne Kollaps – entsprechend eben der konsequenten Interpretation der Schrödingergleichung. Danach handelt es sich um Scheineffekte, wenn bestimmte Zustände festgelegt werden. Dies geht aus der Dekohärenztheorie von Zeh (Kap. 8.1.2.2) und der Viel-Welten-Interpretation von Everett hervor. Zeh schlussfolgert aus seinen Überlegungen, dass die Schrödingergleichung aufgrund der experimentellen Bestätigungen der Dekohärenztheorie sehr wohl auf makroskopische Systeme anwendbar ist und vermutlich universelle Gültigkeit besitzt. In seinem Ansatz ist die Trennung zwischen Messapparatur und Quantensystem aufgelöst. Zur Realisierung benötigt es allerdings eine Perspektivenerweiterung, in der die für geschlossene Systeme gültige Schrödingergleichung die Hinzunahme der Messapparatur erfährt und wie nachfolgend ausgeführt wird, auch weitere Elemente. Es entsteht erneut ein abgeschlossenes System, jetzt aber unter Einschluss der Messapparatur und der Umgebung. Wenn in der Quantenphysik in der jüngeren Zeit von offenen Quantensystemen gesprochen wird, wird immer auf dieses Prinzip zurückgegriffen. Eine vollständige Beschreibung eines Messprozesses sieht dementsprechend folgendermaßen aus: In der Regel existiert bei einem Messprozess neben der Messapparatur (M) und dem Quantensystem (QS) auch noch der Beobachter (B) in Person des Versuchsleiters und die Umgebung (U). Nach diesem Verständnis erstreckt sich der vollständige Quantenmessprozess auf alle beteiligten Systeme (M-Q-B-U), die in diesem Fall als verschränkt betrachtet werden müssen. Dieses Verständnis hatte auch C.F. v.
8.1 Quantenphysikalische Annäherung
377
Weizsäcker (Kap. 4.2.2.8), der von einer untrennbaren Kette zwischen Objekt und Subjekt sprach. Eine Darstellung des Heisenberg-Schnitt’s in Anlehnung an Zeh (2011) veranschaulicht sehr gut, wie sich das Verständnis von wichtigen Quanten-Physikern unterscheidet, was bzw. wer alles im Messprozess zu berücksichtigen ist (Abb. 63). Damit geht es um die Frage, welche Wechselwirkungen mit der Schrödingergleichung erfasst werden müssen.
Born Pauli
induzierter Kollaps Bohr durch Heisenberg von Umgebung Neumann
von Neumann Heisenberg Bohm Everett Zeh Wigner
Bauka91 91, Wikimedia Commons
Quantensystem
Messapparat
Beobachter
Umfeld
Umfeld
Abb. 63 | Heisenberg-Schnitt in Anlehnung an H.-D. Zeh mit Quantensystem = QS; Messapparat = M; Beobachter = B, Umfeld =U (eigene Darstellung). Die senkrechten gestrichelten Linien veranschaulichen die Position, an der die jeweiligen Physiker eine Trennung von Quantensystem und Messapparat annahmen.
Dieser sogenannte Heisenberg-Schnitt beschreibt die Position, an der das zu messende Quantensystem vom Messapparat getrennt werden darf. Die Frage, die sich dabei jedoch stellt, war: Was gehört alles zum Messapparat dazu? Tab. 16 gibt eine Kurzzusammenfassung nach Zeh (ebd.) mit einigen eigenen Anpassungen.
378
8 Modellentwicklung von der Mikro- zur Makrowelt
Tab. 16 | Unterschiedliche Perspektiven auf den Heisenberg-Schnitt nach Zeh, mit kleineren Anpassungen durch den Autor. (eigene Darstellung)
Born / Pauli Heisenberg
Bohr
von Neumann
Induzierter Kollaps
Wigner Heisenberg
Bohm Everett Zeh Wigner
Sie bezogen ihre KI direkt auf das zu messende Quantensystem und sahen es zunächst auch außerhalb der Naturgesetze stehend. Auch nach ihm soll der Schnitt zwischen dem Quantensystem und der Messapparatur vollzogen werden. Dennoch zieht er später den Beobachter mit ein. Er erweiterte den Rahmen und schloss die Messapparatur teilweise ein. Der Wechsel zu den makroskopischen Eigenschaften erfolgt nach Bohr allerdings erst nach dem Klick des Detektors. Da er ein Wellenpaket auch auf den Zeiger der Messapparatur bezog, wurde jetzt Quantensystem und Messapparatur als ein verschränktes System verstanden. Er formulierte explizit eine Wechselwirkung zwischen QS und M im Rahmen der Schrödingergleichung. Andererseits nahm er den Beobachter in die quantenmechanische Beschreibung mit auf. Er forderte vom Beobachter das Annehmen eines bestimmten Zustandes und verlegte damit den Auslöser letztlich ins Bewusstsein des Beobachters (Neumann 1996). Verschiedene Forscher schlugen schließlich auch vor, die Umgebung des Systems QS-M mit in die Gesamtverschränkung einzubeziehen, da die Interaktion mit z. B. Gasmolekülen der Umgebung unvermeidlich sei (induzierter Kollaps durch die Umgebung). Wigner nahm zunächst das Bewusstsein des Beobachters in den Messprozess mit auf. Zudem stellte er die Frage, ob ein zwischengelagerter Beobachter den Kollaps auslöst oder erst der Endbetrachter. Interessant in diesem Kontext ist, dass bereits Heisenberg den Beobachter für die Bahn des Teilchens verantwortlich macht, da die Bahn erst durch dessen Beobachtung entstehen würde. Insofern ist nicht ganz klar, wo Heisenberg anzusiedeln ist. Bohm geht wie Everett von der uneingeschränkten Gültigkeit der Schrödingergleichung aus und verzichtete vollständig auf den Kollaps. Letztlich zog Everett mit seiner Viel-Welten-Theorie auch die Umwelt des Beobachters mit ein. Die Dekohärenztheorie von Zeh unterstützt diese Ansicht. Sie fordern eine einheitliche Behandlung aller beteiligter Systeme und liefern damit den größten Gegensatz zur Kopenhagener Deutung. Wigner übernahm diese Perspektive nachdem ihm die Dekohärenztheorie bekannt wurde.
Anmerkungen zu Tab. 16: Born/Pauli, Heisenberg und Bohr (oberhalb der dicken Trennlinie) sahen die Messapparatur letztlich ähnlich, nämlich klassisch. Unterhalb der dicken Trennlinie öffnet sich das Verständnis hin zur Integration des Beobachters in den Messprozess, was wie be-
8.1 Quantenphysikalische Annäherung
379
schrieben neue Experimente auch zweifelsfrei bewiesen haben. In jedem Fall sind aus den Perspektiven von Everett, Zeh oder Wigner die Ergebnisse der Delayed-ChoiceExperimente am Doppelspalt nicht mehr so merkwürdig, wie manchmal dargestellt. Es hat also den Anschein, als ob ein Ereignis solange es noch nicht wirklich gemessen und damit sichtbar wurde, rückgängig gemacht bzw. beeinflusst werden kann. Hierzu passt auch eine Arbeit von Fuchs und Peres, in der die Frage, ob Quantenmechanik auch auf den Beobachter anwendbar sei, mit einem klaren Ja beantwortet wurde (Fuchs und Peres 2000). Voraussetzung sei nur, dass er für eine quantenmechanische Beschreibung zugänglich sei und von daher würde sie nichts hindern, einen Kollegen zu quantisieren. Arbeiten von Atmanspacher u. a. (Atmanspacher und Primas 2006; Atmanspacher u. a. 2002) und Walach u. a. (Walach und Stillfried 2011) zeigten ebenfalls einen solchen Zusammenhang. Weiter wurde von Peres und Fuchs nachgewiesen, dass ein rückwärts gerichteter Zeitpfeil, entsprechend den Feynman-Diagrammen, nicht nur mathema-tische, sondern auch für die reale Welt Gültigkeit besitzt. Diese Gültigkeit wurde bisher nur als ‚unser Wissen über die Welt’ interpretiert, nicht aber als eine objektive, vollständig beschreibbare Realität an sich. Dieser Zusammenhang wurde aktuell von Goswami und Kollegen bestätigt (Goswami u. a. 2018), in dem sie mithilfe von ‚optischen Quantenschaltungen’ Prozesse mit unbestimmten Reihenfolgen realisierten. Dabei wurden zwei Operationen A und B in eine quantenphysikalische Superposition bzgl. ihrer Reihenfolge des Ablaufs gebracht. Ziel war es, für Berechnungen und Kommunikationsprozesse, hochdimensionale Überlagerungen von Informationen in Zeit und Raum und damit Qubits zu realisieren. Aus diesen Versuchsanordnungen lässt sich die Frage nach der Reihenfolge des ‚Henne – Ei-Problems’ nur als Überlagerung beider Entwicklungsrichtungen interpretieren. Auch reichen mittlerweile zwei Messungen aus, um alle möglichen Fragen über einen transportierten/teleportierten Zustand eines hochdimensional verschränkten Quantensystems ermitteln zu können (Bavaresco u. a. 2018) und nicht mehr hunderte oder tausende Messungen. Lebende Systeme, wie ein Beobachter, würden einem solchen hochdimensional verschränkten Quantensystem entsprechen. 8.1.3.3 Unterschiede/Ähnlichkeiten in Physik, Soziologie/Psychologie und SyA Bezogen auf den vorgestellten Heisenberg-Schnitt lässt sich, basierend auf Fuchs und Peres (Fuchs und Peres 2000), formulieren: Wenn ich ein System betrachte, in dem der Beobachter Einfluss auf das Messergebnis ausübt oder davon betroffen ist, MUSS ich den Beobachter mit in die Rechnung aufnehmen. SyA lassen sich nicht mit gängigen Erklärungsansätzen beschreiben, erfüllen aber den von Fuchs und Peres geforderten quantenmechanischen Formalismus. Die Frage, was wir eigentlich messen, scheint auch in der modernen Physik nicht ganz einfach beantwortbar zu sein. Gleichwohl wird gerade da sehr viel Wert auf Präzision und Widerspruchsfreiheit gelegt und vermutlich kommt auch aus diesem Anspruch heraus eine innere Reserviertheit oder gar Ablehnung gegenüber Wissenschaften wie
380
8 Modellentwicklung von der Mikro- zur Makrowelt
Psychologie und Soziologie. Die Freiheitsgrade, dessen was man messen kann, sind bei Letzteren einfach ausgesprochen groß. Betrachten wir die Messprozesse in der Physik einmal genauer, können wir feststellen, dass die Welten gar nicht so unterschiedlich scheinen. In Übereinstimmung mit dem Heisenberg-Schnitt (in Anlehnung an Born/Pauli, Abb. 63), aber analog zur klassischen Physik, wird in vielen Schulen der Psychologie und Soziologie von getrennten Systemen „ausgegangen. Entsprechend zur klassischen Physik hat sich lange das Bild vom Menschen als komplexe Maschine gehalten und hält sich heute noch, was nicht zuletzt in der Medizin gut beobachtbar ist. Auch in den klassischen Theorien der Psychologie und Soziologie ging man davon aus, dass das menschliche Wesen zwar durch sein Umfeld geprägt wird, aber zu einem Zeitpunkt X sich davon weitestgehend unabhängig entwickelt“ (Gehlert 2016). Damit war auch hier der Fokus auf das scheinbar unabhängige Wesen gerichtet. In der Pädagogik findet sich der klassische Ansatz im Lehr- und Lernkonzept des ‚Nürnberg Trichters’: Deckel auf, Wissen reinfüllen, neues Wissen ist gelernt! „Der Glaube an objektive Wahrheiten und Fähigkeiten ist noch heute in unseren Vorstellungen tief verwurzelt“ (ebd.). Auch der Glaube, dass alles, was zu beobachten ist auch wahrgenommen wird, ist weit verbreitet. Das Phänomen der selektiven Wahrnehmung oder der Pygmalion-Effekt (Bestätigen der Erwartungshaltung) ist vermutlich nur einem kleinen Teil der Bevölkerung bekannt. Ebenso wurden Fähigkeiten und Handlungen von Menschen sehr lange unabhängig von ihrem Umfeld gesehen. Bedauerlicherweise ist dies auch heute noch zu beobachten, nicht zuletzt in den Wirtschaftsunternehmen. Wie bewerte ich als Führungskraft ein auffallendes, nicht leistungsbereites Verhalten eines Mitarbeiters? Und wie, wenn ich denselben Mitarbeiter außerhalb der Firma als engagiert und kommunikativ erlebe? Welche Schlüsse ziehe ich jetzt? Führe ich sein Verhalten auf eine hohe Freizeitorientierung zurück, auf einen vielleicht nicht angepassten Führungsstil mit zu viel Bevormundung und wenig eigenem Spielraum oder auf eine Unsicherheit resultierend aus fehlender Kompetenz? Die modernen Richtungen der Psychologie und Soziologie berücksichtigen genau diese Zusammenhänge und Kontexte. Im Konzept der Systemtheorie (Luhmann, Wilke, u. a.) und der systemischen Familientherapie (Mailänder Schule etc.) wird die Beziehung Umfeld – Systemelement (Mensch, Gruppe, Unternehmen, Land) in den Fokus der Betrachtung gestellt. Dies steht im Gegensatz zu Richtungen der humanistischen Psychologie, in der der Mensch im Mittelpunkt steht und das Umfeld nur als störender Kontext wahrgenommen wird. Wesentliche Eckpfeiler des systemischen Verständnisses, wie die Einbindung des Beobachters in das Beobachtete (Bateson 1985) oder der Konstruktivismus (Watzlawick, von Förster), dass alles von einem Beobachter konstruiert wird und es keine objektive Perspektive gibt, lassen sich eins zu eins auf die modernen Ansätze der Quantentheorie übertragen. Auch hier stellt sich die Frage: Existiert die Information bereits im Vorfeld oder ist sie erst durch den Beobachter – respektive die Aufstellung – und unsere Interpretation entstanden? Existiert eine bestimmte Verhaltensweise schon immer oder wird sie erst durch unsere Erwartung, den Kontakt und/oder die Interaktion mit dem Umfeld erzeugt?
8.1 Quantenphysikalische Annäherung
381
Analog zum Doppelspaltexperiment können wir auch in der Soziologie und Psychologie feststellen, dass je nachdem wie Personen oder Gruppen auf etwas schauen bzw. etwas erwarten, sich dieses zeigt; genauso wie die Intention, also die Erwartung in der Quantenphysik das Ergebnis beeinflusst. Alles andere wird ausgeblendet, obwohl es ebenfalls da ist oder zumindest möglich ist. Der Beobachter erzeugt sich respektive konstruiert sich seine Welt, wie es der Konstruktivismus formuliert. Nichts anderes findet in der Physik statt bei der Interpretation der Phänomene und ihrer Erklärungen. Weltbilder entscheiden darüber, was akzeptiert und was abgelehnt wird. Die reine Mathematik ist hilfreich beim Modellieren und Überprüfen, unterliegt aber auch der Interpretation und Bedeutungsgebung ihrer Axiome und Resultate. Und analog zum Delayed-Choice-Experiment lassen sich in der Therapie Zustände, Erlebnisse und Vorstellungen rückgängig machen bzw. modifizieren. Dies gilt sowohl für körperliche als auch geistig/psychische Zustände und mitunter reichen dazu ein paar Minuten bis zu wenigen Stunden – vielleicht sogar auch rückwirkend in der Zeit. Was immer wir auch als Messung ansehen, im modernen Verständnis ist immer der Beobachter, seine Intention, seine Systemgrenze, die er zieht, sowie die Relation, die er herstellt, entscheidend für das Resultat. Was ist die Wirklichkeit? – Dies ist die Grundfrage von Orpheus im Blockbuster ‚Matrix‘, die sich sowohl in der Physik als auch in fast allen anderen Wissenschaften stellt. Die Antwort fällt heute in der modernen, wissenschaftlich gebildeten und aufgeschlossenen Welt anders aus, als sie noch vor wenigen Jahren gelautet hätte oder wie sie in nicht-wissenschaftsaffinen Kulturen gegeben würde. Man darf wohl mit gutem Recht die Behauptung aufstellen, dass für diese Entwicklung ganz stark unser Verständnis von Messprozessen und den daraus generierbaren Erkenntnissen einen Beitrag leistet. Und schließlich sind bei SyA, wie bei Neumann (Kap. 4.2.2.4), die Stellvertreter ebenfalls gefordert einen bestimmten Zustand einzunehmen, um repräsentierende Wahrnehmungen generieren zu können, womit sie zwingend Teil des Systems werden. Damit kann hier eine weitere Parallele und die Anschlussfähigkeit zur Systemtheorie und zu SyA gezogen werden. 8.1.4
Informationsübertragung und Quanten-Teleportation
Bisher wurde der Schwerpunkt auf die grundsätzlichen Erkenntnisse und Theorien in der Quantenphysik gelegt, um prinzipiell zu überprüfen, ob sich Quantenphysik als Erklärungsoption anbieten kann. Nachdem dies zum jetzigen Stand zweifelsohne bejaht werden darf, bietet sich mit der Quanten-Teleportation (QT) eine Struktur an, die hohe Ähnlichkeit mit den Strukturen bei SyA aufweist. Aus diesem Grund soll die QT als letzter Baustein von Kap. 8.1 untersucht und als möglicher Übertragungsmechanismus vorgestellt werden. Als Ergebnis ergibt sich eine Antwort zu Säule 7 und der Hauptkategorie ‚Übertragungswege’ ganz allgemein.
382
8 Modellentwicklung von der Mikro- zur Makrowelt
8.1.4.1 Allgemeiner Hintergrund zur QT und zum GHZ-Experiment Die Methode181 der QT, bei der Quanteninformation zwischen Systemen ausgetauscht wird, geht auf Bennett und seine Kollegen zurück (Bennett u. a. 1993). Sie gingen noch von einem „spin-exchange measurement“ aus. Ihre Absicht bestand in der Übermittlung des Zustandes eines Quarticle an einen Empfänger, ohne das Quarticle selbst zum Empfänger zu transportieren und damit eine direkte Verschränkung zu organisieren. Den ersten experimentellen Nachweis lieferte vier Jahre später Zeilinger mit seiner Gruppe (Bouwmeester u. a. 1997). Das Verfahren wurde mittlerweile bis zur Informationsübertragung über Satelliten weiterentwickelt. Auf diesem Prinzip bauen auch die terrestrisch atmosphärische QT, wie die über 148 km von Las Palmas nach Teneriffa auf (Ma u. a. 2012a). „Quantum teleportation allows for the transfer of arbitrary unknown quantum states from a sender to a spatially distant receiver, provided that the two parties share an entangled state and can communicate classically. […] optimal choice for carrying information in the form of ‘flying qubits‘“ (Takeda u. a. 2013: 315). Wie bereits in Kap. 8.1.2.3 an einigen Beispielen vorgestellt wurde, lassen sich mit diesem Verfahren auf verschiedene Weise Informationen über verschränkte Systeme, auch bei normalen Umweltbedingungen, deterministisch sicher teleportieren. Technisch konnten Kohärenzzeiten von bis 6 Stunden nachgewiesen werden (Zhong u. a. 2015). Eine gute Übersicht über den Stand der Entwicklung bis 2015 findet sich bei Pirandola und Kollegen (Pirandola u. a. 2015). Ganz aktuell wurde auch herausgearbeitet, dass tatsächlich jeder verschränkte Zustand einen Quantenkanal realisieren kann und sich damit nicht nur ausgewählte, sondern alle darin vorhandenen Informationen teleportiert lassen (Cavalcanti u. a. 2017). Dies gelang sogar in Fällen nicht vollständiger Bell-Zustandsmessungen oder ineffektiver Detektoren. Solche Rahmenbedingungen gelten ebenso bei biologischen Systemen, wie wir in Kap. 8.2 noch sehen werden. Das Prinzip zur Erzeugung verschränkter Photonen, die in der QT (Zeilinger 2007; Camejo 2007: 248) zum Einsatz kommen, wurde in Kap. 8.1.3.1 Abb. 61 bereits veranschaulicht. Die QT setzt an diesem Punkt auf. An einem Photonenteiler werden die mit einer EPR-Quelle erzeugten Photonen in unterschiedliche Richtungen geleitet (Abb. 64). Bei der klassischen 3-Quarticle-QT ist nun das Ziel, den Zustand eines Quarticle (A) (üblicherweise geht man dabei von einem unbekannten Ausgangszustand aus), mittels eines verschränkten Photonenpaars (B und C) von Alice an Bob zu teleportieren.
181
Die folgenden Inhalte wurden im Wesentlichen bereits 2014 und 2015 veröffentlicht und in diesem Kapitel zusammengefasst und überwiegend wortwörtlich wiedergegeben (Gehlert 2015a, 2014).
8.1 Quantenphysikalische Annäherung
383
Abb. 64 | Experimentelle Anordnung zur QT unter Beteiligung von 3 Quarticle (eigene Darstellung). Alice verschränkt Quarticle A mit B mittels einer Bell-State-Messung (BSM) zu A’-B’, wobei B bereits mit C verschränkt ist. Misst Bob nun Quarticle C, so erhält er Information über den Zustand von A. Notwendig ist hierzu nur die Information über die Art der von Alice durchgeführten Verschränkung, die er jedoch nur auf normalem Übertragungsweg, als klassische Information, bekommen kann.
Die ursprüngliche Überzeugung von Bennett war, dass Alice den Zustand des Teilchens (A) nicht selbst messen darf, da es sonst zu einer Überlagerung mit ihrem eigenen Zustand käme und damit der reine Zustand von A nicht mehr an Bob weiterleitbar sei (Bennett u. a. 1993). Alice führt deshalb nur eine Bell-State-Messung182 (BSM) aus, wobei sie A mit B verschränkt zu A’-B’. Auf einem klassischen Kanal (Telefon, Mail ...) teilt Alice ihre Einstellungsparameter und Ergebnisse Bob mit. Führt Bob jetzt seine Messung an C aus und erhält damit C’, so kann er sofort den Zustand von A bestimmen. Nach dem klassischen Verständnis wird davon ausgegangen, dass A jetzt die übertragene Information verloren hat, welche sich nach der Messung von Bob bei C’ befindet. Bereits 1990 veröffentlichten Greenberger, Horner und Zeilinger (GHZ) eine Arbeit, in der sie einen Ansatz vorstellten, der lokale Theorien und versteckte Variable ausschließen sollte. In dieser Arbeit wurde ein 3-Quarticle-System beschrieben, das das statistische Verfahren von Bell überflüssig machen sollte. 2008 erweiterten sie ihre Methodik auf 4-Quarticle mit zwei unabhängigen EPR-Quellen bzw. generell auf MehrQuarticle-Systeme (Greenberger u. a. 2008, 1990). Sie konnten damit Verschränkungen und Quanten-Informations-Übertragung darstellen. Abb. 64 stellt die kleinste Form eines solchen Mehrteilchensystems dar. Bereits der Ansatz 1990 entsprach im Prinzip dem Vorschlag von Bennett (Bennett u. a. 1993), nur noch ohne den Begriff der Teleportation explizit zu verwenden. In der Veröffentlichung 2008 bezog sich der GHZ-Ansatz dann sehr direkt auf die Teleportation mit einer Erweiterung zum ‚Entanglement Swapping’. In ihrer Arbeit weisen GHZ darauf hin, dass hier nicht nur die einzelne Information jedes der Partikel teleportiert 182
Mit einer BSM (Bell-State-Measurement) werden die Zustände eines Quantensystems gemessen. Die Methode geht auf John Bell zurück, mit der er verschränkte und klassische Zustände unterscheiden konnte.
384
8 Modellentwicklung von der Mikro- zur Makrowelt
wird, sondern dass die Verschränkung selbst teleportiert wird (Entanglement Swapping). Übersetzt könnte man deshalb sagen, dass es sich um die Teleportation der Beziehungsstruktur handelt. Des Weiteren betonen sie, dass solange keine Störungen auf das System einwirken die 100 %-ige Sicherheit der gleichen Ergebnisse gewährleistet ist. Damit ist auch ausgedrückt, dass es keine Störungen bei einem der beteiligten Systeme bis zum Abschluss der Messungen geben darf. Dies wurde in einer Veröffentlichung 2011 noch einmal explizit bestätigt (Lapkiewicz u. a. 2011: 490). Sie zeigen im Gegensatz zu Bennett’s Überzeugung, dass Alice sehr wohl hätte messen dürfen, zumindest dann, wenn ihr ihr eigener Zustand bekannt ist. Physikalisch ausgedrückt handelt es sich bei einem solchen GHZ-Experiment um einen verschränkten Quantenzustand von mehr als zwei Subsystemen (N > 2). In jedem Subsystem müssen dabei mindestens zwei Untersysteme vorhanden sein und damit muss mindestens eine 2-Dimensionalität vorliegen. Anders ausgedrückt handelt es sich deshalb um Mehrteilchensysteme und mithin um Quantenfelder. In der GHZ 4 QuarticleVersuchsanordnung (Abb. 65) wird mit zwei verschränkten Paaren von Quarticle gearbeitet (A-B und C-D), die zunächst völlig unabhängig voneinander aus zwei unterschiedlichen ERP-Quellen entstanden sind.
Abb. 65 | GHZ-Anordnung zur QT unter Beteiligung von 4 Quarticle (eigene Darstellung). Bei 4 Quarticle-Systemen wird durch die Verschränkung von zwei (B’-C’) aus jeweils unterschiedlichen Quellen kommenden Quarticle das Gesamtsystem (A’-B’-C’-D’) verschränkt.
Im Versuch wird im Folgenden jeweils ein Teil eines der Paare (B) mit einem Teil des anderen Paars (C) über eine Bell-State-Messung (BSM) miteinander verschränkt (B’C’). Als Folge sind dann automatisch alle 4 Quarticle miteinander verschränkt (A’-B’C’-D’) und die Information der ursprünglich einzelnen Quarticle ist über das Gesamtsystem in Form einer Superposition verteilt. Mit diesem Verfahren konnten die Forscher die oben beschriebene Annahme widerlegen, dass bei einer QT, wie sie in Abb. 64 und Abb. 65 dargestellt sind, der Kontakt zu A verloren gehen würde, und zwar aufgrund des Messprozesses und der damit verbundenen Dekohärenz. Ganz im Gegenteil verändert sich A zu A’ und bleibt Teil des Systems. Wie in den Arbeiten von 1998 und 2008
8.1 Quantenphysikalische Annäherung
385
gezeigt werden konnte, liegt jetzt eine Superposition und damit Verschränkung über das Gesamtsystem A’-B’-C’ respektive A’-B’-C’-D’ vor. Nehmen wir die 2-dimensionalen Subsysteme als Qubits, ergibt sich für die Superposition eines solchen Systems in allgemeiner Form: � |Ψ��� ⟩� = [|0⟩� + |1⟩� ] (8.19) √�
mit N für Anzahl der Subsysteme. Bezogen auf die kleinste GHZ-Konfiguration von 3Qubit folgt � � |Ψ���⟩� = [|0⟩� + |1⟩� ] = [|000⟩ + |111⟩] (8.20) √�
√�
und damit exakt die gleiche Schreibweise wie für die Anordnung bei Wigner’s Freund (8.17). Für Abb. 64 ergibt sich entsprechend: � |Ψ��� ⟩� = [|ABC⟩ + |A′B′C′⟩] (8.21) √�
Für Abb. 65 ergibt sich entsprechend: � |Ψ��� ⟩� = [|ABCD⟩ + |A′B′C′D′⟩] √�
(8.22)
Abb. 66 repräsentiert eine vereinfachte Darstellung. Analog zu den Überlegungen von GHZ und Susskind (Susskind 2016: 555–559) sind alle Subsysteme miteinander maximal verschränkt183. Wigner‘s Freund K
Wigner Abb. 66 | GHZ-Zustände von Wigner’s Freund-Gedankenexperiment Tensor-Netzwerk (eigene Darstellung in Anlehnung an Susskind (ebd. 556), in dem die Katze, Wigner’s Freund und Wigner sich in einem gemeinsamen Verschränkungszustand befinden.
Susskind zeigt nun weiter auf, dass wenn in einer solchen Konfiguration eines der drei Subsysteme betrachtet und damit unterschieden wird, die Gesamtverschränkung keinesfalls zusammenbricht. Wird Wigner wieder separiert, verbleiben Wigner’s Freund (F) und die Katze (K) in verschränktem Zustand. 183
Susskind greift bei seinen Überlegungen auf verdrillte Brane zurück. Brane (abgeleitet von Membran) sind dieser Vorstellung nach in der vierdimensionalen Raum-Zeit eingebettet und diese wiederum in einer noch höher dimensionalen Ebene, dem sogenannten Bulk. Brane stehen in Verbindung mit topologischen Strukturen und mit dem Vakuumfeld (Greene 1998); womit wiederum eine Verbindung zu den bekannten Phasenübergängen von Wilczek, Kosterlitz/Thouless und Haldane konstruiert werden darf. Auch dort handelt es sich um verdrillte topologische Strukturen.
386
oder alternativ geschrieben |Ψ��� ⟩� =
8 Modellentwicklung von der Mikro- zur Makrowelt
|0⟩� |0⟩� + |1⟩� |1⟩�
(8.16)
�
[|0� 0� ⟩⟨0� 0� | + |1� 1� ⟩⟨1� 1� |] (8.23) � „That means that the density matrix is a sum of projection operators on unentangled pure states. In other words no two parties are entangled but any one party is maximally entangled with the union of the other two“ (ebd. 557). Dies bedeutet wiederum, dass hier ein Mixed-Zustand zwischen verschränkten und separierten Subsystemen vorliegt, die beliebig zusammengeschlossen und getrennt werden können, wie bereits an anderer Stelle gesehen. Kommen Wigner oder noch weitere Subsysteme erneut hinzu, entsteht wieder ein Multi-Quarticle-Ensemble, in dem alle maximal verschränkt sind. Aus Susskind’s Perspektive kann ein weiterer Beobachter (bei Susskind wird dieser weitere Beobachter als Einstein bezeichnet) die Rolle eines Über-Beobachters einnehmen, der nicht Teil des Systems sein würde, dieses jedoch manipulieren bzw. von außen beobachten kann. Ganz im Sinne der bisher herausgearbeiteten Modellbildung stellt Susskind fest, dass ein solcher Über-Beobachter die Dinge im Rahmen der KI zwar einfach, aber unbefriedigend macht, weshalb er mit folgendem Statement abschließt: „Sooner or later we will have to give up the security of an asymptotically cold boundary, and formulate a theory in which the universe is a highly interconnected network of entangled subsystems, with no preferred uber-observer“ (ebd. 563). In Susskind’s Perspektive gibt es offensichtlich diesen Überbeobachter nicht, da er immer Teil des Systems ist. Unterschied Bell und GHZ Mit GHZ-Experiment und Bell's Ungleichungs-Test existieren zwei äquivalente Verfahren zur Unterscheidung von quantenmechanischem und klassischem Verhalten, nur dass beim GHZ-Experiment mit drei Quarticle drei Messungen ausreichen, um die Gültigkeit der Quantenmechanik mit ihrer Nicht-Lokalitätsannahme zu bestätigen. Bell’s Ansatz demgegenüber setzt eine ausreichend große Anzahl an Messungen voraus, um statistisch verwertbare Aussagen zu bekommen. Eine Besonderheit beim GHZ-Experiment ist deshalb das Nicht-Benötigen der Bellschen Ungleichung und somit der Verzicht auf Wahrscheinlichkeitsbetrachtung, da nur perfekt korrelierte Zustände gemessen werden. Geschwindigkeit der Informationsübertragung und der Begriff des Sendens Gerne wird zurückgreifend auf diesen Verschränkungsmechanismus die Idee formuliert, dass mithilfe dieser Technik Informationen von A nach B über sehr weite Entfernungen gesendet werden könnten. Aus der Perspektive der Dekohärenztheorie wird der Zustand von A nicht gesendet und der Zustand von B ändert sich nicht instantan, sondern er ergibt sich aus der Nicht-Lokalität des Quantenzustandes. Wie bereits in Kap. 8.1.2.2 zitiert, ist nach Zeh die neue Information bereits nach der Präparierung am gewünschten Ort und muss dort nur noch dekohäriert, also gemessen werden.
8.1 Quantenphysikalische Annäherung
387
Betrachten wir nochmals die Grundidee des ‚Sendens‘. Aus dem Verständnis der Physik kann mit einer solchen Verschränkung keine Information über ein Signal gesendet werden und schon gar nicht schneller als mit Lichtgeschwindigkeit (siehe auch Kap. 4.2.2). Ein solches Signal ließe sich bei seiner Reise durch den Raum beobachten, da es seinen Energiezustand abhängig von Ort und Zeit, E = E(x,t), ändert. Die Energiewelle wandert sozusagen durch den Raum. Wie bereits festgestellt, gelingt eine solche Messung und damit Beobachtung für verschränkte Quarticle nicht. Die Vorstellung darüber, wie dieser Austausch an Information tatsächlich funktioniert, also wie Quarticle A wissen kann, was bei Quarticle B passiert, wurde in Kap. 8.1.1 und 8.1.2 und mit der allgemeinen Verschränkung von Zeh beschrieben. Die Aussage ‚nicht schneller als Lichtgeschwindigkeit’ ergibt sich, wie bereits beschrieben, aus Einstein’s Relativitätstheorie, die ein solches Verhalten (senden) für materielle Objekte und Informationen verbietet und dies immer aus der Perspektive eines Beobachters beschreibt. Nun kann aber voneinander abhängige Information nachweislich bei verschränkten Systemen gemessen werden, deshalb sprechen Physiker von einer sogenannten (nicht-lokalen) Korrelation der Systeme oder dass die Information im System verteilt ist. Jetzt könnte man sich noch vorstellen, dass A und B eine Art Morse-Code schon im Vorfeld ausgetauscht haben. A und B bräuchten nur ihren Dechiffrierschlüssel über die Signale zu legen und könnten sie so übersetzen. Quantenmechanisch ergibt sich jedoch ein Problem. Um einen solchen Morse-Code zu nutzen, müssten genau definierte Impulse erzeugt werden. Solche Impulse lassen sich in der Quantenwelt nicht deterministisch festlegen. In jedem quantenmechanischen Prozess finden Zufallsereignisse statt, sodass sich ein solcher Code nicht zuverlässig erzeugen und transportieren lässt. Ob das Teilchen im obigen Photonenexperiment transmittiert oder reflektiert oder welche Spin- oder Drehimpulsrichtung gemessen wird, kann nicht vorherbestimmt werden. Aus den verschiedenen Rahmenbedingungen lässt sich nun auch ableiten, worauf sich das Verständnis der Physik – keine Information schneller als Lichtgeschwindigkeit – bezieht. Nur über die passenden Einstellungen und den Vergleich der Ergebnisse aller Detektoren sind die richtigen von den falschen Informationen zu unterscheiden. Hierzu müsste Alice zeitgleich und damit instantan mit ihrer Information über die Messung bei Bob sein, was nach Einstein für Makrosysteme unmöglich ist. Dass ich etwas messe, gibt mir noch keine Information. Erst wenn diese Messung mit einer Bedeutung versehen werden kann, erhalte ich eine Information und die bekomme ich im Photonenexperiment erst, wenn die Messungen an den Detektoren in Beziehung gesetzt worden sind. Was bedeutet, dass Alice und Bob sich auf klassischem Weg austauschen müssen, was eben nur unter Einstein’s Bedingung für Außenbeobachter funktioniert. Zudem bleiben alle sonstigen möglichen Informationen, die das Gesamtsystem darüber hinaus in sich trägt, die aber nicht mit dem Messprozess und den Voreinstellungen übereinstimmen, verdeckt und unberücksichtigt.
388
8 Modellentwicklung von der Mikro- zur Makrowelt
Innen- statt Außenperspektive Bei den ursprünglichen Experimenten, bei denen es darum geht, verschränkte von klassischen Systemen zu unterscheiden, muss Alice ihre Einstellungen und ihre Messergebnisse mit Bob teilen, um sichere Information über das Experiment zu erhalten. Aus diesem Grund wird auch der klassische Kanal benötigt, auf dem diese Informationen ausgetauscht werden. Bei den neuen Anwendungen im Rahmen der Informationstechnologie, bei denen Information codiert und gesendet werden, bedarf es ebenfalls des Abgleichs der Messergebnisse, um die Zeichenfolgen richtig zu decodieren oder unerwünschte Lauschangriffe zu erkennen. Anders sieht es innerhalb des verschränkten Systems selbst aus, also zwischen den Quarticle oder anderen Quantensystemen. Diese wissen, wie bereits ausgeführt, sehr wohl, welchen Zustand bzw. welche Information sie tragen oder repräsentieren. Damit führt ein Ereignis (z. B. Messung) bei einem der Subsysteme konsequenterweise schon zur vollständigen Information bei allen, da die Information über das Gesamtsystem verteilt ist. Weiß der Experimentator beispielsweise, dass das System nur durch Spin up und Spin down repräsentiert ist, so weiß er bei seiner Messung automatisch auch was bei den Kollegen vorliegt, wenn er selbst Spin down misst. Wenn jede Messung absolute Sicherheit und Klarheit darüber gibt, welcher Zustand bei den anderen Subsystemen vorliegt, wird noch nicht einmal ein außenstehender Beobachter ausgeschlossen. Bei genauerer Betrachtung ist dieser Beobachter aber doch nicht wirklich außenstehend, denn er muss Insiderwissen über mögliche Zustände des Systems besitzen. Da in unserem Fall doch wieder alle Beteiligten sich innerhalb des Systems bewegen, sind sie instantan in Verbindung mit allen Informationen und mithin nicht an die Vorgaben der Relativitätstheorie gebunden. Die einzige Problematik, die sich deshalb noch stellt, ist die Interpretation der Information, die die Subsysteme aufnehmen. Da Zeilinger und seine Gruppe (Lapkiewicz u. a. 2011) nachwiesen, dass die Ergebnisse auch in der Quantenphysik immer kontextabhängig sind, bestimmt das einzelne Subsystem über die Interpretation der Information. Damit ist letztlich diese Interpretation von Wissen, Verständnis und Bezugsrahmen des Subsystems abhängig und kann folglich auch unterschiedlich ausgelegt werden. Interessanterweise findet sich die gleiche Aussage auch in der Systemtheorie und ebenfalls bei Weizsäcker und Görnitz wieder. Ergänzung Bei solcher Form der QT nimmt die Qualität der Verschränkung mit der Anzahl der Versuche ab bis sie schließlich völlig in sich zusammenbricht. Von Lucadou hat in seinem Modell der Pragmatischen Information (MPI) (siehe Kap. 4.2.2.9) darauf hingewiesen, dass bei wiederholter Verwendung der exakt gleichen Versuchsanordnung und des gleichen Effekts nicht-lokale Korrelationen verschwinden, da die Gesetze der Statistik verletzt werden. Dies gilt besonders für kleinzahlige Ensembles. Deshalb scheinen sich auch räumlich höherdimensionale (Krenn u. a. 2014) und vielfache, hyperverschränkte (Xie u. a. 2015) Zustände signifikant stabiler zu zeigen.
8.1 Quantenphysikalische Annäherung
389
8.1.4.2 Strukturvergleich QT und SyA Führen wir uns jetzt die Experimente grafisch vor Augen und vergleichen sie mit der Struktur der SyA, so werden die Parallelitäten zwischen quantenphysikalischer und Aufstellungs-Konfiguration sichtbar. Eine Parallelität, die aufgrund der bisherigen Ergebnisse auf eine fundamentale Homologie schließen lässt. QT 1 Wir betrachten nun die beiden Phasen Ia und Ib der Dissertations-Aufstellung von Schlötter: Abb. 67 zeigt die Gegenüberstellung des Aufstellungssystems in Phase Ia (b) und in Phase Ib (c) der Dissertation von Schlötter im Vergleich zu einer klassischen QT mit 3 Quarticle (a). In Bild (b) ist die Ausgangssituation skizziert, in der Schlötter mit den Klienten-Systemen Aufstellungen zur Erfassung der Ist-Situation vornahm (Phase Ia). In dieser Vorbereitungsphase wurden im direkten Kontakt zwischen Fallbringer und Facilitator (B) (= Aufstellungsleiter) das Anliegen, die Zielsetzung und die benötigten Systemelemente herausgearbeitet und anschließend wurde das System über Repräsentanten aus den Unternehmen im Raum gestellt. Da der Fallbringer in irgendeiner Form bereits mit dem System als Familienmitglied, Projektmitglied etc. verbunden ist (A), entspricht diese Vorgehensweise dem BSM (Bell-State-Measurement - Verschränkung zwischen Photon aus der EPR-Quelle und dem Teilchen mit dem unbekannten Ausgangszustand) im QTExperiment. Die gefundenen Plätze wurden kartographiert und die Aussagen aufgenommen und transkribiert.
Abb. 67 | Gegenüberstellung QT und SyA in der Dissertation von Schlötter (eigene Darstellung). (a) zeigt die klassische 3-Teilchen-QT, (b) veranschaulicht die SyA zusammen mit den beteiligten Firmen zur Ermittlung der Ausgangssituation, Phase Ia, (c) veranschaulicht die Untersuchung zur Wiederholbarkeit der Wahrnehmungen während der Aufstellungen, Phase Ib.
In der Untersuchungsphase (Phase Ib) übernahmen dann zunächst Figuren die Positionen der in der Vorbereitung gefundenen Plätze der Systemelemente, um dann sukzessive durch Probanden ersetzt zu werden, die sich als Repräsentanten zur Verfügung stellten (Abb. 68). Fallbringer und Aufstellungsgruppe sind räumlich und zeitlich getrennt und
390
8 Modellentwicklung von der Mikro- zur Makrowelt
nur über den Facilitator, der die Funktion der verschränkten Photonen übernimmt, verbunden, wie Alice und Bob, die ebenfalls räumlich getrennt und über die verschränkten Photonen verbunden sind. Aus diesem Grunde entspricht die Dissertations-Aufstellung zu 100 % der Konfiguration einer QT.
Abb. 68 | Testanordnung zur Überprüfung der ‚repräsentierenden Wahrnehmung’ Schlötter ersetzt die Repräsentanten bei seiner Überprüfung durch personengroße Figuren. Die Versuchsteilnehmer stellen sich dann sukzessive auf die einzelnen Plätze und fühlen sich dort ein, nur noch umgeben von den Figuren. (eigene Darstellung)
Die bereits stehenden Figuren teilen die Art der Beziehung im und zum System mit, wodurch eine 'klassische Informationsübertragung' wie im QT-Experiment stattfand. Im Versuchsaufbau hatten diese Repräsentanten keine darüber hinausgehenden Informationen, also auch keine weiteren Interna über das System. Zudem ist der Fallbringer zum jetzigen Zeitpunkt nicht mehr anwesend. Die einzigen Verbindungen sind nur noch der Facilitator und die Repräsentanten. Der Facilitator entspricht jetzt der EPR-Quelle. Im nächsten Schritt werden die Repräsentanten durch den Facilitator auf ihre Positionen geführt, wobei er seine Hände auf die Schultern der Repräsentanten legt (C). Das Ganze findet in ruhiger, gesammelter Aufmerksamkeit statt. Dies entspricht der Verschränkung zwischen dem Photon und Bob und es entspricht dem von Neumann geforderten speziellen Bewusstseinszustand. Der Facilitator wechselt jetzt in die Rolle des Versuchsleiters und notiert nur noch die Wahrnehmungen und Interpretationen der Repräsentanten. Bei den Dissertations-Aufstellungen zeigt sich wie bereits beschrieben eine überragende Übereinstimmung der Wahrnehmung an den unterschiedlichen Plätzen. QT 2 Nun zum Ablauf in einer klassischen SyA (siehe Abb. 69). In Phase I werden üblicherweise keine zwei Phasen unterschieden, außer man trennt zwischen Auswahl der Forschungsfrage und Auswahl der Systemelemente (I-A) und der ersten Aufstellung (I-B). In jedem Fall lassen sich immer wieder Phänomene beobachten, die sehr deutlich auf den QT-Mechanismus hinweisen. Unter bestimmten Umständen treten bei diesen normalen Aufstellungssettings Merkwürdigkeiten auf, die für die meisten Aufsteller selbst befremdlich sind. Noch während des Klärungsprozesses zwischen Fallbringer und Facilitator reagieren einzelne Gruppenmitglieder mit körperlichen und emotionalen Wahrnehmungen, obwohl sie eigentlich noch in der Zuhörerrolle sein sollten und noch nicht als Repräsentanten ausgewählt und an ihre Plätze geführt wurden.
8.1 Quantenphysikalische Annäherung
391
Abb. 69 | Gegenüberstellung QT und normale SyA (a) zeigt die klassische 3-Teilchen-QT, (b) veranschaulicht die normale, klassische SyA. Fallbringer, Facilitator und Aufstellungsgruppe sind räumlich gleichzeitig anwesend (eigene Darstellung). Neben der (klassischen) Information über die Darstellung der räumlichen Zuordnung darf auch von einer Information mittels direkter Verschränkung zwischen Fallbringer und Aufstellungsgruppe ausgegangen werden.
Im Unterschied zur Dissertations-Aufstellung sind bei einer klassischen (normalen) SyA Fallbringer, Facilitator und Aufstellungsgruppe von Anfang bis Ende zusammen in einem Raum. Die Gruppe hört dem Vorgespräch (B) zwischen Fallbringer und Facilitator zu und bekommt auch mit, wie und wohin die Repräsentanten gestellt werden (klassische Information). Wenn wir davon ausgehen, dass sich Facilitator, Aufstellungsgruppe und Fallbringer noch nicht kennen, würde die Verschränkung (D) in Bild (b) spätestens dann stattfinden, wenn die ausgewählten Repräsentanten durch den Fallbringer an ihre Plätze geführt werden. Die Repräsentanten könnten jetzt die Information über die Verschränkung mit dem Fallbringer bekommen, der die Funktion der EPR-Quelle übernehmen kann. Am Ende der ersten Aufstellung, wenn die Repräsentanten an ihre Plätze geführt wurden und erste Rückmeldungen gegeben haben, kann sich der Facilitator beim Fallbringer vergewissern, ob sie sich im richtigen System befinden. Dieses Vergewissern findet vor allem dann statt, wenn die Repräsentanten Irritationen zeigen oder Schwierigkeiten haben, zueinander passende Wahrnehmungen zu generieren. Dies entspricht genau dem Justierungsprozess im klassischen QT-Experiment. Die dabei durch den Fokus eingebrachte zusätzliche Information führt zu Anpassungsprozessen (Refokussierung) und die Aufstellungsgruppe wird arbeitsfähig, weil wieder maximal verschränkt für das zu untersuchende Thema. Nun sind SyA üblicherweise keine 3-Quarticle-Systeme, auch wenn man einen Menschen als Quarticle definiert, sondern deutlich vielzahliger, womit eine GHZ-Anordnung eine geeignetere Darstellungsform bietet. Zudem entspricht die GHZ-Konfiguration in noch stärkerem Maße einer SyA. In der Gegenüberstellung (Abb. 70) des strukturellen Aufbaus des GHZ 4-QuarticleExperiments (a) und der SyA (b) fällt die Ähnlichkeit ins Auge. Ein zu untersuchendes
392
8 Modellentwicklung von der Mikro- zur Makrowelt
System A-B, das sich in der Regel aus mehreren Subsystemen zusammensetzt, wobei der Fallbringer ein Teil dieses Systems ist, teilt sich auf in Fallbringer B und ‚Rest’ A.
Abb. 70 | Struktur GHZ-Experiment für ein 4-Quarticle-System (a) und SyA (b) (eigene Darstellung). Die Strukturen in der quantenphysikalischen Versuchsanordnung und der SyA sind direkt vergleichbar.
Fallbringer B und Facilitator C gehen dann üblicherweise in nahen und intensiven Kontakt, um das Ziel der Untersuchung und die aufzustellenden Elemente zu bestimmen. Nehmen wir nun wie bisher an, dass diese Nähe zu einer physikalischen Interaktion auf der subatomaren (Photon-, Elektron-, Atom- und Molekül-)Ebene führt, so kann man von einer Verschränkung im Sinne Erwin Schrödinger’s sprechen (B’-C’). Diese physikalische Nähe ist üblicherweise auch für Fallbringer und zu untersuchendes System anzunehmen. Damit entspricht das zu untersuchende System einer EPRQuelle 1 von der zwei verschränkte Subsysteme A und B ausgehen. Der Facilitator entspricht einer EPR-Quelle 2 besonders dann, wenn er vorher schon in intensivem Kontakt mit den Mitgliedern der Aufstellungsgruppe (D’) stand. In letzterem Fall kommt es, wie bereits beschrieben, zu der immer wieder beobachtbaren Merkwürdigkeit, dass die Gruppenmitglieder ab dem Zeitpunkt des Kontaktes Facilitator mit Fallbringer (C’-B’) Wahrnehmungen in Bezug auf Systemelemente und damit Subsysteme des zu untersuchenden Systems A’ haben. Wenn man sich die Aufstellungsstruktur genau ansieht, wird deutlich, dass es noch einen gespiegelten QT-Prozess im Bild (b) zwischen Fallbringer-Facilitator-Aufstellungsgruppe geben kann. Die Merkwürdigkeit, dass einzelne Gruppenmitglieder bereits reagieren bevor sie ausgewählt und auf ihre Plätze geführt wurden, wird dann möglich, wenn eine Verschränkung zwischen Facilitator und Gruppenmitgliedern bereits im Vorfeld entstand. Und in der Tat ist dieses Phänomen häufig dann beobachtbar, wenn Facilitator und Repräsentanten sich gut kennen, oft zusammengearbeitet haben und alle sich gut auf die gesammelte Aufmerksamkeit einlassen können. Sie sind sozusagen schon mit Elementen der Aufstellungsthematik über den Facilitator verbunden/verschränkt und haben damit Zugang zum Herkunftssystem des Fokus. Dadurch kann gezeigt werden, dass es sich ebenfalls um eine QT handeln müsste. Würde die Vorstellung der Raumkoordinaten wirklich tragen, dürfte es dieses Phänomen nicht geben, womit dieser Erklärungsversuch tatsächlich hinfällig geworden ist.
8.1 Quantenphysikalische Annäherung
393
Tatsächlich ergibt sich neben der Verschränkung über die direkte Berührung und der damit verbundenen maximalen Interaktion der Körperfelder noch eine zweite Form der Verschränkungsmöglichkeit. Neben der Verschränkungsannahme, die ggf. schon länger zwischen C und D besteht, gibt es auch hierfür noch eine alternative Erklärung. Die Gesamtgruppe ist ab dem Zeitpunkt des Zusammentreffens zumindest schwach verschränkt, eben über Atem, Blick und Körperstrahlung. Wir wissen, dass durch Einatmen von Bazillen Krankheiten übertragen werden, was in diesem Sinne nichts anderes als eine physikalische Verschränkung höherdimensionierter Entitäten darstellt. Genauso ist es unmöglich, ohne eine physikalische Interaktion jemanden zu sehen. Beim Sehvorgang besteht eine Interferenz von EM-Wellen bzw. Photonen, deren Repräsentanz im Gehirn einen Seheindruck vermittelt. Auch dies lässt sich als Verschränkung zweier physikalischer Systeme interpretieren. Mit Beginn der Beschreibungen des Fallbringers findet eine Fokussierung und infolgedessen eine Maximierung der Verschränkungszustände statt. Die Ausrichtung auf ein Thema dekohäriert dieses und die damit verbundenen Entitäten und Zusammenhänge vom Umfeld, bei gleichzeitiger Kohärenzerhöhung zwischen den Entitäten. Dass diese Maximierung der Verschränkung durch einen eher mental getriebenen Prozess vollzogen wird, ergibt sich aus den Fällen, in denen völlige Blindaufstellungen erfolgen. Nur der Fallbringer weiß welches Thema bearbeitet wird und wer wofür steht. Da dieses Verfahren ebenfalls sehr gut funktioniert, auch für Themen, bei denen keiner der Gesamtgruppe mit den untersuchten Themen in direktem Kontakt steht, drängt sich sogar eine Kopplung über das Vakuumfeld auf. Damit bietet sich eine weitere Parallele zu rein physikalischen Experimenten an. Spätestens wenn der Fallbringer die einzelnen Mitglieder der Aufstellungsgruppe an ihre Plätze führt (mittels Kontaktes der Hände auf den Schultern), kommt es zu weiteren körperlichen Interaktionen. Auch hier darf eine physikalische Interaktion auf der subatomaren Ebene angenommen werden, denn direkte Körperkontakte führen häufig, speziell bei unerfahrenen Repräsentanten, zu unmittelbaren deutlichen Verbesserungen der Wahrnehmung. Folglich sind sowohl Fallbringer als auch Facilitator und AufstellungsGruppe verschränkt, was in der Form B’-C’-D’ zum Ausdruck gebracht werden soll. Aufgrund der ursprünglichen Verschränkung von zu untersuchendem System (A) und Fallbringer (B) liegt damit entsprechend dem GHZ-Theorem eine Verschränkung und Superposition über das Gesamtsystem A’-B’-C’-D’ vor. Entsprechend dem GHZ-Theorem ist deshalb davon auszugehen, dass die Informationen, die sich aus der Aufstellung und dem Lösungsbild ergeben, zeitgleich im nicht lokal vorhandenen ‚Rest’ des zu untersuchenden Systems existent sind. Diese Informationen müssen auch nicht mehr erst zu den Subsystemen auf klassischem Wege transportiert werden. Sprich, hier benötigt es keine explizite verbale oder nonverbale Kommunikation. Würde zeitgleich an allen Subsystemen eine Messung vorgenommen werden, müsste überall mit 100 %-iger Sicherheit die gleiche Informationslage gemessen werden können.
394
8 Modellentwicklung von der Mikro- zur Makrowelt
Zwischenresümee QT Verschränkung im Gesamtsystem und damit verbundene Kohärenz in der Aufstellungsgruppe stellen vermutlich die Hauptmechanismen der ersten Phase dar. In dieser Phase wird eine phänomenologische Diagnose vorgenommen, die durch Rückmeldungen des Fallbringers in vielen Fällen sofort und in manchen, wie bei den SyA in Kap. 3.3.3, erst später bestätigt wird. Die Verschränkungs- und Informationsprozesse verlaufen bisher absolut identisch zu den QT-Experimenten. Da Schlötter und Andere (Kap. 3.3) wissenschaftlich nachweisen konnten, dass die Informationen, die in der Aufstellungsgruppe erscheinen, nicht von dieser gewusst werden konnten und gleichzeitig eine sehr hohe Signifikanz zum Kontext des untersuchten Systems aufwiesen und damit experimentell zweifelsfrei bestätigt wurden, kann es nur noch darum gehen, zu verstehen, wie diese Fakten zustande kommen. Die Interpretation über Raumsprache scheidet in diesen Fällen wie gezeigt wurde aus. Die klassische Physik kann ebenfalls keine Antworten liefern im Gegensatz zur Quantenphysik. Bei Letzterer liegen gut erforschte und beschriebene Mechanismen vor, die in vollem Umfang auf die vorliegenden Phänomene zutreffen. Parallelen zum Quanten-Computing in der Übergangs- und Lösungsfindungs-Phase Nachdem in der Phase I herausgearbeitet bzw. sichtbar wurde, wie sich die Situation im untersuchten System darstellen könnte, wird mit der Übergangsphase (Phase II) begonnen, in der Suchprozesse stattfinden. Der Übergang in die finale Lösungsphase (Phase III) findet dabei meist kontinuierlich statt. Die Arbeitsweise während der SyA und damit die Intention wird Richtung einer Lösung verändert, die zu Beginn vom Fallbringer formuliert wurde. In der Aufstellung werden verschiedene Möglichkeiten durchgespielt, wobei die Repräsentanten versuchen durch Wahrnehmen von Impulsen, die jeweils mit ‚besser‘ oder ‚schlechter‘ bewertet werden, ein Lösungsbild zu generieren. Die Repräsentanten müssen keine Idee oder gar ein Wissen von den Lösungsoptionen haben. Gesucht wird eine Lösung, die für alle Repräsentanten ein gutes Gefühl auf ihren Plätzen vermittelt. Lösungen auch für sehr komplexe und/oder unbekannte Herausforderungen sind üblicherweise innerhalb weniger Minuten bis nicht viel länger als eine Stunde gefunden. Auf den ersten Blick scheint der Prozess analog zu dem Rechenprozess eines herkömmlichen Computers mit ja/nein (0/1) Antworten zu laufen. Tatsächlich gibt es aber alle Möglichkeiten dazwischen: ein bisschen mehr, ein bisschen weniger, ja – aber, unter den und den Bedingungen. Bei genauer Betrachtung lassen sich all die Möglichkeiten finden, die in Verbindung mit den beim Quantum-Computing beschriebenen Qubits definierbar sind. Die Logik dahinter entspricht dem Herausfiltern einer Lösung, die am besten für das betroffene System geeignet ist. Während des Suchprozesses sind zahlreiche Superpositionen an Möglichkeiten vorhanden, von denen auf die richtige Antwort heruntergerechnet wird. Görnitz schreibt mit Bezug auf Rechenprozesse im QuantenComputer: „dass während des Rechenprozesses keine Fakten entstehen dürfen. Erst am Ende der Berechnung wird eine Messung durchgeführt, die dann – allerdings nur mit
8.1 Quantenphysikalische Annäherung
395
einer gewissen Wahrscheinlichkeit – ein richtiges Ergebnis liefert“ (Görnitz und Görnitz 2009: 113). Diese Messung am Ende entspricht dem Abschlussbild, mit dem die SyA beendet wird. Die Aufstellungsgruppe ist in der Lage in extrem kurzer Zeit sehr komplexe und verdeckte Sachverhalte zu analysieren und Lösungsansätze zu entwickeln, die weit über das Potential und Wissen der einzelnen Repräsentanten hinausgehen. So lassen sich beispielsweise Strategie- oder Marketingfragen innerhalb weniger Stunden beantworten, wofür eine klassische Vorgehensweise Wochen und Monate benötigen würde - bei gleich gutem oder besserem Ergebnis, wie Praxiserfahrungen 184 gezeigt haben. Menschen und soziale Systeme sind scheinbar in der Lage Lösungen zu generieren, die nicht deterministisch vorgegeben sind und weit über die Einzelkompetenzen hinausgehen. Dabei wird nicht logisch-rational gearbeitet, was dem klassischen Computer entspricht, sondern parallel mit allen Möglichkeiten gleichzeitig, entsprechend den Superpositionen zwischen den Qubits im Quanten-Computer. Erst bei Zwischenabfragen/messungen entstehen kurzzeitig Fakten (schwache Quantenmessung), die eine Orientierung, aber noch kein finales Ergebnis darstellen, wohl aber eine Veränderung der Informationslage. Eine erneute Refokussierung nach den Abfragen verbessert wieder die Wahrnehmungsfähigkeit der Repräsentanten. Das für die Zukunft leitende Ergebnis/Faktum entsteht erst am Ende des Gesamtprozesses im Abschlussbild. Dekohärenz, QT 3 und Quanten-Zeno-Effekt Mit dem Abschlussbild ist der Möglichkeitsraum auf der Ebene der Ideen und Vorstellungen fixiert (in der KI: zum Faktum kollabiert; in der Dekohärenz-Theorie: ausreichend separiert, unterscheidbar und eigenständig geworden) und das Ende der Lösungsphase (Phase III) erreicht. In der Regel geht zu diesem Zeitpunkt der Fallbringer selbst in die Aufstellung, um das Abschlussbild zu erleben. Die Repräsentanten gehen wieder in ihre eigene Rolle zurück, durch Fokussierung auf sich selbst und damit wieder in einen dekohärenten Zustand. Solange die Repräsentanten in der SyA in der gleichen gesammelten Aufmerksamkeit waren, hat sich die Aufstellungsgruppe im Gleichklang befunden (Kohärenz) und jedes Element konnte so kleinste Veränderungen im System wahrnehmen, was nach der abschließenden Individualisierung nicht mehr möglich ist. Dass es immer wieder vorkommt, dass Repräsentanten Schwierigkeiten haben aus der Rolle heraus zu gehen und dabei das Gefühl haben, noch mit Teilen aus der Rolle verbunden zu sein, weist ebenfalls auf den quantenmechanischen Effekt der Verschränkung hin. Durch die Interaktion mit dem repräsentierten Systemelement sind sie nicht mehr wie vorher eigenständig, sondern in einem verschränkteren, gemeinsamen Zustand. Im Organisationskontext findet direkt im Anschluss der SyA meist eine Überprüfung der Ergebnisse und Überlegungen statt, wie diese in den Alltag transferiert werden können. Auf kognitiver Ebene erfolgt eine Nacharbeitung der Ergebnisse. Damit ergibt sich 184
Bei den Praxiserfahrungen handelt es sich um verschiedene Rückmeldungen von Kollegen und Mitgliedern meiner Experimentiergruppe.
396
8 Modellentwicklung von der Mikro- zur Makrowelt
eine vollständige, homologe Verbindung zwischen den Empfehlungen aus der Entscheidungstheorie und dem 5-Phasen-Modell in Kap. 3.2.4.: Sich 1. mit dem Thema, den Zielen, Kontext, Intention etc. bewusst befassen, 2. unbewusst sammeln, 3. intuitive Impulse wahrnehmen und 4. kognitive Prüfung. In der Realisierungsphase IV (die Zeit danach) zeigt sich nun das dritte Phänomen, das auf die QT hinweist: Erstaunlich häufig kann im direkten Anschluss an eine SyA ein signifikant verändertes Verhalten von Personen wahrgenommen werden, die der Aufstellung nicht beigewohnt haben und sich tatsächlich räumlich weit weg befanden. Beispiele hierfür sind ‚Kontaktaufnahme’ nach Jahren und Jahrzehnten, 180°-Drehung, was die eigene Haltung zu einem Thema betrifft, überraschendes Entgegenkommen, was bisher unvorstellbar war. Wenn die QT aus Phase I, II und III die richtige Beschreibung des dahinter liegenden Mechanismus ist, ergibt sich jetzt die zwingende Schlussfolgerung, dass wieder eine QT vorliegt, jetzt nur in umgekehrter Richtung. Von der Aufstellungsgruppe ‚fließt’ die Information des Abschlussbildes via Verschränkung zurück zum Ursprungssystem. ‚Spooky action’ zum Dritten. Mit dieser ‚Rück-Teleportation' ins nicht anwesende Ursprungssystem werden ebenfalls die Erkenntnisse von GHZ bestätigt. Ein letzter Bezug zur Quantenmechanik: Besonders in Familienaufstellungen hat sich als hilfreich erwiesen, das Lösungsbild wirken zu lassen und nicht ständig zu schauen, ob sich schon etwas getan hat. Es geht darum, das ‚Unzufriedenstellende der Ausgangssituation’ loszulassen. Sowohl in Familien als auch in Teams und Organisationen ist es sinnvoll den Fokus auf das Lösungsbild, die Neuausrichtung zu legen. Ständige Beobachtung des ‚Alten’ wird den gewünschten Veränderungsprozess Richtung Lösungsbild verlangsamen. Hier ist eine deutliche Parallele zum Quantum-Zeno-Effekt zu beobachten. Also der Effekt, dass unter ständiger Beobachtung die Prozesse (z. B. radioaktiver Zerfall) zum Stillstand gebracht werden können. Loslassen des Alten und Fokussierung auf das Neue vermeidet der Quanten-Zeno-Effekt auch in sozialen Systemen, so zumindest die These. Realisierungswahrscheinlichkeit von Aufstellungen Gerne wird die Effektivität von Aufstellungen in Bezug auf ihre Wirkung in der realen Umwelt als Maß für die Glaubwürdigkeit der Methode herangezogen und untersucht. Dass dieser Ansatz tatsächlich an der falschen Seite der Problemstellung ‚Glaubwürdigkeit’ ansetzt, wird mit folgender Überlegung deutlich: Nach einer Aufstellung ist natürlich nicht gesichert, dass alle in der Aufstellung eingebundenen Subsysteme über eine beliebig lange Zeit ungestört bleiben. Wie zu Recht in der Quantenphysik angenommen wird, finden in unserer Makrowelt ständig physikalische Interaktionen von System und Umwelt statt. Zeh formuliert deshalb, dass Verschränkungen den normalen Zustand für unseren Lebensraum darstellen und das Vermeiden einer solchen, die zentrale Herausforderung für die Experimente bedeutet.
8.1 Quantenphysikalische Annäherung
397
Störungen durch lokale andere Einflüsse (z. B. Kontakte) bei einem der beteiligten Subsysteme im Anschluss bedeuten in unserem Fall also eine sofortige weitere Überlagerung mit anderen Informationen und Intentionen. Diese können die Ergebnisse der Aufstellung natürlich verwässern, verändern oder ganz aufheben. Genau aus diesem Grund kann nicht mit einer 100 %-igen Manifestation des Aufstellungsergebnisses in der uns wahrnehmbaren Realität gerechnet werden. Hier macht die in der Quantenphysik typische Wahrscheinlichkeitsaussage wieder Sinn. Wahrscheinlichkeitserhöhend scheint der Grad der Intensität und Emotionalität des Fallbringers zu sein, was aber in entsprechenden Untersuchungen noch fundiert werden müsste. Als weiteres Hindernis für eine 1:1-Realisierung darf die Erkenntnis aus der Intuitionsforschung angesehen werden, bei der erkannt wurde, dass die unterbewusste Information und Intention mit den Zielen und Vorlieben des Empfängers korrelieren müssen, wollen sie sich erfolgreich realisieren. Auch hier muss eine relativierende Wirkung angenommen werden. Relevanter für Glaubwürdigkeit von SyA und Intuition erscheint insofern eher eine Übereinstimmung mit dem Ist-Zustand, wie es Schlötter untersuchte und was einer phänomenologischen Diagnose entspricht. 8.1.5
Conclusio aus der quantenphysikalischen Annäherung
Quintessenz aus der physikalischen Betrachtung Die Experimente und Erkenntnisse in der neueren Physik weisen nicht nur auf eine Überwindung lange Zeit aufrechterhaltener Paradigmen hin. Vielmehr existiert eine vollständige Übereinstimmung mit physikalischen Modellen der jüngeren Zeit: 1. Es lässt sich ein vollständiger, in sich geschlossener Prozess vom Quantenvakuum bis hin zum Kosmos beschreiben und mit Übergangsmechanismen versehen. Lebende Systeme bilden darin eine spezifische Entität, die ohne Brüche der Gesetzmäßigkeiten interpretierbar sein sollte. 2. Das zu untersuchende System, die Messapparatur und der Beobachter sind zwingend miteinander verschränkt, weshalb Messungen vom Beobachter abhängen und es keine objektiven Ergebnisse geben kann. 3. Kein heute existierender Messprozess vermag alle im System vorhandenen Informationen abzurufen. Deshalb liefert jede Messung nur ganz spezielle Ergebnisse und letztlich immer nur einen unvollständigen Satz an Informationen, aber nie alles. 4. Ergebnisse unterliegen immer einer Interpretation, weshalb sich objektive Resultate verbieten. 5. In unserer Welt existieren auch Situationen, die wir als eine Steuerung der Vergangenheit ansehen können und damit Korrelationen in die Vergangenheit hinein existieren.
398
8 Modellentwicklung von der Mikro- zur Makrowelt
6. Schwache Quanten-Messungen vernichten keine Überlagerung und verändern deshalb keinen Quantenzustand nachhaltig oder lassen ihn gar ganz zusammenbrechen. 7. Schwache Überlagerungen lassen sich zu vollständigen Überlagerungen und damit zu maximaler Verschränkung modifizieren. 8. Die Nicht-Lokalität in jedem klassischen Zustand ist in verborgener Weise vorhanden und damit erscheinen klassische Objekte nur vordergründig klassisch. Dass diese Beschreibungen nicht nur auf Quantensysteme und damit auf mikroskopische Dimensionen zu projizieren sind, wird von Penrose sehr deutlich formuliert (Penrose 2009: 218). Er weist darauf hin, dass die Quantenwelt die Ursache für die für uns sichtbare klassische Welt darstellt und somit mit dieser in Wechselwirkung tritt. Schlussfolgerungen aus der QT und dem GHZ-Theorem „Im Zusammenhang mit dem GHZ-Theorem lassen sich folgende wesentliche Aussagen beschreiben, die in analoger Weise auch für SyA zutreffen: Es handelt sich um Mehrteilchensysteme und damit um Quantenfelder. Im Gesamtaufbau liegen gleichzeitig Mix-Zustände von Quanten- und klassischen Systemen vor. Es braucht keinen zusätzlichen klassischen Informationskanal. Sicherzustellen ist nur der Akt der Verschränkung zwischen den Subsystemen. Die Verschränkung bricht nach der Messung nicht zusammen, sondern bildet über alle Subsysteme eine Superposition aus und liegt instantan im gesamten System vor – zumindest solange keine Störung von außen erfolgt. Teleportiert wird auch die Verschränkung selbst. Die Interpretation der Information hängt vom Beobachter ab und kann nicht als kontext-unabhängig angesehen werden.“ (Gehlert 2014) Sowohl im GHZ-Experiment als auch bei SyA zeigen sich Phänomene, die über unsere normale klassische Vorstellung und unser scheinbares Zeiterleben hinausgehen. Sie befinden sich jedoch in vollständiger Übereinstimmung mit unserem Wissen über die Quantenwelt. Insofern erscheint die Vermutung richtig, dass die Quantenphysik in keiner Weise counter-intuitiv ist, sondern unser bisheriges Verständnis bzw. unsere Interpretationen nur ein solches vermittelt. Damit sind auch Antworten auf das quantenphysikalische Messproblem mit einem möglichen Kollaps der Superposition, der Übertragungsproblematik ‚nichts ist schneller als Licht’ und der Interpretation von Informationen in einer Weise beantwortet, dass sie keine Relevanz mehr – im Sinne von Einschränkung – für die Experimente und ihre Ergebnisse aufweisen. Im Grunde repräsentieren GHZ-Experimente beliebige vielteilige Quantenfelder. Gehen wir jetzt weiter davon aus, dass Lebewesen aufgrund ihrer metastabilen EM-Bauweise
8.1 Quantenphysikalische Annäherung
399
ihrer Basiselemente (Atome, Moleküle, Synapsen ...) makroskopische Quantenfelder darstellen, die wiederum miteinander interagieren, so lässt sich die Funktionsweise von SyA analog dazu in Beziehung setzen. Alle derzeit beobachteten Phänomene im Rahmen von Aufstellungen ließen sich nachvollziehbar erklären und das auf dem Boden der Naturwissenschaften (vgl. Gehlert 2014). Bei SyA benötigt man aufgrund der GHZ-Modalitäten zudem keine Bell-Statistik, sondern nur den Abgleich zwischen Fallbringer und Repräsentanten. Der Fallbringer kann sofort erkennen, ob eine Verschränkung vorliegt, indem die Wahrnehmungen mit seinem Erleben oder seinem Kenntnisstand übereinstimmen. Als dritter Abgleich darf die Überprüfung der Ergebnisse der Aufstellung im Realitätscheck, z. B. bei technischen Geräten in der Werkstatt, angesehen werden. Exakt diese Bedingungen lagen bei allen den erstaunlichen Beispielen in Kap. 3.3.3 vor. Übertragung auf die Interaktion zwischen Menschen Aus den Verschränkungs-Experimenten185 wurde deutlich, dass mit Zunahme der Dimensionalität, also der räumlichen Ausdehnung, und mit der Zunahme unterschiedlicher Zustände die Stabilität der Kohärenz von Quantensystemen gegenüber Umwelteinflüssen zunimmt. Zum Zweiten wurde von den Forschern ebenfalls herausgearbeitet, dass mit Zunahme der internen Wechselwirkungen ein System sich ebenfalls gegen äußere Einflüsse immer besser zu schützen vermag. Übertragen wir diese physikalischen Vorgaben auf Lebewesen, so lassen sich alle drei Vorgaben direkt auf sie anwenden. Sie sind räumlich höherdimensional ausgebreitet, besitzen eine Überlagerung von unendlich vielen unterschiedlichen Zuständen und weisen eine höhere innere Wechselwirkung auf als gegenüber dem Umfeld, da sie sich ansonsten auflösen würden. Daraus abgeleitet lassen sich zumindest zwei Möglichkeiten der physikalischen Interaktion darstellen. Zum einen sind biochemischen Prozesse im menschlichen Körper EM-Natur, die sich über den gesamten Körper ausdehnen und die nicht an der Körpergrenze enden. Dies begründet die Annahme, dass Interaktionen zwischen Menschen bei räumlicher Nähe oder körperlichem Kontakt mit physikalischen Reaktionen einhergehen und damit zu den gleichen Verschränkungen führen, wie sie auf subatomarer Ebene erforscht sind (siehe Abb. 71). Experimentell ließen sich bisher indirekte beobachtbare Kohärenzen bei Menschen bzw. bei Kopplungen zwischen Menschen und technischen Geräten nachweisen (Kap. 3.2.3 Entscheidungstheorie, Kap. 3.3.2 und 3.3.3 SyA, Kap. 4.1.3 Intuitionsforschung). Solche indirekten Messungen stehen durchaus im Einklang mit physikalischen Experimenten, denn auch dort sind viele Zustände nur indirekt messbar. Die Verschränkungsexperimente zeigen sehr deutlich die Möglichkeit einer Wechselwirkung zwischen Untersuchungsobjekt – Messapparatur – Beobachter und seinem Bewusstsein.
185
Die folgenden Inhalte sind im Wesentlichen übernommen aus (Gehlert 2015a).
400
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 71 | Physikalischer Kontakt über Körperkontakt, Energiefelder oder Photonen-Emission (eigene Darstellung).
Diese Interaktionen sind physikalisch mit dem Compton-Effekt bzw. Doppler-Effekt (Kap. 8.1.2) beschreibbar, die dann automatisch eine Verschränkung der betroffenen Systeme nach sich ziehen. Gleichzeitig ist damit eine Ausdehnung von der Quantenmechanik zur Quantenfeldtheorie verbunden, da wir es jetzt nicht mehr mit kleinzahligen Quarticle zu tun haben. Abb. 72 zeigt die Ausdehnung von Ψ von der Mikro- zur Makrowelt. Nach der Logik der Quantenphysik repräsentiert ein von einem Gesamtsystem abgegebenes Teilsystem die Ψ-Funktion des Gesamtsystems, da es mit diesem verschränkt ist. Also repräsentiert die Ψ-Funktion eines Quarticle, das von einem System abgeben wird, die Ψ-Funktion dieses Systems, analog zum Versuchsaufbau von Wigner’s Freund und der GHZ-Konfiguration.
Abb. 72 | Ausdehnung von Ψ von der Mikro- zur Makrowelt (eigene Darstellung). Mit der gleichen Logik mit der Ψ bis zu Milliarden-Ensembles ausgedehnt wurde, wird es jetzt bis zum Gesamtsystem Mensch erweitert. Auf jeder Stufe beschreiben die Ψ-Funktionen das jeweilige System vollständig.
Selbiges gilt konsequenterweise auch für die abstrahlenden EM-Wellen. Unter bestimmten Voraussetzungen kann nun die Möglichkeit angenommen werden, dass sich zwischen den anwesenden Personen eine Kohärenz der Wellenfunktionen aufbaut, bei dem das Gesamtsystem dann eine gemeinsame Wellenfunktion bildet und so durch die
8.1 Quantenphysikalische Annäherung
401
Superposition aller Teilnehmer die Informationen des Fallbringers auch den anderen Anwesenden zur Verfügung stehen. Die resultierende Wellenfunktion lässt sich dann beschreiben durch: (8.24) Ψ��� (x�⃗, t) = ∑���� c� Ψ� (�x⃗, t) Mit Ψ� (x�⃗, t) als Wellenfunktion aller einzelnen beteiligten Personen i am Ortsvektor x zum Zeitpunkt t. In der Quantenphysik ist allerdings zu berücksichtigen, dass es sich zunächst nur um Wahrscheinlichkeiten (Kopenhagener Interpretation) bzw. um Möglichkeiten (Everett - Bohm) handelt, die erst durch Messung zum Faktum werden. Aus diesem Grund ändern sich die Schreibweise und die Bedeutung ihrer Komponenten: |Ψ��� � = ∑���� c� |Ψ� ⟩ (8.25) Der Gesamtzustand |Ψ��� � wird durch die Überlagerung seiner Einzelzustände |Ψ� ⟩ beschrieben, mit c� als komplexe Wahrscheinlichkeitsamplitude. Befinden sich diese Zustände über ihrem Grundzustand, werden sie gemeinhin auch als ‚Erregungszustände’ (excitation state oder excited state) bezeichnet. Analog zur Physik gilt auch in der Kommunikation zwischen sozialen Systemen, dass diese umso besser gelingt, je ähnlicher sich ihre Erregungszustände gestalten. In der Kommunikation und Therapie spricht man dann davon, sich auf die gleiche Wellenlänge zu begeben. Auch hier findet sich somit sogar eine wortwörtliche Parallele zwischen Physik und Psychologie, die vermutlich ebenfalls nicht zufällig, sondern einer sehr guten Intuition entsprungen ist. Denn auch die Interferenz von Wellen gelingt um so besser, je ähnlicher ihre Frequenzen und damit ihre Erregungszustände sind. Selbst bei Unterschieden in den Ψ-Funktionen, sogenannte Potential-Barrieren, gibt es durch den Josephson-Effekt die Möglichkeit diese Barrieren zu überwinden. In seiner verallgemeinerten Form ist er auf zwei makroskopische Wellenfunktionen, die schwach miteinander gekoppelt sind, übertragen worden. Die einzige Schwierigkeit diesen Formalismus tatsächlich anzuwenden, besteht im direkten Handling dieser physikalischen Größe Ψ für psycho-soziale Systeme. Auch wenn wir sie in der Neudefinition entsprechend erweitert haben, wird sie üblicherweise nur mit Zahlen aus der physikalischen Welt gespeist. Der Vollständigkeit halber müssten mathematische Wege gefunden werden, die auch psychologische und biologische Informationen in diese Form bringen. Tatsächlich erscheint das heute nicht mehr unmöglich, lernen ja bereits Computer Gefühle von Menschen zu erkennen und adäquat darauf zu reagieren. Nachdem unter Physikern nach wie vor die Frage diskutiert wird, inwieweit die Wellenfunktion real und damit auch mit einer tatsächlichen Welle gleichgesetzt werden kann, scheint mit der Neu-Definition diese Diskrepanz beantwortet zu sein. In jedem Fall bildet sich der mathematische Formalismus in der konkreten Welt ab und lässt die Wellenfunktion als physikalisch reale Größe erscheinen. In Anbetracht der praktischen Ergebnisse wie sie sowohl in den quantenphysikalischen als auch bei den oben aufgeführten Untersuchungen zur Entscheidungstheorie- und Intuitionsforschung vorliegen und sich bei der SyA zeigen, scheint mir dieser Rückschluss nicht allzu gewagt. Unter-
402
8 Modellentwicklung von der Mikro- zur Makrowelt
stützt wird diese Annahme von Veröffentlichungen der letzten Jahre, die sowohl Möglichkeiten kohärenter als auch deterministischer Informationsübertragung über weite Distanzen in unserem normalen Umfeld erzeugen und nachweisen konnten. Diese neuen QT-Verfahren zeigen Wege auf, in denen QT auch ohne eine klassische, direkte Verschränkung funktioniert. Neben diesen Verfahren, die Informationsübertragung mittels Verschränkung über große Distanzen, als auch lokal über kohärente Wellenfelder ermöglicht, existieren auch quantenphysikalische Modelle und Experimente, die eine scheinbare zeitliche Rückbezüglichkeit in die Vergangenheit demonstrieren. Damit wird ein Phänomen erklärbar, das bei SyA ebenfalls zu beobachten ist, wenn Aufstellungsergebnisse von der Aufstellungsgruppe wieder zurück ins Originalsystem gespiegelt oder besser transportiert werden. Die heutigen Kenntnisse in der Quantenphysik sind soweit fortgeschritten, dass weder ein Zusammenbruch der Verschränkung und der damit verbundenen Informationen noch eine irreversible Dekohärenz nötig werden. Im Gegenteil sind Verfahren entwickelt und verifiziert worden, die ein beliebiges An- und Ausschalten von Verschränkungszuständen realisieren und das bei beliebigen Umweltbedingungen. Zur Vervollständigung werden jetzt noch Experimente und Theorien gesucht, die direkte Wechselwirkungen und damit Kohärenz- und Verschränkungs-Effekte auch in biologischen Systemen bestätigen. Als Konsequenz würden sich dann die hier geschlussfolgerten Zusammenhänge und Modelle als belastbar erweisen. Das Messproblem und seine Konsequenzen Zusammenfassend wirft die Beschäftigung mit dem ‚Messproblem‘ vier zentrale Klassen von Fragestellungen auf, die deutlich machen, wie schwierig es ist, ein sofort und allgemeingültiges Ergebnis aus Beobachtungen abzuleiten: Messproblem 1 Welchen Heisenberg-Schnitt wähle ich? Welche System-Umwelt-Relation ist für meine Beobachtung die relevante und welche Systemgrenze ziehe ich damit? Die Wahl dieses Schnittes bestimmt meine Theorie und umgekehrt und hat Einfluss auf die Interpretation meiner Messergebnisse. Bleibe ich auf der Ebene der Elementarteilchen oder wage ich mich auf die Ebene lebender Systeme? Eine solch veränderte Perspektive erweitert auch die Wahrnehmung und hat schließlich Auswirkungen auf Theoriebildung und experimentelle Ansätze und Ergebnisse. Im Idealfall entsteht eine konsistente Theory of Everything (ToE) wie sie der Physik schon seit Anfang des 20. Jahrhundert vorschwebt, jetzt allerdings ausgedehnt auf alle Ebenen unserer Umwelt und des Lebens. Messproblem 2 Wie interpretiere ich die Ergebnisse – klassisch oder als Überlagerung und was hat alles Einfluss? Gehe ich also von einer Separierung und Eigenständigkeit oder von Wechselwirkungen respektive von unsichtbaren Einflüssen und Kor-
8.1 Quantenphysikalische Annäherung
403
relationen aus? Im ersten Fall nehme ich an, dass die Eigenschaft oder das was sich messen und beobachten lässt ausschließlich im untersuchten System steckt. Im zweiten Fall ist mir bewusst, dass das was sich zeigt nur meiner Messanordnung, meiner Frage bzw. Intention und meiner Fähigkeit zur Interpretation geschuldet ist. Messproblem 3 Wann entsteht das was sich zeigt? War es schon vor der Messung vorhanden oder ist es erst durch die Messung entstanden und realisiert worden? Oder ist es gar beides? Im ersten Fall können wir von phänomenologischen Voraussetzungen ausgehen. Es zeigt sich etwas, was schon vor der Untersuchung existent war. Wir entdecken es nur wieder. Im zweiten Fall konstruieren wir das Ergebnis, ausgehend von unseren Fähigkeiten und Vorstellungen. Das, was sich zeigt, hat im Extremfall nichts mit der Ausgangssituation zu tun – was dem konstruktivistischen Prinzip entsprechen würde. Schließich, im dritten Fall, nehmen wir etwas auf, was schon vorhanden ist oder noch etwas weitergedacht, wir filtern ‚Etwas’ aus dem Meer aller Möglichkeiten heraus. Es ist ‚Etwas’ da, auf das wir aufbauen. Durch unsere Fähigkeiten, Vorstellungen und Erwartungen modellieren wir es jedoch innerhalb unserer Grenzen. Im dritten Fall hätten wir eine Überlagerung von Phänomenologie und Konstruktivismus. Messproblem 4 Wie gehen wir mit dem ‚Heisenbergschen Unbestimmtheits-Prinzip’ um? Konzentrieren wir uns auf die Details oder fokussieren wir auf das große Ganze? Nach diesem Prinzip kann ich nicht gleichzeitig präzise den Ort eines Atoms und eines damit wechselwirkenden Elektrons bestimmen. Bestimme ich exakt den Ort des Atoms bleibt die exakte Position des Elektrons unbestimmt und vice versa. Zur Übertragung und Veranschaulichung bietet sich gut die hierarchische Gliederung der Wissenschaftstheorien von Tegmark und Wheeler an. Konzentrieren wir uns auf die Mikroebene und damit auf Quantenfeldtheorie und allgemeine Relativitätstheorie und messen dort, verlieren wir Informationen über den Menschen und sein soziales Verhalten als Ganzes. Für solche Informationen und Messungen sind Psychologie und Soziologie zuständig. Konzentrieren wir uns auf Letztere, gehen die Information im Mikrokosmos verloren. Was gewinnen und was verlieren wir, abhängig von unserer Wahl? Beides gleichzeitig geht nicht – wie das ‚Heisenbergsche Unbestimmtheits-Prinzip’ lehrt! Messproblem 4 handelt letztlich auch von der Systemgrenze in Bezug auf die Wissenschaftsgebiete und ihren Theorien. Zeilinger und seine Gruppe schlossen ihre Veröffentlichung mit einem Statement, dem wohl aus psychologischer und soziologischer Perspektive nichts mehr hinzuzufügen ist:
404
8 Modellentwicklung von der Mikro- zur Makrowelt
„According to Wheeler, Bohr said that no elementary phenomenon is a phenomenon until it is a registered phenomenon. We would like to extend this by saying that some registered phenomena do not have a meaning unless they are put in relationship with other registered phenomena“ (Ma u. a. 2012b: 483). Die in Bezug auf die Quantenphysik aufgeworfenen prinzipiellen Fragen ‚Was messen wir eigentlich und wann treten die Messergebnisse in unsere Realität?’ scheinen zumindest für SyA und Intuition in dieser Arbeit beantwortbar zu sein. Sie treten in unsere Realität, in dem Moment, in dem wir eine Intention und eine damit verbundene Frage stellen bzw. unser inneres System (Bewusstsein) offen für Wahrnehmungen ist. Dies darf durchaus in einem inneren, auch unterbewussten Kontakt mit unterschiedlichen Entitäten geschehen. Und es geschieht wie bei einem guten Therapeuten: Dieser ist sich seines eigenen Zustandes bewusst und er vermag deshalb Störungen wahrzunehmen, sie als Unterschied zu interpretieren und auch einem Gegenüber zuzuordnen. Nichts anders passiert bei SyA. Mit der sehr leichten Beeinflussbarkeit solcher Messprozesse wird allerdings auch ein Thema evident: Die Versuchsbeteiligten vermögen die Ergebnisse nachhaltig zu beeinflussen. Dies wurde auch bei den Beispielen zu den SyA in Kap. 3.3.3 offensichtlich. Mit den bisher erkannten Zusammenhängen wird damit auch plausibel, dass alle Experimente und Messungen, bei denen Menschen beteiligt sind einem teilweise erheblichen Bias unterliegen. Dies könnte auch die Uneinheitlichkeit der Forschungsergebnisse bei Entscheidungstheorie und Intuitionsforschung erklären. Die Erwartungshaltung, die sich auch in der Psi-Funktion ausdrückt, erscheint konsequenterweise auch im Messergebnis. Gut übertragbar erscheint dieser Zusammenhang auch auf die in den Sozialwissenschaften verwendete Terminologie ‚Intersubjektivität’. Dieser neue Begriff verdeutlicht zwar die subjektive Interpretation der Ergebnisse, läuft jedoch Gefahr, durch den damit verbundenen Eindruck einer großen Menge, eine Scheinobjektivität durch die Hintertüre wieder einzuführen. Denn allein kulturelle Prägungen führen wieder zu scheinbar objektiven, letztlich aber nur kollegialen intersubjektiven Eindrücken. Fazit In den bisherigen Untersuchungen wurde eine kontinuierliche Entwicklung vom Vakuumfeld bis in den Kosmos gezogen. Auf diesem Weg vom ‚Nichts’ zum Universum wurde deutlich, wie sich Information in Energie und weiter in Stoff (Materie) wandelt. Qubits realisiert durch Spins und Spinpolarisationen kreieren innere und äußere Strukturen und üben an den Phasengrenzen Einfluss auf angrenzende Entitäten aus; Entitäten, die sich durch weitere Ausdifferenzierung immer mehr voneinander unterscheiden und auch raum-zeitlich voneinander trennen. Entitäten, die scheinbar getrennt (dekohärent), unter der Oberfläche letztlich aber doch quantenphysikalisch verschränkt und kohärent bleiben. Diese Verschränkung auf Elementarebene ermöglicht einen nicht-lokalen Einfluss auf alles im Kosmos befindliche, solange eine ausreichende Interferenzfähigkeit besteht, was bedeutet, dass es Freiheitsgrade zwischen interagierenden Systemen geben
8.1 Quantenphysikalische Annäherung
405
muss, die in Wechselwirkung treten können. Kleinste Quanten (Unterschiede) verändern Spins und damit letztlich EM-Wellen. Diese Spin- bzw. Wellenänderungen repräsentieren eine zugängliche Information, von der die empfangene Entität entscheidet, ob dies für sie eine relevante Information darstellt. Beim jetzigen Stand der Untersuchung führen die Erklärungen allerdings nur bis zu scheinbar automatischen Wechselwirkungen, bei denen wir üblicherweise nicht von Entscheidungen ausgehen, sondern von in den Entitäten angelegten Potentialitäten. Überwunden ist die Reduzierung auf Energie, denn auch ein (bewusster) Beobachter muss mitbetrachtet werden. Des Weiteren wird nicht mehr nur von Spinrichtungen, sondern auch Strukturen und Formen ausgegangen, die gespeichert, abgerufen und wiedererkannt werden können. Verschiedene Forscher, die für Verständnissprünge in der Geschichte der Wissenschaft gesorgt haben, wie beispielsweise Wiener (Kap. 4.2.2.6) oder Josephson (Josephson und Pallikari-Viras 1991: 204–205), denken diesen Prozess der Entwicklung jedoch weiter. Sie gehen davon aus, dass alle lebenden Formen diesen Prinzipien unterliegen. Damit lässt sich bezogen auf Entscheidungen folgende Entwicklung annehmen: Entscheidungen, die auf Elementarebene vermutlich automatisch, in höher entwickelten Entitäten zunächst unbewusst und bei noch höher entwickelten Entitäten dann unbewusst und schließlich bewusst wahrgenommen und vollzogen werden. Offen sind damit zwei Fragen: 1. Woher wissen Bosonen, Fermionen und die sich daraus entwickelnden größeren Strukturen was sie konstituieren sollen? 2. Wie und wo lässt sich die angenommene Entwicklung vom Automatischen über das Unbewusste hin zum Bewussten nachvollziehen? Frage 1 scheint derzeit nur spekulativ philosophisch beantwortbar und tangiert auch spirituelle Verständnisse. Frage 2 wird im nächsten Kapitel untersucht. Mit den bisherigen Ergebnissen sind fast alle Unterkategorien zur Hauptkategorie ‚Übertragungswege‘ positiv beantwortet. Es konnte der Nachweis ‚lokaler und nichtlokaler‘ Informationsübertragung in normalen Umweltbedingungen und zwischen Makrosystemen erbracht werden. Dazu bedarf es eines ‚Verschränkungsprozesses‘, welcher ebenfalls für Makrosysteme in normalen Umgebungstemperaturen vielseitig realisierbar ist, und schließlich veranschaulichte das ‚Messproblem‘ die zwingende Einbindung des Beobachters in die quantenphysikalische Gleichung. Bisher spricht nichts gegen die Möglichkeit quantenphysikalisch basierter Informationsübertragung. Zusammen mit der eindeutigen und plausibel nachgewiesenen Existenz intuitiver Methoden aus Kap. 3 sowie deren notwendiger Berücksichtigung bei komplexen Entscheidungsprozessen könnte der Eindruck einer ausreichenden ‚wissenschaftlichen Legitimation‘ entstehen. Tatsächlich aber hat sich am grundlegenden Problem der Nicht-Akzeptanz, einer auf Quantenphysik beruhenden Informationsübertragung, noch nicht viel geändert. Nicht nur, weil die theoretischen Konzepte von Wiener, Weizsäcker und Görnitz oder der
406
8 Modellentwicklung von der Mikro- zur Makrowelt
GQT (Kap. 4.2) in der physikalischen Gemeinschaft nicht ausreichend anerkannt werden. Auch nicht, weil der aktuelle Stand der Quantenphysik sowohl in der Physik als auch außerhalb noch nicht ausreichend bekannt ist. Sondern weil es derzeit noch erhebliche Zweifel an der Existenz quantenphysikalischer Prozesse in biologischen Systemen und damit verbundener Informationsübertragungen gibt, die über den Austausch von Energie hinausgehen. Somit ist alleine die Unterkategorie ‚zwischen lebenden Systemen‘ noch offen und damit die Frage nach der Art und Weise von Entscheidungsprozessen auf dieser Ebene. Zur Vervollständigung werden deshalb jetzt Experimente und Theorien gesucht, die Kohärenz- und damit Verschränkungs-Effekte auch in biologischen Systemen wie Pflanzen, Tiere und Mensch bestätigen; idealerweise auch Phänomene, die Informationsübertragung und Entscheidungsprozesse mit beinhalten. Nur dann würden sich als Konsequenzen die hier geschlussfolgerten Zusammenhänge und Modelle als belastbar erweisen. Sie würden auch die im Tao der Physik (Capra 2000) beschriebenen Ideen bestätigen. 8.2
Biologische Systeme und Physik
Eine Brücke zwischen toter Materie und Mensch sowie Informationsübertragung und Entscheidungen auf biologischer Ebene Mit den folgenden Untersuchungen und Schlussfolgerungen werden Antworten und Modelle für die aus der Codierung hervorgegangene Kategorie ‚Übertragungswege zwischen lebenden Systemen’ entwickelt und gleichzeitig Säule 8 ‚Überwindung des Temperatur-Paradigmas’ gefestigt und Säule 9 ‚Überwindung des Makrosystem-Paradigmas’ unterlegt. Greenstein und Zajonc bezogen sich auf Bohr, als sie im Rahmen der Welle-TeilchenDiskussion formulierten: „Mental pictures draw their elements from our sense world, but nothing like the quantum world has ever appeared to our senses“ (Greenstein und Zajonc 2005: 20). Sie schlagen mit ihrer Sicht eine quanten-klassische Brücke, die im allgemeinen Verständnis jedoch schon ausgeblendet wird, wenn sich die kognitive Funktion der Wahrnehmung auf rein physikalische Informationsverarbeitung reduziert, wie in Kap. 3.2.3 bereits vorgestellt (Pfister u. a. 2016: 7). Wie es auch Al-Khalili und McFadden beschreiben, wird dort ausschließlich akzeptiert, dass wir nur physikalische Signale wahrnehmen, ohne diesen jedoch eine weitere Bedeutung zuzusprechen (AlKhalili und McFadden 2015: 23). Es besteht somit keine Frage, ob es Interaktionen auf der EM- und Quantenebene gibt, wohl aber, welche Form von Information da eigentlich vermittelt wird. Relevant ist vor allem, ob sich quantenphysikalisches Verhalten über relevante Zeiträume in normalen Umgebungsbedingungen und in biologischen Lebensformen zeigt, denn nur dann
8.2 Biologische Systeme und Physik
407
sind die Gesetze der Quantenwelt auch auf makroskopische Dimensionen und normale Lebensbedingungen übertragbar. Deshalb entscheidet sich an dieser Schnittstelle, ob die Voraussetzung, Information mittels Quantenprozessen zugänglich zu machen, eine realistische Modellierung liefert und sich gegen kritische Bewertung behaupten kann. Denn die folgenden Bemerkungen stehen stellvertretend für die verbreitete Sichtweise: „Quanteneffekte hätten in der Biologie eine ungefähr ebenso wichtige Rolle wie für das Funktionieren einer Dampfmaschine: Sie sind immer da, aber mehr oder weniger bedeutungslos, wenn man verstehen will, wie eines dieser Systeme funktioniert“ (AlKhalili und McFadden 2015: 119). In diesem Fall formulierten die Autoren die gängigen Einwände, hier bezogen auf Enzyme, die quantenphysikalische Tunneleffekte zeigen. Mit dem Thema Biophysik betreten wir ein Feld, das erst in den letzten Jahren für einen kleinen Teil der Physiker und für interdisziplinäre Forschungsgruppen quantenphysikalische Relevanz bekam. Es handelt sich um einen Teilbereich der sogenannten offenen Quantensysteme, der Quantenbiologie und Quantenchemie. Im Grunde stellt die Quanten-Teleportation über den freien Raum, wie sie Zeilinger praktiziert, einen Hybridzustand dar, der als Übergangsbereich zwischen der normalen Quantenphysik und offenen Quantensystemen anzusehen ist. Die Verhältnisse in lebenden Systemen sind für Forscher noch eine Spur komplizierter. Eine eindeutige Isolierung und Messbarkeit quantenphysikalischer Effekte, wie sie heute von Forschern angestrebt wird, ist dort bisher nur schwer möglich. Der Grund liegt im ständigen Energieverbrauch lebender Systeme und dem Problem sie so zu isolieren, dass eine eindeutige Messung möglich wird, wie es in Kap. 8.1.2.3 (Heiße Verschränkung und offene Quantensysteme) bereits kurz angerissen wurde. Aus diesem Grund haben wir es hier auch mit nicht-trivialen Quantensystemen zu tun. Betrachten wir die Gesetze der Quantenmechanik genauer, so können wir feststellen, dass alle bio-molekularen Strukturen durch sie bestimmt werden. Die sich daraus ergebenden Formen der Moleküle und ihre biologische Funktion stehen wiederum in engem Zusammenhang und führen zu Theorien der Molekularbiologie (Küblbeck und Müller 2007: 8). Dennoch gibt es eine verbreitete Meinung, quasi ein Paradigma, die es als unwahrscheinlich ansieht, so etwas wie quantenmechanische Prozesse und Interferenzphänomene in lebenden Systemen beobachten zu können. Ein wesentlicher Grund dafür liegt in den energetischen, ständig aktiven Umweltbedingungen, wonach es zu einer vermuteten sofortigen Störung und in der Folge zur Dekohärenz kommen muss. Einer Dekohärenz, die quantenmechanische Superposition ausschließt und nur noch klassische Prozesse zulässt. Im Grunde steht die Forschung in der Biologie an einer ähnlichen Stelle wie die Physik kurz vor der Entdeckung des Quants. Es gibt sehr viele Fragen, die heute noch nicht oder noch nicht eindeutig beantwortet werden können. Solche, wie die Frage nach der Entstehung von Mutationen. Wie im Kapitel zu Verschränkung und Dekohärenz bereits ausgeführt, kennen die Forscher mittlerweile Theorien und Möglichkeiten, wie stabile Verschränkungen unter Störeinflüssen bestehen können und wie sich solche umweltinduzierten, kohärenzzerstörenden Einflüsse auch wieder rückgängig machen lassen. In diesem Verständnis be-
408
8 Modellentwicklung von der Mikro- zur Makrowelt
sitzen thermische Nicht-Gleichgewichtszustände, wie sie lebende Organismen darstellen, wesentlich größere Möglichkeiten Kohärenz und Verschränkung stabil zu halten (Guerreschi u. a. 2012: 3) als bisher angenommen. Zurückgeführt werden diese größeren Quanten-Freiheitsgrade auf das Verhältnis der Schwingung lebender Organismen in Bezug auf ihre Umgebungstemperatur. Denn jeder Organismus hat eine spezielle EM Eigenfrequenz und molekulare Schwingung, mit deren Hilfe der Organismus seine Beziehung zu seinem Umfeld bestimmt. Diese Gegebenheit wird im Weiteren näher beleuchtet Bereits Schrödinger betrachtete Lebewesen eher als Phänomene, die den Gesetzen der Quantenphysik unterliegen anstatt den Gesetzen der klassischen Physik. Schrödinger formulierte demnach auch ein zur Thermodynamik gegenläufiges Modell, wonach die Grundlage der Vererbung ‚Ordnung aus Ordnung‘ sei (Al-Khalili und McFadden 2015: 67–68). Enge geordnete Beziehungen und damit Wechselwirkungen, so scheint es, helfen eine Verschränkung zu konstituieren, die sich als relativ robust gegen Störeinflüsse erweisen kann (siehe auch Kap. 8.1.2). Die ständigen Energietransfers in thermischen Nicht-Gleichgewichtszuständen wiederum scheinen als Fehlerkorrekturprozess zu fungieren. Lässt sich nun auch experimentell zeigen, dass die Natur Mittel und Wege gefunden hat, quantenmechanische Phänomene zu nutzen oder gar ihre Prozesse darauf aufzubauen, wäre das eben beschriebene Paradigma – keine Quantenprozesse in lebenden Organismen – widerlegt und unsere 9. Säule bestätigt. Gleichzeitig wäre die von den Forschern aus Jena, im Rahmen ihrer klassischen Verschränkungsexperimente (Kap. 8.1.2.3) angedachte ‚hybride’ Infrastruktur zwischen klassischer und quantischer Kommunikation von der Natur selbst realisiert. Auf den folgenden Seiten werden stellvertretend für ausgewählte Lebensformen Beispiele untersucht, die Hinweise auf solche Quanteninformationsprozesse liefern können. Vor allem sollen nicht nur energetische, sondern auch qualitative Informationsübertragungen ermittelt werden, denn nur sie widerlegen die klassischen Vorstellungen. Gleichzeitig würde deutlich, dass die Physik im Bereich des Lebendigen Einzug gehalten hat und nicht nur für tote Stoffe eine Rolle spielt. Bei Fels finden sich hierzu weitere umfangreiche Recherchen (Fels u. a. 2015). 8.2.1
Biophysik bei Mikroorganismen und Pflanzen
8.2.1.1 Delokalisierung von Protonen in Enzymen Enzyme sind in sehr unterschiedlichen Proteinstrukturen aufgebaut, die ihre Spezialisierung verursachen. Diese Proteinstrukturen sind für chemische Transformationen zuständig. Forscher identifizierten nun eine quantenphysikalische Delokalisierung von Protonen innerhalb von Netzwerken von Wasserstoffverbindungen solcher Proteinstrukturen, was die Lebensdauer bestimmter Isotope dramatisch stabilisiert (Wang u. a. 2014). Eine solche Delokalisation bedeutet eine quantenphysikalische Superposition
8.2 Biologische Systeme und Physik
409
über relevante Zeiträume. Damit wurde das Verhalten von Protonen in biologischen Systemen in Bezug auf Wasserstoffbindungen verständlich. Dass diese Kohärenz und damit Superposition durch die Umgebungstemperaturen sogar gestützt, statt behindert werden, wurde ebenfalls nachgewiesen (Godbeer u. a. 2014). Passend zu diesen Erkenntnissen werden Enzyme als die Motoren des Lebendigen angesehen, von denen sich in jeder Zelle unseres Körpers Hunderte oder sogar Tausende solcher Molekülmaschinen befinden sollen (vgl. Al-Khalili und McFadden 2015: 76). Die Autoren stellen auch heraus, dass die gängigen Erklärungsmodelle für ihrer Wirkungsweise nicht mit den beobachtbaren Reaktionszeiten übereinstimmen und dies nur mit einem quantenphysikalischen Tunneleffekt erklärbar sei (ebd. 100-101). Homologe Verbindung zur Physik Hier findet sich eine erste quantenphysikalische Superposition in Mikroorganismen, die mehrere Zustände gleichzeitig repräsentiert und nicht sofort in einen der möglichen Zustände dekohäriert. Deutlich wird auch die Wirkung von veränderten Oberflächenstrukturen auf Eigenschaften von Entitäten, in diesem Fall der Position der Protonen, vergleichbar den im Kap. 8.1.1.4 vorgestellten Spinwirbel in zweidimensionalen Oberflächen (Abb. 47). Und schließlich lassen sich auch Tunneleffekte beobachten, die den Enzymen ihre schnelle Arbeitsweise ermöglichen. 8.2.1.2 Quantenphysik in Bakterien und Algen Die Geschichte zur Untersuchung der Photosynthese186 läuft bereits seit 1949, wie Fleming in seiner aktuellen Veröffentlichung darlegt (Fleming 2017). Dennoch gehen wesentliche Arbeiten der jüngeren Zeit auf Fleming (Engel u. a. 2007; Lee u. a. 2007) und seine Mitarbeiter zurück. 2007 haben zwei Teams von ihm erstmals den experimentellen Beweis geliefert, dass bei der Photosynthese im Green sulphur bacteria und beim Rhodobacter sphaeroides bacteria zum einen eine klare Kohärenz von angeregten Zuständen und zum anderen Tunneleffekte zu beobachten waren, bis hin zu Raumtemperatur (Malý u. a. 2016; Panitchayangkoon u. a. 2010). Andere Forschergruppen bestätigten diese Ergebnisse auch für andere Spezies (Hildner u. a. 2013; Collini u. a. 2010). Die Reaktionszentren der Antennen bilden dabei Energiefallen, die die eingefangene Lichtenergie nutzen, um CO2 (Kohlenstoffdioxid) in Biomasse (Kohlehydrate) umzuwandeln. Der Speicher der Energie und damit auch der transportierten Information sind die Moleküle und ihre chemischen Bindungen. Beobachtet werden konnte eine schwache Kopplung der Moleküle durch elektronische und vibrierende Zustände. Damit finden wir auf biologischer Ebene die im Kap. 8.1.2.3 beschriebenen Verschränkungen von Photon-AtomPhoton sowie der damit verbundenen Möglichkeiten wieder. Sie gestalteten dazu einen Versuchsaufbau, bei dem sie die Moleküle mit einem Laser anregten und die Erregungszustände (Exzitons) bei ihrer Kohärenz-Dynamik bis in den Reaktionscenter des Bakteriums direkt visualisierten. Beobachtbar waren lang andau186
Dieses Kap. 8.2.1.2 ist in großen Teilen übernommen aus (Gehlert 2015b).
410
8 Modellentwicklung von der Mikro- zur Makrowelt
ernde Kohärenzen (>660 fs) zwischen angeregten Elektronenzuständen über den gesamten Lichtsammelkomplex hinweg. Die Forscher führten das Beobachtbare auf den Einfluss beteiligter Proteine zurück, da durch diese Zellbewegungen realisiert werden. Proteinmoleküle werden heute als die Art von Umfeld angesehen, in der Verschränkung sehr gut möglich ist. In Abb. 73 ist das Geschehen, das die Teams von Fleming beobachteten, veranschaulicht. Photonen treffen auf wenige Nanometer große Ansammlungen von Proteinen, den sogenannten Lichtsammelkomplexen oder Antennen. Nach dem konventionellen Verständnis wird die Energie der Photonen dann von Molekül zu Molekül weitergereicht. Zu erwarten wären ungleichmäßige Sprungbewegungen. Der Weg, der gewählt wird, ist dabei rein zufällig. Die Forscher beobachteten aber etwas ganz anderes und beschreiben es folgendermaßen: Die Energie des Photons wird ultraschnell (10-12 Sek. = billionste Sekunde) in wellenartiger, kohärenter Bewegung an das Reaktionszentrum weitergeleitet. Dabei werden viele Farbträger gleichzeitig angestoßen. Aus Sicht der Forscher ein eindeutig quantenmechanisches Verhalten. Wie beim Doppelspaltexperiment löschen sich die Wellen aus oder verstärken sich. Die Photonen scheinen gemäß den Gesetzen der Quantenmechanik verschiedene Wege gleichzeitig zu gehen. 95 % der ursprünglichen Energie kommt im Zentrum an, nur 5 % gehen in Form von Wärme verloren. Dies entspricht aus ihrer Sicht keinem normalen molekularen Prozess, sondern nur einem quantenmechanischen Tunneleffekt. All diese Beobachtungen erfolgten bei Umgebungstemperatur.
Abb. 73 | Erste Schritte im Lichtsammelkomplex von Bakterien während der Photosynthese (eigene Darstellung in Anlehnung an (Chin u. a. 2013: 114)). Gezeigt wird das Auftreffen eines Photons auf den Lichtsammelkomplex, der sogenannten Antenne eines Bakteriums, von wo die Energie des Photons wellenartig und ohne Energieverlust auf alle Farbträger gleichzeitig weitergeleitet wird.
Die Gruppe von Plenio veröffentlichte hierfür ein quantenphysikalisches Erklärungsmodell in Nature (Chin u. a. 2013). Ihr Kerngedanke ist die gleichmäßige Vibration bestimmter Proteine innerhalb eines verrauschten Umfelds. Damit halten sie die Energie innerhalb ihres Systems am Fließen und grenzen sich gleichzeitig von ihrem Umfeld ab. Neuere Veröffentlichungen diskutieren aktuell, ob die Vibrationen tatsächlich einen quantenphysikalischen oder doch nur einen klassischen Ursprung haben (Duan u. a.
8.2 Biologische Systeme und Physik
411
2017). Festzuhalten bleibt dennoch, dass die Vibration für eine ultraschnelle Verteilung der eingefangenen Energie sorgt und das gleichzeitig für unterschiedliche Verarbeitungszentren. Mit der Existenz von quantenphysikalischer und klassischer Verschränkung scheint, wie in Kap. 8.1.2 gezeigt, der Unterschied nicht wirklich ausschlaggebend zu sein. Ringsmuth u. a. stellten einen Zusammenhang zum Wirkmechanismus für molekulare Netzwerke her (Ringsmuth u. a. 2012). Das räumliche Ausmaß an Kohärenz scheint bei großen molekularen Verbünden und Umgebungstemperatur von den EM Verhältnissen (den Frequenzen) abzuhängen und nicht von den thermischen Zuständen, wie üblicherweise vermutet wird. Sind diese Frequenzen durch eine uneinheitliche Frequenzlandschaft gestört, lösen sich die Kohärenzen sehr schnell auf und dekohärieren, wie Dostál u. a. (2012) zeigen konnten. Plenio (wie auch andere) (Chin u. a. 2013) kommen damit zu einem ähnlichen Schluss: Die Natur hat einen Weg gefunden, über den sie hocheffizienten Energietransport innerhalb lebender Systeme realisiert und der nicht als kontinuierlicher Prozess von einem Molekül zum anderen zu interpretieren ist. Der bisher übliche Ansatz, dass es aufgrund der Nähe zu anderen Systemen sofort zu Interaktionen und damit Dekohärenzen kommt, ist auch hier nicht mehr zu halten. Plenio’s Gruppe vermutet aufgrund von Modellrechnungen sogar, dass bei zu großer Kohärenz der Energietransport wieder schlechter wird. Aus ihrer Sicht ist „an interplay between creation of entanglement for short distances and times (through coherent interaction) followed by the destruction of entanglement for longer distance and times (through dephasing noise) seems to be necessary for optimal transport“ (Caruso u. a. 2010). Ebenfalls deutlich wurde bei ihnen die Reversibilität des Austausches der Energiequanten sowie eine Ladungstrennung, welche von den spezifischen Schwingungen der Farbmoleküle herrührt und von Proteingerüsten, die ein breitbandiges Hintergrundrauschen unterstützen. Die Kohärenz erstreckt sich wohl nicht nur auf sehr eng begrenze Areale innerhalb des Lichtsammelkomplexes, sondern, entsprechend einer Modellrechnung (Sarovar u. a. 2010), über den gesamten Lichtsammelkomplex und alle Moleküle hinweg. Dies wird im Kap. 8.3 Neurowissenschaften noch relevant. Goldbeter u. a. konnten ergänzend dazu zeigen, dass nicht nur Vibrationen, resultierend von einem elektrischen Ursprung, stabil und großflächig robust sein können, sondern auch solche, die allein aus einem biochemischen Ursprung herrühren (Goldbeter u. a. 2012). Aus ihrer Sicht handelt es sich um Vibrationen, die aufgrund von Feedbackschleifen aus den regulierenden Netzwerken entstehen, ausgelöst durch Zell-zu-ZellKommunikation mittels Austausch verschiedener Elemente. Ihrer Ansicht nach werden durch den gemeinsamen Rhythmus gemeinsame Eigenschaften geteilt. Damit liegt sogar aus biochemischer Sicht eine Kohärenz vor, die wesentlich für ein zeit- und energieeffizientes Verhalten ist sowie für eine auf das Gesamtsystem aufgespannte Information. Eine Sicht, die wohl auch Duan teilt (siehe oben). Zudem besitzt der Zellrhythmus weitere Funktionen, wie z. B. die Fähigkeit des Encodierens von Frequenzen und der damit transportierten Information. Das Encodieren der Amplituden und damit der Intensität spielt auch aus Sicht von Goldbeter nur eine untergeordnete Rolle.
412
8 Modellentwicklung von der Mikro- zur Makrowelt
Die Entscheidung, wie viel Lichtenergie aufgenommen werden soll, treffen solche Antennen offensichtlich nicht zufällig. Die ersten Erkenntnisse dazu wurden 2009 veröffentlicht (Calhoun u. a. 2009). Sie konnten in vivo nachweisen, dass photosynthetische Komplexe ihre strukturelle Anpassung und damit ihre Energielandschaft verändern. Die damit verbundene Funktionsänderung ermöglicht eine effiziente Übertragung der Energie bei schlechten Lichtverhältnissen und ein Ableiten überschüssiger Energie bei guten. Gruber und seine Kollegen identifizierten diesen Mechanismus, der die Aufnahme abhängig von Umweltbedingungen reguliert (Gruber u. a. 2016), nun sehr präzise. Zur Vermeidung von Energieverschwendung findet ein Kontrollmechanismus durch Untereinheiten statt, der von der Einstrahlungsintensität angeregt, die Aufnahme von Photonen reversibel begrenzt. Mittlerweile weiß man, dass dieser Mechanismus nicht nur in Bakterien und Algen vorkommt, sondern in allen höheren Pflanzen, so auch in Spinat (Al-Khalili und McFadden 2015: 157). Auf den ersten Blick erscheint dies wie eine normale energieabhängige Ab- und Anschaltung. Auf den zweiten Blick wird deutlich, dass hier Qubits repräsentiert werden, mit Superpositionen von Möglichkeiten. Und bei einem dritten Blick wird deutlich, dass es sich um eine Entscheidungssituation handelt, die durch Abgleich unterschiedlicher Konfigurationen ausgelöst wird. Die Antenne besitzt also gespeicherte Information zu unterschiedlichen Situationen, die durch bestimmte Anregungszustände (Anordnung von Molekülkonfigurationen und deren schwankende Aktivierungspotentiale) repräsentiert sind. Gleichzeitig liegt offensichtlich auch eine qualitativ bewertete Situation vor, was bedeutet, dass je nach Situation die Antennen auf eine der Varianten zurückgreifen, um effizient zu arbeiten oder das Gesamtsystem energetisch zu schützen bzw. gar das Überleben zu sichern. In einem umgekehrten Kontext, bei fluoreszierenden Proteinen, ergaben neueste Forschungen ein Zusammenspiel zwischen quantenphysikalischem und klassischem Prozess (Armengol u. a. 2018). Eine entsprechende Kombination von Aktivitäten erwies sich dort als relevant für das Strahlungsverhalten. Es drängt sich damit der Eindruck auf, dass die Natur, je nach Bedarf und Situation, ganz unterschiedliche Prozesse nutzt und kombiniert und keinesfalls nur auf eine Variante festgelegt ist. Homologe Verbindung zur Physik Die anfangs genannten Exzitons sind bekannt aus Halbleitern, Isolatoren und Kristallen. Dort bilden sie gekoppelte Elektronen-Loch-Paare, die als virtuelle Quarticle Anregungszustände, also Energie, durch ihre Hostsysteme transportieren. Dabei bewegen sie sich immer gemeinsam und in Form einer (Polarisations-)Welle durch das System. Sie entstehen beispielsweise durch die oben beschriebene Absorption von Photonen unter Wechselwirkung mit Elektronen. Die Elektronen werden angeregt, verändern dadurch ihre Position und hinterlassen ein entgegengesetzt geladenes Loch. In der klassischen Physik wird die dabei wirkende Kraft mit der Coulomb-Kraft beschrieben, die räumlich weitreichend wirkt. Verständlicherweise besteht in analoger Form eine quantenmechanische Erklärung. Diese stabile Elektron-Loch-Verschränkung lässt sich als Analogie
8.2 Biologische Systeme und Physik
413
zu den Cooper-Paaren genauso wie zu den NV-Defekten in Diamanten interpretieren. Alle drei Korrelationen repräsentieren Verschränkungszustände und Energietransport ohne Energieverlust und damit ohne Wechselwirkung mit ihrem Umfeld. Abgeleitet aus den quantenphysikalischen Überlegungen darf hier von einer klassischen Verschränkung ausgegangen werden, die neben Energie auch Informationen trägt, womit ein Pendant für Verschränkungszustände in Mikroorganismen besteht. Darüber hinaus vermag selbsterzeugtes Licht von Zellen in gleicher Weise Information zu übertragen, wie es moduliertes Licht in physikalischen Experimenten vollführt. Ebenfalls redundant zeigt sich das Phänomen reversibler Prozesse, in denen Übergänge von Energiequanten auch wieder rückgängig gemacht werden. Diese Übergänge gehen gleichzeitig einher mit einer Photon-Atom-Photon-Kopplung, die, wie nachgewiesen, zum Austausch und zur Speicherung von Quanteninformation in der Lage ist. Gespeicherte Information, die zwischen unterschiedlichen Umweltbedingungen unterscheidet und entsprechende Entscheidungen respektive Verhaltensweisen auslöst. Der von den Forschern erkannte Zusammenbruch der Kohärenzen bei uneinheitlichen Frequenzregionen führt im Umkehrschluss auf das gleiche Phänomen wie bei den Phasenübergängen der reinen Physik. Zöpfe, Bänder oder einheitliche, größere Frequenzregionen wie beim Silikonöl bilden stabile und klar unterscheidbare Übergänge, die eine Kohärenz innerhalb des Systems aufrechterhalten. Auffallend ist auch die Parallelität von Proteingerüst (mit spezifischer Eigenfrequenz) und Hintergrundrauschen bzw. den wellengleichen Ausbreitungsbewegungen mit den Versuchen an den Fullerenen. Einerseits handelt es sich in beiden Fällen um Farbmoleküle, zum anderen wurden bei den Fullerenen ebenfalls Zellstrukturen zur Erzeugung kohärenter Wellen verwendet, die sich vom Hintergrund unterscheiden lassen. Und schließlich zeigen sich auch hier Kohärenzen bei Umgebungstemperatur. Alles weist auf eine fundamentale Homologie hin. 8.2.1.3 Informationsübertragung per Licht auf Zellebene Wie es aussieht, bietet die ‚klassische Verschränkung’ mithilfe von Licht tatsächlich eine auch experimentell überprüfbare Option. Wie bereits vorgestellt, ließ sich mithilfe kohärenten Laserlichts und den dabei beeinflussten Spins extremste Geschwindigkeitsmessungen von Objekten durchführen. Aus diesen Experimenten leitete man die Möglichkeit sogenannter ‚klassischer Verschränkungen’ ab. Eine Verschränkung also, die nur lokal realisierbar ist. Dass die dabei vorkommende Informationskopplung nicht nur für räumliche Gegenstände funktioniert, sondern auch für andere Informationsarten, machen die folgenden Experimente deutlich. Trushin beschäftigte sich mit der Frage, inwieweit biologische Strahlung Informationen trägt, die die Zellkommunikation und verschiedene Aspekte ihres Lebens betreffen (Trushin 2003). Kolibakterien wurden in verschiedenen Nährböden gezüchtet und durch eine klare Glaswand getrennt (Abb. 74).
414
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 74 | Typischer Versuchsaufbau zur Messung physikalischer Signale zwischen biologischen Systemen wie Zellen, Bakterien oder auch Menschen. Ein Sender, der bestimmte Signale stimulieren oder unterdrücken soll, wird von einem Empfänger, der auf die Signale reagieren soll, durch einen Separator getrennt. Der Separator soll sicherstellen, dass keine chemischen Interaktionen stattfinden können und wird abhängig von den zu untersuchenden Effekten gewählt (durchsichtig, nicht-durchsichtig; schallabsorbierend oder nicht etc.). (eigene Darstellung)
Parallel dazu gab es eine weitere Versuchsanordnung, in der die Klarglasscheibe durch eine für UV- bzw. sichtbares Licht undurchlässige Trennwand ersetzt wurde. Um auch den Einfluss von natürlichem Licht zu eliminieren, wurden die Behälter von Alufolie umschlossen. Bei diesen Versuchen konnte er eine gegenseitige Beeinflussung ohne direkten Kontakt187 nachweisen. Er führte dies auf eine EM-Verbindung, resultierend aus der Biophotonenstrahlung zurück, denn im Versuchsaufbau mit undurchsichtiger Trennwand war keine Beeinflussung des Wachstums zu beobachten. Damit legen diese Phänomene in der Tat nahe, dass mikrobiologische Kulturen über physikalische Felder wechselwirken. 2007 veröffentlichten Farhadi u. a. vergleichbare Versuche mit menschlichen Darmkrebszellen (Farhadi u. a. 2007). Auch sie konnten eine nicht-chemische und nichtelektrische Informationsübertragung zwischen abgeschotteten Zellkolonien nachweisen. Im Versuch wurde eine Kultur von Darmkrebszellen Wasserstoffperoxid (H2O2) ausgesetzt und sollte als Sender fungieren. Andere Kulturen ohne H2O2-Kontamination wurden in unterschiedlichen Entfernungen zur Senderkultur positioniert. Untersucht wurde, ob diese Empfängerkulturen ohne chemische, elektrische oder mechanische Wechselwirkung auf die Senderkultur reagieren, von der sie nur durch eine transparente Glasscheibe getrennt waren. Das für Zellen toxische H2O2 schädigte die Proteinkonzentration und anderes und veränderte sowohl die Senderkultur als auch die Empfängerkulturen signifikant. Sie ließen sich von Ohnishi und Kollegen inspirieren, die zeigten, dass in Zellkulturen die Teilung von Leber-Krebszellen (HepG2) durch Chi-Energie gehemmt werden konnte (Ohnishi u. a. 2005). Eine 5- und 10-minütige Chi-Behandlung war in der Lage, die Anzahl der Krebszellen um 30,3 % und 40,6 % im Vergleich zu einer Kontrollgruppe zu reduzieren. Die Messung erfolgte nach 24 Stunden, dem Zeitraum, der zur Verdopplung dieser Zellkultur benötigt wird. Mit Aluminium oder schwarzem Acryl wurde die Chi-Energie geblockt, bei transparentem Acryl hingegen traten die positiven Wirkungen auf. Aufgrund ihrer und anderer Experimente kamen sie zum Schluss, dass Chi-Energie mit Infrarotlicht in Zusammenhang stehen muss. Fels formulierte zu seinen Versuchen ganz allgemein, „that the cell populations use two (or more) frequencies for cellular 187
Direkten Kontakt meint chemische oder elektrische Wechselwirkung bei direkter Interaktion.
8.2 Biologische Systeme und Physik
415
information transfer, which influences at least energy uptake, cell division rate and growth correlation. Altogether the study strongly supports a cellular communication system, which is different from a molecule-receptor-based system and hints that photontriggering is a fine tuning principle in cell chemistry“ (Fels 2009). Dass es sich bei den bisherigen und noch folgenden Untersuchungen um keine Einzelergebnisse handelt, geht aus einem Review von Scholkmann u. a. hervor. Sie liefern einen Überblick über die bis 2013 erfolgten wissenschaftlichen Veröffentlichungen zum Thema nicht-chemische und nicht-kontaktbasierte Zell-zu-Zell Kommunikation (Scholkmann u. a. 2013). Homologe Verbindung zur Physik In diesen Versuchen wurde offensichtlich bedeutungshaltige Information per Photonen und nicht nur Energie übermittelt, vergleichbar der QT, was schlicht einen qualitativen Austausch auf mikrobiologischer Ebene voraussetzt. 8.2.1.4 Schall als Träger von Information Mit einer weiteren Untersuchung an Bakterien kommen wir noch einmal auf den Anfang dieses Kapitels zurück, jedoch mit einem veränderten Fokus. Dass Schall für uns als Träger von Information angesehen wird, scheint nicht weiter verwunderlich. Schließlich ist fast jedem das Phänomen des Hörens von Tönen am eigenen Leib bekannt. Dass er aber auch eine wesentliche Rolle für das Wachstum von Bakterien spielt, wurde mit den Arbeiten von Matsuhashi u. a. mit Bacillus carboniphilus deutlich (Matsuhashi u. a. 1996). Dieses Bakterium war seinerzeit eine neuentwickelte Spezies, die Kohlenstoffmaterial wie Grafit zum Wachstum benötigt (Fujita u. a. 1996). In einem früheren Experiment konnten sie zeigen, wie die Zellen zunächst um Graphitkristalle herum wuchsen und nach und nach auch weiter entfernte Sporen zu wachsen begannen. Die Forscher vermuteten hinter dem Wachstum der entfernteren Sporen einen Prozess, der durch Signale der ersten Zellen veranlasst wurde. In dieser, darauf aufbauenden Untersuchung (Matsuhashi u. a. 1996) beobachteten die Forscher das Wachstum von Bacillus carboniphilus-Stämmen unter Beeinflussung anderer Bakterien, die allerdings in räumlich und chemisch getrennten Behältern (Petrischalen) lokalisiert waren. Im Experiment wurden unterschiedliche Bakterien als Signalgeber-Zellen (Sender) eingesetzt, um beim Signalempfänger, dem Bacillus carboniphilus, das Wachstum und damit die Koloniebildung zu beeinflussen, und zwar in einem Umfeld, in dem das Empfängerbakterium normalerweise nicht wächst. Die Signalgeber-Zellen konstituierten quasi aus der Distanz unterschiedliche Wachstumsbedingungen, auf welche das Bacillus carboniphilus reagiert. Dass die Signalgeber Einfluss ausübten, wurde im Rahmen der Experimente auch bestätigt, denn in Abwesenheit solcher Signalgeber-Zellen konnte kein Wachstum beobachtet werden. Im Versuch waren Sender- und Empfänger-Bakterien in transparenten Kunststoffschalen lokalisiert und entweder durch transparente Scheiben oder durch unterschiedlich dicke Eisenbarrieren getrennt. Das Ganze jeweils in einer Plexiglas-Box von der Umwelt isoliert. Aus Sicht der Forscher fungiert die Ple-
416
8 Modellentwicklung von der Mikro- zur Makrowelt
xiglas-Box als hervorragender Akustikbehälter. Die wichtigsten Teile der Experimente wurden von drei unabhängigen Forscherteams anderer, unabhängiger Institute wiederholt und bestätigt Als Signalgeber-Zellen wurden neben den Bacillus carboniphilus selbst drei weitere Bakterien verwendet: Bacillus subtilis (B. subtilis; bekannt auch als Heubakterium, zählt zu den Fäulnisbakterien im Boden, dient u. a. zur Durchfallbekämpfung beim Menschen) Escherichia coli E. coli; bekannt auch als Kolibakterium, Vorkommen im menschlichen und tierischen Darm, dient u. a. als Vitaminproduzent in der Darmflora) Micrococcus luteus (M. luteus; zählt zu den Luftkeimen, ist Teil der normalen Hautflora des Menschen, dient u. a. als Indikator bei der Überprüfung von Antibiotika) Wie erwartet, übertrugen sich im Experiment die Wachstumssignale von einer Petrischale auf die andere, wobei die Wachstumsstärke vom Typ der Signalgeber abhing. Auch eine Variante mit einer Vergrößerung des Abstandes zwischen den Petrischalen hatte keinen Einfluss auf die Wachstumsrate. Die Forscher erkannten noch eine weitere wichtige Einflussgröße: Als entscheidend für die Stärke des Wachstums stellt sich der Entwicklungsgrad der Signalgeber-Zellen heraus. Nur teilweise entwickelte Sender führten zu signifikant niedrigerer Wachstumsrate beim Empfänger. Dass der Entwicklungsstand respektive die Qualität der Sender (Einflussnehmer) in direktem Zusammenhang mit seiner Wirkung steht, ist auch in sozialen Systemen ein bekanntes Phänomen (Führung, Lehre, Gruppenprozess etc.). Zur Ermittlung der Signalart (chemisch: gasförmig oder physikalisch: akustisch, magnetisch, elektrisch oder thermisch) wurden verschieden dicke Eisenplatten (0,5; 1; 1,5; 2 mm) als Trennung verwendet. Tatsächlich waren selbst bei der dicksten Variante noch deutliche Wachstumssteigerungen zu beobachten, wie die folgende Tab. 17 veranschaulicht. Zur Kontrolle wurden die Experimente auch ohne Signalgeber (gekennzeichnet mit ‚kein’) durchgeführt. Hinzugenommen wurde mit Experiment 1 noch das Ergebnis bei Verwendung einer transparenten Petrischale. Es macht den Unterschied der Wachstumsraten im Verhältnis zu den Eisenplatten deutlich. Offensichtlich ist die wachstumstreibende Wirkung in Experiment 1 zu beobachten, bei der transparente Petrischalen (Acryl-Glas) zum Einsatz kamen. Demgegenüber fallen die Werte bei Verwendung von Eisenplatten deutlich ab, gehen jedoch in der Regel nicht auf Null. Was die Autoren nicht erklären konnten, waren die sehr unterschiedlichen Werte. Sicher war jedoch, dass es sich aufgrund der Versuchsanordnung nicht um chemische Übertragungswege handeln konnte. In einem Unterexperiment konnte nämlich auch mit offenem Luftzug über den Sender- und Empfängerkulturen keine Wachstumsbeeinflussung beobachtet werden. Die Autoren schlossen darüber hinaus ultraviolettes, sichtbares oder Infrarot-Licht genauso aus wie Mikrowellen. Nicht komplett ausschließen konnten sie ungewöhnliche Formen von EM-Wellen. Allerdings hielten sie
8.2 Biologische Systeme und Physik
417
eine akustische Übertragungsart aufgrund der Kunststoffbehälter und des Außengehäuses am wahrscheinlichsten. Ihrer Ansicht nach entstehen die Schallwellen durch Vibration intrazellulärer Organellen wie Membrane, Chromosome und dem Cytoskelett. Letzteres ist im Wesentlichen durch Mikrotubuli188 aufgebaut, die im Kap. 8.3 zu Neurowissenschaften näher betrachtet werden. Tab. 17 | Effizienz des Wachstums von B carboniphilus Kolonien bei unterschiedlichen Bedingungen. Ergebnisse und Darstellung wurden (Matsuhashi u. a. 1996) entnommen. Bei Experiment 1 wurde transparentes Acryl-Glas verwendet, wohingegen bei den Experimenten 2 bis 4 Eisenplatten unterschiedlicher Dicke zum Einsatz kamen. Ohne Signalemitter konnte auch kein Wachstum beobachtet werden, siehe hierzu die jeweiligen Vergleichswerte. Fragen warfen die scheinbar unsystematischen Wachstumswerte bei unterschiedlichen Dicken des Eisenisolators auf.
Effizienz des Wachstums von B. carboniphilus Kolonien in % nachdem sie Signale von B. subtilis durch transparentes Acryl-Glas oder durch Eisenplatten hindurch empfangen hatten. Signalemitter durch Acryl-Glas (Petrischalen) Experiment 1 B. subtilis 99,0 kein 0,0 Signalemitter Experiment 2 B. subtilis kein
durch Eisenplatten unterschiedlicher Dicke (mm) 0,5 1,0 1,5 2,0 -
15,3 0,0
16,4 0,1
-
Experiment 3 0,2 12,4 7,4 6,0 B. subtilis 0,0 0,0 0,0 0,0 kein Experiment 4 6,3 10,6 B. subtilis 0,1 0,1 kein In den Experimenten 1, 2, 3 und 4 wurden 4.470, 11.050, 12.620 und 14.900 lebensfähige B. carboniphilus Sporen eingesetzt.
188
Mikrotubuli sind röhrenförmige Holzylinder aus Proteinen mit einem Durchmesser von 25 nm (10-9 m). Sie sind zum einen für die mechanische Stabilisierung der Zelle zuständig und zum Anderen für die aktive Bewegung der Gesamtzelle, als auch im Zusammenspiel mit anderen Proteinen für Bewegung und Transport innerhalb der Zelle. Im Inneren der Holzylinder befindet sich Wasser mit kohärent ausgerichteten Spins.
418
8 Modellentwicklung von der Mikro- zur Makrowelt
Fassen wir zusammen: Aufgrund der Versuchsanordnung blieben nur noch akustische und ungewöhnliche Formen von EM-Wellen übrig. Was aber sind solch ungewöhnliche EM-Wellen und welche Hilfe können die Ergebnisse aus Tab. 17 bieten? Wie wir aus den ersten Beispielen gesehen haben, ergibt die neuere Forschung mehrere Optionen für physikalischen Signalübertrag: 1. Die Schwingungsfrequenz der Proteine und damit eine Stabilisierung gegen Umwelteinflüsse, wie sie von Plenio (Chin u. a. 2013) und anderen bei Bakterien erkannt wurde. 2. Einen Tunnelprozess, wie er bei Bakterien diagnostiziert wurde. 3. Schwach gekoppelte Wellenfunktionen über Energiebarrieren hinweg erzeugen ebenfalls Veränderungen. 4. Licht als Überträger von Information bei Biophotonen und klassischer Verschränkung. 5. Von außen angelegte Schwingung, die die beteiligten Systeme kohärent verbindet. Wir wissen mittlerweile, dass die Proteine der Zellstruktur von Organismen ihre Information (Bauplan, Befindlichkeit etc.) in ihren Frequenzen codieren und bei Verschränkung mit dem neuen System teilen. Variante 1 käme damit als die ‚ungewöhnliche EMWelle’ infrage. Jedoch würden die Wachstumsraten gleichbleiben oder sich in kontinuierlicher Weise verändern. Beides ist nicht der Fall, womit 1 als alleinige Erklärung ausscheidet. Ebenfalls verabschieden lassen sich Varianten 2, 3 und 5 als einfache Begründung. Wären sie die entscheidenden Parameter, sollte sich ebenfalls eine gleichmäßige Verteilung über jede Dickenvariante zeigen. Bleibt auf den ersten Blick tatsächlich nur Schall als Erklärung. Warum findet sich aber bei dieser Versuchskonfiguration kein korrelierter Wachstumsprozess? Aus der Tabelle lassen sich nur zwei Versuchsvariable identifizieren: Die Dicke der Eisenplatten und eine unterschiedliche Anzahl von Sporen. Lässt sich nun ein Zusammenhang herstellen zwischen Anzahl der Sporen und der Dicke der Platten? Wir gehen nun davon aus, dass es sich bei den Bakterien-Kulturen um kohärente Systeme handelt, die durch ihre Eigenschwingungen Schallwellen produzieren, wie die Autoren annehmen. Die unterschiedliche Anzahl der Bakterien in den Versuchen hätte dann Konsequenzen nicht auf die Frequenzen, wohl aber auf die Intensität und damit Amplitude der Schwingung. Mehr Sänger erzeugen eine lautere Musik als weniger Sänger, womit unterschiedliche Energieniveaus vorliegen. Betrachten wir zunächst die Charakteristik von Schallwellen etwas genauer. Schallwellen können sich nur in Medien ausbreiten und nicht wie EM-Wellen im Vakuum. Die Lage der getroffenen Moleküle bleibt dabei gleich. Sie schwingen nur um ihre Ruhelage in Ausbreitungsrichtung der Schallwelle (bei idealen gasförmigen Medien wie Luft = Longitudinalwelle) oder quer zur Ausbreitungsrichtung (bei festen Stoffen = Transversalwelle) und stoßen die benachbarten Moleküle an. Schallwellen übertragen
8.2 Biologische Systeme und Physik
419
deshalb nur Energie und keine Materie. Beim Durchlauf durch ein festes Medium sind Transversalwellen polarisierbar. Sie lassen sich durch eine Pfeilrichtung beschreiben, die abhängig von der Art der Auslenkung ist (Abb. 75). Läuft die Welle in z-Richtung durch ein Medium, kann die Schwingung in allen möglichen Kombinationen der x- und y-Richtung erfolgen. Diese Schwingungsrichtung nennt man Polarisation. Sie entspricht damit dem Spin bei Elementarteilchen. Jetzt lassen sich zwei unterschiedliche Szenarien denken: 1. Eine Veränderung der Frequenzen durch Interaktion unterschiedlicher Wellen. 2. Eine Veränderung der Frequenzen durch Interaktion der Schallwelle mit dem Medium, das sie durchläuft.
Abb. 75 | Schwingungsrichtung einer linear polarisierten Welle mit den Energiebeträgen E in x, y und z-Richtung. (eigene Darstellung)
Zu 1) Handelt es sich um annähernd phasengleiche Wellen, also Wellen mit ähnlicher Frequenz, so kommt es zur Überlagerung und Superposition der beteiligten Wellen. Die Frequenz bleibt dabei im Wesentlichen gleich, aber die Amplitude wird höher, es wird also lauter. Die Physik spricht hier von linearen Systemen, da das Superpositionsprinzip gilt. Demgegenüber steht die Option in nicht-linearen Systemen, bei denen keine Superposition entsteht. Dieser Zustand tritt ein, wenn sehr unterschiedliche Schallfrequenzen aufeinandertreffen. Hier kommt es nicht zu einer Überlagerung, aber doch zu einem Energietransfer. Energie springt von einer Frequenz auf die andere. Durch die veränderte Energie kommt es zu einer Frequenzänderung, einer sogenannten Verzerrung. Zu 2) Unterschiedliche Medien lassen sich zudem unterschiedlichen Ausbreitungsgeschwindigkeiten zuordnen, die durchaus auch schneller als der Schall in Luft sein können. Ein Teil der Schallenergie wechselwirkt dabei mit dem Medium. An der Grenzschicht oder im Medium selbst, wie der Luft-Eisenplatten-Konstellation im Versuch, geht mit der Energieabsorption eine thermische Erwärmung einher. Ein weiterer Teil geht über Reflexion an den Grenzschichten verloren. Durch die Erwärmung ändert sich die Polarisation der Welle, die durch das Medium läuft. Im vorliegenden Experiment bedeutet die unterschiedliche Anzahl der Sporen (Sänger) unterschiedliche Geräuschpegel und letztlich unterschiedliche Energieniveaus. Als Folge werden die Eisenplatten von unterschiedlichen Energien getroffen. Gleichzeitig
420
8 Modellentwicklung von der Mikro- zur Makrowelt
entscheidet die Dicke der Platten über den Grad der Absorption und damit der Erwärmung. So besitzt ein dickeres Medium mehr Volumen, um Energie zu absorbieren und gleichzeitig mehr Raum, um die Energie zu verteilen. Heuristisch betrachtet könnte dies bedeuten: Dünne Medien erhitzen sich entsprechend mehr, dickere entsprechend weniger. Je nach Medium könnte dies auch genau anders herum ausfallen oder sich aufheben. Dies ist in voller Übereinstimmung mit der Physik von Schallwellen, die frequenz- und temperaturabhängig ist. c = λf (10.1) mit c = Ausbreitungsgeschwingkeit im Medium (Medium abhängig), λ = Wellenlänge und f = Frequenz. Die Temperaturabhängigkeit ergibt sich indirekt über die Abhängigkeit der Wellenlänge von der Temperatur. Das Ergebnis ist eine ‚thermische Wellenlänge’: � (10.2) λ = � ��� � ��
mit h = Planksches Wirkungsquantum, π = Kreiszahl, m = Masse, k � = BoltzmannKonstante, T = absolute Temperatur. Ändert sich die Temperatur, ändert sich auch die Frequenz und die Polarisation der das Medium (Eisenplatte) verlassenden Welle. Die Information, die durch die ursprüngliche Frequenz und Polarisation transportiert wurde, ist nicht mehr identisch mit ihrem ursprünglichen Zustand beim Auftreffen. Es ändert sich aber auch die Qualität der Wechselwirkung der aufeinandertreffenden Wellen. Je ähnlicher, die ankommende Welle mit der Eigenfrequenz des Mediums übereinstimmt, desto einfacher bzw. unveränderter läuft sie durch das Medium. Je unterschiedlicher die Frequenzen, desto größer findet Energieaustausch statt und eine Veränderung der austretenden Welle und ihrer Polarisation. Schöne Beispiele sind Glas oder auch transparente Kristalle. Licht passt in seiner Frequenz zur scheinbaren materiellen Struktur und lässt damit die optische Information durch. Bei Glas ist es die amorphe Struktur, die es dem Licht ermöglicht, in seiner Ganzheit durchzustrahlen. Die amorphe Struktur entsteht durch einen speziellen Abkühlprozess, der eine regelmäßige Anordnung der Atome des verwendeten Quarzes verhindert. Bei transparenten Kristallen führt die angeordnete Struktur der Atome zur Ablenkung bestimmter Wellenlängen des Lichtes, mit gut unterscheidbaren Spektrallinien. Manche solcher Kristalle lassen aber ebenfalls das gesamte Lichtspektrum hindurch, insbesondere bei sehr dünnen Schnitten. In beiden Fällen können wir hindurchsehen. Ändern wir die Farbe des Glases oder seine Temperatur, ändern wir zum einen die innere Struktur der Atome, damit auch automatisch das Schwingungsverhalten und letztlich die Transparenz. Spätestens wenn es glüht, ist die Transparenz aufgehoben. Die Relevanz der Dicke und der Geometrie wird ebenfalls in Verbindung mit Glas deutlich. Je nach Dicke oder Geometrie produziert es unterschiedliche Töne. Glasspieler machen sich diesen Effekt bei ihrer Kunst zunutze. Nun gilt es noch den Ausgangpunkt der Schallwellen genauer zu analysieren. Wir sind davon ausgegangen, dass es sich bei den Bakterien-Kulturen um kohärente Systeme
8.2 Biologische Systeme und Physik
421
handelt, damit kohärente Frequenzen produziert werden und die gesamte Information über den Bakterienstamm in diesen Frequenzen codiert ist. Diese kohärenten Frequenzen interagieren mit dem Umfeld und bringen die angrenzenden Luftmoleküle in Schwingung. Durch diese Interaktion findet konsequenterweise eine Verschränkung statt, die zumindest dem verallgemeinerten Josephson-Effekt entspricht. Obwohl es keine chemische Bindung gibt, findet eine schwache Kopplung der Systeme statt, was durch den Energie- und damit Elektronenaustausch realisiert wird. Damit darf angenommen werden, dass die Ursprungsinformation auch über Schallwellen codiert und verbreitet wird. Gleichwohl liegt ein Mixed-Zustand vor. Die elektromagnetischen, aber energetisch eher schwachen Potenziale der Zellen sowie ihre an Schallwellen gekoppelte Information. Wie wir in den vorliegenden Experimenten gesehen haben, kommt es in Summe zu nicht-linearen Veränderungen im Wachstumsprozess der Empfänger-Kulturen. Aus den in diesem Kapitel untersuchten Forschungsarbeiten geht klar hervor, dass für eine erfolgreiche wechselseitige Beeinflussung zweier lebender Systeme eine Ähnlichkeit der Frequenzen entscheidend ist, nicht aber die Intensität. Damit lässt sich schlussfolgern: Die beteiligten Schallwellen erfahren zumindest aufgrund eines verallgemeinerten Josephson-Kontaktes mit den Sender- und EmpfängerZellen eine Verschränkung. Somit tragen sie alle Informationen über die jeweiligen Zellen mit sich. Durch die unterschiedliche Anzahl von Sporen werden unterschiedliche Energieniveaus bei den Schallwellen initiiert, diese führen zur Polarisations- und Frequenzänderung in den feststofflichen Transfermedien (Eisenplatten) aufgrund thermischer Änderungen. Die Transfermedien wirken wie ein Frequenz- und Polarisationswandler, respektive ein Absorber. Diese Änderungen modifizieren schließlich das Potential der mitcodierten Sender- und Empfängerinformation. Die Passung von Polarisation und Frequenzen nimmt gegenüber einem optimalen Zustand ab. Die Wachstumsrate sinkt. Die Wachstumsdaten weisen auf eine störende Wirkung der Transfermedien auf die reinen EM-Wellen hin. Ansonsten sollten überall zumindest kleine Wachstumsprozesse zu beobachten sein, die den EM-Anteilen entsprechen. Wo sich also welche Wachstumspotentiale entfalten können, scheint von einem Zusammenspiel der EMSchwingungen von Sender und Empfänger, den initiierten Schallwellen und dem thermischen Veränderungspotential eines Transfermediums zusammenzuhängen. Die vorliegende Versuchsanordnung scheint auf reduzierende und aufbauende Effekte hinzuweisen. So könnte bei Experiment 2 die erste, dünne Trennwand die Frequenz und damit verbundene Information fast unbrauchbar machen, was durch Trennwand zwei jedoch wieder kompensiert wird. Es lässt sich noch ein zweiter Schluss folgern: Mit diesem Experiment liegt ein weiteres Beispiel einer klassischen Verschränkung vor, in dem Schall den Hauptprotagonisten zur Übertragung spielt. Durchläuft die Schallwelle kein Transfermedium, sondern trifft unmittelbar auf den Empfänger, könnten die Frequenzen und Kohärenzen unverändert bleiben und letztlich auch die Information; eine Option, die zu einem späteren Zeitpunkt erneut aufgegriffen wird. Mit dem klassischen Modell der Polarisation liegt zudem ein analoges Konzept zum quantenmechanischen Spin respektive der Spin-
422
8 Modellentwicklung von der Mikro- zur Makrowelt
polarisation vor. Es darf deshalb angenommen werden, dass die Polarisation (ähnlich der Spinpolarisation großer Ensembles) Informationen codiert und transportiert. Abb. 76 veranschaulicht den Versuchsaufbau zur Illustration der Reichweite ihrer Signale. Auch hier wirkte der Sender (B. subtilis) auf den Empfänger (B. carboniphilus Sporen) entlang eines Acrylic-Zylinders.
Abb. 76 | Versuchsaufbau und Messergebnisse von Matsuhasi u. a. (1996) für eine zu untersuchende Reichweite von 50 cm. Mit zunehmender Entfernung vom Sender nahm die wachstumsfördernde Wirkung ab.
Der Einfluss der Sender nimmt über die Distanz ab, wie es auch für EMF typisch ist. Bis 30 cm sind noch sehr deutliche Effekte zu beobachten. Danach gehen sie zwar gegen Null, lassen sich aber, wenngleich mit sehr geringen Effektstärken, bis auf eine Distanz von 50 cm messen. Und noch ein Letztes: In einem weiteren Experiment konnte Matsuhashi et. al. den Zusammenhang der Notwendigkeit gleicher Frequenzen zur Erzielung großer Wirkung auch für Schallwellen nachweisen (Matsuhashi u. a. 1998). B. subtilis und B. carboniphilius weisen die gleichen Schallfrequenzbänder auf und haben deshalb dieses sehr hohe Beeinflussungspotential. Homologe Verbindung zur Physik Die Vermittler von Wirkung scheinen immer wieder Wellen gleicher Frequenz zu sein, die durch Überlagerung Intensität aufbauen. Und auch hier benötigt es keinen direkten Kontakt der Zellsysteme zueinander. Die Vermittlung über virtuelle Träger (Schall, Licht) scheint völlig auszureichen. 8.2.1.5 Entscheidungsprozesse und kohärente Informationsspeicherung in Pflanzen Ganz aktuell wurden Zellverbände in Pflanzensamen entdeckt, die Entscheidungen über das Auslösen des Keimvorgangs ebenfalls in Abhängigkeit von Umweltinformationen treffen (Topham u. a. 2017). Diese Entscheidungszentrale besteht aus zwei, räumlich getrennten Arten von Zellen, die antagonistisch in Wechselwirkung stehen. Eine ist für die Untätigkeit, die andere für den Start des Keimvorgangs zuständig. Beide Zellenarten
8.2 Biologische Systeme und Physik
423
sammeln Umweltinformationen und entscheiden im Zusammenspiel über den besten Zeitpunkt. Erst bei Übereinstimmung ihrer Einschätzungen erfolgt der Auslöser. Die Forscher vergleichen diesen Gesamtprozess mit Vorgängen im Gehirn, in dem Entscheidungen ebenfalls auf der Basis des Abgleichs von Informationen stattfinden. Ergänzend stellen sie auch topologische Ähnlichkeiten zwischen den Entscheidungszentren der Zellen und des menschlichen Gehirns fest. Interessanterweise schreiben sie den Zellverbänden anwachsende Rechnerleistungen durch verteilte Rechenoperationen zu, die im Gegensatz zu den reduzierten Rechnerleistungen von Einzellern stehen. „The joint exploitation of the geometry of a dynamical system and its nonlinear interactions supports decision making and the stepping of variable inputs toward effecting the flipping of a developmental fate switch in seeds“ (ebd. 5). Eine weitere aktuelle Veröffentlichung zeigt einen vergleichbaren Abstimmungsprozess auf der Basis von Samen erzeugter ultra-schwacher Photonenstrahlung (Biophotonen) (Footitt u. a. 2016). Passend zu den Entscheidungs- und Rechenzentren bei Samen wurde bei Untersuchungen von fleischfressenden Venusfliegenfallen evident, dass diese sowohl zählen als auch Information selektiv über Zeiträume bis zu 4 Stunden speichern können (Böhm u. a. 2016). Die Pflanze löste innere Prozesse in Abhängigkeit von Berührungssignalen an ihren Härchen aus. 2 Berührungen: Zuschnappen; ab 4 Berührungen: in Gang setzen des Verdauungsprozesses, die Intensität des Verdauungsprozesses nimmt mit der Anzahl der Berührungen zu. Kinästhetische Berührungen lösen somit elektrische Impulse aus, die schließlich in hormonelle Signale umgewandelt und als Information mindestens 4 Stunden gespeichert werden. Die Speicherung setzt einen kohärenten Mechanismus über größere Areale voraus und eine Kopplung in und von Zellen und damit eine Verschränkung auf Ebene der organischen Chemie. Homologe Verbindung zur Physik Organische Chemie bedeutet letztlich Spinensembles, Aufbau- und Oberflächenstrukturen. Die physikalischen Zusammenhänge (Kap. 8.1.1.4) verdeutlichten, welche Rolle Oberflächen und Atome für die Speicherung von Information einnahmen. Da auch lebende, aber noch nicht-bewusste Lebensformen ebenfalls Informationen und vor allem Muster speichern und verarbeiten müssen, stellt sich die Frage, auf welche Weise sie dies tun. Auch wenn wir noch von eher automatischen Prozessen ausgehen, so zeigen die pflanzlichen Beispiele eindeutig Automatismen, die sich primär im Übergang von der reinen Quanten- zur mikrobiologischen Ebene abspielen. Aufgrund der Schnelligkeit der Abläufe sind auf dieser Ebene derzeit Quantenverarbeitungsprozesse nicht nur möglich, sondern sogar wahrscheinlich. Diese Quantenspeicher in Form von Oberflächen- und Atomstrukturen auf einer rudimentären Ebene sind offensichtlich in der Lage, autonome Verarbeitungsprozesse aufgrund von Mustererkennungen durchzuführen, die der jeweiligen Entität das Überleben sichert. Genauso wie Atome, Moleküle, Kristalle oder andere anorganische Entitäten ihre Eigenschaften in Form von Spins und topologischen Strukturen speichern, speichern
424
8 Modellentwicklung von der Mikro- zur Makrowelt
höherentwickelte Entitäten ebenfalls Informationen in ihren anorganischen Zellstrukturen, die ebenfalls als Spinensembles und topologische Strukturen zu betrachten sind. Bemerkenswert ist auch die topologische Ähnlichkeit zum Gehirn, wie die Forscher feststellen. Ergibt sich eine stimmige und relevante Kohärenz mit der Umwelt oder anderen Entitäten, folgen Reaktionen, die im Rahmen der Freiheitsgrade der jeweiligen Entitäten liegen. In den bisherigen Beispielen kann deshalb von automatischen Entscheidungen gesprochen werden, die für die weitere Existenz des Systems von Relevanz sind. Mit den Überlegungen der Gruppe von Topham (Topham u. a. 2017) erhöht sich zudem die Rechner- und damit Verarbeitungsleistung mit Zunahme der beteiligten Entitäten, direkt vergleichbar mit der Zunahme von Bits und Qubits in den Computern. 8.2.1.6 DNA Von Rieper wurde die These untersucht, ob Quanteneffekte Einfluss auf die Informationsprozesse in der DNA haben, denn die DNA fungiert als Informationsspeicher und als Signalüberträger in einem thermischen Nicht-Gleichgewichtszustand (Rieper 2011: 41-54). Zur Berechnung solch quantenmechanischer Prozesse in der DNA wurden in der Quantenchemie verschiedene Techniken entwickelt. Sie ermöglichen zumindest vereinfachte Dynamiken auf der Basis von Experimenten und deren Messergebnissen zu simulieren. In diesem Fall sind verschiedenste Bindungsenergien und Frequenzen von Molekül- und Zellstrukturen bekannt. Vollständige Simulationen sind aktuell noch unmöglich. Ein Kernelement ihrer Untersuchung war die Energieverteilung zwischen den Nukleinsäuren der DNA. Die DNA (auch DNS = Desoxyribonukleinsäure genannt) setzt sich u. a. aus einzelnen Nukleinbasen (Adenin, Cytosin, Guanin und Thymin) zusammen. Diese Nukleinbasen sind Makromoleküle und liegen in planer Struktur mit umgebenden Elektronenwolken vor. Über Wasserstoffbrückenbindungen bilden diese Nukleinbasen eine Doppelstrangstruktur, die berühmte Doppelhelix der DNA und letztlich der Träger unserer zu vererbenden Gene. Es sei angemerkt, dass wir es hier wieder mit Proteinstrukturen zu tun haben, denn Nukleine sind im Zellkern vorkommende Eiweißverbindungen. Ihrem Modell nach konnte Rieper eine Delokalisierung von Elektronen und damit Kohärenz zumindest für nahe beieinander liegende Kettenglieder nachweisen und das auch bei Raumtemperaturen. Sie präsentierte damit ein Beispiel, wie chemische Bindungen durch Verschränkungen beschrieben werden können. Ein Ergebnis, das sich konsequent aus der Theorie der Quantenphysik ableiten lässt, nach der jedes Molekül einer eigenen Wellenfunktion entspricht und jede molekulare Verbindung einen Verschränkungszustand zwischen den beteiligten Wellenfunktionen darstellt. In diesem Falle haben wir es mit einer Dipol-Verbindung zu tun, bei der Elektronen von einem System auf ein anderes wechseln, was zur Anziehung führt. Quantenmechanisch ist damit der Vorgang des ‚Tunnelns’ realisiert. Je nach Variante handelt es sich bei solchen Dipolbindungen um starke oder schwache Wechselwirkungen. Die oben aufgeführten Wasserstoffbrückenbindungen zwischen den Nukleinbasen bilden einen Sonderfall
8.2 Biologische Systeme und Physik
425
einer Dipol-Dipol-Bindung und bilden für solche Bindungstypen die stärkste Wechselwirkung aus. Dass quantenmechanische Kohärenzen über Energiebarrieren hinweg auch bei schwach gekoppelten Wellenfunktionen, also schwachen Wechselwirkungen möglich sind, zeigt der bereits vorgestellte ‚verallgemeinerte Josephson-Effekt’, mit dem das eben angesprochene ‚Tunneln’ erklärt wird. Solche Energiebarrieren konstituieren sich über Molekülübergänge, Zellwände oder auch Leerräume zwischen Systemen. Es ist deshalb anzunehmen, dass sich die Kohärenzen auch auf Regionen ausdehnen, die nicht mehr im direkten Einfluss der Dipolmomente liegen. Diesen Aspekt berücksichtigte Rieper in ihrer Dissertation nicht weiter, da sie bereits den geringen Energiebeitrag aus der Dipol-Dipolbindung zwischen den einzelnen DNA-Strängen als zu vernachlässigen ansah. Sie formuliert aber einen sehr klaren Zusammenhang, der sich ebenfalls aus dem modernen quantenphysikalischen Verständnis ergibt: „The stronger the entanglement, the more binding energy the molecule has“ (ebd 50). Umgekehrt bedeutet dies, dass die energetische Kompaktheit ein Maß für eine Verschränkung darstellt. Je stärker sich Systeme von ihrem Umfeld unterscheiden lassen, desto stärker sind diese Systeme in sich verschränkt und die gesamte Information ist über dieses Gesamtsystem verteilt. Übertragen wir diese Interpretation auf einen Menschen, der scheinbar eindeutig gegenüber seinem Umfeld abzugrenzen ist, so ergibt sich die logische Konsequenz: Die Gesamtinformation, die den Menschen ausmacht, ist über alle seine Subsysteme wie Organe, Zellen, Moleküle, einzelne Atome und letztlich auch Elektronen verteilt. Aus Rieper’s Modellierungen ergeben sich auf jeden Fall keine permanente, sondern nicht-permanente Dipolmomente189, die sich aus der Oszillation der Elektronenwolken um ihren Kern entwickeln (ebd. 43). Rieper nimmt an, dass „This oscillation might be caused by an external field, or induced by quantum fluctuations, as it is given in a DNA strand“ (ebd. 44) und dass ein einzelner DNA-Strang einer Kette harmonischer Oszillatoren ähnelt, wobei jede benachbarte Base die Distanz zur anderen Base mit einer Dipol-Dipol-Interaktion überwindet. Nicht-permanente Dipolmomente, ausgelöst durch Oszillation, deuten auf zu- und abnehmende Verschränkungsintensitäten hin, was nach Plenio (Caruso u. a. 2010) den Informationstransfer eher unterstützt als schädigt. Aus ihren Betrachtungen zum Informationsprozess ergaben sich weitere wichtige Erkenntnisse. Sie berechnete dazu die ‚Shannon Entropie’. Ein, wie bereits vorgestellt, informationstheoretisches Verständnis des Begriffes Entropie. Als Ergebnis zeigte sich eine eindeutig quantenmechanische Korrelation der Nuklein-Basen untereinander. Sie sind zweifelsfrei lokal vermischt, also kohärent und damit verschränkt. Da, wie sie ausführt, das Eintreten potentieller Veränderungen, als auch die Interaktion zwischen beteiligten Systemen linear abhängig ist von der Anzahl der beteiligten Elektronen, erstreckt sich auch die gemeinsame Frequenz über den betroffenen räumlichen Bereich 189
Der Dipolmoment ist ein Maß für die Polarität eines Moleküls. Aus ihm lässt sich die Bindungsstärke zwischen Molekülen ableiten. Bei nicht-permanenten Dipolmomenten schwankt diese Bindungsstärke.
426
8 Modellentwicklung von der Mikro- zur Makrowelt
(vgl. ebd. 46). Auf diese Weise lassen sich spezielle Basenpaare innerhalb eines speziellen Gens zu einer tautomeren Form und damit zu einer Mutation anregen. Erfasst die DNA diese Mutation schnell genug, führt dies zu einer nachhaltig veränderten DNA. Dies gelingt bereits mit sehr geringem Energieaufwand. Konsequenterweise ergaben ihre Berechnungen einen eindeutigen Hinweis auf einen quantenphysikalisch getragenen, selektiven Auswahlprozess zur Mutationsbildung, abhängig vom Umfeld (vgl. ebd. 102). Dieser lag um einen Faktor 100 über einem klassisch angenommenen Zufallsprozess. Demnach ergeben sich auch bei ihr eindeutig Effizienzvorteile für quantenmechanisch unterstützte Mechanismen. Dies lässt die plausible Interpretation zu, dass eine Verschränkung mit der Umwelt, eine gezieltere Anpassung an dortige Veränderungen ermöglicht. Womit wiederum das Prinzip der Schnelligkeit und Effizienz in den evolutionären Prozessen zu finden wäre und die Antwort zum Mutationsmechanismus das klassische Verständnis widerlegt. Entsprechend einer Berechnung von Warnke würden von 1085 Zellen nur eine einzige eine Mutation tragen (Warnke 2011: 24). Demnach könnte man innerhalb einer Milliarde Jahre nur 1045 Individuen erwarten, was nach ihm eine Gesamtwahrscheinlichkeit (10-85 x 1045) für die Entstehung eines mutierten Individuums von 10-40 bedeuten würde. Er schließt daraus, dass Mutationen nicht von alleine eintreten können und die gängigen Theorien, die den Zufall verantwortlich machen, nicht haltbar sind. Im Vergleich zu Warnke scheint Rieper’s Berechnung zwar eine sehr viel geringere Größenordnung für klassische, dem Zufallsprozess unterliegende Mutationen zu ergeben, sie geht jedoch in die gleiche Richtung190. Rieper zeigte mit ihrer Arbeit, wie schwache externe EMF Einfluss auf lebende Systeme haben können. Einflüsse, die über normale, nicht-quantenphysikalische Feldmodelle nicht gefunden werden (Rieper 2011: 70). Eine Erkenntnis, die für die Diskussionen im Bereich Mobilfunknutzung oder Alternativmedizin von Bedeutung sein dürfte. Und wieder zeigt sich ein Beispiel, wie vermutlich quantenphysikalische Wechselwirkungen erhebliche Auswirkungen auf makroskopische Zustände verursachen. Zum besseren Verständnis Rieper’s Erkenntnisse veranschaulicht in Abb. 77. a) und b) stellen zwei unterschiedliche Moleküle im klassischen Verständnis dar. Hier lassen sich unterschiedliche Quantenzustände und damit unterschiedliche Wellenfunktionen zuordnen, bei scheinbar gegenseitiger Unabhängigkeit. Abb. 77c) zeigt das Molekül im Grundzustand 0 (|ψ� ⟩) innerhalb eines extern angelegten Feldes. Angenommen, dieses Molekül im Zustand 0 besitzt einen angeregten Quantenzustand |Ψ�⟩ der dem von Molekül 1 ähnelt (⟨Ψ� |Ψ� ⟩ ≈ 1). Jetzt ist die Situation entstanden, dass sich sowohl der Grundzustand |Ψ� ⟩ als auch der angeregte Zustand |Ψ� ⟩ manifestieren kann. Diese lassen sich aufgrund ihrer Superposition, die durch eine gemeinsame Wellenfunktion zum Ausdruck kommt, nicht mehr unterscheiden. Es liegen damit gleichzeitig mehrere Zustandsmöglichkeiten parallel vor. Mit einer mathematisch bestimmbaren Wahr-scheinlichkeit 190
Auch bei Al-Khalili wird eine geringere Mutationsrate von 1 zu einer Milliarde (109) angegeben (AlKhalili und McFadden 2015: 67).
8.2 Biologische Systeme und Physik
427
entwickelt sich daraus eine Fehlinterpretation, die zur Realisierung des Zustandes |Ψ� ⟩ führt und über den gesamten Kohärenzbereich Einfluss ausüben kann – sprich, der neue Zustand wird großflächig konstituiert. Biologisch gesehen wäre eine Mutation die Folge. Dabei kommt es nicht auf die Größe des Ausschlags, also der Intensität an. Wichtig ist nur eine ausreichende Passung der Frequenz. Je besser die Passung, je größer die Wahrscheinlichkeit einer Fehlinterpretation. Auch ganz schwache Felder können deshalb Wirkung erzielen.
a) ρ� = |0⟩⟨0| ⊗ |ψ� ⟩⟨ψ� |
b) ρ� = |1⟩⟨1| ⊗ |ψ� ⟩⟨ψ� |
c) ρ� = |0⟩⟨0| ⊗ (p� |ψ� ⟩⟨ψ� | + p� |Ψ� ⟩⟨Ψ� |)
Abb. 77 | Moleküle im klassischen und im quantenphysikalischen Verständnis a) Molekül A mit Zustand ρ� , b) Molekül B mit Zustand ρ� , c) ein äußerlich angelegtes EM-Feld ändert durch Anregung den Quantenzustand und führt zu Fehl-Codierung. Darstellung in Anlehnung an Rieper (vgl. ebd. 72).
Passend zu den Ergebnissen von Rieper, lassen sich Forschungen in der USA interpretieren. Blank und Goodman beobachteten Interaktionen (mittels EMF) mit der DNA über sehr weite Frequenzbereiche und das bei extrem niedrigen Frequenzen (Extremely Low Frequency (ELF) 3–30 Hz) bis hin zu Radiofrequenzen (Blank und Goodman 2011). Sie interpretierten dies als eine funktionelle Charakteristik von fraktalen Antennen, elektronische Leitfähigkeit und Selbstsymmetrie. Aufgrund dieser Wechselwirkungen können nach ihnen auch chemische Entwicklungen in der frühen geologischen Geschichte oder DNA-Defekte und Mutationen entstehen, aber eben auch Krebs. Diese äußeren EMF beeinflussen beispielsweise unterschiedliche Proteine, die differenziert die schnellen Muskeln im Bereich von ca. 100 Hz und die langsamen Muskeln bei ca. 10 – 20 Hz stimulieren (ebd. 409-410). Ein weiterer quantenphysikalischer Effekt, nämlich ein extrem spinselektives Verhalten der DNA in Bezug auf die Wechselwirkung mit Elektronen, wurde von einer anderen Forschergruppe beobachtet (Göhler u. a. 2011). Ihre Untersuchungen erfolgten bei normaler Umgebungstemperatur und mit unpolarisiertem Licht. Mit dem unpolarisierten Licht wurde ein weiterer Schritt in Richtung normale Umweltbedingungen gegangen. Als Ergebnis erkennen sie die Wichtigkeit des Spins bei Biomolekülen an, was bisher vernachlässigt wurde, und dass er eine wichtige Rolle bei der Elektronen-DNA-
428
8 Modellentwicklung von der Mikro- zur Makrowelt
Interaktion in biologischen Systemen spielt. Sie bezogen ihre Ergebnisse auf alle Formen von chiralen Molekülen191. Zudem schlossen sie auf ein ‚pseudo-Magnetfeld’ innerhalb der Stränge mit nur wenigen hundert Tesla, das als Spinfilter wirkt und nicht von außen induziert ist. Ihre Überraschung bezog sich vor allem darauf, dass Spineffekte bei Elektronentransfers bisher nur in magnetischen Materialien, in Systemen mit schweren Atomen oder in topologischen Isolatoren bekannt sind. Beispiele, die bisher nur in der klassischen Quantenphysik auftreten und bereits vorgesellt wurden (Kap. 8.1.2.3). Spins, die gespeicherte Information repräsentieren, scheinen offensichtlich auch relevant für Wechselwirkung und Kohärenz mit der DNA und deren Anpassung an die Umwelt. Neueste Forschung bei der Wildgrassorte (Alloteropsis semialata) scheint diesen „lateralen Transfer von großen DNA Fragmenten“ (Dunning u. a. 2019) mit funktionaler Wirkung zwischen entfernt verwandten Arten zu bestätigen. Die Forscher entdeckten in dieser Wildgrassorte 59 lateral erworbene Genfragmente von zumindest 9 unterschiedlichen Spenderarten und dass diese Anpassungsform bei Wildgräsern weit verbreitet scheint. Die Autoren stellen noch keinen Bezug zur hier vorgestellten DNAForschung her, sondern sehen den zugrundeliegenden Prozess derzeit noch als schwer fassbar an. Übergreifend lässt sich als Schlussfolgerung ein primär frequenzabhängiger Mechanismus vermuten, der mit den bisherigen Überlegungen übereinstimmt. EMF aus dem Umfeld, welche auch aus natürlichen Quellen wie Zellen oder komplexeren Lebensformen emittiert werden, treten in Wechselwirkung mit der DNA anderer Organismen. Dieser Vorgang geht einher mit einer übergreifenden Kohärenz und erhöht die Möglichkeit Mutationen zu realisieren, die mehr Gemeinsamkeiten haben und damit auch besser aufeinander abgestimmt sind. Erweist sich diese neue Mutation als lebensfähig, tritt sie mit dem Umfeld in gleicher Weise in Wechselwirkung – ihre EM-Wellen überlagern sich mit den EM-Wellen ähnlicher Systeme und können dadurch ihre neue Struktur auf diese übertragen. Von außen angelegte Felder können diesen Vorgang auf nicht-lokale Kontakte ausdehnen (siehe Versuche von Trushin (2003) oder Collini u. a. (2010)) und entsprechend der Wellenlogik der Quantenmechanik an vielen Stellen gleichzeitig neue Mutationen implementieren. Mit der Zunahme der Population dieser neuen Mutation erhöht sich deren prozentualer Anteil und damit die Energiedichte dieser speziellen, codierten Information und sorgt für einen sich selbst verstärkenden Effekt. Al-Khalili und McFadden beziehen sich auf Jordan und Schrödinger, wenn sie feststellen, dass sich Leben von unbelebten Objekten dadurch unterscheidet, dass eine kleine Anzahl hochgeordneter Teilchen einen ganzen Organismus beeinflussen können (AlKhalili und McFadden 2015: 70). Mit der kleinen Anzahl spielen sie auf die 46 DNAMoleküle an, die bei Menschen von den Eltern vererbt werden. Gleichzeitig wird hier 191
Chirale Moleküle sind die DNA mit ihrer Doppelhelix und beispielsweise auch Enzyme. Die Chiralität selbst bezieht sich auf unterschiedliche räumliche Anordnungen von Atomen oder Molekülen, in Verbindung mit symmetrischen Konfigurationen.
8.2 Biologische Systeme und Physik
429
die 2. Bedingung von Greenstein und Zajonc bestätigt, in der die Mikroebene die Makroebene beeinflusst. Homologe Verbindung zur Physik Bei diesen Forschungen sind die gleichen Phänomene (Spinselektivität) in biologischen Systemen aufgetreten, wie sie in gängigen quantenphysikalischen Experimenten untersucht werden und bisher als nicht-relevant für Makro- bzw. thermische Nicht-Gleichgewichtssysteme erschienen. 8.2.1.7 Zusammenspiel von DNA und nicht-kontaktbasierter Informationsübertragung Auf dem Weg besser die Entstehung und Wirkungsweise von HIV und anderen Krankheiten zu verstehen, erkannte Montagnier192 Zusammenhänge, die die bisherigen in diesem Kapitel vorgestellten Experimente bestätigen und zusammenführen, gleichwohl erheblichen Widerstand in der Wissenschaft auslösten (Montagnier u. a. 2011). Als Folge ergibt sich aus seiner Sicht eine Evidenz für eine nicht-partikel-orientierte Sicht auf das Leben. Er konnte zeigen, dass einige bakterielle und virale DNA-Sequenzen niederfrequente EM-Wellen in hohen wässrigen Verdünnungen induzieren (vgl. ebd. 1). Verantwortlich dafür macht er das sehr niederfrequente EM-Umfeld bei 7 Hz. Die 7 Hz entsprechen dem natürlichen Strahlungshintergrund der Erde und sind als Schumann-Frequenz193 bekannt. Damit entsprechen sie der gleichen Frequenz, die das Gehirn produziert und in der spezielle Erfahrungen im Rahmen mentaler Praxis gemacht werden (siehe Kap. 8.3). In seinen Untersuchungen konnte er HIV-DNA-Sequenzen, Einzel-Gene und krankmachende Bakterien und Viren identifizieren, die EM-Signale produzieren konnten; interessanterweise in genau der gleichen Frequenz wie es das Blutplasma der infizierten Menschen aufwies. Gleichzeitig war irritierend, dass sich die genetische DNA-Information auf separiertes, reines Wasser mittels EMF übertragen ließ. Das reine Wasser emittierte die gleichen EM-Signale wie die Original-Probe. Montagnier geht von Verunreinigungen im Wassers im nm-Bereich aus, an denen sich die übertragenen Frequenzen manifestieren. Im Prinzip entsprach seine Versuchsanordnung der von Abb. 74. Das Gläschen mit DNA-Schnipseln war von den Wasserbehältern isoliert und nur über eine EMF von 7 Hz verbunden. „It was shown clearly that the water nanostructures and their electromagnetic resonance can faithfully perpetuate DNA information“ (ebd. 5). In weiteren Versuchen konnte Montagnier und seine Gruppe zeigen, dass die mittels EM-Signalen übertragene Information einzelner DNA-Sequenzen ausreicht, um auf Wirtszellen übertragen zu werden. Die reine EM-Information der Einzelsequenzen führt zur Bildung dieser Sequenzen innerhalb der Wirts-DNA. Neben den Versuchen mit 192 193
Montagnier erhielt für seine Forschungen 2008 den Nobelpreis in Medizin. Schumann-Frequenzen liegen bei 7,83 Hz, 14,3 Hz, 20,8 Hz ... und bilden stehende EM-Wellen um die Erde. Sie sind quasi das Produkt eines makroskopischen Hohlraumresonators, der durch die leitfähige Erdoberfläche und leitfähige Iononsphäre (Untergrenze in 70 – 90 km Höhe) begrenzt wird. 7,83 Hz werden als tiefste und fundamentalste Resonanz angesehen.
430
8 Modellentwicklung von der Mikro- zur Makrowelt
reinem Wasser machten sie die gleichen Beobachtungen in Blutplasma und roten Blutzellen. Beide trugen die DNA-emittierenden Signale, obwohl die roten Zellen keine zelluläre DNA enthalten. Hier liegt also das gleiche Phänomen der übertragenen EM-Signale vor wie beim reinen Wasser. In diesen Versuchen wurden die Lymphozyten Stück für Stück umgebaut, bis das infektiöse Virus vollständig regeneriert war. Alle Versuche fanden bei normaler Raumtemperatur statt. In ihrer Erklärung194 beziehen sie sich auf die QFT und die Bildung kohärenter Domänen, die durch oszillierende Moleküle ausgebildet werden und als Falle, gleich einem Hohlraumresonator wirken, der sich selbst gebildet hat. Das Energieband unterscheidet sich vom normalen Umfeldrauschen und ist dadurch in der Lage, den kohärenten Status aufrechtzuhalten. An den Rändern werden immer wieder Wirts-Moleküle aufgenommen, die Frequenz und damit der spezifische angeregte Zustand wird auf diese WirtsMoleküle ausgedehnt und so die kohärente Domäne erweitert, bis schließlich die Umbauarbeiten vollendet sind. Hier lässt sich der oben von Rieper geschilderte Mechanismus perfekt adaptieren. Aus Sicht der Forschungsgruppe ist dieser Prozess auf jede Flüssigkeit übertragbar. Auch Wasser ist danach in der Lage, dissipative Strukturen195 zu generieren. Das nötige EM-Feld für Mikroorganismen wird ihrem Verständnis nach durch die Schumann-Frequenz zur Verfügung gestellt. Im menschlichen Körper selbst kann dies durch die Aktivitäten der Nervenzellen erzeugt werden (vgl. ebd. 7). In Fortsetzung solcher Untersuchungen konnte eine andere Gruppe (Gibson u. a. 2010) zeigen, dass auch rein digitalisierte Genom-Sequenzen gespeichert und auf das Cytoplasma196 einer Empfänger-Zelle übertragen und dort als übertragene Eigenschaften hervortreten. Leben ist nicht mehr von Leben entstanden, sondern nur noch aus Information und geeigneten Bausteinen im Umfeld. Homologe Verbindung zur Physik Neben den bereits dargestellten Zusammenhängen, Frequenzabhängigkeit und nicht-lokale Informationsübertragung, offenbart sich an diesem Beispiel ein direkter Bezug zur QT. Information wird, aus der Perspektive einer teilchenorientierten Physik, nicht-lokal übertragen und manifestiert sich in einem neuen Umfeld. Aus der Perspektive des Wellenmodells ergibt sich eine Anschlussfähigkeit an das Modell der ‚klassischen Verschränkung’ über EMF.
194 195
196
Ausführliche Erklärung (Montagnier u. a. 2011: 5–9). Dissipative Strukturen beschreiben die Fähigkeit, in thermischen und damit offenen Nicht-Gleichgewichts-systemen, selbstorganisierte und geordnete Strukturen auszubilden. Cytoplasma oder Zellplasma ist eine dicke, zähe wässrige Flüssigkeit, die den gesamten inneren Bereich einer Zelle ausfüllt.
8.2 Biologische Systeme und Physik
8.2.2
431
Biophysik bei Tieren
Nachfolgend eine kleine Auswahl quantenphysikalischer Phänomene in der Tierwelt. 8.2.2.1 Nachhaltige Quantenkohärenz und Verschränkung bei Vögeln Ein weiteres Beispiel für Quantenprozesse in lebenden Systemen stellt der 1972 entdeckte Magnetsinn von Vögeln dar (Wiltschko und Wiltschko 1972). Weiterführende Forschung und Experimente (Hiscock u. a. 2016; Wiltschko u. a. 2016; Rieper 2011; Ritz u. a. 2000) brachten eindeutige Evidenz und eine Modellbildung zur Magnetfeldwahrnehmung hervor. Nach heutigem Stand orientieren sich ca. 50 Tierarten am Erdmagnetfeld und nutzen es für ihre Navigation. Derzeit ist keine chemische Reaktion bekannt, die auf solch schwache Magnetfelder (~ 50 µT) ansprechen oder sensibel für deren Ausrichtung wären. Auf der Suche nach Antworten scheinen die Forscher nun fündig geworden zu sein. Basierend auf einem Radikalenpaar-Modell im Auge von Vögeln, nicht-trivialen Quanteneffekten und Spin-Veränderungen, ergeben sich sehr klare Evidenzen für Quantenkohärenz und Verschränkung. Dies wird im Folgenden veranschaulicht am Beispiel eines europäischen Rotkehlchens. Auslöser waren frühere Experimente, bei denen die Orientierung der Rotkehlchen nach Anlegen eines schwachen Feldes verloren ging. Als Ausgangspunkt des Phänomens wird ein fotochemischer Prozess im Auge des Vogels angenommen (Abb. 78).
Abb. 78 | Startprozess zur Radikalenpaar-Bildung im Auge von europäischen Rotkehlchen Image und Beschreibung: Rieper (Rieper 2011: 9). Eintreffende Photonen beeinflussen das Spinverhalten zweier Elektronen auf der Augenretina. Darüber hinaus werden die Kernspins der Moleküle an die Elektronen gekoppelt. Das Erdmagnetfeld lässt sich mithilfe des Zeeman-Effektes als eine Anordnung von Spektrallinien vorstellen, an denen sich die Spins der Elektronen und der Kerne der Moleküle ausrichten und orientieren. Auf diese Art und Weise kann der Vogel kleinste Richtungsänderungen wahrnehmen.
Jedes einfallende Lichtteilchen trifft auf die Netzhaut und wechselwirkt dort mit einem Rezeptormolekül unter Freisetzung eines Elektrons. Diese interagieren daraufhin mit einem benachbarten Molekül. Als Ergebnis bilden sich Radikalenpaare, bei denen die zugehörigen Moleküle jeweils ein Elektron zu wenig und eines zu viel haben. In einem zweiten Prozessschritt werden weitere Radikalpaare durch Reoxidation gebildet, welche auch ohne Licht über Minuten stabil bleiben (vergleichbar der Ergebnissen bei Insekten von bis zu 6 Min. (Herbel u. a. 2013)). Diese Elektronen besitzen nun einen quanten-
432
8 Modellentwicklung von der Mikro- zur Makrowelt
mechanischen, räumlich-verteilten Spin, der mit dem Magnetfeld der Umgebung wechselwirkt, ähnlich wie Eisenspäne mit Stabmagneten. Bewegt sich der Vogel, reagiert auch der Spin der Elektronen und löst biochemische Prozesse aus, die dem Rotkehlchen als Richtungsinformation dienen. Zwei Elektronen werden zu Beginn durch das Photon zu einem Singulett-Zustand197 angeregt. Des Weiteren existiert ein Kernspin, der an eines der Elektronen ankoppelt. Es handelt sich hier um eine anisotrope Kopplung, sodass das Molekül eine Ausrichtung zum Spin besitzt (Rieper 2011: 9). Der Zeeman-Effekt beschreibt die Aufteilung von Spektrallinien (hier der magnetischen Energie B) in ihre Einzelkomponenten unter Anwesenheit eines statischen Magnetfeldes (hier das Erdmagnetfeld). Der räumlich-verteilte Spin des Elektrons erfährt durch die Spektrallinien Veränderungen, sobald es auch nur zu kleinsten Richtungsänderungen kommt. Mit Bezug auf Abb. 77 nimmt Rieper an, dass ein schwach oszillierendes Feld in Resonanz mit den beiden für die Navigation wichtigen Quantenzuständen gegangen ist und deshalb Störungen im Magnetsinn des Vogels erzeugt (vgl. ebd. 73). Mit der Forschung 2016 wurde, auf dem ersten Radikalenpaar aufbauend, die Bildung eines weiteren Radikalenpaares nachgewiesen, das letztlich auch eine Orientierung im Dunkeln ermöglicht und wesentlich zeitstabiler ist. Aktuelle computergestützte Simulationen präzisierten und konkretisierten die bisherigen Erkenntnisse (Hiscock u. a. 2016). In Modellrechnungen zeigte sich eine sehr viel größere Sensibilität für Änderungen bei quantenmechanischer Verschränkung der Spins gegenüber einer nicht-verschränkten Variante. Tatsächlich wurde 2008 (Maeda u. a. 2008) der experimentelle Nachweis für einen möglichen Prozess geliefert, in dem ein magnetisches Feld die Lebensdauer eines Radikalenpaars beeinflusste. Es lässt sich damit annehmen, dass Vögel von einer solch höheren Sensibilität profitieren. Die Frage, die sich die Wissenschaftler dabei noch stellen, bezieht sich auf den Kontext, in dem dieser Mechanismus besonders Bedeutung erlangt. Sind es die Langstreckenflüge oder eher die schnelle Orientierung und Ausrichtung im Schwarm oder für das Verhalten gegenüber Angreifern? Die Gruppe um Vedral (Gauger u. a. 2011) berechnete auf der Basis des Radikalenpaarmodells in Kombination mit experimentellen Daten eine mögliche Verschränkungsdauer von 10-5 Sekunden (= 10 ms), wobei nach Berechnungen von Hiscock 1 ns ausreichen würde (Hiscock u. a. 2016). Sie übertrifft damit die besten von Menschen produzierten Laborwerte mehr als deutlich. Durch die 2016 veröffentlichte Untersuchung wurde die Verschränkungsdauer experimentell mindestens in den Minutenbereich verschoben. Offensichtlich scheint die Natur Mittel und Wege gefunden zu haben, wie sie Kohärenzen relativ stabil halten kann. Cai und Plenio führen dies auf die gleichen Zusammenhänge zurück, wie sie bei den Bakterien schon beschrieben wurden (Cai und Plenio 2013). Weitreichende Kohärenzen, die nachbarschaftliche Beziehung von Molekülen weit überschreiten, als auch kontinuierliche Störungen, helfen die Verschrän197
Ein Singulett-Zustand bezeichnet den Spinzustand eines Mehrelektronenatoms. Der Gesamtspin des Elektrons ist Null, da sämtliche Elektronen antiparallel ausgerichtet sind.
8.2 Biologische Systeme und Physik
433
kungsdauer in offenen Quantensystemen signifikant zu steigern. Aus Sicht der Forscher weisen die Experimente mit Vögeln starke Indizien für die Verwendung des oben beschriebenen Radikalenpaarmechanismus auf. Dieser Ansatz stellt momentan das einzig brauchbare Modell dar, das sowohl theoretisch als auch experimentell konsistente Erklärungen liefert. Rieper kam am Ende ihrer Dissertation über ‚Quantenkohärenz in biologischen Systemen’ zu dem eindeutigen Schluss, dass Quanteneffekte in biologischen Systemen allgegenwärtig sind. Sie formulierte dazu zwei präzisierende Sätze: „Life is chemistry, and chemistry is quantum mechanics.“ […] „The change of a single quantum number, the spin, may have macroscopic implication on the direction European Robins choose to fly to“ (Rieper 2011: 115). Homologe Verbindung zur Physik Nachdem Cai und Plenio den chemischen Kompass bei Vögeln als Quanten-Interferometer198 betrachten, der die Möglichkeit liefert, Informationen über die Richtung des Magnetfeldes zu generieren, ergibt sich die einfache Schlussfolgerung (Cai und Plenio 2013): Vögel lassen sich als quantenphysikalisches Messgerät zumindest in Bezug auf Erdmagnetfelder interpretieren. Gleichzeitig liegt mit diesen Erkenntnissen ein konkretes Beispiel vor, das die ersten beiden Bedingungen von Greenstein und Zajonc repräsentieren (Kap. 7.3.1). Bedingung 1 war die ausreichende Entkopplung der Mikro- von der Makroebene. Das Radikalenpaar bewegt sich mit völlig anderen Freiheitsgraden als der Vogel selbst und sucht sich seinen Weg aufgrund von sehr zufälligen Variablen in der Umgebung des Auges. Sitzt der Vogel auf einem Ast oder frisst er, wird das Radikalenpaar keinen Einfluss auf ihn ausüben. Fliegt der Vogel aber und hat er ein bestimmtes Ziel im Auge, so ist sein inneres Erwartungssystem auf die Impulse des Radikalenpaars ausgerichtet und leitet ihn (Bedingung 2). Das Radikalenpaar übt somit Einfluss auf das Makrosystem Vogel aus. Und schließlich darf auch meine Annahme, dass die Temperatur nur als relative Relation angesehen werden kann, als bestätigt gelten (Kap. 7.3.1). Bezug zur SyA Die Wirkung der inneren Erwartungshaltung scheint bei Repräsentanten von SyA nicht anders zu sein. Auch sie agieren oder reagieren entsprechend innerer Wahrnehmungen.
198
Mithilfe der Interferometrie lassen sich Informationen aus Wellenüberlagerungen gewinnen. Die Gesamtwelle kann mit dieser Messmethode in ihre Einzelwellen aufgespalten und diese damit bestimmt werden. SQUID’s (supraleitendes Quanten-Interferometer) stellen die quantenmechanische Variante dar und beruhen auf dem Josephson-Effekt. Sie dienen zur Erfassung schwächster Magnetfelder. Ergänzt mit ihrem mathematischen Pendant, der Fourier-Transformation, lassen sich solche gemessenen Wellen grafisch darstellen. Im Kap. 8.3 Neurowissenschaften werden wir wieder darauf zurückkommen.
434
8 Modellentwicklung von der Mikro- zur Makrowelt
8.2.2.2 Geruchssinn reagiert auf Frequenzen und Tunneleffekten Untersuchungen bei Fruchtfliegen (Franco u. a. 2011) zeigten ebenfalls experimentelle Evidenz für ein völlig anderes Verständnis in Bezug auf das Phänomen ‚Riechen’. Nicht die Form der Moleküle scheint für die Geruchserkennung verantwortlich zu sein, wie bisher angenommen wurde, sondern die Vibration der Moleküle und Tunneleffekte. Untersuchungen (2013) bei Menschen bestätigten diesen Sachverhalt auch dort (Gane u. a. 2013), nur musste für untrainierte Nasen die Menge an veränderten Isotopen erhöht werden. In beiden Fällen wurden Geruchsstoffe mit unterschiedlichen Isotopen von Wasserstoff verwendet – Wasserstoff selbst und Deuterium. Deuterium (auch bekannt als schwerer Wasserstoff) ist ein natürliches Isotop von Wasserstoff und zeichnet sich durch die gleiche Form aus, besitzt aber im Kern zusätzlich zum Proton noch ein Neutron. Durch die ergänzende Masse des Neutrons wird Deuterium schwerer und ändert damit die Frequenz. Auch hier wird ein Elektron aus den Molekülen des Geruchsstoffs, nach dem Kontakt mit dem Rezeptor, herausgelöst und tunnelt durch den Rezeptor. Die veränderte Elektronenladung führt zu einer veränderten Oszillation und löst wieder biochemische Prozesse aus, die der Körper mit bestimmten Gerüchen assoziiert. Nicht nur, dass die Fruchtfliegen die beiden Isotope differenzieren konnten, sie konnten auch auf jeweils eine Variante konditioniert werden. Darüber hinaus vermochten sie die Isotope in Verbindung mit anderen Geruchsstoffen zu unterscheiden. Im Experiment mit Menschen waren diese in der Lage, die Isotope auch nach einer gas-chromatographischen Reinigung zu erkennen, bei der sämtliche mögliche Verunreinigungen entfernt werden. Es war unerheblich, ob es sich um trainierte oder untrainierte Versuchspersonen handelte. Tatsächlich wurden erste Überlegungen zu Oszillationsmodellen bereits Ende der 1920er Jahre publiziert. In seiner ‚Schwingungs-Theorie’ betrachtete Dyson die Schwingung zwischen den Molekülbindungen als die relevante Verantwortliche für den Riechprozess (Dyson 1928). Allerdings konnte damit noch nicht die Besonderheit bei chiralen199 Formen erklärt werden, die trotz gleichem Aufbau unterschiedliche Gerüche erzeugen (Al-Khalili und McFadden 2015: 187). Wright nahm an, dass die Geruchsrezeptoren selbst chiral aufgebaut sein könnten, und deshalb auch diese Unterscheidung registrieren. Zu dieser Zeit bestand allerdings keine Möglichkeit dies nachzuweisen. In der Folge setzte sich immer mehr die Vorstellung eines Schlüssel-Schloss-Modells (‚Passform-Theorie’), durch, bei der die Form des Geruchsmoleküls zum Rezeptor passen sollte (ebd. 188f). Dieses Modell ist heute noch von Biologen die am meisten bevorzugte Variante, obwohl sie in keiner Weise erklären kann, weshalb Duftstoffmoleküle gleicher Formen unterschiedlich riechen (ebd. 189, 191) bzw. Moleküle unterschiedlicher Form gleich riechen. Diese Schwäche versuchten zwei Forscher mit ihrer ‚Odotope-Theorie’ (auch Schwache-Formen-Theorie genannt) zu beheben (Mori und Shepherd 1994), indem sie annahmen, dass nicht die ganze Form, wohl aber bestimmte chemische Gruppen relevant seien. Jedoch auch sie haben, vergleichbar der ‚Schwin199
Chirale Formen von Molekülen sind Spiegelbilder, die nicht miteinander zur Deckung gebracht werden können.
8.2 Biologische Systeme und Physik
435
gungs-Theorie’ Probleme zu erklären, weshalb Moleküle mit den gleichen chemischen Gruppen aber anderer Anordnung, unterschiedlich wahrgenommen werden. Beispiele sind Vanille und Isovanillin (ebd. 189). Schließlich wies Turin bereits 1996 auf diesen Zusammenhang hin und entwickelte die zugrundeliegende Theorie, basierend auf Frequenzabhängigkeit und Quantentunnelprozess (Turin 1996). Aufgrund der gleichen Frequenz traf er die Vorhersage, dass Boranen (Borwasserstoffverbindungen) und Schwefel bzw. verfaulte Eier gleich riechen müssten. Chemisch und von der Struktur her haben beide Stoffe nichts gemein, sodass nur die gleiche Frequenz den Link zum Geruchsempfinden herstellte. Er verglich den Prozess mit einem technisch bekannten Verfahren, der inelastischen Elektronen-Tunnelspektroskopie (IETS). Dabei gibt ein Elektron einen Teil seiner Energie ab, um den Sprung durch eine Energiebarriere realisieren zu können. Durch die Energieabgabe verändert sich seine Frequenz und gleicht sich der Frequenz der Zielmoleküle an. Die gemeinsame Oszillation von Elektron und Rezeptor ermöglichen also die Überwindung von scheinbar unüberbrückbaren Entfernungen und lassen sich als Verschränkung interpretieren. Turin ging nun davon aus, dass das IETS durch ein Molekül, den Geruchsrezeptor, ersetzt wird. Fängt der Rezeptor ein Duftstoffmolekül mit der richtigen Frequenz ein, gelangt das Elektron durch den Tunneleffekt vom Ausgangspunkt (dem Donator) zum Zielpunkt (dem Akzeptor) und löst die Nachrichtenkette bis ins Gehirn, über olfaktorischen Neuronen, aus. Seine Vorhersage, dass die Oszillation das entscheidende Kriterium ist, konnte er mit dem Vergleich von Schwefel-Wasserstoff und Bor-Wasserstoff-Bindungen bestätigen (Al-Khalili und McFadden 2015: 194). Beide liegen bei 76 bzw. 78 Terahertz und besitzen unterschiedliche Formen, zudem ist in der B-H-Verbindung kein Schwefel enthalten (ebd. 195). Auch er bekam zunächst heftigen Widerstand für seine Theorie, die jedoch durch andere Wissenschaftler (Paoli u. a. 2016; Brookes u. a. 2007) auch von der theoretischen Möglichkeit her bestätigt wurde. Brookes und ihre Kollegen stellten ebenfalls Tunneleffekte fest, vergleichbar dem Magnetkompass bei Vögeln. Ihr Ansatz wird als übereinstimmend mit der bekannten Physik angesehen. Gleichwohl ist die Diskussion zu diesem Mechanismus noch nicht final beantwortet und wird derzeit noch kontrovers behandelt (Block u. a. 2015a, 2015b; Turin u. a. 2015). Zentral bei diesen Versuchen scheint allerdings die Gefahr von Verunreinigungen zu sein, die selbst bei Größen von 0,0006 % bereits wesentliche Verfälschungen erzeugen können (Paoli u. a. 2017). Schließlich gibt es heute noch eine letzte Theorie-Variante (Durchzugleser-Theorie bzw. Swipe-Card-Theory), in der sowohl die Passform als auch die Frequenz auf Quantenebene eine Rolle spielen. Dieses Modell scheint alle experimentellen Befunde zu erfüllen und wurde von Stoneham das erste Mal erwähnt (Brookes u. a. 2012). Um einen frequenzinduzierten Tunnelprozess überhaupt zu ermöglichen müssen demnach gewisse Passungs-Voraussetzungen erfüllt sein, vergleichbar einer Scheckkarte, die durch ein Lesegerät gezogen wird. Brookes konnte zeigen, dass in der Tat auch die Geruchsrezeptoren chirale Form besitzen und für jede Form eigene Akzeptoren existieren.
436
8.2.3
8 Modellentwicklung von der Mikro- zur Makrowelt
Biophysik bei Menschen
8.2.3.1 Antioxidative Wirkung von Pflanzen bei Menschen Ebenfalls 2007 konnte die antioxidative Wirkung von Grünem Tee auf quantenphysikalische Tunneleffekte zurückgeführt werden (Tejero u. a. 2007). Tejero und seine Gruppe erkannten, dass durch Tunneln der Wasserstofftransfer um ein Vielfaches schneller ist, als die Reaktionsfähigkeit der Lipid-Peroxyl-Radikale. Grüner Tee ist in verschiedenen Kulturen mit guter Gesundheit und einem langen Leben assoziiert. Man weiß, dass die in ihm enthaltenden Catechine, die als Antioxidantien wirken, eine entscheidende Rolle spielen, indem sie die schädliche Kettenreaktion zwischen Lipiden und freien Radikalen stören. Bis 2007 war jedoch unklar wie diese Catechine, die nur wenige Mikromol (10-6 = ein millionstel Mol) an Konzentration im Körper aufweisen, wirken. Ihr Modell zeigte die Bildung einer Wasserstoffbrücke mit zwei Sauerstoffatomen. Die dabei gebildete kompakte Struktur und das schmale Energieprofil erlauben für den Wasserstofftransfer sehr große Tunneleffekte. Wie wir gesehen haben, ermöglicht das quantenmechanische Tunneln das Überwinden von Energiebarrieren, was im klassischen Verständnis unmöglich ist. Als Konsequenz ist der Wasserstofftransfer wesentlich schneller an den kritischen Stellen als die Reaktion der freien Radikale mit den Lipiden. Die Radikale werden gefangen bevor sie Schaden anrichten können. Catechine kommen in sehr vielen Tee- und Obstsorten wie auch in Gemüse und Wein vor und ihre schützende Wirkung gegen Krebs, Entzündungen und Herz-Kreislauf-Erkrankungen ist gut erforscht, wie die Forscher schreiben (Tejero u. a. 2007). Da diese ähnliche gesundheitliche Zuschreibungen aufweisen wie Grüner Tee, darf man davon ausgehen, dass dort vergleichbare Mechanismen ablaufen. Auffallend ist, dass sich bei Tejero’s Modell die gleichen Voraussetzungen finden, wie sie in den Theorien zur Photosynthese für stabile, kohärente Prozesse in NichtGleichgewichtszuständen entwickelt wurden: ‚Kompakte Struktur’ und damit enge Beziehungen und starke Wechselwirkungen zum einen sowie ‚Energieprofile’, die sich gegenüber dem verrauschten Umfeld isolieren können. Quantenmechanische Prozesse sind damit beim Menschen angekommen. Analog zum Tunnelprozess bei der Photosynthese weiß der Wasserstoff bzw. die zugehörige Information an welche Stelle sie tunneln muss, um sich dort zu manifestieren. 8.2.3.2 Verarbeitung von Superpositionen beim Hören Die Forschungen von Yost stehen im Gegensatz zur üblichen Auffassung, dass wir beim Hören von Geräuschfeldern (z. B. gleichzeitig Auto, Wind, Musik, Föhn) den Sound einzelner Entitäten wahrnehmen (Yost 1992). Seine Untersuchungen machen deutlich, dass tatsächlich beim Empfänger komplexe Frequenzüberlagerungen ankommen und das neurologische System in der Lage ist, die einzelnen Frequenzen den Objekten zuzuordnen. Dabei wird das Gesamtsoundbild erst durch die Neuronen des Gehirns aufgelöst und zugeordnet und nicht schon beim Transport durch die Nervenbahnen. Wie sie beto-
8.2 Biologische Systeme und Physik
437
nen, widerlegen ihre Ergebnisse das bisherige Verständnis, dass die einzelnen Frequenzen durchgeleitet würden. Damit ist unser Körper auch bei Schallwellen in der Lage, eine Wechselwirkung zwischen ankommenden Informationen und gespeicherten Informationen auf Zell- und Neuronenebene abzugleichen. Als Ergebnis werden mentale Klangbilder zur Verfügung gestellt, die die Außenwelt repräsentieren. Homologe Verbindung zur Physik Im Grunde funktioniert unser Organismus wie eine Laplace-Transformation, die eine Superposition von akustischen Frequenzen entschlüsselt und separiert. Diese Frequenzen treten in Resonanz mit Entitäten der elementaren Ebene wie Atomen und Molekülen, die die Informationen abgespeichert haben und auf kohärente Impulse reagieren. Vergleichbar der Photon-Atom-Photon- erfolgt hier eine Elektron-Atom-ElektronKopplung bzw. eine EMF-Zelle-EMF-Kopplung, über die gleiche Informationsstrukturen erkannt werden. 8.2.3.3 Photonenemission bei Menschen Wie Pflanzen und Tiere steht auch der Mensch mittels Energieabgabe und Energieaufnahme im Austausch mit der Umwelt, u. a. auch von Licht. Auch hier sollte es demzufolge Prozesse geben, die analog zu den anderen Lebensformen verlaufen. Wenn von Photonenemission bei Menschen die Rede ist, denken viele vermutlich sofort an die vom Biophysiker F.-A. Popp untersuchten sogenannten ‚Biophotonen’, die lange ins Reich der Mythen verwiesen wurden. Ein Kritikpunkt in der Auseinandersetzung mit der von Popp postulierten gesundheitlichen Wirkung ist immer wieder die aus physikalischer Perspektive sehr schwache Energie (Popp u. a. 1984). Mit Bezug auf den oben herausgearbeiteten Zusammenhang, dass es nicht auf die Intensität, also Stärke der Energie, sondern auf die Phasenähnlichkeit ankommt, greift dieser Kritikansatz nicht mehr. Dies ist vor allem vor dem Hintergrund bedeutsam, als dass mehrere der bisherigen Beispiele trotz extrem schwacher EM-Werte erfolgreich arbeiten (z. B. Vogelkompass, DNA). Zunehmend intensivere Forschungen zeigen dagegen Evidenz für diesen Ansatz (Prasad u. a. 2014; Van Wijk u. a. 2014), und dass die Biophotonen-Strahlung u. a. in Zusammenhang mit der DNA steht und besonders bei Stress und Krankheiten ansteigt (Kobayashi u. a. 2014; Popp u. a. 1984). Tatsächlich geht die Entdeckung schwacher Photonenemission von Zellen auf den russischen Biologen Alexander Gurwitsch im Jahre 1923 zurück (Gurwitsch 1988). Popp nannte sie Biophotonen, um sie von der Biolumineszenz (mithilfe von Leuchtstoffen aktiv von Lebewesen erzeugtes Licht) zu unterscheiden. Der Begriff ‚Biophotonen’ steht als Synonym und Kurzform für ultraschwache Photonenemissionen (UPE) und wird in der Biophysik und Alternativmedizin verwendet. Die Energie solcher Photonen ist sehr niedrig. Popp fand Wellenlängen von 200 – 800 nm (2 x 10-7 m) für Zellen und vermutete die gleiche Kohärenz wie bei Laserlicht (Popp u. a. 1984: 35). Über eine solche Kohärenz gab es erheblichen wissenschaftlichen Streit. Er dürfte mit den jüngsten
438
8 Modellentwicklung von der Mikro- zur Makrowelt
Entwicklungen zugunsten der Kohärenztheorie entschieden sein, nachdem sowohl kohärente Interaktionen in Neuronen auf der Basis von Biophotonen, als auch zwischen Atomen und Molekülen nachgewiesen wurden (Choi u. a. 2016; Rahnama u. a. 2011). Klassischerweise gehen die Kritiker von Popp und von quantenphysikalischen Erklärungsansätzen generell von der Annahme aus, dass ‚Quorum sensing’ für die Interaktion von Zellen verantwortlich ist und das Geschehen dominiert, also die chemische Kommunikation über die Zelldichte (Fuqua u. a. 1994). Man führt die Fähigkeit von Bakterien, sich gemeinsam zu koordinieren und so Prozesse zu kreieren, wie z. B. die Biolumineszenz oder die Herstellung und Abgabe von Antibiotika, für die sie alleine nicht in der Lage wären, darauf zurück. Es sei nochmals auf das im Kap. 5.3.5 beschrieben ‚Morphogenetische Feld’ hingewiesen. Quorum sensing entspricht genau diesem ‚Morphogenetischen Feld’ und darf als Synonym dessen verstanden werden, nur dass sich ‚Quorum sensing’ auf Einzeller bezieht. In der Biologie beschreibt der Begriff ‚Morphogenetisches Feld’ die Möglichkeit von Signalmolekülen, sogenannte Morphogene, über unterschiedlich große Reichweiten Gene zu aktivieren, um dadurch bestimmte Muster und Formen auszubilden. Ihre Reichweite hängt von der Stärke der Konzentration an Morphogenen ab, analog der Zelldichte bei ‚Quorum sensing’. Zur besseren Verdeutlichung sei hier nochmal Prigogine’s Beschreibung aufgeführt: „Einer der interessantesten Aspekte der dissipativen Strukturen ist zweifellos ihre Kohärenz. Das System verhält sich danach als ein Ganzes, so als wäre es der Sitz von langreichweitigen Kräften. Obwohl die Wechselwirkungen zwischen den Molekülen nicht über eine Reichweite von einigen I0-10 m (0,1 nm) hinausgehen, ist das System so strukturiert, als wäre jedes Molekül über den Gesamtzustand des Systems 'informiert' [...]. Embryologen haben vor langer Zeit den Begriff des morphogenetischen Feldes eingeführt und die Hypothese aufgestellt, dass die Differenzierung einer Zelle von ihrer Position in diesem Feld abhängt“ (Prigogine und Stengers 1993: 171-172). Auch Prigogine stellt damit eine Kohärenz des Systems fest und bezieht das Geschehen im Umfeld der Gene auf genau diesen Zusammenhang. Nun weisen die bereits aufgeführten Beispiele sehr deutlich auf den Einfluss selbsterzeugter oder von außen angelegter EMF für die Kohärenzerzeugung hin und stellen den ‚Quorum sensing’ Ansatz bzw. das ‚Morphogenetische Feld’ in ein neues Licht. Es darf angenommen werden, dass zumindest nicht alleine die chemischen Interaktionen die beobachtbaren bio-chemischen Prozesse verursachen, sondern die EM-Schwingungen. Dazu passt auch die neu entdeckte ‚klassische Verschränkung’, die im Kap. 8.1.2.3 vorgestellt wurde. Auch auf diese Art kann nachweislich Information ausgetauscht werden. Der von Kobayashi und Kollegen vorgestellte konkrete Nachweis der Lichtemission und die begleitenden Ergebnisse bieten Möglichkeiten für weiterführende Überlegungen (Kobayashi u. a. 2009). 2009 zeigten sie, dass der menschliche Körper Licht direkt und rhythmisch emittiert (Abb. 79). Sie stellten fest, dass die ultraschwache Photonenemission unseres Körpers niedriger ist als die Sensitivität unserer Augen. Wie den Bildern zu entnehmen ist, emittiert der menschliche Körper sehr unterschiedlich, sowohl was
8.2 Biologische Systeme und Physik
439
die Tageszeit als auch die Körperstellen betrifft. Am stärksten ausgeprägt erscheinen die Regionen um Mund, Wangen und Kehlkopf. Die Augenregion strahlt demgegenüber etwas schwächer. Dies legt nahe, dass unsere Sehorgane tatsächlich eher eine absorbierende, denn eine emittierende Funktion aufweisen. Neuere Forschung bestätigt die Unterschiedlichkeit bzgl. der Tageszeit, der Körperregionen als auch bei unterschiedlichen Menschen (Van Wijk u. a. 2014). Die bei Van Wijk dargestellte Körperstrahlung sowie eine verstärkte Photonenstrahlung an den Händen (siehe auch die Chi-Experimente mit Krebszellen in Kap. 8.2.1.3) lässt die der Alternativmedizin behauptete ‚Aura’ und das ‚Heilen mit Händen’ sogar als plausibel erscheinen.
Abb. 79 | Photonen- und thermische Strahlung bei Menschen Die Bilder A und B stellen die Versuchsanordnung dar. Schwache Photonenstrahlung (Bilder C - G) im Vergleich zu thermischer Strahlung (Bild I) beim Menschen. Bild H verdeutlicht den täglichen Rhythmus der Photonenemission. Images aus der Veröffentlichung von Kobayashi und Kollegen (2009).
Da eine solche Emission in alle Richtungen strahlt (ebd.), können wir davon ausgehen, dass diese sich auch nach innen orientiert. Tatsächlich gibt es entsprechende Nachweise von Biophotonen bereits in Zusammenhang mit unserem Gehirn (Tang und Dai 2014a; Dotta u. a. 2011). Dort dann konsequenterweise in Wechselwirkung mit ihrem zellulären Umfeld. Tatsächlich zeigen neue Erkenntnisse, dass die Strahlungsdichte innerhalb der Zelle um den Faktor 2 höher ist, als von außen messbar (Bókkon u. a. 2010). Biophotonen werden von nahezu allen lebenden Organismen emittiert, ohne eine vorausgehende Anregung externer Photonen. Man führt ihre Strahlung deshalb auf Veränderungen im Stoffwechsel zurück, z. B. durch Oxidations- und Radikalreaktionen. Wie Kobayashi und Kollegen feststellen, reagieren freie Radikale anschließend mit Lipiden oder Proteinen, wobei sie als Nebenprodukte elektronisch angeregte ultraschwache Photonen erzeugen (Kobayashi u. a. 2009). Hier sei an den Magnetsinn des Rotkehlchens erinnert. Auch dort gab es einen Radikalenmechanismus. Die Autoren fanden, analog
440
8 Modellentwicklung von der Mikro- zur Makrowelt
zu den vorherigen Beispielen, ebenfalls keinen Zusammenhang der Photonenemission mit der Tagestemperatur. Was sich allerdings zeigte, war eine negative Korrelation zu Cortisol200. Mit einem Anstieg der Photonen-Emission geht eine Verringerung der Cortisol-Produktion einher und umgekehrt. Dieser Zusammenhang von Cortisol, Photonenemission und einem Radikalenmechanismus lässt bei heuristischer Betrachtung tatsächlich einen von Popp angenommenen gesundheitsrelevanten Mechanismus in Verbindung mit Biophotonen als möglich, wenn nicht sogar wahrscheinlich erscheinen. Was bedeuten könnte, dass die Biophotonen ein Indikator für einen Selbstheilungs- oder Korrekturmechanismus sind. Radikalreaktionen waren bei Grünem Tee im Spiel wie auch beim Vogelkompass. In beiden Fällen gingen Tunnelprozesse, Verschränkungen und damit verbundene Kohärenzen einher. Zustände, die für die jeweiligen Lebensformen Geschwindigkeitsgewinn und Effizienz mit sich brachten. Die den Biophotonen zugesprochenen Kohärenzen lassen sich demzufolge nicht nur als Ausgangspunkt, sondern auch als Ergebnis des Tunnel- und Verschränkungsprozesses definieren, denn die Kohärenz baut sich über das Verschränkungsgeschehen auch auf. Als Konsequenz werden Photonen freigesetzt, die sich in einem kohärenten Umfeld bewegen und dieses Umfeld ihrerseits kohärent halten. Natürlicherweise sollte man davon ausgehen, dass diese Photonen eine Frequenz aufweisen, die dem Umfeld entspricht und somit in gleicher Weise kohärent ist. Dieser Prozess lässt sich als zirkulär oder koevolutionär bezeichnen und ist vergleichbar mit dem Auf- und Abbau von Verschränkungszuständen, wie es bereits an anderer Stelle beschrieben wurde. Homologe Verbindung zur Physik Äquivalent zur Physik ließen sich Kopplungen über Kohärenz von EMF als auch Kopplungen über Radikalenpaare beobachten. Die erste entspricht einer Verschränkung mittels EM-Wellen, die zweite einer Verschränkung entsprechend dem Teilchenmodell. Mit Bezug auf den im Kapitel ‚Verschränkung und Dekohärenz’ beschriebenen Zusammenhang, dass Verschränkung auch dann vorliegt, wenn Photonen, Elektronen oder Atome von der gleichen Quelle emittieren, lässt sich weiter schlussfolgern: Alle vom Menschen abgegebene Strahlung ist verschränkt und trägt die Information des Gesamtsystems Mensch in sich. Trifft diese auf weitere Entitäten und interagiert mit diesen, liegt seine Information auch bei den anderen Entitäten vor. 8.2.4
Emission und Absorption von Quanten allgemein bei Menschen
Abschließend zum Thema Lichtemission folgt noch ein interessanter Bezug zum grundsätzlichen Strahlungsverhalten (Emission und Absorption) von Menschen. Zu diesem Thema hat Warnke eine interessante Rechnung aufgemacht (Warnke 1998: 50): Jedes Atom im menschlichen Körper sendet 1.450 Quanten pro Sekunde bei 37 °C. Bezogen 200
Cortisol ist ein Hormon, das bei Stress freigesetzt wird, um Stoffwechselvorgänge zu aktivieren und um dem Körper energiereiche Verbindungen zur Verfügung zu stellen. Es wirkt dadurch dämpfend auf das Immunsystem und dient zur Hemmung von Entzündungen.
8.2 Biologische Systeme und Physik
441
auf die Größe einer 60 kg schweren Frau kommt er auf 1021 Quanten pro Sekunde, die an die Umgebung abgegeben werden. Davon repräsentiert ein kleiner Anteil Quanten das niederfrequente sichtbare Licht, also Biophotonen, wie wir eben gesehen haben. Der wesentlich größere Anteil besteht aus Quanten im thermischen Bereich, also Wärmestrahlung und in fast gleicher Größe Mikrowellenstrahlung, diese allerdings nur innerhalb des Körpers. Daraus berechnet er eine durchschnittlich abgegebene Quantenenergie mit 0,072 eV, was 1,154 x 10-20 J entspricht. Je nach Körpergröße werden so zwischen 26.900 bis 35.900 kJ von einem Menschen abgestrahlt. Umgekehrt bekommt der Mensch zwischen 21.000 bis 29.000 kJ von der Sonne zugeführt. Dies bedeutet eine Differenz zu Ungunsten eines Menschen von 5.900 bis 6.900 kJ oder 1.409 bis 1.648 kcal, was in etwa durch Nahrung aufgenommen werden muss. Damit bestätigt sich die Idee von Plenio (Chin u. a. 2013), dass ‚Photosynthese die Basis aller lebenden Formen’ darstellt, weit mehr, als uns gemeinhin bewusst ist. Energiebalance-Untersuchungen (Webb u. a. 1980; Durnin 1973) und eine Dokumentation 2010 (Straubinger 2010), die eine heftige Kontroverse auslöste, unterstützen die Überlegungen von Warnke. Gleichwohl erscheinen sie für unser heutiges Verständnis schwer vorstellbar. In der Dokumentation von 2010 scheint unsere Erfahrung – oder muss man sagen Annahme – dass Menschen für ihr Überleben unbedingt grobstoffliche Nahrung und Wasser zu sich nehmen müssen, erhebliche Risse zu bekommen. P.A. Straubinger stellt in seiner in Österreich erschienen Film-Dokumentation ‚Am Anfang war das Licht’ seine in 10 Jahren recherchierten Ergebnisse zu Menschen vor, die sich angeblich nur von Licht ernähren201. Ein für unser Verständnis schwer vorstellbares Phänomen. In dieser Dokumentation geht es um Personen, die über Wochen, Monate und Jahrzehnte völlig ohne feste Nahrung und teilweise sogar ohne Wasser leben können. Darunter sind auch mehrere, durch Universitäten begleitete, streng wissenschaftlich kontrollierte Studien. Die Studien liefen im Wesentlichen alle gleich ab: Die Versuchsteilnehmer wurden in den Klinken in einem separierten Raum 10 – 15 Tage rund um die Uhr, teilweise mit mehreren Kameras, beobachtet und waren die ganze Zeit an verschiedensten Geräten angeschlossen. Kontinuierlich wurden ihre Blutwerte und sonstige Daten erhoben. In einem Fall kamen bildgebende Verfahren zur Beobachtung des Verhaltens von Darm und Blase zum Einsatz. So zeigten die Laborwerte des Meditationslehrers Hira Ratan Manek keinerlei physiologische Normabweichungen, wie etwa Spuren von Ketonen. Ketone sind Stoffwechselprodukte und finden sich im Blutbild, wenn Fett in Zucker umgewandelt wird. Somit wären sie ein sicheres Indiz für einen Fastenprozess, was sich aber nicht zeigte. Trotz keinerlei Nahrungs- und Flüssigkeitsaufnahme hielt sich auch das Gewicht des Probanden. Prof. Dr. Anton Luger, ein mehr als skeptischer Professor für Stoffwechselprozesse, der 2008 an der Wiener Uniklinik diese Untersuchung durchführte, blieb mit seinen Wissenschaftskollegen ratlos zurück. 201
Hintergrundinformationen zum Film incl. dem im Nachgang folgenden Disput finden sich unter ... http://www.lightdocumentary.com/index.html
442
8 Modellentwicklung von der Mikro- zur Makrowelt
Gleiches ereignete sich in Indien als der 83-jährige Yogi ‚Mataji‘ Prahlad Jani, der nach Angabe der Dokumentation bereits 70 Jahre ohne Nahrung auskam, 15 Tage unter kontinuierlicher Beobachtung stand. Auch hier waren der Studieninitiator Dr. med. Sudhir Shah und seine 30 unterstützenden indischen Ärzte absolut ratlos. Sie konnten sogar mit Ultraschall beobachten wie sich seine Blase füllte und wieder leerte, ohne dass er trank oder auf die Toilette gehen musste. Die Untersuchung fand am Indian Devence Institute of Physiology and Allied Sciences unter Hinzunahme von Physikern statt, mit allen erdenklichen klinischen Tests, unter anderem tägliche Bluttests und CT-Scans. Ein interessanter Effekt zeigte sich an zwei unterschiedlichen Fällen im Film. Sowohl der Schweizer, der sich einer kontrollierten Studie unterzog, als auch der 70-jährige Yogi verloren während der Studie 2 - 3 kg Gewicht. Vermutete der Schweizer, dass dies an den für ihn sehr unangenehmen räumlichen Bedingungen lag – Klimaanlage, nur stickiger Raum, wenig natürliches Licht – aber ohne dass er daran etwas änderte, reagierte der Yogi anders. Nach den Gewichtstabellen erreichte er am 7. Tag mit 38 kg seinen niedrigsten Wert. Darauf bat er um frische Luft, natürliche Sonne und um die Erlaubnis, sein Yogi-Bade-Ritual202 vornehmen zu können. Unter Aufsicht wurde ihm dies gewährt und führt umgehend wieder zu einer Gewichtszunahme von einem Kilo innerhalb der nächsten 3 Tage. Diese letzten Angaben sind einer Antwort auf Reaktionen zum Film entnommen und unter dem angeführten Link zum Film dokumentiert. So gut wie alle vorgestellten Fälle beschrieben einen Übergangsprozess, der starke mental Anteile hatte, und an dessen Ende sich der Körper von der festen auf die, wie sie es nannten, ‚Lichtnahrung‘ umstellte. Bekannt scheint dieses Phänomen fast in allen Kulturen, auch in der westlichen. So scheinen mehrere 100 Menschen aus dem deutschsprachigen Raum mit dieser Form der Nahrungsaufnahme Erfahrung zu haben. Machen wir uns in diesem Zusammenhang zwei anerkannte Phänomene bewusst: 1. In den Wintermonaten ist der Bedarf nach Nahrung bei vielen Menschen deutlich höher als in den Sommermonaten, obwohl die körperlichen Aktivitäten meist geringer sind. Weniger Licht, weniger frische Luft und kältere Temperaturen müssten entsprechend der von Warnke vorgenommenen Beobachtungen und Berechnungen den Bedarf nach zusätzlicher Energie befeuern. 2. Die Verdauung selbst beansprucht einen erheblichen Energieverbrauch und reduziert somit den Nährgehalt der aufgenommenen Nahrung. Würden wir also auf die Nahrungsaufnahme verzichten, würden sich konsequenterweise die von Warnke veranschlagten ca. 1.500 kcal weiter reduzieren. Sowohl Popp als auch Radin weisen im Film darauf hin (ebd.), dass es im Wesentlichen um Energie und Information geht, die wir aufnehmen müssen und nicht um irgendwelche Moleküle. Die Information scheint, wie wir bereits gesehen haben, verantwortlich für die Art, wie sich Quarks zusammenfügen und wie sich daraus Moleküle, Mineralien oder weitere höhere Lebensformen konstituieren. Nach Popp (ebd.) benötigt es immer Licht, um biologische 202
Das Bade-Ritual fand in Zusammenhang mit Licht im Freien statt, aber ohne Wasserverwendung.
8.2 Biologische Systeme und Physik
443
Prozesse anzustoßen. Ausgehend von den Berechnungen von Warnke und der Macht der Intention, also eines irgendwie gearteten geistigen Einflusses, die Mikrosysteme beeinflusst, ist der Schritt zu einer Erklärung des Phänomens Lichtnahrung nicht mehr so weit. Passend dazu formulierte der Physik-Nobelpreisträger Josephson im Film: „Ich glaube, die Physik befindet sich in einer Sachgasse, solange sie geistige Effekte ignoriert“ (ebd.). Grundsätzliche Energiebalance-Studien unterstützen diese Annahmen (Webb u. a. 1980; Durnin 1973). Eine weitere Unterstützung erhalten die Aussagen des Films durch die Arbeit von AlKhalili und McFadden. Sie vergleichen in ihrem Buch die Art, wie Pflanzen und Tiere/Menschen die Grundbausteine des Lebendigen beziehen und stellen fest, dass diese nicht so unterschiedlich ist (Al-Khalili und McFadden 2015: 159). Beide benötigen Kohlenstoff, Elektronen und Energie: 1. Kohlenstoff Pflanzen gewinnen ihn aus der Luft und wandeln ihn durch Photosynthese um. Tiere und Menschen entnehmen ihn üblicherweise aus organischen Zellen, in der Regel eben aus Pflanzen, die ihn bereits umgewandelt haben. Der Prozess bei Menschen/Tieren erfolgt dabei durch die Zellatmung, bei der Nahrung verbrannt und dadurch verfügbar wird. 2. Elektronen Elektronen werden zum Aufbau der Biomoleküle benötigt. Pflanzen nutzen hierzu das Licht, um Wasser zu verbrennen und so an dessen Elektronen zu gelangen. Tiere/Menschen verbrennen organische Moleküle, um ebenfalls an deren Elektronen zu gelangen. 3. Energie Pflanzen gewinnen sie durch das Einfangen der Photonen von der Sonne. Tiere/Menschen gewinnen die energiereichen Elektronen aus der Nahrung und aus der Atmung. Wie die beiden Autoren feststellen, sind bei all diesen Prozessen Bewegungen der Elementarteilchen beteiligt und die unterliegen den Gesetzen der Quantenwelt (ebd. 160). Da Menschen letztlich aus den gleichen Bausteinen aufgebaut sind und vermutlich letztlich auch aus den gleichen Wurzeln stammen, scheint es nicht gänzlich unmöglich, wenn wir uns gewisse Grundfähigkeiten, die Ähnlichkeiten mit den Prozessen auch anderer Lebensformen aufweisen, noch bewahrt haben. Legen wir zusätzlich die Berechnungen von Warnke daneben, so muss festgestellt werden, dass ein erheblicher Teil der täglichen Energie offensichtlich bereits auf diese Weise aufgenommen wird. Kohlenstoff wird durch die Atmung, Photonen durch Atmung und die Haut gewonnen. In Verbindung mit dem Beobachtereffekt, dessen Intention Auswirkungen auf das Verhalten der Quantenwelt nach sich zieht, scheint der
444
8 Modellentwicklung von der Mikro- zur Makrowelt
überschaubare Rest an Energie und Kohlenstoff vielleicht doch über solche Prozesse erschließbar. Der bei allen drei Kandidaten beobachtbare Gewichtsverlust in den klimatisierten Räumen, der sich als reversibel herausstellte, nachdem die Kandidaten an die frische Luft durften, scheint ebenfalls ein entsprechendes Indiz zu liefern. Lässt sich jetzt aber auch nachweisen, dass quantencodierte Informationen von uns wahrgenommen, somit in unserem Gehirn ankommen und interpretiert werden können? Dies führt zur Frage nach der Reichweite von Kohärenzen in Makrosystemen und würde die Möglichkeit eröffnen, Menschen tatsächlich als makroskopische Quantenfelder zu interpretieren. 8.2.4.1 QT mit Herz-Stimulanz-Mitteln und anderes bei Menschen Wir haben bereits den quantenphysikalischen Mechanismus einer antioxidativen Wirkung von Tee bei Menschen kennengelernt und den Einfluss von Licht auf Zellebene als auch bei der Übertragung von Informationen. 2012 veröffentlichten Hu und Wu eine Arbeit, in der sie nicht-lokale biologische Effekte bei Menschen nachwiesen (Hu und Wu 2012). Sie verschränkten in diesem Experiment ein Herz-Stimulanzmittel mit Versuchskandidaten. Das Stimulanzmittel Primatene ist ein Ephedrin-Präparat, das in Amerika als Asthma-Medikament im freien Handel erhältlich ist und auch zur Vermeidung eines Blutdruckabfalls bei Spinalanästhesien verwendet wird. Abb. 80 demonstriert den Versuchsaufbau und ermöglicht den Vergleich zur QT-Struktur, wie sie bereits vorgestellt wurde. Im Experiment wurde Wasser in der Mikrowelle für eine Minute erhitzt, um es zu verschränken. Ein Teil des Wassers bekam Kandidat Bob zu trinken. Er war an ein Pulsmessgerät angeschlossen. In einem ca. 15 m entfernten Raum füllte ein Assistent das Primatene zu einem beliebigen Zeitpunkt in die zweite Hälfte des verschränkten Wassers.
Abb. 80 | Medikamenten-QT (a) im Vergleich zur klassischen QT (b) (eigene Darstellung). Hier sieht man im Vergleich der Strukturen die Ähnlichkeit in der Versuchsanordnung. Statt der klassischen Informationsvermittlung über die gewählten Einstellungen bei b) reicht eine Plusmessung bei Bob a), um eine erfolgte Verschränkung bei Alice (A’-B’) und das gewählte Medikament bestimmen zu können.
8.2 Biologische Systeme und Physik
445
Dieser Moment war weder der Versuchsperson noch der Person, die die Messung vornahm, bekannt. Es handelte sich somit um ein verblindetes Experiment. Bei allen Versuchsabläufen fand unmittelbar ein signifikanter Anstieg der Pulsfrequenz für 2 – 4 Minuten statt. Kontrollexperimente waren dagegen ohne Befund. Zwei Schwachpunkte im Versuchssetting wären nach klassischem Verständnis aktuell noch zu diagnostizieren: Erstens war die Anzahl der Versuche noch sehr gering, was die Forscher dazu veranlasste zur Wiederholung in größerem Ausmaß und von anderen, unabhängigen Instituten aufzurufen. Zweitens waren alle Beteiligten aus einer Familie. Dass eine Beziehung für solche Experimente von erheblicher Relevanz ist, zeigen die EEG Experimente im Kap. 8.3. Nach den Vorgaben von Lucadou (Kap. 7.3.2) ist dieser Versuchsaufbau keine Schwachstelle, sondern ganz im Gegenteil sogar zu empfehlen, da die verfügbaren Verschränkungskanäle vermehrt würden. Gleichwohl bleibt damit die Frage offen, ob die Verschränkung ausschließlich über das behandelte Wasser vollzogen wurde. Unabhängig von den aktuellen Schwächen werden mehrere Zusammenhänge deutlich. Wir können von einer Verschränkung mit nicht-lokalen Effekten in Makrosystemen (hier Menschen) ausgehen, die biologisch messbare Wirkungen erzeugt. Des Weiteren zeigt der Strukturvergleich mit dem QT-Experiment eine vollständige Deckung. Die klassische Information (Einrichtung einer Pulsmessapparatur und anschließender Datenvergleich) entspricht zu 100 % dem gängigen QT-Versuchsaufbau. Zentral ist auch die Möglichkeit für eine Bestätigung der These eines internen Beobachters. Gehen wir davon aus, dass alle Beteiligten dem Quantensystem inklusive der Messapparatur zuzuordnen sind, dann ist im Moment des Zusammenbringens von Primatene und der einen Hälfte des verschränkten Wassers diese Information auch bei Bob. Sein Körper, als interner Beobachter, reagiert dementsprechend auf die neue Informationslage. Er könnte aufgrund der veränderten Pulswerte sofort sagen, wann das Mittel im anderen Raum zugegeben wurde. Diese Informationsübermittlung ist tatsächlich schneller als Licht, denn es braucht nicht mehr Alice, um die Richtigkeit zu überprüfen und es kann über eine beliebige Distanz ablaufen. In ähnlicher Weise konnten Hu und Wu in den Jahren davor Anästhetika mittels Magnetimpulsen, Licht, Mikrowellen und sogar Blitzlicht auf Versuchspersonen einwirken lassen (Hu und Wu 2007b). Sie verwenden verschiedene Versuchsanordnungen, um ihre These einer möglichen Verschränkung und einem Bewusstsein, das über die Aktivitäten der Spins im Gehirn entsteht, zu überprüfen. Einige der Varianten sind in Abb. 81 dargestellt.
446
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 81 | Versuchsanordnungen zur Übertragung von Anästhetika und anderen Medikamenten auf Menschen (Images von Hu und Wu (2007b)) mithilfe von magnetischen Pulsen oder Licht.
1. Oben links: Das Anästhetikum befindet sich in einer Glasflasche und wird mit magnetischen Pulsen durch die Flasche, welche direkt auf dem Kopf platziert ist, in Richtung Gehirn gesendet. Dazu wurde Musik mit Frequenzen zw. 5 Hz und 10 kHz angelegt, die mithilfe der Magnetspule besagte magnetische Pulse erzeugte. 2. Oben rechts: Das Anästhetikum wird zwischen Magnetspule und einer Wasserflasche positioniert und durch die musikinduzierten Pulse mit dem Trinkwasser verschränkt. 3. Unten links: Das Laserlicht durchstrahlt das Mittel und trifft auf das Trinkwasser. 4. Unten rechts: Das Trinkwasser wird zwischen Laserlicht und Anästhetikum platziert. Nach klassischem Verständnis dürfte im letzten Beispiel das Wasser nicht vom Mittel beeinflusst werden, da es erst im Nachgang mit diesem interagiert. Quantenphysikalische Prozesse sind jedoch beliebig zeitreversibel und wirken in beide Richtungen, wie es im Delayed-Choice-Experiment und bei den FaymannDiagrammen offensichtlich wurde. Ihr prinzipieller Versuchsaufbau entsprach der oben vorgestellten Struktur der Medikamenten-Teleportation, mit Ausnahme von Variante 1. In den Anordnungen 2 – 4 trinken die Probanden die eine Hälfte des Wassers bevor es mit den Stoffen verschränkt wird. Die andere Hälfte wird in einem Nebenraum physikalisch behandelt (verschränkt), ohne dass die Probanden wissen wann. Sie sind also nie mit dem direkt behandelten Wasser in Kontakt gekommen. Das Ganze wurde mit sechs unterschiedlichen Mitteln wie Anästhetika und anderen Medikamenten durchgespielt, darunter ein Kontrollmittel (unbehandeltes Wasser), welches keine Wirkung auslöste. Die Probanden erlebten die Mittel, wie wenn sie die reine Substanz körperlich verabreicht bekommen hätten. Je nach Substanz wirkten sie bis zu 12 Stunden nach. Markant zeigten sich zwei Effekte: Die sehr gute Wiederholbarkeit und die sehr viel stärkere Wirkung, wenn statt Licht Mikrowellen zum Einsatz kamen.
8.2 Biologische Systeme und Physik
447
Die Forscher vermuten die Wirkung aufgrund der Spins der Elektronen und der Atomkerne. Die Wasservorbehandlung stellt sicher, dass das Wasser bevor es verteilt wird, eine besondere Form der Verschränkung aufweist, die sich von anderem Wasser unterschiedet. Die durch Mikrowellen kollektiv angeregten Wassermoleküle gehen in schwache Wechselwirkung miteinander, wodurch sie ein physikalisches Ganzes ausbilden (vergleichbar eines Bose-Einstein-Kondensats). Diese Verschränkung scheint auch nach der Aufteilung des Wassers in zwei Hälften noch bestehen zu bleiben. Als Mechanismus lässt sich das Modell des Hohlraumresonators vorstellen, der in der Lage ist, kleinste Spinveränderungen an einer gekoppelten Membrane zu registrieren. Die getrunkene Hälfte verteilt sich im Körper. Mit dem Moment der Beeinflussung der zweiten Hälfte des Wassers (Zugabe der Medikamente) geht eine Veränderung im Gesamtsystem (getrunkenes und behandeltes Wasser) einher, die Spins richten sich neu aus und übertragen die neue codierte Information auf den Träger des getrunkenen Wassers. Ihre Überlegungen schlossen die Versuchsergebnisse von Julsgaard u. a. mit ein, die bei makroskopischen Elektronenspins eine Lebensdauer von ca. 0,5 ms gemessen haben (Julsgaard u. a. 2001). Es handelte sich um ein Gas aus Cäsium-Atomen, dem schwersten Alkalimetall das existiert. Erstaunlicherweise scheint die Lebensdauer von Verschränkungszuständen auch hier sehr viel länger zu sein als in rein physikalischen Experimenten. Erklären lässt sich dies nur mit dem aus der Dekohärenztheorie bekannten Zusammenhang, dass die Verschränkung nicht aufgelöst, sondern nur in den Hintergrund getreten ist. Eine spezifische Veränderung in einem Teilsystem scheint demzufolge auch im Hintergrund noch zu wirken und schwache, aber relevante Impulse setzen zu können. In einem vorangehenden Experiment untersuchten Hu und Wu den PH-Wert, die Temperatur- und die Schwerkraftänderung, wenn verschränktes Wasser nicht-lokal physikalisch behandelt wird (Hu und Wu 2007a). Dies ist hier insofern von Interesse, als sie mit ihrem Versuchsaufbau auch sogenannte klassische Materie nicht-lokal manipulieren konnten. Der Versuchsaufbau war analog Abb. 80. Verschränktes Wasser wurde geteilt und räumlich getrennt. Auch hier konnten signifikante Korrelationen beobachtet werden. Das verschränkte und nicht-lokal positionierte Wasser reagierte auf das beeinflusste Wasser in vergleichbarer Weise. Wohingegen unverschränktes (unbehandeltes) Wasser keinerlei Veränderung und damit Korrelation zeigte. Im Einzelnen ergaben sich folgende Ergebnisse: Der PH-Wert des fern positionieren Wassers änderte sich in die gleiche Richtung entsprechend der Behandlung des mit ihm verschränkten Anteils, sofern Energieaustausch mit der Umgebung möglich ist. Die Temperatur von Wasser kann entgegen der Temperaturrichtung der Umgebung beeinflusst werden, wenn Energieaustausch mit der lokalen Umgebung möglich ist und der verschränkte Wasseranteil entsprechend beeinflusst wird. Die Gravitation von Wasser kann ebenfalls in entgegengesetzte Richtung zu seiner lokalen Umgebung beeinflusst werden, wenn sein verschränkter Anteil eine entsprechende Behandlung erfährt.
448
8 Modellentwicklung von der Mikro- zur Makrowelt
Hu und Wu weisen darauf hin, dass als Folge dieser Ergebnisse prinzipiell jede Materie nicht-lokal mittels Verschränkung beeinflusst werden kann. Zudem: „the second law of thermodynamics may not hold when two quantum-entangled systems together with their respective local environments are considered as two isolated systems and one of them is manipulated.“ Und drittens: „gravity has a non-local aspect associated with quantum entanglement thus can be non-locally manipulated through quantum entanglement mediated processes“ (Hu und Wu 2007a: 298). Laut der Aussagen der Forscher wurden diese Tests von anderen, unabhängigen Gruppen bestätigt. Nach ihrer Sicht kann es sich nur um eine quantenphysikalische Verschränkung handeln, die biologische/chemische und bedeutungsvolle Information überträgt (Hu und Wu 2012). In ihrem 2012 durchgeführten Versuch wiederholten sie im Wesentlichen die Experimente von 2007, präsentierten aber verbesserte Untersuchungsund Auswertungsdaten. Homologe Verbindung zur Physik Bemerkenswert ist die Vergleichbarkeit der Ergebnisse mit denen unserer SyA-Experimente. Dabei fallen besonders die direkten, ohne Wahrscheinlichkeitsberechnungen erhaltenen 100 %-igen Korrelationen sowie die Klarheit der Reaktionen der Versuchskandidaten auf. Sowohl die Struktur der QT als auch der Bezug zur GHZ-Konfiguration, bei der alleine eine Verschränkung sichergestellt werden muss, entsprechen den quantenphysikalischen Vorgaben. Mit ihrem Setting erfüllen die SyA-Experimente zudem die Vorgaben von Lucadou, einer möglichst vielseitigen Verschränkungskonfiguration. In gleicher Weise erreichen dies die QT-Experimente mit vieldimensionalen Verschränkungszuständen. Zweitens wird hier eine Wechselwirkung zu rein physikalischem, unbelebtem Stoff realisiert, wie es in den SyA-Experimenten praktiziert wurde. 8.2.4.2 QT und Homöopathie? Eines der wohl kontroversesten Themen in der westlichen Hemisphäre ist die Frage nach der Wirksamkeit homöopathischer Mittel. Befürworter und Gegner stehen sich unversöhnlich gegenüber. Mit der eben vorgestellten Medikamententestung, der Informationsübertragung von HIV-Erregern in reines Wasser (Kap.8.2.1.7) und der QT-Struktur stellt sich die Frage einer Vergleichbarkeit zur Homöopathie. Abb. 82 veranschaulicht eine erstaunliche Übereinstimmung mit der QT generell bzw. bei SyA (siehe dazu Abb. 69b) und der angenommenen QT-Struktur bei Homöopatika. Auch hier besteht die Option, dass per Verschränkung eine Information im Gesamtsystem verteilt wird. (C) repräsentiert dabei den direkten Kontakt zwischen Globuli und Patient bzw. Fallbringer und Repräsentanten der Aufstellungsgruppe. Sowohl der direkte Weg ‚Wirkstoff-Globuli-Patient’ (A-C) als auch der indirekte Weg ‚WirkstoffGlobuli-Arzt-Patient’ (A-B-D) sind deshalb potentielle Verbreitungsrichtungen. Als klassischer Kanal kann dabei das Rezept mit Namen und Beschreibung verstanden werden. Wie SyA und die Medikamententestung zeigen, scheint ihre Beteiligung nicht wirklich notwendig.
8.2 Biologische Systeme und Physik
449
Abb. 82 | QT-Struktur in der Homöopathie (a) verglichen mit QT-Struktur bei SyA (b) (eigene Darstellung). Auch hier entsprechen sich die Strukturen der Versuchsanordnungen auf vollständige Weise. Der einzige Unterschied liegt im Kenntnisstand über die zu übermittelnde Information. Bei der SyA b) ist zunächst unklar, welche Information übermittelt wird, wohingegen der zu übermittelnde Pflanzenwirkstoff a), respektive die zugehörige Information, sehr wohl bekannt ist und gezielt genutzt werden soll.
Wenn, wie es scheint, die Mikrowellenbehandlung des Wassers verantwortlich für die Unterscheidbarkeit gegenüber unbehandeltem Wasser ist, so könnte das Schütteln bei der Potenzierung den gleichen Effekt erzeugen. Wie in vielen anderen Fällen, gibt die Substanz chemisch keine Information für ihre unterschiedliche Wirkung. Sollte tatsächlich nur die Information und die durch Schütteln induzierte Energiezustandsveränderung den Unterschied machen, nicht aber ein makroskopisches Molekül, so lässt sich dieser Unterschied nur anhand der Wirkung am Patienten messen. Genau hier aber liegt die Ursache der Meinungsverschiedenheit. Erfahrungen der Patienten und im Labor gemessene Ergebnisse sind uneinheitlich, aber doch signifikant, und mit großer Streubreite versehen (Ammon u. a. 2016). Die Streubreite bezieht sich auf die heilende Wirkung wie die von Ammon und Kollegen untersuchten neueren Forschungen zeigen. In allen Diskussionsbeiträgen macht sich die Kritik auch hier am noch nicht vorhandenen theoretischen Modell fest, offensichtlich nicht anders wie in der Intuitions- und Entscheidungsforschung. Unter Berücksichtigung von Erwartungshaltung und Intentionen bei gleichzeitiger hoher Sensitivität von Experimenten, welche auf Quanteneffekten basieren, erscheint es allerdings auch nicht verwunderlich, dass die unterschiedlichen Studien Beobachtereffekte enthalten, die bis heute kaum berücksichtigt wurden. Bereits 1985 wurde eine Studie im Kontext der Placeboforschung veröffentlicht, bei der eindeutig gezeigt wurde, dass das Wissen des Behandlers auf den Behandelten übertragen wurde. „The two placebogroups differed only in the clinicians’ knowledge of the range of possible doubleblind treatments“ (Gracely u. a. 1985). Bei gleichzeitiger Verwendung beider (C) Kanäle war die QT-Struktur gleich der bei Homöopatika. In eine vergleichbare Richtung ging eine Harvard-Studie (Jensen u. a. 2012). Neueste Veröffentlichungen, die eindeutige Evidenzen für homöopathische Effekte vorweisen (Thieves u. a. 2016), weisen ebenfalls in diese Richtung und bieten gleichzeitig experimentelle Konzeptionen für verbesserte Ergebnisse an (Beauvais 2017). Beauvais entwickelte sein Modell auf der Grundlage der WQT respektive GQT (Weak/
450
8 Modellentwicklung von der Mikro- zur Makrowelt
Generalised Quantum Theory) (Walach 2003) und beschäftigte sich sehr intensiv mit passend designten Versuchsaufbauten. Zahlreiche andere Studien, die in vitro mit Zellkulturen und Mikroorganismen durchgeführt wurden, zeigten ebenfalls signifikant evidente Reaktionen auf homöopathische Mittel (Betti u. a. 2017; Olsen 2017; Passeti u. a. 2017). Weshalb sollen Menschen nicht in gleicher Weise auf diese Form homöopathischer Intervention reagieren? Sehr viel spricht für den Intentions- als auch den Erwartungseffekt genauso wie für zum Teil ungeeignete experimentelle Konfigurationen bei Menschen, respektive Verschränkungszustände Homöopatika mit Placebo. 8.2.5
Conclusio zu Biologische Systeme und Physik
Wenn nun, wie bei Bakterien, Pflanzen, Tieren und auch Menschen, experimentelle Beobachtungen unter in vivo Bedingungen, als auch theoretische Modelle und Berechnungen zusammenpassen, ist es in der Physik mehr als ein Indiz, dass ein belastbares Modell für einen Mechanismus beschrieben wird. Dies gilt umso mehr, als die zentralen, auf mikroskopischer Ebene bekannten, quantenphysikalischen Zusammenhänge auch auf makroskopischer Ebene in Erscheinung treten. Evidenz quantenphysikalischer, EM- und Verschränkungs-Mechanismen Mittlerweile gibt es tausende von Forschungsarbeiten, die eine klare Evidenz für eine Zell-zu-Zell-Kommunikation auf der Basis von EM-Interaktion liefern. Eine gute Übersicht dazu findet sich bei Fels u. a. (2015), Scholkmann u. a. (2013), Cifra u. a. (2011) oder Farhadi u. a. (2007). Darunter fallen Interaktionen zwischen menschlichen Zellen auf Distanz, die also nicht lokal in Kontakt miteinander stehen. Der Versuch, die Interaktionen zwischen Zellen ausschließlich mit chemischen Wechselwirkungen begründen zu wollen, scheint immer mehr an seine Grenzen zu stoßen. Wie im Kapitel zu MaterieEnergie-Information bereits herausgearbeitet wurde, interagiert Materie auf einem subatomaren Level nicht nur mit Licht, also EM-Strahlung, sondern sie ist im Grund selbst aus einer solchen EM-Strahlung gemacht. Für uns wahrnehmbare anorganische als auch organische Materie entspricht quasi einem lokalisierten Kondensat eines dahinterliegenden energetischen Feldes. Über Licht können Informationen zwischen solchen EM-Feldern ausgetauscht werden, was einer klassischen Verschränkung entspricht. Fassen wir hier deshalb die wesentlichen für Kohärenz und Verschränkung verantwortlichen Mechanismen zusammen, die als zentrale Voraussetzung für die Phänomene bei SyA und Intuition angesehen werden. Bei den Bakterien und Algen waren es die oszillierenden Proteine, die die Kohärenz stabil halten. Beim Tee ging es um Radikale und Tunneleffekte. Auch bei den Tierexperimenten ging es um verschränkte Radikale, Tunneleffekte aufgrund eines Lichteinfalls auf die Retina und Spin-Ausrichtungen. Bei der DNA waren ebenfalls Schwingungen, großflächige Kohärenzen und damit verbunden Verschränkungen beteiligt. Bei allen waren Umgebungstemperatur und quantenmechanisch gesehen langanhaltende, stabile Zustände beobachtbar. Sogar der Geruchssinn erscheint frequenzabhängig. Immer ging es um eine Kopplung und ein Aufeinander-Beziehen zu einem externen
8.2 Biologische Systeme und Physik
451
Umfeld. Schrödinger’s Idee von der ‚Ordnung aus Ordnung’ (Al-Khalili und McFadden 2015: 67–68) scheint sich in der Tat zu bestätigen. Stabile Ordnungen (Frequenzbänder, DNA- und andere Molekül-Strukturen) die gegenüber ihrem Umfeld abgeschirmt werden können, zeigen sich relativ stabil gegen Umwelteinflüsse und Dekohärenzeffekte und bringen auch wieder Ordnung und Kohärenzen hervor. Eine solche Abschirmung stellen Eigenfrequenzen gegenüber einem verrauschten Umfeld dar oder Leitungsbahnen, wie der DNA-Strang oder die Nervenbahnen. Dekohärenz entsteht offensichtlich vorzugsweise in ungeordneten Systemen, die dann auch leicht mit der Umwelt interagieren können. Bei fast allen waren Lichtwellen, Wasserstoff und Proteine involviert. Und weiter zeigte sich, dass es oft um Schnelligkeit und Effizienz ging, aber auch um den Schutz kohärenter Zustände. Immer hatten quantenmechanische Prozesse Auswirkungen im Makrobereich. Die Sender-Bakterien waren in der Lage Kommunikation via Fernwirkung zu realisieren, indem sie verschiedene physikalische EMF produzierten und damit ihre Information durch die Trennwände ihrer Behälter transmittieren. Dies bedeutet nicht mehr oder weniger, als dass Leben oder zumindest Veränderung und damit Wahrnehmung quasi aus dem Nichts entstehen kann. Dies besonders, wenn die Versuche berücksichtigt werden, bei denen digital gespeicherte Information von DNA-Sequenzen mittels EMF auf fremdes Cytoplasma transferiert und sich als neue Eigenschaften manifestierten. Voraussetzung ist nur das Vorhandensein einer Entität, die eine bestimmte Empfänglichkeit aufweist und die Einflussnahme von physikalischen Signalen wie EMF, die Informationen transportieren. Mit dem heutigen Wissen lässt sich resümieren, dass auch in biologischen Systemen Auf- und Abbau von Verschränkungszuständen nicht nur möglich, sondern als sicher anzunehmen sind. Entscheidend für eine Verschränkung und in der Folge eine Informationsübertragung ist schließlich nicht die Intensitätsstärke, sondern die Frequenzähnlichkeit. Wie bei den Biophotonen gesehen, reichen dabei kleinste Energieeinheiten. Vice versa stabilisieren Frequenzunterschiede schließlich auch verschränkte Systeme gegen eine Kohärenz mit dem Umfeld und halten dekohärente Zustände aufrecht. Dennoch können selbst Frequenzunterschiede mithilfe des verallgemeinerten Josephson-Effekts kompensiert werden, was wiederum eine Wechselwirkung und Quanteneffekte ermöglicht. Wie in den verschiedenen Experimenten zu sehen ist, kann sowohl eine Quanten- als auch eine klassische Verschränkung als Mechanismus zur Informationsübertragung herangezogen werden. Beide sind in der Lage, Spins der Elektronen und der Kerne zu beeinflussen. Wie im DNA-Beispiel entwickelt wurde, reicht bereits die Beeinflussung eines Spins, um Auswirkungen auf ein riesiges Quantenfeld und damit ein Makrosystem zu generieren. Informationen, die in Spins und deren Ausrichtung codiert sind, wechselwirken mit anderen Spins, erzeugen auf diese Weise neue Strukturen auf der chemischen und schließlich auf der biologischen Ebene. Die dabei involvierten Energieanteile sind die Messgrößen, die in klassischer Weise in der Physik beobachtet werden können.
452
8 Modellentwicklung von der Mikro- zur Makrowelt
Sinnvollerweise werde diese energetischen Messgrößen ergänzt durch allgemeine Verhaltens- oder Veränderungsanzeichen, wie sie in lebenden Systemen relevant sind. Durch diese Veränderungsanzeichen dokumentiert sich letztlich die Wirkung auf makro-physikalischer Ebene. Alle physikalisch-biologischen Experimente wurden in der Biologie und Chemie bis heute überwiegend klassisch interpretiert, ohne vollständig zufriedenstellende Antworten liefern zu können. Die quantenmechanisch interpretierten Ergebnisse erscheinen demgegenüber wesentlich plausibler und decken sich üblicherweise auch mit den Messwerten. Zurückkommend auf die Photonen und Elektronen erstreckt sich deren gemeinsame Frequenz über räumlich ausgedehnte Bereiche, die deutlich größer sind als die Dimensionen der Zellen, und weisen damit Verschränkungszustände auf. Zwar sind die räumlichen Bereiche vom Kontext abhängig und auf bestimmte Distanzen limitiert, sie erstrecken sich allerdings soweit, dass sie in ihrem Umfeld Veränderungen anstoßen können. Entscheidend ist immer wieder eine Korrelation passender Frequenzen zueinander, unabhängig von der Art des physikalischen Signals (elektromagnetisch, akustisch etc.). Interessant scheinen vor allem Frequenzen im ELF-Bereich von 3 – 30 Hz. Sowohl die Beeinflussung der DNA als auch die Medikamentenübertragung zeigten in diesem Bereich erhebliche Resonanzfähigkeit. Für offene Quantensysteme stellt sich zudem der lokale Kontext als die zentrale Bedingung heraus, unter der Emission oder Absorption von EM-Wellen stattfinden und schließlich Informationen transportiert werden. Mit den hier vorgestellten Beispielen wird auch die neueste Interpretation von Verschränkung bestätigt. Es macht keinen Sinn mehr zwischen quantenphysikalischer und klassischer Verschränkung und damit verbundener Wechselwirkung in Bezug auf Informationsübertragung zu unterscheiden. Unter beiden Bedingungen kann berechtigterweise von Verschränkung gesprochen werden. Die Information ist jeweils über einen kohärenten Bereich verteilt und stellt ein Ganzes dar, ob sichtbar oder unsichtbar. Unterschiedlich bleibt derzeit nur der Mechanismus bei lokalen und nicht-lokalen Bedingungen. Lokal lassen sich EM-Wellen beobachten und Frequenzen messen, nicht-lokal besteht keine solche Möglichkeit. In beiden Fällen lassen sich aber Wirkungen beobachten, aufgrund denen zwischen klassisch und quantenphysikalisch unterschieden werden kann. Nur macht dieser Unterschied tatsächlich keinen Sinn, wenn wir heute eindeutige Evidenz haben, dass auf der kleinsten Ebene sowieso nur quantenphysikalische Prozesse aktiv und relevant sind. Wesentlich scheint zunächst nur eines zu sein: Die kleinste Einheit – ein Spin – ist in der Lage auf Makrosysteme einzuwirken und am Ende auch die Welt zu verändern. Quantenphysikalische Messanordnungen und Informationsverarbeitung Eine wesentliche Rolle für der quantenphysikalischen Interaktionen spielen die Oszillationen und somit die Frequenzen, die in Wechselwirkung treten oder auch zur Isolierung beitragen. Die Physik weiß heute, dass solche EMF in der Lage sind, nahezu unbegrenzt
8.2 Biologische Systeme und Physik
453
Informationen zu codieren und zu speichern. Das World Wide Web liefert dazu ein schönes analoges Beispiel. Zweifelsfrei können wir deshalb festhalten: Informationen werden über die Form der Interaktion (EMF oder QT) transferiert und in den Aufbauund Oberflächen-Strukturen von Molekülen und Zellverbänden in Form von Spins und Spinensembles schließlich gespeichert und von dort aus wieder abgerufen. Eine solche QT erwies sich als zentraler Mechanismus bei Mutationsbildung von DNA. In Bezug auf die DNA sei noch ergänzt, dass in ihr sämtliche Information als Gene seit Anbeginn der Zeit gespeichert und mit unglaublicher Präzision geteilt und weitergegeben wird. Erfolgt eine Teilung nach einer Veränderung, enthalten beide DNA-Stränge die neuen Informationen. Die Veränderungen ergeben sich erst im Kontakt mit der Umwelt, wie die Forschungen zeigten. Ein quantenphysikalisch unterlegter Anpassungsprozess an die Umwelt erweist sich als bedeutend schneller und flexibler als die Annahme eines nur rein zufallsgetriebenen. Licht in polarisierter, genauso wie in unpolarisierter Form stellt in vielen Fällen den zentralen Informationsträger und Vermittler zwischen unterschiedlichen Systemen dar. Am Beispiel der Chi-induzierten Blockade des Wachstums von Krebszellen ist dies sogar beobachtbar bei Menschen. Damit ist zumindest in biologischen Systemen auch hier keine Unterscheidung mehr notwendig. Da Wärmestrahlung nur ein energetisch anderes Spektrum der EM-Strahlung darstellt und nur aus messtechnischen Gründen nicht für die Untersuchung von Informationsübertragungen herangezogen wird, ergibt sich eine weitere logische Option: Auch in diesen Frequenzen sind Informationen codiert und können in Kopplung mit ähnlichen Frequenzen übertragen oder besser geteilt werden. Ein Prozess, der bei Berührung und Austausch von Körperwärme relevant werden würde. Das Schallwellen-Experiment bietet für diese Interpretation eine plausible Grundlage. Bereits 1975 stellte Fröhlich die These auf, dass die in biologischen Systemen enthaltenen Dipolelemente und die damit verbundenen elektrischen Schwingungen unter bestimmten Umständen als Bose-Einstein-Kondensate auf niedrigstem energetischen Zustand erscheinen (Fröhlich 1975, 1986). Bose-Einstein-Kondensate repräsentieren kohärente, quantenmechanische Makrozustände, die als ein System fungieren, zusammengesetzt aus unzähligen Einzelelementen. Damit begründet er schon lange vor den aktuellen Erkenntnissen eine Theorie für Quantenverhalten in biologischen Systemen, die sich immer mehr bestätigt. Vergleichbar den Bose-Einstein-Kondensaten lassen sich Spinensembles oder weitreichende Kohärenzen interpretieren, die ein quantenphysikalisches Ganzes aufspannen, innerhalb dessen Photonen, Elektronen, Quasiteilchen etc. frei fluktuieren können. Je nach äußerem oder innerem Umfeld werden über unterschiedliche Kopplungen (Dipol-Dipol-Verbindungen; Photon-Atom-Photon-Kopplung; Elektron-Atom-Elektron-Kopplung; Elektron-Elektron-Kopplung analog den CooperPaaren; Exzitons, Elektron-Loch-Kopplungen; NV-Defekt-Kopplungen; StickstoffFehlstellen-Kopplung ...) typische Verschränkungszustände realisiert, die weiträumig Wechselwirkung und Informationstransfer sicherstellen. Darauf bauen die zu beobach-
454
8 Modellentwicklung von der Mikro- zur Makrowelt
tenden qualitativen Informationsverarbeitungsprozesse bereits bei den einfachsten Mikroorganismen und Pflanzensystemen. Voraussetzung sind Konfigurationen, die Messanordnungen entsprechen, wie Quanten-Interferometer (bei den Vögeln), Mikrowellen-, respektive Hohlraumresonator oder oszillierende Membrane (z. B. bei der DNA). Wie bereits im Kap. 8.1.2.4 herausgearbeitet wurde, sind Makrosysteme, die Resonatoren und oszillierende Membrane aufweisen, in der Lage, aufgrund kleinster Veränderungen größere Einheiten zu steuern. Die biologischen Entitäten waren alle fähig, eine Qubitänderung auf Spinebene im Makrosystem wahrzunehmen. Als biologisches Messinstrument lässt sich deshalb die PhotonAtom-Photon-Verschränkung bei den Lichtsammelkomplexen oder den Samen interpretieren. Sie weist den gleichen Aufbau auf, wie er bei quantenphysikalischen Experimenten genutzt wird. Andererseits wird die Eigenresonanz von Hohlräumen (z. B. in Zellen oder Microtubuli) als Falle und Ausrichtungshilfe für die Spins von (Bio-)Photonen, Elektronen oder Atomen genutzt und zum Abgleich mit Außenveränderungen eingesetzt. Die hier zusammengefassten Rahmenbedingungen und Messanordnungen (Resonator-Membranen-Kopplung), in Verbindung mit den von den Elementarteilchen und Ensembles getragenen Informationen, entsprechen den Bedingungen in den Zellen und vor allem auch in den Neuronen. Mit den Beispielen zur DNA wird deutlich, dass nicht nur energetische Wechselwirkungen eine wesentliche Rolle in biologischen Systemen spielen. Ganz zentral scheinen Informationsstrukturen, die durch äußere bzw. selbst initiierte innere Magnetfelder und Spinselektivität unterstützt werden. Die von Blank/Goodman einerseits und Göhler andererseits gefundenen Zusammenhänge sind relevant für neuronale Aktivitäten, wie noch in Kap. 8.3 gezeigt wird. Ihre Arbeit verdeutlicht den Zusammenhang von intern und extern evozierter EMF, bis hin zu makroskopischen Phänomenen wie DNA oder Muskelbewegungen. EMF und Spinpolarisationen beeinflussen DNA-Entwicklungen genauso wie Proteine, die schließlich Muskelbewegungen verantworten; genau die Phänomene also, die Repräsentanten in SyA bemerken. Die DNA-Experimente und die dabei gezeigte Umwandlung von Spin- und EMF-gekoppelter reiner Information in lebende biologische Systeme, veranschaulicht die Möglichkeit, Informationen von beliebigen Entitäten (nicht-organisch, organisch, lebende Systeme) wechselseitig aufzunehmen, zu transferieren bzw. zum Ausdruck zu bringen und zu interpretieren. Als einzige Voraussetzung ist das Vorhandensein eines geeigneten Umfeldes anzusehen, das die passenden Freiheitsgrade zur Verfügung stellt. Damit bilden diese Versuche eine fundierte Grundlage für die technischen SyA, bei denen ebenfalls reine Information (Computer-Codes, Defekte in Leitungen – Kap. 3.3.3) von Repräsentanten wahrgenommen werden können.
8.2 Biologische Systeme und Physik
455
Quantenphysikalische Entscheidungsstrukturen Die quantenmechanischen Prozesse beeinflussen über die Orientierung der Spins und über die Variante der chemischen Bindungen biochemische Prozesse im Körper, die lebende Organismen offensichtlich interpretieren und nutzen können. Bereits bei Pflanzen werden Entscheidungen auf der Basis von Unterschieden getroffen, die in den einfachsten Strukturen klassischen Qubits entsprechen (delokalisierte Protonen, die unterschiedliche Isotope kreieren). In weiterentwickelten Formen bilden sich bereits räumlich getrennte, aber kohärent verbundene Zellverbände aus, die komplexere ‚Berechnungen’ vornehmen und auf komplexere Umweltbedingungen reagieren können. Diese topologischen Strukturen lassen sich als Übergang zur Entwicklung eines Gehirns interpretieren und veranschaulichen einen quantenphysikalisch getragenen Wahrnehmungs- und Entscheidungsprozess. Es geht deshalb selbst bei der Photosynthese nicht nur um Sammeln von Lichtenergie, sondern auch um Entscheidungen über deren Menge. Somit liegen Qubits und Entscheidungsstrukturen in den einfachsten Systemen (Antennen von Lichtsammelkomplexen, Samen) zugrunde, die über Kohärenzen abgespeicherter Informationen ausgelöst werden. Prinzipiell ist diese Entscheidungsstruktur bereits auf quantenphysikalisch delokalisierte Protonen in Enzymen anzuwenden. Übersicht über die zentralen Mechanismen Fassen wir die Verschränkungsprozesse bei lebenden Systemen kurz zusammen: ü Energiearbeit bis in die kleinsten Bauteile ü Freiwerden von Photonen, Elektronen, Atomen ü Die kleinsten Bauteile weisen spezifische EMF auf ü Interaktion über verschiedenste Arten von EMF ü Führt zu Kohärenz- und Tunnelprozessen ü Führt zu ständigen biochemischen Prozessen ü Freie Elektronen verteilen sich über das Gesamtsystem = Energiefeld ü Energiefelder von lebenden Systemen (wie Pflanzen, Menschen ...) interagieren, allerdings nimmt diese Interaktion mit der Entfernung oder Energiebarrieren ab ü Schließlich verbleibt eine Kopplung über den Mechanismus der Verschränkung Wie wir aus den ersten Beispielen gesehen haben, ergibt die neuere Forschung mehrere Optionen für physikalischen Signalübertrag: 1. Licht als Überträger von Information auch in Form von Biophotonen und Verschränkung. 2. Von außen angelegte EMF, die die beteiligten Systeme kohärent verbindet, genauso wie selbsterzeugte Oszillationen. 3. Die Schwingungsfrequenz der Proteine führt einerseits zur Informationsübertragung, andererseits auch zu einer Stabilisierung gegen Umwelteinflüsse, wie sie von Plenio (Chin u. a. 2013) und anderen bei Bakterien erkannt wurden. 4. Tunnelprozesse, wie sie bei Bakterien, Tee und den Radikal-Paaren beim VogelKompass diagnostiziert wurden.
456
8 Modellentwicklung von der Mikro- zur Makrowelt
5. Schwach gekoppelte Wellenfunktionen über Energiebarrieren hinweg erzeugen ebenfalls Veränderungen wie bei der DNA und analog zu Cooper-Paaren und Exzitons. 6. QT, die zur Übertragung von Information von Medikament zum Klienten führen und passende Körperreaktionen auslösen unter GHZ-Bedingungen. Unsere 5 Sinne plus Fühlen als Verschränkungsphänomen Wir haben damit alles zusammen, um die verschiedenen Wahrnehmungskanäle bei Menschen als die Regionen zu definieren, in denen eine physikalische Interaktion mit der Umgebung vollzogen wird und dürfen dies als Verschränkungsprozess definieren. In der modernen Interpretation der Physik wird davon ausgegangen, dass eine physikalische Verschränkung zwischen zu untersuchendem System und Beobachter existiert (Heisenberg-Schnitt) und sich damit eine Information über das Gesamtsystem erstreckt – unabhängig, wie weit die einzelnen Teile räumlich und zeitlich voneinander entfernt sind. An einem Beispiel vereinfacht dargestellt, lässt sich dies auf den Prozess des Sehens übertragen. Beim Sehen kommt es zu einer physikalischen Interaktion, nämlich zu einer EM-Wechselwirkung zwischen dem Objekt und dem Beobachter und damit zu einer Verschränkung. Licht, das mit dem von uns beobachteten Objekt in EM-Wechselwirkung tritt, wird auf der Retina abgebildet und an unser Gehirn geleitet. Gleiches gilt für das Phänomen Hören, bei dem Schallwellen in EM-Signale modelliert und ebenfalls dem Gehirn zugeführt werden. Entsprechendes gilt bei Berührungen. Im Gehirn findet daraufhin eine Laplace-Transformation statt, die das EM-Wellenpaket in seine Einzelpakete zerlegt. Diese Einzelpakete werden durch gespeicherte Resonanzen in den unterschiedlichen Zellen erkannt und dem Bewusstsein als Hörerlebnis zur Verfügung gestellt und gleichzeitig auch gespeichert. Sowohl beim Sehen als auch beim Hören greift die EMF-Atome/Molekül-EMF-Kopplung. Für alle unsere Sinne existiert der gleiche Zusammenhang, die Interaktion mit kleinsten Energiefeldern, die durch leichte oder größere Spinveränderungen Frequenzen beeinflussen und Informationen transportieren. Ohne eine physikalische Interaktion keine Wahrnehmung. Diese Energiefelder führen nach der ursprünglichen Logik der Quantenphysik nur Energieanteile mit sich. Nach dem bisher untersuchten Zusammenhängen darf jetzt dieser Rahmen auf sämtliche Information ausgedehnt werden, die das Sendersystem besitzt bzw. welche die Entität als Ganzes ausmacht, wie es bereits im Kap. 4.2.4.1 mit der Normierung des Informationsbegriffs angedacht wurde. Grundlage dafür liefert der quantenphysikalische Mechanismus, dass EMF aus der gleichen Quelle verschränkt sind und die Information des Gesamtsystems tragen bzw. repräsentieren. Logischerweise sollte nun für den Empfänger, als auch umgekehrt für den Sender, die Möglichkeit der wechselseitigen Informationswahrnehmung bestehen. Beide bilden ein verschränktes System, in dem alle Information verteilt ist. Dass quantenphysikalische Tunneleffekte und Kohärenzen in der Biologie auf Zellebene vorliegen, ist anschaulich dargelegt
8.2 Biologische Systeme und Physik
457
worden. Auch dass die Systeme mit diesen Informationen etwas anfangen können, wurde gezeigt. Mit den vorgestellten Beispielen und anderen Arbeiten konnte nachgewiesen werden, dass der quantenphysikalische Gültigkeitsbereich sich auch auf lebende biologische Systeme erweitern lässt und das bei normalen Temperaturen und Umweltbedingungen. Mit Bezug auf SyA lässt sich feststellen 1. SyA stellen eine quantenphysikalische Messapparatur für biologische Systeme dar, und zwar in einer allgemeinen Form. Allgemeine Form bedeutet hier, dass sämtliche Informationen eines Systems (anorganisch als auch organisch) gemessen werden können, abhängig vom Wissens- bzw. Interpretationsstand der Empfänger. 2. Scheint in unserem klassischen Verständnis keine physikalische Wechselwirkung zwischen den Personen in einer Aufstellungsgruppe zu existieren (analog Abb. 77 a-b), so verändert sich dies in dem Moment, indem die Repräsentanten in eine ‚gesammelte Aufmerksamkeit’ und in eine ‚wahrnehmende Beobachtung’ gehen. Energetisch entsteht Ruhe im System, was als gleicher energetischer Grundzustand interpretiert werden kann. Wahrnehmungsmäßig entwickelt sich fast augenblicklich ein Bezug zu den anderen Repräsentanten. Schlussfolgernd lässt sich ableiten: Über das Gesamtsystem dehnt sich eine gleichförmige Schwingung (Kohärenz) aus, was zum Verlust der Individualität und zur Konstituierung einer übergreifenden Wellenfunktion führt. In dieser sind alle Zustände und Informationen gleichmäßig verteilt. Entsprechend Abb. 77 c ist damit jedoch auch die Möglichkeit einer Fehlinterpretation verbunden. Individuelle persönliche Intentionen sind nämlich ebenfalls Teil des Gesamtzustands und können sich bemerkbar machen. 3. Dass sich bei Berührung von Fallbringer und Repräsentant sehr häufig unvermittelte und deutlich spürbare Wahrnehmungen zeigen, entspricht der dargestellten Beobachtung, dass mit Zunahme der Intensität sich neue Informationen besser vom Umfeld (Ausgangs-Zustand) abheben. Gleichzeitig wird eine Vervollständigung von Verschränkungszuständen realisiert, analog den physikalischen Experimenten (EMF-Abstrahlung von Menschen >>> direkte Verschränkung und QT >>> Informationsverteilung bei allen Betroffenen). 4. Je kohärenter, im Sinne von gleichschwingend bzw. gesammelt, eine Aufstellungsgruppe ist, desto deutlicher kommen die Informationen durch. Selbiges sollte auch Gültigkeit in Bezug auf die Fokussierung besitzen. Je fokussierter der Fragesteller und die Gruppe, je präziser sind die Antworten. 5. Der Außenbeobachter und die Spin-Messungen bei quantenphysikalischen Experimenten werden bei der quantenphysikalischen Interaktion von Makrosystemen durch einen Innenbeobachter und typische Zustandsveränderungen kompensiert; Zustandsveränderungen wie physiologische Reaktionen oder Imagination von Bildern und Ideen. Unser Bewusstsein fungiert dabei als Beobachter, der, solange er nicht ins Geschehen eingreift, indem er eine Entscheidung trifft,
458
8 Modellentwicklung von der Mikro- zur Makrowelt
maximal eine schwache Quantenmessung vornimmt, die das System nicht weiter stört. Mit den neuesten Erkenntnissen aus der Forschung mit biologischen Systemen lassen sich die bereits an einigen Stellen dieser Arbeit vorgestellten Annahmen führender Wissenschaftler bestätigen. Die Natur hat zahlreiche Wege gefunden, quantenphysikalische Phänomene für ihre Entwicklung und ihre Anpassung an sich verändernde Umfelder zu nutzen. Tatsächlich ist wohl davon auszugehen, dass ihre Fähigkeiten eher einer kontinuierlichen Weiterentwicklung der elementaren Basismechanismen entsprechen, als dass sie erst im Nachgang erzeugt wurden. Womit es sich immer wieder um emergente Erscheinungen handelt, die immer höher organisierte Lebensformen hervorbringt. Als logische Konsequenz darf auch beim Menschen und seinen kognitiven Prozessen ebenfalls von emergenten Entwicklungen ausgegangen werden. Hinweise auf entsprechende Zusammenhänge werden im folgenden Kapitel untersucht. Kritische Anmerkungen Trotz der von Al-Khalili und McFadden herausgearbeiteten Zusammenhänge und Nachweise für Quantenverhalten biologischer Lebensformen weisen sie explizit darauf hin, dass angebliche Phänomene wie das nicht-lokale Spüren emotionaler Zustände zwischen Zwillingen oder das von Hunden in Bezug auf ihre Besitzer 203, noch nicht ansatzweise wissenschaftlich begründet seien (Al-Khalili und McFadden 2015: 226). Besonders quantenmechanische Erklärungen scheinen ihrer Sicht nach unpassend. Anzumerken dazu ist, dass sie solche ‚Fernwirkungen‘ als nicht existent für unsere Alltagswelt ansehen. Mit den zahlreichen Beispielen aus SyA, Intuition- und Entscheidungstheorieforschung, darf diese Annahme als widerlegt gelten, nur scheinen ihnen diese Beispiele und die damit verbundene Menge an Evidenzen nicht bekannt zu sein. Wären sie ihnen bekannt, würde ihr Urteil vermutlich anders ausfallen. In diesem Kapitel wurde die Frage nach ‚Übertragungswegen zwischen lebenden Systemen‘ unter Zuhilfenahme quantenphysikalischer und EM-Prozesse untersucht und positiv beantwortet; die letzte offene Unterkategorie aus dem Codingprozess. Gleichwohl darf auch hier festgestellt werden, dass neben den beschriebenen Prozessen und korrelierenden Phänomenen in biologischen Systemen bisher nur rational-logische Annahmen abgeleitet wurden. Was noch fehlt, ist der Nachweis von Informationsübernahme in Menschen und auf neuronaler Ebene, mittels der bisher beschriebenen Prozesse. Erst mit diesem Nachweis kann die letzte Unterkategorie abgeschlossen, Hypothese 4 (Kap. 2.1) bejaht und die Grundlage für Hypothese 1 gelegt werden. Ergänzend wäre das Verstehen über den physiologischen Prozess bzgl. Bedeutungsgebung von Information (letzte Unterkategorie zur Information in Kap. 2.1) und damit die konkrete Übertragung auf unsere neuronalen Prozesse ebenfalls von enormer Hilfe. Was also passiert tatsächlich auf elementarer Ebene, wenn unser Gehirn denkt? 203
Bei den Hunden spielen sie vermutlich auf Sheldrake’s Dog Experiment an.
8.3 Neurowissenschaften – Der Mensch als Entscheider
459
Abschließen möchte ich dieses Kapitel mit einem Zitat von Feynman aus seiner Vorlesungen Band 1, Chapter 3-3, Biologie (Feynman u. a. 1970): „all things are made of atoms, and that everything that living things do can be understood in terms of the jigglings and wigglings of atoms.“ Er ging offensichtlich bereits Anfang der 60er Jahre davon aus, dass im ‚Zittern und Zappeln’, also den Frequenzen der Atome, die Informationen enthalten sind, die Leben ermöglichen. 8.3
Neurowissenschaften – Der Mensch als Entscheider
Unser Gehirn ein physikalisches Organ, eine alternative Annäherung Wie deutlich wurde, ist jede Information, die in dieser Welt existiert und mit der wir in Kontakt kommen, in irgendeiner Weise auf einer EM-Ebene codiert. Die EM-Ebene ist ihrerseits ein emergentes Produkt der Quantenebene mit der Folge, dass diese Information einen Bezug zur Quantenebene haben sollte. Die Frage der Informationswahrnehmung und -interpretation ist insofern keine Frage des Vorhanden- oder nicht Vorhandenseins einer Information, sondern es ist eine Frage (a) der Resonanz- und (b) der Interpretationsfähigkeit. Dies wird nun Gegenstand der Überlegungen im Kontext der Neurowissenschaften. In diesem Kapitel sollen deshalb die Möglichkeiten ausgelotet werden, inwiefern Verschränkungs- und Informationstransferprozesse auf Gehirnebene möglich sind, welche experimentellen Erfahrungen bereits vorliegen und wie theoretische Überlegungen diese Erfahrungen plausibel erscheinen lassen. Als Ergebnis wird Säule 11 ‚Arbeitsweise unseres Gehirns’ untersucht und die Kategorie aus dem Codierungsprozess ‚Übertragungswege zwischen lebenden Systemen’ auf Menschen ausgedehnt. 8.3.1
Unser Gehirn – aktuelles Verständnis und Aufbau
Wer sich mit der Geschichte des Gehirns beschäftigt, wird immer wieder den Versuch beobachten können, unser Gehirn mit Metaphern aus der Technik zu beschreiben. Je nach dem Stand der Technik fällt dies unterschiedlich aus. Wurde zu Beginn noch der Vergleich mit einem Räderwerk vorgenommen, folgten später kommunizierende Röhren, dann unter dem Einfluss der Kybernetik der klassische Computer (Eckoldt 2016). Heute orientiert sich die Forschung u. a. an neuronalen Netzen, die im Gehirn zu beobachten sind und versucht sie auf die Entwicklung künstlicher Intelligenz und Quantencomputer zu übertragen (Daskin 2018; Musser 2018; Schempp 1992). Neuronale Netze erscheinen als Datenautobahnen, die je nach Bedarf angepasst werden. Hier wird vor allem versucht die Selbstlernkompetenz nachzubilden; eine Fähigkeit, die alle lebenden Systeme auszeichnet. Im Weiteren wird sich zeigen, dass mittlerweile auch
460
8 Modellentwicklung von der Mikro- zur Makrowelt
Quantencomputer als analoges Bild verwendet werden. Immer findet sich ein direkter Bezug zu den jeweils aktuellen Wissens- und Forschungsmodellen und damit auch zum aktuellen Zeitgeist. Aufgrund dieser Parallele glauben viele immer noch an eine letztlich mechanistische Komponente unseres Denkapparats. Gleichwohl darf die Verbindung zu physikalischen Grundlagen als Ausgangspunkt angenommen werden: „To expect the mind–brain connection to be understood within a framework of ideas so contrary to the principles of physics is scientifically unsupportable and unreasonable“ (Schwartz u. a. 2005: 1324). Als möglicher Ausweg scheint ein hilfreicheres Verständnis zu sein, das Gehirn als Ausgangspunkt anzusehen, von der sich die Technik leiten lässt. Je stärker sich die Computerentwicklung an der Funktionsweise des Gehirns orientiert, desto größer werden die Ähnlichkeiten und nicht umgekehrt. 8.3.1.1 Aufbau unseres Gehirns nach klassischem Verständnis Wovon reden die Neurowissenschaften nun eigentlich, wenn sie von unserm Gehirn sprechen und es als gewaltiges physisches System bezeichnen? Im Folgenden werden ein paar Fakten und eine klassische Beschreibung vorgestellt: Unser Gehirn setzt sich überwiegend aus Nerven- und Gliazellen (Myelinscheide) zusammen (Schandry 2011: 46). Nervenzellen (auch als Neuronen bezeichnet) sind elektrisch erregbare Zellen des Nervensystems, die Informationen (Signale) verarbeiten und weiterleiten. In Wirbeltieren stellen Nervenzellen den wichtigsten Teil von Gehirn, Rückenmark und peripheren Nerven dar (Abb. 83). Die Myelinscheide umhüllt das Axon und spielt eine wesentliche Rolle bei der Beschleunigung der Leitungsgeschwindigkeit. Nervenzellen setzen sich jeweils aus drei Grundelementen zusammen – dem Zellkörper (Soma), den Dendriten und dem Axon. Vom Zellkörper, der den Zellkern umschließt, gehen zwei Arten von Fortsätzen ab: Dendrite und ein Axon. Dendrite nehmen elektrische Impulse von anderen Neuronen auf, wohingegen das Axon elektrische Impuls an andere Neuronen weiterleitet (ebd. 55). Das Axon selbst kann zwischen 1 µm und etwas über 1 m lang204 sein (ebd. 52). Gliazellen bauen die Myelinscheide auf (im Bild blau), die das Axon umhüllen. Zusammen mit dem Axon bilden sie eine Nervenfaser. Die Gliazellen sorgen für die elektrische Isolation. Das Zellskelett (oder Cytoskelett) der Nervenzelle wird u. a. aus Proteinen aufgebaut, die röhrenförmige Filamente bilden, die sogenannten Mikrotubuli (ebd. 49-50). Mikrotubuli sind in Längsrichtung der Axone ausgerichtet und besitzen einen Plus- und einen Minuspol. Mit den Polen erklärt sich auch ihre Leitfähigkeit für elektrische Impulse. Sie dienen gleichzeitig zur Stabilisierung wie auch zur Flexibilität und werden zusätzlich als Transportkanäle für verschiedene Stoffe genutzt. Ihre Durchmesser variieren zwischen 20 und 30 nm und ihre Länge liegt zwischen 0,2 µm und mehreren Hundert µm. Damit erstrecken sich die Mikrotubuli nicht über die gesamte Länge von Zellkörper bis Axonende. Vielmehr sind 204
Der Ischiasnerv ist ein einziges Neuron, dessen Axon sich von der Wirbelsäule bis in den Zeh hinein erstreckt.
8.3 Neurowissenschaften – Der Mensch als Entscheider
461
Unmengen dieser kleinen Röhrchen überlappend angeordnet und aneinander gereiht (Alberts u. a. 2011: 1185). Im Gegensatz zum kontinuierlichen Auf- und Abbau der Mikrotubuli in normalen Zellen, die sich ständig replizieren, handelt es sich bei den Mikrotubuli in den Axonen der Neuronen um stabile Formen.
Abb. 83 | Diagramm einer ganzen Nervenzelle Von LadyofHats, Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=3970958
Festzuhalten ist noch, dass sich die Anzahl der Neuronen im Gehirn ab der Geburt nicht verändert, wohl aber deren Dicke zunimmt (Spitzer 2002: 52). Einer zahlenmäßigen Veränderung unterliegen nur die Synapsen und ihre Übergänge. Nach diesen Vorstellungen geht mit der wachsenden Dicke der Nervenfasern eine verbesserte Impulsleitung einher. Auf diesen Beobachtungen basieren die molekularen Grundlagen und unsere heutige Vorstellung von Lernen und Gedächtnis (ebd. 96). Strukturell enthält jede Nervenzelle das gesamte Genom und ihre Komplexität entspricht der einer Großstadt (Eagleman 2012: 7). Die Neuronen bilden ein Netzwerk aus mehreren 100 Milliarden Zellen, die über Synapsen verbunden sind. Allein ein Kubikzentimeter Gehirnmasse weist so viele Verbindungen auf, wie es Sterne in unserer Milchstraße gibt (vgl. ebd. 8). Von den ca. 15 Millionen Nervenzellen im Kleinhirn (Schiebler und Korf 2007: 786) besitzt jede einzelne Nervenzelle bis zu 80.000 Dendriten und ca. 150.000 Synapsen. Jede einzelne steht im Austausch mit Axonen anderer Nervenzellen, die Information nach klassischem Verständnis u. a. mittels elektrischer
462
8 Modellentwicklung von der Mikro- zur Makrowelt
Impulse und Neurotransmittern übertragen. Berechnungen gehen davon aus, dass die Dauer chemischer, synaptischer Übertragungen mindestens 0,5 ms und die Geschwindigkeit innerhalb der Axone zwischen 0,5 m/s und 120 m/s beträgt (Rahnama u. a. 2011: 81). Eine Übertragung zwischen diesen Milliarden von Synapsen benötigt demzufolge Milliarden von Millisekunden allein im Gehirn. Wie kann dieses funktionieren? Damit können die langsamen synaptischen und axonalen Signalübertragungen niemals die schnellen, über große Gehirnregionen koordinierten, neuronalen Prozesse im Nervensystem erklären (ebd). Wie eben angemerkt, geht nach allgemeinem Verständnis die Kommunikation zwischen Synapsen und aufnehmendem Dendrit im Gehirn mittels Neurotransmitter vonstatten (Schiebler und Korf 2007: 839–842). Neurotransmitter sind Übertragungsstoffe, also Moleküle, die eine relativ lange Zeit benötigen (s.o. 0,5 ms), um den Spalt zwischen Synapse und dem Rezeptor des Dendrits zu überwinden. ‚Relativ’ versteht sich hier in Bezug zur Geschwindigkeit, die ansonsten im Gehirn zu beobachten ist. Denn zusätzlich müssten Informationen, die nur auf diese Weise übertragen werden, quer durch das gesamte Gehirn, von Neuron zu Neuron transportiert werden und das auch zirkulär wieder zurück, wie oben bereits festgehalten wurde. Aufgrund dieser Diskrepanz zwischen bisherigem Verständnis und der beobachtbaren Interaktionszeiten der verschiedenen Gehirnareale bestehen erhebliche Zweifel über die Stimmigkeit dieses traditionellen Modells. Einen ersten Hinweis könnten die elektrischen Synapsen liefern, die Ionenströme bidirektional zwischen Synapsen ermöglichen und als gap junctions bekannt sind (Engel u. a. 2018: 119). Durch gleichzeitiges Agieren vieler Neuronen ermöglichen sie nach bisherigem Verständnis die Aktionspotentiale (ebd. 121). Wesentlicher scheint mir jedoch, dass elektrische Synapsen für eine hochgradige Synchronisierung und Koordinierung großer Neuronenareale verantwortlich gemacht werden (ebd.) und damit größerflächige Kohärenz ermöglichen. Ihre Rolle wird in den Neurowissenschaften jedoch als untergeordnet angesehen (ebd.). Dass elektrische Prozesse mitwirken, wird durch das Auftreten von EEG-Wellen offensichtlich. Nach dem herkömmlichen Verständnis ist bis heute jedoch völlig unklar, wodurch die mit einem EEG (Elektroenzephalografie) gemessenen EM-Wellen erzeugt werden (Hameroff und Penrose 2014b: 97). Funktional sind es die Neuronen, die Veränderungen der Umgebung wahrnehmen, diese an andere Neuronen weiterleiten und schließlich körperliche Reaktionen auf diese Wahrnehmungen hin auslösen (Engel u. a. 2016: 28). Um diese Funktion realisieren zu können, wird den Neuronen die Fähigkeiten zur Speicherung von Informationen und zur Modulation der Signalübertragung zugeschrieben. Jede dieser Nervenzellen im Gehirn ist hoch spezialisiert und repräsentiert ganz bestimmte Aspekte der Außen- und Innenwelt, wie Farbe, Geräusche, Raum, aber auch Zusammenhänge, Muster, Werte, Orte oder Gefühle. Im Verbund bilden sie kleine und größere Cluster (Spitzer 2002: 12–13). Auf diese Weise sind über das ganze Gehirn unzählige Cluster verteilt, die nur im Zusammenspiel Informationen verarbeiten und wieder zur Verfügung stellen können und
8.3 Neurowissenschaften – Der Mensch als Entscheider
463
nach klassischer Vorstellung über neuronale Netze205 verbunden sind. Damit diese Cluster anspringen, müssen die elektrischen Impulse bestimmte Wahrnehmungsschwellen übersteigen, d. h. die Zahl der Neuronen, die feuern, muss groß genug werden, damit ausreichend Energie zusammenkommt. Je mehr Neuronen gemeinsam aktiv sind, desto mehr Eingangssignale kommen auf ein Neuron und desto schneller wird der Schwellenwert erreicht, der wiederum neue Ausgangssignale produziert. Es handelt sich hier also um einen zirkulären, sich selbst verstärkenden Prozess, der sich auch auf das Lernen an sich ausdehnt (ebd. 118 - 119). Denn mit jeder Trainingseinheit erweitert sich das neuronale Areal (bekannt unter dem Begriff der Neuroplastizität (ebd. 94)), die Cluster werden größer und können so schneller die Wahrnehmungsschwellen erreichen. Dafür benötigt es allerdings variantenreiches Lernen, und wenn es nur kleinste Modifikationen sind sowie Motivation und Aufmerksamkeit (ebd. 154). Wie sich herausgestellt hat, führt stupides Wiederholen dagegen zu einem Stopp der neuronalen Erweiterung. Diese Erweiterungen lassen sich mit bildgebenden Verfahren beobachten (ebd.). Anschaulich wird dies beim Autofahren, bei Sportlern oder bei beruflicher Spezialisierung. Wofür zunächst noch viel Aufmerksamkeit und Energie nötig ist, wird es mit zunehmender Übung einfacher bis es schließlich ins Unterbewusste übergeht. Schließlich reichen nur kleinste Signale, um Veränderungen wahrzunehmen oder Situationen zu erfassen. Geübte Fachkräfte in der Linsenfertigung für Hochleistungsobjektive sind in der Lage mit der Hand 40 cm große, gewölbte Linsen bis auf wenige Atome genau zu polieren206. Das neue Ur-Kilo, eine Siliziumkugel, wird ebenfalls per Hand von einem Spezialisten auf die exakte Größe poliert (Zörlein 2008). Der Durchmesser der Siliziumkugel ist bis auf wenige nm exakt. Damit wird die Lernfähigkeit und der Sensibilitätsgrad deutlich, den unser Nervensystem und unser Gehirn zu leisten vermag und im Unterbewussten ablaufen lässt. 8.3.1.2 Grenzen des klassischen Verständnisses Die oben beschriebene Geschwindigkeitsdynamik stellt nur eine von vielen Fragezeichen dar, weshalb in den Neurowissenschaften erhebliche Widerstände bzgl. adäquater Erklärungsmodelle existieren (Tang und Dai 2014b; Fair u. a. 2009; Schwartz u. a. 2005). Diese Gegenbewegung zu rein physiologischen Modellen resultiert darüber hinaus aus psychologischen Beobachtungen (Salone u. a. 2016; Schwartz u. a. 2005) als auch aus der Bewusstseinsforschung. Exemplarisch soll hier ein Zitat von Eagleman vorgestellt werden: „Die meisten Menschen würden für die Existenz einer vom Körper unabhängigen Seele votieren, und die meisten Neurobiologen dagegen. Für Letztere ist das Wesen des Menschen nichts als eine natürliche Eigenschaft, die sich aus einem gewaltigen physischen System ergibt, sonst nichts“ (Eagleman 2012: 238). Aus materialistischer, reduktionistischer Sicht wird alles auf der Welt Existierende ausschließlich 205
206
Spitzer weist darauf hin, dass Kinder und Computermodelle in gleicher Weise und in den gleichen Phasen gleiche Fehler produzieren. Er schließt daraus, dass beide in ähnlicher Weise lernen (Spitzer 2002: 74). Eigene Beobachtungen bei einem Kunden, der Hochleistungsobjektive herstellt.
464
8 Modellentwicklung von der Mikro- zur Makrowelt
auf chemische und biologische Prozesse reduziert. Dazu gehört unser Bewusstsein und sonstige Phänomene wie Narzissmus, Mitgefühl, Träume etc. „Demnach ist das Gehirn ein System, das den Gesetzen der Chemie und Physik unterliegt, und unsere Gedanken, Emotionen und Entscheidungen sind nichts als das Produkt natürlicher Reaktionen, die regionalen Gesetzen folgt, um den Zustand der geringsten potenziellen Energie herzustellen“ (ebd.). Entsprechend gestehen die Neurowissenschaften dem Bewusstsein heute in der Regel nur eine Auswahlfunktion zu (ebd. 227). Es darf auswählen, was auf der Festplatte des Gehirns und gegebenenfalls in den Genen eingeätzt werden soll. Damit endet aus ihrer Sicht die aktive Rolle. Gleichzeitig gehen sie davon aus, dass Intuition und Tradition keine Bedeutung für Zukunftsvorhersagen haben. Der wissenschaftliche Fortschritt über den Aufbau unseres Gehirn und die Gene sollen hierfür wesentlich hilfreichere Modelle zur Verfügung stellen (ebd. 229). Als rein physisches System sollte also der genetische Code ausreichen, um alle körperlichen Entwicklungen und Vorgänge erklären zu können, so die bisherige noch weit verbreitete Annahme. Dass dem vielleicht doch nicht so ist, verdeutlichen SyA und Intuitionsforschung. Auch das Wissen über den heute vollständig vorliegenden Gencode veranschaulicht die Unmöglichkeit dieser Annahme. So lässt sich tatsächlich nicht aus dem Gencode auf den Ausbruch von Krankheiten schließen (ebd. 245). Ein Wissen über unsere Gene reicht demzufolge nicht aus, um unser Verhalten oder innere Prozesse sicher vorhersagen zu können (ebd. 248). Analog zur Physik stellt Eagleman den gleichen Zusammenhang fest: Die Reduzierung auf immer kleinere Bausteine liefert kaum Antworten auf brennende Fragen (ebd. 246). Zwar mag es eine Veranlagung dazu geben, entscheidend sind jedoch ein Zusammenspiel von Umfeld, Gendisposition und spezifischen Gehirnstrukturen. Ergänzt wird dies durch die Unmöglichkeit, mit den heutigen bildgebenden Verfahren ableiten zu wollen, was der Mensch tatsächlich denkt. Es besteht bisher nur die Option zu erkennen, welche Gehirnareale (von denen man in etwa weiß wofür sie zuständig sind) an Gedanken und Verhaltensprozessen beteiligt sind, nicht mehr. Derzeit sind die betroffenen Gehirnregionen noch viel zu winzig, um sie direkt beobachten zu können (vgl. ebd. 149). Es lässt sich heute von außen anhand der elektrischen Signale auch noch nicht sagen, was genau wahrgenommen wird. Ist es ein Stuhl oder eine Bank, ein BMW oder ein Audi oder etwas ganz anderes und welche Farbe hat es? Die Vorstellung der Aufteilung unseres Gehirns in Regionen mit klaren Zuständigkeiten ist nach Eagleman ebenso falsch. „Das zusammenhängende Netzwerk der neuronalen Schaltkreise führt seine Aufgaben über vielfältige, eigenständige und unabhängig voneinander entwickelte Strategien aus“ (ebd. 154). „Dauernd sind kleine Gruppen damit beschäftigt, Entscheidungen zu treffen und an andere kleine Gruppen weiterzugeben“ (ebd. 13). Für jede Aufgabe kann unser Gehirn zahlreiche leicht variierende Möglichkeiten liefern, nie nur eine. Zusätzlich existieren eine Reihe von Gegenspielern (ebd. 120-177), die ständig die vielen unterschiedlichen Informationen gegeneinander abgleichen und in jedem einzelnen Menschen eine Vielheit von Menschen abbildet. ‚Ich’ bin damit ‚Viele’. Welches der ‚Vielen’ sich zeigt, hängt von Umfeld, Situation und meinem momentanen Befinden ab. Kleinigkeiten können darüber entscheiden, was sich im jeweiligen Moment materialisiert. Allein aus diesem Sachverhalt lässt
8.3 Neurowissenschaften – Der Mensch als Entscheider
465
sich eine deterministische Festlegung dessen, was sich in unserem Gehirn tut, verneinen. Ganz im Gegenteil findet sich hier eine analoge Beschreibung zu Schrödinger’s Katze wieder, mit einer Superposition von Möglichkeiten. Für Eagleman, wie für viele Neurowissenschaftler, ist es auch nach wie vor ein Rätsel, wie das Gehirn uns Informationen zur Verfügung stellt. Sie konnten nämlich nachweisen, dass die meisten Prozesse des Gehirns im Verborgenen und Vorbewussten laufen, bis hin zu Lernen von und Entscheiden zwischen bedeutungsvollen und nicht-bedeutungsvollen semantischen Signalen aus dem Umfeld im Schlaf. „Yet, the sleeping brain continues generating neural responses to external events, revealing the preservation of cognitive processes ranging from the recognition of familiar stimuli to the formation of new memory representations“ (Legendre u. a. 2019). Die fertigen Ergebnisse werden irgendwann in Form von Ideen serviert. „Wenn eine Idee von hinter den Kulissen herausgereicht wird, dann haben Ihre Schaltkreise sie oft stunden-, tage- oder sogar jahrelang durchgekaut, Informationen gesammelt, konsolidiert und in immer neuen Kombinationen zusammengestellt“ (Eagleman 2012: 14). Er führt dazu als ein Beispiel Goethe an, der von sich behauptet haben soll, dass er den Roman ‚Die Leiden des jungen Werthers’ ohne bewusstes Zutun geschrieben habe. Die Feder habe sich wie von selbst bewegt, er habe sie nur gehalten (ebd. 15). Als weiteres Beispiel verweist Eagleman auf Wurf und Schlag eines Baseballs. Die Weltrekordgeschwindigkeit des Wurfs liegt bei 161 km/s. Der Schläger hat damit nur 400 ms (0,4 Sekunden) Zeit, den Ball zu treffen. Das reicht aus, um den Weg des optischen Signals vom Auge über die Nervenzellen der Netzhaut bis zum visuellen Cortex des Gehirns, von dort über eine gewaltige Strecke bis zum Motorcortex zu leiten und schließlich die Muskeln zu stimulieren. Eine bewusste Reaktion benötigt aber mehr als 0,5 s (ebd. 16). Neurologisch gesehen braucht es also keine bewusste Wahrnehmung um komplexe Situationen (hier Bewegungsabläufe) zu meistern. Damit stellt sich erneut die Frage: Wie arbeitet unser Gehirn und was arbeitet da? Aus Sicht der Neurowissenschaften ist heute klar, dass wir die Außenwelt nicht direkt wahrnehmen, sondern nur Signale mit unserem Nervensystem aufnehmen und unser Gehirn diese interpretiert. Dem Gehirn ist es egal über welchen Kanal ein Signal hereinkommt. Letztlich handelt es sich immer um eine Information, die in EM-Wellen codiert ist. Deshalb führen erfolgreich verlaufende Operationen nach langer Blindheit nicht unbedingt zu einem normalen Sehen. Zwei Fälle, bei denen ein im Alter von drei Jahren erblindeter Mann (MacLeod und Fine 2010) durch ein neues Operationsverfahren und ein 71-jähriger nach 53 Jahren Blindheit (Šikl u. a. 2013) wieder sehen konnten, verdeutlichen dies. Beide mussten das Sehen über Monate erst wieder lernen und schafften dies nur unvollständig. Die von den Augen wahrgenommenen Farben, Formen und Lichter wurden an das Gehirn geleitetet, konnten von diesem aber nicht interpretiert werden. Interessant ist auch, dass in unserem Gehirn nicht alles sofort und gleichschnell abläuft. Auf bekannte oder einfache Signale reagiert unser Gehirn recht schnell, auf unbekannte oder widersprüchliche Signale deutlich langsamer und noch länger, wenn
466
8 Modellentwicklung von der Mikro- zur Makrowelt
komplexe Entscheidungen zu treffen sind (siehe Kap. 3.2.3). Was läuft da also im Hintergrund? Tatsächlich stellt Eagleman am Ende auch die Frage, ob „es eine Art von Kommunikation zwischen dem menschlichen Geist und der Materie des Universums“ gibt? Eine Antwort auf diese Frage „könnte eine entscheidende Verbindung zwischen Quantenphysik und Hirnforschung darstellen“ (Eagleman 2012: 258). Sehr in Zweifel stellt er in jedem Fall die Möglichkeit einer rein materialistisch-reduktionistischen Erklärung mit dem Hinweis, einer nichtverstandenen Komplexität auf diesem Gebiet und dem Einfluss der Umwelt (ebd. 253). Worauf begründet er diesen Zweifel? Ausgehend von seinen Forschungen, in denen er sich mit menschlichen Wahrnehmungen beschäftigt und dem Mechanismus, wie die Sinneseindrücke bewusst und unbewusst dem Menschen zur Verfügung gestellt werden, ergibt sich für ihn die Schlussfolgerung, dass das Wissen über unsere mentalen und kognitiven Prozesse noch in den Kinderschuhen steckt (ebd. 260). Zum einen sind es die unglaublich schnellen Zeitabläufe, in denen verschiedene Gehirnareale miteinander interagieren. Zeitabläufe, die aus rein mechanistischer Sicht (Information wird von einer zur anderen Zelle rein biochemisch weitergegeben) nicht realisierbar wären, denn das Gehirn hat zudem sowohl Vorwärts- wie Rückwärtsverbindungen, eine sogenannte Rekurrenz (Bell 1999). Zum anderen sind es die „Zombie-Programme“, wie er sie nennt. Programme, die völlig im Hintergrund laufen und unsere Entscheidungsfreiheit massiv einschränken, wenn nicht sogar zum Erliegen bringen. „Wir können den menschlichen Geist nur begreifen, wenn wir die Aktivitätsmuster entziffern, die auf dieser Hardware stattfinden und die sowohl durch innere Abläufe als auch durch Interaktionen mit der Umwelt zustande kommen“ (Eagleman 2012: 257). Zur Veranschaulichung stellt er zahlreiche neuronale Krankheiten vor, die massivste Auswirkungen auf unser Verhalten und unser Bewusstsein haben. Beispielhaft sei auf die Huntington-Krankheit (ebd. 244) verwiesen, bei der die Mutation eines einzigen Gens zum Zelltod im Frontallappen des Gehirns und als Folge zu massiven Persönlichkeitsveränderungen führt. Für Familienaufsteller erscheint mir ein anderes, gut ankoppelbares Beispiel von besonderer Bedeutung zu sein: die Schizophrenie. Die Suche nach entsprechenden Genen war erfolgreich. Die Forscher haben Hunderte solcher Gene gefunden, von denen allerdings kein einziges den Ausbruch der Schizophrenie voraussagen kann (ebd. 246-247). Entscheidend sei vielmehr der soziale Stress, den z. B. Einwanderer in ihrem neuen Umfeld empfinden. Je stärker der äußerliche und kulturelle Unterschied zur lokalen Gesellschaft ist, desto stärker die Gefahr entsprechender Symptome, die sich auf Gehirnebene auch lokalisieren lassen. Dies betrifft allerdings nur diejenigen, die stark an diesem Unterschied der Kulturen leiden, nicht aber diejenigen, die stolz auf ihr kulturelles Erbe und ihre Herkunft sind. Um Antworten für diese unklaren Prozesse in unserem Gehirn zu finden, wird auf verschiedenen Ebenen geforscht. Ganz praktisch beziehen sich viele dieser Untersuchungen auf das Verstehen des Zusammenhangs von Gehirnaktivitäten und psychischen Störungen (Neuro-Psychoanalyse). Rein technisch betrachtet, lassen sich hierfür drei
8.3 Neurowissenschaften – Der Mensch als Entscheider
467
Arten von Verbindungen mithilfe von Neuroimages untersuchen (Salone u. a. 2016: 2– 3): 1. anatomische Verbindungen 2. funktionale Verbindungen 3. effektive Verbindungen Unter (1) werden anatomische Muster von Verbindungen verstanden, die zwischen Neuronengruppen/Hirnregionen zu beobachten sind. (2) beziehen sich auf statistische Korrelationen zwischen verschiedenen aktivierten Hirnregionen. (3) schließlich untersuchen kausale Interaktionen zwischen spezifischen Neuronengruppen/Hirnregionen. Als Ergebnis werden die rein reduktionistischen und kognitiv orientierten, neurowissenschaftlichen Ansätze als überholt betrachtet (ebd.), wie bereits bei Eagleman geschehen. So dominieren beispielsweise Gene und neuronale Strukturen nicht ausschließlich unser Verhalten. Letztlich führten die Forschungen zu einem erweiterten Verständnis, dass Synapsen und Gene durch veränderte Umweltrelationen (Gespräche, Achtsamkeitsübungen, spezielles Training, Therapie etc.) modifiziert werden können. Zu beobachten waren auch Veränderungen innerhalb der Interaktion zwischen größeren neuronalen Netzen. Veränderungen, die intersubjektiv sowohl emotional als auch im Verhalten nachvollzogen werden konnten (ebd.). Diese Untersuchungen liegen voll auf der Linie neuester Erkenntnisse, bei der Umwelt-, soziale und kulturelle Einflüsse hauptverantwortlich für die Entwicklung des Gehirns scheinen (González-Forero und Gardner 2018). Einflüsse, die nicht auf einen reinen Zufall abzielen, sondern in Wechselwirkung mit dem Kontext stehen, wie es sich bereits bei der Modifikation der DNA gezeigt hat. In eine vergleichbare Richtung zielt die aktuell sehr populäre Forschung zur Epigenetik. Diese Forschung zeigt, dass Umfeldbedingungen Gene an- und abstellen, Verhaltensreaktionen und Fähigkeiten beeinflussen und auch über Generationen weitergegeben werden können (Reumschüssel 2018; Meaney und Hellhammer 2005; Bastian u. a. 2004). Es handelt sich um Umfeldbedingungen, wie Ernährungssituation, Trauma- oder Beziehungserlebnisse, die nicht zwingend zu DNA-Veränderungen führen und dennoch wirksam werden (Yehuda u. a. 2014). Mentale Arbeit beeinflusst nach der Epigenetik nachweislich die biochemischen Prozesse im Körper. Wie der Prozess auf biochemischer Ebene vonstatten geht, ist mittlerweile gut nachvollziehbar, nicht aber wie die Information selbst als Auslöser fungiert. Dass die bisherigen konventionellen Ansätze nicht ausreichen, wird nicht nur bei Eagleman sichtbar und ist bereits länger bekannt. „Despite the large structural diversity of existing artificial neural networks (ANN), the limited functionality of the neurons and connections between them has constrained the scope of applications of ANN and their efficiency when modelling large scale, noisy, dynamic and stochastic processes such as ecological, environmental, physical, biological, cognitive, and others“ (Kasabov 2010: 16). Antworten versucht man mithilfe von deterministischen ‚spiking neural networks’
468
8 Modellentwicklung von der Mikro- zur Makrowelt
(SNN)207 oder mit ‚probabilistic spiking neuron model’ (pSNM) zu geben (ebd.). Letztlich handelt es sich hier um Coding-Hypothesen, die in unterschiedliche Klassen differenziert und erforscht werden208. Aktuelle Forschungen scheinen auf eine gleichzeitige Relevanz mehrerer dieser Codes hinzudeuten (Yan u. a. 2016). Die zugrundeliegenden Überlegungen gehen noch von einer rein energetischen Komponente bzw. einer Variabilität von Signalen aus, an die Information gebunden sind und die durch Gene, Proteine, physikalische Eigenschaften etc. beeinflusst werden. Als Übermittler zwischen den Synapsen bleiben aber auch hier die Neurotransmitter und stochastische Prozesse verantwortlich (Kasabov 2010). Mithilfe von Spiking-Ansätzen wird letztlich versucht Muster zu erkennen, vergleichbar dem Morsen oder der Shannon-Entropie und diese für die Informationsübertragung verantwortlich zu machen. Viele Arbeiten zur Entwicklung neuronaler Spiking-Lösungen konzentrieren sich dabei auf das Sehen (Kheradpisheh u. a. 2018; Yan u. a. 2016; Greschner u. a. 2006; Thorpe u. a. 2001) und die Entscheidungsfindung (Beyeler u. a. 2013). Dass es zwischen den Neuronenaktivitäten und den gemessenen EM-Feldern im Gehirn Raum-Zeitstrukturen geben muss, die einen Zusammenhang zwischen Gehirnaktivitäten und Verhalten repräsentieren, lässt sich aus der Synergetik 209 ableiten (Haken 2016: 33). Dies bedeutet jedoch nicht zwingend, dass diese gefundenen Muster tatsächlich verantwortlich für die sich zeigenden Informationen sind, genauso wenig wie die ‚Raumsprache’ in der SyA als Träger der wahrgenommenen Information zu interpretieren ist. Dies wird in einer Aussage von Ebeling und Scharnhorst zur Modellierung sozialwissenschaftlicher Modelle mithilfe der Synergetik deutlich: „Bei der Modellbildung steht in der Regel der erkenntnistheoretische Gewinn eines spezifischen Modells im Vordergrund, nicht aber die Beschreibung des erkenntnistheoretischen Rahmens, auf dem eben diese Art von Modellbildung beruht“ (Ebeling und Scharnhorst 2015: 419). Letztlich basieren die Coding-Hypothesen und die Untersuchung der Spikes/Aktionspotentiale wohl auf dem Modell der Synergetik, die neuronale Potentiallandschaften als Ordnungssysteme nutzt und damit die Brücke zur Wahrnehmung und zur Physiologie respektive zur Psychologie zu schlagen sucht (Haken u. a. 2016: 41–45). Ein anderes Merkmal, das die Reaktionsweise unseres Gehirns veranschaulicht und Unklarheiten über den dahinter liegenden Prozess aufwirft, ist die sogenannte ‚Wahrheits207
208
209
Spiking neural networks (SNN) zu dt.: gepulste neuronale Netze. Spikes steht synonym auch für Aktionspotential. Dieser Ansatz basiert auf der Informationstheorie und versucht, vergleichbar zu Shannon, Informationen durch Pulse zu codieren und zu decodieren. Die Aktionspotentiale in neuronalen und synaptischen Gegebenheiten werden als Codes betrachtet, die über Intensität oder zeitliche Ausdrucksform Informationen speichern und im neuronalen Netzwerk weiterleiten. Z. B. Ratencode – Intensität eines Reizes korrespondiert mit der Höhe des Spikes (des Aktionspotentials und seiner Frequenz). Der genaue Zeitpunkt des Spikes ist unwichtig. Zeit- oder Latenzcode – Hier sind die genauen Zeiten der Spikes wichtig; wann der Stimulus beginnt und der Spike auftritt. Rang- oder Populationscode – Hier bekommen die Zellpopulationen eine Reihenfolge, je nachdem wann sie feuern. Auf die Synergetik wird in Kap. 9.1 noch näher eingegangen.
8.3 Neurowissenschaften – Der Mensch als Entscheider
469
illusion’. Die von Hasher und Goldstein durchgeführten Untersuchungen (Hasher u. a. 1977) zeigen sehr deutlich, wie unser Gehirn auf Aussagen reagiert, die es schon einmal gehört hat. Es ordnet ihnen beim zweiten Mal sofort eine höhere Glaubwürdigkeit zu, als einer Information, die es noch nie gehört hat, unabhängig davon, ob sie stimmt oder nicht, analog der Bayes’schen Wahrscheinlichkeit. 8.3.1.3 Conclusio aus dem aktuellen Verständnis zu unserem Gehirn Auch aus dem klassischen Aufbau unseres Gehirns lässt sich mittlerweile das Gehirn im weitesten Sinn als informationsverarbeitendes System verstehen, das nicht lineare, sondern parallele, hoch komplexe Prozesse über alle Areale am Laufen hat (Tang und Dai 2014b). Probleme wirft in diesen Modellen die Frage nach dem tatsächlichen Kommunikations- bzw. Verarbeitungsprozess zwischen den Neuronen auf, da die klassischen Erklärungen keine brauchbare Antwort auf die tatsächlich beobachtbaren Reaktionsprozesse geben können. Dafür sind die gemessenen elektronischen und biochemischen Prozesse zu langsam. Aufgrund der extrem hohen, faktisch instantanen Geschwindigkeit, in der die Neuronen parallel aktiv sind, wird der Ansatz einer chemisch getragenen Informationsübertragung auch innerhalb der klassischen Forschung als immer unwahrscheinlicher angesehen. Eine chemisch getragene Aktivierungsweitergabe von Neuron zu Neuron hätte eine zeitlich definierte Ausbreitungsgeschwindigkeit und aufgrund des Umfeldes zumindest minimale Phasenverschiebungen der Frequenzen zur Folge. Ein Neuron beginnt und stößt die Schwingung des nächsten Neurons an. Da die Gehirnareale sehr autonom vorliegen und keine direkten Verbindungen aufweisen, in fast allen Fällen beide Gehirnhälften betroffen und nur über einen dicken Nervenbalken (Corpus Callosum) verbunden sind, müssen weite Wege zurückgelegt werden. Technisch müssten sich für unterschiedlich weit entfernte Gehirnareale deshalb solche Phasenverschiebungen messen lassen, was aber nicht zutrifft. Interessant ist auch der Tatbestand des nicht bekannten Mechanismus zur Entstehung der EEG-Wellen. Gleichwohl hält die Forschenden aus Neurowissenschaften und Medizin dies nicht davon ab, die EEG-Methode zur Diagnostik zu verwenden. Eine vergleichbare Aufgeschlossenheit gegenüber alternativen Methoden, deren Mechanismen ebenfalls oft unbekannt sind, fehlt dagegen häufig. An dieser Stelle soll auch deutlich das aktuelle Verständnis der Neurowissenschaften herausgestellt werden, dass Wahrnehmung „durch einen aktiven Abgleich zwischen eingehenden Sinnesdaten und inneren Erwartungen zustande“ (Eagleman 2012: 63) kommt. Womit wir zum einen bei den Ansätzen des Konstruktivismus und zum anderen bei der Intention des Beobachters in quantenphysikalischen Experimenten wären. In beiden Fällen gibt es keine Objektivität mehr, sondern nur noch Subjektivität und maximal eine Intersubjektivität. In den Erklärungen von Eagleman (ebd. 13), dass kleine Gruppen von Neuronen ständig damit beschäftigt sind Entscheidungen zu treffen und diese an andere Gruppen weiterzuleiten, finden sich genau die Beobachtungen wieder, die bereits in Kap. 8.2
470
8 Modellentwicklung von der Mikro- zur Makrowelt
(qualitativer Entscheidungsprozess in Algen), bei den Lichtsammelkomplexen gemacht wurden. Der grundsätzliche Prozess zur Entscheidungsfindung scheint sich nicht geändert zu haben. Einzig die Größe und Komplexität der betroffenen (Molekül- bzw. Neuron-)Gruppen scheint mit der Komplexität der Systeme zuzunehmen. Eine weitere homologe Verbindung lässt sich zu Schrödinger’s Katze und der Superposition von Möglichkeiten herstellen. Wie beschrieben, laufen viele Parallelabgleiche und damit -rechnungen gleichzeitig und Umwelt, Situation und mein momentanes Befinden oder der Zufall entscheiden darüber, welche Möglichkeit sich am Ende zeigt. Mit dem Beispiel zur Huntington-Krankheit und der dabei auftretenden Mutation eines einzigen Gens kann auch ein Link zur schnellen Mutationsmöglichkeit der DNA gelegt werden, wie sie im Kap. 8.2 ‚Biologische Systeme’ behandelt wurde. Erstaunlich wäre, wenn die Prozesse zur Mutation in der DNA und die Prozesse in den Neuronen unterschiedlich funktionieren würden. Das Beispiel der Schizophrenie beschreibt exakt einen Zusammenhang, der sich bei Familienaufstellungen immer wieder findet oder der zumindest durch die Repräsentanten und die Fallbringer immer wieder konstruiert wird. Klienten mit Migrationshintergrund (meist eher die zweite und dritte Generation) weisen zahlreiche körperliche und psychische Probleme auf, zu denen auch Lernschwierigkeiten gehören. Nach Herstellen einer inneren Verbindung mit der Herkunftskultur lösen sich die Symptome auf und die Menschen kommen in die Lage, sich in beiden Kulturen adäquat zu bewegen. Betrachtet man die Symptome, so gehören Ich-Störungen, das Hören von Stimmen genauso dazu wie das Wahrnehmen von Gefühlen, Handlungen oder Impulsen, die als fremdverursacht empfunden werden. Es entsteht der Eindruck als wäre da noch jemand anderes. Ein Phänomen, das exakt auf die repräsentative Wahrnehmung bei SyA passt und das wir auch bei großen Organtransplantationen wiederfinden . . 2 5 . Die neueren Forschungen von Salone u. a., bei denen Gene, Synapsen und ganze neuronale Netzwerke nach unterschiedlichen Interventionen modifiziert wurden, lassen zudem eine tatsächliche Veränderung (im Sinne eines mentalen Heilungsprozesses) nach SyA als plausibel erscheinen. So modern der Ansatz von Eagleman für Neurowissenschaftler erscheint, so bleibt er mit dem immer wieder verwendeten Verweis auf die Stammbaumabhängigkeit unserer Gene und den unendlich langen Anpassungszeiträumen doch im Bereich der klassischen Erklärungsansätze. Dagegen sind seine Überlegungen zu einer möglichen „Kommunikation zwischen dem menschlichen Geist und der Materie des Universums“ (ebd. 258) sehr aktuell. Diese Überlegungen werden durch die technischen Aufstellungen sichtbar und beantwortbar. Ob die Zombie-Programme tatsächlich unseren freien Willen beschränken oder gar völlig eliminieren und damit die Frage, ob wir einen oder keinen freien Willen haben, oder ob wir hier eine andere Interpretation benötigen, wird ebenfalls zu untersuchen sein. Letztlich dreht sich alles um eine Antwort auf die Frage: Was läuft da im Hintergrund? Es geht um eine Antwort, die das letzte Puzzleteil zur Erklärung von SyA und Intuition an die Oberfläche heben soll.
8.3 Neurowissenschaften – Der Mensch als Entscheider
471
Die Spiking-/Coding-Hypothesen sind ebenfalls nicht in der Lage fundierte Antworten zu liefern, da mit ihnen die hohe Geschwindigkeit neuronaler Prozesse nicht beantwortet werden kann. Auch wenn rechnergestützte Simulationen gute Korrelationen zu beobachtbaren Phänomenen liefern, bleiben es virtuelle, mathematische Korrelationen. Als tatsächlicher Mechanismus scheiden sie aufgrund der langsamen, synaptischen, neurotransmitter-getragenen Informationsübertragung aus. Schließlich bekommt mit dem Beispiel zur ‚Wahrheitsillusion’ der ‚Bayessche Wahrscheinlichkeitsbegriff’ eine neurowissenschaftlich unterlegte Nachvollziehbarkeit. Da sich unser Gehirn nicht an objektiven Tatsachen orientiert, sondern nur an sinnstiftenden Zusammenhängen, hängt der Grad der Überzeugung von der Kohärenzfähigkeit mit bereits eingelagerten Informationen ab und ist deshalb so schwer veränderbar210. Mit dem bisher vorgestellten Verständnis über die Arbeitsweise unseres Nervensystems und unseres Gehirns liefern die folgenden, experimentellen Ergebnisse anschauliche Bestätigung, aber auch schwierig zu erklärende Zusammenhänge. Denn das bisherige Wissen und die aktuellen Modelle befassen sich schwerpunktmäßig mit den Prozessen innerhalb eines lebenden Systems und dessen lokaler Ankopplung über Sinnesorgane. Damit werden die folgenden Beispiele zum Teil zu echten Herausforderungen. 8.3.2
Experimentelle Zugänge und Auswertungsmethoden
Wie schon bei den Versuchen zur Entscheidungstheorie und Intuitionsforschung vorgestellt, werden EEG und fMRT211 zu Messungen von Gehirnaktivitäten herangezogen. Im Folgenden sollen damit verbundene Experimente und Zusammenhänge näher betrachtet werden, um Antworten für den Arbeitsprozess unseres Gehirns zu erkunden. 8.3.2.1 Gehirnwellen und mit ihnen assoziierte Zustände Als allgemeines Wissen darf der Umstand angesehen werden, dass den verschiedenen Gehirnbereichen unterschiedliche Sinnesorgane und Funktionen zuzuordnen sind, die wiederum von hochspezialisierten Neuronen aufgebaut werden. Nehmen wir etwas wahr, feuern unsere Neuronen an den verschiedensten Stellen gleichzeitig. Wie diese scheinbar unabhängigen Gehirnbereiche zusammenwirken, ist noch Teil einer intensiven Forschung. Zu dieser Forschung gehört u. a. die Untersuchung der Gehirnaktivitäten mittels EEG.
210
211
Aus diesem Grund sind Populisten, wie wir sie gerade zuhauf erleben (Brexit, US-Wahlkampf, ISParolen), mit ihren Lügen ausgesprochen gefährlich. Es geht nicht darum, ob die Lüge eine Lüge ist, sondern ob sie zum Weltbild und damit zum Referenzmuster der Zielgruppe passt. Fakten als Gegengewicht sind deshalb nicht ausreichend. Es muss gelingen, die Gegenargumentation ebenfalls an einer Vorüberzeugung der Zielgruppe anzukoppeln und das Referenzmuster emotional aufzuladen. Idealerweise wird ergänzend eine bessere Antwort in Bezug auf die in der Motivationsforschung gefundenen Treiber, ‚weg von’ oder ‚hin zu’, gefunden. Funktionale Magnetresonanztomographie (fMRT) ermöglicht physiologische Funktionen, z. B. aktivierte Hirnareale im Körper, mit hoher räumlicher Auflösung, bildhaft darzustellen.
472
8 Modellentwicklung von der Mikro- zur Makrowelt
Solange wir leben ist das Gehirn ununterbrochen aktiv und produziert, je nach körperlichem und geistigem Zustand, unterschiedliche Frequenzen. Die mittels EEG gemessenen Werte lassen sich in verschiedene Kategorien aufteilen, denen spezifische Bewusstseinszustände zuordenbar sind. Traditionell werden der Alpha-, Beta-, Theta- und Delta-Zustand unterschieden (Schandry 2011: 517–530). Seit Kürzerem wurde aber auch erkannt, dass zwei weitere Frequenzbereiche, Gamma (Sweeney-Reed u. a. 2015, 2016; Ribary 2005) und Slow Cortical Potentials (SCP) (Schmidt u. a. 2016), ebenfalls eine erhebliche Rolle zu spielen scheinen und für unsere Überlegungen wichtig werden. In der Literatur findet sich ein gewisser Spielraum für die Werte der Wellenbänder und Zuschreibungen, je nachdem welche empirische und theoretische Wissenschaft die Klassifizierung vornimmt. Abhängig vom Ansatz werden unterschiedliche Merkmale unterschieden: 1. Objektiv messbare Körperzustände wie die Frequenzen und ihre Verteilung über das Gehirn, ihre Durchmischungen und Intensitäten sowie der damit verbundene Bewusstseinszustand von aktivem Wachzustand bis Koma. 2. Subjektive Wahrnehmungen im Erleben, wie sinnliche Reize oder innere mentale Bilder und Gedanken. Abb. 84 bietet eine Übersicht der Bewusstseinszustände während Ruhe- und Aufmerksamkeitsphasen.
Abb. 84 | Gehirnwellen mit ihren zugeordneten Bewusstseinszuständen (eigene Darstellung). Die senkrechte Skala gibt die Frequenzbänder in Hz an, die an unserem Gehirn gemessen werden können. Links davon sind die den jeweiligen Frequenzbereichen zugeordneten Namen platziert und rechts davon die Seinszustände und Funktionen, die man den jeweiligen Bereichen heute zuordnet.
8.3 Neurowissenschaften – Der Mensch als Entscheider
473
Im Folgenden eine kurze Charakterisierung der Frequenzbänder (vgl. Schandry 2011: 517–530; vgl. Birbaumer und Schmidt 2010: 495–534) in Bezug auf intersubjektive Körperzustände: SCP212 (Slow Cortical Potentials) (0,01 – 0,5/1 Hz) Grundschwingung im Hintergrund, die relevant für übergreifende Aktivitäten im Gehirn und die Gesundheit scheint (Rusov u. a. 2012). Delta-Wellen (0,5/1 – 3 Hz) Typisch für Säuglinge im Wachzustand und bei Erwachsenen für die traumlose Tiefschlafphase. In Verbindung mit den anderen Hirnwellen stehen sie für intuitive Aufmerksamkeit und der Fähigkeit sich in andere Menschen einzufühlen. In therapeutischen Kontexten können sie beim Nacherleben der eigenen Geburt sichtbar werden. Sie werden auch mit dem sechsten Sinn und der Verbindung zum kollektiven Unbewussten in Zusammenhang gebracht. Theta-Wellen (3 – 7 Hz) Typisch für Kleinkinder im Wachzustand. Bei Erwachsenen signifikant für Schläfrigkeit und in leichten Schlaf- und Traum-(REM-)phasen. Sie sind typisch für tiefe Meditationen oder Gipfelerfahrungen und bei starken Gefühlen. Sie sind kennzeichnend für unbewusste Aktivitäten. Die Theta-Aktivität steigt während einer Therapie und dem Auftauchen verdrängter Gefühle oder unbewusster Erinnerungen, aber auch bei Störungen oder wenn Gefahr in Verzug ist. Alpha-Wellen (7 – 14 Hz) Verstärkt Alpha-Wellen werden bei entspanntem, wachem Zustand, insbesondere bei geschlossenen Augen beobachtet. Bereits durch Öffnen und Schließen der Augen lassen sich Verschiebungen Richtung Alpha- respektive Beta-Zustand herbeiführen. Zur Erinnerung von unbewussten Erfahrungen, die während des Thetazustandes auftauchen, ist ihre gleichzeitige Anwesenheit zwingend notwendig. Die gleichzeitige Anwesenheit geht oft einher mit Einsicht und Kreativität. Beta-Wellen (14 – 30 Hz) Normale Variante im Wachzustand. Aktive und nach außen gerichtete Aufmerksamkeit. Entstehen auch bei körperlichen Aktivitäten. In den oberen Bereichen weisen sie auf mentale Anspannung (z. B. bei Kritik), Angst, Stress oder totale Begeisterung hin. Gamma-Wellen (30 – 80/80 – 200 Hz) Signifikant für starke Fokussierung und Konzentration, hoher Informationsfluss, Spitzenleistungen, Lernprozesse oder bei der Meditation sowie transzendente Erfahrungen. Mit zunehmender Meditationsübung nimmt die Amplitude signifikant zu.
212
Bei Slow Cortical Potentials (SCP), 0,01 bis 1 Hz, handelt es sich um langsam veränderliche, kortikale (die Hirnrinde betreffende) Potentialschwankungen im Zeitraum von einer bis wenigen Sekunden, weshalb sie in einem normalen EEG nicht sichtbar sind. Zur Identifikation benötigt es deshalb spezielle Filter.
474
8 Modellentwicklung von der Mikro- zur Makrowelt
Den SCP wird bisher kein eigener Bewusstseinszustand zugeschrieben. SCP ist ein ständiger Hintergrundprozess der in Verbindung mit den Bereitschaftspotentialen 213 (BP) und der Über- bzw. Unterschreitung bestimmter Schwellenwerte gebracht wird. Gleichwohl gehen Wahrnehmungen von Sinneseindrücken als auch aktive Denkprozesse mit verstärkten SCP-Aktivitäten einher. Näheres hierzu folgt in Kap. 8.3.3.1. Interessant für unsere Überlegungen erscheint der von einem kleinen Teil der Forschung untersuchte Zusammenhang des SCP/Delta-Spektrums zu Wechselwirkungen mit der Ionosphäre214 und ihre Wirkung auf den Menschen (Rusov u. a. 2012). Auslöser waren eindeutige Korrelationen zwischen geomagnetischen Pulsationen, Solarzyklen und Erkrankungen des Gehirns. Mit Ausnahme des Beta-Zustandes, bei dem es zu einem eher nach außen gerichteten Aufmerksamkeitspotential kommt, sind alle anderen Bewusstseinszustände an sogenannten ‚paranormalen’ Phänomenen beteiligt. Viele große Entdeckungen und Erfindungen gehen einher mit Eingebungen, die im Halbschlaf- oder Traumzustand erfahren wurden, bei denen Alpha- und Theta-Wellen dominieren. Als Beispiele seien nur die Erfindung einer wichtigen technischen Detaillösung bei der Entwicklung der Nähmaschine durch Elias Howe und die Entdeckung des Benzolrings durch August Kekulé genannt. Howe sah sich im Traum von Wilden mit Speeren umgeben, die in ihrer Spitze ein Loch hatten. Kekulé bekam die ringförmige Anordnung der Kohlenstoffatome bei Träumereien im Bus (Deutsche chemische Gesellschaft 1890: 1306). Aufgrund der Ausdehnung und einer damit verbundenen großflächigen Synchronisierung der Hirnareale bei Alpha- und Theta-Aktivitäten, lässt sich eine Kohärenz der Wellen und damit die Möglichkeit eines übergreifenden Informationsaustausches annehmen. Einen weiteren, für die Forschung interessanten Aspekt liefern die bei Alpha- und Theta-Wellen immer wieder auftretenden Korrelationen zwischen mentalen und Körperwahrnehmungen einerseits und weit entfernten Phänomenen andererseits sowie bewusstseinserweiternden Techniken (Silva und Miele 2004; Silva und Stone 2002). Als Folge stellen sich einige Forscher die Frage nach einem möglichen Zusammenhang mit den Schuhmann-Resonanzen215 bei 7,83 Hz, 14,1 Hz und 20,3 Hz (Hinterberger u. a. 2015: 229,240-241). Auffallenderweise liegen diese genau in der Größenordnung von Theta- und Alpha-Wellen, die bei außersinnlichen Wahrnehmungen, wie sie auch Intui213
214
215
Als Bereitschaftspotential wird ein messbares elektrisches Signal (z. B. mit einem EEG) bezeichnet, das kurz vor einer willkürlichen Bewegung in einem speziellen Bereich des Motorcortex, dem supplementärmotorischen Cortex, auftritt. Entdeckt wurde es 1964 von H. Kornhuber und L. Deecke. Genauso wie die SCP und der untere Bereich der Delta-Wellen im Hintergrund aktiv sind, so sind um die Erde herum im Bereich der Ionosphäre (100 – 1.000 km) Frequenzen in genau der gleichen Größenordnung aktiv. Man nimmt an, dass diese über geomagnetische Feldlinien mit den erdnahen Zonen in Kontakt kommen und Wirkung entfalten. Bei den Schuhmann-Resonanzen handelt es sich um stehende Wellen entlang des Umfangs der Erde. Bei exakt diesen Frequenzen werden die EMW an den Begrenzungen, Erdboden und Ionosphäre (0 – 100 km), reflektiert. Die Begrenzungen agieren wie ein Hohlraumresonator, der schließlich als Wellenleiter wirkt. Bei einer Frequenz von 7,83 Hz legt das Licht eine Strecke von ca. 38.000 km zurück, was annähernd dem Erdumfang von ca. 40.000 km entspricht. Damit würde sich eine EMgetragene Informationsübertragung und weitreichende Synchronisierung erklären lassen.
8.3 Neurowissenschaften – Der Mensch als Entscheider
475
tion und SyA repräsentieren, ermittelt werden. Anschlussfähig zu diesen Überlegungen sind die im Kap. 8.2.1 beobachteten Interaktionen zwischen EMF mit der DNA über sehr weite Frequenzbereiche von 3 - 30 Hz und den damit vermuteten DNA-Defekten und Mutationen (Blank und Goodman 2011). Im Gegensatz zu den Gamma-Wellen und den SCP, waren die mit den vier anderen Frequenzbereichen einhergehenden Bewusstseinszustände schon lange bekannt. Welche Funktion den erst in jüngerer Zeit entdeckten Gamma-Wellen zuzuordnen ist, wird erst langsam verständlich (Ribary 2005). Bei Untersuchungen von buddhistischen Mönchen (Lutz u. a. 2004) waren diese im Vergleich zu einer Kontrollgruppe in der Lage, 30 mal höhere Gamma-Aktivität zu generieren und das über den gesamten Kopfbereich über lange Zeit. Gamma-Wellen sind nach neueren Forschungen (Mazaheri und Diepen 2015; Siegel u. a. 2012) für die Synchronisierung weiter Hirnareale und zur Integration unterschiedlicher Stimuli zuständig. Nach heutiger Interpretation ordnen die Forscher ihnen keinen eigenen Bewusstseinszustand zu, sondern eher eine übergeordnete Steuerungsfunktion. Wird eine Information von unserem Gehirn als bedeutsam erachtet, findet mithilfe der Gamma-Wellen eine großflächig übergreifende Synchronisation des Gehirns statt, so die Vermutung. (Allerdings wird ähnliches auch für das SCP angenommen.) Als Ergebnis werden sie für das ‚Binding‘ verantwortlich gemacht. Darunter versteht man die Bindung verschiedener Informationen, die zu einer Wahrnehmung gehören, wie z. B. Farbe, Form, Klang, Gewicht etc. an Zeitpunkt und Ort. Forscher gehen davon aus, dass unser Gehirn auf diese Weise unserer bewussten Wahrnehmung komplex zusammengesetzte Bilder zur Verfügung stellt. So werden sie einerseits als Taktgeber gesehen, um aus den verschiedensten Signalen die relevanten herauszufiltern und zum anderen eben das Verbinden weit auseinander liegender Gehirnareale. Ansätze aus Experimenten und Computermodelle weisen auf solche Zusammenhänge hin. Da Gamma-Wellen immer parallel zu den anderen Frequenzbändern vorliegen, schließen die Forscher auf eine Codierung der Informationen in diesem Frequenzband und somit auf die Möglichkeit, auch über weite Entfernungen hinweg, Informationen miteinander in Verbindung bringen zu können. Die Forschung ist dazu jedoch noch nicht abgeschlossen. Unterschiedliche Ergebnisse (Ray und Maunsell 2015), die mittlerweile auch auf ein zweites Gammaband (80 – 200 Hz) ausgedehnt wurden, fordern noch weitere Klärung. Als Quintessenz lässt sich aktuell dennoch festhalten: ein Teil der Forscher geht, als Voraussetzung für eine neuronale Kommunikation, von auf Frequenzbändern basierenden Synchronisationen aus. Welches Frequenzband tatsächlich relevant wird, ist abhängig vom Stimulus. Denn neuere Forschungen von Sweeney-Reed u. a. zeigen auch eindeutige Abhängigkeiten zwischen Theta- und Gamma-Frequenzen, deren Kopplung und unserer Erinnerungsfähigkeit (Sweeney-Reed u. a. 2016, 2015). Interpretation der ausgewerteten Forschungen Mit den beschriebenen Synchronisierungen liegt der gleiche Mechanismus vor, der bereits für andere bio-physikalische Prozesse erkannt wurde. Die betroffenen Nerven-zellen schwingen in Frequenzbändern, die identisch sind mit denen ihrer Nachbarn und
476
8 Modellentwicklung von der Mikro- zur Makrowelt
interagieren sogar mit anderen Frequenzbändern und das ausgedehnt über das Gesamthirn. Damit liegt physikalisch gesehen wieder eine Kohärenz vor, mit all den damit verbundenen Möglichkeiten des Informationsaustausches. Mit den Korrelationen zwischen Alpha-/Theta-Wellen und den Schuhmann-Resonanzen respektive dem SCP-/Delta-Wellenspektrum mit den Frequenzen der Ionosphäre und entsprechend einhergehenden psycho-physischen Phänomenen lässt sich ein Modell der Informationsübertragung auf der Basis von EM-Wellen denken. Dies sogar für weltumspannende, nicht technikgebundene Kopplung von Entitäten. Allein die Phänomene in EM-abgeschirmten Kontexten lassen sich hiermit noch nicht erklären. 8.3.2.2 Die Rolle von EEG und Fourier-Transformation Das EEG liefert noch ein weiteres interessantes Charakteristikum. Typische EEG-Signale werden üblicherweise in Form von Abb. 85 dargestellt. Für jeden Messpunkt am Kopf erscheint eine gezackte Linie.
Abb. 85 | Ein klassisches EEG-Diagramm abgeleitet von verschiedenen Messpunkten am Kopf. (AdobeStock 204919136)
Was in der Regel nur den Fachleuten bekannt ist, ist die Tatsache, dass sich in einer solchen EEG-Darstellung alle Phasen (Delta, Theta, Alpha, Beta und Gamma) gleichzeitig wiederfinden, nur mit unterschiedlicher Intensität und auch weitestgehend gleichverteilt auf rechter und linker Gehirnhälfte. Diese Sinfonie der gleichzeitigen Wellen erscheint bei der EEG-Messung als eine einzige Kurve. Es darf deshalb von einer Superposition verschiedener Wellen ausgegangen werden, die je nach Zustand und Situation auch regional unterschiedlich sein können. Ein Verständnis, das auf Hameroff und Penrose zurückgeht (Hameroff und Penrose 2014a). Ihr Modell führt die EEG-Frequenzen nicht nur auf die Neuronen zurück, sondern sogar auf superschnelle Frequenzen der Mikrotubuli, die die Neuronen mit aufbauen. Zweifelsohne handelt es sich dabei um keine typische quantenmechanische Superposition, bei der sich Wahrscheinlichkeitswellen überlagern, wohl aber um eine Interferenz
8.3 Neurowissenschaften – Der Mensch als Entscheider
477
im Sinne einer ‚klassischen Verschränkung’ (siehe Kap. 8.1.2 ‚Verschränkung und Dekohärenz’). Als Folge lassen sich deshalb codierte Informationsübertragungen annehmen. Ausgangspunkt für diese Idee sind EEG-Diagramme, deren Messung und Auswertung auf den ersten Blick eine einfache Sache scheint. Tatsächlich zeigen sich in der Praxis bei der Messung alle möglichen Störsignale und Artefakte. Die Interpretation der Diagramme ist alleine schon wegen der Superposition keine so einfache Angelegenheit. Die Auswerter leiten ihre Zuordnung deshalb über den mehr oder weniger gut sichtbaren Mittelwert ab. Alternativ lassen sich solche Überlagerungskurven auch mithilfe eines mathematischen Verfahrens in ihre Spektralbereiche unterteilen, der Fourier-Transformation216 bzw. genauer der Fast-Fourier-Transformation (FFT)217. Mit dieser Methodik wird auch deutlich, dass sich jede Wellenform aus einzelnen Sinusschwingungen zusammensetzt, die unterschiedliche Beiträge zum Gesamtspektrum leisten. Ein von Haffelder weiterentwickeltes Verfahren (Haffelder 2012) ermöglicht es, die Veränderung der einzelnen Spektrallinien über die Zeit kontinuierlich zu erfassen (Abb. 86). Aus der Darstellung lassen sich Brüche, Asymmetrien oder sonstige Besonderheiten ableiten, die in Beziehung zu diversen gesundheitlichen und kognitiven Problemen gebracht werden können. Unterbrechungen in den Frequenzen deuten demnach auf Informationsverluste auf neuronaler Ebene hin. Im Umkehrschluss weist dies wieder auf eine frequenzgetragene Verbindung zwischen den Gehirnregionen und Neuronen hin. Leider hat er nur sehr wenige Veröffentlichungen zu seiner Arbeit, sodass seine Methode und sein Ansatz unkommentiert bleiben müssen. Bekannt ist mir aus eigenem Kontakt seine therapeutische Arbeit u. a. im Bereich von Lernschwierigkeiten von Kindern oder mit gehirngeschädigten Patienten. Mithilfe von speziell angepassten klassischen Musikstücken werden erkannte Störungen in den jeweiligen Frequenzbändern überspielt oder besser überlagert und so die Funktionen des Gehirns verbessert bzw. wiederhergestellt. Mit dieser Methode wurden SyA und Korrelationen zwischen den Repräsentanten untersucht (persönliche Information). Auch hier sind die Ergebnisse der Wirksamkeitsstudie nicht veröffentlicht und können nicht als wissenschaftlich fundierter Beweis herangezogen werden.
216 217
Typische Anwendung sind MRT- und fMRT-Messungen. Gemessen wird die Veränderung der Spins der Wassermoleküle, die in Zellen eingelagert sind. Hinter der Fourier-Transformation steht die Erkenntnis, dass jede periodische Funktion f(x) – Pribram nennt sie deshalb Raum-Zeit-Muster – in ein Spektrum an Wellenformen umgewandelt werden kann. Darin sind die Amplituden, Frequenzen und die Beziehungen zwischen den Phasen codiert. Die Fast-Fourier-Transformation berechnet daraus die Korrelationen der unterschiedlichen Wellen zueinander.
478
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 86 | Ein nach der Methode von Haffelder erzeugtes Abbild der Gehirnaktivitäten Das Chronospectrogramm stellt eine ca. 11-minütige Messsequenz für die linke und rechte Gehirnhälfte dar, im Frequenzbereich zw. 1 – 31 Hz (Haffelder 2012).
Dass die vermittelten Ergebnisse dennoch aufgeführt werden, hat einen einfachen Grund. Jüngste Studien zeigen exakt die gleichen Ergebnisse (Dikker u. a. 2017). Die Gehirnströme von High-School-Schülern wurden über ein Semester lang, während des regulären Unterrichtes, gemessen. Signifikante Synchronisierungen zeigten sich bei gemeinsamen Beschäftigungen und bei übereinstimmender Sympathie. Die EEGs korrelierten auch wenn Wände dazwischen waren. Zusammen mit den im Folgenden aufgeführten Ergebnissen liefern sie einen weiteren starken Hinweis auf nicht-lokale Brainto-Brain Verschränkungen. EEG-Messungen bei SyA (Haffelder 2007): „In dem Moment, in dem der Stellvertreter in die Verkörperung geht, ändern sich seine Hirnstrombilder und gleichen sich an das Hirnstrombild der Person an, die er vertritt. Durch eine therapeutische Intervention oder durch ein Ritual der Verneigung änderte sich das Hirnstrombild wieder in Richtung größerer Ausgeglichenheit. Am Ende, wenn Lösungen möglich waren, zeigte sich, dass Blockaden, die vorher im Hirnstrombild sichtbar waren, sich aufgelöst hatten. Wenn der Stellvertreter aus der Verkörperung herausgenommen war, fiel er wieder in sein altes Wellenmuster zurück. Herausforderung: Gute Ableitungen zu bekommen, da sie sehr störanfällig sind z. B. für Bewegungsartefakte.“
8.3 Neurowissenschaften – Der Mensch als Entscheider
479
Zu vergleichbaren Ergebnissen kommen Studien von Stratford, die therapeutische Interaktionen zwischen Klient und Therapeut untersuchten und dabei eine sich aufbauende signifikante Kohärenz von EEG, Herzvariabilität und Hautleitwiderstand beobachten konnten (Stratford u. a. 2014, 2012, 2009). Eine aktuelle, systematische Auswertung vergleichbarer Experimente weist auf die grundsätzlich positiven Ergebnisse neuerer Untersuchungen hin, kritisiert jedoch den Mangel an theoretischen Hypothesen für deren Auftreten. Entsprechend werden die verschiedenen Auswertungsverfahren kritisiert (Kleinbub 2017). Ein Verhalten, wie es schon an früher Stelle bei Wagenmakers (2014) in Kap. 4.1.3 beobachtbar war. Interpretation der ausgewerteten Forschungen mit Bezug zur SyA Diese Ergebnisse sind zumindest gut nachvollziehbar. Ohne verändertes EEG gäbe es keine veränderten Wahrnehmungen. Ohne größere Ausgeglichenheit der Hirnströme wären vermutlich auch keine Entspannung und Harmonisierungen bei den Stellvertretern möglich, was ein typisches Phänomen für Wahrnehmung der Repräsentanten darstellt. Und auch Punkt 4, die Reorganisation des eigenen alten Wellenmusters, sollte zu erwarten sein, wenn keine fremden Gefühle mehr vorhanden sind. Auch lässt sich mit der Methode der FFT der Ansatz begründen, EEG-Wellen als Überlagerung von spezifischen neuronalen Aktivitäten zu sehen. 8.3.2.3 Brain-to-Brain Kommunikation via EEG und Internet Grau und Kollegen zeigten 2014, dass Informationen per Gehirnwellen von Mensch zu Mensch mittels EEG und Internet übertragen werden können (Grau u. a. 2014) (Abb. 87). Verwendet wurden Gehirn-Computer-Interfaces (BCI) und Computer-Gehirn-Interfaces (CBI). EEG-Messungen (BCI) ermöglichen das Messen aller elektrischen Aktivitäten des Gehirns an der Kopfoberfläche. Gemessen werden die Spannungsschwankungen, die durch die Aktivitäten der Neuronen ausgelöst werden.
Abb. 87 | Versuchsaufbau zum Test bewusster Brain-to-Brain-Kommunikation via EEG und TMS (Image entnommen Grau u. a. 2014). Im linken Bild verfolgt ein Beobachter in Indien einen weißen Punkt und einen weißen Balken auf dem Monitor. Seine Gehirnwellen werden per Internet nach Frankreich gesendet und von einem Empfänger mittels transkranieller Magnetsimulation aufgenommen. Sein Gehirn konnte die darin enthaltenen visuellen Reize interpretieren und so das Spiel in Indien mittels seines Cursors steuern.
480
8 Modellentwicklung von der Mikro- zur Makrowelt
TMS (transkranielle Magnetstimulation) wiederum stimuliert durch starke Magnetfelder bestimmte Gehirnregionen (CBI). Bei ihrem Experiment saß der Emittent in Indien und beobachtete einen sich bewegenden Punkt und einen weißen Balken auf einem Bildschirm. Seine Gehirnwellen wurden mittels EEG gemessen, in binäre Signale umgewandelt und an den Receiver (Standort Frankreich) übermittelt. Dort wurden sie wieder in EM-Wellen zurückgewandelt und von außen auf das Gehirn des Receivers übertragen. Der Receiver konnte jetzt den vom Emittenten beobachteten Lichtpunkt und Balken in seiner Vorstellung wahrnehmen und den Cursor, der den weißen Balken bewegt, korrekt steuern. Diese Steuerungssignale wurden direkt an den Computer in Indien gesendet. In dieser Versuchsanordnung wurde eine nicht invasive Methode genutzt, um eine B2B-Kommunikation zwischen Menschen herzustellen. Das Gehirn des Empfängers war offensichtlich in der Lage, die EM-Impulse richtig zu decodieren, allerdings erst nach einer gewissen Trainingszeit. Aufgrund der rechnerbasierten Modulation waren die eingespielten Signale beim Empfänger nicht mehr identisch gegenüber denen, die das Auge direkt empfangen würde. Die Gehirne und Neuronen der Versuchsteilnehmer zeigten sich nach einer gewissen Trainingszeit dennoch in der Lage, den Transfer herzustellen und beim Empfänger einen visuellen Impuls auszulösen. Damit ist der Nachweis für den weiter oben beschriebenen Sachverhalt erbracht, dass unser Gehirn letztlich EM-Wellen aufnimmt und decodiert. Genau wie beim Beispiel der operierten Blinden bedarf es eines ergänzenden Trainingsprogramms, um den Signalen Sinn zuordnen zu können. Die Verbindung von zwei Gehirnen mittels B2B-Interfaces, die gemeinsam Aufgaben lösten und das über tausende von Kilometern Entfernung, gelang erstmals bei Ratten (Yong 2013). Im gleichen Jahr gelang auch die erste nicht invasive B2B-Kommunkation zwischen Menschen (Rao u. a. 2014), bei der eine Versuchsperson eine andere zu einer gezielten Bewegung animieren konnte. Aus Sicht der Experimentatoren scheint die bewusste Bereitschaft der Versuchsteilnehmer, sich auf die mentale Kooperation („true brain-to-brain communication“) einzulassen, die wesentliche Voraussetzung für das Gelingen zu sein (Rao und Stocco 2014: 3). An gleicher Stelle weisen sie darauf hin, dass wenig darüber bekannt ist, wie Informationen und komplexe Ideen und Rechenvorgänge encodiert sind. Aktuell gelang B2B-Verbindung zwischen den Gehirnen von drei Personen, mit der sie erfolgreich das Computerspiel Tetris spielen konnten (Jiang u. a. 2018). Dass nicht nur die EM-Wellen unserer Gedanken über den Kopf hinaus abstrahlen, was durch die EEG-Messmethode veranschaulicht wird, sondern auch Biophotonen bei Visualisierungsübungen verstärkt vom Kopf abstrahlen, zeigen weitere Untersuchungen (Dotta u. a. 2012). Dotta konnte bei Visualisierungsübungen den Anstieg entsprechender ultraschwacher Photonen-Emissionen beobachten. Bei diesen Experimenten stellten sie auch Korrelation zwischen Anstieg der Photonenemission nach außen und interner Gehirnaktivitäten fest, was aus ihrer Sicht eine Beteiligung von Biophotonen bei Gehirnprozessen belegt, wie es einige Forscher vermuten und in Kap. 8.2.3 bereits vorgestellt wurde.
8.3 Neurowissenschaften – Der Mensch als Entscheider
481
Interpretation der ausgewerteten Forschungen Insofern kann folgende These formuliert werden: Wir können nicht sicher sein, was andere tatsächlich wahrnehmen. Die übereinstimmende Beschreibung eines Sachverhaltes resultiert deshalb weniger von der gleichen Wahrnehmung, als von gleicher oder ähnlicher Konditionierung. Das was mit ‚gelb’ bezeichnet wird, ist für alle ‚gelb’, die auf diese spezielle Farbe in Verbindung mit dem Namen ‚gelb’ geeicht wurden. Was aber als sicher angenommen werden darf, ist die Möglichkeit einer Kommunikation via Gehirnwellen und einer darin vollständig enthaltenen abstrakten Information. Entsprechendes gilt für EM-Wellen der Photonen, wie sie bei den Beispielen zur Flugabwehr, dem Chicken Sexing und bei empathischen Wahrnehmungen zwischen Menschen veranschaulicht wurden (Kap. 4.1.3). Dieses B2B-Beispiel untermauert das bereits in Kap. 8.1 herausgearbeitete Verständnis, dass in EM-Wellen komplexe Informationen gespeichert sind, die mit einem jeweils passenden Empfänger decodiert werden können. Gleichzeitig ist wie bei den Biophotonen (ultraschwache Photonenemission) (Kap. 8.2.1.3) davon auszugehen, dass die EM-Wellen unseres Gehirns nicht einfach am Kopf aufhören zu existieren, sondern sich entsprechend den normalen physikalischen Gesetzen im Raum ausbreiten. In Verbindung mit der Codierung klassischer Informationen nach Shannon (Kap. 4.2.2.2) respektive quantenphysikalischer Information von Neumann (Kap. 4.2.2.4) lässt sich die Möglichkeit einer Fehlinterpretation veranschaulichen. Gehen wir davon aus, dass einem Objekt zwei spezifische Bedeutungen 0 und 1 zugeschrieben werden und beide sowohl beim Sender als auch beim Empfänger entsprechend hinterlegt sind, so darf von einer nahezu 100 %-igen Wahrscheinlichkeit einer gelingenden Interpretation ausgegangen werden. Wenn wir jedoch davon ausgehen, dass wir zwei Bedeutungen haben, die in einem größeren Kontext mit weiteren Bedeutungsoptionen eingebunden sind, erhöht sich die Gefahr einer Fehlinterpretation. Der Kontext wird dabei durch verschiedene Zahlenfolgen repräsentiert. In unserem Fall werden die beiden Bedeutungen durch die Zahl an Position 6 unterschieden. Bedeutung Kontext A repräsentierende Zahlenfolge 0010110 Bedeutung Kontext B repräsentierende Zahlenfolge 0010100 Nun besteht die Gefahr einer Überlagerung zweier ähnlicher Zustände 00101(1|0)0 im Bewusstsein der Beteiligten mit der Gefahr einer Fehlinterpretation. Dieses Phänomen entspricht analog dem ‚Verlesen’ oder ‚Verrechnen’, wenn man Buchstaben- oder Zahlendreher produziert. Quantenphysikalisch lässt sich für die Zahlen an Position 6 eine Pauli-Matrize ��� ��� heranziehen, die den Überlagerungszustand auch mathematisch klar darstellt. Aus den beiden Werten 0 und 1 würden, vereinfacht dargestellt, vier Varianten mit 10, 00, 11, 01 und damit eine Vervielfältigung der Fehlinterpretationsmöglichkeiten. Ist beispielsweise B bei einem der Beteiligten noch nicht identisch abgelegt, so erhöht sich die Wahrscheinlichkeit einer Interpretation in Richtung der bekannten Bedeutung A, schlicht deshalb, weil B vom Gehirn des Beteiligten gar nicht zur Verfügung gestellt wird.
482
8 Modellentwicklung von der Mikro- zur Makrowelt
Übertragen auf SyA lässt sich schließen Die im Raum Anwesenden besitzen die prinzipielle Möglichkeit mental miteinander zu kommunizieren, wenn sie in Kontakt mit Gehirnwellen anderer kommen. Unterliegt das, was ich in der Aufstellung repräsentiere, der gleichen gelernten Konditionierung, werde ich vermutlich die gleichen oder zumindest ähnlichen Wahrnehmungen bzw. Sinnzusammenhänge konstruieren. Komme ich aus einem anderen, fremden Kontext, versucht mein Unterbewusstsein für das Wahrgenommene einen für mich passenden Sinnzusammenhang zu liefern, der nichts mit der repräsentierten Situation zu tun haben muss. Damit wird verständlich, dass Aussagen von Repräsentanten immer auf den Kontext übersetzt werden müssen, für den die Aufstellung vorgenommen wurde. Drei wichtige Konsequenzen lassen sich deshalb ableiten: 1. Die Aussagen bedürfen in vielen Fällen einer Interpretation. 2. Auch hier bedarf es, analog zur Quanten-Teleportation, eines klassischen Kanals, der den Kontext transportiert. (Information kann in diesem Sinne tatsächlich nicht schneller als mit Lichtgeschwindigkeit transportiert werden.) 3. Gleiche Sozialisierung oder umfangreiche Übung erhöhen die Wahrscheinlichkeit einer ‚richtigen’ bzw. halbwegs passenden Interpretation beim Repräsentanten. (Information wird instantan übertragen und bedarf deshalb keines klassischen Kanals.) 8.3.2.4 Brain-to-Brain Kommunikation ohne Hilfsmittel Untersuchungen mittels EEG 2008 wurden drei EEG-Studien realisiert (Hinterberger u. a. 2008), in denen Korrelationen der Gehirnaktivitäten zwischen räumlich weit entfernten Personen gemessen werden konnten (Abb. 88). Durchgeführt wurden die Versuche mit 36 Paaren, die sich eng verbunden fühlten. Die Entfernung zwischen den beteiligten Labors Tübingen bzw. Freiburg und Northampton/England betrug 810 km respektive 780 km. Die Gehirnsignale wurden bei beiden Versuchspersonen gemessen, während nur eine der beteiligten Personen Bilder unterschiedlicher Kategorien gezeigt bekam, die sie durch einen Tastendruck bewerten sollte. Der Tastendruck sollte zusätzliche EEG-Impulse kreieren und analog einer Messung den psychischen Zustand manifestieren. Die andere Person verweilte dagegen in ruhender, empathischer Verbundenheit mit ihrem Partner. Die Versuchsanordnung in Freiburg wurde zusätzlich mit einem Faradayschen Käfig durchgeführt. In allen drei Studien zeigten sich bei affektiven, also emotional bewegenden Bildern Effekte im Bereich der Delta-, Theta- und Alpha-Wellen im Gehirn. Theta- und AlphaWellen-Korrelationen ergaben sich insbesondere bei negativ-affektiven Bildern. Die Effekte traten nur bei miteinander in Beziehung stehenden Personen auf. Auffallend war, dass nur geringe Effekte gemessen werden konnten, die in Summe dennoch signifikant waren und aufgrund der Methode frei von Artefakten oder anderen Verfälschungen sein sollten.
8.3 Neurowissenschaften – Der Mensch als Entscheider
483
Abb. 88 | Versuchsaufbau zur EEG-Korrelation auf Distanz zwischen den Labors Northampton – Freiburg i. Br. bzw. Tübingen (Image aus Hinterberger u. a. 2008). Die beiden Computersysteme wurden über ein DCF-Zeitsignal auf eine Genauigkeit von etwa 20 ms synchronisiert. Emotional-affektive Bilder lösten messbare Korrelationen zwischen den Gehirnen von Paaren aus, bei Entfernungen von über 700 km.
Diese Ergebnisse stimmen mit zahlreichen ähnlichen Versuchen überein, die von verschiedenen Gruppen seit 1965 (Orme-Johnson u. a. 1982; Targ und Puthoff 1974; Duane und Behrendt 1965) durchgeführt wurden. Wie bei Hinterberger u. a., kamen bei Grinberg-Zylberbaum u. a. ebenfalls Faradaysche Käfige zum Einsatz (Grinberg-Zylberbaum u. a. 1992, 1994). Persinger prüfte mit Erfolg die Möglichkeit, fremde Personen miteinander zu verschränken, die sich in einer Vorbereitungsphase mehrmals in körperlicher Nähe zueinander befanden (Persinger u. a. 2007). Grinberg-Zylberbaum ließ sie gemeinsam meditieren oder Seite-an-Seite sitzen, ohne Worte. Ohne eine solche ‚direkte Kommunikation’ konnten keine korrelierten EEG-Muster gemessen werden, was für die Relevanz eines persönlichen Kontaktes spricht und zeigt, dass während eines solchen Vorgehens etwas zu passieren scheint. Ihre Versuchskonfigurationen kommen dem Geschehen in SyA sehr nahe, bei dem sich die Gruppenmitglieder, ebenfalls bereits im Vorfeld, in körperlicher Nähe zueinander befinden und aufeinander einstellen. Die von Persinger verwendeten Magnetfelder und deren Einsatzart entspricht zudem Hu und Wu’s experimenteller Anordnung, wie wir sie im Kapitel ‚Biologische Systeme’ kennengelernt haben. Manolea wies zudem nach, dass trainierte Personen eine höhere Kohärenz der Wellenlängen erzeugten(Manolea 2015). Radin führte ebenfalls zahlreiche solcher Untersuchungen durch (Radin 2006, 2004). Seine Ergebnisse bestätigen die von den anderen Forschern gefundenen Korrelationen. Zusätzlich konnte er einen Zusammenhang zwischen Hautleitfähigkeitsreaktion (EDA) des Senders und der EEG-Korrelation herstellen. Je größer die Hautleitfähigkeit, desto größer die EEG-Korrelation. Konzentrieren sich die Forscher weniger auf den Unterschied der Amplitudenänderung, sondern ausschließlich auf die zeitliche Korrelation zwischen gesendetem, mentalem Signal und der Änderung des EEG-Signals beim Empfänger, werden die Ergebnisse sehr viel klarer wie es scheint. Berücksichtigt man gleichzeitig mental trainierte, sich nahestehende Personen und verwendet ein (mental gesendetes) stressauslösendes Signal wie einen Babyschrei, können mehr als deutliche Signifikanzen erzielt werden, wie Tressoldi und seine Gruppe zeigen (Tressoldi u. a. 2014). Zwischen Sender und
484
8 Modellentwicklung von der Mikro- zur Makrowelt
Empfänger lagen 190 km. Als Ergebnis erzielten sie eine 78,4 prozentige Trefferquote bei 88 Testläufen. Die Gruppe von Tressoldi konnte in neueren Untersuchungen (Giroldini u. a. 2016)218 jedoch auch signifikante Amplitudenunterschiede bei den Empfängern nachweisen219, die üblicherweise mit einem Zeitverzug von 250 - 300 ms auftraten und sich im Alphaband zeigten (ebd. 9-10). Wie wir noch sehen werden, liegt diese Zeitverschiebung genau in dem Zeitfenster, das unser Gehirn zur unterbewussten Signalverarbeitung benötigt. Neben dem dominierenden Alphaband finden sich bei diesen besonders Veränderungen in den Theta- und Gamma-Wellen. Ihr neuesten Analysen, basierend auf Artificial Intelligence, bestätigen die Frequenzabhängigkeit solcher Experimente (Bilucaglia u. a. 2019). Nicht mit EEG Messungen, sondern mit dem Einsatz eines Photomultiplier220 gelang es Tressoldi und seiner Gruppe mehrmals mental die Anzahl der Photonen, die ein solcher Photomultiplier gezählt hat, signifikant zu erhöhen (Tressoldi u. a. 2016). Die Distanz zwischen der mit mentaler Intention arbeitenden Gruppe und dem Zähler betrug in ihrem letzten Versuch 7.300 km. Interpretation der ausgewerteten Forschungen Dass es sich bei den Experimenten von Tressoldi und seiner Gruppe sehr wohl um eine physikalische Verschränkung und nicht-lokale Übertragen handelt, soll mit meiner Arbeit hier unterlegt werden. An dieser Stelle sei nochmals darauf hingewiesen, dass es keine klassische Signalübertragung benötigt, wenn der Mensch selbst Teil des verschränkten Quantensystems ist. In einem solchen Fall reicht ein Verschränkungszustand aus, der bereits durch körperliche Nähe herbeigeführt werden kann, wie in einigen eben beschriebenen Fällen gezeigt wurde. Im Kap. 8.2 ‚Biologische Systeme’ wurde der Zusammenhang zwischen Körperstrahlung, gegenseitiger Sinneswahrnehmung und Verschränkung bereits herausgearbeitet. Ein Zähler, hier ein Photomultiplier, übernimmt in gleicher Weise die innere Wahrnehmung eines Quantensystems. Aufgrund früherer als auch der aktuellen Forschung erscheint es deshalb notwendig und sinnvoll, von einer tatsächlichen Interaktion auszugehen; eine Interaktion, deren Korrelation physikalisch mit einer Kohärenz verschränkter Systeme beschrieben werden
218
219
220
Tressoldi u. a. liefern in ihrer Veröffentlichung auch einen guten Überblick über bisherige Studien im Bereich Brain-to-Brain Interaktion über Entfernungen (Tressoldi u. a. 2014: 9–10). Im Nachgang zu ihrer Veröffentlichung erfolgte eine kontroverse Diskussion, die dem Originalpaper beigefügt ist, zu Fragen der Verschränkung und Nicht-Lokalität und der Entsprechung zur GQT (Generalisierte Quantentheorie Kap. 5.3.6). Die GQT bezieht sich auf eine allgemeine Verschränkung und explizit nicht auf physikalische Interaktionen. Sie versucht beobachtete Phänomene, beispielsweise zwischen sozialen Systemen und im parapsychologischen Bereich, zu erklären. In der Diskussion wurde die Meinung vertreten, dass solche Übertragungen zwischen komplexen Systemen (Menschen) den Tatbestand der Nicht-Signalübertragung erfüllen würden oder gar keiner Verschränkung entsprechen und von daher nur als Korrelationen zu betrachten sind. Mit Photomultiplier (Photonenvervielfältiger) werden schwache Lichtsignale und auch einzelne Photonen mithilfe von Verstärkung elektrischer Signale detektiert.
8.3 Neurowissenschaften – Der Mensch als Entscheider
485
kann. Sie reihen sich damit ein in die hier vorgestellten Phänomene und Zusammenhänge, und sie werden nicht die letzten sein, die wir genauer betrachten werden. Als ein übergreifendes Ergebnis lässt sich feststellen, dass offensichtlich nur geringe Kohärenzen und sehr kleine Effekte ausreichen, um Informationsübertragung zwischen Personen zu ermöglichen. Dies deckt sich mit den sehr geringen Energien und Spinänderungen, die in biologischen Systemen notwendig sind und Vergleichbares bewirken können. Mit der Photonenerhöhung über Distanz liegt ein Experiment vor, das den SyA mit technischen Bauteilen und Codes entspricht, die ebenfalls erfolgreich verliefen. Untersuchungen mittels fMRT Dass es neben den EEG-Forschungen auch noch andere Möglichkeiten zur Untersuchung von nicht-lokalen Interaktionen gibt, wird im Folgendem vorgestellt. Die Experimente von Achterberg u. a. sollten überprüfen, ob es so etwas wie Fernwirkung oder Fernheilung (‚Distant Intentionality’ - DI) geben kann und dies im Gehirn der Empfänger nachweisbar ist oder eben nicht (Achterberg u. a. 2005). Es ging ihnen nicht um den Nachweis einer Heilung, sondern nur um den Nachweis einer Korrelation zwischen Heiler und Empfänger in Bezug auf DI. Mithilfe der fMRT fanden sie tatsächlich signifikante Korrelationen. Nach den oben vorgestellten EEG-Experimenten sind diese Ergebnisse letztlich doch nicht überraschend. In ihrer Studie luden sie elf Heiler aus Hawaii ein, die Erfahrungen mit Fernheilung hatten. Jeder dieser Heiler konnte eine Person wählen, mit der er eine spezielle Verbindung fühlte. Sie sollten versuchen über Distanz heilende Intentionen zu übertragen und dadurch Spuren in speziellen Gehirnarealen zu erzeugen, die mit fMRT sichtbar gemacht werden können. Die Empfänger waren in einem MRT-Scanner platziert und vollständig von allen sensorischen Kontakten zu ihrem Heiler isoliert. Die Heiler selbst befanden sich in einem elektromagnetisch isolierten (Faradayscher Käfig221) und kontrollierten Raum. In für den Empfänger unbekannten 2-minütigen Intervallen wurden DI gesendet. Es zeigten sich signifikante Unterschiede in bestimmten Gehirnarealen während der DI-Phasen im Vergleich zu den nicht DI-Phasen. In ihrer Conclusio stellten die Forscher fest, dass sowohl auf der individuellen als auch auf der Gruppenebene statistisch signifikante Ergebnisse vorliegen und es sich nicht um zufällige Erscheinungen handeln kann. Womit eine nicht-lokale Interaktion zwischen Menschen nicht nur mittels EEG-, sondern auch mittels fMRT-Messungen nachgewiesen werden konnte. In ihrer Veröffentlichung verweisen sie auf mindestens 2.200 Publikationen zu unterschiedlichen Fernheilungen, deren Designs allerdings häufig sehr schwach waren und weiterer Studien bedürfen. Dennoch lässt sich feststellen, dass es sich bei der Studie von Achterberg u. a. also keineswegs um ein einmaliges Ergebnis handelt (Achterberg u. a. 2005).
221
Abgeschirmt werden zeitlich sich verändernde EM-Wellen. Nicht abgeschirmt werden langsam variierende Magnetfelder, wie beispielsweise das Erdmagnetfeld.
486
8 Modellentwicklung von der Mikro- zur Makrowelt
8.3.2.5 Unser Gehirn arbeitet in Intervallen Bisher bestanden zwei unterschiedliche Lehrmeinungen über die Arbeitsweise unseres Gehirns. Die eine ging davon aus, dass Sinneseindrücke kontinuierlich verarbeitet und zur Verfügung gestellt werden, so wie wir auch glauben kontinuierlich Veränderungen wahrnehmen zu können. Die andere nahm die Aufnahme und Verarbeitung einzelner Sinneswahrnehmungen zu bestimmten Zeitpunkten an, vergleichbar einzelner Snapshots in einer Bilderreihe. Unser Gehirn konstituiert daraus dann eine ‚sinnvolle’ Information. Ausgehend von Experimenten und Verhaltensversuchen überzeugen beide Annahmen allerdings nicht. So kann ein Stimulus A unter bestimmten Bedingungen erst nach einem späteren Stimulus B für uns wahrnehmbar werden, obwohl er in der Zeit davor lag (Bachmann u. a. 2004). Es blieb unklar, wie unser sehr schnelles zeitliches Bildauflösungsvermögen beim Sehen gegenüber der trägen bewussten Wahrnehmung erklärt werden kann. Zudem ermöglicht es einen Zugang auf die Frage, ob wir tatsächlich einen freien Willen besitzen, denn Forschungsarbeiten (Soon u. a. 2008; Libet u. a. 1983) haben gezeigt, dass unser Unbewusstes schon lange vor der bewussten Wahrnehmung aktiv ist (siehe auch Kap. 3.2.3 und 4.1.3). Man vermutete deshalb, dass unser freier Wille nur eine Illusion wäre und alles schon viel früher festgelegt sei; eine Annahme wie sie auch Eagleman zum Ausdruck bringt. Herzog u. a. haben diese Experimente und Versuche ausgewertet und einen neuen Erklärungsansatz gefunden, bei dem zwei Prozessschritte unterschieden werden (Herzog u. a. 2016) (Abb. 89). Eine gänzlich unbewusste Verarbeitungsphase, in der das Gehirn mit sehr hoher Geschwindigkeit und kontinuierlich alle Sinneseindrücke analysiert. In dieser Phase existiert keine zeitliche Wahrnehmung. Das Gehirn ordnet den wahrgenommenen Merkmalen jedoch zeitliche Markierungen zu.
Abb. 89 | Zwei-Stufen-Modell der visuellen Wahrnehmung nach Herzog u. a. Image aus (Herzog u. a. 2016). Ein Stimulus wie das abgebildete Kreuz wird gezeigt. Alle Informationen dazu, wie Farbe, Dauer etc. werden kontinuierlich und unbewusst wahrgenommen. Das Unterbewusstsein verarbeitet alle damit verbundenen Informationen zu separaten Zeitpunkten und das bis zu mehreren hundert Millisekunden und stellt schließlich dem Bewusstsein einen Wert zur Verfügung, der auch als ‚Zustandsvektor‘ des Wahrgenommen beschriebenen werden darf. Was zwischen den zur Verfügung gestellten Wahrnehmungen passiert, kann nicht festgestellt werden.
Im zweiten Schritt, der der unbewussten Verarbeitung folgt, werden alle Merkmale für einen bestimmten Zeitpunkt in bewusste Wahrnehmung umgewandelt. Wir bekommen
8.3 Neurowissenschaften – Der Mensch als Entscheider
487
quasi das Ergebnis der unbewussten Verarbeitung auf unseren inneren Monitor präsentiert. Die Forscher konnten für den gesamten Prozess, vom ursprünglichen Reiz bis zur bewussten Wahrnehmung, ein Zeitfenster von bis zu 400 ms ermitteln. In der Zeit dazwischen fand eine unbewusste Verarbeitung statt. Das ist 8 - 10 mal mehr, als bisher für eine unbewusste Reaktion (40 – 50 ms) angenommen wurde. Die Interpretation der Forscher geht dahin, dass das Gehirn bzw. das Unterbewusste uns nur perfekte Informationen in Bezug auf unsere Erwartung zur Verfügung stellen will und keine sowohl-alsauch bzw. ungenaue Angaben. Sie beziehen sich dabei auf den Bayes’schen Wahrscheinlichkeitsbegriff, der sehr eng mit der Erwartungshaltung und somit mit der Intention zusammenhängt. Zudem wird aus ihrer Sicht deutlich, wie das Gehirn Zeit verarbeitet und sie mit unserer Erwartungshaltung abstimmt. Weitere Veranschaulichungen liefern die bekannten Kippbilder (Abb. 90). Unsere Wahrnehmung springt zwischen zwei Möglichkeiten hin und her, ohne uns irgendwelche Überlagerungen zur Verfügung zu stellen. Wir sehen nicht gleichzeitig beide und auch keine Verschmelzung, sondern nur das Eine oder das Andere und damit manifestiert sich jeweils ein Messergebnis in unserer psycho-physischen Welt. Diese Kippbilder waren auch Teil eines Experimentes bei dem Pribram (Majumdar u. a. 2006) EEG-Analysen vornahm, um unabhängig von Umwelteinflüssen nur intern initiiert Prozesse zu untersuchen. Die Gruppe konnte zeigen, dass bereits bis zu 800 ms vor dem wahrgenommenen Flip im Cortex unbewusste Prozesse ablaufen. Untersuchungen direkt im Gehirn, unter Verwendung zweier gänzlich unterschiedlicher Bilder, zeigten sogar 2000 ms respektive 1000 ms im neuronalen Vorlauf vor einer bewussten Wahrnehmung (Gelbard-Sagiv u. a. 2018).
Abb. 90 | Der Necker-Würfel und das Vase-Gesichts-Paradoxon In beiden Bildern springt unsere Wahrnehmung zwischen zwei Möglichkeiten hin und her. (Necker-Würfel: Anton (rp) 2005; Vase-Gesichts-Paradoxon: AdobeStock_214282651)
Bei solchen Versuchen ist allerdings zu beobachten, dass wir den Kippeffekt in gewissen Grenzen beeinflussen können. Lassen wir unsere Wahrnehmung nicht einfach geschehen, sondern entscheiden uns bewusst für eine Variante, bietet unser Gehirn diese auch an. Dies gelingt mit konkreten Bildern wie Vase-Gesicht-Kombinationen einfacher als beim Necker-Würfel. Tatsächlich bildet sich damit auch der Quanten-Zeno-Effekt ab. Die Wahrscheinlichkeit für die von uns präferierte Variante steigt mit unserer Inten-
488
8 Modellentwicklung von der Mikro- zur Makrowelt
tion und Konzentration. Mit hohem Konzentrationsaufwand lässt sich der Kippeffekt hinauszögern und bezüglich seiner Häufigkeit stark reduzieren. Bei manchen dieser Bilder kommt es für zahlreiche Beobachter erst gar nicht zu einem Kippeffekt, nämlich dann, wenn keine Kenntnis darüber herrscht, dass noch ein zweites Bild codiert ist. So fällt es beispielsweise beim Vase-Gesichts-Paradoxon beim ersten Mal Vielen schwer, die Vase oder das Gesicht zu sehen. Erst nach Hinweis auf die zweite Möglichkeit und einigem Üben lässt sich der Kippeffekt relativ leicht reproduzieren. Unser Gehirn stellt also die zweite Information aufgrund von Unkenntnis, Nicht-Sensibilität, zu starker Fixierung oder schlicht einer Nicht-Notwendigkeit gar nicht erst zur Verfügung. Ohne Sinn und Bewusstsein gibt es keinen Kippeffekt. Mit diesen Ergebnissen werden Experimente (Eagleman 2012: 65–68), wie sie Eagleman in seinem Buch vorstellt, verständlich, in denen ein Ereignis, das eigentlich erst einem vorangehenden folgt, doch von uns als das erste Ereignis wahrgenommen wird. In gleicher Weise lassen sich die von Bell (1999) erkannten Loops222 und die gleichzeitige Vor- und Rückwärtsrichtung der Signale damit in Beziehung setzen. Ursache und Wirkung, Dauer und Reihenfolge und damit die Zeitwahrnehmung ist demzufolge ein von unserem Gehirn erzeugtes Konstrukt. Interpretation der ausgewerteten Forschungen An die Ergebnisse der Gruppe um Herzog von bis zu 400 ms sind auch gut die Daten von Giroldini (2016) anschlussfähig (Kap. 8.3.2.4). Diese Forschergruppe hat bei ihren Fernwahrnehmungsexperimenten einen Zeitverzug von 250 – 300 ms beobachtet, ohne diese erklären zu können. Es handelt sich um das gleiche Zeitfenster, das unser Gehirn benötigt, um Informationen zu bewerten und zur Verfügung zu stellen. Mit Hinweis auf meine Überlegung aus der vorangehenden Conclusio (Kap. 8.3.1.3), als die Bayessche Wahrscheinlichkeit in Zusammenhang mit der ‚Kohärenzfähigkeit bereits eingelagerter Informationen’ gebracht wurde, lässt sich jetzt eine zweite neurologische Grundlage diagnostizieren: ‚Erwartungshaltung und Intention’ entscheiden darüber, was uns unser Gehirn zur Verfügung stellt. Damit wird auch verständlich, dass in verschiedenen Experimenten bei Sportlern oder in der Präkognitionsforschung die Probanden bereits reagieren, ohne dass sie es selbst bemerken. Dieses Phänomen wurde auch von der Werbebranche beim Hinzufügen einzelner Bilder in Filmen benutzt. Das Unbewusste nahm diese wahr und veranlasste die Kunden die Produkte auf den Bildern zu kaufen (Kap. 3.2.3). 8.3.2.6 Körperaktivitäten schon vor dem Ereignis Die Brücke zwischen der Arbeitsweise unseres Gehirns, den Ergebnissen von Pribram (2007) und den jetzt folgenden Ausführungen lässt sich über die Arbeit von Libet u. a. 222
Bell beschreibt die Wechselwirkungen bei Stoffwechselprozessen genauso wie von Ökosystemen als Kreisläufe (Loops) die nicht nur in eine Richtung gedacht werden können. Sie müssen als Feedbackschleifen verstanden werden, womit er ein rein kausales Denken ad absurdum führt.
8.3 Neurowissenschaften – Der Mensch als Entscheider
489
herstellen (Libet u. a. 1983). Die Gruppe beschäftigte sich mit der Frage des freien Willens und den korrespondierenden Aktivitäten im Gehirn. Libet bat Versuchsteilnehmer ihre Finger zu einem selbstgewählten Moment zu bewegen und nahm dies mit einem EEG auf. Sie sollten auf den Moment eines ‚aufkommenden Impulses’, ihre ‚Intention’ den Finger zu bewegen achten und ihre ‚Entscheidung’, die Bewegung auch durchzuführen, wahrnehmen. Beim Vergleich der wahrgenommenen ‚Intention’ den Finger bewegen zu wollen und den EEG-Daten wurde deutlich, dass das Gehirn die folgende Intention sehr viel früher anzeigte als es von den Teilnehmern wahrgenommen wurde, und zwar im Motorcortex223. Dieser Moment der beginnenden Gehirnaktivität, deutlich vor der bewussten Wahrnehmung, wird Bereitschaftspotential (BP) genannt. Die unbewusste Vorlaufzeit betrug zwischen 150 und 800 ms, je nach Experimenttyp und liegt damit im Bereich dessen, was Pribram u. a. fanden (Pribram 2007). Bei Experimenttyp 1 ging es nicht darum, selbst aktiv zu werden oder die Handlung zu planen, sondern nur darum, auf ankommende Impulse zu achten. Hier wurden Werte im Mittel von 350 ms gemessen, bei einem Minimum von 150 ms. Bei Experimenttyp 2 warteten die Teilnehmer auf einen vom Versuchsleiter ausgelösten Hautstimulus zu einer unbestimmten Zeit. Die Werte der gemessenen Vorlaufzeit lagen im Schnitt bei 800 ms. Radin und Kollegen gingen bei den Untersuchungen von ‚Vorahnungs-Effekten’ noch einen Schritt weiter. Zum einen zeigten sie, dass nicht nur auf neuronaler Ebene vorbewusst Prozesse ablaufen, sondern auch im Bereich des Herzens. Solche Effekte ereignen sich vor einem tatsächlich eintretenden Ereignis und sind besonders relevant für die Intuitionsforschung. 1997 unternahm Radin eine Reihe von Experimenten, bei denen Versuchsteilnehmern auf einem Monitor angenehme und stressauslösende Bilder gezeigt wurden (Radin 1997). Die Auswahl traf ein computergestützter Zufallsgenerator, ausgelöst durch die Versuchsperson selbst. Gemessen wurden verschiedene Körperfunktionen, wie EEG, EKG, Blutdruck, Puls und Hautleitfähigkeit. Die Probanden reagierten in Bezug auf Herz und Gehirn zeitlich deutlich vor der noch zu treffenden Auswahl des Bildes durch den Zufallsgenerator, und zwar abhängig vom Bildtyp. Ein nach unserem klassischen Verständnis unmögliches Ergebnis. Zahlreiche Forscher wiederholten die Versuche mit den gleichen Resultaten. Das Forscherteam um McCraty untersuchte, wo und wann im Gehirn und im Körper intuitive Informationen bearbeitet werden und nahm zusätzlich noch EKG-Messungen vor, um die Herzvariabilität224 zu erfassen (McCraty u. a. 2004a, 2004b). Zum Einsatz kamen nur Personen mit Meditationserfahrung. In diesen Versuchen zeigte die Varianz der 223
224
Der Motorcortex ist für die Vorbereitung und Steuerung von willkürlichen sowie komplexen Bewegungen verantwortlich. Mithilfe eines EKGs (Elektrokardiogramm) werden die elektrischen Aktivitäten des Herzens gemessen. Analog zum EEG beim Gehirn werden Spannungsänderungen erfasst. Häufig geht es bei EKGMessungen um die Häufigkeit (Herzfrequenz) oder um die Regelmäßigkeit der Ausschläge (Herzrhythmus). Bei der Herzfrequenzvariabilität (HFV) geht es dagegen um die Fähigkeit, die Frequenz, also den Abstand zwischen den Herzschlägen zu verändern und damit die zeitliche Auflösung zu erfassen. Die Variabilität dieser Veränderung ist ein Indikator für den Gesundheitszustand respektive für eine Belastung. Die Abstände zwischen zwei Ausschlägen sind in der Regel nicht gleich lang, sondern unterliegen ständigen Veränderungen, deren Quantifizierung als HFV bezeichnet wird.
490
8 Modellentwicklung von der Mikro- zur Makrowelt
Herzfrequenz eine um ca. 5 Sekunden vorgeschaltete Reaktion in Bezug auf den noch auszuwählenden Bildtyp (Abb. 91). Zum Zeitpunkt ‚0’ erscheint für die Versuchsperson das Bild auf dem Monitor. Dargestellt ist die Varianz der Herzfrequenz. Angenehme Bilder werden durch die obere Kurve repräsentiert, verstörende, emotionale Bilder durch die untere Kurve. Bereits ca. 5 Sekunden vor Erscheinen des Bildes reagiert das Herz, was durch die voneinander abzuweichen Kurven veranschaulicht wird. Als eine Besonderheit ergaben sich bei ihren Messungen ‚keine’ Signifikanzen für die Hautleitfähigkeitsmessung; wie sich später herausstellte, ein typisches Merkmal für meditationserfahrene Teilnehmer, nicht aber für normale Kandidaten ohne diese Kompetenz. Eine zweite Besonderheit bezog sich auf das Zusammenspiel von Herz und Gehirn. Ihre Daten weisen darauf hin, dass dem Herzen eine wesentliche Rolle in Bezug auf Intuition zukommt. Es empfängt und regiert bereits vor dem Gehirn und scheint die Information an Letzteres weiterzugeben.
Abb. 91 | Herzratenvariabilität (HRV) einer Gruppe von 26 Teilnehmern Image aus McCraty u. a. (McCraty u. a. 2004a). Bereits 5 Sekunden bevor ein Bild auf einem Monitor gezeigt wurde, reagierten die Versuchspersonen mit einer Änderung der Herzfrequenz, also dem zeitlichen Abstand zwischen zwei Herzschlägen. Bei emotionalen Bildern (untere Kurve) zeigten sich gegenüber angenehmen Bildern (obere Kurve) deutlich stärkere Abweichungen.
Die bisherigen Versuche ließen zahlreiche Fragen unbeantwortet, u. a. wodurch die Aktivitäten im Motorcordex ausgelöst werden. Soon u. a. (2008) und Bode u. a. (2011) gingen dieser Frage ebenfalls mithilfe der fMRT nach. Sie wollten wissen wo im Gehirn die ersten Aktivitäten zu beobachten sind. Die Versuchspersonen waren aufgefordert zwischen Tasten zu wählen, sobald sie das Verlangen danach hatten. Es wurde deutlich, dass Entscheidungen den Zeitraum der ersten unbewussten Gehirnaktivitäten bis zur bewussten Wahrnehmung nun sogar auf bis zu 10 s ausdehnen. Die erste Entscheidungsstufe ereignete sich demnach im präfrontalen Cortex225 und im Parietalcortex226, ca. 5 s vor Aktivierung des Motorcordex. 225
226
Der präfrontale Cortex ist verantwortlich für höhere kognitive Funktionen und emotionale Prozesse, „So sind Funktionen wie vorausschauendes Denken, Planen, Problemlösen, Kreativität, der Gebrauch von Strategien, Entscheiden, das Verarbeiten von Rückmeldungen aus der Umwelt, moralisches Denken, religiöse Gefühle, Humor, Scham, Bewusstsein oder die Fähigkeit, sich in andere Menschen hineinzuversetzen, an das Frontalhirn gebunden“ (Goebel 2008: 44). Der Parietalcordex (auch Scheitellappen genannt), lässt sich in zwei Teile gliedern. Erstens der ‚somatosensorische Cortex’, in dem alle Körperinformationen zusammenlaufen und Selbstbeobachtung
8.3 Neurowissenschaften – Der Mensch als Entscheider
491
Offensichtlich laufen schon lange vor dem Moment, an dem wir denken eine Entscheidung getroffen zu haben, Abwägungsprozesse über mögliche Chancen und Risiken der Entscheidung, auch lange bevor mögliche Handlungen angestoßen werden. Die Forscher führen dazu weiter aus: „At later stages, right before the conscious decision, both of these regions begin to encode timing and handedness information“ (Soon u. a. 2008: 2). Ihr Ansatz passt perfekt zum Zwei-Stufen-Modell der visuellen Wahrnehmung von Herzog u. a., das in Kap. 8.3.2.5 ‚Unser Gehirn arbeitet in Intervallen’ vorgestellt wurde. Zudem führen sie die unbewussten Veränderungen der Hautleitfähigkeit auf diesen kortikalen Ursprung zurück. Mit diesen Ergebnissen kommt ein Zusammenhang an die Oberfläche, der sich, genauso wie SyA, mit keinen klassischen Theorien erklären lässt. Unser Körper kann schon lange vor einem Ereignis die richtige Wahrnehmung realisieren bzw. Entscheidungen präparieren. Üblicherweise nennt man das dann Intuition. In Abb. 92 sind die bisherigen Erkenntnisse nochmals schematisch veranschaulicht, ohne den Intensitäten einen realen respektive korrekten Wert zuzuordnen.
Abb. 92 | Intuitions-Reiz-Reaktions-Mechanismus (eigene Darstellung). Schematische Zeichnung von neuronalen Reaktionen im Vorfeld auf einen externen Reiz, basierend auf verschiedenen wissenschaftlichen Veröffentlichungen. Den bekannten unbewussten und mit zeitlichem Abstand folgenden bewussten neuronalen Aktivitäten (ausgefüllte Fläche) gehen i.d.R. vorbewusste neuronale Prozesse voraus (schraffierte Fläche), die auf das kommende Ereignis mit richtiger Tendenz hinweisen. Je nach Aufgabe zeigen sich diese Anzeichen bis 10 s im Voraus.
Bis zu 10 s vor einer Entscheidung werden BP-Aktivitäten sichtbar, die sich mit der Auswahl und dem Abwägen beschäftigen (aktuell nur beobachtet im Zusammenhang mit selbst zu treffenden Entscheidungen). Ab ca. 5 s im Vorlauf zu externen Reizen beginnen sich Körpersysteme darauf einzustellen. (Aufgrund der verschiedenen Versuchskonfigurationen darf zum einen von einer tatsächlichen Vorahnung bzw. Intuition die zentrale Aufgabe darstellt. Zweitens der ‚posteriorer parietale Cortex’, der ein umfassendes Bild der Umwelt erzeugt und dadurch eine gezielte Interaktion mit der Umwelt erlaubt.
492
8 Modellentwicklung von der Mikro- zur Makrowelt
ausgegangen werden. Zum anderen besteht die Option, dass die Versuchsperson der Verursacher für das später im Zufallsgenerator ausgelöste Bild ist.) Es folgen bis zu fast einer halben Sekunde unbewusste Sondierungs- und Auswahlprozesse tatsächlich wahrnehmbarer Reize, an dessen Ende unser Gehirn uns eine Wahrnehmung zur Verfügung stellt. Unser Verstand benötigt dann nochmals zwischen 0,5 und 10 s bis wir bewusst darauf reagieren können. Homologe Verbindung zur Physik Auf den ersten Blick scheinen diese Vorahnungen nicht in unser Weltbild zu passen. Auf den zweiten Blick ergeben sich jedoch überraschende Analogien in die Physik. In der klassischen Physik kann man, sofern man alle Parameter kennt, den Zustand eines Systems sowohl für die Zukunft als auch für die Vergangenheit berechnen und damit vorhersagen. Dieser Zusammenhang wird als ‚Determinismus’ verstanden. Konsequenterweise scheint unter dieser Perspektive alles, auch unser Leben festgelegt. Dies ist auch ein Diskussionspunkt beim Thema freier Wille. In den gängigen Interpretationen der Quantenphysik bricht diese Zeitsymmetrie allerdings zusammen. Hier macht es einen Unterschied aus welcher Zeitrichtung ich auf ein System schaue. Zur Vollständigkeit der Vorhersage benötige ich entsprechend den Feynman-Diagrammen sowohl die Vor- als auch die Nach-Beziehung: (10.1) Ψg = Ψ1 Ψ 2 + Ψ2 Ψ 1 Mit Ψg als Zustand des Gesamtsystems, Ψ1 als Zustand des Systems zum Zeitpunkt 1 und Ψ2 als Zustand des Systems zum Zeitpunkt 2. Aus diesen Zusammenhängen resultiert auch die Interpretation einer nicht mehr existierenden kausalen Wirkung von der Vergangenheit in die Zukunft. Nach dem Verständnis von Aharonov u. a. lässt sich diese Zeitsymmetrie für quantenphysikalische Systeme jedoch wieder herstellen und damit können Beobachtungen in der Zukunft Wirkungen auf die Vergangenheit ausüben (Aharonov u. a. 2010, 1988, 1964). Weitere Modelle aus der Quantenphysik, wie beispielsweise die ‚quantum retrocausality’ (Sheehan 2017), wurden in Kap. 8.1 zu diesem Phänomen bereits vorgestellt. Hier ist die bereits erwähnte Arbeit zur undefinierten kausalen Reihenfolge bei optischen Quantenschaltungen von Goswami und seinen Kollegen ebenfalls anschlussfähig (Goswami u. a. 2018). Dass solche Vorahnungen, Intuitionen und unbewussten Prozesse kein Ergebnis einer unsauberen Arbeit oder physiologischer Artefakte sind, weist eine Meta-Analyse von Mossbridge u. a. (Duggan und Tressoldi 2018; Mossbridge u. a. 2014) nach. Genauso wie von Lucadou (2000) kamen sie zur Erkenntnis, dass weitere Forschung unter Einbeziehung vielseitiger Stimuli bei gleichzeitiger Betroffenheit vieler Individuen durchgeführt werden soll, wodurch die Effektstärken deutlich erhöht und Decline-Effekte vermieden werden können. Eine Bedingung, die zu 100 Prozent auf SyA zutrifft.
8.3 Neurowissenschaften – Der Mensch als Entscheider
493
8.3.2.7 Conclusio zu den Experimenten und Auswertungsmethoden Sowohl die Experimente als auch ihre Auswertungsmethoden weisen auf EM- und quantenphysikalisch basierte Funktionsweise unseres Gehirns hin. Allein aufgrund der unzureichenden Geschwindigkeit lassen sich biochemisch-neuronale Prozesse als vollständiges Erklärungsmodell ausschließen. Dabei weisen die Messmethoden EEG und fMRT bereits in die EM und quantenphysikalische Richtung indem sie zeigen, dass mit ihrer Hilfe übertragbare und interpretierbare Information erfasst werden kann. Wiederholt treten Verzögerungen der messbaren, unbewussten Wahrnehmung von bis zu 300 ms auf, die zu den Ergebnissen der Gruppe um Herzog (2016), von bis zu 400 ms (Kap. 8.3.2.4), passen. Darüber hinaus lieferten die Experimente auch eindeutige Grundlagen zum Verständnis der Bayesschen Wahrscheinlichkeit, die bei Menschen die objektive in eine subjektive Wahrscheinlichkeit verändert. ‚Kohärenzfähigkeit bereits eingelagerter Informationen’ und die ‚Erwartungshaltung und Intention’ führen zu einem bis zu 400 ms dauernden Prozess, an dessen Ende eine Wahrnehmung steht, die mehr über den Empfänger der Information als über die Information selbst aussagt. Unser Glaube an eine solide und zuverlässige Realität scheint tatsächlich auf einer Unbestimmtheit zu basieren, die wie es aussieht, auch dem Zufall seinen Raum lässt. Im Gegensatz zu der in der Wissenschaft bisher üblichen Annahme, dass unser Gehirn keine quantenphysikalischen Merkmale besitzen kann, weisen die bisher aufgezeigten experimentellen Ergebnisse auf genau diesen Zusammenhang hin. Neben dem für die Quantenphysik typischen Heisenbergschen Unbestimmtheitsprinzip, schön veranschaulicht durch die Kippbilder in Abb. 90, lässt sich eine weitere Analogie zu Schrödinger’s Katzenexperiment finden. Es gibt eine Instanz in uns, die aus allen Möglichkeiten eine auswählt, die sie uns zur Verfügung stellt. Womit sich ein typischer quantenmechanischer Überlagerungszustand beschreiben lässt. In diesem Fall ist es nicht Schrödinger’s Katze, die tot, lebendig oder irgendwo dazwischen ist. Die Katze ist hier eine Sinneswahrnehmung und damit eine Information, die als bedeutsam oder nicht bedeutsam interpretiert wird. Alle Zustände dazwischen, inklusive der als nicht bedeutsam eingestuften Information, dringen nicht in unser Bewusstsein. Womit Zeh’s Interpretation seiner Dekohärenztheorie, dass nach der Messung alle weiteren Optionen verloren gehen, ebenfalls erfüllt scheint (Zeh 2013: 5). Drittens scheint auf neuronaler Ebene der kausale Zeitpfeil auch keine zwingende Voraussetzung mehr darzustellen. Unter bestimmten Bedingungen vermag, neben der klassischen Vor-Beziehung (Wirkung von der Vergangenheit auf die Zukunft), auch die aus den Feynman-Diagrammen bekannte quantenmechanische Nach-Beziehung (Wirkung von der Zukunft in die Vergangenheit) relevant zu werden. Damit ließen sich die Berichte über Präkognitionserfahrungen plausibel erklären, bei denen die Kausalität aufgehoben ist. Aufgrund dieser Zusammenhänge möchte ich hier die folgende These aufstellen:
494
8 Modellentwicklung von der Mikro- zur Makrowelt
Die Heisenbergsche Unbestimmtheit und Schrödinger’s Katze sind bei uns im Kopf platziert und stellen den Übergang von der Quantenwelt zur klassischen Welt dar. Unser Gehirn ist mithin quantenphysikalisch getriggert. Folglich stellen Menschen sowie alle Lebensformen einen Mixed-Zustand dar, der sich entsprechend beider Gesetzmäßigkeiten verhalten kann. Als Erweiterung von Econs (Homo oeconomicus) und Humans dürfen wir jetzt von einem ‚Homo Physicus’ sprechen, wie er bereits in Kap. 4.2.4 im Rahmen der Informationstheorie abgeleitet wurde. Die Frage heißt jetzt nur: Wer entscheidet, was Bedeutung hat und was nicht? Ist diese höhere Instanz Gott, unsere Seele, unser Wesenskern oder was sonst? Und wie schaut es mit unserem freien Willen aus? Als Bewusstsein möchte ich es auf jeden Fall nicht titulieren, denn etwas, das in unser Bewusstsein tritt, kann nicht gleichzeitig das Bewusstsein sein. Hier benötigt es in jedem Fall eine Unterscheidung. Aus den Versuchsergebnissen, bei denen körperliche Reaktionen bereits vorbewusst vor dem Ereignis beobachtet wurden, lässt sich noch eine weitere Frage ableiten. Was ist, wenn unser Körper und unser Gehirn zufallsgetragene Ergebnisse produzieren, basierend auf einer Erwartungshaltung und diese Ergebnisse dann mit den Geräten (z. B. den Zufallsgeneratoren) oder den Versuchsbeteiligten wechselwirken? Die Versuchsperson, bei der ein Reaktionsprozess angenommen wird, mutiert unvermittelt zum ergebnisauslösenden Akteur. Mit Bezug auf die SyA-Experimente mit technischen Bauteilen wurde bereits offensichtlich, dass Menschen in der Lage sind, sowohl mit abstrakten Codes (Software) als auch mit, nach unserem Verständnis, unbewussten Materialien in Beziehung zu treten. Drei Aspekte lassen eine quantenphysikalische Verschränkung von Menschen mit ihrer Umgebung postulieren, die weit über unser heutiges, westliches Weltbild hinaus geht: Vorbewusste Wahrnehmung Nicht eindeutig zu beantwortende Verursachung (Retrokausalität, Geist-Materie-Beeinflussung oder Superposition) Korrelation im Zusammenspiel mit Materie Die Verschränkung ist nur mit der Theorie und den Modellen der Quantenphysik erklärbar. Alle anderen Erklärungsversuche würden zwingend der Kategorie ‚Metaphysik’ zuzuordnen sein. Des Weiteren lässt sich in Verbindung mit den Gammawellen (übergreifende Synchronisation) eine These verifizieren, wie sie in Kap. 8.1 bereits beschrieben wurde. Es geht um eine differenzierte Betrachtung der Verschränkung in vielteiligen Quantenfeldern. Mit Eintreffen und Fixierung einer bestimmten Wahrnehmung in unserem Gehirn ändert sich die Y–Funktion für diesen bestimmten Aspekt. Die Verschränkung der Gesamtsysteme bleibt bestehen, aber die spezifische, gemessene Information wird durch
8.3 Neurowissenschaften – Der Mensch als Entscheider
495
die neue bzw. neu kreierte Information überlagert und damit kollabiert in der Tat die alte Informationslage. Die Information, die in vielteiligen Quantenfeldern vorhanden ist, bezieht sich zwingend auf vielfältige Informationen. Die Veränderung einer dieser Informationslagen muss deshalb nicht den Zusammenbruch der Gesamtverschränkung nach sich ziehen, stattdessen treten die anderen Möglichkeiten nur in den Hintergrund. Aufgrund der vielfältigen anderen Verschränkungen zwischen lebenden Systemen und dem Gesamtquantenfeld, löst sich also nicht gleich die Gesamtverschränkung auf. Viel eher ist zu erwarten, dass die neue Information im Gesamtsystem integriert wird und sich in der Folge auch die Y–Funktion für das Gesamtsystem ändert. Dass dem so ist, wird in sozialen Systemen deutlich, indem sich das Verhalten des Gesamtsystems ebenfalls ändert. Passiert dies nicht und bleibt die Änderung nur für ein Teilsystem relevant, so scheint dieses Teilsystem in der Lage, bis zu bestimmten Grenzen Unterschiede aushalten zu können. Die dabei beginnende Reduzierung der Kohärenz beginnt sich als Spannungszustand zu etablieren. Vergrößern sich solche Differenzen, führt dies in sozialen Systemen meist zum Kampf oder zur Trennung, womit schließlich tatsächlich eine Dekohärenz zu diagnostizieren ist. Für menschliche Systeme wie Familien kann es jedoch, schon aus theoretischen Überlegungen heraus, nicht zu einer vollständigen Dekohärenz kommen. Aufgrund gemeinsamer Gene und einer umfangreichen Vergangenheit werden immer bestimmte Teilaspekte der Quantenfelder stärker verschränkt bleiben. Fernwirkungen und unbewusste Prozesse, wie für unser Gehirn dargestellt, bleiben deshalb eine realistische und normale Option. Dieses Verständnis ist kongruent zu Schrödinger’s Verschränkungstheorie, bei der nur eine Übereinstimmung zur Herstellung einer Verschränkung ausreicht. Sie ist auch kongruent zu den neueren Erkenntnissen, dass ... eine schwache Quantenmessung keine Änderung in einem Quantensystem hervorruft (hinschauen ist also erlaubt). eine Refokussierung auf beim ersten Mal nicht wahrgenommene Informationen, diese zugänglich machen kann. das Zurückspulen auf Zustände vor der (neuronalen, mentalen) Entscheidung möglich ist. An sich sollten die bisherigen Überlegungen zum Thema Neurowissenschaften und deren Erklärungsmodelle bereits ausreichen, um einen Verschränkungsmechanismus mit dem damit verbundenen Informationsaustausch erklärbar und nachvollziehbar zu machen. Entwicklungen in der jüngsten Vergangenheit lassen den Prozess jedoch noch sehr viel klarer erscheinen. 8.3.3
Alternative und quantenphysikalische Überlegungen
Stellvertretend für viele der neueren Forschungen, die mit merkwürdigen Ergebnissen in den Neurowissenschaften konfrontiert sind, eine Aussage von (Raichle 2011: 4–5): „Thus, the absence of monosynaptic connections between brain areas [...] does not preclude the existence of functional connectivity as expressed in the maps of resting state
496
8 Modellentwicklung von der Mikro- zur Makrowelt
coherence. [...] What should be noted from this is that relationships exist not only within systems, as expected, but also among the systems even in the resting state.” Die traditionelle Sicht auf den Signaltransfer erfährt gegenwärtig zweifelsohne eine Revision. Wie bereits deutlich wurde, bewegt sich die aktuelle Theoriebildung zur Arbeitsweise unseres Gehirns weg von der biochemisch getragenen Synapsentheorie, hin in Richtung EMFrequenzen. Somit handelt es sich um eine konsequente Fortsetzung der Überlegungen, wie wir sie bereits in der Quantenbiologie kennengelernt haben. Alles läuft auf Verschränkungsprozesse im Körper und Gehirn hinaus, seien es klassische oder quantenmechanische. Schwartz und Kollegen formulierten unterstützend dazu sehr deutlich die Notwendigkeit quantenphysikalische Modelle zu berücksichtigen: „The quantum model is better suited to the analysis of neuropsychological data than models based on the classic approximation“ (Schwartz u. a. 2005: 1323). Gleichwohl blieben sie mit ihrem Versuch, dies mithilfe der Kopenhagener Interpretation und dem von Neumann-Ansatz zu tun, auf einer virtuellen, mathematischen Ebene. Zu ähnlichen Schlussfolgerungen kommen allerdings auch Autoren, die eher auf der Linie meiner Ergebnisse liegen und mit dem Rückgriff auf die stochastische Elektrodynamik (SED) 227 stärkeren Bezug zur Führungswellentheorie (Kap. 8.1.1.2) haben (Keppler 2013). Die verschiedenen quantenphysikalischen Ansätze geben derzeit allerdings nur Antworten auf einer prinzipiellen, nicht jedoch auf der konkreten Ebene, die auch hier zentral für die Akzeptanz eines solchen Modells sein dürfte. Fragen wie: „How do biophotons play a role in neuronal communication and information processing? What is the mechanism of biophotonic transmission in neural circuits? It includes not only its transmission along axons and dendrites, but also across the synapses; how do we construct novel models for neural information coding, storage and processing according to biophotonic activities and transmission? The answers to these questions should help to explain the fundamental mechanisms of neural communications, and the functions of nervous system, such as vision, learning and memory, cognition and consciousness, and the mechanisms of human neurological and psychiatric diseases“ (Tang und Dai 2014a). Im Folgenden werden zur Beantwortung dieser Fragen neue unterschiedliche Erklärungsweisen zu Prozessen im Gehirn untersucht, die sich über die klassischen EM-Frequenzen hinaus zu Biophotonen über Spins bis hin zu Anyonen erstrecken. Damit werden Erklärungen möglich, die sowohl im eher klassischen physikalischen Verständnis liegen als auch solche, die die moderne Quantenphysik einschließt. Am Ende wird daraus abgeleitet der Versuch unternommen, einen Beitrag zur ‚Theory of Mind’ zu formulieren.
227
Die SED (stochastische Elektrodynamik) ist eine Erweiterung der de Broglie-Bohm Interpretation und bezieht das Nullpunktfeld mit ein. Die Theorie geht von einer deterministischen Nicht-Lokalität aus.
8.3 Neurowissenschaften – Der Mensch als Entscheider
497
Fassen wir zunächst noch einmal die Erkenntnisse zur Speicherung von (Quanten-)Information aus Kap. 8.1 zusammen, da sich alles Weitere auf diese Ausgangsbasis bezieht. Demnach wird (Quanten-)Informationen in vier Varianten gespeichert: 1. An der Oberfläche von zwei-dimensionalen Strukturen. 2. Über die Strukturen und Bindungen der Atome. 3. In den Elektronen. 4. In den Spins der Atomkerne. Jeder Prozess, der darauf zurückgreifen kann, ist in der Lage Informationen abzurufen und mit anderen gespeicherten Informationen in Beziehung zu bringen. In der Physik bedarf es dazu eines, über relevante Zeiträume, kohärenten Superpositionszustands, damit diese Quarticles eine Rechenoperation vornehmen können. Diese Rechenoperation bekommt ihre Ausrichtung durch eine Zielsetzung respektive eine Intention. 8.3.3.1 Neue Interpretation der unbewussten Gehirnaktivitäten Ausgangspunkt waren vertiefte Untersuchungen zum Thema freier Wille und selbstgewählte Veränderungen. Viele Überlegungen und Experimente beschäftigen sich seit den Libet-Experimenten mit dieser Frage, was vor der bewussten Wahrnehmung und dem maximalen Bereitschaftspotential (BP) abläuft. Bisher interpretiert die Wissenschaft dieses BP meist als Ausdruck von Aktivierungs- und Vorbereitungsprozessen. Schmidt u. a. veröffentlichten nun eine neue Theorie zu diesem Phänomen des scheinbar ferngesteuerten Menschens228 und nennen sie ‚Selective Action-Related Slow Cordical Potential Sampling Hypothesis’ oder kurz ‚SCP Sampling Hypothesis’ (Schmidt u. a. 2016). Sie berücksichtigen in ihren Überlegungen eine Vielzahl von Untersuchungen, die im Widerspruch zu Libets Beobachtungen waren und stellen ein Drei-Stufen-Modell vor (Abb. 93), das viele der aktuell offenen Fragen berücksichtigt und den freien Willen wieder einführt. Aufkommende vor-konzeptionelle Impulse lösen einen ‚Drang’ aus Etwas zu tun, der in die bewusste Wahrnehmung übertritt. Dieser innere Drang, zusammen mit einem oft noch nicht klaren Ziel, entwickelt sich zu einer spezifischen Intention etwas zu tun229. Dem folgt eine mehr oder weniger bewusste Entscheidung zur Umsetzung oder Ablehnung dieser Intention. Für unsere Überlegungen ist besonders die erste Stufe (in Abb. 93 unten links) von Bedeutung. Ein aufkommender innerer Impuls löst ein Bereitschaftspotential aus. Dieser Impuls, von Schmidt u. a. als ‚selbst initiierte freiwillige Aktion’ bezeichnet, ist aus ihrer Sicht vor-konzeptionell und steht nicht in Bezug zu irgendwelchen Zielen oder Aktionen, sondern resultiert aus kontinuierlichen Schwankungen der langsamen kor228
229
Libet selbst führte später die Möglichkeit eines bewussten Vetos ein, das in der Zeitspanne zwischen Wahrnehmung und Handlung stattfinden kann, allerdings ohne Ableitung aus Experimenten, sondern nur aus theoretischen Überlegungen. Wenn wir uns von dem Fokus der rein inneren Betrachtung lösen, ist es sinnvoll auch äußere Impulse zu berücksichtigen, deshalb meine entsprechende Ergänzung.
498
8 Modellentwicklung von der Mikro- zur Makrowelt
tikalen Potenziale (SCP). Es handelt sich deshalb aus ihrer Sicht um keine neuronalen Indikatoren zur Initiierung der Aktion für den Entscheidungsprozess (Schmidt u. a. 2016: 639), denn das BP tritt auch bei sensorischen Schwellenwerten und in Abwesenheit von Planungs- und Ausführungsaktivitäten auf.
Abb. 93 | Drei-Stufen-Modell zur freiwilligen Aktionsinitiierung nach einem inneren oder äußeren Impuls in Anlehnung an Schmidt und Kollegen (Schmidt u. a. 2016). Vorkonzeptionelle innere Impulse lösen einen Drang in Richtung eines Zieles und damit eine Intention aus, die beginnt in das Bewusstsein zu treten. Eine mehr oder weniger bewusste Entscheidung schließt sich schließlich an. Eine solche Intention könnte jedoch auch von außen ausgelöst werden.
Anhand zahlreicher Experimente konnten sie zudem zeigen, dass dieses BP bei Personen mit introspektivischen Fähigkeiten, wie beispielsweise Meditationsgeübte, mit dem Moment der wahrgenommenen Intention zusammenfällt und auch nachträglich noch verändert werden kann. Solche Personen sind damit in der Lage, unbewusste Impulse zu kontrollieren und zu korrigieren (ebd. 645). Ihre Wahrnehmung springt sehr viel früher an und der unbewusste Prozess bleibt nicht lange unbewusst. Die Forscher nehmen an, dass das BP mit einer inneren Erfahrung zusammenhängt, die als ‚Drang’ oder als ‚aufkommende Intention’ bezeichnet wird. Der ‚Drang’ wird dann in Verbindung mit einem Ziel oder einer Aufgabe zur einer ‚spezifischen Intention’, die in Richtung Entscheidung drängt. Die Ergebnisse von Schmidt u. a. unterscheiden die Kurvenverläufe der SCP dahingehend, ob eine Intention vorliegt oder nicht (Schmidt u. a. 2016). Eine vorliegende Intention weist eine höhere negative Amplitude aus (Abb. 91) und reduziert damit den zu erreichenden Schwellenwert. Wir werden also sensibler für Signale, da diese früher in unser Bewusstsein treten können. Introspektivisch geübte Personen benötigen demzufolge ein wesentlich geringeres BP bis zur bewussten Wahrnehmung und können entsprechend frühzeitiger wahrnehmen und reagieren. Sie vermuten ebenso wie Hameroff und Penrose, dass die SCP-Schwankungen bzw. deren Aufsummierung für die im EEG sichtbaren Kurven verantwortlich sein können. Passend zu diesen Annahmen einer verbesserten Sensibilisierung und einer Sichtbarwertung im EEG, weisen Schmidt u. a. (ebd.) auf zwei Korrelationen in Verbindung mit
8.3 Neurowissenschaften – Der Mensch als Entscheider
499
SCP hin. Die erste Korrelation besteht zwischen SCP und verbesserter Reaktions- und kognitiver Leistungsfähigkeit, und zwar in Bezug auf Phasenabhängigkeit und nicht in Bezug auf die Amplituden. Ein gleicher Zusammenhang wie er bei allen biologischen Systemen zu beobachten war. Eine zweite Korrelation besteht zwischen den Phasen der SCP und den Amplituden der Gehirnwellen-Bänder von 1 – 40 Hz. Offensichtlich gehen sowohl Wahrnehmungen von Sinneseindrücken als auch aktive Denkprozesse mit verstärkten SCP-Aktivitäten einher. Es lässt sich daraus der Rückschluss ziehen, dass mit dem SCP alle Wahrnehmungs- und Denkprozesse in Verbindung stehen und bei Überbzw. Unterschreitung bestimmter Schwellenwerte entsprechende EEG-Ausschläge beeinflusst werden. In Verbindung mit den Erkenntnissen zum Einfluss der Gamma-Wellen auf unsere Denk- und Erinnerungsvorgänge, die den gleichen Zusammenhang hervorgebracht haben, kann auch hier von zwei ergänzenden Mechanismen ausgegangen werden, die die Natur entwickelt hat. Als ein weiteres Ergebnis schlussfolgern die Autoren: SCP ist ein ständiger Hintergrundprozess, der zufällige Aktionen initiieren kann. Bei bewusstem Verhalten kann das SCP, als Link zwischen bewusster Intention und Initiierung einer Aktion, diese unterstützen oder blockieren. Aus Sicht von Schmidt u. a. handelt es sich bei den spontanen SCP deshalb weder um zufällige noch um rein aufgabenabhängige Aktivitäten, sondern um Beeinflussungen, die aus einer Kombination unserer biologischen Voraussetzungen, unserer Erfahrungen, unserer Ziele und der aktuellen Situation herrühren. Ihre erste, oben beschriebene Schlussfolgerung, dass es sich deshalb beim SCP um eine aufgabenunspezifische neuronale Aktivität handelt, wurde insofern erweitert. Interpretation der ausgewerteten Forschungen Meinem Verständnis nach kann der Weg von links unten nach rechts oben in Abb. 93 tatsächlich auch in die andere Richtung laufen. Entscheidungen und äußere Impulse (Vorgaben, Wünsche etc.) werden mit einem Ziel verbunden und als Intention an das Unterbewusste gesendet. Dieses begibt sich auf die Suche und tritt in Resonanz mit ähnlichen Frequenzen oder Informationsfeldern, die durch Quantenfelder repräsentiert sind. Nach erfolgreicher Wechselwirkung mit diesen Quantenfeldern läuft der Weg wieder zurück und erscheint als BP. Dies würde dem Delayed-Choice-Ansatz oder einer Rückwärtsverursachung im Sinne von Price (2012, 2008) und Cramer (2015) entsprechen. Es würde auch erklären, warum Roth (Kap. 3.2.3) in Zusammenhang mit seiner Intuitionsforschung den Vorschlag macht, sich mit dem Thema kognitiv vertraut zu machen, sich dann ins Bett zu legen und sein Unterbewusstes arbeiten zu lassen. Träume stellen dann oft Lösungen zur Verfügung oder ein kongruentes Gefühl zwischen Herz und Verstand weist am nächsten Morgen einen intuitiven Weg zu einer besseren Entscheidung. Ein Ansatz, der auch in der Traumforschung sein Pendant findet. In jedem Fall passt dieses Modell sehr gut zu der eben vorgestellten Beobachtung eines in Intervallen agierenden Gehirns. Such- und Auswahlprozesse auf Quantenebene sind nicht zeitgebunden.
500
8 Modellentwicklung von der Mikro- zur Makrowelt
Aufgrund der Arbeiten von Radin (2006, 2004) und McCraty u. a. (2004a, 2004b) halte ich ihre Annahme einer Beeinflussung der Aktivität der SCP durch unsere Erfahrungen, Ziele und der aktuellen Situation für plausibel. Unbewusste Wünsche und Einflüsse, aufgrund einer Verschränkung mit dem Umfeld, sollten als Konsequenz bisheriger Überlegungen immer angenommen werden können. Entsprechend könnte weiter auf eine quantenphysikalische Erklärung im Sinne einer Feynmanschen Vor- und Nach-Beziehung zurückgegriffen werden, demnach Auslöser in der Vergangenheit als auch aus der Zukunft heraus entsprechende Prozesse anschieben können. Damit lässt sich auf einen bekannten Zusammenhang zurückgreifen, der mittlerweile nicht mehr so unwahrscheinlich erscheint. In Abb. 93 sind dem Cluster ‚Intention’ deshalb zusätzlich zu den inneren Impulsen von mir noch äußere Impulse hinzugefügt worden, die durch das Umfeld ausgelöst werden können. 8.3.3.2 Kernspins und Biophotonen im Gehirn Die neuesten Forschungsergebnisse scheinen nun Hameroff und Penrose (Hameroff und Penrose 2014a) in ihrer Annahme zu bestätigen, dass Quantenprozesse im Gehirn nicht nur möglich, sondern sogar wahrscheinlich sind. Eine Annahme, für die sie in der Vergangenheit heftig in die Kritik kamen. Fassen wir nochmal kurz die Erkenntnisse aus der Quantenbiologie zusammen: Wie wir in Kap. 8.2 gesehen haben, werden Proteine als die Art von Umfeld angesehen, in der Verschränkung sehr gut möglich ist. Proteine zählen zu den Makromolekülen und befinden sich in allen Zellen. Bei Menschen bestehen insbesondere Haare und Haut, alle Muskeln, Herz, Nerven und Gehirn überwiegend aus Proteinen. Eine spezielle Gruppe von Proteinen kommt ausschließlich in Neuronen vor und baut die Retina als Teil des Nervensystems auf (Rahnama u. a. 2011: 66). Aufgrund der direkten Verbindung wird die Retina deshalb auch als Teil des Gehirns betrachtet (Kolb 2003). Die Proteine sind für den Empfang von synaptischen Signalen sowie dem Bilden und Weiterleiten von Aktionspotentialen verantwortlich. Andere Proteine sind spezialisiert auf die Bildung von Mikrotubuli, die zum Aufbau des Zellkörpers und seines Zellskeletts benötigt werden. Eine Erweiterung des quantenphysikalischen Gültigkeitsbereichs auf den Menschen ergibt sich zum einen aus der Tatsache, dass Menschen ebenfalls als biologische Systeme angesehen werden müssen und zum anderen daraus, dass Menschen Absorbienten und Emittenten energetischer Strahlung sind. Bio-chemische Option Dass grundsätzlich unsere Wahrnehmung und Informationsspeicherung mit Quantenprozessen in Verbindung zu bringen sind, zeigte Fisher (2015). Er identifizierte ein Isotop von Phosphor, das sogenannte Posner-Molekül Ca9(PO4)6, als einen Kandidaten, um langlebige Quantenverschränkungen im Gehirn zu realisieren. Seine Arbeit weist darauf hin, dass das Molekül in der Lage sein müsste, neuronale Qubits über 5 Minuten bis zu einem Tag zu schützen und gleichzeitig als Quanten-Speichereinheit zu fungieren. Bei diesem Prozess werden die Posner-Moleküle in einem chemischen Prozess geteilt, unter Beibehaltung ihrer vorherigen Verschränkung auch bei räumlicher Trennung. Womit
8.3 Neurowissenschaften – Der Mensch als Entscheider
501
zumindest schon einmal ein biochemisch-unterlegter Prozess für die Speicherung von Informationen in den Neuronen angeboten wird. EM- und holographische Option Im Konzept von 1993 spielte Pribram (1991) und sein holografischer Ansatz eine wichtige Rolle. McTaggert fasst die Konsequenzen sehr anschaulich zusammen (McTaggart 2007: 133–134): „Unser Gehirn spricht in erster Linie nicht in Worten oder Bildern mit sich selbst und dem Rest des Körpers, ja nicht einmal in Bits oder chemischen Impulsen, sondern in der Sprache von Wellen-Interferenzen. [...] Wir nehmen ein Objekt wahr, indem wir in Resonanz zu ihm treten, unsere Schwingungen mit denen des Objektes ‚synchronisieren’. Die Welt zu kennen, bedeutet buchstäblich sich auf ihrer Wellenlänge zu befinden.“ Und weiter: „Pribram’s Theorie geht davon aus, dass beim ersten Anblick eines Gegenstandes bestimmte Frequenzen mit den Neuronen in unserem Gehirn in Resonanz treten. Diese Neuronen senden Informationen über die betreffenden Frequenzen an die nächste Gruppe von Neuronen. Diese bilden wiederum Fourier-Reihen der betreffenden Frequenzen und senden die daraus resultierenden Information“ (ebd.) bis zu der Gruppe von Neuronen, die das virtuelle Bild erzeugen. Fourier-Transformationen waren auch der Ausgangspunkt für Pribram’s Ansatz. Schempp (Pribram 2014; Schempp 1998), der die mathematischen und theoretischen Grundlagen dafür lieferte, bezeichnete das Verfahren als ‚Quantum Holography’ und Gabor (auf dessen Arbeiten sich Pribram bezog) nannte die damit beschriebenen Quantenprozesse in subatomaren Systemen ‚Quanteninformation’ (Gabor 1946). Aus Pribram’s Sicht werden im Allgemeinen meist die falschen Schlussfolgerungen gezogen, dass nämlich der gesamte Cortex holographischer Natur wäre (Pribram 2007). Er geht davon aus, dass unser Gehirn holistisch arbeitet, wobei die holographischen Muster nur lokal im Bereich der feinen Dendrit-Axon-Netzwerke immer und überall verstreut auftreten und die Teile miteinander verschränkt sind. Deshalb existiert hier Raum und Zeit als auch Kausalität im Sinne von Aristoteles nicht länger. Pribram (ebd.) interpretiert diese Wellen nicht als Wellen in Raum und Zeit, sondern nur im klassischen Verständnis als mathematische Fourier-Funktion, deren Wirkung sich jedoch in die Realität transformiert. Pribram zitiert in diesem Paper von 2007 Kollegen mit ihrer Aussage, dass es nicht um Schaltungen oder Kreisläufe geht (ebd.). Dies wäre eine zu große Vereinfachung, denn viele parallele Signale und Rückmeldungen überspringen benachbarte Areale und wirken über Entfernungen hinweg. Aus diesem Grund kann man nicht von bekannten Kreisläufen reden und spezielle Einflüsse können nicht als Verbindungen betrachtet werden. Der Unterschied zu klassischen Impulsen sei damit offensichtlich. Dies passt auch zu den neuen Erkenntnissen über das Zusammenspiel der verschiedenen Wellenspektren, angefangen von SCP im niedrigsten Bereich, über Delta, Theta bis hin zu den Gammawellen. Mit diesen neuen Erkenntnissen der Wechselwirkungen unterschiedlicher Wellen lässt sich wohl doch die allgemeine Sicht begründen: Die holographischen Muster sind, zumindest bei einem gesunden Gehirn, über alle Gehirnareale ausgedehnt und nicht nur in den Dendrit-Axon-Netzwerken.
502
8 Modellentwicklung von der Mikro- zur Makrowelt
Biophotonen und quantenphysikalische Option Die mittlerweile wiederholt nachgewiesene Strahlung und Kommunikation von Zellen mittels sogenannter Biophotonen, wie sie von Popp bezeichnet wurden, können ebenfalls nicht mehr infrage gestellt werden (Kobayashi u. a. 2009; Fels 2009; Hu und Wu 2007b; Trushin 2003), mittlerweile auch nachgewiesen für unser Gehirn (Tang und Dai 2014a; Dotta u. a. 2011). Diese Biophotonen bewegen sich in einem Frequenzbereich zwischen UV- und IR-Wellen und schließen sichtbares Licht mit ein. Auf diesen Biophotonen und den Mikrotubuli bauten Penrose (1995) und Hameroff (Hameroff und Marcer 1998) bereits 1995 und 1998 ihre Theorie von Quantenprozessen im Gehirn und einem damit verbundenen Bewusstsein auf. Die mit anderen Forschern entwickelten Ideen stellten sie erstmals in einer Publikation 1994 (Jibu u. a. 1994) der Öffentlichkeit vor. Sie führen menschliches Denken auf nicht-lineare, kohärente optische Quantenprozesse zurück. Aus ihrer Sicht sind Mikrotubuli die Kandidaten, die quantenphysikalische Vorgänge ermöglichen. Die zentralen Rollen spielen dabei das elektrische Dipolfeld der Wassermoleküle, die hohle Struktur der Mikrotubuli und das quantisierte, EMStrahlungsfeld. Über diese internen Quantenprozesse sollen alle Nervenzellen verbunden und in Kommunikation miteinander sein. Mithilfe der Mikrotubuli lässt sich ihrer Meinung nach eine globale Kohärenz im Körper erzeugen, der es den Photonen erlaubt, die Mikrotubuli wie Lichtkabel230 zu nutzen und an ihnen entlang zu gleiten und auch mit anderen Photonen zu kommunizieren. Damit kommt es zu einer kollektiven Kooperation auf subatomarer Ebene überall im Gehirn. Auch Musha kommt mit seinen theoretischen Berechnungen zu einem Qubit-Modell des Gehirns (Musha 2009). Ausführliche Überlegungen und Ableitungen finden sich auch bei Rahnama u. a. (2011). So gehört beispielsweise die Retina bereits zum Nervensystem und ist in der Lage, Informationen gebunden an Lichtquanten direkt in das Gehirn weiterzuleiten (ebd. 66) Dass diese theoretischen Ansätze, parallel zu ihrer Entwicklung, bereits experimentell bestätigt wurden, kann bei Sun nachvollzogen werden (Sun u. a. 2010). Inspiriert von den Arbeiten und Überlegungen von Pribram, Hameroff und Penrose forschte eine Gruppe um Rizzi mit menschlichen, neuronalen Stammzellen und den Möglichkeiten von Signalübertragungen. In ihren Veröffentlichungen (Pizzi u. a. 2009, 2004) stellten sie Versuchsanordnungen vor, wie wir sie bereits im Kap. 8.2 ‚Biologische Systeme’ kennengelernt haben. Die Forscher konnten eindeutige nicht-lokale Korrelationen von laserinduzierten Impulsen auch unter elektromagnetischer und optischer Isolierung nachweisen. Nach jetzigem Stand lassen sich diese Ergebnisse nur auf physikalische Verschränkungszustände zurückführen.
230
Auf diese ‚Lichtkabel’ wird im folgenden Abschnitt, im Zusammenhang mit Anyonen nochmals eingegangen.
8.3 Neurowissenschaften – Der Mensch als Entscheider
503
Die Rolle und Funktion der Mikrotubuli bei diesem quantenphysikalischen Prozess Tang und Dai veröffentlichten 2014 ein neues bildgebendes Messverfahren, mit dessen Hilfe sie biophotoneninduzierte Kommunikation zwischen Gehirnneuronen unter dem Mitwirken von Mikrotubuli (Abb. 94) nachweisen konnten (Tang und Dai 2014b).
Abb. 94 | Mikrotubuli Image entnommen Sahu u. a. (Sahu u. a. 2013a). Gezeigt wird der Querschnitt durch das Mikrotubulus (rechts) und eine schraubig versetzte Anordnung der Protofilamente, die immer paarweise zusammengesetzt (a- und b-Tubulin = Tubulin-Dimer) sind. Das Innere des Zylinders ist mit Wasser gefüllt, dessen Spins hoch kohärent ausgerichtet sind. Zu sehen ist auch die unterschiedliche elektrische Ladung an den Enden, die sich als Folge der unterschiedlichen Dipolrichtung der a- und b-Protofilamente ergibt.
In ihren Versuchen zeigten sie, dass der Mechanismus über Aktionspotentiale nur sehr geringen Einfluss auf die Kommunikation hat. Zusätzlich konnten sie die Herkunft der beobachteten Biophotonenaktivitäten im Corpus Callosum und dem Thalamus auf die Axone der Neuronen zurückführen. Als Ergebnis postulierten sie einen zweiten Übertragungsweg für Informationen, neben dem bekannten elektro-chemischen, der über die Axone und neuronale Schaltkreise verläuft. Untersuchungen von Sahu u. a. konnten 2013 die unterschiedliche Leitfähigkeit (elektrisch wie optisch) von Mikrotubuli mit und ohne Wasser im Inneren nachweisen (Sahu u. a. 2013a). Ohne Wasser fungieren die Mikrotubuli als Isolator, mit eingelagertem Wasser als extrem starker Leiter. Ergänzend zeigten verschiedene Untersuchungen eine energetische Wellenausbreitung entlang der äußeren Oberfläche der Mikrotubuli (Friesen u. a. 2015: 256). Die Biophotonen im Gehirn können so eine zig-millionen schnellere Übertragungszeit realisieren als dies herkömmliche elektro-chemische Prozesse bei Neuronen ermöglichen und sind nicht anfällig für thermisches Rauschen bei Körpertemperatur. Die Stabilität gegen eine Wechselwirkung mit dem Umfeld führten die Forscher auf die, gegenüber dem Umfeld, sehr viel höhere Schwingungsfrequenz im Inneren der Mikrotubuli zurück (Sahu u. a. 2013a). Erstaunlich waren aus Sicht der Forscher auch die identischen Energieniveaus eines einzelnen Tubulin-Moleküls und dem von 40.000 Tubulin-Dimere, die ein einziges Mikrotubuli aufbauen; ein für konventionelle Materialien untypisches Verhalten. Gleichzeitig war das gesamte Mikrotubulus 1.000 mal leitfähiger als das einzelne Tubulin-Molekül und die Übertragung war unabhängig von der Mikrotubulilänge. Letzteres weist wieder auf ein quantenphysikalisches Verhalten hin. Passend dazu konnten sie einheitliche, resonante Schwingungen über die gesamte Oberfläche der Mikrotubuli beobachten, welche sie auf das Wasser im Inneren zurückführten, denn ohne Wasser gab es keinen solchen Effekt. (Wir werden sehen, dass es hierfür noch eine andere Erklärung gibt.) Das gesamte Mikrotubuli verhielt sich als Folge wie ein einzelnes schwingendes Molekül, wobei die energetischen Interferenzen
504
8 Modellentwicklung von der Mikro- zur Makrowelt
an der Tubulioberfläche lokalisiert und über ihre Gesamtausdehnung kohärent waren. Diese Nanozylinder speicherten die Information in ihren einzelnen Tubuli, vergleichbar wie die Nukleinbasen ATGC den DNA-Code speichern, wie sie schreiben. Damit finden wir, wie in der Quantenbiologie, Frequenzen, die für die Informationsspeicherung zuständig sind und zusätzlich die Rahmenbedingungen, um lichtbasierten, quantenphysikalischen Informationstransfer zu realisieren. Nun vervollständigten Kuma u. a. diese Experimente mit einem theoretischen Modell, in dem die Axone als Wellenleiter für die Photonen fungieren können und realistische, optische Mängel berücksichtigt werden (Kumar u. a. 2016). Sie erweitern ihre Betrachtung vom Mikrotubulus auf das gesamte Axon (Abb. 83). Ein Axon ist fest eingewickelt von einer Myelinscheide, die einen höheren Brechungsindex aufweist als das Innere des Axons, als auch der Zwischenraum zur flüssigen Umgebung im Außen. Zusammen mit der ‚Saltatorische Erregungsleitung’231 bietet diese kompakte Struktur die Möglichkeit eines Wellenleiters, so ihre Überlegung, womit die Photonen Quanteninformation übertragen könnten. Analog zur Photonen-Photonen-Verschränkung mittels Rubidium-Atomen, übernehmen die Tubuli die Funktion des Speichermediums, über das die Biophotonen gekoppelt werden können. Auch Ostovari u. a. stellen einen auf quantenphysikalischen Überlegungen und Berechnungen beruhenden Ansatz vor, in dem die Möglichkeit einer Verschränkung von Biophotonen und Tubuli untersucht wird (Ostovari u. a. 2014). Sie konnten daraus die realistische Möglichkeit einer konstanten Verschränkung über verschiedene menschliche Gehirnareale ableiten. In ihren Ausführungen gehen sie auch auf Unvollkommenheiten ein, die im Gesamtprozess auftreten können. Dazu zählen sie Lichtverlust, der im Kontakt mit naheliegenden Axonen auftreten kann. Diese Nähe bedeutet aber nicht nur eine Verlust-, sondern auch eine Kopplungsmöglichkeit, wie sie anmerken. Zur Bildung eines größeren Quantennetzwerks und damit zur Verschränkung von weiter auseinander liegenden Spins muss eine kohärente Interaktion zwischen unterschiedlichen Axonen realisiert werden. Hierzu verweisen die Autoren auf notwendige weitere Untersuchungen in Bezug auf die synaptischen Verbindungen, deren Spalten auf den ersten Blick eine Unterbrechung des Kohärenzgefüges darstellen. In zusätzlichen Überlegungen nahmen sie noch verfügbare Kommunikationsraten in Augenschein. Vorsichtig gerechnet kommen sie im Gehirn auf über 1012 (Billion) Photonen, die pro Sekunde emittiert werden. Diese Menge scheint ausreichend, um eine große Anzahl von Bits zu übertragen oder eine große Anzahl von Quantenverschränkungen zu erzeugen, und dabei reichen weniger als 100 Bits/s um bewusste Erfahrungen zu machen. Neben der reinen Informationsübertragung wurde auch die Informationsspeicherung untersucht. Passend zu den aktuellen Überlegungen von Kuma u. a. (2016), Bits als Informationseinheit zu betrachten, haben Sahu u. a. (2013b) für die Tubulin-Dimere eine Speicherfähigkeit von Informationen nachgewiesen. Sie konnten demonstrieren, dass die Mikrotubuli-Zylinder als Speicher-Schaltelement fungieren und ca. 500 unterscheid231
Verbesserung der Leitung des Aktionspotentials durch die Ranvier-Schnürung zwischen den Myelinscheiden (Gliazellen). Die elektrische Ladung springt dabei von Gliazelle zu Gliazelle.
8.3 Neurowissenschaften – Der Mensch als Entscheider
505
bare Bits speichern und verarbeiten können und das ohne Energieverlust. Darüber hinaus weisen sie eine eindeutige Verbindung zwischen den einzelnen Tubulin-Dimeren mit ihrer dipolaren Orientierung und der Leitfähigkeit der Mikrotubuli nach. Die Mikrotubuli verhalten sich demnach wie ein leitfähiger Nanodraht, indem die einzelnen Tubulin-Dimere exakt wie die Bits in Computerchips als ultra-schnelle multi-level Schaltvorgänge agieren, die Grundvoraussetzung für schnelle Rechenvorgänge bei Computern. Die Forscher führten ihre Messungen unter normalen Umweltbedingungen durch (Umgebungsatmosphäre und keine Tieftemperatur) und wiesen darauf hin, dass sie keine Leitfähigkeit unter veränderten Bedingungen, wie ultrahohes Vakuum, erhielten (ebd. 2). Auch andere Forscher kommen zu einem vergleichbaren Ergebnis, die TubulinDimere als typisches 2-Bit quantenmechanisches System zu betrachten. Rahnama erhielten für die Schaltwechsel zwischen den Elektronenübergängen Zeiten von 10 -9 - 1010 sec. “We consider the tubulin dimer to represent a two-state system with ground |𝑔𝑔⟩ and excited |𝑒𝑒⟩ states, respectively“ (Rahnama u. a. 2011: 69). Interpretation der ausgewerteten Forschungen Damit liegen die Voraussetzungen für die Existenz eines biologisch basierten Quantencomputers sowie eine nachvollziehbare Basis für die extrem schnellen und komplexen Prozesse im Gehirn vor. Die Natur hat offensichtlich in den Millionen von Jahren ihrer Entwicklung ein effizienteres Verfahren zur Speicherung von Informationen gefunden, als es der Mensch, zumindest bis heute, erreicht hat. Zudem sei nochmal darauf hingewiesen, dass alle Prozesse, bei denen kein oder nur sehr geringer Informations- und/oder Energieverlust beobachtbar ist, starke Indikatoren für quantenmechanische Wechselwirkungen darstellen. Mit ihren Arbeiten bestätigten die Forschungsgruppen von Sahu u. a. (2013b) und Kuma u. a. (2016) wohl endgültig die von Penrose (1995), Hameroff (Hameroff und Marcer 1998) und Pribram (1991) in den 90er Jahren entwickelten Thesen von quantenmechanischen Optionen im Gehirn. Als Ergebnis dieser Forschungsergebnisse lassen sich mehrere Schlussfolgerungen ziehen: 1. Das Prinzip der Lichtführung in Mikrotubuli und Axonen sowie der superschnelle Informationsaustausch zwischen Nervenzellen sind mehrfach nachgewiesen und theoretisch hinterlegt. 2. Dieses Prinzip sollte nicht nur in Gehirnzellen, sondern in allen Nervenzellen Gültigkeit besitzen. Damit lässt sich erklären wie Information, die in Quanten, respektive in Frequenzen codiert ist, von der Außenwelt über unsere Sinnesorgane und den damit verbunden Nervenzellen bis in unser Gehirn geleitet werden kann und das extrem schnell und hocheffizient. 3. Als Folge lassen sich zwei Übertragungsmöglichkeiten für Informationen definieren: eine klassische mittels Frequenzen der Proteine der Neuronen und eine rein quantenmechanische mittels Licht. Die bisher rein bio-chemische, molekulare Informationsweitergabe wäre gleich zweimal überholt.
506
8 Modellentwicklung von der Mikro- zur Makrowelt
4. Als Speichermechanismen von Information scheint die Dipolorientierung der Proteine und die Kernspins der Tubulin-Dimere verantwortlich zu sein. Damit würde sich auch das Wachstum der Neuronen erklären lassen, wie es in Kap. 8.3.1.1 beschrieben ist. Demnach gehen Lernprozesse einher mit wachsenden Neuronen und veränderten Verschaltungen über die Synapsen. Ein solcher Wachstumsprozess korrespondiert zwingend mit der Zunahme an Mikrotubuli und die sie aufbauenden Tubulin-Dimeren. Insofern liegt die Schlussfolgerung nahe, dass die neuen Informationen in Tubulin-Dimere/Mikrotubuli gespeichert werden, deren Anzahl infolgedessen zunimmt und dadurch die Neuronen wachsen. 5. Aktuell bestehen noch Fragen zur quantenphysikalisch getragenen, übergreifenden Kohärenz räumlich entfernter Areale und der damit verbundenen Überbrückung der Spalten an den Synapsen. Unter Berücksichtigung der Arbeiten zu biophysikalischen Prozessen erhalten wir zu Punkt 5 eine theoretische Unterstützung aus den Erkenntnissen bei biologischen Systemen. Zur besseren übergreifenden Kohärenz und einer schnelleren quantenphysikalischen Wellenausbreitung sollte demnach ein Wechsel zwischen kohärenten Bereichen und Unterbrechung dieser Bereiche vorliegen; ein Bedingung, die durch die synaptischen Verbindungen und vermutlich auch durch parallel liegende Mikrotubuli als auch nebeneinander liegende Axone erfüllt werden kann. Aus dem Bisherigen lässt sich auch eine mögliche Antwort zur Entstehung der EEGWellen ableiten (Abb. 95). Zu berücksichtigen sind nämlich noch die hochfrequenten Energien, die in den Proteinen der Tubulin-Dimere gespeichert sind und noch nicht zu den langsamen EEG-Rhythmen passen. Die Antwort, die sich aufdrängt und die von Hameroff und Penrose 2014 in ähnlicher Form auch veröffentlicht wurde, lautet (Hameroff und Penrose 2014a): Die hochfrequenten Energien (Megahertz) der Tubulin-Dimere, incl. der darin codierten Informationen interferieren miteinander. Sie bauen damit eine Superposition auf, die schließlich als EEG-Rhythmus lokal über einzelnen Gehirnarealen oder über größere Bereiche de-lokalisiert erscheint. Auch hier kam die aktuelle Forschung zu einem vergleichbaren Ergebnis: „The EEG waves associated with two distant neurons are strongly correlated and this supports the view that EEG waves are related to the properties of the brain as a coherent quantum system. It is not possible for a scalp EEG to determine the activity within a single dendrite or neuron. Rather, a surface EEG reading is the summation of the synchronous activity of thousands of neurons that have similar spatial orientation, radial to the scalp“ (Rahnama u. a. 2011: 81). Fourier-Transformation der einzelnen Frequenzen könnten vermutlich auch dies sichtbar machen.
8.3 Neurowissenschaften – Der Mensch als Entscheider
507
Hameroff und Penrose kamen in ihren Überlegungen nicht um die Tatsache herum, verschiedene Wissenschaften heranzuziehen. Ihr Spektrum umfasst die Allgemeine Relativitätstheorie, Quantenmechanik, Neurowissenschaften, Kognitionswissenschaften, Molekularbiologie und Philosophie (Hameroff und Penrose 2014a: 73).
Abb. 95 | Superposition neuronaler Aktivitäten - vom Tubulin-Dimer zum EEG Jede übergeordnete Ebene bringt jeweils eine Superposition basierend aus verschiedenen Frequenzen hervor, die von jeweils kleineren Entitäten und damit Informationseinheiten herrühren (eigene Darstellung).
Ihre Theorie ‚Orch OR’ (‚Orchestrated objective reduction’ – feinabgestimmte objektive Reduktion) können wir aufgrund der bisherigen Erkenntnisse zum Teil als bestätigt betrachten. Sie besagt, dass unser Bewusstsein aus einer Abfolge von diskreten Ereignissen entsteht, die jedes Mal einer quantenmechanischen Messung entsprechen und mithilfe der neuronalen Mikrotubuli in einen makroskopischen Zustand transferieren. Damit lässt sich die Brücke zwischen der mikroskopischen Quantenwelt und der makroskopischen biomolekularen Wirklichkeit definieren. Offen bleibt, ob das Bewusstsein tatsächlich damit erklärt werden kann. Unsere Wahrnehmung lässt sich daraus allerdings sehr wohl ableiten. 8.3.3.3 Anyonen, Quantenbiologie und Quantencomputing treffen sich auf neuronaler Ebene Ausgangspunkt für die folgenden Überlegungen sind das Verhalten der Neuronen, die als gitterartig angeordnetes An-Aus-Schaltelement betrachtet werden können (Musser 2018) und die Nichtexistenz eines Energieverlustes bei den eben vorgestellten Untersuchungen von Sahu u. a. (2013b). Letzteres weist auf supraleitende, quantenphysikalische Prozesse hin, für die es bisher noch keine vollständige Theorie gibt. Und auch eine von Tang/Dai sowie von Hameroff/Penrose noch nicht abschließend beantwortete Frage
508
8 Modellentwicklung von der Mikro- zur Makrowelt
wartet weiter auf ihre Erklärung: Wie kommt eine Verschränkung der Zellen zustande? Sie vermuten die Gap Junctions232 als ursächlich für die Verschränkung. Dem möchte ich vier alternative Erklärungen zur Seite stellen und damit auch diese Lücke schließen. Wie wir bisher sehen konnten, hat die Natur fast alle vom Menschen entwickelten Konzepte und Modelle bereits selbst entworfen und genutzt. 1. Photon-Tubuli-Photon-Kopplung Die erste Erklärung basiert auf den oben vorgestellten Beobachtungen und den Modellen in Kap. 8.1. Nach bisherigen Überlegungen lässt sich als erste Möglichkeit die Photon-Photon-Kopplung unter Zuhilfenahme der Tubuli als Verbindungsglied denken. Ausgedehnt auf das gesamte Neuron sollten die Photonen auch die Gap Junctions überwinden können und auf dieses Weise die Neuronen miteinander verschränken. 2. Anyonen und verallgemeinerter Josephson-Effekt Neue Entwicklungen beim Versuch Quantencomputer zum Laufen zu bringen, scheinen uns noch eine zweite Antwort auf obige Frage zur Verfügung stellen. In der Biologie, in der Quantencomputerentwicklung und im Gehirn existieren jeweils die gleichen Problemstellungen. Wie lassen sich kohärente Zustände über relevante Zeiträume aufrechterhalten und das bei Umgebungstemperatur, die als Voraussetzung für quantenphysikalisches Verhalten angesehen wird? Klassische Quantensysteme, im Gegensatz zu offenen Quantensystemen wie in der Biologie, sind sehr empfindlich gegenüber Wechselwirkungen mir ihrer Umwelt und reagieren bei der geringsten Interaktion mit dem Umfeld dekohärent. Der Überlagerungszustand dekohäriert (kollabiert) und das für ein Qubit typische Charakteristikum vieler gleichzeitiger Zustände fällt in sich zusammen. Als Folge kann ein System nur noch klassisch agieren, also so, wie es bisher in Biologie, Chemie und klassischer Physik gelehrt wird. Ein Ansatz bei der Entwicklung von Quantencomputern besteht demzufolge im bestmöglichen Abschirmen der Qubits von ihrem Umfeld. Zum Zweiten wird versucht mit allerlei raffinierter Tricks die Lebensdauer der Qubits zu erhöhen und damit ihre Fehleranfälligkeit zu reduzieren, denn die Überlebensdauer des Überlagerungszustandes und damit der Superposition muss deutlich größer sein als der einzelne Rechenschritt. Für diesen Rechenschritt geht man von ca. 1 ms aus. Aktuell lassen sich bereits Überlagerungszustände in gereinigtem Silizium von bis 30 Sekunden realisieren (Muhonen u. a. 2014) .
232
Gap Junction sind kleine Zellverbindungen zwischen Dendriten benachbarter Zellen. Man nimmt bisher an, dass sie zur Synchronisierung der Zellen dienen. Durch sie findet Kommunikation, also der Austausch von Signalen in Form von Ionen und kleinen Molekülen statt. Es handelt sich somit um das biomolekulare Pendant zur Frequenz- und Quantenkommunikation. Allerdings ist aus heutiger Sicht eine direkte Erregungs- und damit Signalübertragung auf weit entfernte Zellen ist nicht möglich.
8.3 Neurowissenschaften – Der Mensch als Entscheider
509
Entsprechend arbeitet der erste verkaufte 512 Qubit Quantencomputer bei sehr tiefen Temperaturen, nahe dem absoluten Nullpunkt. Er wurde im Mai 2013 von der kanadischen Firma D-Wave an Lockheed Martin, Google und die NASA geliefert233. Dabei handelt es sich um einen sogenannten adiabatischen Quantencomputer, der nur bestimmte Rechenoperationen zulässt. Das Realisierungsprinzip arbeitet hier mit einem Wechsel von Grundzustand und angeregtem Zustand eines speziell konstruierten Systems. Laut Veröffentlichung von Google Ende 2015 (Denchev u. a. 2015; Neven 2015) sind die erzielten Ergebnisse 108 (100 Millionen) mal schneller als herkömmliche Rechner und zweifelsohne auf eine quantenmechanische Arbeitsweise zurückzuführen. Die zunächst von Physikern und Computerspezialisten angemeldeten Zweifel scheinen widerlegt, worauf verschiedene Veröffentlichungen und Entwicklungen hinweisen (King u. a. 2018; D-Wave 2018; Musser 2018). Einen ganz anderen Ansatz versuchen die Forscher mit einem topologischen Quantencomputer zu realisieren. Topologisch, weil es um eine Ausbreitung im Raum geht, bei der die Information nur an der Oberfläche, nicht aber im Inneren transportiert wird. Nicht elektrische Ladungen, sondern Spin-Ströme fließen dabei an der Oberfläche ohne Energieverlust. Hierbei greift man auf exotische Quasiteilchen, den ‚Anyonen’ zurück (siehe dazu auch Kap. 8.1.1.4). Ihre Ausdehnung erfolgt nur im zweidimensionalen Raum und damit nur an der Oberfläche eines Systems. Die von den Anyonen ausgebildeten Zöpfe, sogenannte Brane, sind sehr robust gegenüber Wechselwirkungen auch bei Umgebungstemperatur und besitzen eine ausgezeichnete Erinnerungsfähigkeit. Sie bieten damit einen natürlichen Schutz gegen Fehler234 und äußere Störungen (Dekohärenz). Für den auf den Physiker Kitaev zurückgehenden Vorschlag Qubits aus Anyonen (Kitaev 2003; Wilczek 1991) herzustellen, bestehen mehrere Möglichkeiten der Realisierung. Im Zusammenhang mit dem Quanten-Spin-Hall-Effekt besteht die Option eines topologischen Isolators, der auch bei Umgebungstemperatur in Erscheinung treten kann. Die zweite Option wären spezielle Supraleiter, an deren Grenzflächen sich die Spins der Anyonen entlang bewegen können. Dass Anyonen keine theoretische Fiktion darstellen, zeigten Hsieh u. a. (Tillemans 2011; Hsieh u. a. 2009) mit einer Wismut-Antimon-Legierung erstmals 2004, die ihre schützenden Eigenschaften auch bei Raumtemperatur behielten. Mit der Realisierung von Materialien basierend auf Anyonen liefert die aktuelle Forschung neben der Quanten-Teleportation einen weiteren Nachweis, dass quantenphysikalische Prozesse auch für unsere normalen Umweltbedingungen als real angenommen werden müssen. Als Konsequenz lassen sich Verschränkungs-, Tunnel- oder Superpositionsprozesse als natürliche und für uns relevante Mechanismen definieren, die im Weiteren auf neuronale Prozesse angewendet werden. Betrachten wir die Holzylinder der Mikrotubuli, so könnten sie die zweidimensionale Struktur liefern, an deren Oberfläche die Spin-Ströme der Anyonen entlang fließen können. Gleichzeitig entspricht 233 234
Heute sind sie bei 2.000 Qubits angekommen (Bleicher 2018). Als weitere Strategie werden Algorithmen entwickelt, die auftretende Fehler beheben sollen. Man spricht hier auch von einer sogenannten Quantenfehlerkorrektur.
510
8 Modellentwicklung von der Mikro- zur Makrowelt
dies den tatsächlich gemachten Beobachtungen in der Forschung. In Verbindung mit der Zeit könnten sie zudem die stabilen Brane konstituieren und böten eine natürliche Robustheit gegenüber Einflüssen des lokalen Umfeldes. Mithilfe des verallgemeinerten Josephson-Effekts (Josephson 1962) (Abb. 57 zeigt den Josephson Effekt im ursprünglichen Sinn) bestünde zudem ein Mechanismus, um die Räume zwischen den Nervenzellen zu überwinden und ein übergreifendes kohärentes System zu bilden. Ein kohärentes Gesamtsystem, in dem sich Informationen entsprechend der quantenphysikalischen Wellenausbreitung bewegen können, wie es bei den Bakterien in Kap. 8.2 beobachtbar war. Neben der quantenphysikalischen Wellenausbreitung lassen vier weitere Beobachtungen diese Möglichkeit als wahrscheinlich erscheinen: a) Sahu u. a. führten aus, wie oben bereits beschrieben, dass der Prozess der Informationsweiterleitung in den Mikrotubuli als auch die Informationsspeicherung ohne Energieverlust vonstatten geht – ein typisches Phänomen auch von Supraleitern (Sahu u. a. 2013b) (Kap. 8.1). b) Die Zylinder der Mikrotubuli entsprechen der Forderung an Anyonen nach zweidimensionalen Materialien (Wilczek 1991: 60), genauso wie die Axone als Ganzes, da sie im Grunde nur aus hohlen Zylindern aufgebaut sind. c) Die Anyonen tragen die Möglichkeit in sich zwischen zwei Zuständen zu wechseln, was mikroskopischen Schaltkreisen entspricht und von Sahu u. a. ebenfalls im Zusammenhang mit Informationsspeicherung beobachtet wurde (Sahu u. a. 2013b). Kitaev hat genau auf diese Möglichkeit der Anyonen verwiesen, als er sie als Qubits vorschlug (Kitaev 2003). Zudem verwenden die Forscher bereits heute Qubits, die auf Schaltkreisen von Supraleitern basieren und nutzen dort den Josephson-Effekt (Gibney 2014) auch zur Fehlervermeidung (Barends u. a. 2014). Bei den Supraleitern fließt der Strom, respektive die Information, in beide Richtungen gleichzeitig. Damit wären auch die rekursiven Schleifen, wie sie die Neurowissenschaftler festgestellt haben, mit einem Mechanismus hinterlegt, der keinen Zeitverlust hätte. Quantenphysikalisch fließt die Information allerdings nicht, sondern ist instantan über einen kohärenten Raum verteilt. d) Die aneinander liegenden Protofilamente der Mikrotubuli (Abb. 94) bilden mit ihrer unterschiedlichen Ladungsrichtung genau die Grundstruktur einer Supraleitung. Mithilfe des hier beschriebenen Mechanismus einer Josephson-Brücke wird die von Hameroff und Penrose angenommene Überlagerung in Form eines ‚Dipol-Qubit in Mikrotubuli’ (Hameroff und Penrose 2014a: 48) (Abb. 96) vorstellbar und wurde auch schon als Schaltelement nachgewiesen (Sahu u. a. 2013b). Nur würde die Überlagerung nicht innerhalb eines Protofilaments (rote bzw. grüne Reihe in Abb. 94) aufgebaut, sondern über zwei aneinander liegende Protofilamente bzw. letztlich über den gesamten Mikrotubulus und vermutlich auch über die anderen angrenzenden Mikrotubuli und Neuronen.
8.3 Neurowissenschaften – Der Mensch als Entscheider
511
Großflächige Kohärenzen über räumlich ausgedehnte Gehirnareale wären mit diesem Mechanismus letztlich ebenfalls verständlich und eine Folge von stabilen Verschränkungsprozessen, wie sie heute für Quantencomputer noch gesucht werden. Möglicherweise bestehen mit dem kohärenten, in den Zylindern der Mikrotubuli befindlichen Wasser und einem hier entworfenen Anyonen-Prozess zwei unabhängige oder sich sogar unterstützende quantenmechanische Optionen. Eine Vielfalt, wie es für die Natur, auch aus der Perspektive von Eagleman als klassischem Neurowissenschaftler, selbstverständlich ist. Er hat erkannt, dass sämtliche neurowissenschaftlichen Prozesse in vielfältiger Weise angelegt sind, immer mit kleinen Modifikationen versehen.
Abb. 96 | Dipol-Qubit in Mikrotubuli als klassischer (links) und als Quanteninformations-Zustand (rechts). Image dem Paper von Hameroff und Penrose entnommen (Hameroff und Penrose 2014a). Links der geschweiften Klammer die beiden möglichen Ladungsrichtungen. Rechts der Klammer die aus der Supraleitung bekannte Überlagerung, bei der der Strom in beide Richtungen gleichzeitig ohne Energieverlust fließen kann.
Dass ein solcher Anyonen-Mechanismus nicht nur theoretisch gedacht werden kann, sondern solche Spin-Ströme auch gemessen werden können, bleibt die Aufgabe weiterer Forschung. Als Grundlage können vermutlich die Arbeiten von Brüne u. a. (2012) und Zhou und Zhang (2012) genutzt werden, die entsprechende Methoden bereits 2012 veröffentlichten. Meine Überlegungen zu einem möglichen Anyonen-Prozess auf neurologischer Eben möchte ich mit der Aussage von Wilczek, einem Nobelpreisträger und Vordenker zu den Anyonen schließen: „Unsere Erfahrung hat gezeigt, dass in der Natur jede einzelne der einfachen und konsistenten Möglichkeiten, mit deren die Quantenmechanik die Materie zu beschreiben sucht, auch realisiert ist! Ich bin daher sicher, dass man noch an vielen anderen Stellen auf Anyonen stoßen wird“ (Wilczek 1991: 62).
512
8 Modellentwicklung von der Mikro- zur Makrowelt
3. Organische Supraleiter und koplanarer welleleitender Resonator Eher spekulativ ist dagegen ein anderes aus Kap. 8.1.2.3 abgeleitetes Modell. Der Aufbau von Mikrotubuli weist auf eine Kombination aus organischem Supraleiter und koplanarem welleleitenden Resonator (KWR) hin. Die benötigten übergreifenden EMKomponenten könnten über die Schuhmann-Resonanz zur Verfügung gestellt werden. Der KWR richtet die Wassermoleküle, vergleichbar dem MRT, im Inneren aus und reagiert auf Veränderungen im Umfeld. Der Aufbau der Mikrotubuli wiederum ist vergleichbar eines organischen Supraleiters (Lebed 2008; Dressel und Drichko 2004; Ishiguro u. a. 1998; Little 1964). Der Aufbau organischer Supraleiter, die technisch hergestellt werden, besteht aus zweidimensional angeordneten, organischen Molekülen. Sie leiten Strom bei Zimmertemperatur wie gewöhnliche Metalle, im abgekühlten Zustand werden sie jedoch supraleitend. Der Ladungstransport findet bei ihnen ebenfalls nur an der Oberfläche statt. Meine Annahme ist nun, dass Mikrotubuli zum einen äquivalente Hohlräume zu den Mikrowellen-Resonatoren bilden, in denen sich entsprechende Eigenresonanzen aufbauen können. Zum anderen ermöglicht die Struktur der Mikrotubuli, als gegenläufige Dipole konfiguriert, die Bildung von Energiebändern analog zu Supraleitern. Bereits ihre Verdrillung bildet ein Pendant zu den Energiebändern, wie wir sie bei den Anyonen und den Phasenübergängen kennengelernt haben, die hochstabil gegen Umwelteinflüsse sind. Es lässt sich deshalb weiter eine Kombination von Cooper-Paaren erwarten, die zwischen den beiden verdrillten Proteinsträngen der Mikrotubuli einerseits und auch zu den Wassermolekülen im Inneren der Mikrotubuli existieren. In ihnen ist deshalb eine übergreifende Kohärenz durch den verallgemeinerten Josephson-Effekt möglich. Als Folge ergibt sich ein hochkohärentes System, welches über das gesamte Nervensystem verteilt ist und durch schwache Kopplungen mit dem Umfeld feinste Veränderungen registrieren kann. Diese Kopplung ergibt sich analog den verschiedenen Verschränkungsmethoden aus Kap. 8.1.2.3, z. B. der Resonatoren mit Atomen, Spins und NVLeerstellen oder durch Cooper-Paare bei denen im System verteilte Spins der Elektronen wechselwirken. Möglicherweise können auch die in den Mikrotubuli transportieren Stoffe hierbei eine relevante Rolle spielen. 4. Stickstoff (N)–Fehlstellen (V)-Defekt wie bei Verschränkung von Diamanten Die NV-Leerstellen-Defekte bilden aus meiner Sicht die aussichtsreichste Antwort auf die Frage von Hameroff und Penrose (2014a): Wie kommt eine Verschränkung der Nervenzellen (über die Synapsen-Dendriten-Spalte) zustande? Damit wird auch ein Modell angeboten, das die Rolle der Leerstellen zwischen Synapsen und Dendriten in ein neues Licht rückt. Neben der Suche nach Modellen, die eine übergreifende Quanten-Kohärenz in den neuronalen Systemen beschreiben kann, stellte sich immer wieder eine Irritation darüber ein, weshalb hier keine direkte Verbindung existiert, sondern ein breiter Spalt übersprungen werden muss. Betrachtet man das Geschehen in diesem Bereich genauer, drängt sich die Idee einer homologen Verbindung zu den in Kap. 8.1.2.3. vorgestellten
8.3 Neurowissenschaften – Der Mensch als Entscheider
513
NV-Defekten und einer damit ermöglichten stabilen Verschränkung auch unter normalen Umweltbedingungen auf. Zur besseren Veranschaulichung noch einmal eine kurze Darstellung der wichtigsten Merkmale zu diesem Thema: In Kap. 8.1.2 ergab sich die Möglichkeit (Quanten-)Informationen an der Oberfläche von zwei-dimensionalen Strukturen zu speichern. Darüber wurde nachgewiesen, dass der Spin der Atomkerne ebenfalls in der Lage ist Quanteninformation zu speichern. Aus Sicht der Forscher können auf diese Weise Milliarden von NV-Defekten (bei Diamanten) kollektiv verschränkt werden (Astner u. a. 2017; Vienna University of Technology 2017) und so Ensembles mittels virtueller Photonen über Hohlräume und Defekte hinweg koppeln. Die darauf aufbauenden NV-basierte Sensoren sind in der Lage, einzelne Spins auch in thermischen Umgebungsbedingungen zu detektieren (Bruderer u. a. 2016; Wu u. a. 2016; McGuinness u. a. 2013). Kohlenstoff ist der Grundstoff unserer Zellen und damit auch der Neuronen. Stickstoff wird durch das Blut ebenfalls ins System transportiert und fungiert als Stickoxid NO im Gehirn als Neurotransmitter, der sehr schnell in die Zellen diffundieren kann und weitreichende Aufgaben übernimmt. „The discovery that nitric oxide (NO) functions as a signalling molecule in the nervous system has radically changed the concept of neural communication. […] NO is synthesized on demand and is neither stored in synaptic vesicles nor released by exocytosis, but simply diffuses from nerve terminals. The distance of this NO diffusion (40± 300 μm in diameter) implies that structures in the vicinity of the producing cell, both neuronal and non-neuronal, are influenced following its release“ (Esplugues 2002: 1079). Nach dem Verständnis der Neurowissenschaften sind Neurotransmitter biochemische Stoffe, die in der Nähe des synaptischen Spaltes freigesetzt werden und für die Reizübertragung zwischen Nervenzellen verantwortlich sind. Sie können hemmend und erregend wirken (Engel u. a. 2016: 124–129). Die beteiligten Protagonisten sind somit die gleichen wie bei den NV-Defekten in Diamanten: Kohlenstoff, Stickstoff und Leerstellen, die durch die Diffusion des Stickstoffs in den Spalt entstehen. Denn interessanterweise wird N (bzw. die modifizierte Form NO) in beiden Kontexten in Verbindung mit Leerstellen aktiv (Abb. 97). Dieser Prozess hilft offensichtlich Entfernungen zu überbrücken. Der Prozess der Diffusion scheint damit prinzipiell vergleichbar dem Prozess in der Präparation der Diamanten im Verschränkungsexperiment der Wiener Forscher. Interpretation der ausgewerteten Forschungen Es wurde offensichtlich, dass es zahlreiche Prozessoptionen für rein quantenphysikalisch getragene Verschränkungen gibt. Von der (1) Photon-Tubuli-Photon-Kopplung über (2) Anyonen und einem verallgemeinerten Josephson-Effekt, dem (3) organischen Supraleiter und koplanaren Resonatoren bis hin zu (4) Verschränkungen mittels NVDefekten. Voraussetzung für die Gültigkeit solcher Prozessbeschreibungen ist eine tatsächliche Fähigkeit der Natur sich entsprechend zu verhalten. Mit den Erkenntnissen aus Kap. 8 und den beobachteten Phänomenen, die ansonsten nicht erklärbar wären, darf die These der Übertragbarkeit wohl angenommen werden.
514
8 Modellentwicklung von der Mikro- zur Makrowelt
Bilden (1) bis (3) Optionen in und zwischen den Mikrotubuli bzw. innerhalb der Neuronen ab, so bietet (4) die Option für neuronenübergreifende Verschränkung. Auf Letztere soll bei dieser Interpretation vertieft eingegangen werden.
Abb. 97 | NV-Verschränkung bei Neuronen analog der NV-Verschränkung zw. Diamanten. Image links: eigene Darstellung; Image rechts basierend auf (Xiang u. a. 2013). Wie bei der Verschränkung zwischen Diamanten, bei denen eine solche Verschränkung mittels der Stickstoff-FehlstellenKopplung realisiert wird, kann der gleiche Prozess für die Verschränkung zwischen Synapsen angenommen werden. Die Neurotransmitter (NO-Moleküle) werden in der Nähe des synaptischen Spaltes freigegeben und wandern zum Dendrit. Im Axon bleibt eine Leerstelle zurück. Wenngleich kein reiner Stickstoff (N) wie bei Diamanten vorliegt, so ist doch N auch hier beteiligt.
Die Fehlstellen-Kohärenz in Diamanten weist eine analoge Struktur zu den Quantenprozessen in biologischen Systemen auf, bei denen sich ebenfalls Unterbrechungen und Fehlstellen als hilfreich für großflächige Kohärenzen herausgestellt haben. Es scheint sich hier um vergleichbare Konstellationen zu handeln. Es liegt deshalb nahe, dieses Prinzip auch für Prozesse im Gehirn anzunehmen. Verschränkungen über Stickstoff und Fehlstellen könnten somit ebenfalls die hohe Geschwindigkeit der Informationsübertragung bzw. Informationsnutzung erklären. Jedes Neuron repräsentiert eine gespeicherte Information, die zunächst von den Nachbarneuronen isoliert ist. Über die Verschränkung mittels NV-Defekten und unter Beihilfe der Biophotonen würden alle in den unterschiedlichen Nervenzellen lokal gespeicherten Informationen miteinander in Kontakt gebracht und können so ein Gesamtbild aufbauen. Mit den Anwendungen solcher NV-Defekte zur Messung einzelner Spins in biologischen Systemen bei Umgebungsbedingungen steht zudem bereits ein technisches Pendant zur Verfügung und untermauert damit eine realistische Option. Ergänzend ergibt sich eine Hypothese in Bezug auf die Neurotransmitter, die ein völlig neues Verständnis über biochemische Prozesse und die Neurotransmitter im Besonderen ermöglichen. Die Umwandlung der Aktionspotentiale der Neuronen in chemische Verbindungen ist möglicherweise nur das sichtbare Nebenprodukt bzw. ein unterstützender Prozess und rechtfertigt nicht die Annahme einer chemischen Informationsweitergabe. Ihr Hauptzweck könnte die Bereitstellung von Verschränkungsbrücken im Gesamtsystem sein.
8.3 Neurowissenschaften – Der Mensch als Entscheider
515
8.3.3.4 Spiegelneuronen – eine quantenphysikalische Annäherung Was wirkt da eigentlich? Theorieentwurf zum Verständnis des Auftretens von Spiegelneuronen Nach den nun vorliegenden Experimenten, theoretischen Modellen und daraus abgeleiteten Erkenntnissen soll nun der Versuch unternommen werden, das Auftreten von Spiegelneuronen damit in Übereinstimmung zu bringen. Dem liegt die Annahme zugrunde, dass Spiegelneuronen die erste Erscheinung auf Gehirnebene sind, die physiologisch beobachtet werden kann235. Oder anders formuliert: Sie repräsentieren die ersten wahrnehmbaren Wirkungen einer zugrundeliegenden Resonanz mit anderen Frequenzfeldern und nicht-lokalen Korrelationen. Ausgangsbasis und Hintergrund In Kap. 5.2.8 wurden die wichtigsten Hintergründe und Forschungen bereits vorgestellt. Deshalb auch hier nur eine kurze Zusammenfassung zur besseren Orientierung. Wird eine Person bei einer Tätigkeit beobachtet, so können die gleichen neuronalen Aktivitäten bei dem Beobachter registriert werden, wie sie bei dem Handelnden selbst auftreten. Tatsächlich können aber auch Intentionen erkannt werden, also eine vom Handelnden nur gedachte Aktion. Da es so aussieht, als spiegeln die Neuronen des Rezipienten die Neuronen des Handelnden wieder, wurden sie Spiegelneuronen genannt. Wie in den unterschiedlichsten Kontexten dieser Forschung offensichtlich wurde, gelingt diese Spiegelung auch über Entfernung und in EM-abgeschirmten Experimenten. Drei Gehirnareale standen zunächst im Mittelpunkt der Spiegelsystemforschung: Bewegung, Hören und Sehen (Abb. 98). Bis heute sind Neurowissenschaftler kontinuierlich dabei weitere Areale des Gehirns zu entdecken, in denen Spiegelneuronen in Erscheinung treten (Waytz und Mitchell 2011). So zählen beispielsweise die von Hutchison beobachteten mitfühlenden Schmerz-Nervenzellen zum limbischen Spiegelsystem (Hutchison u. a. 1999). Dabei lassen sich zwei Formen von Spiegelneuronen unterscheiden: Diejenigen, die imitieren und diejenigen, die ein Verstehen repräsentieren (Iacoboni und Mazziotta 2007): 1. Strikt kongruente Spiegelneuronen – feuern bei der exakt gleichen Handlung, egal ob selbst ausgeführt oder beobachtet. Circa ein Drittel der Spiegelneuronen entsprechen diesem Typ. 2. Allgemein kongruente Spiegelneuronen – feuern bei Aktionen, die entweder logisch damit verbunden sind oder auf das gleiche Ziel hinsteuern. Die Aktionen müssen also nicht exakt gleich sein wie bei den strikt kongruenten. Circa zwei Drittel aller Spiegelneuronen entsprechen diesem Typ.
235
Wesentliche Inhalte wurden aus der Erstveröffentlichung 2015 übernommen (Gehlert 2015a).
516
8 Modellentwicklung von der Mikro- zur Makrowelt
Abb. 98 | Die ersten entdeckten Spiegelneuronen fanden sich u. a. im Motor-, Auditiven- und Visuellen-Cortex. (eigene Darstellung)
Bemerkenswert erscheint, dass die allgemein kongruenten Spiegelneuronen im Verhältnis doppelt so häufig auftreten als die strikt kongruenten. Damit scheint die Entwicklung mehr Wert auf Intention als auf äußere Formen zu legen. Das heißt, es scheint uns mitgegeben zu sein, versteckte Informationen wahrzunehmen und damit hinter die Kulissen sehen zu können. In der Spiegelneuronenforschung selbst gibt es derzeit keine Zweifel bei den Experten bezüglich deren Existenz, wohl aber darüber, wie relevant sie für die verschiedenen Untersuchungsfelder (Medizin, Lernen, Empathie ...) tatsächlich sind (Hawco u. a. 2017; Schulte-Rüther u. a. 2017; Kanske u. a. 2016; Vivanti und Rogers 2014). Man vermutet, dass Spiegelneuronen zudem auch in höheren kognitiven Prozessen und beim Einfühlungsvermögen eingebunden sind (Hawco u. a. 2017; Nelissen u. a. 2011). Iacoboni selbst schreibt in seinem Abstract (Iacoboni u. a. 2005), dass diese Fähigkeit des Wahrnehmens und der damit verbundene neurale und funktionale Mechanismus heute noch kaum verstanden ist. Daran hat sich wenig geändert (Singer 2012). Was sich dennoch immer mehr herausschält, ist die Relevanz des Zusammenspiels von Spiegelsystem und Mentalizingsystem für soziale kognitive Prozesse und damit das Wahrnehmen von Gefühlen und Absichten von anderen (Hawco u. a. 2017). Bemerkenswert ist noch, dass auch bei Spiegelneuronen limitierende Faktoren existieren. So wurde deutlich (Kanske u. a. 2016), dass zu starke Emotionen bzw. zu starke Empathie die mentale Einschätzung, wie es dem Gegenüber geht oder was bei ihm vor sich geht, beeinträchtigen kann. Es braucht also so etwas wie eine ‚professionelle Distanz’, wie sie in den Ausbildungen therapeutischer Berufe vermittelt wird. Eine gelassene ruhige Aufmerksamkeit bei gleichzeitig empathischem Verhalten, etwas, was heute unter dem Konzept des ‚Mindfulness’ geschult wird (sog. ‚Aufmerksamkeitstrainings’). Aktuell werden vor allem auf dem Gebiet der Neurowissenschaften und Medizin versucht Antworten für Krankheitsbilder, Lernprozesse u. ä. zu finden. Konsequenterweise bedienen sich auch einige Grenzwissenschaften der Ergebnisse zur Erklärung bisher nicht erklärbarer, unverstandener Phänomene. Die Forschung konzentriert sich dabei auf den Moment des Auftretens und der dann ablaufenden Prozesse im Körper. Das
8.3 Neurowissenschaften – Der Mensch als Entscheider
517
Phänomen selbst, wie die Information (mentales Bild, Befindlichkeit, Intention) von einer Entität in das Gehirn der anderen Entität kommt, bleibt unberücksichtigt. Gleichwohl ist diese Schwäche auf der Erklärungsseite erkannt. „Another challenge for social neuroscience (and cognitive neuroscience in general) is moving from the mere description of brain regions or networks involved in the processing of socially relevant stimuli to causal models which could account for the entire loop of social information processing within and between brains. Getting at causality is obviously the goal of most scientific endeavors but very often hard to achieve“ (Singer 2012: 444). Nicht nur in ihren Augen liegt die Schwierigkeit dies zu erreichen sowohl in der Form der Messmöglichkeiten und Techniken236 als auch in der Herausforderung neue Paradigmen zu generieren (ebd. 444-445). Singer weist in ihren weiteren Ausführungen zu Recht darauf hin, dass es nicht ausreicht zu verstehen, wie Gedanken, Gefühle und Überzeugungen mit unserem sozialen Kontext zusammenhängen und wie wir darauf aufbauend selbiges von anderen Menschen voreingenommen aufnehmen. „We also need to understand how we communicate thoughts and feelings to another mind to enable this other person to build a representation of our thoughts and feelings in his or her own brain and then, in a next step, feed this back to us so that we can correct this representation in case of mismatch“ (ebd. 445). Zusammenhang von Spiegelneuronen und Gehirnwellen Die Gehirnforschung hat heute einige Kenntnisse darüber, wann und wo welche Gehirnwellen gemessen werden und in welchen Wechselwirkungen diese stehen. Wie unter Kap. 8.3.2.1 herausgearbeitet weiß man, dass Alpha-Wellen vorzugsweise kurz vor dem Einschlafen und sofort nach dem Aufwachen dominant in Erscheinung treten. Man weiß auch, dass in diesem Zustand eine körperliche Entspannung bei gleichzeitig besser Wahrnehmungs- und Lernfähigkeit gegeben ist. Eine über das Gehirn ausgestreckte kohärente Alpha-Schwingung verbessert die Wahrnehmungsfähigkeit sowie ein ganzheitliches und nachhaltiges Lernen, was heute in modernen Lehransätzen Anwendung findet, genauso wie im Kontext von Empathie und Theory of Mind: Spiegelneuronen „underlies a simulation mechanism that allows us to experience and understand others’ minds“ (ebd. 13). Die in Kap. 8.3.2.1 beschriebenen Alpha-Wellen (8 – 13 Hz) werden gewöhnlich dem in Ruhe befindlichen visuellen Cortex (Gehirnrinde, die zum visuellen System gehört) zugeordnet. Heute ist jedoch bekannt, dass die Alpha-Band-Aktivitäten in allen Gehirnarealen auftreten, mit vergleichbaren Eigenschaften (Hobson und Bishop 2017: 10). Das Pendant zu den Alpha-Wellen des visuellen Cortex sind im Motorcortex die MuWellen237, ebenfalls 8 – 13 Hz (ebd. 1). Hobson und Bishop weisen in ihrer Untersuchung darauf hin, dass Mu-Wellen nicht nur mit dem klassischen Spiegelneuronen236
237
Singer liefert einen umfangreichen Überblick über unterschiedlichste Forschungen, Methoden und Techniken und zugehörige Links. Mu-Wellen werden alternativ auch Mu-Rhythmus oder My-Aktivität genannt.
518
8 Modellentwicklung von der Mikro- zur Makrowelt
system in Wechselwirkung stehen, sondern sich auch in Verbindung mit anderen Gehirnarealen befinden (ebd. 6). Rhythmus und Amplitude der Mu-Wellen reflektieren die Ruheaktivität des Motorcortex. Der Motorcortex kontrolliert und reguliert die freie Bewegung. Reale oder auch nur vorgestellte Bewegungen genauso wie beobachtete Bewegungen von anderen blockieren diese Mu-Aktivitäten und damit das Spiegelneuronensystem, weil sich die Aktivitäten im Motorcortex erhöhen und die Asynchronizität zunimmt. Damit geht eine Reduzierung der Amplitude der Mu-Wellen bei gleichzeitiger Verschiebung hin zu Beta-Wellen einher (ebd. 11). Bin ich aktiv, bewege ich mich oder beobachte andere dabei, erhöht sich das Aktionspotential in Bezug auf meine eigenen Aktivitäten im Motorcortex, gefolgt von einer Reduzierung meiner Sensibilität in Bezug auf andere. Interpretation der ausgewerteten Forschungen Die Fähigkeit, empathisch mitzufühlen oder Intentionen von anderen wahrzunehmen, geht einher mit dem Phänomen der Spiegelneuronen. Entsprechend ist eine der Interpretationen, dass die neuronalen Aktivitäten des Rezipienten den Sender oder besser die Quelle der Information selbst abbilden: „to understand what others are doing, we simulate their movements using our own motor program; to understand what others are feeling, we simulate their feelings using our own affective programs“ (Singer 2012: 439– 440). Gehirnaktivitäten des Handelnden oder Denkenden lassen sich in den gleichen Gehirnarealen auch beim Wahrnehmenden beobachten. Die damit verbundene Schlussfolgerung führt zur Idee, dass die wahrnehmende Person deshalb auch die gleichen Empfindungen und Ideen bekommt, wie sie die zu beobachtende Person hatte. Voraussetzung dafür muss eine Ähnlichkeit in der Programmierung/Codierung der entsprechenden Neuronen sein. Entsprechend lassen sich die vorgestellten Brain-to-Brain-Experimente (Kap. 8.3.2.3 und 8.3.2.4, Übertragung per Internet und nicht-lokal zw. Deutschland und England) interpretieren. Aufgrund der niedrigen Wahrnehmungsschwelle bedarf es einer hohen Aufmerksamkeit für diese schwachen Signale. Eigene Aktivitäten überlagern sehr schnell diese Schwelle und führen zu einer scheinbaren Unsensibilität und Nicht-Wahrnehmungsfähigkeit. Da EEG-Wellenformen durch eine große Anzahl von synchron feuernden Neuronen veranlasst werden, ist es zulässig von kohärenten Wellenpakten zu sprechen. Das Gesamtwellenpaket entspricht allerdings einer Superposition unterschiedlichster Frequenzen und damit Informationen. Es erstreckt sich über den gesamten betroffenen Cortex bzw. über weite Gehirnareale mit ähnlichen Frequenzbereichen und veranschaulicht dabei auch deren Interferenzfähigkeit. Impulse, die in einzelnen Gehirnarealen wahrgenommen werden, wirken deshalb sofort in allen mitinvolvierten Arealen. Im Umkehrschluss erfolgt eine Desynchronisation und damit Unterdrückung der MuWellen durch eigene Bewegung und Beobachtung von Aktionen anderer. Entsprechend verändern beispielsweise visuelle Aktivitäten die Synchronisierung über dem visuellen Cortex dann in Richtung Beta-Wellen oder bei Reduzierung Richtung Theta- und Delta-
8.3 Neurowissenschaften – Der Mensch als Entscheider
519
Wellen. Eigene Bewegungen bzw. Aktivitäten führen zur Dominanz des Egos. Verständlich wird deshalb auch, weshalb bei eigenen starken Aktivitäten die Wahrnehmungs- und Empathiefähigkeit nachlässt und sich die Spiegelneuronenaktivitäten reduzieren. Wir bekommen schlicht nichts mehr von anderen mit, weil sich die Interferenzmöglichkeiten reduzieren und sich ein dekohärenter Zustand ausbildet. Ein adäquates Modell zum Verständnis der Spiegelneuronen ergibt sich nun, aufgrund der bisherigen Überlegungen, fast zwangsläufig: 1. EM-Prozess: Die in Spins und EM-Wellen codierten Informationen treffen auf Retina, Ohr oder Haut/Haare. 2. Werden von dort über das Nervensystem ins Gehirn geleitet. 3. Die im Gehirn ankommenden EM-Wellen werden (a) in Form eines Hologramms oder (b) als Quantenrechenprozess miteinander in Beziehung gebracht, wobei die Spins bzw. Atome als Qubits fungieren. Interferenzen bzw. Interaktionen erfolgen nur, wenn ankommende und vorhandene Information Gemeinsamkeiten aufweisen. 4. Als Ergebnis erhält die wahrnehmende Person Bilder oder körperliche Wahrnehmungen, die den Zustand des Gegenübers repräsentieren. 5. Aufgrund der Gefahr von Überlagerung solcher Wahrnehmungen durch Aktivitäten des Motorcortex (Mu-Wellen-Unterdrückung), also eigener Handlungen, bedarf es der Fähigkeit, ausreichend lange in einem ruhigen, entspannten Modus zu bleiben. 6. Das Auftreten von Spiegelneuronen auch bei nicht-lokalen Versuchsanordnungen verweist zudem auf einen QT-Prozess zw. lebenden Systemen. 8.3.3.5 Conclusio zu Alternativen und quantenphysikalischen Überlegungen Aus den Neurowissenschaften wissen wir also, dass auch bei Menschen kohärente EMFelder auftreten, die messbare EM-Wellen erzeugen und als Folge biologisch-chemische Prozesse im Gehirn veranlassen. EM-Wellen ihrerseits interferieren, so sie zeitlich und räumlich gleiche Amplituden aufweisen. Aus der Arbeit mit Photonen (Lichtwellen) und aus der Quantenphysik wissen wir darüber hinaus, dass sich auf diese Weise Informationen austauschen und im Gesamtsystem verteilen lassen, wodurch sich eine Superposition aller Informationen im kohärenten System ergibt. Diese Superposition hält, solange sie nicht gestört wird. Störungen führen zur Manifestation und werden damit für uns wahrnehmbar. Sie treten sozusagen in UNSERE Welt. Unklar ist derzeit noch, ob diese Interferenzen als Hologramme zu interpretieren sind, wie es einige Forscher vermuten (Pribram 2007; Schempp 1992) und dies mittlerweile auch schon für einzelne Photonen nachgewiesen wurde (Chrapkiewicz u. a. 2016), oder ob es sich um ein weiteres Supportsystem handelt, das quantenphysikalische Rechnungen auf QubitEbene der Spins, Elektronen oder Atome ermöglicht, wie es im vorherigen Kap. 8.3.3.3. dargestellt wurde. In jedem Fall sind auf Basis der in diesem Kap. 8.3.3 entwickelten Zusammenhänge mehrere Szenarien denkbar. Zum einen bietet sich die Option eines klassischen EM-
520
8 Modellentwicklung von der Mikro- zur Makrowelt
Prozesses an, bei dem die Frequenzen und Eigenfrequenzen der Neuronen die codierte Information transportieren. Zum anderen lassen sich die Mikrotubulistrukturen auch als (optischer) Mikrowellen-Resonator denken, mit dessen Hilfe ein quantenphysikalischer Prozess beschrieben werden kann. Weitere Forschungen müssten zeigen, inwiefern die Strukturen in den Zellen solche Resonator-Effekte ermöglichen können. Vielleicht unterstützen Anyonen, wie sie im Modell entwickelt wurden, sogar die Isolation der Hohlräume und verstärken zusätzlich die Wirkungsweise als Resonator. Gammawellen und die SCP-Wellen stellen zwei Frequenzbereiche zur Verfügung, mit deren Hilfe das gesamte Gehirn und damit alle Neuronen in Verbindung gehalten werden. Sie stellen so sicher, dass neue Informationen die jeweilige Gehirnregion erreichen. Mit der Erwartungshaltung werden im Bereich SCP die speziellen Schwellenwerte reduziert, die aufgrund von Vorerfahrungen bereits resonanzfähig sind, um die themenspezifische Empfindlichkeit und Wahrnehmungsfähigkeit zu erhöhen. Mögliche Antworten bzw. passende Informationen sind durch ähnliche Frequenzen oder Spinkonfigurationen gekennzeichnet. Bei Kontakt werden in den Arealen reduzierter Schwellenwerte erste Aktionen gestartet. Mithilfe der dabei ausgestoßenen NO-Neurotransmitter entsteht eine Verstärkung von spezifischen Verschränkungszuständen. Erhöhung der Kohärenzzustände und damit ein weiteres Anwachsen der BP sind die Folge, womit ein Anstieg an physiologischen Signalen einhergeht, bis sie in unser Bewusstsein treten. Veränderung des Fokus stoppt den Nachschub an Neurotransmittern bestimmter Neuronen und da die alten Neurotransmitter nach der Ausschüttung schnell abgebaut werden, lösen sich die alten, speziellen Verschränkungszustände auf. An deren Stelle treten Verschränkungen von Neuronenclustern, die wieder mit der neuen Frage in Resonanz stehen. Dieser Vorgang entspricht der Änderung der Magnetfelder im Diamantenexperiment. Bestimmte Verschränkungen und damit Messungen können auch auf Körperebene an- und ausgestellt werden. Die gemessenen bio-chemischen Geschwindigkeiten zur Freistellung der Neurotransmitter zur Signalüberbrückung des Synapsen-DendritSpaltes entsprechen durchaus den Zeiten, die für relevante quantenbasierte Kohärenzzeiten benötigt werden. Übertragung auf SyA Dieser Prozess ist analog bei SyA oder bei systemischer Arbeit beobachtbar ist. Je nachdem welches System vom Umfeld unterschieden wird, je nachdem ändern sich die Beobachtungen und Informationen. Mit Konzentration auf eine bestimmte Fragestellung ändert der Forscher im übertragenen Sinne seine Magnetfeldrichtung. Bei jeder Fragestellung werden bestimmte Neuronen und damit verbundene Frequenzbänder sensibilisiert, die in Wechselwirkung treten können. Die Erwartungshaltung des Gehirns übernimmt dann die weitere Steuerung. Es sucht aus allen verfügbaren Frequenzen respektive Quanteninformationen die heraus, die am besten zur Frage passen und stellt diese Information dem Bewusstsein zur Verfügung. Die Informationen werden in der für das jeweilige Individuum am besten passenden Form angeboten. Hier kommen das Wissen, der Kontext und die Erwartungshaltung ins Spiel. Mit Zunahme der direkten Erfahrung
8.3 Neurowissenschaften – Der Mensch als Entscheider
521
in einem Thema werden die Bilder immer deckungsgleicher. Mit Abnahme der Erfahrung werden die zur Verfügung gestellten Bilder immer analoger. Hier setzt das Bedeutungs- und Übersetzungsproblem an, weshalb jede Wahrnehmung, auch in einer SyA, mit gebotener Vorsicht zu interpretieren ist. 8.3.4
Neues Modell als Beitrag zur Theory of Mind
So langsam schließt sich der Kreis und es darf der Bogen zurück zur strategischen Unternehmensführung und Entscheidungstheorie geschlagen werden. In beiden Kontexten werden Theorien benötigt, die das Verhalten Anderer und damit verbundene Unbestimmtheiten berücksichtigen müssen. Mit diesem Themenkreis beschäftigt sich auch die Theory of Mind (ToM), welche als letzter Aspekt in dieses Kapitel integriert wird. ToM, auch verstanden als ‚active perspective taking’ oder ‚mentalizing’, „refers to a person's ability to make attributions about mental states such as intentions, desires or beliefs to others (and oneself) and to understand that others have beliefs, desires and intentions that are different from one's own“ (Singer 2006: 438). Konsequenterweise setzt sich ToM mit der Natur des Mentalen auseinander und basiert auf dem Verständnis, dass die Realität im Gehirn/Geist nur abgebildet wird und eben nicht der Welt als Ganzes vollständig entspricht. Forschungen im klinischen Kontext weisen ebenfalls darauf hin, dass eine rein körperliche Gebundenheit des Mentalen zu kurz greift. Ein Verständnis, welches sich als äquivalent zur Informations-, Quanten- und Systemtheorie darstellt. Als Dimensionen zur ToM sind vier Differenzierungen relevant: automatisch/kontrolliert, selbst/andere, internal/external und kognitiv/affektiv (Bateman und Fonagy 2016). Differenzierungen, die sich über die gesamte hier vorliegende Forschung spannen. Mit den bisher entwickelten Zusammenhängen und Erkenntnissen darf der Versuch einer Modellierung der ToM unternommen werden, die über bisherige Beschreibungen hinausgeht, indem sie nicht mehr zwischen affektiver und kognitiver ToM unterscheidet. Affektive Theorien beziehen sich auf emotionale Wahrnehmungen, wohingegen sich kognitive ToM auf Intentionen beziehen (Singer 2012). In dieses Modell lässt sich auch die Luhmannsche Kontingenz und Doppelkontingenz auf einfache Weise einbauen. Prozess zur emotionalen und intentionalen Informationswahrnehmung von anderen Spins an allen Außenorganen (5 Sinne, besonders auch der Haut) sind über kohärente Prozesse mit dem Gesamtkörper und über die Nervenbahnen mit dem Gehirn verbunden. Aufgrund der Entwicklungsgeschichte des Systems sollte die Gesamtinformation des Menschen in seinen Spins, die die körperliche Außengrenze aufbauen, ebenfalls codiert sein. Dieser Phasenübergang an den Außengrenzen lässt sich vollständig mit den Prozessen bei Anyonen und teilweise auch mit den Festkörpermodellen von Kosterlitz/Thouless und Haldane (Kap. 4.1.1.4) gleichsetzen. Photonen (Bosonen) wechselwirken oder besser verwandeln sich in Quarticles (Fermionen wie Quarks, Protonen, Neutronen, Elektronen und weiter zu Atomen, Molekülen ...). Mit diesem Übergang werden ALLE Informationen, die das Photon trägt, mit den Informationen des
522
8 Modellentwicklung von der Mikro- zur Makrowelt
wechselwirkenden Systems Mensch verschränkt. Je nach Intensität, also Häufigkeit und Gleichheit der einfallenden Quarticles, nimmt die Möglichkeit einer wahrnehmbaren Informationsveränderung zu. Dazu müssen die von den Quarticles getragenen Informationen über die Nervenbahnen an das Gehirn geleitet werden. Als weiterer Prozess könnte dies auch durch Sauerstoff erfolgen, der durch Atmung und Haut ins Blut und von dort in das Gehirn gelangt. Dies würde entsprechend den Untersuchungen und Theorien von (McCraty und Childre 2010) dann gelingen, wenn entsprechende Kohärenzen über die EM-Wellen der Zellen oder des Blutes ganz allgemein erzeugt werden können. Das Herz scheint dafür grundsätzlich geeignet, ausreichende EM-Frequenzen und Leistung zur Verfügung zu stellen. Im Gehirn lassen sich nun zwei sich ergänzende Strukturen für stabile, langlebige, verschränkte Quantenzustände bei Umgebungsbedingungen modellieren: 1. Konzept der Phasenübergänge, Anyonen und des Hohlraumresonators In diesem ersten Teil geht es um den Übergang der Information von den Biophotonen respektive EM-Wellen zu den Mikrotubuli und deren Transport. Mit dem Konzept der Phasenübergänge wird auf die Überlegungen in Kap. 4.1.1.4 von Wilczek (2017), Kosterlitz/Thouless (1973), Haldane (1988), Kane und Mele (20015) zurückgegriffen. Zum einen lassen sich die Übergänge der Biophotonen in die Atome der Nervenzellen und Mikrotubuli mit dem Konzept von Wilczek (Anyonen) beschreiben. Zum anderen bieten sich für die Wechselwirkungen der Atome und Moleküle der Nervenzellen untereinander die Konzepte der Phasenübergänge zwischen Festkörpern an. Die Zöpfe der Spinreihen die, vergleichbar mit Supraleitungen und Cooper-Paaren, gegenläufige Ladungen aufweisen und übergreifende Verschränkungszustände bewahren können, entsprechen den Strukturen der Mikrotubuli. Deren unterschiedliche Dipolrichtung in Form von a- und b-Protofilamenten und der Ladungstransports auf der zweidimensionalen Außenseite lassen sich als Entsprechung zu den Spinreihen interpretieren. Als zusätzliche Verstärkungseffekt unterstützt die Natur diese Konfiguration mit eingelagertem, kohärentem Wasser, was zu einer weiteren Ausdehnung der Verschränkungszonen führen sollte. Auf diese Weise lässt sich die von Hameroff und Penrose (2014a) vermutete zentrale Rolle der Mikrotubuli in den Nervenzellen untermauern. Erste Resonanzen beim Eintreffen bestimmter Informationen wechselwirken mit genau den Neuronen, deren Struktur (Spinreihen / Spinfelder an der Oberfläche) genau den Informationen entsprechen, die über die Biophotonen angeboten werden. Die Resonanz bildet sich aufgrund der topologischen Ähnlichkeit, die sowohl im Spin der Biophotonen als auch in den Spins an der Oberfläche der Mikrotubuli und der Zellwände des Axons gespeichert ist. Erst einmal in Kontakt mit den Mikrotubuli kann die Information an der Außenseite der Mikrotubuli entlangwandern und gleichzeitig auch an die Biophotonen im Inneren des Mikrotubuli abgegeben werden (Photon-Atom-Photon-Kopplung). Der Transport im Inneren lässt sich als quantenphysikalischer Transport innerhalb eines koplanaren
8.3 Neurowissenschaften – Der Mensch als Entscheider
523
Resonator (CPW-Resonator) denken, da die Spins der Wassermoleküle einheitlich ausgerichtet sind. 2. Konzept der NV-Defekte In diesem zweiten Teil geht es um die Überwindung des Synapsen-Dendrit-Spaltes und der großflächigen Ausdehnung der Information, denn die Information muss bis ins Gehirn geleitet und dort großflächig allen Arealen zur Verfügung gestellt werden. Die eben beschriebenen ersten Interaktionen wirken auf das SCP, was das Bereitschaftspotential der Neuronen erhöht und das Freigeben von Stickstoffatomen an den Synapsenenden ermöglicht. Diese gleichzeitige Produktion von Stickstoff erfolgt an all den Synapsen, die in irgendeiner Weise mit der eingehenden Information korrelieren (gleiche, ähnliche, fragmentale oder strukturelle Passung). Eine solche Option ergibt sich aus einem aktuell entdeckten Prozess in der klassischen Quantenforschung: Der Erzeugung von verschränkten Diamanten mithilfe von Stickstoff-Leerstellen-Brücken (Kap. 8.1.2.3). Analog zu den Diamanten bestehen auch die Neuronen primär aus Kohlenstoff als Zellstruktur. Die freigegebenen N-Atome hinterlassen auch dort Leerstellen, was zum Aufbau größerer, gehirnübergreifender Verschränkungszonen führen sollte. Die zunächst im Schwerpunkt der jeweiligen Nervenzelle befindliche Kohärenz wird blitzartig ausgedehnt. In diesem Moment stehen unendlich viele Spins, sowohl an den Oberflächen als auch innerhalb der Nervenzellen und ihrer Tubuli, zur Verfügung, um Rechnungen analog eines Quanten-Computers durchzuführen. Ist die Rechnung beendet und ein finales Ergebnis produziert, reduziert sich die N-Freisetzung. Es kommt zur Bildung eines zunächst noch reversiblen Faktums (schwache Quantenmessung) oder anders formuliert zur Dekohärenz und damit Unterscheidbarkeit dieses Ergebnisses. Die übergreifende Kohärenz nimmt in den Regionen der ersten Verarbeitung wieder ab. Der Stickstoff zwischen den Synapsen scheint somit kein Signalübergeber im klassischen Sinn der Biologie und Neurowissenschaften, sondern nur ein Abfallprodukt des vom Körper initiierten Fokussierungs- und Verschränkungsprozesses. Der Körper produziert NV-Defekte, um übergreifende und weitreichende, kohärente Prozesse zu organisieren. Die dabei freigesetzten Stickstoffe finden mit dem Leerraum zwischen den Synapsen eine passende Lokalisation zur Zwischenspeicherung oder dienen als N-Brückenköpfe zwischen Synapsen und Dendriten Ein erneuter Fokussierungsprozess, wie wir ihn im Kap. 8.1.2 (Verschränkung) kennengelernt haben, leitet eine neue SCP und BP-Aktivierung und letztlich einen neuen Rechenvorgang ein. Verschränkungen werden wieder spezifisch intensiviert, um bestimmte Messprozesse zu realisieren. Schrödinger’s Katze im Kopf – ein Erklärungsmodell Mit diesem beschriebenen Vorgang lässt sich nun Schrödinger’s Katze im Gehirn lokalisieren. Wie auch bei Schrödinger’s Gedankenexperiment finden zwar nicht im Kasten unendlich viele Überlagerungszustände statt, wohl aber im Gehirn. Wie im Zwei-Stufen-Modell der visuellen Wahrnehmung (Abb. 89), nimmt unser Gesamtsystem konti-
524
8 Modellentwicklung von der Mikro- zur Makrowelt
nuierlich alle Information aus der Umgebung auf und überlagert sie. Das radioaktive Isotop bei Schrödinger wird im Gehirn durch Intentionen, Ziele, Erfahrungen und Wissen ersetzt, welche in den Neuronen und ihren Spins codiert sind. An diesen Kristallisationskeimen orientiert sich der Quantenrechner, um schließlich ein, für seine innere Logik stimmiges Ergebnis zu produzieren. Wie bei Schrödinger’s Katze gibt es nur zwei für uns zugängliche fixe Zustände. Die Situation vor der Rechnung (die Katze lebt, respektive die uns bekannte Information vor der Aktivität unseres Gehirns) und die Situation nach der Rechnung (die Katze ist tot oder lebendig, respektive das Ergebnis nach der Rechnung). Alles dazwischen scheint zu 100 Prozent eine quantenphysikalische Überlagerung zu sein. Mit den konkreten Rechen- und damit Messergebnissen werden in der Folge andere Gehirnregionen (Motorcortex etc.) angetriggert, die Bilder, Gefühle, Handlungsimpulse etc. für uns zur Verfügung stellen und letztlich den Körper aktivieren. Je stärker die Gefühle beteiligt sind, desto stärker findet ein Überlagerungsprozess der alten Informationsstrukturen mit der neuen Information statt. Grund sind die mit der Stärke der Gefühle einhergehende Energieanregung und damit verbundene stärkere EM-Wechselwirkungen. Letztere tragen ja ebenfalls die neuen Informationen in sich und sind in der Lage alle Zellen des Körpers zu erreichen und zu modifizieren; vergleichbar der gegenseitigen Beeinflussung im Experiment des ‚Wandernden Tropfens’ und der Führungswelle Kap. 8.1.1.2 und 8.1.1.5. Nicht von ungefähr könnte wie schon in Kap. 8.1.1.5 angedacht, unsere Lernfähigkeit mit dem größeren Anteil von Wasser im Kleinkindalter einhergehen. Die Resonanzfähigkeit von Wasser auf EM-Wellen ist aufgrund der Freiheitsgrade des Wassers wohl höher, als stark gebundenes Muskelgewebe. Gleichzeitig ist eine größere Durchdringung des Gesamtgewebes mit Wasser und eine damit einhergehende, weitreichendere kollektive Wechselwirkung die Folge. Als Konsequenz sollte dadurch ein verbessertes implizites Lernen möglich werden. Neue Informationen dringen schneller und vor allem tiefer in das Gesamtgewebe ein und die beiden Informationsfelder (Tropfen und Führungswelle) wechselwirken stärker. Als Ausgleich für das weniger implizite Lernen sollten ältere Menschen, aufgrund ihrer vielfältigeren Erfahrung, über mehr Resonanzmöglichkeiten und ein verbessertes intuitives Erkennen verfügen. Dieser mögliche Zusammenhang von Wasser und Lernen findet eine indirekte Bestätigung in der Erfahrung von Menschen, die viel mit Intuition arbeiten z. B. Therapie, Aufstellungsarbeit etc. Sie achten sehr darauf, dass sie selbst und ihre Klienten vor der mentalen Arbeit und vor dem Spüren von Körperwahrnehmungen, ausreichend Flüssigkeit zu sich genommen haben. Lernen und Informationsspeicherung Mit Bezug auf die verschiedenen Verschränkungszustände und Messprozesse aus Kap. 8.1 und 8.2 lässt sich auch ein Modell des Lernens und Speicherns von Informationen beschreiben (Abb. 99). Abstrakte Informationen liegen als Superposition auf Quantenebene vor und repräsentieren als Möglichkeit unendlich viele Entitäten. Eine durchgeführte schwache (Quanten-)Messung entspricht dann einer kurzen Wahrnehmung ohne weitere Verarbei-
8.3 Neurowissenschaften – Der Mensch als Entscheider
525
tung und kommt nicht über das Ultra-Kurzzeit-Gedächtnis hinaus. Zwar lässt sich dabei ein bioelektrischer Prozess beobachten, ähnlich einem fluoreszierenden Bild, aber die Information wird noch nicht verankert und geht wieder verloren, sofern keine weitere Auseinandersetzung mit ihr erfolgt. Entsprechend löst sie auch noch keine nachhaltige Wirkung im verschränkten Gesamtsystem aus. Mittels einer Refokussierung kann dieses Messergebnis aufgelöst und die Überlagerung bei Schrödinger’s Katze wieder neu hergestellt werden.
Abb. 99 | Gedächtnis quantenphysikalisch gedacht (eigene Darstellung). Von der rein abstrakten Information dekohäriert eine Information bis in das Langzeitgedächtnis. Auf diesem Weg durchläuft die Information unterschiedliche Messprozesse, die unterschiedlich starken quantenphysikalischen Messprozessen entsprechen. Gleichzeitig wird sie auf diesem Weg mit Bedeutung versehen. Erst im letzten Schritt, wenn sie emotional aufgeladen und biochemisch verarbeitet wurde und schließlich neue bzw. modifizierte Neuronen oder Methylengruppen (Epigenetik) gebildet wurden, liegt eine Dekohärenz incl. Speicherung einer spezifischen Information vor.
Wird die Information länger verarbeitet, hinterlässt sie im Kurzzeit-Gedächtnis eine Druck-Matrize. Für diesen Prozessschritt darf immer noch von einer schwachen (Quanten-)Messung ausgegangen werden, da auch hier die Information wieder überlagert werden kann, ohne nachhaltige Spuren zu hinterlassen. Erst im letzten Schritt findet eine vollständige Messung und eine Dekohärenz statt. Voraussetzung ist ein biochemischer Prozess und eine emotionale Verankerung. Diese Information wird nun fest im Gesamtsystem des Menschen eingebaut (neuronal oder als Methylengruppen an den Chromosomen) und wirkt von dort mittels unterbewusster Prozesse.
526
8 Modellentwicklung von der Mikro- zur Makrowelt
Eine solche emotionale Verankerung entspricht den neuesten Forschungen der Berufsund Erwachsenenbildung (Arnold 2018b; Arnold und Erpenbeck 2016) und wird als unverzichtbare Bedingung für Lernen angesehen. Einheitlicher Prozess und ethische Frage Ausgehend von einem solchen quantenphysikalischen Prozess und wie die Spiegelneuronen zeigen, darf angenommen werden, dass Menschen grundsätzlich in der Lage sind, sich in andere einzuspüren und deren innere Zustände und Intentionen zu erfassen und vice versa, entsprechend einer schwachen Quantenmessung. Eine Unterscheidung zwischen Emotionen und Intentionen ist nicht mehr notwendig, denn es darf hier von einem graduellen und keinem grundsätzlichen Unterschied ausgegangen werden. Der zugrundeliegende Prozess ist der gleiche, nur werden unterschiedliche Gehirnareale eingebunden. Damit ergibt sich auch eine Antwort auf die doppelte Kontingenz. Mit dem Erfassen von, dem Gegenüber u. U. selbst noch nicht bewussten Intentionen, können Entscheidungen auf einer fundierteren Ebene getroffen werden als ohne diese Grundlage. Die Unsicherheit bei Entscheidungen lässt sich zumindest reduzieren. Zusätzlich ergibt sich auch die Option, beim Gegenüber bestimmte Intentionen überhaupt erst zu implementieren und damit zu manipulieren; was die Frage nach einer Ethik aufwirft, die viel weiter als bisher gedacht werden muss. Zusätzlich werden darüber hinaus nicht nur bewusste kommunikations- und marketingtechnische Vorgehensweisen relevant, sondern auch unbewusste Intentionen und Prozesse, die ihre Wirkung entfalten können. 8.3.5
Conclusio zu unserem Gehirn als physikalisches Organ
Es wurde deutlich, dass verschiedene physikalische Messgrößen (EEG, fMRT, Hautleitwiderstand, EKG und Herzvariabilität) nicht-lokale Effekte begleiten. Als weitere sichtbare Beobachtungen lassen sich neuronale Effekte, bekannt als Spiegelneuronen, aufführen. Die Neurowissenschaft selbst stellt darüber hinaus fest, dass die bio-chemischen Erklärungsmodelle nicht ausreichen, die Vorgänge in unserem Gehirn vollständig zu erklären. Auch die Berücksichtigung der EM-Wellen reichte nicht für alle Phänomene und eine plausible Erklärung aus. Nur unter Hinzunahme quantenphysikalischer Modelle konnte die gesamte Bandbreite der Erscheinungen abgedeckt werden. Die folgende Zusammenfassung soll die wesentlichen Erkenntnisse noch einmal veranschaulichen, dass nun sämtliche Hauptkategorien aus dem Codingprozess sowie Hypothese 4 erfolgreich verifiziert werden konnten. Auch für die letzten Zweifel, die Prozesse bei Menschen, ließen sich zahlreiche Forschungen finden, die quantenphysi-kalisch basierte Informationsübertragungen und zugehörige Übertragungswege nachwiesen.
8.3 Neurowissenschaften – Der Mensch als Entscheider
527
Kurzfassung Kurzgefasst, ergibt sich deshalb folgendes quantenphysikalisch basiertes Modell: Unser Gehirn weist alle Merkmale eines organischen Quantencomputers auf, was erklären kann, dass ... a) extrem schnelle Verarbeitungs-/Rechenprozesse realisiert werden. b) bei Menschen in bestimmten Phasen des Lernens die gleichen Fehler beobachtbar sind, wie sie bei künstlichen neuronalen Netzwerken auftreten. c) wir auf Intentionen anderer reagieren können. d) scheinbar zeitreversible (Vergangenheit – Gegenwart – Zukunft) Ergebnisse produziert werden (Präkognition). e) wir mit allen anderen Entitäten in Austauschbeziehung treten können (Mind-Matter-Interaction). f) wir zu allen Informationen der Quantenwelt Zugang haben. g) entsprechend des Messprozesses bei Schrödinger’s Katze, am Ende einer Superposition ein Messergebnis in der klassischen Welt freigeschaltet wird (mentale Bilder und Körpersensationen). Um diese zu erreichen ... repräsentieren Neuronen Speichereinheiten mit ganz spezifischen Informationen. Informationen, die wiederum über eine Vielzahl von Neuronen ausdifferenziert sind. sind in den Neuronen die Informationen sowohl in den Spins der Tubulin-Dimere als auch über die Oberflächenstrukturen der Mikrotubuli gespeichert, vergleichbar den Anyonen und deren verdrillten Branen. Hierdurch sind die Informationen auch extrem beständig gegenüber Umwelteinflüssen und Temperatur. liegt innerhalb der Mikrotubuli eine Superposition und damit Verschränkung sämtlicher Informationen vor (respektive eine organische Supraleitfähigkeit), erkennbar anhand gleichzeitiger Biophotonenstrahlung an beiden Enden. werden mittels der NV-Defekte neuronenübergreifende NV-Verschränkungen ermöglicht und dadurch großflächige Quantenrechenprozesse eingeleitet. Je großflächiger, desto mehr und desto unterschiedlichere Bereiche können involviert werden, mit der Chance auf überraschendere, innovativere oder vollständigere (Rechen-)Ergebnisse. stellen bio-chemische Vorgänge Supportprozesse für übergreifende Verschränkungen dar. sorgen EM-Prozesse für schnelle übergeordnete Kopplungen zwischen relevanten, betroffenen Neuronenclustern. EM-Wechselwirkungen beeinflussen das BP und das SCP, wodurch NO-Neurotransmitter in die Synapsenspalten freigegeben werden. ermöglichen Alpha-, Theta- und Delta-Beteiligung eine Anschlussfähigkeit an das Schuhmannfeld und an die Ionosphären- bzw. an die Grundschwingung der Erde und damit auch an die des Universums.
528
8 Modellentwicklung von der Mikro- zur Makrowelt
Aus biologisch-evolutionärer Perspektive darf als Kernziel des gesamten Prozesses die Erhöhung der eigenen Resonanzfähigkeit für schwache Signale und damit eine verbesserte Informationswahrnehmung vermutet werden. Achtsamkeits- und Sensibilisierungstrainings (Ruhe, Meditation, SyA) helfen, die Motor-Cortex-Aktivitäten und damit die Mu-Wellen-Unterdrückung zu reduzieren und länger wahrnehmungsfähig zu bleiben. Alpha-, Beta-, Theta- und Delta-Frequenzbänder sind die Folge der darunterliegenden Prozesse und repräsentieren damit verbundene Bewusstseinszustände. Die heute vorhandenen experimentellen und theoretischen Ergebnisse bieten die Möglichkeit, die Aufnahme von verdeckten Informationen und Intentionen durch Beobachter naturwissenschaftlich zu beschreiben. Als Grundlage kommt derzeit nur ein quantenphysikalisch basierter Ansatz infrage, bei dem Informationen mittels EM-Wellen und quantenphysikalischer Verschränkung mit anderen Systemen in Kontakt gebracht werden. Der weitere Ablauf und das was sich zeigt, wird im Weiteren durch das beobachtende bzw. aufnehmende Objekt (Messgerät, Mensch etc.) bestimmt. Logischerweise kann sich nur das zeigen, was durch das Objekt abbildbar ist. Bei Menschen scheinen auf neuronaler Ebene Spiegelneuronen das erste beobachtbare Glied in der Kette zu bilden. Übertragen auf die Repräsentanten in SyA heißt dies, dass Menschen im gleichen Erregungszustand (z. B. ruhige gesammelte Aufmerksamkeit und damit Alpha- bzw. Mu-Rhythmus) schwingen und so eine gemeinsame Kohärenz herstellen können. In Verbindung mit ihrer Zielgerichtetheit wird die Voraussetzung für die Resonanz- und Wahrnehmungsfähigkeit für bestimmte Fragestellungen und damit verbundene Impulse geschaffen; Impulse, die sich als erstes mittels Neuronenaktivitäten bemerkbar machen. Das Auftreten von Spiegelneuronen kann somit als Beweis für die Kohärenz zwischen lebenden Systemen interpretiert werden. Konsequenterweise sind damit auch Phänomene wie Übertragung und Gegenübertragung in der Psychotherapie oder im Kommunikations- und Unternehmensalltag verstehbar. Detaillierte Ergänzungen 1. Zurückblickend auf die Versuche von Hu und Wu (Kap. 8.2.3) mit der Übertragung von Anästhetika im Bereich von 5 Hz bis 10 kHz, lässt sich feststellen, dass Informationen offensichtlich in Frequenzbändern codiert sind, die in der gleichen Größenordnung liegen, wie sie zur Verarbeitung und Speicherung bei Menschen verwendet werden. Die Frage nun, ob codierte Information in Frequenzen oder Photonen mehr sein kann als nur die Frage nach Spin up oder Spin down, muss aufgrund der vorliegenden Versuche ebenfalls mit JA beantwortet werden. Josephson’s Annahme, dass ‚Leben seine eigenen Möglichkeiten hat’ und sogar die von ihm kritisch gesehene konventionelle Perspektive, dass ‚alles Wissen auf quantenmechanische Kenntnisse reduziert werden kann’ (Josephson und Pallikari-Viras 1991: 206), sollten damit ebenfalls eine Bestätigung finden. Schließlich schalten sich die von mathematischen Wahrscheinlichkeitsamplituden ausgehenden Wahrscheinlichkeitsberechnungen letztlich auch in unserer erlebten Realität frei. Ein, selbst aus der
8.3 Neurowissenschaften – Der Mensch als Entscheider
529
Perspektive der Standardinterpretation der Quantenmechanik, abstraktes Ergebnis transformiert in die Makrowelt. 2. Nach den bisher beschriebenen Möglichkeiten lassen sich zwei Wege denken, wie Information aus der Umwelt bis in unser Bewusstsein dringen kann (siehe auch Kap. 8.3.4 zu ToM): a) Zum einen auf dem Weg der klassischen, lokalen Verschränkung. Hierunter verstehe ich die Kopplung von EM oder anderen Wellen mit den unseren Körper aufbauenden resonanzfähigen Wahrnehmungssystemen (Sinnesorgane, Haut, Haare). Wie die Neurowissenschaftler und die Biophysiker festgestellt haben, findet auf Zellebene der Austausch von Informationen ausschließlich auf Frequenzebene statt. Frequenzen, in denen alle Informationen codiert enthalten sind. Informationen, die schließlich über die Neuronen entlang der Nervenbahnen bis an das Gehirn geleitet werden. Je nach Trainingszustand und damit je nach Menge der für die jeweilige Information spezialisierten Neuronen, wird die Wahrnehmungsschwelle überschritten oder eben nicht. Bei Überschreitung tritt die Information ins Wachbewusstsein, jedoch nicht ohne dass sie vorher von einem unterbewussten Prozess auf die unbewusste Erwartungs- und Verständniswelt des Gehirnbesitzers angepasst wird (Schrödinger’s Katze im Kopf). Die Wahrnehmung ist damit zwangsläufig mit der Vorgeschichte des Wahrnehmenden eingefärbt und in keiner Weise mehr objektiv. b) Der zweite Weg stellt eine rein quantenphysikalische Verschränkung dar. Dass dies möglich scheint, haben Hameroff, Penrose und andere (Kap. 8.3.3) mittlerweile recht eindeutig zeigen können, wenngleich dort noch Zweifel und Fragestellungen existierten. Als Folge meiner Überlegungen und Modelle scheinen die Voraussetzungen für einen nicht-lokalen Informationstransfer realistisch gegeben und bisherige Fragen hierzu beantwortbar zu sein. Das bereits in Kap. 4.2.2, Abb. 27 entwickelte Modell eines dritten, direkten Informationsaustausches findet somit bis incl. der Neurowissenschaften seine Bestätigung. Mithilfe von Mikrotubuli, den Grundbausteinen unserer Zellen, kann ein systemweiter, kohärenter und damit verschränkter Zustand konstituiert werden. Treten zwei oder mehrere solcher Systeme (z. B. Menschen) miteinander in Kontakt und interferieren, bildet sich ein übergeordnetes Quantensystem, in dem die Informationen auf alle verteilt vorliegen und jeder sofort Zugriff darauf bekommt, sobald er seinen Fokus darauf richtet. Offensichtlich ist die Resonanzfähigkeit unserer Neuronen so gut, dass kleinste Änderungen (energetisch als auch informationstechnisch) genügen, um ausreichend große Neuronencluster in unserem Gehirn zum Feuern zu bewegen. Ab diesem Moment ist der Wahrnehmungsprozess wie bei der klassischen Verschränkung. Auch hier geht es nicht ohne individuelle Einfärbung. Im Gegensatz zur klassischen Verschränkung können hier Intentionen auch über Entfernungen Wirkung entfalten. Gehen wir mit der Argumentation von Hameroff und Penrose (Kap. 8.3.3), so lassen sich Mikrotubuli als Resonanzwandler interpretieren. Spezifisch ausgebildete und sensibilisierte Neuronen nehmen Quanteninformation über EM-
530
8 Modellentwicklung von der Mikro- zur Makrowelt
Frequenzen auf und machen sie für den Organismus verfügbar. Dies geschieht durch Auslösen von EM- und dadurch letztlich biochemischer Impulse. Nicht überraschend scheint mir das Manifestieren von Neurotransmittern und anderen biomolekularen Substanzen. Denn letztlich müssen sich Quanteninformation und EM-Impulse auf Körperebene wiederfinden, was sich quantenmechanisch als Materialisierung der Information interpretieren lässt. Im Gegensatz zur bisherigen Annahme zur Rolle der Neurotransmitter (Träger der Information) stellt sich im oben entwickelten Modell deren Rolle ‚nur’ als Supportprozess zur Erzeugung einer neuronalen quantenphysikalischen Verschränkung dar, mit deren Hilfe die Synapsenspalten überbrückt werden können. Die bisherige Fokussierung auf das ‚WIE der Überbrückung’ hat möglicherweise das ‚WARUM ein Spalt’ überlagert und so zu unzureichenden Antworten geführt. 3. SCP lässt sich als erste übergreifende Frequenzebene interpretieren, die eine Anschlussfähigkeit an die Grundschwingung der Erde herstellt. Aufgebaut könnten die SCP durch die Vibration der Neuronen werden, die wiederum auf den Vibrationen der Biophotonen und Mikrotubuli basieren. In all diesen Frequenzen sind Informationen aus der eigenen Innen- als auch von der Außenwelt codiert. Zunächst wird kein Schwellenwert erreicht, da sich alle Informationen überlagern und ohne Bedeutung für das lebende System sind. Dennoch ist davon auszugehen, dass genau an dieser Schnittstelle der Übergang von der Mikro- (Quantenwelt) zur Makrowelt vonstatten geht. Hier findet die Decodierung relevanter Informationen statt; Informationen, die überlebenswichtig für das System sind, trainiert von Anbeginn der Zeit und in unseren Genen resonanzfähig gespeichert. Genauso wie Informationen, für die wir aufgrund unseres aktuellen Interesses oder unserer Vorstellung von der Zukunft neu resonanzfähig werden. Analog zur aufgeprägten Intention, nach denen sich die Quanten verhalten, verhält sich unser Quantenfeld hoch reaktiv und proaktiv auf einer absolut elementaren Ebene. Auf Ebene der SCP finden erste vorbereitende Aktivitäten statt. Erwartungshaltungen und Intentionen sind mit bestimmten Gehirnarealen korreliert, in denen großflächig der Level für einen wahrnehmbaren Schwellenwert heruntergesetzt wird – erkennbar durch niedrigere SCP. Unsere Sensibilisierung wird mittels einer Fokussierung heraufgesetzt. Entsprechend benötigen eingehende Informationen zur Wahrnehmung niedrigere Energiewerte, respektive weniger betroffene und aktivierte Neuronen. Vergleichbar der Abbildung auf dem Screen beim Doppelspalt werden früher Muster erkennbar. 4. Ausgehend von den nachgewiesen photonen- und frequenzbasierten Kommunikationen zwischen den Neuronen, dem in Intervallen arbeitenden Gehirn und den nichtlokalen Korrelationen von Informationen, kann aus heutiger Sicht nur eine logische Schlussfolgerung abgeleitet werden: Jedes Lebewesen (Mensch, Tier, Pflanze etc.) entspricht einem quantenphysikalischen Mixed-Zustand. Es ist in der Lage, in Quanten und Frequenzen codierte Information aus der Umwelt aufzunehmen oder selbst zu produzieren, diese über Nervenzellen (oder ähnliche Netzwerke) bis in die Informationsverarbeitungszentren (z. B. Gehirn) zu leiten und dort in biochemische Prozesse der Makrowelt zu überführen. Alle Ideen, lebende Systeme ausschließlich als
8.3 Neurowissenschaften – Der Mensch als Entscheider
531
Makrosystem, ohne quantenphysikalische Anbindung zu denken, müssen verworfen werden. Verworfen werden muss auch die Idee, dass in den energetischen Prozessen nur Energien und keine Informationen übertragen werden. Über die Qualität der Information entscheidet die jeweilige Resonanz- und Verarbeitungsfähigkeit des Lebewesens. Angebliche, kohärenz- und damit superpositionsverhindernde Bedingungen gibt es nicht. Ganz im Gegenteil erweisen sich Störungen in bestimmten Kontexten sogar als hilfreich für Lebensdauer und Geschwindigkeit kohärenter Übertragungsprozesse. Die Natur hat Lösungen für die in technischen Kontexten auftretenden Problemstellungen gefunden. Die bisherigen Annahmen sind nur unserer Weltanschauung, unserem Nicht-Wissen und unserer unzureichenden Messtechnik geschuldet, und zwar genau in dieser Reihenfolge. 5. Radin’s Versuche und die Neurowissenschaftler zeigen (Kap. 8.3.2), dass Zeit tatsächlich auch für unser Gehirn relativ ist. Deshalb möchte ich die Hypothese aufstellen, dass für kleine, endliche Zeiten auf Gehirnebene keine Kausalität, sondern eine quantenmechanische Überlagerung stattfindet, in der Vergangenheit, Gegenwart und Zukunft eins werden. In Anbetracht dessen, dass mit der Theorie von Aharonov u. a. Zeitsymmetrie (auch Rückwärtsverursachung) quantenphysikalisch erklärbar wird, liegen somit Evidenzen vor, die Menschen zumindest zum Teil als Quantensystem identifizieren und einen ‚Homo Physicus’ begründen. Als Folge kann in bestimmten Situationen unsere Wahrnehmung Ereignisse greifen, die nach dem kausalen Zeitpfeil erst später kommen würden, womit auch präkognitive Erlebnisse möglich werden. Dass die rein klassisch-physikalische Vorstellung und damit der reine kausale Determinismus greift, ist aufgrund quantenphysikalischer Grundlagen ausgeschlossen. 6. Sheldrake hat seinen Beobachtungen eine ‚Theorie der morphischen Felder’ zur Seite gestellt (Kap. 5.3.5). Grinberg-Zylberbaum gab seinem Erklärungsansatz den Namen ‚Syntergic Theory’ (Grinberg-Zylberbaum u. a. 1992). Beide Forscher als auch Persinger, Hu und Wu und viele andere (Kap. 8.3.2.4) brachten die Ergebnisse letztlich mit quantenphysikalischen Wirkmechanismen in Zusammenhang. Es handelt sich um Forscher, die sich mit erlebbaren und messbaren Phänomenen auseinandersetzten und ernsthaft versuchten eine Erklärung zu entwickeln. Zu ihrem Leidwesen handelt es sich bisher oft nur um eher kleine Größen, die sich statistisch zwar als signifikant erwiesen, aber dennoch viel zu oft nur kleine Unterschiede produzieren konnten. Hinzu kommt das Problem der Anfälligkeit für alle möglichen Arten von Einflüssen und einem Umfeld, dem Gehirn, das nur schwierig exakt zu bemessen ist. Aufgrund der bisherigen Nicht-Erklärbarkeit solcher Phänomene bekamen diese Forscher in der Vergangenheit immer sehr kritische Rückmeldungen aus der Wissenschaftsgemeinde, meist mit den Attributen ‚unwissenschaftlich’ oder ‚fehlerhafter Versuchsaufbau’ versehen. Auf der anderen Seite zeigte eine Metastudie von Storm u. a. (Storm u. a. 2012), dass sich die Effektgrößen von 1987 – 2010 kontinuierlich nach oben entwickelten. Unter Berücksichtigung der Bayes’schen Wahrscheinlichkeit lässt sich schlussfolgern: Die untersuchten Phänomene werden immer vorstellbarer, als Folge werden immer mehr Experimente aufgesetzt, mit
532
8 Modellentwicklung von der Mikro- zur Makrowelt
immer optimistischeren Erwartungswerten und schließlich auch signifikanteren Ergebnissen, und die Spirale setzt sich nach oben fort. Ich hoffe, mit den bisherigen und weiteren Überlegungen wird eine Zurückweisung derartiger Phänomene wegen einer fehlenden Theorie erheblich schwerer und die von Vielen erlebte Welt findet weiteren Einzug in die Forschung. Die verschiedenen Arbeiten konnten zeigen, dass kleinste Einflüsse (Erwartungen, Vorstellungen und sogar noch in der Zukunft liegende Ereignisse) ausreichen, um Wirkung auf Körperebene zu erzielen. Unser physiologisches Gesamtsystem ist ausgesprochen labil und agiert auf einer völlig unbewussten Ebene. Wenn Erwartungshaltungen oder andere Vorstellungen Ergebnisse auf Körperebene in bestimmte Richtungen beeinflussen können, so ist davon auszugehen, dass Beeinflussung auch für Zweifel, Überzeugungen oder andere Intentionen eine Gültigkeit besitzt. Als Konsequenz wird verständlich, wenn Versuche zur Replikation solch hoch diffiziler Experimente häufig fehlschlagen. Der Glaube an deterministische Doppelblindversuche und deren Exaktheit muss demnach zwingend infrage gestellt werden. 7. Als Muster bzgl. Vorahnungen oder Übertragungen lässt sich die deutliche Abhängigkeit von emotional besetzten Ereignissen oder Verbindungen zwischen Menschen identifizieren. Bei emotionaler Betroffenheit zeigten sich eindeutig signifikantere Ergebnisse, als in neutralen Konstellationen. Damit lässt sich auch eine Korrelation zu Phänomenen bei SyA herstellen. Sehr häufig wird von erfahrenen Aufstellern darauf hingewiesen, nur wirklich relevante Themen aufzustellen, bei denen der Fallbringer ein ernsthaftes Anliegen hat. Ernsthaft lässt sich in diesem Zusammenhang mit ‚emotional betroffen’ präzisieren. Nur dann zeigen sich klare Reaktionen und Antworten. Im anderen Fall bleibt das Geschehen meist ohne Energie, respektive Klarheit. 8. Und abschließend noch eine Schlussfolgerung zum Thema ‚Freier Wille’. In den Ausführungen wurde deutlich, dass wir nicht nur reagieren, sondern sehr aktiv bei unseren Wahrnehmungen und vor allem Entscheidungen mitwirken. Auch wenn dies auf den ersten Blick nur vorbewusst geschieht, können wir durch bewusst gesetzte Intentionen und durch Nutzung der Zeit zwischen gefühlsmäßiger Reaktion und bewusstem Handel in das Geschehen steuernd eingreifen; ein Ergebnis, das besonders mit meditationsgeübten Versuchsteilnehmern signifikant wurde. Nicht-vorhandener freier Wille kann demgegenüber als Verschränkungs- und Superpositionsphänomen mit Systemen interpretiert werden, das die eigenen, intrinsischen Zustände beeinflusst bzw. überlagert. Im gesunden Zustand gibt es verschiedene Möglichkeiten die eigenen Freiheitsgrade zu steigern: Auf eine Vielseitigkeit von Informationen und Quellen achten. Zu starke Monokultur und damit zu starke Fixierung auf bestimmte Personen oder Perspektiven veranlasst unser Gehirn, zukünftig nur solche Informationen zur Verfügung zu stellen (analog Suchmaschinen wie z. B. Google). Hier greift das Bayessche Wahrscheinlichkeitstheorem. Sich nicht von einer momentanen Begeisterung hinreißen lassen, vor allem wenn die Begeisterung von einem oder mehreren Gegenüber ausgeht (typische Ver-
8.3 Neurowissenschaften – Der Mensch als Entscheider
533
kaufssituationen). Wir reiten dann vermutlich auf der Begeisterungswelle des Anbieters, was uns spätestens am nächsten Tag auffallen wird; deshalb besser einmal darüber schlafen. Unsere kognitiven Fähigkeiten nutzen und spontane Handlungen vermeiden, ohne auf das Bauchgefühl zu verzichten. Wie Roth (Roth 2007) es empfiehlt: Eine Kongruenz zwischen Kopf- und Bauchentscheidung herstellen. Sich immer wieder auf sich und seine Wünsche, Ziele, Prioritäten besinnen. Dies entspricht kontinuierlichen Quantenmessungen und hilft eine Eigenständigkeit aufrechtzuhalten. Mehr mit bewussten Intentionen arbeiten und so aktive Suchprozesse initiieren. Kritische Überprüfung In diesem Kapitel sind ausschließlich Arbeiten herangezogen worden, die die Möglichkeit eines nicht bio-chemischen Mechanismus unterstützen und so Nicht-Lokalität möglich erscheinen lassen. Da es sich hier auch heute noch um eine Minderheitenmeinung handelt und relativ gesehen nur wenige Forscher an diesen Themen arbeiten, bleibt die Frage nach der Qualität und Glaubwürdigkeit der vorliegenden Forschungsergebnisse, denn die übliche Kommentierung bezieht sich auf genaue diese zwei Aspekte (Qualität und Glaubwürdigkeit). An dieser Stelle werden jetzt nicht die ganzen Gegenargumente weiter aufgeführt, die von den Kritikern formuliert werden. Mir scheint, als würden zwei zentrale Aspekte ausreichen, um der aktuellen Kritik zu begegnen. Zum einen existiert mit der SyA ein Verfahren, in dem sich all die Phänomene beobachten lassen, die sowohl in der Intuitionsforschung als auch in der parapsychologischen Forschung untersucht werden und für die es bisher noch keine Erklärungsmöglichkeiten gibt. Sowohl Schlötter’s Dissertation (Kap. 3.3.2) als auch die individuellen Erfahrungen der Teilnehmer bei SyA sprechen dafür, dass es sich um keine Einbildungen handelt. Viel gewichtiger erscheint mir jedoch eine Stellungnahme von Kritikern in Bezug auf die Qualität der hier vorgestellten Forschungen. Hergovich238 hat anlässlich einer GWUP-Konferenz 2011 (Harder 2011), in der es um eine kritische Auseinandersetzung mit der Parapsychologie ging, folgende Aussage getätigt: „Zweifellos sind diese Arbeiten methodisch gut gemacht.“ Er bezog sich dabei auf die Veröffentlichungen, die auch aus seiner Sicht in „guten Journals wie das Psychological Bulletin erscheinen“. Einer der Hauptzweifel resultiert nach ihm aus der Tatsache, dass sich auf der Verhaltensebene nichts zeigen würde. Zweifelsohne wäre interessant zu untersuchen, wie eine solche Meinung entstehen kann und auf welchem Ausschnitt der Realität sie fußt. Mit den Erfahrungen als Repräsentant in SyA als auch in Bezug auf die Forschungsergebnisse zu ihrer Nachhaltigkeit, wie zu den Erkenntnissen aus der Intuitionsforschung ist es auf jeden Fall unmöglich von einer Nicht-Wirkung auf der Verhaltensebene auszugehen.
238
Professor am Institut für Psychologie der Universität Wien.
534
8 Modellentwicklung von der Mikro- zur Makrowelt
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
9
Homologie von QPhy–Systemtheorie–SyA
Unübersehbare Zusammenhänge Mit diesem Kapitel werden die Ergebnisse von der analogen bzw. metaphorischen Interpretation quantenphysikalischer Bezüge zu einer realen Interpretation überführt. Gleichzeitig wird die Antwort auf die letzte Säule, Säule 12 ‚Homologer Zusammenhang von Quantenphysik, Systemtheorie und SyA’, herausdestilliert. Als Ergebnis erhält der zweite Teil des Titels dieser Forschung – ‚ein naturwissenschaftlich begründetes Erklärungsmodell‘ – und damit die 1. Hauptkategorie ‚wissenschaftliche Legitimation‘, eine Verdichtung der gewonnenen Erkenntnisse. Ich möchte die folgenden Betrachtungen mit einem Zitat beginnen, das ein verbreitetes Verständnis treffend beschreibt: „Mit diesen Konzepten [der Quantenphysik, Anmerkung des Autors] soziale oder psychische Prozesse verstehen zu wollen, lässt sich in der Regel schnell als Pseudowissenschaft oder plumpe Esoterik entlarven. Auch Analogien zwischen Sozialforschung und Quantenmechanik in Bezug auf den Einfluss des Beobachters zeigen in der Regel nur, dass man von der Materie nicht wirklich etwas verstanden hat, also nicht einmal in der Lage ist, die komplexen quantentheoretischen Konzepte in angemessener Weise als Metapher zu gebrauchen – denn dies würde voraussetzen, die strukturellen Homologien239 zwischen ausgebeutetem Bild und physikalischer Problemstellung hinreichend begriffen zu haben“ (Vogd 2014: 11). In dieser Ausführung stecken mehrere Annahmen, die sich durch meine Arbeit nachhaltig infrage stellen lassen. Ein darauf beruhendes Weltbild konnte nur entwickelt werden, indem wesentliche Phänomene unserer täglichen Realität ausgeblendet oder aufgrund einer ‚theorieinduzierten Blindheit’, wie sie Kahneman nennt (Kahneman 2016), von unserem Gehirn nicht zur Verfügung gestellt wird. Ausführlich wurde dieser Teil in Kap. 8.1 und 8.3 behandelt. Eingehen möchte ich zunächst nur auf den letzten Teil der Aussage, indem der Bezug zwischen Quantentheorie und der Notwendigkeit einer Metapher konstruiert wird. Es wird nämlich erstens deutlich, dass es sich mitnichten um Analogien handelt, sondern drei Kategorien von Homologien zugrunde liegen, die bisher im öffentlichen Diskurs völlig übersehen wurden.
239
Der Begriff der Homologie geht auf Richard Owen zurück (Zrzavý u. a. 2013: 170). Homologe Merkmale entspringen einer gemeinsamen Wurzel (ebd. 168). Sie sind aufgrund dessen verwandt und tragen die gleiche Information in sich. Wichtig dabei ist, dass sie sich nicht zwangsläufig ähneln müssen, sondern aufgrund unterschiedlicher Anpassung sich auch strukturell und funktionell unterscheiden können (ebd.). Im Gegensatz dazu stehen analoge Merkmale. Letztere haben sich unabhängig voneinander entwickelt, wodurch sie keine gemeinsame Information und Wurzel teilen.
© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_9
536
9 Homologie von QPhy–Systemtheorie–SyA
1. Ontologische Homologie So wurde in der hier vorliegenden Forschung herausgearbeitet, dass die von Lebewesen verarbeitete Information sowohl die gleichen Quellen, die gleichen Träger (Quanten und EM-Wellen) als auch die gleichen Übertragungswege verwenden, wie sie auch auf der Mikroebene – der Welt der Physik – untersucht werden; Informationen, die auf Quantenebene codiert sind, in den Genen und Zellen gespeichert und bis in unser Gehirn wirksam werden. Hier sei an die topologischen Energiebänder (siehe Kap. 8.1.1.4) und Frequenzunterschiede erinnert Es darf somit von einer gemeinsamen Grundstruktur und von gemeinsamen Prozessen für unterschiedlichste Entitäten ausgegangen werden. 2. Funktionale Homologie Hier lassen sich zumindest zwei funktionale Zusammenhänge unterscheiden: a) Die Elementarebene, auf der die Quantenprozesse vom isolierten Quant bis in die informationsverarbeitenden Zentren lebender Systeme die gleichen Funktionen abbilden, um vergleichbare Ergebnisse zu produzieren (siehe phänomenologische Experimente zur Verschränkung und Nicht-Lokalität). b) Die mathematische Betrachtung. Verwiesen wird auf Kap. 5.3.6, die generalisierte Quantentheorie (GQT), deren mathematische Form sich identisch zur Quantentheorie darstellt und auf soziale Systeme bezogen wird. Genauso besitzt der Formalismus aus der Informationstheorie (Kap. 4.2) Gültigkeit für alles, was mit Informationsübertragung zu tun hat. Ein weiteres Beispiel wird im Weiteren vorgestellt. Insofern darf wohl von der Existenz einer funktionalen Grammatik gesprochen werden. 3. Konzeptionelle Homologie Drittens, und das ist das Relevante in diesem Kapitel, wird auch eine konzeptionelle Homologie deutlich, ohne die weder Systemtheorie noch SyA und vermutlich auch wesentliche Entwicklungen in der Quantenphysik nicht denkbar gewesen wären. Es wird deutlich, dass sich die drei Konzepte wechselseitig hervorbringen und gegenseitig befruchten. Wie aus den vorangegangenen Kapiteln zu entnehmen war, lassen sich viele Gemeinsamkeiten zwischen Quantenphysik und SyA entdecken. Wenngleich immer wieder mal kurz thematisiert und vor allem im VUCA-Kontext eingeführt, fehlt tatsächlich noch eine vertiefende Kopplung zu einem weiteren theoretischen Ansatz, nämlich dem der Systemtheorie. Wie wir gleich sehen werden, decken sich Geschichte und ihre Prinzipien nahtlos mit den beiden anderen. Deutlich wird auch, dass die Entwicklung der drei Disziplinen intensiv miteinander gekoppelt ist und von daher nicht nur analogen Charakter, sondern einen homologen aufweist.
9.1 Verbundene Entwicklungsgeschichte
9.1
537
Verbundene Entwicklungsgeschichte
Beginnen wir mit der Historie, so lässt sich konstatieren, dass es sich bei allen dreien um recht junge Disziplinen handelt, die alle ihren Ursprung im 20. Jahrhundert haben (Tab. 18). Zum Zweiten sind zumindest Quantenphysik und Systemtheorie innerhalb ihrer Disziplinen nachhaltig prägend gewesen und läuteten jeweils einen Paradigmenwechsel ein. Vereinfacht lässt sich zusammenfassen, dass die Welt danach nicht mehr getrennt, sondern nur noch in Beziehungen und Wechselwirkungen interpretiert werden konnte. Tab. 18 | Entwicklungszeiträume von Quantenphysik – Systemtheorie – SyA (eigene Darstellung)
Quantenphysik
Systemtheorie
System-Aufstellung
1900 – Heute
1950 – 1990
1975 – Heute
Ihre homologen Beziehungen auf der konzeptionellen Ebene sind in Abb. 100 dargestellt und werden im Folgenden beschrieben.
Abb. 100 | Homologe Verbindungen zwischen Quantenphysik-Systemtheorie-SyA (eigene Darstellung). Quantenphysik, Systemtheorie und SyA weisen gemeinsame konzeptionelle Ansätze auf, die sich historisch wechselseitig hervorgebracht haben und aufeinander aufbauen.
538
9 Homologie von QPhy–Systemtheorie–SyA
Quantenphysik Auch wenn die Entwicklung der Quantenphysik bei weitem noch nicht abgeschlossen scheint, so lassen sich doch einige relevante Zeiträume bestimmen, in denen wesentliche Theoriekonzepte reiften. Die folgenden Phasen sind subjektiv unterschieden, entsprechend den für diese Arbeit relevanten Theorieentstehungen. So könnte der Zeitraum 1900 – 1927 als die 1. Entwicklungsphase angesehen werden, an dessen Ende die Kopenhagener Interpretation stand, die für viele Physiker noch heute die zentrale Gedankengrundlage liefert. Im Anschluss dazu öffneten informationstheoretische Betrachtungen (von Neumann, Wiener – Kap. 4.2) das Feld auch für andere Wissenschaftsdisziplinen, insbesondere mit dem Konzept der Kybernetik. Die 2. Entwicklungsphase könnte den Zeitraum bis 1947 umspannen, in der die Theorie zur Quantenelektrodynamik (QED) entwickelt wurde. Bei der QED handelt es sich um die erste Quantenfeldtheorie und somit um die erste quantentheoretische Beschreibung von Feldern. Die 3. Entwicklungsphase bis 1985 würde ich mit der Entstehung der Dekohärenztheorie verbinden: Bis Ende der 1960er Jahre entwickelt, 1970 das erste Mal veröffentlicht, aber erst 1985 einen gewissen Durchbruch geschafft. Nun folgt die 4. Phase bis Anfang 2000 mit der Öffnung zu offenen Quantensystemen, wie sie lebende Systeme oder auch die QuantenTeleportation darstellen. Der Beginn dieser Phase lässt sich mit der Entwicklungsgeschichte der Synergetik in Verbindung bringen (detailliertere Ausführungen nachfolgend unter Systemtheorie). Der Physiker Haken konnte erstmalig ein tieferes Verständnis über Elementarteilchenmechanismen entwickeln, wie sie bei Laserstrahlen auftreten und er erkannte Analogien zu Nicht-Gleichgewichts-Phasenübergängen und Selbstorganisations-Vorgängen (Kriz und Tschacher 2017: 9–10). Die durch Haken gefundenen Gesetzmäßigkeiten spiegeln sich, neben der Physik, in zahlreichen Forschungen anderer Disziplinen wie Chemie, Biologie, Neurowissenschaften, Medizin, Psychologie, Philosophie, Sozialwissenschaften wieder (Kriz und Tschacher 2017; Haken u. a. 2016). Parallel und noch bis heute andauernd, läuft die Theoriebildung und experimentelle Entwicklung von Quantencomputern. Interessant ist dabei zu beobachten, wie die aktuellen Akteure sich leicht und locker über ehemals, scheinbar in Stein gemeißelte, angenommene physikalische Grenzen hinwegsetzen. Systemtheorie Etwa zur Zeit des Bekanntwerdens der QED stellte Ludwig von Bertalanffy 1950 das Konzept der Allgemeinen Systemtheorie vor (Bertalanffy 1968). Von Bertalanffy war Biologe, der sich u. a. mit den Themen ‚Thermodynamik lebender Systeme’ und ‚Biophysik offener Systeme’ beschäftigte, wobei er diese von den geschlossenen Systemen der Physik zu unterscheiden suchte. Er versuchte gemeinsame Gesetzmäßigkeiten in physikalischen, biologischen und sozialen Systemen zu finden (ebd. vii und 31). Grundlage seines Verständnisses war ein holistischer Zusammenhang, in dem natürliche Systeme (physikalische, chemische, biologische, geistige, gesellschaftliche oder auch wirtschaftliche) als Ganzes zu betrachten sind und nicht ungestraft in ihre Einzelteile zerlegt werden dürfen. Als Konsequenz sollten Prinzipien gefunden werden, die für alle Syste-
9.1 Verbundene Entwicklungsgeschichte
539
me anwendbar sind. Er dachte dabei an Prinzipien wie: Selbstorganisation, Rückkopplung, Gleichgewicht etc. Mit seinen Überlegungen leistete er der Entwicklung zu offenen Quantensystemen Vorschub, wie sie in der Physik Ende des 20. Jahrhunderts in den Fokus kommen. Ergänzend sei hier auf eine Arbeit von Karban verwiesen. Er fasst in Kapitel ‚3.1.3’ seiner Dissertation wesentliche Prinzipien zusammen, die ein lebendes System ausmachen (Karban 2015: 17). „Ausgehend von Bertalanffys Systemtheorie lässt sich festhalten: 1. das Ganze (eines Organismus) ist mehr als die Summe seiner Teile. 2. lebende Organismen sind offene Systeme - d. h. sie benötigen Energie aus der Umwelt und geben solche auch wieder ab. 3. lebende Systeme sind nicht statisch, sondern laufenden Prozessen unterworfen. 4. lebende Systeme sind homöostatische Systeme - der aufrechterhaltene Zustand wird durch den inneren Prozess der operationalen Schließung stabilisiert. 5. Organismen sind hierarchisch auf unterschiedlichen Ebenen organisiert.“ Zusammen mit Norbert Wiener, William Ross Ashby, Heinz von Förster und Stafford Beer (siehe Kap. 4.2.2) gilt Bertalanffy mit seiner Arbeit als einer der Väter der Kybernetik (Bertalanffy 1968). Allerdings speist sich die moderne Systemtheorie heute nicht mehr nur aus der Kybernetik, die kurz vorher ihren Durchbruch erzielte, sondern baut auf weitere unterschiedlichste Ansätze. In Anbetracht dessen, dass die im Folgenden aufgeführten Ansätze relativ zeitgleich entstanden, kann wohl angenommen werden, dass sie sich gegenseitig inspirierten. Dies scheint besonders vor dem Hintergrund plausibel, dass sich zahlreiche dieser Protagonisten auf den Macy-Konferenzen (1946 – 1953) begegneten. Hier nun eine Auflistung weiterer wichtiger theoretische Ansätze, aus denen sich die moderne Systemtheorie speist, mit ihren jeweiligen geistigen Vätern: Soziologie (Niklas Luhmann, Helmut Willke), Familientherapie (Virginia Satir, Steve de Shazer, Mara Selvini-Palazzoli, Helm Stierlin), Ökologie (Fritjof Capra), Physik (Ilya Prigogine, Hermann Haken), Mathematik (Benoît B. Mandelbrot, Mitchell Jay Feigenbaum), Biologie (Humberto Maturana, Franscisco Varela), Kommunikationstheorie (Gregory Bateson, Paul Watzlawick), Gruppendynamik (Kurt Lewin, Peter Heintel), Ökonomie (Gilbert Probst und Hans Ulrich, John b. Kotter, Dirk Baecker). Die Systemtheorie hat sich letztlich zu einer interdisziplinären Betrachtungsweise entwickelt. Offensichtlich scheint die Idee von Bertalanffy, Gemeinsamkeiten in unterschiedlichen Systemen finden zu können, von Erfolg gekrönt zu sein. Im Mittelpunkt all dieser systemischen Theorien steht ein zentraler Untersuchungsgegenstand: Die ‚Selbstorganisation komplexer Systeme’. Unter diesem Begriff werden alle Prozesse verstanden, die ohne ein sichtbares, steuerndes Element zu höheren strukturellen Ordnungen führen. Dass hier nicht nur eher weiche Wissenschaften involviert sind, zeigt die Theorie und Entwicklung des Laserstrahls. Licht stellt ebenfalls ein komplexes System dar (Kuhlmann 2007: 310) mit dem Laser als Repräsentant eines offenen Systems (Haken u. a. 2016: 14), in dem stabile Kohärenzen auch bei Umgebungsbedin-
540
9 Homologie von QPhy–Systemtheorie–SyA
gungen realisiert werden. Der Physiker Hermann Haken konnte mithilfe der ‚Theorie der Selbstorganisation von Nichtgleichgewichtssystemen’ eine passende Interpretation des Laserprinzips entwickeln (Haken u. a. 2016). Aus dieser Arbeit entstand die von ihm begründete Synergetik. Unter Synergetik versteht man die „Lehre vom Zusammenwirken. Was verbindet die Physik, Chemie und Biologie?“ (ebd. IX); ein von H. Haken 1971 veröffentlichter Ansatz zu einer allgemeinen Theorie der Selbstorganisation, der sich auf makroskopische Musterbildung bezieht. Gegenstand ist die Untersuchung von strukturellen raumzeitlichen Selbstorganisationsprozessen (Musterbildungen) in makroskopischen, wechselwirkenden Vielkomponentensystemen240. Synergetik geht aus seiner Sicht weit über die Physik und andere Einzelwissenschaften hinaus, was sich durch Arbeiten in Chemie, Biologie, Neurologie (Modellierung des Gehirns), aber auch Soziologie241 darstellen lässt (ebd. 21). Auch Haken unterscheidet wie Wiener, Weizsäcker und Görnitz (Kap. 4.2) zwischen Materie, Energie und Information, die übertragen werden können oder sich gegenseitig beeinflussen (ebd. 3 und 21). In seiner Lehre gibt es keine Einschränkung auf bestimmte Elemente, die in Wechselwirkung treten. Wichtig ist nur, dass sie in komplexen, dynamischen Systemen zusammenwirken wie beispielsweise Moleküle, Zellen und Menschen. Es geht um allgemeingültige Gesetzmäßigkeiten und Prinzipien, wie sie im Kap. 7‚Auf dem Weg zu einer neuen Theorie’, zum Ausdruck kommen. Auch dort werden Physik, Biologie, Neurologie, Psychologie und Soziologie übergreifend gedacht. Haken lieferte für solche zusammenwirkende Phänomene eine einheitliche mathematische Beschreibung242. Aus dieser Perspektive heraus wird Synergetik nicht mehr als Naturwissenschaft verstanden, sondern als ‚Strukturtheorie’ (Haken u. a. 2016: 45), durchaus vergleichbar mit dem Ansatz der ‚systemischen Struktur-Aufstellungen’ von Kibéd und Sparrer. Damit war neben Bertalanffy (1968) und Wiener (Kap. 4.2.2.6) ein weiter Physiker auf dem Weg, unterschiedlichste Welten zusammen zu bringen. Basierend auf diesen historischen Zusammenhängen darf ein homologer Entwicklungsprozess formuliert werden, in dem die Entwicklungen von Quantenphysik und Systemtheorie in keiner Weise unabhängig voneinander abliefen, sondern wie seinerzeit Pauli (Wechselwirkung zwischen Geist und Materie) und C.-G. Jung (Synchronizität) (Peat 1992), sich gegenseitig befruchteten. So betrachtet, lässt sich meine Arbeit als Fortsetzung seiner Bemühungen interpretieren. 240
Wie Haken selbst im Vorwort schreibt, stand er von Anfang an u. a. auch mit Ilya Prigogine und Werner Ebeling im Austausch (ebd.). 241 Einen sehr anschaulichen Beitrag zur Synergetik in den Sozialwissenschaften und ihrer Entstehungsgeschichte aus der Physik und mathematischen Modellen heraus, finden sich auch bei Ebeling und Scharnhorst (Ebeling und Scharnhorst 2015). Bei ihnen wird sehr deutlich, dass bei der Synergetik Mathematik und quantitative Analysen im Vordergrund stehen (ebd. 428-429). 242 Vergleichbar der Grunddiskussion in der Quantenphysik, findet eine Diskussion über Haken’s Synergetik und deren Interpretation statt. Inhaltlich geht es um die Frage, ob es sich bei ihr um rein mathematische Abbildungen (KI) oder doch um kausale (Bohmsche Mechanik) Gesetzmäßigkeiten handelt, weil sich in der Realität Phänomene zeigen. Auch bei ihm geht es um die Unterscheidung zwischen einer ‚Beschreibungsthese’ und einer ‚kausaltheoretischen These’ mit einer ‚zirkulären Kausalität’ (Kuhlmann 2007: 325).
9.1 Verbundene Entwicklungsgeschichte
541
Neben der ‚Strukturtheorie’, basierend auf dem Modell der Synergetik, muss noch auf ein zweites wesentliches Konzept im Rahmen der Systemtheorie hingewiesen werden – dem Konstruktivismus (Watzlawick 2005; Foerster und Pörksen 2001; Simon 1998; Glasersfeld und Schmidt 1997; Watzlawick 1986). Nicht die strukturellen Zusammenhänge sind im Konstruktivismus Thema, sondern erkenntnistheoretische (epistemologische) Fragestellungen. Es geht also darum, wie beobachtende Systeme zu Abbildungen des Beobachteten und zu Erkenntnissen gelangen. Zentral ist dem Konstruktivismus das Abhandensein eines objektiven ‚Wissenkönnens’, womit wir wieder bei der Beobachter- und Messproblematik angekommen sind. Fischer führt dazu in seiner Einleitung aus: „Wir erzeugen die uns bekannte Welt mithilfe mentaler Operationen (inferentieller Prozesse), mithilfe unserer Begriffe – d.h., die Idee von einer gegenüber unseren Vorstellungen unabhängigen Welt [...] ist obsolet“ (Fischer und Schmidt 2000: 16). Betrachten wir ‚Begriffe’ als Ausdrucksphänomen, das ebenfalls erst einmal durch neuronale Prozesse erzeugt werden muss, so wird ein Zusammenhang deutlich, der im Kap. 8.3 entwickelt wurde. Auf neuronaler Ebene abgespeicherte Information tritt in Beziehung mit gecodeten Begriffen und deren Bedeutung und liefert dem Beobachter ein, aus dessen Perspektive, sinnstiftendes Begriffs- und Deutungsergebnis. Es findet sich mit dem Konstruktivismus somit ein psycho-soziologisches Konzept, das sich in gleicher Weise bei den Erkenntnissen zum Messproblem in der Quantenphysik findet. Auch dort ist das Ergebnis einer Messung vom Wissen und der Erwartung des Beobachters abhängig. Verwiesen sei hier, neben den früheren Beispielen und Theorien in dieser Arbeit, auf bereits 1987 durchgeführte Experimente (Jahn und Dunne 2009: 124–135), in dem Beobachter mittels ihrer mentalen Intention u. a. Einfluss auf die Verteilung von Styroporkugeln auf ihrem Fall in Richtung zweier Behälter nahmen. Ihre Intention veränderte die Gaußsche Normalverteilung. System-Aufstellungen Wie bereits im Kap. 3.3.1 ‚SyA – eine kurze Einführung und Orientierung’ ausgeführt, lässt sich ihr Beginn auf die 70er Jahre des 20. Jahrhunderts datieren. Auffallend in ihrer Entstehungsgeschichte ist der eindeutig systemtheoretische Schwerpunkt ihrer Herkunft. Psychodrama und Soziometrie, Familienrekonstruktion und -skulpturarbeit, kontextuelle Therapie und Hypnotherapie lassen sich im überwiegenden Maße dem systemischen Verständnis zuordnen. Waren die wesentlichen Vorgehensweisen und Spielregeln bis Anfang 2000 herausgearbeitet, so lässt sich für die Folgezeit eine ungebremste kreative Expansion auf alle Lebensbereiche beobachten, die bis heute andauert. Wie in Kap. 3.3.3 bei den erstaunlichen Beispielen zu sehen war, wird mittlerweile auch kein Halt vor technischen Fragestellungen gemacht. Damit lässt sich konstatieren, dass bei SyA eine ähnliche Entwicklung wie in der Systemtheorie vollzogen wurde, die Ausdehnung auf oder die Integration aller natürlichen Systeme, wie sie Bertalanffy verstand (Bertalanffy 1968). Als Gemeinsamkeit darf ein großes Interesse an (Kommunikations-)Beziehungen herausgestellt werden, wie wir es insbesondere in den systemischen Ansätzen erleben bzw. strukturelle Ähnlichkeitssuche wie bei der Synergetik. Der Fokus wird auf das Zusammen-
542
9 Homologie von QPhy–Systemtheorie–SyA
spiel der Elemente untereinander gelegt, mit dem Beobachtungsschwerpunkt, wie etwas (zusammen) funktioniert - oder eben nicht funktioniert. Damit stehen sie im Gegensatz zu klassischen Ansätzen der humanistischen Denkrichtung, in denen Beobachtungen darüber angestellt werden, wie ein Objekt (Person oder Sache) beschrieben werden kann. In diesen klassischen Ansätzen gerät das einzelne Element, mit all seinen Eigenschaften, in den Fokus. In der SyA hingegen gerät die Beziehung bzw. Wechselwirkung in den Mittelpunkt des Interesses. Dabei darf allerdings nicht vergessen werden, dass Beziehungen hier nicht nur die Beziehungen im untersuchten System, sondern auch die Verbindung zwischen Repräsentant und untersuchter Entität meint. Denn es gelingt offensichtlich auch, Aussagen über ontologische Gegebenheiten zu treffen und phänomenologische Zusammenhänge zu erfassen, die jenseits soziologischer Beziehungsfragen liegen. Im Unterschied zur Quantenphysik und Systemtheorie können wir heute allerdings noch nicht auf eine geschlossene oder gar akzeptierte Theorie der SyA zurückgreifen, wobei wir bei genauer Betrachtung dies auch für die Quantenphysik nicht sagen können. Die Merkwürdigkeiten und Unerklärbarkeiten machten eine breite Akzeptanz der SyA schwierig und führten im Grunde zu einer Untergrundbewegung, die auf Basis ihrer überwältigenden Reproduzierbarkeit mittlerweile auf dem besten Wege ist, ihr Schattendasein aufzugeben und für alle sichtbar an die Oberfläche zu treten. Verbindender Faden in der Entwicklungsgeschichte Betrachtet man die Zeiträume, die die Quantenphysik, Zeh’s Dekohärenztheorie oder letztlich auch die Systemtheorie benötigten bis sie breitere Akzeptanz erhielten, so scheint die Methode der SyA in guter Gesellschaft zu sein. Lässt man sich darüber hinaus auf den Versuch ein, einen gemeinsamen roten Faden in ihren Entwicklungsgeschichten zu finden, gelingt auch diese Konstruktion überraschend klar (siehe Abb. 100). Konkret wird dies noch an diesem Beispiel: Sowohl in der Physik als auch in der Biologie scheinen bei Systemen fern von Gleichgewichten die Phasenübergänge eine zentrale Rolle zu spielen; ein Umstand, der Einzug in die Systemtheorie und die Synergetik gefunden hat. Bestehorn stellt dazu fest: „dass ganz verschiedene Instabilitätsmechanismen dieselben typischen Grundmuster in der Nähe von Phasenübergängen bewirken können“ (Bestehorn 2002: 18), die „sich durch wenige Größen quantitativ beschreiben“ lassen (vgl. ebd.). Mit dem ‚Versklavungsprinzip’ aus der Synergetik, bei dem nur wenige sogenannte ‚Ordnungsparameter’ ausreichen, um die Dynamik und das Verhalten eines Systems zu bestimmen, ist ein Prinzip beschrieben, das auch auf SyA anwendbar erscheint. SyA sind ebenfalls Systeme fern von Gleichgewichtszuständen. Mit der Ausrichtung auf eine spezifische Frage lässt sich systemisch diese spezifische Frage als Ordnungsparameter interpretieren, der das System dazu bringt, sich in bestimmter Weise, der Antwort entsprechend zu verhalten. Die vielen möglichen Zustandsvariablen Ψ� , die zu den Eigenmodi des Systems gehören, werden durch die Frage F zu einem Ordnungsparameter Ψ� (vgl. ebd. 21-22): (9.1) Ψ� = Ψ� �
9.1 Verbundene Entwicklungsgeschichte
543
Die Frage wirkt damit strukturbildend und reduziert die vielen Möglichkeiten auf einige ganz wenige oder gar nur eine. Das Verhalten des Systems, respektive das der Repräsentanten in einer SyA, wird damit eindeutig bestimmt. Dieses Konzept besitzt auch Gültigkeit für den Prozess in den neuronalen Netzen und unserem Gehirn, das schließlich im Repräsentanten wahrnehmbare mentale und physische Reaktionen sowie von außen beobachtbares Verhalten veranlasst. Diese aus der Synergetik übernommene verbale und mathematische Ausdrucksform wurde von Bestehorn in Verbindung mit strukturbildenden Beispielen aus Physik, Chemie, Biologie und Ökologie benutzt. Auffallend ist, dass sie der verbalen und mathematischen Beschreibung der Quantenphysik entspricht: (9.2) �Ψ�� � = |Ψ�� |� Der Möglichkeitsraum des Eigenzustandes eines Quantensystems |Ψ�� ⟩ wird durch eine definierte Messung FM (= äquivalent der Messung zu einer Frage) zu einem eindeutig bestimmten Ergebnis |Ψ�� |� , der sogenannten Wahrscheinlichkeitsdichte. Eine Frage und ihre zugehörige Messung zwingt das Quantensystem zu einem bestimmten Verhalten. Diese strukturelle Vergleichbarkeit in der Wortwahl als auch im mathematischen Formalismus veranschaulicht sehr schön die gemeinsamen Wurzeln und daraus abgeleiteten Prinzipien und damit die Homologie der drei Disziplinen Quantenphysik-Systemtheorie-SyA auf konzeptioneller Ebene. An dieser Stelle sei nochmal an die Arbeiten von Wilczek, Kosterlitz/Thouless und Haldane erinnert (Kap. 8.1.1.4 und in der Conclusio 8.1.1.6), die auf der ontologischen und funktionalen Ebene die Phasenübergänge und ihren Einfluss auf Informationsspeicherung beschrieben. Deutlich wurde, dass bereits die Änderung nur eines Spins nachhaltigen Einfluss auf das Verhalten eines Gesamtsystems bewirken kann. Damit wird ebenfalls deutlich, dass der Ansatz von Haken, mit den wenigen Ordnungsparametern, sowohl auf der Elementarebene als auch auf makroskopischer Ebene Relevanz aufweist. Nicht-Gleichgewichtssysteme sind anfällig für kleinste Änderungen. Ein solches NichtGleichgewichtssystem stellt unser Gehirn dar, weshalb es auch Berücksichtigung in der Synergetik findet. Konsequenterweise vermag eine Informationsänderung mit einer damit einhergehenden Spinänderung in den Neuronen bereits den Impuls für eine mentale und körperliche Wahrnehmung liefern. Die ‚Information’ stellt damit einen Ordnungsparameter dar. Denn eine neuronale Reaktion kann derzeit nur als Folge einer ontologischen und funktionellen Kopplung gedacht werden, was bedeutet, dass entsprechende Relationen auf gespeicherte und codierte Informationen zurückgreifen und mit diesen kompatibel sein müssen. Hat die Quantenphysik die Grenzen der klassischen Physik mit ihrer isolierten Betrachtung aller Entitäten überwunden und den Bogen zu einem Gemeinsamen mit dabei auftretenden Wechselwirkungen gespannt, so konnte ein Biologe mit starkem Physikbezug diese Bewegung fortführen. Als Ergebnis, so scheint es, wurden die aus der Quantenphysik heraus begründeten ‚Beziehungen’ und ‚Prinzipien’ auf alle möglichen Wissenschaftsbereiche ausgerollt. Fortan revolutionierte die Systemtheorie das Denken von
544
9 Homologie von QPhy–Systemtheorie–SyA
Forschern unterschiedlichster Fachbereiche, so wie es die Quantenphysik in ihrem Feld bewirkt hatte. Verfolgt man den Zeitverlauf, so kann durchaus angenommen werden, dass das von Bertalanffy (Bertalanffy 1968) auf offene Systeme ausgedehnte Konzept der Beziehungen und das darauf aufbauende system- und strukturtheoretische Denken letztlich wieder auf die Modelle der Quantenphysik zurückwirkten. Klar sichtbar wird dies in der Entwicklungsgeschichte der Synergetik und des daraus resultierenden Lasers. Das Denken in Zusammenhängen und Wechselwirkungen einmal losgetreten, entwickelte sich ungebremst fort und war auch in den therapeutischen Schulen nicht mehr aufzuhalten. Schließlich emergierte eine Methode, die wirkungsvoll, verblüffend, nachhaltig und ziemlich verrückt daherkommt – die SyA; eine Methode, die auf ihre theoretische Erklärung wartet. Aber diese Zeit des Nicht-Erklärbaren sollte mit der vorgestellten Theorie vorbei sein. Die Gemeinsamkeiten und inneren Zusammenhänge zwischen SyA und Quantenphysik und der gut beschreibbare Prozess von der Mikrowelt zur Makrowelt Mensch führen zu einer mehr als plausibel erscheinenden Verbindung. Der Umstand, SyA nicht aus der Systemtheorie heraus erklären zu können, zwingt uns, den Blick zu weiten. Aus Ermangelung an anderweitigen, brauchbaren Modellen führt dieser Blick letztlich wieder zurück zur Quantenphysik, da sich strukturelle, als auch funktionelle Ankopplungen nahezu aufdrängen. Diese Rückbezüglichkeit zur Quantenphysik führt allerdings ein Paket mit sich, das unser Verständnis über die angebliche Unverständlichkeit der Quantenphysik nachhaltig tangieren kann. In jedem Fall tangiert es unser Verständnis über die Interaktionsmöglichkeiten zwischen lebenden Systemen und der Mind-Matter-Interaction. Von daher darf angenommen werden, dass der Entwicklungsprozess, der sich aus der Quantenphysik heraus auf Systemtheorie bis hin zur SyA erstreckte, nun eine Bewegung zurück zur Quantenphysik vollzieht und damit einen vollständigen zirkulären Prozess repräsentiert. Unklar bleibt noch, welche emergenten Phänomene aus diesem zirkulären Prozess hervorgehen können und welche Phasenübergänge in welcher Disziplin tangiert werden. 9.2
Gemeinsame Prinzipien und Zusammenhänge
Zunächst wird der Versuch einer Destillation zentraler Prinzipien und Zusammenhänge unternommen, die der Quantenphysik, Systemtheorie und SyA gemeinsam sind. Sie dürften sich ganz im Sinne von Bertalanffy (1968) und Haken u. a. (2016) bewegen. Auf einige davon wird im Folgenden etwas detaillierter eingegangen: 1. Natürliche Systeme sind offene komplexe Systeme (mit Gesetzmäßigkeiten, die sich auch in anderen komplexen Systemen wiederfinden)243. 2. Systemgrößen existieren nur in Abhängigkeit von anderen Größen. 3. Individuelle Gesamtheiten (Systeme als Untersuchungsfokus). 4. Es geht zentral um Beziehungen. 5. Zusammenhänge statt alleinstehende Betrachtungen. 243
Vgl. (Ebeling und Scharnhorst 2015: 429)
9.2 Gemeinsame Prinzipien und Zusammenhänge
545
6. Aufgrund der Wechselwirkung mit dem Gesamtsystem ist keine vollständige separate Beschreibung seiner Teile möglich. 7. Beobachter und System/Messapparatur stellen ein gemeinsames Ganzes dar und dürfen nicht getrennt voneinander betrachtet werden. 8. Systeme und Ergebnisse entstehen erst durch das Auge des Betrachters und sind nicht kontext-unabhängig (auch in der Quantenphysik 2011 experimentell bewiesen). 9. Subjektivität statt Objektivität. 10. Abstrakte Information wird durch das jeweilige System interpretiert und bekommt dadurch erst eine Bedeutung. Wie formulierten Simon und Retzer in Bezug auf den systemischen Ansatz: „nicht mehr die ‚Eigenschaften isolierter Objekte’, sondern die ‚Wechselbeziehungen miteinander interagierender Objekte, die gemeinsam eine zusammengesetzte übergeordnete Einheit – ein System – bilden’“ (Simon und Retzer in Gutmark 2014: 56) sind Gegenstand der Analyse. Wüsste man nicht, dass diese in Anführungszeichen geschriebene Definition von einem Mediziner und einem Soziologen mit systemischem Background geschrieben wurde, würde man sie sofort der Quantenphysik zuordnen. Die Parallelität und homologe Verbindung zur Quantenphysik sind offensichtlich und mithin auch ihre Gegensätzlichkeit zur klassischen Physik, als auch zur humanistischen Psychologie. Beobachtungssituation hat Konsequenzen Genauso wie in der Quantenphysik wird auch in der Systemtheorie der Beobachter mit in das Ergebnis einbezogen. Aus einer ursprünglichen Quantenphysik 1. Ordnung, bei der Born und Pauli die gemessenen Eigenschaften nur dem Quantensystem zuschrieben, hat sich schließlich eine Quantenphysik 2. Ordnung entwickelt, bei der der Beobachter mitberücksichtigt werden muss (siehe Kap. 8.3 das Messproblem). In der Systemtheorie entspricht dies der Entwicklung einer Systemtheorie 2. Ordnung. In ihr wird der Selbstbezüglichkeit Rechnung getragen, dass nämlich der Beobachter (entsprechend auch der Theoretiker) seine eigenen Annahmen und Erklärungen im Gegenstand der Beobachtung (analog: in seiner Theorie) wiederfindet und erhebliche Schwierigkeiten hat aus dieser Zirkularität auszusteigen (Maturana 2000). Dem kann mit Maturana noch hinzugefügt werden: „Alles was gesagt wird, wird von einem Beobachter gesagt“ (ebd. 25) und ist somit niemals objektiv, sondern immer nur subjektiv. Hier liegt das Konzept der Autopoiese (Maturana und Varela 1990) zugrunde, der Selbsterschaffung und -erhaltung eines Systems. Maturana und Varela für die Biologie und später auch Luhmann für die Soziologie (Luhmann 1991) verabschiedeten sich mit dem Konzept der Autopoiese von der Vorstellung einer Welt beobachterunabhängiger Objekte. Dies entspricht exakt der Perspektive, die heute die moderne Interpretation der Quantenphysik vertritt. Bereits von Neumann weist 1932 in diese Richtung als er den Kollaps der Wellenfunktion mit dem Bewusstsein des Beobachters in Verbindung brachte (Neumann 1996) (siehe auch
546
9 Homologie von QPhy–Systemtheorie–SyA
Kap. 8.1.3.1). Der Beobachter erschafft also seine Welt und tut alles, um diese aufrechtzuerhalten. Übertragen auf die Quantenphysik lässt sich formulieren: Das Gemessene ist ein Ergebnis des Wissens und der Erwartung des Versuchsleiters, der aus der Rolle des Beobachters herausoperiert. Und genauso wie die Systemtheoretiker wissen, dass der Beobachter, mithin der Versuchsleiter, die Ergebnisse nachhaltig beeinflusst, gilt selbiges ohne Einschränkung auch für Messergebnisse in der Quantenphysik. Hier sei wieder an das Doppelspaltexperiment erinnert. Entsprechend wurde in der Systemtheorie die ‚Beobachtung des Beobachters’ eingeführt. Ziel ist das Erkennen von durch den Beobachter eingeführte Beeinflussungen oder von ihm selbst nicht wahrgenommene blinden Flecken. Die Quantenphysik hat bisher in weiten Kreisen einen anderen Weg gewählt, der sich mit dem Vorgehen der Systemtheorie 1. Ordnung allerdings wunderbar deckt. Beide blenden mögliche Wechselwirkungen vom beobachteten System mit der jeweiligen Umwelt einfach aus und damit auch die Beobachtung des Beobachters. Mittlerweile ist wohl nicht mehr überraschend, dass sich das eben Gesagte auch bei SyA findet. Die Repräsentanten und Beobachter einer Aufstellung können nur nach ihrem eigenen Referenzrahmen das Geschehen verfolgen und interpretieren. Das beginnt auf der Ebene der Resonanzmuster, die durch Lernen und Erfahrung entwickelt wurden und unterschiedliche Sensitivität aufweisen und letztlich Neuronen zur Aktion veranlassen 244 . Auch der weitere Prozess lässt sich zweifelsfrei beschreiben. Die bewussten Wahrnehmungen in Form von Bildern, Körperphänomenen oder auch Ideen entsprechen genau den in der Systemtheorie angenommenen Zusammenhängen. „Alles was gesagt wird, wird von einem Beobachter gesagt“ (Maturana 2000: 25). Soll heißen, es gibt keine Möglichkeit die Aussagen als objektive Tatsachen zu begreifen, sondern nur als Ausdruck der dem Beobachter innewohnenden Möglichkeiten. Das, was sich durch den Repräsentanten zeigt, ist zunächst seine eigene Interpretation von etwas Wahrgenommenen und unterliegt schließlich auch der Interpretation der anderen Teilnehmer einer Aufstellungsgruppe. Im besten Fall entsteht so etwas wie eine intersubjektive Wahrnehmung, die von allen Beobachtern geteilt wird. Auch hier wäre es sinnvoll auf das Konzept der ‚Beobachtung der Beobachter’ zurück zu greifen. Welches Wissen, welche Erfahrungen, welche Glaubenssätze oder einfach welche Vorlieben beeinflussen das Gesagte und verselbständigen sich in Form einer konstruktivistischen Wirklichkeitsbildung? Unter der wohl begründeten Annahme, dass wir zunächst tatsächlich auf vorhandene, abstrakte Informationen zurückgreifen, so sie schon existieren, benötigt es immer auch eine weitere Interpretation wie sie von Görnitz und Lucadou beschrieben werden. Damit besteht auch immer die Möglichkeit der Fehlinterpretation. Analog zu den QTExperimenten, in denen der klassische Kanal den Bezug zur Ausgangssituation (in diesem Fall die richte Einstellung der Messapparatur) herstellt, ist bei der SyA eine Ankopplung an das Umfeld der Fallsituation ebenfalls sinnvoll.
244
Siehe hierzu auch den oben beschriebenen Bezug zur Synergetik und den damit verbunden verbalen und mathematischen Vergleich.
9.2 Gemeinsame Prinzipien und Zusammenhänge
547
Das Messproblem In allen drei Forschungsdisziplinen finden wir bei Messungen die gleichen Strukturprobleme. Die untersuchten Systeme müssen zunächst von ihrem Umfeld isoliert werden, um Ergebnisse über das beobachtete System zu bekommen. Klassischerweise gehen die konventionellen Denkrichtungen dann davon aus, dass die Ergebnisse eine belastbare, objektive Aussage über das gemessene System liefern. Tatsächlich übersehen diese Denkschulen die äußerlich nicht sichtbaren Einflüsse, resultierend aus den Vorkontakten und damit Vorprägungen mit einem erweiterten Umfeld. Dieses Phänomen, das man in der Physik Verschränkung nennt, die aufgrund der Dekohärenz für das Auge des Beobachters verschwindet, aber deshalb nicht aufhört zu existieren, findet sich auch in der Systemtheorie und in der Aufstellung. Systemtheoretisch unterscheidet unser Bewusstsein ein System von seinem Umfeld. Einen Menschen kann man als Einzelperson beobachten, gleichwohl ist er in einen größeren Zusammenhang eingebettet – Familie, Gruppen, Organisation, Kultur etc. – die sein Verhalten maßgeblich mitbestimmen, für uns zunächst jedoch unsichtbar bleiben. Gleiches gilt für SyA. Das Ziel der Aufstellung bestimmt die Elemente der Aufstellung und das Thema, welches untersucht wird. Alle anderen Kontexte und Fragen bleiben ausgeklammert, ohne dass wir ihnen eine potentielle Wirkung absprechen können. Und dennoch können diese Kontexte Einfluss ausüben, beispielsweise durch die Intention eines Außenbeobachters oder der Aufstellungsleitung. Ein entsprechendes Experiment veranschaulichte dies (siehe Kap. 3.3.3), als ein Beobachter bei einer SyA, bei der es kein explizites Symptom gab, gerne sein eigenes körperliches Problem bearbeitet hätte. Sein klarer, aber verdeckter Wunsch übertrug sich sofort auf die Aufstellung. Der Stellvertreter für das Symptom und das noch mitaufgestellte Gerät entwickelten von Beginn an exakt die Symptome, die der Beobachter auch hatte. Erst im Nachgang zur Aufstellung wurde der Zusammenhang dem Beobachter selbst bewusst und als Lernthema in der Gruppe bearbeitet. Zu dieser Strukturproblematik gehört ebenfalls das Verständnis über den Begriff ‚Kausalität’. In keinem der drei Themenkreise kann heute noch auf ein naives Kausalitätsverständnis zurückgegriffen werden. In der Quantenphysik haben der Zufall und der Einfluss des Beobachters Platz genommen. „Die Naturwissenschaft steht nicht mehr als Beschauer von der Natur, sondern erkennt sich selbst als Teil dieses Wechselspiels zwischen Mensch und Natur. Die wissenschaftliche Methode des Aussonderns, Erklärens und Ordnens wird sich der Grenzen bewusst, die ihr dadurch gesetzt sind, dass der Zugriff der Methode ihren Gegenstand verändert und umgestaltet, dass sich die Methode also nicht mehr vom Gegenstand distanzieren kann. Das naturwissenschaftliche Weltbild hört damit auf, ein eigentlich naturwissenschaftliches zu sein.“ (Heisenberg 1955: 21) und weiter: „Wenn von einem Naturbild der exakten Naturwissenschaft in unserer Zeit gesprochen werden kann, so handelt es sich also eigentlich nicht mehr um ein Bild der Natur, sondern um ein Bild unserer Beziehungen zur Natur“ (ebd). Bei Systemtheorie und SyA tritt der Beobachter deutlicher in den Mittelpunkt, als es derzeit noch in der Physik erkennbar ist. Verborgen bleibt, dass dessen Fokussierung letztlich auch nur eine eher zufällige Wahl darstellt. Kausale Zusammenhänge bzgl.
548
9 Homologie von QPhy–Systemtheorie–SyA
dieser Wahl der Fokussierung werden zwar angenommen, können einer genauer Betrachtung allerdings ebenfalls nicht standhalten. Beliebig kleine Impulse, ein Wort, eine Frage, die Tageszeit, eine ‚zufälliges’ Geschehen im Umfeld und vieles mehr, eröffnen den Möglichkeitsraum auch für ganz andere Fokussierungen. Lehre und Pragmatik des Funktionierens Selbst im modernen Lernverständnis wird das Prinzip der ‚Selbstorganisation’ (Entwicklungszeitraum 1960 – 1975) mittlerweile in den Mittelpunkt gestellt (Arnold und Erpenbeck 2016: 71). Dass dieses Prinzip in den Mittelpunkt rückte und eine wissenschaftliche Revolution auslöste, die nahezu alle Wissenschaftsdisziplinen erfasst, ist nach Ansicht der Autoren mit der ungeheuren Komplexität der Prozesse und der inneren Dynamik von lebenden Systemen zu erklären. Nach ihnen eignen sich die Denkwerkzeuge der Selbstorganisationstheorie am besten zur Beschreibung. Mit diesen Überlegungen betonen die Autoren „dass reale Prozesse in Natur oder Gesellschaft nicht mechanisch, kybernetisch oder selbstorganisativ ‚sind’, sondern dass wir Mechanik, Kybernetik oder Selbstorganisationstheorie als Instrumente benutzen, um die Realität in irgend einer Weise zu ‚packen’“ (ebd. 71). Konzepte, die auf der Selbstorganisationstheorie aufsetzen sind: (1) Theorie dissipativer Strukturen, (2) Theorie der Synergetik, (3) Chaostheorie, (4) systemtheoretisch-kybernetische Ansätze, (5) Theorie von Autopoiese und Selbstreferenzialität, (6) Theorie der Ökosystemforschung (vgl. ebd.). Das Gleiche darf von den Ansätzen und Modellen der Quantenphysik angenommen werden. Auch sie werden benutzt, um die Realität abzubilden. In gleicher Weise bilden SyA komplexe Realitäten und deren innere Dynamik ab, ohne selbst diese Realität zu sein. Selbst der Unterschied „mechanisch, kybernetisch oder selbstorganisativ“ (ebd.) findet sich in den Vorgehensempfehlungen der unterschiedlichen SyA-Schulen und Leitungsformen wieder. Faszinierender- oder erschreckenderweise, je nach Perspektive, finden wir noch eine weitere Gemeinsamkeiten zwischen Quantenphysik und SyA: Beide leben derzeit noch das Primat des ‚shut-up-and-calculate‘ (Kaiser 2014; Tegmark 2007) oder abgewandelt ‚shut-up-and-constellate‘. Genauso wie in der Quantenphysik diese Aussage jene treffen kann, die versuchen die philosophisch-erkenntnis-theoretischen Fragen zu beantworten, die die Quantentheorie aufwirft, verhalten sich auch die meisten System-Aufsteller entsprechend dieser Mentalität. Beide Richtungen finden sich bisher damit ab, dass die jeweilige Vorgehensweise funktioniert. Im ersten Fall, der Quantenphysik, kann mit Fug und Recht behauptet werden, dass sie die am besten überprüfte Theorie darstellt, die je entwickelt worden ist. Bis zum heutigen Tag musste sie noch keine ihrer Vorhersagen widerrufen. Im zweiten Fall, der Aufstellungsarbeit, wird jeder, der je an einer Aufstellung teilgenommen hat, beeindruckt oder auch irritiert sein, über die auftretenden Phänomene. Mit der Arbeit von Schlötter, liegt zudem eine naturwissenschaftlich fundierte empirische Studie vor, die die individuellen Erfahrungen vollständig stützt. Dass alle bisherigen Erklärungsansätze bei genauer Betrachtung verworfen werden müssen, stört offensichtlich wenig. Eine ‚Pragmatik des Funktionierens’ hat sich breitgemacht.
9.3 Conclusio zur Homologie
549
Kann es sein, dass beiden Disziplinen eine gewisse Angst vor dem was kommen könnte innewohnt? Dass liebgewonnene Erklärungskonzepte und Weltanschauungen überwunden werden müssen und sich Vertrautes als fremd erweist? 9.3
Conclusio zur Homologie
Genauso wie Bertalanffy (1968) waren fast alle geistigen Väter neuer revolutionärer Konzepte vielseitig interessierte Wissenschaftler und Forscher. Sie bezogen ihre neuen, kreativen Ideen aus Impulsen, die durch andere Perspektiven und den Versuch, diese zusammenzubringen, angestoßen wurden. Ausgehend von physikalischen Fragestellungen zu offenen Systemen in den 50ern und ihr Bezug zu offenen Systemen in der Quantenphysik Ende der 90er Jahre sowie die Berücksichtigung von Begriffen wie Energie, System-Umwelt und hierarchische Organisation im Rahmen der Systemtheorie, weisen auf enge gedankliche und zeitliche Verflechtungen hin. Ausgehend von derartigen begrifflichen und kontextuellen Verschmelzungen scheint Forschung, die sich an der Nahtstelle der Disziplinen bewegt, zur Konstituierung neuer Perspektiven und Erklärungen sinnvoll und nötig. Zu Beginn dieses Kapitels stellte Vogd den Versuch, Quantenphysik mit der Sozialforschung in Beziehung zu bringen und eine damit verbundene Homologie und sogar eine Analogie sehr infrage (Vogd 2014: 11). Dass wir es im Dreieck Quantenphysik – Systemtheorie – SyA sogar mit mehreren Formen der Homologie (ontologische, funktionale und konzeptionelle) zu tun haben, wurde auf den vorangegangenen Seiten herausgearbeitet. Auf der Prozessebene der physikalischen Welt (ontologisch), mit ihren Spins und EM-Wellen, ist ein klarer und direkter Bezug bis hin zur Informationsverarbeitung (funktional) bei Menschen darstellbar. Genauso wurde deutlich, dass konzeptionell zwischen den drei Forschungsrichtungen prägnante Entwicklungslinien verlaufen, die nicht als Parallelität, sondern homolog zu interpretieren sind. Passend hierzu kam Vogd auch noch zu einem anderen Schluss: „Von der Quantentheorie zu lernen, heißt damit vor allem zu begreifen, was es heißt, sich auf komplexe Gegenstände einzulassen“ (Vogd 2014: 17). Daraus leitete er weiter ab, dass es lohnenswert wäre, die exakten Wissenschaften zu beobachten, wie sie den Common sense überwinden und sich auf seltsame Weltbeschreibungen einzulassen. Gemeint war der Wechsel von der klassischen, kausalen Physik zur Quantenphysik. Dies könnte „auch Psychologen, Sozial- oder Wirtschaftswissenschaftler inspirieren, sich sowohl ein wenig mehr Verrücktheit als auch die theoretischen Konsequenzen zuzutrauen, welche die Untersuchungsgegenstände ihnen abverlangen“ (ebd.). Dem kann ich mich nur anschließen und hoffen, dass mit der hier vorliegenden Forschung zukünftig auch sein Eingangszitat mit Bezug auf Pseudowissenschaften und plumpe Esoterik der Vergangenheit angehören. Denn auch seine Frage, wie Menschen so etwas Bizarres wie Quantenphysik hervorbringen und klassische physikalische Konzepte radikal überwinden können (ebd. 13), findet eine phänomenologische Antwort im Tao der Physik (Capra 2000), in dem meditative Praktiken und damit der Weg nach innen, die gleichen Er-
550
9 Homologie von QPhy–Systemtheorie–SyA
kenntnissen hervorbringen, wie sie die führendsten Köpfe der westlichen Naturwissenschaften entdeckten. Und konzeptionell lässt sich eine strukturelle Kopplung dergestalt herstellen, dass solche Erkenntnisse nur dann gefunden werden können, wenn der Finder ontologisch, strukturell oder sogar funktionell in Verbindung mit diesen erkannten Prozessen zu treten vermag. Einfach formuliert: die in Experimenten zutage getretenen Phänomene, dass neurologische Quantenprozesse und die dort codierte Quanteninformation auch Information bis hin zur materiellen Ebene der externen Welt erfassen und decodieren kann, funktioniert nur deshalb, weil unsere Neuronen aus genau diesen Entitäten aufgebaut sind. Ein System erkennt sich selbst! Völlig in Übereinstimmung ist dies mit den Erkenntnissen der Systemtheorie, dass beim Beobachter 2. Ordnung nur bereits Vorhandenes zur Resonanz und damit zum Erkennen zu führen vermag. An dieser Stelle lässt sich schlussendlich noch der Kreis zu einem wesentlichen Forschungselement (Code) dieser Arbeit schließen: „Alles Wissen beginnt mit Intuitionen, aus ihnen entwickeln sich Konzepte, die schließlich in Ideen münden“ (Kant in Kriz und Tschacher 2017: 10). Abschließend darf festgehalten werden Sowohl Quantenphysik als auch Systemtheorie als auch SyA befassen sich mit Beobachtungen. Und bei allen dreien darf eine darunterliegende Realität angenommen werden, die nur soviel preisgibt, wie der Beobachter in der Lage ist mit seinen Werkzeugen zu erfassen. Das, was der Beobachter erfasst, durchläuft einen Verarbeitungsprozess, in dem die Eigenheiten des Beobachters, mit dem Erfassten in Beziehung tritt und dieses entsprechend einfärbt. Insofern wird ein konstruktivistisches Verständnis plausibel, das besagt, dass das Wahrgenommene und Erkannte mehr über den Beobachter aussagt, als über das Beobachtete. Ein Verständnis, das bei der Beurteilung von intuitiven Erkenntnisprozessen, wie bei SyA, berücksichtigt werden muss.
9.3 Conclusio zur Homologie
551
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
10
Ergebnisse und Ausblick
In diesem Kapitel werden die Forschungsfragen und Thesen aufgegriffen und übergreifende Ergebnisse abgeleitet. Die disziplinenbezogenen Ergebnisse wurden bereits im Rahmen der Kapitel jeweils als Conclusio zusammengefasst und werden deshalb im Folgenden nur insoweit aufgegriffen, als sie für die Gesamtbewertung notwendig oder hilfreich erscheinen. Selbiges gilt für Referenzen und konkrete empirische Befunde. Zwei Zielsetzungen werden im Besonderen verfolgt: 1. Das Darstellen der Eckpunkte, die Antworten auf die Forschungsfragen liefern. 2. Eine erste Annäherung an die Konsequenzen und Schlussfolgerungen, die sich aufgrund der Forschungsergebnisse bestimmen lassen oder die sich zumindest abzeichnen. Darüber hinaus werden Grenzen dieser Arbeit untersucht und ein Ausblick auf zukünftige Forschungsfragen aufgezeigt. 10.1
Grundsätzliche Ergebnisse auf einen Blick
Ausgehend von den Hauptzielen (Kap. 1.1) und der damit verbundenen Suche nach Antworten zu (1) Anschlussfähigkeit und die mögliche Rolle von SyA in der strategischen Unternehmensführung und ihren Bezug auf Entscheidungsbildung und Intuition sowie (2) Fragen nach ihrer Funktionsweise, entwickelten sich Antworten und Modelle, die deutlich über dieses Anliegen hinausgehen. Sie lassen sich fokussiert in folgenden Antworten zusammenfassen: 1. SyA entsprechen den modernen theoretischen und experimentellen Forderungen aus strategischem Management, Entscheidungstheorie und Intuitionsforschung. Damit erfüllen sie prinzipiell die Bedingungen für ihre Anschlussfähigkeit in diesem Feld. 2. Intuition und SyA unterliegen naturwissenschaftlichen Prozessen und Regeln. Danach sind Lebewesen im Allgemeinen und Menschen im Besonderen als Mixzustand von Quanten- und klassischer Physik modellierbar. 3. SyA stellen eine quantenphysikalische Messanordnung dar, in der Prozesse der Quantenebene auf makroskopischer Ebene in Erscheinung treten und mithilfe menschlicher Systeme veranschaulicht und untersucht werden können. Mit dieser Methodik besteht zudem die Möglichkeit, Zugang zu und damit Informationen über lebende als auch nicht-lebende Systeme zu erhalten, wie sie Organisationen und Wirtschaftssysteme einerseits sowie technische Systeme andererseits darstellen. 4. Als begriffliche Beschreibung bietet sich der ‚Homo Physicus’ an, indem das Zusammenspiel zwischen physikalischen Ausgangsbedingungen und psycho-sozialen sowie ökonomischen Einflussprozessen repräsentiert ist. © Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_10
554
10 Ergebnisse und Ausblick
5. Der ‚Homo Physicus’ ist nur mit einem komplementären Erklärungsmodell vollständig zu beschreiben und zu verstehen und in keinem Fall mit einem reduktionistischen. Der Anteil dessen, was sich auf den ‚Homo’ bezieht, setzt sich aus einer Vielzahl emergenter Entwicklungen zusammen, die nur als Ganzes den Menschen beschreiben können. Insofern benötigt es ein komplementäres Verständnis, wie es auf den vorangehenden Seiten entwickelt wurde. Hierzu zählen chemische, biologische, neuronale, psychische, soziologische als auch wirtschaftswissenschaftliche Rahmenbedingungen und Spezialdisziplinen. 6. Grundlage für die Verbindung von SyA und Quantenphysik sowie für das Modell eines ‚Homo Physicus’ ist die Existenz einer ontologischen, funktionalen und konzeptionellen Homologie. 7. Das Wahrgenommene bei SyA hat nichts mit einem Rollenspiel oder Theater zu tun und es gibt nichts für den Repräsentanten in SyA zu lernen. Über eigene Zustände oder Kontexte kann nur indirekt über analoge Reflexionen und Rückschlüsse gelernt werden. Das was sich in SyA zeigt, ist zunächst nur Information über die untersuchte Frage und das untersuchte System. Direkte Rückschlüsse auf einen eigenen, pathologischen oder dysfunktionalen persönlichen Zustand sind eine Überinterpretation des sich Zeigenden und sollten unbedingt vermieden werden. 8. Auch die Prozesse in unserem Gehirn sind quantenphysikalisch modellierbar und repräsentieren zudem ‚Schrödinger’s Katze’ im Kopf’. Analog zu Schrödinger’s Katze darf von einer Superposition (Überlagerung) unzähliger, gleichzeitiger Gedanken und Möglichkeiten ausgegangen werden, die erst im Moment einer bewussten Wahrnehmung selbiger zu einem Faktum kollabieren. Die Überlagerung selbst und die Vorprozesse bis zur mentalen Realisierung sind nicht wahrnehmbar und geschehen völlig unbewusst. 9. Affektive und kognitive Ansätze, wie sie in den Theorien der ToM (Theory of Mind) bisher unterschieden werden, stellen nur Subkategorien dar und lassen sich als zwei Seiten derselben Medaille interpretieren. 10. Neben kognitiv/affektiv wurden auch die drei anderen Dimensionen zur ToM automatisch/kontrolliert, selbst/andere und internal/external in ein Gesamtmodell zusammengeführt, das eine Vorstellung über die Arbeitsweise unseres Geistes und seines Zusammenspiels mit dem Körper ermöglicht. 11. Informationsaustausch funktioniert auf externale (klassisch mit Zeichen oder EM-Wellen) und internale (quantenphysikalische Verschränkung) Weise, für die differenzierte Modelle benötigt werden, die in den jeweiligen Disziplinen bereits vorliegen. 12. Der Informationsbegriff ist über alle Forschungsdisziplinen hinweg normierbar und spielt als eigenständige Entität, noch vor Energie und Materie, die zentrale Rolle. 13. Kopenhagener Interpretation und Dekohärenztheorie bzw. die Bohmsche Mechanik stellen keine Gegensätze dar, sondern lassen sich über eine Neuinterpretation der Wellenfunktion Ψ integrieren.
10.1 Grundsätzliche Ergebnisse auf einen Blick
555
14. Quantenfeldtheorie (QFT), Allgemeine Relativitätstheorie (ART) und Quantengravitation scheinen sich ebenfalls in einem Modell vereinigen zu lassen. Dies gelingt dann, wenn die QFT auf das Geschehen innerhalb eines Systems, die ART auf das Geschehen an den Rändern eines Systems und auf die Perspektive eines Beobachters bezogen werden und die Quantengravitation als Ausdruck der Wahrscheinlichkeitsdichte interpretiert wird. Abgeleitet aus diesen Ergebnissen dürfen sämtliche 12 heuristisch-theoretischen Überlegungen (12 Säulen aus Kap. 7.1) als bestätigt angesehen werden, ebenso wie die in Kap. 2.1 formulierten und hier nochmals aufgeführten Thesen: 1. Bei SyA treten die gleichen Phänomene zutage (gefühltes und körperlich wahrnehmbares Wissen), wie sie in der Forschung zu Entscheidungen auch im strategischen Managementkontext beobachtet werden. SyA stellt eine Methodik dar, die einen wesentlichen Beitrag für gute Entscheidungen in komplexen Situationen, wie sie bei VUCA-Bedingungen vorliegen, liefern kann und bei der Intuition eine zentrale Rolle spielt. 2. SyA enthalten sowohl phänomenologische als auch konstruktivistische Anteile, die unterschieden und berücksichtigt werden müssen. 3. Die beobachtbaren Phänomene bei SyA können als Informationstransfer auch über Distanz verstanden werden. 4. Die derzeit vorliegenden Forschungsergebnisse, in Bezug auf Intuition an sich, als auch auf SyA, weisen auf signifikante, replizierbare Effekte hin und können so reine Zufallserscheinungen ausschließen. Aus naturwissenschaftlicher Perspektive kann in solchen Fällen stark von einem nachvollziehbaren und erklärbaren, dahinterliegenden Prozess ausgegangen werden, der Stand heute nicht aus einer einzelnen Wissenschaftsdisziplin heraus beschreibbar ist. 5. Bei der ‚Information’ handelt es sich neben ‚Materie’ und ‚Energie’ um eine dritte unabhängige Größe und damit um ‚abstrakte Information’, wie sie von den Physikern C.F. von Weizsäcker und T. Görnitz bzw. um ‚Pragmatische Information’, wie sie in der Systemtheorie beschrieben werden, und die ihre Bedeutung erst durch den wahrnehmenden Repräsentierenden sowie den Fallbringer und deren Interpretationen erfährt. 6. Gelingt es den dahinterliegenden Prozess von SyA zu verstehen, so kann auch Intuition als Ganzes verstanden werden, was zu einer verbesserten Akzeptanz im strategischen Management führen sollte. In gleicher Weise konnten die Hypothesen 2 - 4 bestätigt werden, die sich als Ergebnisse des Codingprozesses ableiten ließen. Hypothese 1 kann jetzt darauf aufsetzen und die hier vorgestellten Erkenntnisse an Unternehmensführer weitertragen. Die bestätigten Hypothesen lauteten wie folgt: 1. Wenn die wissenschaftliche Legitimation intuitiver Wahrnehmungen nachgewiesen ist, dann kann offen an der Integration und Nutzung von SyA im Rahmen der Unternehmensführung gearbeitet werden.
556
10 Ergebnisse und Ausblick
2. Wenn sich eine Verbindung zwischen Intuition und Information darstellen lässt, die nicht nur konstruktivistische Aspekte verdeutlicht, sondern auch mit den phänomenologischen Gegebenheiten übereinstimmt, dann wird ein Zugang zur ontologischen Welt beschreibbar. 3. Wenn Information über das physikalische Codieren (0 und 1) hinaus beschrieben werden kann, dann lässt sich Information als grundsätzliche Größe disziplinenübergreifend behandeln und als Grundlage dessen begreifen, auf welche SyA und Intuition zurückgreift. 4. Wenn Übertragungswege für Informationen gefunden werden, die die Phänomene bei SyA und anderen intuitiven Methoden verständlich auf der Basis des heutigen naturwissenschaftlichen Wissens erklären können, dann ist die Grundlage für eine wissenschaftliche Legitimation gegeben. Insofern hat sich diese Forschung aus mehreren Perspektiven heraus gelohnt: Sie zeigt eine tragende Verbindung zwischen SyA, Unternehmensführung und Entscheidungsfindung. Sie liefert ein interdisziplinäres, integriertes Theoriemodell zum Verständnis intuitiver Prozesse und damit den Zugang zu heute noch unverstandenen, scheinbaren ‚Anomalien‘. Sie ermöglicht einen bewussteren Umgang intuitionsbasierten Phänomenen. Sie ermöglicht eine Überprüfung und Anpassung der experimentellen Konzepte. Sie könnte damit die Basis liefern, Intuition in allen Lebensbereichen, nicht nur in der Unternehmensführung, einen akzeptierten und gemäßen Platz zu geben. Die folgenden Unterkapitel beinhalten eine ausführliche Darstellung und Diskussion der Ergebnisse. 10.2
Naturwissenschaftlich begründetes Theoriemodell zur Intuition im Rahmen von SyA
Eine der Zielsetzungen war der Entwurf eines in sich geschlossenen, komplementären Erklärungsmodells zum Verständnis von Intuition im Rahmen von SyA. Dieses Modell soll den dahinterliegenden Prozess beschreiben. Die beiden Fragen dazu lauten: Wie kann der Wirkprozess von SyA und Intuition beschrieben werden? Wieweit lassen sich damit auch heute im Rahmen der Intuitionsforschung noch nicht erklärbare Phänomene (z. B. Bauchgefühle) nachvollziehen? Das gefundene Modell bildet die Grundlage für die abzuleitenden Konsequenzen für die Wirtschaftswissenschaften und liefert gleichzeitig eine wissenschaftliche Legitimation.
10.2 Naturwissenschaftlich begründetes Theoriemodell zur Intuition im Rahmen von SyA
557
Informationsübertragung allgemein Zunächst folgt eine verdichtete Zusammenfassung des Prozessmodells, wie quantenphysikalisch codierte Information bis in unsere Organisationen wirksam wird. Wenn Korrelationen innerhalb einer Wissenschaftsdisziplin, als auch disziplinenübergreifend in phänomenologischen Beobachtungen eine stimmige Entsprechung aufweisen, so darf auch nach dem Verständnis harter, naturwissenschaftlicher Prinzipien, wie sie die Physik fordert, von homologen Prozessen ausgegangen werden. Solche homologen Prozesse finden sich für den hier untersuchten Forschungsgegenstand – SyA, Intuition – mit vielfältigen Bezügen zu den Natur- und Sozialwissenschaften sowohl ebenenbezogen innerhalb einer Wissenschaftsdisziplin als auch disziplinenübergreifend in Form korrelierender Ergebnisse und Phänomene (Tab. 19): Tab. 19 | Korrelationen und Phänomene innerhalb und zwischen verschiedenen Wissenschaften. Die gefundenen Korrelationen passen disziplinenübergreifend in so eindeutiger Weise zusammen, dass sie sowohl die Annahme einer grundsätzlichen homologen Verbindung zwischen den Phänomenen als auch die Grundlage einer darauf basierenden Informationsübertragung untermauern. (eigene Darstellung)
Ebene der Disziplin
Korrelationen
Phänomene finden sich in ...
Physik
mathematische Korrelationen
Modellen und Experimenten
Biophysik
chemische Korrelationen
Algen, Vögeln, Menschen
Neuroscience
physiologische Korrelationen
mentale und Körperwahrnehmungen
Psycho-sozial
Verhaltenskorrelationen
SyA
In jeder dieser Wissenschaften fanden sich logische, konsistente Zusammenhänge innerhalb der Wissenschaftsdisziplin als auch in Verbindung zu den Nachbardisziplinen. Nur mithilfe einer übergeordneten Perspektive, die die Phänomene in einer Gesamtschau betrachtet, wird das Zusammenspiel und damit das Gesamtbild offensichtlich. Womit die in Kap. 7.2 formulierte Annahme einer komplementären Theorie ihre Bestätigung erfährt. Konkret lassen sich nun zwei grundsätzliche Erklärungen beschreiben. Zum einen die vermutlich einfacher zu akzeptierende ‚strukturelle Kopplung’, wie sie in der Systemtheorie aber auch in der Synergetik verstanden wird. Hierbei bringen Systeme mit ähnlichen Strukturen ähnliche Ergebnisse hervor bzw. sind miteinander korreliert. Dies wird anschaulich vertreten durch die Coding-Hypothese bei den Aktionspotentialen im Gehirn und bei den stimmigen Modellierungen neuronaler Aktivitäten in der Synergetik (siehe dazu Kap. 9). In gleicher Weise kann die GQT als eine weitere Variante der
558
10 Ergebnisse und Ausblick
Synergetik interpretiert werden, da auch sie mit mathematischen Modellen, hier angelegt an die Quantenphysik selbst, quantenphysikalische Prinzipien auf allgemeiner Systemebene abbildet. Mit der Synergetik und ihren mathematischen Modellierungen besteht ein direkter, konzeptioneller Link (Homologie) zur mathematischen Beschreibungsweise der Physik: „Der Rückgriff auf mathematische Modelle aus der Physik beruht auf der Überzeugung, das sich Strukturen in sozialen Systemen mit ähnlichen Methoden untersuchen lassen, wie Strukturen in der Natur, auch wenn diese in ihrem Wesen ganz verschieden sind“ (Ebeling und Scharnhorst 2015: 434). Die Erscheinungsformen in den verschiedenen Wissenschaftsdisziplinen und der dort auftretenden Phänomene scheinen dem Wesen nach unterschiedlich. Gleichwohl vermag die Synergetik für verschiedene Systeme analoges makroskopisches Verhalten vorherzusagen. Die Synergetik operiert dabei vor allem mit quantitativen Ansätzen, vergleichbar der Quantenphysik im Kontext der Kopenhagener Interpretation (KI). Für die mikroskopischen Prozesse dagegen bleibt das Spezialwissen der Fachgebiete relevant (vgl. Haken u. a. 2016: 54). Und dieses Spezialwissen legt einen mikroskopischen quantenphysikalischen Prozess offen, der bis auf die Verhaltensweise lebender Systeme einzuwirken in der Lage ist, passend zu den Bedingungen von Greenstein und Zajonc (Kap. 7.3.1). So wurden verschiedene physikalische Messgrößen (EEG, fMRZ, Hautleitwiderstand, Herzvariabilität) von nicht-lokalen Ereignissen oder Effekten begleitet, wie beispielsweise Spiegelneuronen. Tatsächlich scheinen die Entitäten und Strukturen, die merkwürdige Phänomene (z. B. Informationsübertragung) in der Quantenwelt hervorbringen, die gleichen Entitäten und Strukturen zu sein, die ähnliche Phänomene in lebenden Systemen hervorbringen. Insofern ist es nicht mehr überraschend, dass der Eindruck einer wechselseitigen Beeinflussung entsteht. Deshalb greift die zweite, von mir präferierte Erklärung sehr viel tiefer auf Prozesse der Natur zurück und dringt bis zur Quantenphysik vor (Kap. 8.1). Immer wieder ist im Rahmen der Forschung die Frage gestellt worden, weshalb unbedingt die Quantenebene und nicht Struktur- oder analoge Erklärungen herangezogen werden. Die Antwort steht in direktem Zusammenhang mit der Frage nach der Herkunft, der Codierung und der Speicherung von Informationen und somit mit der Hauptkategorie, der ‚wissenschaftlichen Legitimation‘. Nur wenn Information als emergentes Phänomen ohne konkrete Speicherung und damit mystisch ohne konkretes ‚Sein’ verstanden wird, das nicht mehr erfasst werden kann (Metaphysik), macht es Sinn auf rein strukturelle oder analoge Erklärungen zurückzugreifen. Wird jedoch davon ausgegangen, dass es so etwas wie grundlegende Entitäten gibt, die Informationen und damit zusammenhängende Systematiken tragen und codieren, wie Neuronen, Oberflächenstrukturen oder Quanten und Vakuumfeld, dann darf und muss nach ‚naturalistischen’ Optionen gesucht werden. Aus diesem Grund wurde für die Modellentwicklung zu möglichen Erklärungen eine ontologisch-realistische und damit naturalistische, somit letztlich naturwissenschaftliche Perspektive eingenommen, die auf Ideen von Weizsäcker und Görnitz beruht. Beide gehen von einer in Quanten gespeicherten allumfänglichen Information aus. Letztlich sind dort alle Informationen auf Spinebene gespeichert. Auch wenn der angeregte quanten-
10.2 Naturwissenschaftlich begründetes Theoriemodell zur Intuition im Rahmen von SyA
559
mechanische Zustand des Higgs-Bosons Null ist, so repräsentiert demnach jedes einzelne Higgs-Boson, das aus dem Vakuum- respektive Higgsfeld entstehende Quantenfeld als Ganzes und es darf aufgrund der vorliegenden Forschungsergebnisse, die über die reine Physik hinausgehen, angenommen werden, dass dort tatsächlich sämtliche Informationen codiert und gespeichert werden. Im weiteren Umwandlungsprozess in Richtung makroskopischer Entitäten werden diese Informationen zu immer spezifischeren Subsystemen, die sich u. a. auch über EM-Modulationen mit unserem organischen System in Beziehung zu setzen vermögen. Letztlich darf auch hier von einer strukturellen Kopplung ausgegangen werden, nur eben auf die Spinanordnungen und EM-Frequenzen bezogen, da ansonsten die Informationen nicht zwischen den verschiedenen Entitäten ausgetauscht werden könnten bzw. nicht korrelieren würden. Korrelationen hätten in diesem Fall nur eine auf Zufall basierende Grundlage. Spinanordnungen und EM-Frequenzen speichern in ihren spezifischen Konfigurationen spezifische Informationen und reagieren immer dann, wenn eine Umweltinformation mit diesen Anordnungen in Wechselwirkung tritt, letztlich ein kybernetischer Prozess. Insofern lässt sich auch hier eine Repräsentanz dieser Informationen auf Makroebene postulieren und als strukturelle Kopplung interpretieren. Entscheidend bei der zweiten Erklärung ist, dass wir es hier nicht mehr nur mit deterministischen oder stochastischen Prozessen zu tun haben, sondern mit Verschränkungs- und nicht-lokalen Phänomenen wie sie charakteristisch für quantenphysikalische Prozesse sind. Ausgangspunkt sind experimentell beobachtbare Phänomene dergestalt, dass Information Energie beeinflusst und schließlich makroskopische Effekte auch bei Entitäten bewirkt, die wir als Materie bezeichnen. Wesentlich dabei ist die Annahme, dass jedwede Information in irgendeiner Weise in Quarticles (Quantenteilchen) codiert und gespeichert vorliegt. Es sind Informationen, die über rein physikalische Größen wie Energie, Impuls, Kraft etc. hinausgehen und abhängig von der Information auch andere Formen der Messung benötigen. Forschungen der neueren Zeit waren in der Lage quantenphysikalische Prozesse in Nicht-Gleichgewichtssystemen, bis hin zu Lebewesen, nachzuweisen. Deutlich wurde, dass die Natur Wege gefunden hat, wie sie in solchen Umwelten u. a. Verschränkungszustände über relevante Zeitachsen aufrechterhalten kann. Als Konsequenz ist deutlich geworden, dass sich quantenphysikalische Experimente im Labor von solchen in der Natur unterscheiden und für offene Quantensysteme Modifizierungen bzgl. der ‚Hypothesen zu Quantenverhalten’ vorgenommen werden müssen. Weiter wurde deutlich, dass das Dekohärenzmodell von Zeh (Kap. 8.1.2) eine sehr viel größere Bedeutung besitzt, als bisher angenommen. Informationen verschwinden nicht durch Dekohärenz, sie sind nur auf den ersten Blick nicht mehr sichtbar. Durch Refokussierung können spezifische Verschränkungszustände und damit verbundene Informationen wiederhergestellt bzw. sichtbar gemacht werden. Die Zusammenhänge wurden in Kap. 8.1 herausgearbeitet. Weiter wurde gezeigt, dass unsere Wahrnehmungssysteme (5 Sinne, besonders auch die Haut) über Quanten und deren Spins, die auch in Form von EM-Wellen für uns messbar werden, mit ihrer Umgebung in Wechselbeziehung stehen. Quanten und die von ihnen ausgehenden spezifischen EM-Wellen sind über kohärente Prozesse mit dem
560
10 Ergebnisse und Ausblick
Gesamtkörper und über die Nervenbahnen mit dem Gehirn verbunden. Damit lässt sich eine bio-physikalische Verbindung beschreiben, über die Informationen miteinander in Beziehung gebracht werden (Compton- oder Doppler-Modell). Als Ergebnis ist die Grundlage für eine physikalische Verschränkung gelegt. In Spins der Quanten und in EM-Frequenzen codierte Informationen korrelieren nicht nur zwischen Mikrosystemen, sondern veranlassen Wechselwirkungen und kohärentes Verhalten in direkter Weise auch bei Makrosystemen im Rahmen der Freiheitsgrade der jeweiligen Entitäten und der durch sie konstituierten Systeme. Siehe hierzu Kap. 8.2.1. Informationen, die beispielsweise mit Licht (Photonen) übertragen werden und mit einem aufnehmenden System (Auge) wechselwirken, interagieren zunächst rein physikalisch. D. h. die von den Photonen getragene Information liegt als abstrakte Information vor. Durch einen internen, kohärenten Prozess des Lebewesens wird diese Information einerseits mithilfe von Biophotonen durch die Neuronen geleitet, andererseits in EM-Wellen umgewandelt. Beide Wege führen schließlich ins Gehirn (bei höheren Lebensformen), wo sie mit den gespeicherten Informationen der Neuronencluster interagieren. Mit diesem Übergang werden ALLE Informationen, die das Photon trägt, mit den Informationen des wechselwirkenden Systems Mensch verschränkt. Je nach Intensität, also Häufigkeit und Gleichheit der einfallenden Quarticles, nimmt die Möglichkeit einer wahrnehmbaren Informationsveränderung zu. Nun findet ein Erkennungs- und Übersetzungsprozess statt, der aus einer eingehenden abstrakten Information eine mit Bedeutung versehene Information generiert. Die Bedeutung hängt u. a. von Genesis, Motivation und Kognition, also den Freiheitsgraden des Empfängers ab und dem Sinn, der sich aus den Eingangsinformationen für diesen ableiten lässt. Der Prozess läuft völlig unbewusst ab. Denkbar ist allerdings auch eine rein intrinsisch erzeugte Wahrnehmung, die keine Entsprechung in der Außenwelt besitzt oder sich auf solche berufen kann, schlicht weil etwas Neues gesucht wird. In diesem Fall dienen vermutlich ausschließlich die in Neuronen gespeicherten Quantenzustände und Informationen als Referenz- und Ausgangspunkt einer Antwort. Diese Zusammenhänge wurden in Kap. 8.3 dargestellt. Mit diesem Gesamtprozess (auch dem intrinsischen) werden sowohl ein ontologischphänomenologischer als auch ein konzeptionell-konstruktivistischer Anteil plausibel nachvollziehbar, der in jeder Wahrnehmung eines Lebewesens steckt. Sind Wahrnehmungen mehrerer Empfänger gleich, so darf von einem intersubjektiven Ergebnis ausgegangen werden, aber nach wie vor nicht von einem objektiven, denn verantwortlich für intersubjektive Wahrnehmungen sind vermutlich kollektive Rahmenbedingungen und Prägungen. Andere Kultur, andere Ziele oder gar andere Wahrnehmungssysteme (z. B. wie bei Tieren) führen tendenziell zu anderen Ergebnissen des neuronalen Verarbeitungsprozesses. Aufgrund der physikalisch-biologischen Gegebenheiten weist unser Gehirn alle Merkmale eines organischen Quantencomputers auf (Kap. 8.3.5) mit dessen Hilfe ‚Schrödinger’s Katze im Kopf’ und als weitere Konsequenz ein ‚Homo Physicus’ konstituiert wird, der sowohl auf physikalische als auch auf psycho-soziale, technische und ökonomische Einflüsse und Rahmenbedingungen reagiert. Letztlich ist anzunehmen,
10.2 Naturwissenschaftlich begründetes Theoriemodell zur Intuition im Rahmen von SyA
561
dass dieser ‚Homo Physicus’ mit ALLEN Entitäten in Beziehung steht, die ebenfalls auf Grundlage der Gesetze existieren, die wir quantenphysikalische Gesetze nennen. Und jetzt lassen sich zwei sich schließende Kreisläufe konstruieren. Zum Ersten die Kopplung der quantenphysikalischen Informationsübertragung mit der Synergetik als Strukturtheorie. Die Strukturelemente, die zur Informationsüber-tragung auf Mikro- als auch auf Makroebene nötig sind, finden sich in der Struktur der Quanten-Teleportation (QT) für nicht-lokale Informationsübertragung (Kap. 8.1.4) und in den Spins und EM-Wellen bei lokalem Informationsaustausch (Kap. 8). Eine Struktur, die offensichtlich auch bei Menschen zum Tragen kommt, wie SyA und Kommunikationsmodelle veranschaulichen (Kap. 4.2.2 und 8.1.4). Für die bei der Informationsübertragung beteiligten Strukturelemente liegt damit auch eine funktionale Homologie vor, denn die Elemente müssen gleiche Funktionen besetzen. Zum Zweiten kann aufgrund der Beziehung zu ALLEN Entitäten die bereits formulierte Annahme unterlegt werden, dass Erkenntnisse, die durch meditative Praxis erzielt werden (Capra 2000), durchaus mit einer ontologischen Realität in Verbindung stehen können. In gleicher Weise wird verständlich, wie Menschen so bizarre Zusammenhänge, wie sie die Quantenphysik, aber auch andere Wissenschaften anbieten, entdecken und hierzu passende Theorien zu entwickeln vermögen. Intuitive Ahnungen von Wissenschaftlern und Experten erweisen sich oftmals doch als belastbar, auch wenn Sie zunächst im Widerspruch zum allgemein akzeptierten Paradigma stehen. In Summe ergibt sich schließlich eine ontologische Homologie, die sich vom Mikrozum Makrokosmos erstrecht. Die gleichen Entitäten (Quanten und Quantenprozesse) werden auf allen Ebenen wirksam. Damit wird auch die Lücke zwischen Mikro- und Makrokosmos geschlossen und gezeigt, dass es bezogen auf Lebewesen keinen, wie auch immer gearteten Bruch des Gültigkeitsbereichs der Quantenphysik gibt, durchaus im Sinne von Leggett (Spillner 2009). Informationsübertragung bei SyA und Intuition Mit diesem aus unterschiedlichen Wissenschaften aufgebauten Erklärungsmodell zur allgemeinen Informationsübertragung besteht zum ersten Mal die Möglichkeit den zugrundeliegenden Prozess bei SyA zu beschreiben. Ein Prozess, der in der Lage ist, nicht nur Teilaspekte, sondern sämtliche dort auftretende Phänomene vorherzusagen und nachzuvollziehen. Als Konsequenz darf auch die Frage, ob ‚Phänomene bei SyA als intuitive Wahrnehmung verstanden werden können’, mit JA beantwortet werden. Strukturell lässt sich das Geschehen mithilfe der GHZ-Konfiguration beschreiben (siehe Abb. 70 in Kap. 8.1.4.2). Wie Zeilinger feststellte, benötigt es hier keine Bellschen Berechnungen, sondern nur noch die Sicherstellung einer Verschränkung; eine Verschränkung, die durch den Kontakt des Fallbringers mit seinem Herkunftssystems und dem Kontakt mit der Aufstellungsgruppe bereits sicher vollzogen wurde. Was dann noch nötig ist, ist eine klare Intention und eine damit verbundene Frage, um die Ausrichtung und den Suchprozess durch die Repräsentanten in Gang zu setzen. Der Prozess
562
10 Ergebnisse und Ausblick
stellt sich analog zu dem von Quantencomputern dar. Auf fundamentaler Quanten- bzw. EM-Ebene werden gespeicherte Informationen in Beziehung gesetzt, sie werden ausgewertet und veranlassen über das Gehirn mentale und physiologische Wahrnehmungen. Im Verständnis der quantenphysikalischen Dekohärenztheorie beschrieben heißt das: Interagiert ein physikalisches System (der Fallbringer) mit einem anderen physikalischen System, den Repräsentanten (R), so ergibt sich eine Verschränkung. Im Falle menschlicher Systeme folgt dies aus der Interaktion von Photonen (Augen), Wärmestrahlung (Haut), Wechselwirkung von biochemischen Molekülen (Atem) oder Schall. Damit ist die Eigenschaft (Information) des Systems unmittelbar bei R. Es handelt sich hier nicht um eine Signalübertragung, sondern um eine nichtlokale Korrelation bzw. um eine über das Gesamtsystem (zu untersuchendes System, Fallbringer und R) verschmierte Information. Physikalisch formuliert: Die Information ist delokalisiert über alle involvierten Subsysteme. Die damit verbundene Störung löst bei R Prozesse aus, die schließlich zu Wahrnehmungen werden. Diese Wahrnehmungen entsprechen dem Entstehen einer eigenständigen Welt, wie sie Zeh versteht und damit der Dekohärenzforderung. Das physikalische System von R darf dabei als Teil des Gesamtsystems angesehen werden und unterliegt deshalb nicht der Bedingung ‚nichts ist schneller als Licht’ (Spezielle Relativitätstheorie, nach der weder Materie noch Information mit Überlichtgeschwindigkeit transportiert werden kann), sondern kann instantan auf die Informationen zugreifen. Maximal das Bewusstsein von R darf als außenstehend betrachtet werden. Zeh’s Annahme einer prinzipiellen Verschränkung aller Entitäten aufgrund des Urknalls und der dann folgenden Entwicklungs- und Ausdifferenzierungsprozesse des Universums, bietet eine noch radikalere Interpretation an. Eine solche fundamentale Grundverschränkung lässt eine rein mentale Ausrichtung auf alles was untersucht bzw. erforscht werden soll (auch technische Elemente) als realistische Möglichkeit erscheinen, um auf diese Weise Information über das zu untersuchende Thema bzw. beliebige Entitäten zu erlangen. Von daher erscheint es überhaupt nicht mehr merkwürdig, dass besonders medial begabte oder ‚hochsensitive’ Personen, nicht-lokale, präkognitive und vergleichbare Wahrnehmungen bekommen. Daraus abgeleitet ergibt sich eine Antwort auch für die Funktionsweise der Intuition und für die zahlreichen Beispiele (speziell auch die technischen) im ersten Teil meiner Forschung, für die noch keine Erklärungen gefunden werden konnten. Schlötter’s Forschung im Rahmen der SyA zeigte, dass prinzipiell jeder gesunde Mensch, der sich innerlich öffnet, in der Lage ist, repräsentierende und damit intuitive Wahrnehmungen zu generieren. Im Umkehrschluss bedeutet dies, dass jeder gesunde Mensch auch andere Formen von Intuitionen aufnehmen und verarbeiten kann.
10.3 Antworten zur wissenschaftlichen Legitimation
563
Intuition wird nun verstanden als ‚unbewusste Informationswahrnehmung aus beliebigen Quellen’. (Menschen, Tieren, Pflanzen, Mineralien, Weltgeschehen oder abstrakte Zeichencodes) Ob und wenn ja welche mentale und körperliche Beeinträchtigung entsprechende Wahrnehmungen behindert, müsste noch näher untersucht werden. Damit wird letztlich auch verständlich, wie die Beispiele aus Entscheidungs-, SyAund Intuitionsforschung (Kap. 5.1), die der Kategorie ‚Bauchgefühl’ zugeordnet wurden, wie Chicken Sexing, Flugzeugerkennung oder Trader (Kap. 4.1.3) ihre Information erfassen. Sie tun dies, entsprechend dem in Abb. 28 (Kap. 4.2.2) entworfen Kommunikationsmodell, auf der Basis von Quantenverschränkung und EM-Interferenzen direkt und unmittelbar. In gleicher Weise funktionieren SMC (Silva-Mind-Control), das Supervisionssetting systemischer Beraterausbildung (Abb. 23) und TA-Ausbildungen (Abb. 24). 10.3
Antworten zur wissenschaftlichen Legitimation
Bevor eingehender auf die Bedeutung und Konsequenzen der Forschungsergebnisse für die Wirtschaftswissenschaften, SyA und Intuition eingegangen wird, scheint es sinnvoll die Ergebnisse zur ‚wissenschaftlichen Legitimation’ in den Mittelpunkt zu stellen. Wie deutlich herausgearbeitet wurde, entscheidet sich mit ihrer positiven oder negativen Konnotation die Wertigkeit und damit Akzeptanz sämtlicher Forschung in diesem Feld. Warum gibt es bisher noch keine Theorie? In Kap. 2 wurde als Legitimationsbedingung für die experimentell gefundenen Evidenzen die Notwendigkeit einer nachvollziehbaren Theorie deutlich herausgearbeitet. Mit dieser Forschung liegt nun eine naturwissenschaftlich begründete Theorie vor, die für eine bedeutsame Klasse an Anomalien (Intuition und Präkognition) ein Erklärungsmodell zur Verfügung stellt. Vermutlich zum ersten Mal in der Geschichte der abendländischen Forschung ist für diese Gruppe von Anomalien ein nachvollziehbarer Prozess für deren Auftreten beschrieben worden, der sich nicht mehr auf Analogien oder Annahmen berufen muss. Es stellen sich nun mehrere Fragen: Weshalb existierte für solche Phänomene wie Intuition bisher noch keine Theorie zum dahinterliegenden Prozess, obwohl diese Phänomene schon lange bekannt sind? Was verhindert die Erforschung dieser Phänomene oder warum überlässt man sie nur kleinen Randgruppen? Welche Gründe existieren, dass die einen solche Phänomene scheinbar nicht kennen oder besser in keinem Fall erwarten, und andere diesen schwarzen Elefanten nicht sehen wollen? Sind es die Fachorientierung in der Wissenschaft oder Baggott’s Erkenntnisse – ohne Theorie keine Beobachtung? Neurowissenschaftlich und systemtheoretisch ließen sich beide Erklärungsmodelle gut ableiten, unterstützt mit dem Bayes-Theorem einer subjektiven Wahr-
564
10 Ergebnisse und Ausblick
scheinlichkeit. Eine weitere Erklärung liefern die unterschiedlich präferierten Erkenntnisformen in den verschiedenen Wissenschaften, bei denen besonders Deduktion und Induktion keine wirklich neuen Erkenntnisse produzieren. Abduktion und Intuition spielen derzeit aber noch keine formelle Rolle, sie wirken eher aus dem Hintergrund. Diese verschiedenen Erklärungen wurden in Kap. 2.2 bereits herausgearbeitet. Oder liefert Kuhn eine mögliche Erklärung, wenn er der „Normalwissenschaft“ das Verteidigen von „Paradigmen“ unterstellt bis sich die „Normalwissenschaft“ aufgrund ungelöster Fragestellungen und Anomalien schwerwiegende Krisen organisiert, die nicht selten in einem Paradigmawechsel enden (Carrier 2007: 30–33)? Die „Normalwissenschaft“ gräbt sich Kuhn zufolge ihr eigenes Grab. Dies geschieht allerdings erst, nachdem eine Alternative bereitsteht; eine Alternative, die jetzt vorliegt. Davor steht nach Kuhn zum einen eine sozial-deskriptive Reaktion (ebd. 19), in der das Paradigma als gesellschaftlich akzeptiertes Faktum formuliert wird und weiter zu einer sozial abgeschlossenen Gesellschaft führt, die dazu tendiert Kritiker auszuschließen. Hierzu ist die Kritik von Shepherd und Suddaby über die derzeitige Veröffentlichungspraxis hervorragend anschlussfähig. Zum Zweiten eine epistemisch-normative Reaktion, in der die erkenntnistheoretische Maxime zu einer Konzentration auf spezifische Fragen und Detailprobleme zielt. In Kuhn’s Erklärungen findet sich vermutlich einer der Gründe für schwarze Schwäne und schwarze Elefanten. Noch dominiert die ‚Normalwissenschaft’ mit ihren ‚Paradigmen’, und das oben beschriebene ‚fach- bzw. disziplinbezogene’ Vorgehen verhindert das Erkennen weiträumiger und disziplinenübergreifender Anomalien. Das Ganze tatkräftig unterstützt durch die Veröffentlichungspraxis der Königsklasse der jeweiligen Journals, wie Shepherd und Suddaby anmerkten. Nachdem sich die ‚Normalwissenschaft’ selbst ein Grab schaufelt, wie Kuhn meint (ebd. 30-33), in dem sie Fragen und Anomalien in nicht ausreichender Weise zu beantworten vermag, stellt sich nun eine entscheidende Frage: Ist das Vertrauen in das alte Paradigma (Trennung von Geist und Materie) der klassischen Physik und Weltanschauung bereits so erschüttert, dass eine neue Theorie, wie sie hier herausgearbeitet wurde, eine Chance bekommt? Zumindest erfüllt das hier entwickelte theoretische Modell, die methodologischen Forderungen von Lakatos (vgl. ebd. 35): 1. Das neue Modell erklärt auch die Phänomene, die das Vorgängermodell bisher erklären konnte, u. U. aber auf eine andere Weise. 2. Neue, bis dahin unerwartete empirische Tatsachen werden vorhergesagt und das auf der Basis von regelmäßigen Effekten. 3. Die neuartigen Effekte finden sich in der Erfahrung. Allerdings besteht neben Kuhn’s ‚Stufenschema’, vom (a) Paradigma und (b) einem damit verbundenen Paradigmamonopol in den Normalwissenschaften zur (c) wissenschaftlichen Revolution (ebd. 30-34), noch eine weitere Herangehensweise, um wissenschaftliches Arbeiten zu sichern. Sie ist als Popper’s Falsifikation (ebd. 29) bekannt, bei der versucht wird, die Theorie durch die Erfahrung zu widerlegen. Die hier widerlegte Theorie sind die zahlreichen Annahmen der Quantenphysik, u. a. der Glaube, dass in Makrosystemen keine nicht-lokalen oder quantenphysikalischen Phänomene möglich
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
565
sind. Gelingt eine solche Widerlegung, muss nach neuen Erklärungen gesucht werden, so zumindest die Theorie. Wie Popper jedoch schon selbst erkannt hat, besteht eine gängige Methode auf solche Anomalien, die nicht in das gängige Paradigma passen wollen, mit „Ausflüchten“ und „Immunisierungsstrategien“ zu reagieren (ebd.). Dies gelingt umso besser, je weniger Ausnahmen bekannt sind. Insofern versuchte diese Arbeit zusätzlich eine möglichst große Fülle an solchen ‚Anomalien’ aus verschiedenen Disziplinen mitzuerfassen, um den Raum für Ausflüchte zu reduzieren. Wenn Kuhn formulierte, dass Krisen in einem Paradigmenwechsel enden (ebd. 32), so lässt sich das aktuelle Informationszeitalter in der Tat als Krise interpretieren, das die Komplexität in ungeahnte Dimensionen treibt und bisher erfolgreiche Lösungsansätze obsolet erscheinen lässt. Die Krise der damit verbundenen geeigneten Strategie- und Entscheidungsfindung ist zweifelsohne in den Wirtschafts- aber auch in den Sozialwissenschaften angekommen; in beiden u. a. in Form der VUCA-Bedingungen und konkret in Überlastungs- bzw. Burn-out-Situationen. Die Suche nach geeigneten Wegen mit den Krisen des Informationszeitalters umzugehen, führte in der Ökonomie zum Einsatz der Methode der SyA, die paradoxerweise das rationale naturwissenschaftliche Weltbild extrem herausfordert. Mit dem hier vorgestellten Erklärungsmodell, das in all seinen Kernfassetten auf gängigen, wissenschaftlichen Theorien und Modellen aufsetzt, wird eine Theorie angeboten, die Intuition und Bauchgefühl als naturwissenschaftlich begründbar erscheinen lässt und damit gleichzeitig Descartes’ Weltbild überwindet. Der bereits in den meisten Wissenschaften eingeläutete Paradigmawechsel erhält eine fundierte Basis, auf der neue, vermutlich ganz andersartige Erkenntnisse gewonnen werden können. Insofern scheint mir Wagenmakers Forderung nach neuen Methoden der Evidenzmessung (Kap. 4.1.3) einerseits unbegründet, andererseits aber auch begründet. Unbegründet in dem Sinne, als er auf die Ergebnisse selbst abzielte, die, nicht nur seiner Meinung nach, gar nicht erst auftreten dürften. Darauf bezog er die Forderung nach alternativen Erhebungs- und Auswertungsmethoden. Jedoch begründet dahingegen, dass die derzeitigen Versuchsanordnungen in vielen Fällen vermutlich Verschränkungs- und damit Verwässerungseffekte nach sich ziehen und so keine klaren Unterschiede zu beispielsweise Placebos oder (scheinbar) unbehandelten Versuchsteilen kreieren. Wenn die hier vorliegenden Forschungsergebnisse einen Teil unserer Realität korrekt erfasst haben, dann machen sich Intention und Beobachtereffekt, nicht nur psychologisch, sondern fundamental als Verschränkung mit Messapparaturen und zu untersuchenden Entitäten bemerkbar. Deshalb bedarf es dringend einer Überprüfung und in vielen Fällen einer Neukonzipierung der Versuchsarrangements. 10.4
Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
Deutlich wurde, dass es sich bei SyA nicht nur um reine Phänomene sozialer Interaktionen, sondern auch um Phänomene unter Einschluss materieller und abstrakter Größen geht, auf die sich die Intuition und unsere Entscheidungen oft beziehen.
566
10 Ergebnisse und Ausblick
Daraus ableitbare Konsequenzen werden im Folgenden nun näher beschrieben. Fokussiert wird dabei speziell auf oben benannte Bereiche unseres Lebens in Verbindung mit ihrer wirtschaftswissenschaftlichen Relevanz. SyA und ihre Bedeutung für Unternehmensführung und Entscheidungsprozesse Zunächst folgt eine detaillierte Abschlussbetrachtung der Ergebnisse in Bezug auf das Hauptziel – Anschlussfähigkeit von SyA an Unternehmensführung, strategisches Management und die Möglichkeiten und Grenzen von SyA für ökonomische und komplexe Entscheidungsprozesse und damit verbundene Detailfragen: 1. Welchen Beitrag kann SyA für die strategische Unternehmensführung und die Entscheidungs-Forschung leisten? 2. Auf welchem qualitativen und verlässlichen Niveau bewegen sich Entscheidungen, die auf den Ergebnissen von SyA basieren? 3. Welchen Beitrag kann SyA für das Problem der Kontingenz und doppelten Kontingenz im Rahmen von Entscheidungen liefern? 4. Was muss bei der Nutzung von SyA für Entscheidungen in Bezug auf die zur Verfügung stehenden Möglichkeiten berücksichtigt werden? Zu 1: Beitrag der SyA zur strategischen Unternehmensführung und Entscheidungsforschung. In Bezug auf (1) darf oder muss als erstes herausgestellt werden, dass SyA dann sinnvoll erscheinen, wenn keine quantitativen Informationen vorliegen, also beispielsweise keine Ergebnisse vorliegen, die auf großen Zahlen (Statistiken und der damit verbundenen Stochastik) beruhen, wie sie Kahneman präferiert (Kahneman 2016). SyA bieten sich für Einzelentscheidungen ohne vollständige Hintergrundinformation und für qualitative Erkenntnisse an. Ihre Besonderheit liegt in ihrer Vielseitigkeit von Anwendungsmöglichkeiten und bewussten Nutzung zur Generierung intuitiven Wissens sowie dem Entdecken verdeckter Dynamiken und Informationen. Bezogen auf das Modell von Nagel und Wimmer (Tab. 7) liefert sie eine 5. Spielart der Strategieentwicklung. SyA bieten den Vorteil, körperliche Intuition in geordneten Bahnen anzustoßen und auszuwerten und das im Rahmen einer definierten Such- und Interventionsarchitektur. Damit bietet sie einen Gegenpol zum normalen, rein zufälligen Auftreten intuitiver Geistesblitze und Körpersensationen. Gleichzeitig entspricht ihr Vorgehen dem kombinierten 5-Phasenmodell, welches sich aus der Forschung zu strategischem Management und Entscheidungstheorie abgeleitet hat (Abb. 17). Zusammenfassend liegt die Stärke von SyA im Rahmen der Unternehmensführung und komplexer Entscheidungssituationen ... a) in einer Kombination von Intuition und Rationalität, beides Aspekte, die zwingend für gute Entscheidungen in einer VUCA-Welt von Nöten sind. b) in ihrer Möglichkeit, strategische Prozesse, vom ersten Schritt in der Vorphase bis in die erfolgreiche nachhaltige Realisierung, zu begleiten.
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
567
c) in ihrer Möglichkeit, vielfältige Alternativen ungefährdet zu testen. d) indem sie die Wahrnehmungssensitivität und Bewusstheit der Entscheidungsträger erhöht. e) in der ihr innewohnenden Option, den Effectuation-Ansatz vollständig abzubilden und zusätzlich Wirkung im Handlungsfeld zu erzielen, indem sie die Informationslage im gesamten Betroffenheitskontext, auch nicht-lokal, beeinflusst. f) in ihrer extrem zeit- und kostensparenden Anwendung. g) in ihrer Möglichkeit, die Anzahl und Größe von Entwicklungs- und Fehlinvestitionen zu minimieren. SyA sind zudem in der Lage, jenseits der Unternehmensführung und Strategiearbeit, ganz alltägliche Beiträge zu technischen Problemen, Projekten und Zusammenarbeitsthematiken zu liefern. Ihr spezieller Nutzen liegt in ihrer Möglichkeit, schnell und effektiv, Hinweise zu verdeckten und komplexen Problemstellungen oder Fehlern zur Verfügung zu stellen. Zu 2: Qualitatives Niveau von Entscheidungen basierend auf SyA. Die Frage nach Qualität und Verlässlichkeit von Entscheidungen, die auf SyA basieren, darf in letzter Konsequenz mit ‚eindeutig positiv’ beantwortet werden. Gleichwohl müssen verschiedene Aspekte berücksichtigt werden. Die bisherigen Forschungen und Experimente zeigen in Summe eine hohe Zuverlässigkeit der rein abstrakten, sprich phänomenologischen Wahrnehmung. Gelingt es die persönlichen Färbungen zu kontrollieren, sind Ergebnisse von SyA reliabel und valide, im Quervergleich mit anderen Mess- bzw. Erhebungsmethoden sogar objektiv, wie zahlreiche bisherige Forschungen zeigen konnten. Demgegenüber ist, wie allgemein bekannt, Zukunft per se unsicher, weil neue Einflüsse jede zukünftige Situation wieder ändern können. Insofern zeichnen sich durch die Ergebnisse von SyA Möglichkeiten, aber keine deterministisch festgelegten, zukünftigen Entwicklungen ab. Es darf darüber hinaus angenommen werden, dass Ergebnisse von SyA die Entwicklungen im weiteren Verlauf beeinflussen. Damit lassen sich sowohl die auf Clausewitz zurückgehende ‚strategische Intuition’ als auch der Effectuation-Ansatz bestätigen. Ersterer erfasst das Momentum (aktuelle Möglichkeiten), Letzterer kreiert und generiert ein Umfeld auf der Basis eigener Möglichkeiten und sichert diese durch eine zirkuläre Vorgehensweise ab. In der Zirkularität steckt ein immer wieder Überprüfen der aktuellen Möglichkeiten und Bewegungsrichtungen und ermöglicht dadurch ein schnelles Reagieren, mit der Konsequenz einer größeren Erfolgswahrscheinlichkeit. Letztlich entspricht dies dem, was heute unter Agilität verstanden wird. Eine Agilität die nicht nur reaktiv, sondern mit Hilfe von SyA proaktiv und kontinuierlich die Zukunft antizipiert und moduliert. Ergänzend zu der Möglichkeitsperspektive die SyA bzgl. der Zukunft zeigen, erscheint mir ein anderes Phänomen zentral. Die Abschlussbilder primen unser neurologisches Wahrnehmungs- und Verarbeitungssystem. Unsere ‚Schrödinger’s Katze im Kopf’ wird quasi geeicht und ‚Sinn’-konditioniert, mit der Konsequenz einer ständigen unbewussten Sensibilität und Suche für all die Informationen, die für die festgelegte
568
10 Ergebnisse und Ausblick
Strategie relevant scheinen. Dies dürfte auch der Grund sein, weshalb wir einmal für ein Thema sensibilisiert, dieses ab diesem Zeitpunkt immer und überall wiederfinden. Obwohl das Thema auch schon vor der Sensibilisierung existierte, wird es erst danach von unserem Bewusstsein erfasst. Welche Aspekte sollten nun berücksichtigt werden? Zur Frage der Qualität und Verlässlichkeit darf vor allem festgehalten werden: Schritt 4 im 5-Phasenmodell dient als Grundlage für die weiterhin existente Sinnhaftigkeit, nicht anwesende Stakeholder auf dem weiteren Weg mitzunehmen und die getroffene Entscheidung bzw. präferierten Handlungsrichtungen in belastbare Erklärungen zu transformieren. Dies ist besonders vor dem Hintergrund relevant, als Qualität und Verlässlichkeit nicht nur von der Aufstellung selbst, sondern auch von der weiteren Umsetzung abhängt. Für diese Umsetzung ist die Akzeptanz der Entscheidung von zentraler Bedeutung und die hängt in den meisten Fällen immer noch von deren Nachvollziehbarkeit ab. Darüber hinaus verhält es sich grundsätzlich wie in allen anderen Strategie- und Entscheidungskontexten auch, die Qualität der Ergebnisse steht in engem Zusammenhang mit der Qualität der gestellten Frage. Bezüglich der Auswahl der gestellten Frage zeigt sich immer wieder, dass kleinste Veränderungen in der Frageformulierung zu anderen Ergebnissen führen können. Dies scheint auf der Basis bisher vorliegender Forschungen relevanter zu sein, als die Wahl der Repräsentanten. Im Gegensatz zur verbreiteten Meinung liegt die Qualität nicht nur an der Wahrnehmungsfähigkeit der Repräsentanten oder der Leitungskompetenz der Aufstellungsleitung. Sie liegt auch an der Intention und Erwartungshaltung aller Teilnehmenden, als auch an der Vertrautheit und professionellen Nähe zum Thema. Aus diesem Grund sollte eine zusätzliche Aufmerksamkeit auf dem Vorhandensein und der Stärke bewusster und unbewusster Intentionen aller bei SyA anwesenden Personen gerichtet werden und damit auf den Umfang an Priming- und Verzerrungseffekten. Wie gezeigt wurde, kann Intention und Erwartungshaltung Wahrnehmung und Interpretation stark beeinflussen. Deshalb erscheint es zwingend geboten, eine innere Offenheit und Neugierde für die sich zeigenden Ergebnisse zu entwickeln und damit eigene Intention und Erwartungshaltung loszulassen oder zumindest sich bewusst zu machen. Sind sie bewusst, können sie über Repräsentationen überprüft werden. In der Praxis erwies es sich als hilfreich, die nicht-bewussten Anteile zu externalisieren und als Repräsentanten ebenfalls mit in die SyA zu nehmen. Eine weitere sehr wirkungsvolle Methode im Umgang mit Priming- und Verzerrungseffekten sind Blindaufstellungen: Blindaufstellungen helfen Primingeffekte zu minimieren, da der Kopf der Repräsentanten mit seinen Vorurteilen ausgeschaltet ist. Die mit spezifischen Situationen verbundenen konzeptionellen Modelle haben keine Möglichkeiten zu greifen. Meine ‚Vorurteile’ zu Wettbewerber, Technologien oder anderen, für strategische Fragen wichtigen Elementen, können aus Ermangelung eines klar etikettierten Gegenübers nur schwer Wirkungen entfalten. Diese Annahme beruht auf den Experimenten der Entscheidungs- und Intuitionsforschung, bei denen erst durch eine
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
569
bewusste kognitive Verarbeitung die unterbewusst gefühlten Wahrnehmungen verfälscht wurden. Zu 3: Beitrag von SyA zum Problem der Kontingenz und doppelten Kontingenz. Mit dem Bezug zu den Modellen von von Clausewitz (Kap. 3.2.2), der auf die Verbindung von Kontingenz und doppelter Kontingenz fokussiert, und dem Effectuation-Ansatz, der sich schwerpunktmäßig an der Kontingenz orientiert, stellte sich die Frage, welchen Beitrag die SyA zum Problem der Kontingenz und doppelten Kontingenz im Rahmen von Entscheidungen zu liefern vermag. Bei der einfachen Kontingenz geht es um die Wahlmöglichkeiten (Kontingenz) in einer nicht vollständig und eindeutig erfassbaren Realität. Zu dieser Realität gehören auch oder besser vor allem die unbewussten Anteile und Intentionen. Diese Wahlmöglichkeiten werden durch den Entscheider festgelegt und auf ein Ergebnis reduziert. Hier bieten SyA die Option, auch andere Wahlmöglichkeiten ins Auge zu fassen, vorausgesetzt es gelingt mit der Fragestellung und der Auswahl der zu repräsentierenden Elemente auch andere Wahlmöglichkeiten entstehen zu lassen. Mit einem Trick der Repräsentation ‚Was sonst noch möglich ist‘ bzw. einem ‚freien Element‘ oder auch ‚Hindernisse# lässt sich das Fenster etwas weiter öffnen, wird letztlich aber doch im Rahmen der strukturellen und funktionellen Möglichkeiten der Beteiligten liegen. Dennoch bieten SyA durch ihren Zugang zum Unbewussten und zu verdeckten Informationen und Dynamiken einen wesentlich umfangreicheren Möglichkeitsraum an, als es rationale oder andere konventionelle Ansätze vermögen. Für die doppelte Kontingenz (Abhängigkeit der eigenen Handlung von der erwarteten Kontingenz der anderen Beteiligten) und damit die Frage nach der Wahl, die das Gegenüber treffen möchte, bieten SyA eine besondere Antwort. Sie ermöglicht die Wahrnehmung auch solcher Präferenzen, die den untersuchten Systemen selbst noch nicht bewusst sind. Insofern können Entscheidungen auf sehr viel fundierteren Grundlagen getroffen werden als ohne SyA. Die Unsicherheit bei Entscheidungen lässt sich zumindest reduzieren. Mit SyA kann die beim Empfänger vorliegende Informationsverarbeitungsart, quasi als Probehandeln, überprüft werden. Die Repräsentanten zeigen durch ihre Wahrnehmungen, inwieweit eine strukturelle und funktionelle Kopplung möglich ist, ein gemeinsamer Sinn kreiert werden kann und wie eine geeignete eigene Aktion aussehen sollte, die für alle Beteiligten zu einem erfolgreichen Ergebnis zu führen vermag. Die zunächst vorliegende Unbestimmtheit lässt sich durch das Modellieren in der SyA zu einem Faktum verändern. Damit ergibt sich auch die Option, beim Gegenüber bestimmte Intentionen überhaupt erst zu implementieren und damit zu manipulieren, was die Frage nach einer Ethik aufwirft, die viel weiter als bisher gedacht werden muss. Zusätzlich werden darüber hinaus nicht nur bewusste kommunikations- und marketingtechnische Anliegen und Vorgehensweisen relevant, sondern auch unbewusste Intentionen und Prozesse, die ihre Wirkung entfalten können.
570
10 Ergebnisse und Ausblick
Zu 4: In Bezug auf die zur Verfügung stehenden Möglichkeiten ist bei SyA zu berücksichtigen. Sinnvoll sind SyA nur bei Vorhandensein nicht ausreichender Informationen. Achtung vor Priming-, Intentions- und Interpretationseffekten (wie bereits beschrieben). Besonders problematisch sind dogmatische Aufstellungsleitungen und Repräsentanten bei offenen und nicht verblindeten SyA. Die Ergebnisse bewegen sich zunächst im Bereich der strukturellen und funktionellen Möglichkeiten der Beteiligten an SyA. Dazu gehören Genesis, Kognition und Motivation mit den Unterkategorien Ziel und Vorstellungskraft. Irritierende und überraschende Wahrnehmungen/Rückmeldungen der Repräsentanten helfen, den Möglichkeitsraum zu erweitern und Beschränkungen zu überwinden. Sie sollten verfolgt und berücksichtigt werden. Durch die Unterschiedswahrnehmung zw. Vor- und Nachher und einer quantenphysikalischen Verschränkung mit allen Informationen unterliegen Repräsentanten keinen klassischen Beschränkungen, wie etwa einer prinzipiellen Nichtzugänglichkeit von Informationen. Wohl aber benötigt es i. d. R. einer Interpretationshilfe dessen, was sie wahrnehmen und damit bedarf der konstruktivistische Teil im Rahmen von SyA und die damit verbundene Wirklichkeitskonstruktion einer besonderen Aufmerksamkeit. Hilfreich dürfte auch die Beteiligung von Persönlichkeiten sein, die unterschiedlichste Backgrounds mitbringen. Intentionen und Prägungen dürften dadurch diversifiziert werden, was dominante Einflüsse reduzieren sollte. Ergänzend dazu sollte die Komplexität des zu untersuchenden Systems abgebildet werden, was bedeutet, Elemente mit in die SyA zu nehmen, die Korrekturfunktionen übernehmen können. So bietet sich beispielsweise eine Skala von ‚realistisch’ bis ‚utopisch’ an, auf der sich ein Repräsentant bewegt, und zwar in Bezug zur Stimmigkeit dessen, was in der SyA passiert. Sehr achtsam ist mit den Interpretationen umzugehen. Je weiter der Repräsentant vom Thema weg ist, desto analoger kann die Wahrnehmung sein, da dessen neurologisches System die Information, entsprechend seiner inneren Repräsentanz und ihm zugänglichen Sinn abbildet. Analog bedeutet hier, dass das Wahrgenommene auf ganz andere Kontexte bezogen wird und dadurch erhebliche Verfärbungen bis hin zu Falschinterpretationen erfährt. Hier liegt jedoch auch die Möglichkeit, über den bisherigen Denkrahmen hinaus zu gehen. Hilfreich scheint dennoch, Personen mit guter Feldkompetenz zum Thema, und auch hier mit unterschiedlichen Backgrounds, mit in die Auswertungsrunde zu integrieren. Darüber hinaus sollte beachtet werden, dass es immer auch noch andere Optionen gibt, insbesondere dann, wenn sich die Ergebnisse als schwierig erweisen sollten. In einem solchen Fall ist es geboten, die SyA, statt mit einem fixierenden Abschluss, mit einer wieder öffnenden Intervention zu beenden. Hierdurch besteht die Option, das ungünstige oder ungewollte Messergebnis wieder zu verflüssigen, sprich, statt eines Faktums wieder eine Superposition von Möglichkeiten herzustellen. Dies ist insofern von
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
571
Bedeutung, als die Forschung zu SyA eine hohe Realisierungswahrscheinlichkeit der Aufstellungsergebnisse gezeigt hat. Führung und Kommunikation Einen weiteren essentiellen Beitrag, den diese Forschung für Unternehmensführer leistet, ist ihre Erkenntnis zur Authentizität und Glaubwürdigkeit. Beide Aspekte sind von zentraler Bedeutung für Change-Vorhaben und deren Anschlussfähigkeit in der Organisation. Darüber hinaus spielen die beiden Aspekte eine wesentliche Rolle im Rahmen der unterstützenden Change-Kommunikation. In der Kommunikationswissenschaft ist das Konzept des Double Bind bekannt, das auf Bateson zurückgeht (Bateson 1985: 270–301). Bateson hat bei seiner Forschung zu Kommunikation und Interaktion erkannt, dass Menschen mit Störungen reagieren können, wenn sie ‚sich gegenseitig ausschließende Mitteilungen‘ bekommen. So kann das gesprochene Wort nicht mit den Gesten oder dem Tonfall zusammenpassen. Er vermutete, dass Schizophrenie darin ihren Ursprung hat. Simon erweiterte dieses Perspektive, indem er nicht die „Unfähigkeit, klar zu kommunizieren“ als das Problem ansieht, sondern gerade die „Fähigkeit, unklar zu kommunizieren“ (Simon 2012: 144) als Lösung für Beziehungen betrachtet. Klare Kommunikation von Sachverhalten, die unterschiedlich bzw. gegensätzlich bewertet werden, können Konflikte produzieren und würden demzufolge eine Gefahr für die Beziehung darstellen. Rein logisch ist diese Perspektive nachvollziehbar, auf der Basis der Erkenntnisse einer ‚verschränkten Kommunikation’ ist sie dennoch wenig hilfreich. Wir müssen davon ausgehen, dass ein Gegenüber beide Botschaften (die verbal-bewusste und die unbewusste) aufgrund der physikalischen Verschränkung wahrnimmt und sein neuronales System beide Botschaftsanteile nicht mit einem kohärenten Sinn belegen kann. Hier wird explizit über die bekannten Phänomene der Mikrobewegungen und Stimmveränderungen hinausgegangen. Typische Beispiele im Führungsalltag sind geplante Personalkürzungen, Umorganisationen bzw. Umbesetzungen oder Changeinitiativen, die nicht als solche klar kommuniziert, sondern oft sogar mit genau gegenläufigen Aussagen kaschiert werden. Als Folge nimmt der Empfänger eine Störung wahr, die die Glaubwürdigkeit und Authentizität des Senders infrage stellt und psychologisch als ‚Verstrickung’ interpretiert werden darf. Gleiches ist auch auf Führungskraft-Mitarbeiter- oder Kollegen-Beziehungen zu übertragen. Mein inneres Bild zum Gegenüber kommt bei diesem an. ‚Ich spüre was du denkst’ (in Anlehnung an das Konzept der Spiegelneuronen und den Buchtitel ‚Warum ich fühle, was du fühlst’) hängt letztlich nur von der Sensitivität und Bewusstheit des Empfängers ab. Gleichwohl bleibt auch bei einer unbewussten Wahrnehmung ein Störgefühl, das Wirkung entfalten kann. Aufgrund der nicht-lokalen Informationsübertragung erklären sich damit auch Irritationen des Umfelds nach Besprechungen (selbst wenn dem Umfeld diese Besprechungen gar nicht bekannt sind), in denen die Teilnehmenden neue und noch geheime Vorhaben planen. Die Irritationen können letztlich zum Entstehen von Gerüchteküchen führen. Die Besprechungsinhalte sind noch während der Besprechung bei verschränkten Personen (z. B. nächste Führungsebene, Mitarbeiter oder auch Geschäftspartner) im
572
10 Ergebnisse und Ausblick
nicht-lokalen Umfeld. Von diesen können sie als abstrakte Information wahrgenommen werden. Je nach Beziehung und Erwartungshaltung entstehen innere Bilder, die beeinflusst durch beliebige andere Impulse zu einem Gefühl und mentalen Konstrukt emittieren, die überhaupt nichts mit dem Besprochenen zu tun haben müssen. Es braucht somit noch nicht einmal einen personifizierten Geheimnisverräter. Der Geheimnisverräter ist das verschränkte Gesamtsystem und nicht ein emotionaler Ausdruck oder eine verräterische Körpersprache. Als Lösung bietet sich das Konzept des ‚Storytellings’ an, wobei es zunächst nicht darum geht Informationen bei den Empfängern im Gedächtnis zu verankern (das ursprüngliche Ziel des Storytellings), sondern um die Einbindung des Besprochenen in eine konstruktive Geschichte. Insofern geht es darum, kritische Gedanken auf eine Art und Weise mit den kommunizierten Inhalten zu verbinden, dass eher positive oder zumindest neutrale Interpretationen entstehen und negativen Assoziationen, Gefühle und Verstrickungen vermieden werden. Tatsächlich bedeutet dies für Sender und Empfänger sich mehr auf das was ist und sein soll einzulassen, statt Utopien nachzuhängen. Lernen Auch Lernen spielt im wirtschaftswissenschaftlichen und VUCA-Kontext in Verbindung mit SyA eine wichtige Rolle. Rein digitales Lernen (Faktenlernen ohne emotionale Erlebnisse), wie es häufig noch gepflegt wird, entspricht dem Wissen, nicht aber einer Kompetenz sich in VUCA-Zeiten erfolgreich bewegen zu können, wie es Arnold herausstellt. Es geht heute darum, das innere neurologische System adaptionsfähig, auch für unbewusste und verdeckte Zusammenhänge, zu machen. SyA werde deshalb bereits im Hochschulbetrieb zum Erfassen komplexer Zusammenhänge und für implizites Lernen herangezogen. Welche Schlussfolgerungen die hier entwickelte Theorie für das Lernen darüber hinaus anbietet, wird im Folgenden zusammengefasst. Wohlfühlen findet vorzugsweise in kohärenten Zuständen statt. Keine Störungen durch Unterschiede, alles schwingt gleich (respektive, weist die gleiche Frequenz auf) und verursacht dadurch auch wenig Energieverlust durch Wechselwirkungen mit dem Umfeld. Gleichschwingen bedeutet hier das Vorhandensein gleicher kohärenter Informationen, die, wie herausgearbeitet wurde, tatsächlich mit einer gemeinsamen Spinrichtung oder Frequenz der Neuronen gleichzusetzen ist. Neues und damit Unterschiede irritieren eine solche Kohärenz und damit das Wohlfühlen. Physikalisch gesehen bilden Unterschiede Phasenübergänge aus, die, so sie großflächig angelegt sind, zur Stabilisierung innerhalb des Systems und damit zur Aufrechterhaltung von Verschränkungen beitragen. Gleichzeitig einher geht jedoch auch eine Nichtsensibilisierung gegenüber Andersartigkeiten. Zu große Unterschiede und damit verbundene Phasenübergänge haben demzufolge die Tendenz Lernen zu verhindern. Lernen bedeutet in diesem Sinne, sich (das eigene kohärente System) solange irritieren zu lassen bis das Neue in das Bestehende integriert und ein gemeinsamer Sinn konstruiert wurde. Wie gezeigt wurde, bilden sich in diesem Verlauf auch neue Neuronen und Synapsen. Daraus abgeleitet ist es nicht verwunderlich, dass Kinder i. d. R. kontinuierlich lernen und dies nicht als Gefährdung, sondern als Bereicherung erleben. Ihr
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
573
inneres System konstruiert einen Sinn, indem Lernen als normaler, bekannter und hilfreicher Kontext interpretiert wird. Wird Lernen ab einem bestimmten Zeitpunkt eingestellt und der Schwerpunkt auf Reproduktion gelegt, so stellt sich nach einiger Zeit das innere, neurologische System auf diesen reproduktiven Zustand ein und erlebt nur diesen als kohärent. Mit Dauer und Häufigkeit des Gleichen verschiebt sich eine zunächst vorhandene Superposition vom Lernen zum Reproduzieren und führt so zur Manifestation der Bayesschen Wahrscheinlichkeit, sprich der Suche nach Bestätigung von Bekanntem. Störungen durch neue Lernthemen führen demzufolge zu Störungen automatisierter Abläufe, die kohärent und energiesparend organisiert sind. Die Herausforderung besteht nun darin, sich mit diesen Unterschieden zu arrangieren und eine neurologische Sensibilisierung für das Neue auszubilden, ein Vorgang der als Lernen bezeichnet werden kann. Als Konsequenz ergibt sich die Notwendigkeit, die nun zunehmend vom Wahrnehmungssystem zur Verfügung gestellten Unterschiede, vgl. den Double Binds, zu verarbeiten und miteinander in eine sinnstiftende Beziehung zu bringen. Je weniger dies gelingt, desto stärker die innere Irritation und desto stärker das Gefühl der Nichtbeherrschbarkeit und Angst. Der persönliche und kollektive (Gruppenlernen) Veränderungsdruck nimmt in der Folge deutlich zu. Ein Veränderungsdruck, der einhergeht mit zusätzlichen Anstrengungen (mehr lesen und üben, mehr Gespräche, wiederholen von Prüfungen etc.), die Energie kosten und in letzter Konsequenz vom System als lebensbedrohlich interpretiert werden können. Als intuitive Antwort hat die Pädagogik die Notwendigkeit erkannt, Brücken zu finden, die dem Lernenden Bekanntes im Neuen zugänglich macht. Einfach formuliert, zunächst mit Bildern und Inhalten zu arbeiten, die dem Lernenden bekannt und damit informationstechnisch kohärent das alte und neue (neurologische) System verbinden. Physikalisch lässt sich dies als Zunahme des Verschränkungszustandes ansehen. Von diesem spezifischen Verschränkungszustand aus wird dann sukzessive eine Superposition zwischen allen weiteren Informationsanteilen vorangetrieben, vergleichbar der Entwicklung und Ausbreitung von Mutationen bei der DNA. Bestehende alte Informationen verschwinden dabei jedoch nicht, ganz im Sinne der Zehschen Dekohärenz, sondern lassen sich durch Ankopplung an neue Informationen in ihrer Bedeutungsgebung verändern: Veränderte Bedeutungsgebung, veränderte neurologische Sensibilisierung, veränderte Wahrnehmung und letztlich verändertes Verhalten. Damit wird deutlich, dass altes Verhalten und Wissen nie vollständig verschwinden, sondern nur modifiziert oder überlagert wird. Unter entsprechenden Rahmenbedingungen kann dies jederzeit wieder hervortreten. Wesentlich ist hier, dass Lernen nicht nur als psycho-sozialer oder biochemischer Vorgang verstanden wird, sondern als vor allem physikalischer, dem die biochemischen und psycho-sozialen Prozesse folgen. Ohne Berücksichtigung der physikalischen Grundlagen entstehen massive Probleme beim Lernen. Entscheidend und wie die neue Lernforschung bestätigt, kommt es auch auf eine emotionale Betroffenheit an, welche notwendig ist, um neurologische Verankerungen (Synapsen und Netzwerke) zu realisieren. Ohne emotionale Betroffenheit und Wiederholung bleibt nur ein fluoreszierendes Bild, vergleichbar einer schwachen Quantenmes-
574
10 Ergebnisse und Ausblick
sung, die kein Faktum auf physiologischer Ebene schafft. Eine emotionale Betroffenheit darf mit einem erhöhtem Energieumsatz in Verbindung gebracht werden, der zur Bildung neuer Neuronen und Synapsen benötigt werden könnte. Auf Basis dieser Zusammenhänge lassen sich zwei Beobachtungen theoretisch erklären, die als Experimente im Rahmen der Entscheidungstheorie bereits vorgestellt wurden: Zum einen das Phänomen eines impliziten Lernens, wie es beim Chicken Sexing oder bei Tradern auf dem Börsenparkett beobachtbar war, und zweitens das schnelle Verlernen, wenn es nur bei einer einmaligen Veranstaltung bleibt. Es lässt sich die Hypothese formulieren, dass viele Ergebnisse von Lernenden in der Präsenzphase und bei Teilnahme von Experten besser sind, als wenn sie im Anschluss an die Veranstaltung alleine weiterüben wollen. Die Ursache liegt in der vollständigeren Verschränkung mit den Informationen und damit mit dem Wissen und den Intentionen der Experten, als wenn die Teilnehmer räumlich weit entfernt agieren. War diese Phase zu kurz, konnten sich noch nicht ausreichend viele Neuronen und Vernetzungen auf der physiologischen Ebene ausbilden und/oder es kommt wieder zu einer sofortigen Dekohärenz (vergleichbar dem Versklavungsmodell der Synergetik) in Richtung der alten Informationslagen. Basis ist immer eine mangelnde eigene Repräsentation der neuen Informationen im System des Lernenden. Dies ist besonders dann relevant, wenn keine reine Rationalität, sondern auch automatische und intuitive Anforderungen und damit unbewusste bzw. unterschwellige Wahrnehmungen gefordert sind. In Anlehnung an den oben herausgearbeiteten Zusammenhang von Führung und Kommunikation, in dem ‚ich spüre wie du denkst’ eine ganz reale Grundlage bekommen hat, ist die Erwartungshaltung und Einstellung des Lehrers gegenüber einem Schüler nicht nur empirisch beobachtet worden, sondern hochevident. Ein Umstand, der für Ausbildungs- und Führungssituationen gar nicht bedeutsam genug eingeschätzt werden kann und im Mittelpunkt der Ausbildung von all denen stehen sollte, die für die Entwicklung ihnen anvertrauter Personen Verantwortung tragen. Ihre innere Haltung und ihre Fähigkeit sich auf das Gegenüber einzustellen, sind von zentraler Bedeutung und beeinflussen den Lern- und Entwicklungsprozess nachhaltig, da ihre Haltung auf elementarer Ebene mit dem Lernenden in Wechselwirkung tritt. Aber nicht nur das: Auch Lehrer, Prüfer oder Führungskräfte laufen Gefahr in ihren tradierten Denkschemen gefangen zu sein und ohne böse Absicht durchaus richtige Antworten ihrer Schüler und Studenten zu überhören oder als falsch zu interpretieren. Ihre neuronale Programmierung und Erwartungshaltung spielen ihnen oft allzu schnell einen Streich. Antworten, die vom Rezipienten in anderer Form als gewohnt und erwartet empfangen werden, z. B. andere Erklärungen, Begriffe bzw. Begriffe in einem anderen Kontext, laufen Gefahr als nicht stimmig interpretiert zu werden. Die Neuronen des Prüfers stellen einen Unterschied zu bei ihm abgespeicherten Informationen (Wortbilder / Frequenzmuster) fest und reagieren gar nicht oder mit Befremden. Die Spin- bzw. Frequenzmuster müssen zueinander passen. Somit wird auch offensichtlich, dass ein guter Schüler verstehen sollte, dass er sein Wissen in einer dem Prüfer angemessenen Form
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
575
anbieten muss. Nur dann kann er damit rechnen, dass es auch als Wissen erkannt und mit einer entsprechenden Note versehen wird. In diesem Sinne kommt es nicht auf tatsächliches Fachwissen an, sondern ‚nur’ auf passgenaues Reproduktionswissen, das abhängig vom Empfänger unterschiedlich sein kann. Fehlt dem Prüfer die Offenheit und Bereitschaft oder auch Weite des Wissens, werden anders formulierte Antworten, auch wenn sie richtig sind, als falsch abgelehnt. Insofern sollte der Lehrer selbst wieder zum Forscher werden und sich von seinen scheinbar objektiven Tatsachen verabschieden. Dies wurde sehr gut von Foerster herausgearbeitet (Foerster und Pörksen 2001). Ein Umstand, der auch die Schwierigkeit einer interdisziplinär oder interkulturell gelingenden Kommunikation veranschaulicht. Hier greift immer eine Kontextrelevanz. Abschließend noch ein Gedanke zum Lernen von Intuition. Da auch Intuition durch Übungen und entsprechende Kontextgestaltung lernbar ist, wie im Kap. 4.1 zur Intuition deutlich wurde, sollten sich die eben dargestellten Zusammenhänge in angemessenen Lerndesigns widerspiegeln. Unternehmen, Gesellschaft, Politik und Medien Mit den Konzepten Superposition, Messprozess und ‚Schrödinger’s Katze im Kopf’ bekommen auch gesellschaftspolitische Entwicklungen wie Herdentrieb oder das Bedürfnis nach sozialer Akzeptanz und Sicherheit eine sehr viel größere Relevanz als gemeinhin angenommen. Ausgehend von oben, im Rahmen von Lernen dargestellten Zusammenhängen von Kohärenz und gutem Gefühl bietet sich ein Erklärungsmodell für einen ganz aktuellen Kontext. Vermutlich resultiert aus diesem Zusammenhang von Kohärenz und Wohlfühlen die Tendenz in Gemeinschaften, alles gleich machen zu wollen, was nicht bedeutet, dass alles friedlich sein muss. Gleich heißt in diesem Sinne das Teilen der gleichen Informationen in Bezug auf Verhaltensweisen und Regeln, also alles, was unter Kultur und Werte subsummiert werden kann. So zeichnen sich Stammeskulturen typischerweise durch hohe Resistenz gegen Veränderungen aus. Gleiches gilt für Unternehmen oder Länder, die sich gegen Außeneinflüsse abschotten. Moderne Unternehmen und Gesellschaften sowie technologische Entwicklungen zeichnen sich im Gegenzug dadurch aus, dass sie viele Außenkontakte auf unterschiedlichsten Ebenen aufrechterhalten. Sie kommen in Kontakt mit Unterschieden und müssen lernen, sich mit diesen Unterschieden zu arrangieren. Nun ist anzunehmen, dass der gleiche Mechanismus wie beim Lernen greift, denn tatsächlich handelt es sich auch hier um Lernprozesse. Es geht um die neurologische Sensibilisierung in Bezug auf diese Unterschiede, selbige zu verarbeiten und miteinander in eine sinnstiftende Beziehung zu bringen. Eine Dominanz der Phasengrenzen verhindert ein Verstehen und ermöglicht das, was als Ingroup-/OutgroupDifferenz und eine damit einhergehende Kohäsion bzw. Ablehnung bekannt ist. Der Fokus auf bestimmte Gemeinsamkeiten generiert ein Wir-Gefühl und eine damit einhergehende Kohärenz. Alles was noch an Unterschieden vorhanden ist wird aktiv negiert und ausgeblendet. Physikalisch (auf elementarer Ebene der Quanten und EM-Wellen) genauso wie systemtheoretisch findet hier eine Fokussierung bzw. Refokussierung
576
10 Ergebnisse und Ausblick
statt. Diese Fokussierung hat im Unternehmen und in der Gesellschaft die gleiche Wirkung wie in SyA. Es werden nur die Informationen vom neurologischen System wahrgenommen und verarbeitet, die mit der hinter dem Fokus stehenden Intention zusammenpassen. Hier findet sich auch die direkte Anschlussfähigkeit zu dem, was im Managementkontext als Gerüchteküche beschrieben wurde. Gerüchte emergieren aus negativen Erwartungshaltungen und werden schließlich zur selbsterfüllenden Prophezeiung, weil unser Gehirn uns genau nur die von uns befürchteten Interpretationen zur Verfügung stellt. Hier greift der Effectuation-Ansatz auf negative Weise. Die großen Populisten und Manipulatoren in den Unternehmen (auf Manager- wie auf Kollegenebene), genauso wie in der Politik oder bei Medien und Filmschaffenden, kennen diesen Zusammenhang, der gemeine Mitarbeiter und Bürger fokussiert dagegen nur auf das Inhaltliche und Nächstliegende, entsprechen seinem inneren Bezugssystem. Es wird schlicht nicht wahrgenommen, was in Summe von den Akteuren veranstaltet wird, sondern nur teilweise kleinste Ausschnitte der Aussagen und Handlungen, die zur eigenen Intention passen. Das Mittel der Wahl dieser Populisten und Manipulatoren heißt isolieren, Informationszugänge reduzieren bzw. die gleichen Informationen immer wieder über die Zielgruppen ausbreiten und kollektive Großveranstaltungen initiieren. Auf solchen Veranstaltungen kommt es zur intensiven, vermutlich sogar maximalen Verschränkung (siehe hierzu auch die Messung bei Chören). Kleine Impulse in Form spezifischer Informationen reichen aus, um unmittelbar auf alle überzuspringen, was zum bekannten Effekt – kleiner Anlass große Wirkung – führt. Die Kohärenz und Superposition über alle Teilnehmenden macht es Individuen ausgesprochen schwer, in einem dekohärenten, selbstbestimmten Zustand zu bleiben. Der Kopf wird ausgeschaltet und die Emotionen beherrschen das Geschehen. Hier liegt aber auch die Chance von Großveranstaltungen Verbindendes und Hilfreiches zu initiieren. Die Unternehmensführung kann, so sie gut vorbereitet und bewusst ist, viele Organisationsmitglieder für ein Vorhaben gewinnen und gleichzeitig die Gerüchteküche reduzieren. Als Voraussetzung müssen den angebotenen Informationen geeignete Kontexte und Interpretationsrahmen mitgegeben werden, die die verdeckten Intensionen der Verantwortlichen mit den kommunizierten Aussagen in einen stimmigen und damit kohärenten Zusammenhang stellt. Auch hier greift der gleiche Mechanismus wie beim Lernen. Je weniger es gelingt Brücken zu schlagen oder besser Gemeinsamkeiten zu entdecken, desto stärker die innere Irritation und desto stärker das Gefühl von Nichtauthentizität, Nichtbeherrschbarkeit und Angst245. 245
Sehr anschaulich wurde dies bei einer SyA im Rahmen einer Aufstellungskonferenz 2016 in Wien. Aufgestellt wurde das Immigrationsthema, um zu untersuchen, was es mit den verschiedenen Stakeholdern macht und wo Lösungen zu finden sind. Als eine von vielen Erkenntnissen wurde offensichtlich, dass das Gemeinsame zwischen denen, die radikal die Flüchtlinge ablehnenn und den Flüchtlingen selbst, die Angst war. Ab diesem Moment, als dies deutlich wurde, konnten sich beide Gruppen aufeinander zu bewegen und in engen Kontakt treten. Das daraus abgeleitete Ergebnis wird vermutlich Vielen nur schwer zugänglich sein. Es ist nötig die Ängste von allen Betroffenen wirklich ernst zu nehmen. Die Seite, die Angst haben Fremde im eigenen Land zu werden und die andere Seite, die Angst haben als unmenschlich, egomanisch und ausländerfeindlich dazustehen.
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
577
In diesen Zusammenhängen wird deutlich, dass Polarisationen, wenn sie zu lange und intensiv aufrechterhalten werden, zu Dekohärenz und nicht zu einem gemeinsamen Verständnis und Handeln führen. Physikalisch bilden sich homogene und damit kohärente Informationsfelder gleicher Frequenz, die sich durch starke Phasengrenzen von anderen Informationsfeldern unterscheiden und keinen Austausch im Sinne einer wechselseitigen Beeinflussbarkeit zulassen. In der Logik des Konfliktmanagements sollte das Ziel deshalb der Konsens sein, bei dem die Pole bewusst betrachtet, Energie und Aufmerksamkeit jedoch in die Suche nach gemeinsamen Lösungen gesteckt werden. Aus aktuellem Anlass sei hier noch auf die gesellschaftliche Dimension und die Rolle der Politiker und Medien hingewiesen. Das Folgende ist in gleicher Weise auch für Unternehmensführer und deren Changeanliegen relevant. Mit dem Quanten-Zeno-Effekt liefert die Physik ein Modell, das sich sowohl auf Elementarebene als auch in sozialen Systemen beobachten lässt. Gemeint ist der Effekt, dass unter kontinuierlicher Beobachtung ein System den Ausgangszustand bewahrt und sich nicht verändert. Es ist leicht einsichtig, dass die Ausrichtung unserer Aufmerksamkeit auf die Vergangenheit diese allein deshalb bewahrt, weil sich keine neuen Neuronen entwickeln bzw. keine neuen Verknüpfungen generieren. Es bleibt alles beim Alten und die Kohärenz des Ist-Zustandes wird aufrechterhalten. Gut zu beobachten im NahostKonflikt, indem ausschließlich die Vergangenheit im Fokus steht und das über Tausende von Jahren zurück. Mit dieser rückwärtsgewandten Ausrichtung kann keine Zukunft kreiert werden, weil dazu keine Informationen aktiviert oder abgerufen werden. Möchte eine Gesellschaft ihre Zukunft sichern und das Wohl ihrer Mitglieder verbessern, so ist die Politik gehalten ihren Fokus von der Vergangenheit in die Zukunft zu richten und Visionen und attraktive Zukunftsbilder zu entwerfen. ‚Schrödinger’s Katze im Kopf’ wird dann unbewusst auf die Suche gehen und Lösungen anbieten. Das Verhalten der Medienschaffenden, genauso wie das der Politiker, entspricht jedoch genau nicht dieser Notwendigkeit. Mit unermüdlicher Ausdauer werden immer nur emotional aufwühlende, meist negative Nachrichten incl. Mord und Totschlag immer und immer wieder wiederholt. Dies führt nach der hier herausgearbeiteten Theorie zwingend zu massiven Priming- und Verzerrungseffekten auf neuronaler Ebene. Unser neuronales System lässt sich mental, auch nicht-lokal, von kollektiven Informationen beeinflussen, mit der Konsequenz einer bevorzugten Auswahl der dominanten Impulse. Produziert die Politik nur Gegner (andere Parteien oder Länder), um sich für die nächste Wahl eine gute Ausgangsposition zu verschaffen, so organisiert sie bewusst den Ingroup-Effekt. Aktuell gut in der Türkei, Russland, Amerika und China, aber auch hier in der EU und Deutschland zu beobachten. Die Differenzen und oft auch nur Scheindifferenzen treten in den Mittelpunkt, mit der Folge, dass wertvolle Ressourcen nicht für Lösungen, sondern für das Gegeneinander verschwendet werden. Die Möglichkeit, Unterschiede als Potential für neue kreative Impulse und Entwicklungen zu nutzen wird Dazwischen bewegen sich die Flüchtlinge, die wiederum gefordert sind, die Gastkultur ohne Wenn und Aber anzunehmen. Nur dann kann ein gemeinsames Neues entstehen.
578
10 Ergebnisse und Ausblick
jedoch häufig nicht nur in der Politik, sondern auch in den Unternehmen negiert. Dort wo es gelingt sich auf die Unterschiede einzulassen und sie wie große Quarticle-Cluster kohärent miteinander arbeiten zu lassen, entstehen hochinnovative Unternehmen und Gesellschaften. Die großen IT-Unternehmen dürften hier ein gutes Beispiel darstellen. Mit der Erkenntnis, dass diese Informationen über EM-Wellen (Bild und Ton im Fernsehen und Radio) an die Bevölkerung vermittelt werden, oder auch hier besser formuliert, die Individuen ein Teil des Informationsfeldes sind und mit den Nachrichten und Verlautbarungen überlagert werden, verwundert es nicht, wenn aus einem förderlichen Miteinander ein konflikthaftes Gegeneinander wird. Statt immer wieder die gleichen emotionalen und schlechten Nachrichten zu verbreiten wäre es wünschenswert, wenn die Medien ihrer selbstformulierten Verantwortung zur informativen Berichterstattung auch und vor allem den Themen widmen, die positive Gefühle, erfolgreiche Entwicklungen und ein Miteinander unterstützen. Wie die Intuitionsexperimente zeigen, scheinen jedoch solche emotionalen und verstörenden Bilder Menschen leichter anzusprechen und als Folge ökonomisch lukrativer zu sein. Dies gilt besonders auch den Filmschaffenden und Spieleentwicklern, von denen die meisten offensichtlich glauben, ohne Helden und ohne Mord und Totschlag geht es nicht. Diese Überlagerung mit Angeboten zerstörerischer Inhalte benötigt eine erheblich entwickelte Fähigkeit der Distanzierungs- und Selbstkontrolle, um die ständige Flut an Gewalt- und Spaltungsimpulsen aus seinem eigenen Handeln herauszuhalten. Einen solchen Entwicklungsstand weisen den im Verhältnis zur Bevölkerungszahl nur wenige auf, was literarisch als auch filmisch sehr gut durch die Werke ‚Club der toten Dichter’, ‚Die Welle’ und ‚Das Experiment‘, letzteres basierend auf dem ‚Stanford-Prison-Experiment von 1971’, in Szene gesetzt wurde. Die von den Verantwortlichen immer wieder zu hörende Behauptung, dass ihre destruktiven und gewaltverherrlichenden Filme und Spiele vom Publikum gewollt und keine negative Wirkung für unsere Realität hätten, darf als Schutzbehauptung interpretiert werden, die einer wissenschaftlichen Überprüfung nicht standhalten wird und aufgrund der hier aufgezeigten Zusammenhänge als utopisch anzusehen ist. Ja, das Publikum kauft sie, schlicht weil es im Vorfeld und parallel mit genau diesen Szenen tagtäglich geprimt wird. Zu glauben, dass die Sicherheitslage an amerikanischen Schulen und entsprechende Nachahmungseffekte damit nichts zu tun hat, vor allem wenn auf allen Kanälen die Tat bis in ihre Einzelteile veranschaulicht und ohne Ende wiederholt wird, scheint mir ignorant und unverantwortlich. Durch die hier aufgezeigten Zusammenhänge besteht jetzt die Möglichkeit diese Annahmen auch theoretisch zwingend zu widerlegen. Die bisher als rein psycho-soziologisch verursachten Verhaltensweisen basieren, auf der Grundlage der hier entwickelten Theorie, auf physikalischen Wechselwirkungen, weshalb sie immer wieder auftreten und sich reinen Trainings- und Konditionierungsbemühungen widersetzen. Interessant wäre vertiefter zu untersuchen, ob sich die destruktiven Kräfte mit kollektiv-mentalen oder künstlich erzeugten, gegengerichteten Intentionen und EM-Wellen beeinflussen lassen. Neueste Forschungen zu meditativen Praktiken und ihr Einfluss auf Gewalt (Dillbeck und Cavanaugh 2016; Maharishi University of
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
579
Management 2016) und Beobachtungen zu Gruppenverhalten, ebenfalls im Kontext von Gewalt (Täubner 2018), deuten bereits daraufhin. Und noch ein letzter Gedanke in Bezug auf die Immigrationsbewegungen basierend auf der hier vorgestellten Theorie: Die gelebte Praxis, Flüchtlinge monate- und jahrelang zu Hunderten in, von der Restbevölkerung isolierten Zentren zu halten, verhindert eine Begegnung und damit die Möglichkeit, Gemeinsamkeiten und Kohärenzen zu entdecken und damit eine Reduzierung der Angst. Es verhindert auch das Lernen der Neuankömmlinge über unsere Kultur mit der Folge, dass Ingroups mit kohärenten Werteschemas aufeinandertreffen und keinen Zugang zueinander finden. Es erleichtert den Populisten und indoktrinären Predigern ihr Geschäft. Will man Integration, so müssten die Ankommenden in ganz kleine Einheiten zwischen die lokale Bevölkerung positioniert werden. Die Informationsfelder der Mehrheit sind robuster gegenüber Einzelentitäten oder kleinen Familienverbänden, gleichwohl aber auch beeinflussbar. Sie führen zur Überlagerung und Beeinflussung der Informationsfelder der Einzelnen mit dem Ergebnis, dass diese schneller explizit und implizit lernen und sie sich von ihrem kohäsiven Ingroupdruck ihrer Herkunftskultur zumindest teilweise lösen respektive die Verschränkungsintensität reduzieren können. Zumindest bietet ein solches Eingebettetsein eine größere Möglichkeit, einen neuen Weg des Miteinanders zu finden. Dieser Zusammenhang ist in Unternehmen schon längst entdeckt und wird dort oft bereits berücksichtigt. Vermittlungsagenden (oft selbst ehemalige Immigranten), die in beiden Kulturen zuhause sind, helfen die Verschränkungen auf immer mehr Informationsebenen auszuweiten und die neuronalen Strukturen kompatibel zu machen. Ein Prozess, der neuronale Strukturen nicht einfach nur fordern kann, sondern Rahmenbedingungen benötigt, in denen diese Strukturen entstehen. Eine vollständige Lösung von seinem Ursprungsland dürfte, vergleichbar der MutterKind-Relation, unrealistisch sein. Dies erklärt auch weshalb so gut wie alle Menschen, die ihre Heimat verlassen, ihr Leben lang eine innere Verbindung mit selbiger spüren. Entsprechende Forderungen, bzgl. einer völligen Lösung an eingebürgerte Personen, erscheinen insofern als unrealistisch. Es kann nur um eine angemessene Integration beider Kulturen gehen, die sich letztlich auch in der wirtschaftlichen Leistungsfähigkeit der Zugezogenen bemerkbar machen wird. Neurologie, Psychologie und Medizin Als Folge dieses neuen Verständnisses zur Arbeitsweise unseres Gehirns und der Wirkung von Information auf den menschlichen Körper und seine Psyche ergeben sich zwei Konsequenzen: 1. Keine Psychologisierung der Repräsentanten. Wie in der ersten Aufzählung bereits aufgeführt, hat das Wahrgenommene nichts mit einem Rollenspiel oder Theater zu tun, und es gibt nichts für den Repräsentanten zu lernen. Natürlich kann er grundsätzliche Erkenntnisse aus seiner Rolle und der gesamten Interaktion zu einem Thema gewinnen. Nicht jedoch in dem Sinne,
580
10 Ergebnisse und Ausblick
dass er sich das ‚Problem’ des anderen zu eigen macht, weil er meint, dass er gewählt worden wäre, weil er ebenfalls ein solches Problem hätte. Es handelt sich grundsätzlich nicht um eine Co-Existenz von Problemen zwischen Fallbringer und Repräsentant, wie oft vermutet und wie gerne ‚psychologisiert’ wird. Jeder kann die Informationen als Repräsentant wahrnehmen. Vielleicht liegt eine Ähnlichkeit in der Erfahrung vor, die den einen Repräsentanten persönlich mehr tangiert als einen anderen und ihn deshalb besonders sensibel für ein Thema macht. Zweifellos ist aufgrund der Gesamterkenntnisse auch nicht auszuschließen, dass der Fallbringer dies unbewusst wahrnimmt und den Stellvertreter deshalb auswählt, nur bleibt das Wahrgenommene ein Thema des repräsentierten Systems und sollte nicht unreflektiert auf andere übertragen werden. 2. Überprüfung bisheriger Wirksamkeitsexperimente und Behandlungsverfahren. Grundsätzlich sollte eine Überprüfung neurologischer, psychologischer und anderer medizinischer Behandlungs- und Nachweisverfahren stattfinden und entsprechende Konsequenzen gezogen werden. Denn mit dem theoretischen Modell, Intuition auf der Basis von physikalischen Verschränkungsphänomenen zu begreifen, wird zum ersten Mal auch ein Erklärungsmodell für die psychologisch heilende Wirkung von SyA, genauso wie für die Praktiken der Alternativmedizin und sogar die von Placebos, evident. Psycho-soziale und alternativ-medizinische therapeutische Konzepte erweisen sich als begründ- und belastbare Modelle, die auf einer dahinterliegenden Realität basieren. Kinesiologische Tests, Pulsdiagnostik, Homöopathie und nicht zuletzt Placebos entziehen sich bisher vollständig einer, im westlichen Verständnis akzeptierbaren Theorie. Im Allgemeinen erklärt die Wissenschaft die beobachtbaren Heilungen mit ‚Einbildung’ und somit mit mentalen Vorstellungen, die im Körper entsprechende Heilprozesse in Gang setzen. Hier gibt es zunächst eine direkte Kopplung zu dem, was im Rahmen dieser Arbeit mit Intention und Erwartungshaltung verbunden und als zentral für das Funktionieren von SyA und Intuition erkannt wurde. Reduziert man also den Anspruch auf eine Notwendigkeit materieller Substanzen und folgt der Logik der Information als Ausgangsimpuls, der quantenphysikalische und EM-Wirkung entfaltet, so lösen sich die Fragestellungen in Wohlgefallen auf. Wenn wir in der Lage sind mental Materie zu beeinflussen und umgekehrt Informationen aus scheinbar lebloser Gestalt oder abstrakten Zeichencodes nicht-lokal zu erfassen, weshalb sollten dann Homöopathie und sogar Placebos nicht wirksam sein? Nach der bisherigen Lesart läuft die Hauptkritik gegen Hochpotenzen in die Richtung, dass kein Molekül der Ursprungssubstanz mehr in der Arznei sei. Betrachtet man das Verfahren der Potenzierung, so nimmt mit jedem Potenzierungsvorgang der materielle Anteil ab und die Verschiebung zur Information zu. Analog soll entsprechend den Vertretern der Methode, die Wirkung auf der materiellen, noch primär physiologischen Ebene (D Potenzen), über die vegetative weiter zur psychischen bis hin zur rein geistigen Ebene (hohe D, C und schließlich Q Potenzen) ansetzen. Ausgehend von einer analogen Betrachtung könnte man auf eine
10.4 Ergebnisse in Bezug auf die wirtschaftswissenschaftliche Dimension
581
strukturelle Kopplung schließen. Mit dem Experiment zur QT mit Herz-Stimulanz-Mittel bei Menschen (Abb. 80 und 75), existiert nun auch ein typischer Versuchsaufbau, der zeigt, dass medizinisch relevante Informationen per Verschränkung mit einem nicht-lokalen Empfänger in Bezug gebracht werden können. Die gleiche QT-Struktur findet sich in der Homöopathie und deren Wirkung wurde an zahlreichen Studien der jüngeren Zeit erfolgreich nachgewiesen (Kap. 8.2.3). Gleiches konnten die Versuche der Harvard Medical School zeigen. Es ist nicht einzusehen, weshalb Homöopathie nicht den gleichen physikalischen Gesetzmäßigkeiten unterliegt, wie sie in dieser Arbeit untersucht wurden. Liest man Werke von anerkannten Forschern (Gøtzsche 2014) die sich eingehend mit der Glaubwürdigkeit von Medikamententests mithilfe von Metastudien beschäftigen, so fällt auf, dass auch in der klassischen Medizin und ihren verwendeten Produkten, nur minimalste Unterschiede zwischen den Produkten und Placebos ermittelt werden können und häufig gar nicht existieren. Eine mögliche Erklärung ergibt sich aus den Versuchsaufbauten und einem dabei vorhandenen Verschränkungsprozess zwischen zu testendem Wirkstoff und Placebo; ein Zusammenhang auf den die neuesten Forschungen hinweisen (Beauvais 2017). Wenn dazu berücksichtig wird, dass kleinste Veränderungen und mentale Erwartungshaltungen bei diesen Untersuchungsgegenständen und Größenordnungen eine zentrale Rolle spielen, dann wird offensichtlich, dass die Reliabilität auf diesem Gebiet in allen Fällen kritisch betrachtet werden muss. Und hier kommt die wirtschaftswissenschaftliche Dimension ins Spiel. Bekommt die Alternativmedizin ihre Anerkennung durch ein theoretisches Modell, so hat dieses aller Voraussicht nach günstige Konsequenzen auf drei Ebenen: 1. Für die Patienten, da günstige und nebenwirkungsfreiere Produkte und Behandlungsmethoden zur Verfügung stehen würden. 2. Für die Volksgesundheit im Allgemeinen, da die Eigenverantwortlichkeit und grundsätzlich, die Gesundheit betreffende Zusammenhänge deutlich werden. 3. Für die Krankenkassen, deren Ausgaben sich, besonders für Medikamente und Gerätemedizin, erheblich reduzieren dürften. Im Umkehrschluss hat es vermutlich erhebliche ökonomische Folgen für die Pharmaindustrie, für die Hersteller der medizinischen Geräte und für konventionell ausgerichtete Krankenhäuser und Mediziner. So betrachtet ist es nicht verwunderlich, dass die oben herausgearbeiteten Manipulationsbemühungen in Bezug auf die allgemeine Meinungsbildung zentral als Kampf um die Informations- und Deutungshoheit geführt wird. In diesem Kampf stellen die Medien aufgrund der ökonomischen Zusammenhänge von Werbung und Auflagen wieder keine unabhängigen Instanzen dar. Sie sorgen für eine Verbreitung der Informationen, die den lukrativsten Output mit sich bringen. Und auch hier erfolgt die Verbreitung über Quanten- und Informationsfelder, gegen die sich der Mensch nur schwer schützen kann, weil sie in eine rein physikalische Wechselwirkung treten, auf die unser Gehirn in bekannter Weise reagiert.
582
10 Ergebnisse und Ausblick
An dieser Stelle geht es nicht darum, eine Stellungnahme pro oder kontra einer der Medizinrichtungen zu formulieren, sondern um: 1. die logisch abgeleiteten, naturwissenschaftlichen Grundlagen in den Mittelpunkt zu stellen. 2. das Sichtbarmachen der phänomenologisch beobachtbaren Erscheinungen und Anwendungen in der Realität. 3. bekannte Phänomene mit der neuen Theorie zu beschreiben. 10.5
Grenzen dieser Arbeit
Diese Arbeit rüttelt an dem ‚Skurrilen’ der Quantenwelt; eine Skurrilität und scheinbare Unverständlichkeit, die sich aus der immer noch dominanten, aber sehr fragwürdigen Perspektive der ‚klassischen Welt’, mit ihrer Trennung von Beobachtetem und Beobachter, ergibt. Die ‚klassische Welt’ ist eine Annäherung an die von uns wahrgenommene Realität und kann und wird nicht mehr als Annäherungen liefern können. Irritationen entstehen dann, wenn ihr mehr als diese Annäherungen zugeschrieben werden. Dieser Aussage liegt die Hypothese zugrunde, dass die Quantenwelt zweifelsohne mathematisch anspruchsvoll bleiben wird, sie jedoch ihre Merkwürdigkeiten verliert, wenn wir sie verstanden oder besser, angemessener interpretiert haben. Damit soll jedoch nicht der vermessene Eindruck vermittelt werden, dass hier alle offenen Fragen der Quantenphysik beantwortet werden; eher im Sinne von Stöckler, „dass [..] fast alle zentralen Fragen noch offen und die einschlägigen Lösungsvorschläge umstritten sind“ (Stöckler 2007: 246). Dies liegt zum einen in der komplizierten mathematischen Struktur und zum anderen in den sehr unterschiedlichen philosophischen Interpretationen. Für die mathematische Frage kann und will diese Arbeit keinen Beitrag leisten, wohl aber für die philosophische Betrachtung des Gültigkeitsbereichs der Quantenphysik und der so gerne behaupteten ‚skurrilen’, weil counter-intuitiven Erscheinungsform. Insofern stellen die Erkenntnisse und Veröffentlichungen der Physik und der anderen Wissenschaftsdisziplinen die wesentliche Grenze und Limitierung dar. Auffällig dabei war die von Shepherd und Suddaby beobachtete Problematik, dass in den Königsklassen der jeweiligen Journals überwiegend nur Veröffentlichungen zu finden sind, die an zeitgenössische populäre Theorien anschließen (Shepherd und Suddaby 2017). Demzufolge sind einige der spannenden neuen Experimente und theoretischen Ansätze in mittlerweile zahlreichen alternativen Foren und Online-Plattformen (open-access publisher) publiziert. Damit einhergeht, eine reduzierte Sicherheit und Belastbarkeit solchen Materials. Aufgrund der teilweise revolutionären Ansätze liegt häufig auch nur eine geringe Anzahl an Papers und Experimenten vor, die sich darauf beziehen. Gleichwohl waren in einigen Fällen meiner Arbeit nur diese Außenseiter-Forschungen und Theoriemodelle zielführend. Zum einen konnten sie Beiträge leisten, die mit den beobachteten Phänomenen bei SyA und Intuition korrelierten, zum anderen wurde ich auf seriöse Grundlagenforschung aufmerksam, die in den Mainstreampublikationen untergingen oder negiert wurden.
10.5 Grenzen dieser Arbeit
583
Wurde auf solche Beiträge zurückgegriffen, wurde streng darauf geachtet, dass sie mit den Grundlagen des Fachgebiets und mit den Phänomenen dennoch in Übereinstimmung waren und nicht nur Spekulationen oder Meinungen repräsentierten. Als Weiteres mussten sie auch einen disziplinenübergreifenden Quercheck bestehen. Letztlich könnte auch die Auswahl der untersuchten Themen eine Limitierung darstellen. Es ist nicht auszuschließen, dass andere Wissenschaftsdisziplinen und Themen Einfluss auf die Ergebnisse genommen und zu veränderten Erkenntnissen geführt hätten. Aus den Vorarbeiten und der Destillierung der verschiedenen Codes war für mich diesbezüglich kein Hinweis offensichtlich. Eine theorieinduzierte Blindheit meinerseits mag dies jedoch nicht ausschließen. Die Arbeit war nicht als eigene experimentelle Forschung angelegt, die umfangreiche, dokumentierte Forschung produziert. Es war allein Ziel, auf der Basis heutigen Wissens (experimentelle Ergebnisse und theoretische Modelle) die Ausgangsfragen zu untersuchen. Gleichwohl wurden eigene Experimente durchgeführt, die teilweise im Kap. 3.3.3 vorgestellt wurden. Ihr Zweck war einzig die bessere Veranschaulichung der Gesamtphänomene und Erklärungsproblematik. Als Ergebnis muss ich mich deshalb auf Experimente und Berichte anderer verlassen, mit Ausnahme der beschrieben SyA; ein Umstand, der für zukünftiger Forschung Relevanz hat. Eine weitere Limitierung bestand in meiner fehlenden Tiefe in einigen der Wissenschaftsdisziplinen. Dies betrifft zunächst die konzeptionelle Ebene der jeweiligen Theorie und zum Zweiten die Codierungen in den Sprachen. Als Konsequenz besteht die Gefahr von Denkfehlern und dem Nichterkennen von bestehenden Lücken. Damit verbunden könnten meine Interpretationen und Beschreibungen Irritationen auslösen oder im schlimmsten Fall gänzlich unzulänglich sein. Um dem entgegen zu wirken, wurden Professoren aus den Kerndisziplinen als Betreuer ausgewählt. Für deren Bereitschaft, sich auf dieses Thema einzulassen und sich damit kritisch auseinander zu setzen, möchte ich mich hiermit nochmals herzlich bedanken. In meiner teilweise geringen ‚Vorbelastung’ liegt jedoch auch ein Vorteil. Meine Nichtvertrautheit mit verschiedenen Konzepten verhinderte oder reduziert zumindest eine ‚theorieinduzierte Blindheit’ (Kahneman 2016). Deshalb bestand die Möglichkeit mit unverstelltem Blick, nur mit phänomenologischen Prägungen (Erfahrungen) ausgestattet, auf die Suche zu gehen, wie es letztlich auch Schmitz (Schmitz 2009) in seiner ‚Neuen Phänomenologie’ empfiehlt. Bleibt zum Abschluss noch die Frage nach einer grundsätzlichen Falsifizierbarkeit meiner Forschungsergebnisse. Möglich würde dies, wenn ... die bisherigen Forschungsergebnisse und Experimente, wie sie im Rahmen der SyA vorgestellt wurden, widerlegt werden würden. Hier besonders die von
584
10 Ergebnisse und Ausblick
Schlötter und von Weinhold. Dass also doch der Zufall das zentrale Element darstellt. die Unmöglichkeit quantenphysikalischer Prozesse in lebenden Systemen nachgewiesen werden würde. mein Modell der NV-Verschränkung zwischen den Synapsen widerlegt werden würde. Grundsätzlich bliebe dann noch die EM-Arbeitsweise des Gehirns übrig, also die Interferenz zwischen den EM-Wellen der Neuronen. Hier wäre dann zu erklären, wie Korrelationen zwischen den Gehirnen stattfinden können, die elektromagnetisch abgeschirmt sind. nachgewiesen werden kann, dass Rationalität in VUCA-Kontexten doch zu besseren Entscheidungen führen. Damit würde die Verortung der SyA als sinnvolle Option im strategischen Management und bei Entscheidungsfindungen in komplexen Situationen infrage gestellt – nicht aber zwingend wiederlegt. gezeigt werden könnte, dass SyA nicht auf Basis einer körperlichen bzw. mentalen Intuition ablaufen. Dies setzt vor allem Modelle voraus, die die Ergebnisse von Doppelblindaufstellungen und technischen Aufstellungen auf andere Weise erklären können. Streng genommen handelt es sich dann nicht um eine Falsifizierung, sondern nur um andere Möglichkeiten. 10.6
Zukünftiger Forschungsbedarf und Ausblick
Als Gegenstand eines zukünftigen Forschungsbedarfs lassen sich eine ganze Reihe von Themen herausdestillieren. 1. Zentrale Aufgabe der nächsten Forschungen sollte sein, Studien anzustoßen, die die Stimmigkeit der repräsentierenden Wahrnehmung mit dem jeweiligen Ursprungssystem in Beziehung setzt, also SyA in ihrer Zuverlässigkeit in Bezug auf ontologische Informationen erforschen. Hierfür bieten sich technische und ITThemen an, bei denen im Nachgang der Fehler im technischen System (IT, Bauteile etc.) durch unabhängige Fachleute eruiert wird. Sollte sich auch bei größeren Studien eine Übereinstimmung der Informationen zeigen, wie sie bei den erstaunlichen Beispielen im Kap. 3.3.3 zu beobachten waren, wäre es offensichtlich, dass erhebliche Potentiale der menschlichen Natur nur unzureichend genutzt werden und unbewusste Wahrnehmung und Intuition eine viel wichtigere Rolle spielen, als heute angenommen. Die Argumente und Überzeugungen gegen Mind-MatterInteraction wären falsifiziert. In diesen Aufstellungen müssen jedoch Formen gefunden werden, in denen unbewusste Beeinflussung vermieden wird. Dies dürfte der Grund für die Nicht-Reproduzierbarkeit vieler mentalbasierter Untersuchungen sein, wie sie in der Entscheidungstheorie, der Intuitionsforschung aber auch der Psychologie und Medizin auftreten. Die Verschränkungen führen zu Priming- und Verzerrungseffekten, die notwendige Evidenzen verhindern.
10.6 Zukünftiger Forschungsbedarf und Ausblick
585
2. In diesem Kontext sollte deshalb ebenfalls die Beeinflussbarkeit der Repräsentanten Gegenstand der Forschung sein, insbesondere die Untersuchung von Intentionen der Beteiligten auf die Ergebnisse. In den Feldern Intuitions- und Entscheidungsforschung liegen große Mengen an Beobachtungen hierzu vor. Meine eigenen Erfahrungen in verschiedenen SyA-Experimentiergruppen bestätigen diese Ergebnisse. Offizielle und systematische, für SyA relevante Forschungen fehlen jedoch noch. 3. Forschungen in Verbindung von SyA mit Neuroscience oder anderen physiologischen Daten (EEG, EKG/Herzvariabilität, Hautleitwiderstandsmessungen etc.) wären ebenfalls wünschenswert. Dies auch über Herkunftssystem-Fallbringer-Facilitator-Repräsentanten-gruppe, über die Aufstellungsgruppe alleine oder über alle bei SyA anwesende Personen hinweg, wie Haffelder sie in Ansätzen bereits durchgeführt, leider aber nicht veröffentlicht hat (Kap. 8.3.2.2). Mit solcher Forschung lassen sich Verschränkungskorrelationen genauso wie die Beziehung von unterbewusst vs. bewusst und Interpretationsdynamiken beobachten. Gleichzeitig ließen sich mithilfe dieser Forschungsdesigns die vorgestellten Experimente zur Medikamententestung (klassisch als auch homöopathisch) verifizieren oder falsifizieren. 4. Eine Herausforderung dürften experimentelle Untersuchungen zur These eines quantenphysikalischen Arbeitsprozesses des Gehirns darstellen. Bilden die biochemischen Prozesse eine Supportfunktion für eine quantenmechanische Überlagerung der Neuronen und repräsentiert unser Gehirn tatsächlich einen Quantencomputer? Diese beiden Fragen harren aufgrund der erheblichen Schwächen klassischer Modelle dringend einer Antwort. Sinnvoll und gleichzeitig anschlussfähig an die Forschung zur Arbeitsweise des Gehirns wäre die weitere Forschung zum Zusammenspiel Bauchhirn – Gehirn. Neuere Untersuchungen schreiben dem Bauchhirn eine wesentliche Rolle zu, was die Informationsverarbeitung betrifft. 5. Auf dem Weg dazu wäre Anyonen-Forschung in Bezug auf das Gehirn hilfreich, wie es im Kap. 8.3.3.3 angedacht wurde. Dass ein solcher Anyonen-Mechanismus nicht nur theoretisch gedacht werden kann, sondern solche Spin-Ströme auch gemessen werden können, bleibt die Aufgabe weiterer Forschung. Als Grundlage können vermutlich die Arbeiten von Brüne u. a. (2012) und Zhou und Zhang (2012) genutzt werden, die entsprechende Methoden bereits 2012 veröffentlichten. 6. Eine fundierte, formelle und mathematische Verifizierung benötigen auch meine quantenphysikalischen These, wie beispielsweise die Idee der Normierung der Psi-Funktion oder der physikalischen Theorien (Kap. 8.1.1.5) (Zusammenhang Quantenfeld- (QFT), allgemeine Relativitäts- (ART) und Gravitationstheorie), die mit gängigen Interpretationen brechen und neue Perspektiven einführen. 7. Zentral erscheint mir die Überprüfung und Neukonzeptionierung der Versuchsdesigns bei Experimenten, bei denen Intentionen und damit verbundene Mind-Matter-Interactions genauso wie Verschränkungsproblematiken eine Rolle spielen können. Dies betrifft mindestens all diejenigen, bei denen Forschungen unter
586
10 Ergebnisse und Ausblick
Mitwirkung von Placebos oder anderen psycho-sozialen Vergleichsparametern durchgeführt werden. Hierzu gehören in vorderster Front: Medizin und Psychologie. Vermutlich werden sich viele, heute noch mit schwacher oder gar Null-Evidenz gemessene Ergebnisse als signifikant herausstellen, weil Verschränkungsund damit verbundene Verwässerungseffekte eliminiert werden. Genauso gut besteht die Option, dass signifikante Evidenzen völlig verschwinden. Eine Orientierung hierzu kann die Arbeit von Beauvais liefern (2017). 8. Bei allen Experimenten, die sich mit SyA, Intuition und vergleichbaren Themen beschäftigen, sollten unbedingt die von Lucadou beschriebenen 13 Bedingungen (Kap. 7.3.2) eingebunden werden. Ihre Berücksichtigung stellt sicher, dass mehrere Fehler- bzw. Beeinflussbarkeitsquellen reduziert oder gar vollständig eliminiert werden. Neben diesem zukünftigen Forschungsbedarf erscheint mir das Überdenken der Peerreview- und Veröffentlichungspraxis der Journals notwendig. Durch das Internet besteht für sie die Gefahr nicht mehr an vorderster Front dabei zu sein und im schlimmsten Fall nur noch überaltertes Wissen breitzutreten. Die Verweigerung, auch Raum für Außenseitermeinungen oder eruptiv entstandene Ansätze zur Verfügung zu stellen, wird in VUCA Zeiten auch wirtschaftlich relevante Auswirkungen entwickeln. Bei Entwicklungsgeschwindigkeiten wie sie im Silicon Valley zu beobachten sind, sind Papers teilweise bereits bei ihrer Veröffentlichung überholt oder werden aufgrund des Verfahrensprozesses erst gar nicht geschrieben oder gleich auf alternative Plattformen gebracht. Bei genauer Betrachtung der Artikel auf den open-access-Plattformen, trifft dies auch für wissenschaftliche Innovationen zu. Auch meine Forschung wäre auf der ausschließlichen Basis der klassischen Journals vermutlich nicht bis zu dem jetzigen Stand gekommen. Agiles Vorgehen im Kontext von VUCA setzt mehr Mut und Risikobereitschaft voraus. Dies gilt auch für den wissenschaftlichen Diskurs, der durchaus zu kontroversen Diskussionen führen kann. Wie die Anfangsjahre der Quantenphysik und der Relativitätstheorie veranschaulichen, kann ein solcher Diskurs sehr schnell qualitativ hochwertige Erkenntnissen nach sich ziehen. Die heutigen Vernetzungsmöglichkeiten bieten zudem die Option schnellerer Korrekturen oder Widerlegungen und somit die Chance für schnellere Entwicklungen. Dafür darf aber nicht nur die Wiederholung des Gleichen unter Ausblendung von unliebsamen phänomenologischen Beobachtungen die Maßgabe sein. Hier bleibt als Herausforderung nur die menschliche Neigung an einmal entstandenen Überzeugungen festzuhalten und diese sogar weiterhin zu verbreiten, selbst wenn diese auf nachgewiesenen Falschinformationen beruhen (siehe Kap. 2.2.3). Einen Weg zur erfolgreichen Vermeidung solcher Phänomene zu finden, stellt eine der wichtigsten zukünftigen Aufgaben dar.
10.6 Zukünftiger Forschungsbedarf und Ausblick
587
Nachtrag aus gegebenem Anlass: Genau einen Tag nachdem ich diese Gedanken formulierte, fast zur Bestätigung, spülten die Medien einen angeblichen Skandal über Raubverleger (‚Predatory Publisher‘) nach oben, der sich nach einem Faktenckeck (Stollorz 2018) tatsächlich nur im Promille-Bereich der in Deutschland veröffentlichten Arbeiten bewegt. Um die nötige Aufmerksamkeit zu kreieren, lautete die Überschrift »Fake Science – die Lügenmacher« und das bei den öffentlichen und nicht bei den privaten Medien, wobei es im Wesentlichen gar nicht um Fake-Science, also falsche oder manipulierte Ergebnisse, sondern um Geldmacherei seitens der Journals und teilweise schlecht gemachter Forschung geht (Stollorz 2018). Erschreckend sind aber vor allem die rapid anwachsenden Zahlen solcher Zeitschriften, und das dürfte mit der oben beschriebenen Veröffentlichungslogik und den -druck zu tun haben, die eine solche Entwicklung fast zwangsläufig produziert; vor allem unter den gegebenen technischen Möglichkeiten. Viel schlimmer dabei ist allerdings, was aus kommerziellen Gründen der Medien in Kauf genommen wird. Und hier greift die oben beschriebene physikalische Beeinflussung der Massen. Aufgrund der hochproblematischen Wortnutzung ‚Fake’ in Verbindung mit ‚Science’ wurde eine Superposition ‚Fake-Science’ geschaffen, die in der aktuellen gesellschaftlichen Landschaft genau das Gegenteil von dem erreichen wird, was die Verantwortlichen vermeidlich bekämpfen wollten und sie mit großer Wahrscheinlichkeit nicht mehr einfangen können. Forschungen, die gegen die Vorstellungen und Interessen verschiedener Gruppen laufen, werden mit dieser Wortschöpfung massivst diskreditiert, weil jetzt nicht mehr nur ‚News’ verunglimpft werden, sondern auch ‚Science’ als solches. Paradoxerweise verhalten sich diese Medien in gleicher Weise wie die Raubverleger: sie versuchen Geld mit Stories zu generieren. Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
11
Fazit und Nachwort
11.1
Fazit
Ohne eine physikalische Interaktion keine Wahrnehmung! Der Mensch, genauso wie jedes andere Lebewesen, steht ausschließlich mittels EM-Wellen mit seinem Umfeld in Kontakt (sehen, fühlen, riechen, schmecken, hören); EM-Wellen, die als Produkt unterschiedlichster Quantenaktivitäten zu interpretieren sind. Als Konsequenz ergibt sich aus solchen Kontakten eine quantenphysikalische Verschränkung, die intensiviert, aber auch reduziert werden kann; wie gezeigt werden konnte eine Verschränkung mit weitreichenden Folgen, denn sie liefert den Zugang zu beliebigen Informationen auch nichtlokal, weil sämtliche Informationen auf elementarer Ebene codiert sind. Allein diese abstrakt vorliegenden Informationen benötigen noch eine Interpretation, um für das jeweilige lebende System eine Bedeutung zu bekommen. Die derzeitigen Forschungen zeigen darüber hinaus, dass unser gesamter Wahrnehmungs- und Verarbeitungsapparat letztlich auf Basis von EM-/Quantenprozessen arbeitet und nur vor diesem Hintergrund vollständig zu verstehen ist. Aus diesem Grund muss der Mensch informationstheoretisch als ‚Homo Physicus’ und damit als Mixed-Zustand von Quanten- und klassischer Welt interpretiert werden, für den beide Welten Wirkung und damit Bedeutung haben. In ihm ist das Zusammenspiel zwischen physikalischen Ausgangsbedingungen und psycho-sozialen sowie ökonomischen Einflussprozessen repräsentiert. Dieses Zusammenspiel läuft in den Prozessen des Gehirns in der Ausprägung von ‚Schrödinger’s Katze’ ab und lässt sich nicht direkt beobachten. Die Überlagerung unzähliger möglicher Informationen im Gehirn und deren Zusammenspiel bleiben verborgen bzw. unbestimmt. Nur das Ergebnis am Ende zeigt sich in unserer Wahrnehmung in Form eines Gedankens oder Bildes. Alles davor verschwindet in einen für uns nicht mehr erreichbaren Zustand. Dieser ‚Homo Physicus’ und ‚Schrödinger’s Katze im Kopf’ haben Konsequenzen für fast alle Bereiche unseres Lebens: Gesellschaft und Unternehmen, Management, Führung und Entscheidungen, Kommunikation, Lehre und Lernen, Psychologie, Medizin und Neurowissenschaften. Nicht zuletzt ergeben sich für die Naturwissenschaft selbst Konsequenzen, wenn wir uns diesen nicht nur erkenntnistheoretisch, sondern auch ökonomisch annähern. Die ökonomische Seite ergibt sich aus den finanziellen Mitteln, die für ihre Projekte gewährt werden und abhängig vom jeweiligen Paradigma sind. Verändert sich das wissenschaftliche Paradigma und in dessen Folge die Forschungsthemen, wie es derzeit beim Switch in Richtung Digitalisierung und Informationstechnologie zu beobachten ist, so ändert sich auch der Mittelfluss und in dessen Folge die Attraktivität der Themen. Vor diesem Hintergrund wurde deutlich, dass Intuition als Ergebnis eines Zugriffs unseres körperlichen und mentalen Systems auf sämtliche, in der Welt existierende Informationen zu interpretieren ist und tatsächlich auch innerhalb bestimmter Grenzen bewusst gesteuert werden kann. SyA arbeitet mit dieser Intuition, indem eine Frage und © Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9_11
590
11 Fazit und Nachwort
damit eine bewusste Intention gesetzt werden und die Repräsentanten auf ihre darauffolgenden körperlichen und mentalen Wahrnehmungen achten. Dieser Prozess darf als direkte Analogie zu einem Rechenprozess in einem Quantencomputer angesehen werden, dem eine Rechenaufgabe eingegeben wird. Auch dort weiß man nicht, wie der genaue Weg zum Ergebnis verläuft, nur dass ein solches Ergebnis am Ende abgelesen werden kann. Wesentlich sind bei solchen Berechnungen mithilfe von Quantenrechnern der Einsatz von Fehlerkorrekturverfahren, nicht anders wie im täglichen Leben. Bei beiden, SyA und Rechenprozess, kommt es letztlich auf die Auswahl und Qualität der Frage und schließlich auf die Interpretation der Ergebnisse an. In beiden Aspekten finden sich die zentralen Herausforderungen und auch Gefahren. Dieser Umstand unterscheidet sich allerdings in keiner Weise von sogenannten rationalen Vorgehensmodellen, weshalb sich daraus kein Vor- bzw. Nachteil für intuitive Verfahren ableiten lässt, wohl aber in der Handhabung der Ergebnisse berücksichtigt werden sollte. Aus den derzeit existierenden Forschungen wurde eindringlich die bessere Qualität unbewusster, intuitiver Entscheidungen in komplexen Situationen deutlich; komplexe Situationen, wie sie die VUCA-Rahmenbedingungen erzeugen und in denen so gut wie nie alle Informationen, die für eine gute Entscheidung nötig wären, zur Verfügung stehen. Es wurde auch deutlich, dass erfolgreiche Entscheider vorzugsweise auf ihre intuitiven Eingebungen zurückgreifen und sich von ihnen leiten lassen. Erfolgreiche Unternehmensführung und strategisches Management sind ganz essenziell von solch intuitiven Prozessen abhängig, weshalb SyA nun als erklärbare Methode eine größere Chance für ihren Einsatz bekommen könnte. Die bisherige Ablehnung solcher Art gewonnener Erkenntnisse beruhte ausschließlich auf einer nicht vorhandenen Theorie und sollte deshalb in Zukunft wegfallen. Abschließend darf noch einmal darauf verwiesen werden, dass die Grundlage für einen jetzt erklärbaren Prozess zur Wirkungsweise von Intuition und SyA vor allem in der Falsifikation weit verbreiteter Annahmen zu finden ist. Es konnten zahllose gleiche Phänomene in unterschiedlichen Kontexten gezeigt und damit die Fehlannahmen von Anomalien oder unzureichender Messanordnungen widerlegt werden. In gleicher Weise gelang der Ausschluss klassischer Erklärungen, die einfach nicht für sämtliche Phänomene passen wollten. Weiter gelang die Überwindung von angenommenen Begrenzungen aus dem Dekohärenzmodell von Zeh mithilfe der Falsifizierung des Tieftemperatur- und Makrosystem-Paradigmas, das relevante quantenphysikalische Prozesse bei normalen Umweltbedingungen in lebenden Systemen und im Gehirn verneinte. Unterstützt wurden diese Falsifikationen durch eine gleichzeitige Bestätigung der existierenden Theorien zu einem möglichen Quantenverhalten in Makrosystemen, durch die gleichen Nachweisverfahren von Nicht-Lokalität in Physik wie bei lebenden Systemen und damit die Möglichkeit einer Quanten-Teleportation mit Verteilung von Information. Schließlich konnten auch quantenphysikalische Prozesse im Kontext neurowissenschaftlicher Aktivitäten gezeigt bzw. modelliert werden. Schließlich führte die Entdeckung homologer Zusammenhänge zwischen Quantenphysik, Systemtheorie und SyA zu einer gemeinsamen Wurzel, womit die bisherigen Rückgriffe auf analoge bzw. metaphorische Erklärungen obsolet wurden.
11.2 Nachwort
591
Vervollständigt wurden die Modelle durch eine Normierung des Informationsbegriffs über verschiedene Wissenschaftsdisziplinen hinweg sowie die Idee einer Normierung der Psi-Funktion (Ψ), einen Beitrag zur Theory of Mind und eine Idee, wie Quantenfeldtheorie, Allgemeine Relativitätstheorie und Quantengravitation zusammenspielen könnten. 11.2
Nachwort
Diese Forschung entwickelte sich aus der Neugierde heraus, das Besondere der SyA und ihrer innewohnenden Intuition zu verstehen. Als Ergebnis steht am Ende aber eher die Umkehrung dieses Bestrebens, nämlich die Ableitung eines allgemeinen Prozesses (der Informationswahrnehmung) aus dem Besonderen (der SyA) heraus. Ob diese Ergebnisse breite Akzeptanz finden oder ob sie das Schicksal des Vergessens bzw. Widerspruchs erleiden werden, entsprechend einer Beobachtung von Nisbett und Borgida bei Studenten, weil sie zu überraschend sind, wird sich zeigen: „Der Unwille der Probanden, das Besondere aus dem Allgemeinen abzuleiten, reichte allenfalls an die Bereitwilligkeit heran, mit der sie aus dem Besonderen das Allgemeine folgerten“ (Nisbett und Borgida in Kahneman 2016: 217). Eine wesentliche Voraussetzung für Akzeptanz und Anwendung der hier vorgestellten Ergebnisse ist natürlich, dass die Schlussfolgerungen keiner Verzerrung aufgrund einer „Illusion der Gültigkeit“ (Kahneman 2016: 259–263) oder einem WYSIATI246-Effekt (ebd. 112-115) unterliegen, wie sie Kahneman so schön herausgearbeitet hat. Die Hoffnung auf eine erfolgreiche Vermeidung von Verzerrungsfehlern resultiert aus der Vielzahl unterschiedlicher Beispiele aus unterschiedlichsten Disziplinen, in denen immer wieder die gleichen merkwürdigen und bis heute nicht erklärbaren Phänomene beobachtbar sind, womit Kahneman’s Forderung nach Vielfältigkeit des Zugangs erfüllt sein sollte. Die Akzeptanz wird aber auch davon abhängen, inwieweit die Forschungsgemeinde es schafft eine psychologisch als auch systemtheoretisch begründbare „theorieinduzierte Blindheit“ zu überwinden. Eine Blindheit, die mit der Akzeptanz und der Nutzung einer Theorie einhergeht, wie es Kahneman formuliert. Dies geschieht mit der Folge, ihre Schwächen nicht mehr bemerken zu können und sich „im Zweifelsfall zugunsten der Theorie und der Gemeinschaft der Experten, die sie für richtig hält, zu entscheiden“ (Kahneman 2016: 340). Noch 1970 wurde es als exotisch angesehen, dass Quantenverschränkungen in chemischen Reaktionen eine Rolle spielen würden (Al-Khalili und McFadden 2015) und 2012 passten die Teilnehmer eines internationalen Workshops über Quantenbiologie noch in einen kleinen Hörsaal (ebd. 27). Anwesend waren die meisten Wissenschaftler, die sich mit diesem Thema befassten. Selbstverständlich waren all diejenigen nicht dabei, die zwar das gleiche Thema bearbeiteten, aber den sogenannten Parawissenschaften 246
WYSIATI bedeutet: What you see is all there is.
592
11 Fazit und Nachwort
zugerechnet wurden, wie beispielsweise Sheldrake und sogenannte Quantenmystiker (vgl. ebd. 5). Ein erheblicher Teil der Personen und Gruppen, deren Erkenntnisse hier zusammengetragen und in ein übergreifendes Bild gestellt wurden, sind Außenseiter oder wurden mit Beginn ihrer Tätigkeit zu solchen gemacht. Dabei sind zunächst nicht erklärbare Rätsel (Beobachtungen und Erfahrungen) fast immer der Ausgangspunkt für ein neues Verständnis über unsere Welt. Ob Kopernikus (Sonne im Mittelpunkt), Max Planck (Portionierung der Energie) (ebd. 5) oder H.D. Zeh (Dekohärenztheorie), immer wurde an den Grenzen des aktuellen Verständnisses gearbeitet. Manchmal hatten die Forscher Glück und zeitnah Mitstreiter gefunden oder konnten ihre Erkenntnisse schnell und eindeutig nachweisen, oft wurden sie aber skeptisch betrachtet oder ausgegrenzt. Neue Entwicklungen und die Erkenntnisse der letzten paar Jahre geben Hoffnung, dass diese Arbeit einen Beitrag für ein verändertes Verständnis bei vielen Phänomenen leisten kann, für die es heute keine Erklärung und auch keine theoretischen Ansätze gibt. Mit den hier vorgestellten Ergebnissen wird zudem auch klar, weshalb die Überprüfung dieser subtilen Phänomene so schwierig ist und sich nicht einfach wiederholen lässt und schon gleichgar nicht mit deterministischer Sicherheit. Die Quantenwelt ist einfach nicht deterministisch und lässt sich mit kleinsten Einflüssen zu völlig unterschiedlichen Resultaten animieren; Unterschiede, die in der rein physikalischen Forschung berechenbar sind, nicht aber in gleicher Weise in der Welt des Lebenden und nicht einfach Isolierbaren. Konsequenterweise müssen unsere bisherigen Studienannahmen und -designs auf den Prüfstand gestellt werden, mit der großen Wahrscheinlichkeit einer umfassenden Neuausrichtung. In jedem Fall erscheint das bisher akzeptierte Verständnis von Feynman, dass niemand die Quantenphysik wirklich versteht, weil sie nicht Teil unser Alltagserfahrung sei (Wilde 2017: 24), nachhaltig infrage gestellt. Wir erleben die Quantenphysik tagtäglich in den verschiedensten Zusammenhängen. Dieser Umstand veranlasst mittlerweile auch Physiker dazu, Quantenphysik und die Bayessche Wahrscheinlichkeit zusammen zu denken (Fuchs u. a. 2014). Nur mit der Logik von Descartes im Kopf, der seine Wirkung über das Bayes-Theorem (Verzerrungseffekte) und den automatischen Auswahlprozessen auf neuronaler Ebene entfaltet, können sie von Vielen zwar wahrgenommen, von unseren Experten aber nicht akzeptiert werden (schwarzer Elefant). Die Folge ist ein Kampf zwischen Weltanschauungen und Paradigmen. Deshalb lässt sich diese Forschung auch als Fortsetzung von Fechner’s Überlegungen zu einer Psychophysik verstehen. Fechner versuchte einen komplementären Forschungsansatz zu entwickeln, indem er die Beziehung zwischen subjektiven (geistigen) Wahrnehmungen und objektiven (neuronalen oder körperlichen) Prozessen bzw. Ereignissen untersuchte. „The key idea underlying Fechner's psychophysics was that body and mind are just different reflections of the same reality“ (Ehrenstein und Ehrenstein 1999: 1211). Es geht damit auch um die Suche nach einer Beziehung zwischen Geist und Materie und einer Auseinandersetzung mit dem cartesischen Denken und der Descartesschen Idee von der Trennung derselben, die Jahrhunderte besonders das west-
11.2 Nachwort
593
liche Weltbild geprägt hat (Dijksterhuis und Roth 2010: 39; Damasio 2004; Whyte 1979). Es mag schwierig sein, mit unserer jahrhundertalten Prägung basierend auf Descartes und Newton, die mit den hier entwickelten Überlegungen verbundenen Konsequenzen zu akzeptieren. Die abertausende von Experimenten aus verschiedensten Disziplinen, die dieser Forschungsarbeit zugrunde liegen und nicht von mir in eine gewünschte Richtung beeinflusst sind, sondern nur gesichtet und in einen thematischen Kontext gestellt wurden, lassen sich nicht so einfach wegdiskutieren. Diese Experimente werden heute auch von Kritikern als seriös und wissenschaftlich gut gemacht angesehen. Wenn sie dennoch infrage gestellt werden, kann dies entweder nur mit magischen, respektive dogmatischen oder andererseits mit metaphysischen Argumentationen vonstatten gehen. Metaphysisch versteht sich hier im Sinne der Philosophie, die versucht Fragen zu beantworten, die empirischen Experimenten nicht mehr zugänglich sind. Die allgemein gegen Forscher, die sich mit den vorgestellten Themen beschäftigen, verwendete und als abwertend gedachte Zuschreibung einer ‚magischen’ und ‚nicht-fundierten’ Denkweise (des Öfteren wird auch ‚metaphysisch’ mit dem Ziel der Abwertung verwendet) dreht sich nun offensichtlich und eindeutig um, was mit der folgenden letzten Abbildung (Abb. 101) veranschaulicht werden soll.
Abb. 101 | Möglichkeiten von Überzeugungen (eigene Darstellung). In der Grafik sind unterschiedliche Überzeugungen dargestellt, die meist als Entweder-oder-Positionen verstanden werden. Bei genauer Betrachtung bieten sie allerdings auch einige Möglichkeiten von Superpositionen, unter denen scheinbar gegensätzliche Überzeugungen gleichwertig und gleichzeitig existieren können. *Naturalist: alle Phänomene der Welt sind durch Naturgesetze bestimmt. Dazu gehören auch Phänomene wie Bewusstsein, Moral oder Ästhetik.
Dargestellt sind die Möglichkeiten von Überzeugungen zunächst in ihrer Grundpolarität: Glaube an Gott oder Glaube an Naturgesetze, die die Welt festlegen (Bergmann
594
11 Fazit und Nachwort
2019). Wie gleich deutlich werden wird, kann und will die hier vorgelegte Arbeit keine Entscheidungshilfe zwischen den beiden Möglichkeiten liefern. Ganz im Gegenteil, was sich abzeichnet ist eine Superposition beider Optionen. Je nach Perspektive und Fokussierung tritt entweder das eine oder das andere in den Vordergrund. Die Optionen für Theisten lassen sich in zwei Überzeugungsrichtungen unterscheiden: (1) diejenigen, die an eine 1:1-Gültigkeit glauben, wie es in den jeweiligen heiligen Schriften beschrieben wurde und (2) diejenigen, die die Welt mit Freiheitsgraden ausgestattet sehen. Im ersten Fall produziert dies Gläubige à la Kreationisten und Islamisten mit hochgradig fundamentalistischen Ansichten. Im zweiten Fall wird Gott die Kompetenz zugeschrieben, entsprechende allgemeingültige Prinzipien festgelegt zu haben, aus denen heraus sich die Welt auf der Basis eigener Fähigkeiten weiterentwickelt. Diese letzte Überzeugung bietet einen tragbaren Link hinüber zu den Naturalisten und damit zu den Naturwissenschaften. Als Überlagerung zwischen diesen beiden theistischen Polen besteht jedoch auch die Option, dass Gott zusätzlich noch eingreifen kann. Auf der Seite der Naturalisten bestehen drei Hauptunterscheidungen: Erstens, diejenigen, die nach wie vor an die klassische Physik glauben. Ihre Vorstellung ist entweder vor über 100 Jahren stehengeblieben und darf als ‚unwissend’ tituliert werden, oder sie geben der klassischen Physik Freiheitsgrade, wodurch sie den physikalischen Rahmen verlassen und sich den ‚metaphysischen’ Erklärungen zuwenden. Im Bereich der Quantenphysik wiederum glauben immer noch viele an die Beschränkung auf Mikrokosmos und unbelebte Natur. Manche, die zu dieser Überzeugung neigen, glauben, dass schon alles bekannt sei und tentieren zu einem gewissen Dogmatismus. Sie haben damit einen Weg der Nichtwissenschaftlichkeit eingeschlagen, den sie allerdings selbst nicht mehr bemerken. Hier stellt sich die Frage, weshalb noch kein einhelliges Verständnis erzielt werden konnte und zahlreiche Fragen tatsächlich noch offen sind. Andere wiederum haben die ursprünglichen Vorstellungen überwunden und beschäftigen sich mit viel Begeisterung mit den neuen Techniken wie Quantencomputern. Gleichzeitig verdrängt ein erheblicher Teil von ihnen die neuesten Entwicklungen im Bereich offener Quantensysteme oder bekommt sie einfach nicht mit. Sie glauben immer noch nicht daran, dass auch die belebte Natur Quantenprozesse realisiert. Die Technikfixierung neigt zu einer gewissen Verdrängung und Ignoranz. Die Gruppe, die sich auf offene Quantensysteme (Makrosysteme, Quantenbiologie, Neurowissenschaften und Kosmos) und damit auch auf lebende Systeme eingelassen hat, konnte sich offensichtlich einen offenen, neugierigen Wissenschaftsgeist bewahren. Sie neigen dazu, ergebnisoffen in ihre Forschung zu gehen und sich überraschen zu lassen. Vielleicht sind sie schlicht auch nur an anderen Themenkreisen interessiert oder haben eigene irritierende Erfahrungen gemacht, die nachhaltig wirken. Schließlich lässt sich im Rahmen der Naturwissenschaften noch eine weitere Gruppe identifizieren, die nach einer neuen, vielleicht ganz anderen Weltformel suchet oder an die Inkonsistenz der Natur glaubt, wie bereits im Vorwort angemerkt. Für viele scheint dies etwas zu weit gesprungen und ist deshalb mit einem Hauch von Esoterik verbunden. Gleichwohl muss offenbleiben, ob sie nicht doch einen überraschenden, ganz neuen
11.2 Nachwort
595
Zugang zum Verständnis der Welt offenlegen, denn der schwarze Schwan ist aus prinzipiellen Gründen nicht auszuschließen. Nachdem sich auf der naturalistischen Seite viele Geheimnisse der Natur entschlüsseln ließen, bleiben bisher zwei grundsätzliche Fragen unbeantwortet. Dies ist die Frage nach dem Bewusstsein und die noch viel finalere Frage: Wo kommt der Anfang der Welt her? Auch wenn es Wissenschaftler und Philosophen gibt, die meinen, eine solche Frage sei unzulässig, darf eine solche Frage einem Naturwissenschaftler niemals als unzulässig erscheinen. Auch wenn es derzeit noch unmöglich scheint, sie zu beantworten, muss es aus rein logischen Gründen zulässig sein danach zu fragen. Mag sein, dass man auf ein Henne-Ei-Prinzip und damit auf einen Zirkelschluss stößt, der allerdings auch in der Quantenphysik zu finden ist (Goswami u. a. 2018), oder, und das ist der Link zur Glaubensseite, man greift auf die Idee eines erschaffenden Gottes oder göttlichen Wesens zurück. Genau hier treffen sich die beiden Pole zu einer Überlagerungssituation, für die es derzeit keine deterministisch-fixierende Antwort gibt. Allerdings gebietet die Logik, bei Rückgriff auf einen schöpferischen Gott, die unausweichliche Frage: Wo kommt dann dieser Gott her? Ob die Antwort von Löffler die einzig richtige ist (Löffler 2017; in Bergmann 2019), wird wohl weiterhin intensiv diskutiert werden: Er bezieht sich auf Leibnitz, der von einem ewigen Universum ausgeht und es damit begründet, dass ein ‚zureichender Grund’ für die Existenz dieser Welt, nicht von dieser Welt sein kann. Mit der Quantenphysik drängt sich jedoch die Frage in den Raum: Wie kann es sein, dass eine Interaktion mit/zwischen physikalischen Entitäten, wie sie durch unsere Welt repräsentiert werden, ohne physikalische Verschränkung möglich ist. Denn ein Eingriff auf physikalische Entitäten kann nur physikalischer Natur sein und zieht eine Verschränkung logisch nach sich. Eine Verschränkung, mit der ein schöpferischer Gott automatisch mit dieser Welt verbunden würde und demzufolge nicht mehr als außerhalb stehend definiert werden dürfte. Mit diesem Gedanken und der offenen Antwort möchte ich diese Arbeit mit Dankbarkeit und Freude abschließen: Dankbar, weil ich die Möglichkeiten hatte, mich dieser Forschung widmen zu dürfen und mit Freude, weil sie mich bei so vielen meiner Fragen, die ich teilweise schon seit der Kindheit mit mir trug, ganz essentiell weitergebracht hat.
596
11 Fazit und Nachwort
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Literatur Abadie, Marlène; Villejoubert, Gaëlle; Waroquier, Laurent; u. a. (2013): „The interplay between presentation material and decision mode for complex choice preferences“. In: Journal of Cognitive Psychology. 25 (6), S. 682–691, doi: 10.1080/20445911.2013.786721. Achterberg, Jeanne; Cooke, Karin; Richards, Todd; u. a. (2005): „Evidence for correlations between distant intentionality and brain function in recipients: a functional magnetic resonance imaging analysis“. In: Journal of Alternative and Complementary Medicine (New York, N.Y.). 11 (6), S. 965–971, doi: 10.1089/acm.2005.11.965. Adriaans, Pieter; Zalta, Edward N. (Hrsg.) (2012): „Information“. The Stanford Encyclopedia of Philosophy / Fall 2013 Edition. Agor, Weston H. (1991): „How Intuition Can Be Used To Enhance Creativity In Organizations“. In: The Journal of Creative Behavior. 25 (1), S. 11–19, doi: 10.1002/j.2162-6057.1991.tb01348.x. Agor, Weston H. (1986): The Logic of Intuitive Decision Making: A Research-Based Approach for Top Management. New York: Praeger. Aharonov, Y.; Vaidman, L. (2003): „How one shutter can close N slits“. In: Physical Review A. 67 (4), S. 042107, doi: 10.1103/PhysRevA.67.042107. Aharonov, Yakir; Albert, David Z.; Vaidman, Lev (1988): „How the result of a measurement of a component of the spin of a spin- 1/2 particle can turn out to be 100“. In: Physical Review Letters. 60 (14), S. 1351–1354, doi: 10.1103/PhysRevLett.60.1351. Aharonov, Yakir; Bergmann, Peter G.; Lebowitz, Joel L. (1964): „Time Symmetry in the Quantum Process of Measurement“. In: Physical Review. 134 (6B), S. B1410–B1416, doi: 10.1103/Phys Rev.134.B1410. Aharonov, Yakir; Popescu, Sandu; Tollaksen, Jeff (2010): „A time-symmetric formulation of quantum mechanics - yh171.pdf“. In: Physics Today. Aiello, Andrea; Töppel, Falk; Marquardt, Christoph; u. a. (2015): „Quantum-like nonseparable structures in optical beams“. In: New Journal of Physics. 17 , S. 043024, doi: 10.1088/1367-2630/17 /4/043024. Aigner, Martin; Ziegler, Günter M. (2015): Das BUCH der Beweise. 4. Aufl. Berlin: Springer. Alberts, Bruce; Johnson, Alexander; Lewis, Julian; u. a. (2011): Molekularbiologie der Zelle. John Wiley & Sons. Al-Khalili, Jim; McFadden, Johnjoe (2015): Der Quantenbeat des Lebens: Wie Quantenbiologie die Welt neu erklärt. Berlin: Ullstein Hardcover. Al-Laham, Martin K.; Welge, Andreas (1992): Planung: Prozesse - Strategien - Maßnahmen. 1992. Aufl. Wiesbaden: Gabler Verlag. Allan, M.D. (1958): „Learning perceptual skills: The Sargeant system of recognition training.“. In: Occupational Psychology. 32 , S. –252. Ammon, Klaus von; Baumgartner, Stephan; Behnke, Jens; u. a. (2016): „Der aktuelle Stand der Forschung zur Homöopathie“. In: Wissenschaftliche Gesellschaft für Homöopathie e. V. (WissHom). S. 56. Amsüss, R.; Koller, Ch.; Nöbauer, T.; u. a. (2011): „Cavity QED with Magnetically Coupled Collective Spin States“. In: Physical Review Letters. 107 (6), S. 060502, doi: 10.1103/PhysRevLett. 107.060502. Anderlini; Lee, Patricia; Brown, Benjamin; u. a. (2007): „Controlled exchange interaction between pairs of neutral atoms in an optical lattice“. In: Nature. 448 , S. 452–6.
© Der/die Herausgeber bzw. der/die Autor(en) 2020 T. Gehlert, System-Aufstellungen und ihre naturwissenschaftliche Begründung, Systemaufstellungen in Wissenschaft und Praxis, https://doi.org/10.1007/978-3-658-29167-9
598
Literatur
Andreasen, Nancy C. (2005): The Creating Brain: The Neuroscience of Genius. 1 edition. New York: Dana Press. Antognini, Aldo; Nez, François; Schuhmann, Karsten; u. a. (2013): „Proton structure from the measurement of 2S-2P transition frequencies of muonic hydrogen“. In: Science (New York, N.Y.). 339 (6118), S. 417–420, doi: 10.1126/science.1230016. Ariely, Dan (2010): Predictably Irrational: The Hidden Forces That Shape Our Decisions. Revised and updated edition. New York ... etc.: Harper Perennial. Armengol, Pau; Spörkel, Lasse; Gelabert, Ricard; u. a. (2018): „Ultrafast action chemistry in slow motion: atomistic description of the excitation and fluorescence processes in an archetypal fluorescent protein“. In: Physical Chemistry Chemical Physics. 20 (16), S. 11067–11080, doi: 10.1039/C8CP00371H. Arndt, Markus; Hornberger, Klaus (2014): „Testing the limits of quantum mechanical superpositions“. In: Nature Physics. 10 (4), S. 271–277, doi: 10.1038/nphys2863. Arndt, Markus; Nairz, Olaf; Vos-Andreae, Julian; u. a. (1999): „Wave–particle duality of C60 molecules“. In: Nature. 401 (6754), S. 680–682, doi: 10.1038/44348. Arnold, Marlen (2007): Strategiewechsel für eine nachhaltige Entwicklung: Prozesse, Einflussfaktoren und Praxisbeispiele. 1. Aufl. Marburg: Metropolis. Arnold, Marlen (2017): Systemic Structural Constellations and Sustainability in Academia: A New Method for Sustainable Higher Education. Abingdon, Oxon ; New York, NY: Taylor & Francis Ltd. Arnold, Marlen Gabriele (2018a): Systemische Strukturaufstellungen in Beratung und Management: Das implizite und unbewusste Wissen für Entscheidungen aktivieren. Berlin: Springer Gabler Verlag. Arnold, Rolf (2018b): Wie man lehrt, ohne zu belehren: 29 Regeln für eine kluge Lehre. 4. Aufl. Heidelberg: Carl-Auer Verlag GmbH. Arnold, Rolf; Erpenbeck, John (2016): Wissen ist keine Kompetenz: Dialoge zur Kompetenzreifung. 3. Aufl. Baltmannsweiler: Schneider Verlag Hohengehren. Arovas, Daniel P.; Schrieffer, Robert; Wilczek, Frank; u. a. (1985): „Statistical mechanics of anyons“. In: Nuclear Physics B. 251 , S. 117–126, doi: 10.1016/0550-3213(85)90252-4. Ashby, Nathaniel J. S.; Glöckner, Andreas; Dickert, Stephan (2011): „Conscious and Unconscious Thought in Risky Choice: Testing the Capacity Principle and the Appropriate Weighting Principle of Unconscious Thought Theory“. In: Frontiers in Psychology. 2 , doi: 10.3389/fpsyg.2011.00261. Ashby, W. Ross; Huber, Jörg Adrian (1985): Einführung in die Kybernetik: Aus dem Englischen von Jörg Adrian Huber. 3. Aufl. Frankfurt am Main: Suhrkamp Verlag. Ashby, William Ross (1956): An introduction to cybernetics. New York, J. Wiley. Aspelmeyer, Markus; Arndt, Markus (2012): „Schrödingers Katze auf dem Prüfstand“. In: Spektrum der Wissenschaft. (Makro-Quantenphysik), (Oktober 2012), S. 44–54. Astner, T.; Nevlacsil, S.; Peterschofsky, N.; u. a. (2017): „Coherent Coupling of Remote Spin Ensembles via a Cavity Bus“. In: Physical Review Letters. 118 (14), S. 140502, doi: 10.1103/PhysRevLett.118.140502. Atmanspacher, Harald; Primas, Hans (2006): „Pauli’s Ideas on Mind and Matter in the Context of Contemporary of Science“. In: Journal of Consciousness Studies. 13 (3), S. 5–50. Atmanspacher, Harald; Römer, Hartmann; Walach, Harald (2002): „Weak Quantum Theory: Complementarity and Entanglement in Physics and Beyond“. In: Foundations of Physics. 32 (3), S. 379–406, doi: 10.1023/A:1014809312397.
Literatur
599
Atrio-Barandela, F.; Kashlinsky, A.; Ebeling, H.; u. a. (2015): „Probing the Dark Flow Signal in WMAP 9 -Year and Planck Cosmic Microwave Background Maps“. In: The Astrophysical Journal. 810 (2), S. 143, doi: 10.1088/0004-637X/810/2/143. Bach, Richard; Munson, Russell (2005): Die Möwe Jonathan. 23. Frankfurt/M; Berlin: Ullstein. Bachmann, Talis; Põder, Endel; Luiga, Iiris (2004): „Illusory reversal of temporal order: the bias to report a dimmer stimulus as the first“. In: Vision Research. 44 (3), S. 241–246, doi: 10.1016/ j.visres.2003.10.012. Baecker, Dirk (2007): „Therapie für Erwachsene: Zur Dramaturgie der Strukturaufstellung“. In: Groth, Torsten; Stey, Gerhard (Hrsg.) Potenziale der Organisationsaufstellung: Innovative Ideen und Anwendungsbereiche. 1., Aufl. Heidelberg: Carl Auer Verlag. Baggott, Jim (2013): Farewell to Reality: How Modern Physics Has Betrayed the Search for Scientific Truth. 1st edition. Constable & Robinson Ltd. Bär, Christian (2010): Internationalisierungsstrategien deutscher Steuerberatungs-und Wirtschaftsprüfungskanzleien. Aachen: Shaker. Barends, R.; Kelly, J.; Megrant, A.; u. a. (2014): „Superconducting quantum circuits at the surface code threshold for fault tolerance“. In: Nature. 508 (7497), S. 500–503, doi: 10.1038/nature13171. Bargh, John A.; Gollwitzer, Peter M.; Oettinger, Gabriele (2010): „Motivation“. In: Fiske, Susan T.; Gilbert, Daniel T.; Lindzey, Gardner (Hrsg.) Handbook of Social Psychology: Volume Two. 5 edition. Hoboken, N.J: Wiley S. 268–316. Barke, Werner; Statistisches Landesamt Baden-Württemberg (Hrsg.) (2011): Ich glaube nur der Statistik ... Was Winston Churchill über Zahlen und Statistik gesagt haben soll – und was er wirklich sagte. 6. Aufl. Stuttgart: Statistisches Landesamt Baden-Württemberg. Bartels, Andreas; Stöckler, Manfred (2007): Wissenschaftstheorie: Ein Studienbuch. 2. Aufl. Paderborn: mentis. Bastian, Patrick J; Waha, Andreas; Müller, Stefan C; u. a. (2004): „Epigenetische Veränderungen in der Karzinogenese des Prostatakarzinoms“. In: Deutsches Ärzteblatt. 101 (27), S. A1981-1985 und A1-2. Bateman, Anthony; Fonagy, Peter (2016): Mentalization Based Treatment for Personality Disorders: A Practical Guide. 1. Aufl. Oxford: Oxford University Press. Bateson, Gregory (1987): „Form, substance, and difference: Collected essays in anthropology, psychiatry, evolution, and epistemology“. In: S. 455–471. Bateson, Gregory (1985): Ökologie des Geistes: Anthropologische, psychologische, biologische und epistemologische Perspektiven. 1. Frankfurt am Main: Suhrkamp Verlag. Bauer, Joachim (2006): Warum ich fühle, was du fühlst: Intuitive Kommunikation und das Geheimnis der Spiegelneurone - Aktualisierte Neuausgabe -. München: Heyne Verlag. Baumgartner, Marc (2006): Gestaltung einer gemeinsamen Organisationswirklichkeit. Systemische Strukturaufstellungen und Mitarbeiterbefragungen zur Diagnose von Organisationskultur. 1. Aufl. Heidelberg: Carl-Auer Verlag GmbH. Bavaresco, Jessica; Valencia, Natalia Herrera; Klöckl, Claude; u. a. (2018): „Measurements in two bases are sufficient for certifying high-dimensional entanglement“. In: Nature Physics. S. 1, doi: 10.1038/s41567-018-0203-z. Baxter, Mark G.; Murray, Elisabeth A. (2002): „The amygdala and reward“. In: Nature Reviews. Neuroscience. 3 (7), S. 563–573, doi: 10.1038/nrn875. Bayes, Mr (1763): „An Essay towards Solving a Problem in the Doctrine of Chances. By the Late Rev. Mr. Bayes, F. R. S. Communicated by Mr. Price, in a Letter to John Canton, A. M. F. R. S.“. In: Philosophical Transactions of the Royal Society. 53 , S. 370–418, doi: 10.1098/rstl. 1763.0053.
600
Literatur
Bealer, George (1998): „Intuition and the Autonomy of Philosophy“. In: DePaul, Michael; Ramsey, William (Hrsg.) Rethinking Intuition: The Psychology of Intuition and Its Role in Philosophical Inquiry. Rowman & Littlefield S. 201–240. Beauvais, Francis (2017): „‘Unconventional’ experiments in biology and medicine with optimized design based on quantum-like correlations“. In: Homeopathy. 106 (1), S. 55–66, doi: 10.1016/ j.homp.2017.01.002. Bechara, A.; Damasio, H.; Tranel, D.; u. a. (1997): „Deciding advantageously before knowing the advantageous strategy“. In: Science (New York, N.Y.). 275 (5304), S. 1293–1295. Bechara, A.; Damasio, H.; Tranel, D.; u. a. (2005): „The Iowa Gambling Task and the somatic marker hypothesis: some questions and answers“. In: Trends in Cognitive Sciences. 9 (4), S. 159–162, doi: 10.1016/j.tics.2005.02.002. Becker, Jan; Bongertz, Christiane Stella (2014): Das Geheimnis der Intuition: Wie man spürt, was man nicht wissen kann. München: Piper Taschenbuch. Belenchia, Alessio; Wald, Robert; Giacomini, Flaminia; u. a. (2018): „Quantum Superposition of Massive Objects and the Quantization of Gravity“. In: arXiv:1807.07015 [gr-qc, physics:hep-th, physics:quant-ph]. Bell, A J (1999): „Levels and loops: the future of artificial intelligence and neuroscience.“. In: Philosophical Transactions of the Royal Society B: Biological Sciences. 354 (1392), S. 2013–2020. Bem, Daryl J. (2011): „Feeling the future: experimental evidence for anomalous retroactive influences on cognition and affect“. In: Journal of Personality and Social Psychology. 100 (3), S. 407– 425, doi: 10.1037/a0021524. Bem, Daryl; Tressoldi, Patrizio; Rabeyron, Thomas; u. a. (2016): „Feeling the future: A meta-analysis of 90 experiments on the anomalous anticipation of random future events“. In: F1000Research. 4 , S. 1188 (33), doi: 10.12688/f1000research.7177.2. Bender, Rolf; Nack, Armin; Röder, Susanne (1981): Tatsachenfeststellung vor Gericht, 2 Bde, Bd.1, Glaubwürdigkeitslehre und Beweislehre. 1. Aufl. München: C.H. Beck Verlag. Benner, P.; Tanner, C. (1987): „Clinical judgment: how expert nurses use intuition“. In: The American Journal of Nursing. 87 (1), S. 23–31. Bennett, Charles H.; Brassard, Gilles; Crépeau, Claude; u. a. (1993): „Teleporting an unknown quantum state via dual classical and Einstein-Podolsky-Rosen channels“. In: Physical Review Letters. 70 (13), S. 1895–1899, doi: 10.1103/PhysRevLett.70.1895. Bennett, Nathan; Lemoine, G. James (2014): „What VUCA Really Means for You“. Harvard Business Review. Abgerufen am 04.03.2017 von https://hbr.org/2014/01/what-vuca-really-means-foryou. Bennis, Will M.; Pachur, Thorsten (2006): „Fast and frugal heuristics in sports“. In: Psychology of Sport and Exercise. (Judgement and Decision Making in Sport and Exercise), 7 (6), S. 611–629, doi: 10.1016/j.psychsport.2006.06.002. Bergmann, Ralf B. (2019): Gott und die Erklärung der Welt - Warum der christliche Glaube vernünftiger ist als der Atheismus. Gießen: Brunnen Verlag. Bermeitinger, Christina; Goelz, Ruben; Johr, Nadine; u. a. (2009): „The hidden persuaders break into the tired brain“. In: Journal of Experimental Social Psychology. 45 (2), S. 320–326, doi: 10.1016/j.jesp.2008.10.001. Berne, Eric; Hagehülsmann, Heinrich (1991): Transaktionsanalyse der Intuition: Ein Beitrag zur IchPsychologie. 4. Aufl. Paderborn: Junfermann Verlag. Berreth, Andrea (2009): Organisationsaufstellung und Management: Lesarten einer beraterischen Praxis. 1. Aufl. Heidelberg: Carl-Auer Verlag GmbH.
Literatur
601
Bertalanffy, Ludwig Von (1968): General System Theory: Foundations, Development, Applications. Georg Braziller. Bestehorn, Michael (2002): „Musterbildung und Musteranalyse -Moderne Aspekte der Synergetik“. In: Systemtheorie und Modellierung von Ökosystemen. Physica, Heidelberg (UmweltWissenschaften), S. 18–32, doi: 10.1007/978-3-642-57474-0_2. Betti, Lucietta; Trebbi, Grazia; Kokornaczyk, Maria Olga; u. a. (2017): „Number of succussion strokes affects effectiveness of ultra-high-diluted arsenic on in vitro wheat germination and polycrystalline structures obtained by droplet evaporation method“. In: Homeopathy: The Journal of the Faculty of Homeopathy. 106 (1), S. 47–54, doi: 10.1016/j.homp.2016.12.001. Beyeler, Michael; Dutt, Nikil D.; Krichmar, Jeffrey L. (2013): „Categorization and decision-making in a neurobiologically plausible spiking network using a STDP-like learning rule“. In: Neural Networks. 48 , S. 109–124, doi: 10.1016/j.neunet.2013.07.012. Bilucaglia, Marco; Pederzoli, Luciano; Giroldini, William; u. a. (2019): „EEG correlation at a distance: A re-analysis of two studies using a machine learning approach“. In: F1000Research. 8 , S. 43, doi: 10.12688/f1000research.17613.1. Birbaumer, Niels; Schmidt, Robert F. (2010): Biologische Psychologie. Berlin, Heidelberg: Springer Berlin Heidelberg (Springer-Lehrbuch). Bishop, Christopher M. (2007): Pattern Recognition and Machine Learning. 1st ed. 2006. Corr. 2nd printing 2011. New York: Springer. Blank, Martin; Goodman, Reba (2011): „DNA is a fractal antenna in electromagnetic fields“. In: International Journal of Radiation Biology. 87 (4), S. 409–415, doi: 10.3109/09553002.2011. 538130. Bleicher, Ariel (2018): „Quantum Computers Struggle Against Classical Algorithms“. In: Quanta Magazine. S. 7. Block, Eric; Jang, Seogjoo; Matsunami, Hiroaki; u. a. (2015a): „Implausibility of the vibrational theory of olfaction“. In: Proceedings of the National Academy of Sciences of the United States of America. 112 (21), S. E2766–E2774, doi: 10.1073/pnas.1503054112. Block, Eric; Jang, Seogjoo; Matsunami, Hiroaki; u. a. (2015b): „Reply to Turin et al.: Vibrational theory of olfaction is implausible“. In: Proceedings of the National Academy of Sciences of the United States of America. 112 (25), S. E3155, doi: 10.1073/pnas.1508443112. Blum, W.; Leiß, D. (2005): „Modellieren im Unterricht mit der Tanken-Aufgabe“. In: Mathematik lehren. S. 18–21. Blumenfeld, Robert S.; Ranganath, Charan (2007): „Prefrontal cortex and long-term memory encoding: an integrative review of findings from neuropsychology and neuroimaging“. In: The Neuroscientist: A Review Journal Bringing Neurobiology, Neurology and Psychiatry. 13 (3), S. 280– 291, doi: 10.1177/1073858407299290. Bode, Stefan; He, Anna Hanxi; Soon, Chun Siong; u. a. (2011): „Tracking the Unconscious Generation of Free Decisions Using UItra-High Field fMRI“. In: PLOS ONE. 6 (6), S. e21612, doi: 10.1371/ journal.pone.0021612. Bohm, David; Nichol, Lee (Hrsg.) (2014): Der Dialog: Das offene Gespräch am Ende der Diskussionen. 7., Aufl. Stuttgart: Klett-Cotta. Bohm, D.J.; Hiley, B. J. (1982): „The de Broglie Pilot Wave Theory and the Further Development of New Insights Arising Out of It“. In: Foundations of Physies. 12 (10), S. 10011016. Böhm, Jennifer; Scherzer, Sönke; Krol, Elzbieta; u. a. (2016): „The Venus Flytrap Dionaea muscipula Counts Prey-Induced Action Potentials to Induce Sodium Uptake“. In: Current Biology. 26 (3), S. 286–295, doi: 10.1016/j.cub.2015.11.057.
602
Literatur
Böhnke, Nils-Christian; Pointner, Alexander; Ramsauer, Christian (2017): „Supply Chain Strategies in Times of VUCA“. In: ZWF Zeitschrift für wirtschaftlichen Fabrikbetrieb. 112 (9), S. 555–558, doi: 10.3139/104.111786. Bohr, Niels (1931): Atomtheorie und Naturbeschreibung. Springer Berlin. Bókkon, I.; Salari, V.; Tuszynski, J. A.; u. a. (2010): „Estimation of the number of biophotons involved in the visual perception of a single-object image: Biophoton intensity can be considerably higher inside cells than outside“. In: Journal of Photochemistry and Photobiology B: Biology. 100 (3), S. 160–166, doi: 10.1016/j.jphotobiol.2010.06.001. Bolte, Annette; Goschke, Thomas; Kuhl, Julius (2003): „Emotion and intuition“. In: Psychological Science. 14 (5), S. 416–421, doi: 10.1111/1467-9280.01456. Bond, Charles F.; DePaulo, Bella M. (2006): „Accuracy of deception judgments“. In: Personality and Social Psychology Review: An Official Journal of the Society for Personality and Social Psychology, Inc. 10 (3), S. 214–234, doi: 10.1207/s15327957pspr1003_2. Bonke, Benno; Zietse, Robert; Norman, Geoff; u. a. (2014): „Conscious versus unconscious thinking in the medical domain: the deliberation-without-attention effect examined“. In: Perspectives on Medical Education. 3 (3), S. 179–189, doi: 10.1007/s40037-014-0126-z. Bornholdt, Stefan (2010): „Physik“. In: Engelen, Eva-Maria; Fleischhack, Christian; Galizia, C. Giovanni; u. a. (Hrsg.) Heureka - Evidenzkriterien in den Wissenschaften: Ein Kompendium für den interdisziplinären Gebrauch. 2010. Aufl. Heidelberg: Spektrum Akademischer Verlag S. 206– 2016. Bos, Maarten W.; Dijksterhuis, Ap (2011): „Unconscious Thought Works Bottom-Up and Conscious Thought Works Top-Down when Forming an Impression“. In: Social Cognition. 29 (6), S. 727– 737, doi: 10.1521/soco.2011.29.6.727. Bouwmeester, Dik; Pan, Jian-Wei; Mattle, Klaus; u. a. (1997): „Experimental quantum teleportation“. In: Nature. 390 (6660), S. 575–579, doi: 10.1038/37539. Bowers, Kenneth S; Regehr, Glenn; Balthazard, Claude; u. a. (1990): „Intuition in the context of discovery“. In: Cognitive Psychology. 22 (1), S. 72–110, doi: 10.1016/0010-0285(90)90004-N. Braun, Norman (2009): „Rational Choice Theorie“. In: Kneer, Georg; Schroer, Markus (Hrsg.) Handbuch Soziologische Theorien. VS Verlag für Sozialwissenschaften S. 395–418, doi: 10.1007/ 978-3-531-91600-2_19. Brettel, Malte; Bendig, David; Keller, Michael; u. a. (2014): „Effectuation in Manufacturing: How Entrepreneurial Decision-making Techniques can be used to Deal with Uncertainty in Manufacturing“. In: Procedia CIRP. (Variety Management in Manufacturing), 17 , S. 611–616, doi: 10.1016/j.procir.2014.03.119. ten Brinke, Leanne; Stimson, Dayna; Carney, Dana R. (2014): „Some Evidence for Unconscious Lie Detection“. In: Psychological Science. 25 (5), S. 1098–1105, doi: 10.1177/0956797614524421. Brockhaus (1989): Brockhaus Enzyklopädie in 24 Bd., 19. Auflage. 19. Mannheim: Brockhaus. Broglie, L. de (1987): „Interpretation of quantum mechanics by the double solution theory“. In: Annales de la Fondation Louis de Broglie. 12 (4), S. 399–421. Broglie, Louis de (1970): „The reinterpretation of wave mechanics“. In: Foundations of Physics. 1 (1), S. 5–15, doi: 10.1007/BF00708650. Brookes, Jennifer C.; Hartoutsiou, Filio; Horsfield, A. P.; u. a. (2007): „Could Humans Recognize Odor by Phonon Assisted Tunneling?“. In: Physical Review Letters. 98 (3), S. 038101, doi: 10.1103/ PhysRevLett.98.038101. Brookes, Jennifer C.; Horsfield, Andrew P.; Stoneham, A. Marshall (2012): „The swipe card model of odorant recognition“. In: Sensors (Basel, Switzerland). 12 (11), S. 15709–15749, doi: 10.3390/ s121115709.
Literatur
603
Bruderer, M.; Fernández-Acebal, P.; Aurich, R.; u. a. (2016): „Sensing of single nuclear spins in random thermal motion with proximate nitrogen-vacancy centers“. In: Physical Review B. 93 (11), S. 115116, doi: 10.1103/PhysRevB.93.115116. Bruguier, Antoine Jean; Quartz, Steven R.; Bossaerts, Peter (2010): Exploring the Nature of „Trader Intuition“. (SSRN Scholarly Paper Nr. ID 1530263) Rochester, NY: Social Science Research Network. Brühl, Rolf (2015): Wie Wissenschaft Wissen schafft: Wissenschaftstheorie für Sozial- und Wirtschaftswissenschaften. 1. Aufl. Konstanz: UTB GmbH. Brüne, Christoph; Roth, Andreas; Buhmann, Hartmut; u. a. (2012): „Spin polarization of the quantum spin Hall edge states“. In: Nature Physics. 8 (6), S. 485–490, doi: 10.1038/nphys2322. Brune, M.; Hagley, E.; Dreyer, J.; u. a. (1996): „Observing the Progressive Decoherence of the ``Meter’’ in a Quantum Measurement“. In: Physical Review Letters. 77 (24), S. 4887–4890, doi: 10.1103/ PhysRevLett.77.4887. Brunelli, Alessandro; Pompili, Cecilia; Salati, Michele (2013): „Patient selection for operation: the complex balance between information and intuition“. In: Journal of Thoracic Disease. 5 (1), S. 8– 11, doi: 10.3978/j.issn.2072-1439.2013.01.07. Büchi, Rudolf; Chrobok, Reiner (1997): Organisations- und Planungstechniken im Unternehmen. Stuttgart: Schäffer-Poeschel Verlag. Buluta, Iulia; Ashhab, Sahel; Nori, Franco (2011): „Natural and artificial atoms for quantum computation“. In: Reports on Progress in Physics. 74 (10), S. 104401, doi: 10.1088/0034-4885/74/10/ 104401. Busemeyer, Jerome R.; Wang, Zheng (2014): „Quantum Cognition: Key Issues and Discussion“. In: Topics in Cognitive Science. 6 (1), S. 43–46, doi: 10.1111/tops.12074. Buser, Kurt; Schneller, Thomas; Wildgrube, Klaus (2007): Medizinische Psychologie, medizinische Soziologie: Kurzlehrbuch zum Gegenstandskatalog. Elsevier, Urban & Fischer. Bush, John W. M. (2015): „The new wave of pilot-wave theory“. In: Physics Today. 68 (8), S. 47–53, doi: 10.1063/PT.3.2882. Cai, Jianming; Plenio, Martin B. (2013): „Chemical Compass Model for Avian Magnetoreception as a Quantum Coherent Device“. In: Physical Review Letters. 111 (23), doi: 10.1103/PhysRevLett. 111.230503. Calhoun, Tessa R.; Ginsberg, Naomi S.; Schlau-Cohen, Gabriela S.; u. a. (2009): „Quantum Coherence Enabled Determination of the Energy Landscape in Light-Harvesting Complex II“. In: The Journal of Physical Chemistry B. 113 (51), S. 16291–16295, doi: 10.1021/jp908300c. Camejo, Silvia Arroyo (2007): Skurrile Quantenwelt. 4. Aufl. Frankfurt am Main: FISCHER Taschenbuch. Capra, Fritjof (2000): Das Tao der Physik: Die Konvergenz von westlicher Wissenschaft und östlicher Philosophie. 4., Aufl. Bern u.a.: Scherz. Capra, Fritjof (2010): Das Tao der Physik: Die Konvergenz von westlicher Wissenschaft und östlicher Philosophie. 1. Aufl. Frankfurt, M.: Fischer Taschenbuch. Carmichael, H. J. (2013): „Quantum Mech 350“. Auckland, Neuseeland 2013. Carrier, Martin (2007): „Wege der Wissenschaftsphilosophie im 20. Jahrhundert“. In: Bartels, Andreas; Stöckler, Manfred (Hrsg.) Wissenschaftstheorie: Ein Studienbuch. 2. Aufl. Paderborn: mentis S. 15–44. Caruso, Filippo; Chin, Alex W.; Datta, Animesh; u. a. (2010): „Entanglement and entangling power of the dynamics in light-harvesting complexes“. In: Physical Review A. 81 (6), S. 062346, doi: 10.1103/PhysRevA.81.062346.
604
Literatur
Casimir, H. B. G. (1948): „On the Attraction Between Two Perfectly Conducting Plates“. In: Indag.Math. 10 , S. 261–263. Cavalcanti, Daniel; Skrzypczyk, Paul; Šupić, Ivan (2017): „All Entangled States can Demonstrate Nonclassical Teleportation“. In: Physical Review Letters. 119 (11), S. 110501, doi: 10.1103/PhysRevLett.119.110501. Chabris, Christopher; Simons, Daniel (2011): Der unsichtbare Gorilla: Wie unser Gehirn sich täuschen lässt. Piper ebooks. Chase, William G.; Simon, Herbert A. (1973): „Perception in chess“. In: Cognitive Psychology. 4 (1), S. 55–81, doi: 10.1016/0010-0285(73)90004-2. Chi, Michelene T. H.; Feltovich, Paul J.; Glaser, Robert (1981): „Categorization and representation of physics problems by experts and novices“. In: Cognitive Science. 5 (2), S. 121–152. Chin, A. W.; Prior, J.; Rosenbach, R.; u. a. (2013): „The role of non-equilibrium vibrational structures in electronic coherence and recoherence in pigment-protein complexes“. In: Nature Physics. 9 (2), S. 113–118, doi: 10.1038/nphys2515. Choi, Jeong Ryeol; Kim, Daeyeoul; Menouar, Salah; u. a. (2016): „Classical analysis of time behavior of radiation fields associated with biophoton signals“. In: Technology and Health Care. 24 (s2), S. S577–S585, doi: 10.3233/THC-161184. Chrapkiewicz, Radosław; Jachura, Michał; Banaszek, Konrad; u. a. (2016): „Hologram of a single photon“. In: Nature Photonics. 10 (9), S. 576–579, doi: 10.1038/nphoton.2016.129. Cifra, Michal; Fields, Jeremy Z.; Farhadi, Ashkan (2011): „Electromagnetic cellular interactions“. In: Progress in Biophysics and Molecular Biology. 105 (3), S. 223–246, doi: 10.1016/j.pbiomolbio.2010.07.003. Ciompi, Luc (1997): Die emotionalen Grundlagen des Denkens. Entwurf einer fraktalen Affektlogik. 4. Aufl. Göttingen: Vandenhoeck & Ruprecht. Clauberg, Johannes (1654): Logica vetus et nova. Clausius, R. (1865): „Ueber verschiedene für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie“. In: Annalen der Physik. 201 (7), S. 353–400, doi: 10.1002/ andp.18652010702. Cleeremans, Axel (1993): Mechanisms of Implicit Learning: Connectionist Models of Sequence Processing. Cambridge, Mass: MIT Press Ltd. Cleeremans, Axel; Destrebecqz, Arnaud; Boyer, Maud (1998): „Implicit learning: news from the front“. In: Trends in Cognitive Sciences. (10), 2 , S. 406–416. Collini, Elisabetta; Wong, Cathy Y.; Wilk, Krystyna E.; u. a. (2010): „Coherently wired light-harvesting in photosynthetic marine algae at ambient temperature“. In: Nature. 463 (7281), S. 644–647, doi: 10.1038/nature08811. Collins, Daniel; Gisin, Nicolas; Linden, Noah; u. a. (2002): „Bell Inequalities for Arbitrarily High-Dimensional Systems“. In: Physical Review Letters. 88 (4), S. 040404, doi: 10.1103/PhysRevLett. 88.040404. Corbin, Juliet M.; Strauss, Anselm (1990): „Grounded theory research: Procedures, canons, and evaluative criteria“. In: Qualitative Sociology. 13 (1), S. 3–21, doi: 10.1007/BF00988593. Couder, Yves; Fort, Emmanuel (2006): „Single-Particle Diffraction and Interference at a Macroscopic Scale“. In: Physical Review Letters. 97 (15), S. 154101, doi: 10.1103/PhysRevLett.97.154101. Cramer, John G. (2015): „The Transactional Interpretation of Quantum Mechanics and Quantum Nonlocality“. In: arXiv:1503.00039 [quant-ph].
Literatur
605
Crandall, B.; Getchell-Reiter, K. (1993): „Critical decision method: a technique for eliciting concrete assessment indicators from the intuition of NICU nurses“. In: ANS. Advances in nursing science. 16 (1), S. 42–51. Crane, Catherine; Crane, Rebecca S.; Eames, Catrin; u. a. (2014): „The effects of amount of home meditation practice in Mindfulness Based Cognitive Therapy on hazard of relapse to depression in the Staying Well after Depression Trial“. In: Behaviour Research and Therapy. 63 , S. 17–24, doi: 10.1016/j.brat.2014.08.015. Creswell, John David; Bursley, James K.; Satpute, Ajay B. (2013): „Neural reactivation links unconscious thought to decision-making performance“. In: Social Cognitive and Affective Neuroscience. 8 (8), S. 863–869, doi: 10.1093/scan/nst004. Cripe, Jonathan; Aggarwal, Nancy; Lanza, Robert; u. a. (2018): „Observation of a room-temperature oscillator’s motion dominated by quantum fluctuations over a broad audio-frequency band“. In: arXiv:1802.10069 [quant-ph]. Crone, Eveline A.; Somsen, Riek J. M.; Van Beek, Bert; u. a. (2004): „Heart rate and skin conductance analysis of antecendents and consequences of decision making“. In: Psychophysiology. 41 (4), S. 531–540, doi: 10.1111/j.1469-8986.2004.00197.x. Custers, Eugène J. F. M. (2014): „Unconscious thought and deliberation without attention: A miracle or a mirage?“. In: Perspectives on Medical Education. 3 (3), S. 155–158, doi: 10.1007/s40037014-0127-y. Daimler, Renate (2008): Basics der Systemischen Strukturaufstellungen: Eine Anleitung für Einsteiger und Fortgeschrittene - mit Beiträgen von Insa Sparrer und Matthias Varga von Kibéd. 6. Aufl. München: Kösel-Verlag. Damasio, Anthony (2005): Descartes’ Error: Emotion, Reason, and the Human Brain. Reprint. London: Penguin Books. Damasio, Antonio R. (2004): Descartes’ Irrtum: Fühlen, Denken und das menschliche Gehirn. 1. Aufl. München: List Taschenbuch. Damiano, Adam P.; Brun, P.-T.; Harris, Daniel M.; u. a. (2016): „Surface topography measurements of the bouncing droplet experiment“. In: Experiments in Fluids. 57 (10), S. 163, doi: 10.1007/ s00348-016-2251-4. Daskin, Ammar (2018): „A Quantum Implementation Model for Artificial Neural Networks“. In: Quanta. 7 (1), S. 7–18, doi: 10.12743/quanta.v7i1.65. Debner, J. A.; Jacoby, L. L. (1994): „Unconscious perception: attention, awareness, and control“. In: Journal of Experimental Psychology. Learning, Memory, and Cognition. 20 (2), S. 304–317. Denchev, Vasil S.; Boixo, Sergio; Isakov, Sergei V.; u. a. (2015): „What is the Computational Value of Finite Range Tunneling?“. In: arXiv:1512.02206 [quant-ph]. Deutsche chemische Gesellschaft (1890): Berichte der Deutschen chemischen Gesellschaft zu Berlin. Berlin: [s.n.] (23). Deutscher, Guy (2012): Im Spiegel der Sprache: Warum die Welt in anderen Sprachen anders aussieht. München: dtv Verlagsgesellschaft. Dijksterhuis, Ap; Bos, Maarten W.; Nordgren, Loran F.; u. a. (2006): „On making the right choice: the deliberation-without-attention effect“. In: Science (New York, N.Y.). 311 (5763), S. 1005–1007, doi: 10.1126/science.1121629. Dijksterhuis, Ap; Nordgren, Loran F. (2006): „A Theory of Unconscious Thought“. In: Perspectives on Psychological Science. 1 (2), S. 95–109, doi: 10.1111/j.1745-6916.2006.00007.x. Dijksterhuis, Ap; van Olden, Zeger (2006): „On the benefits of thinking unconsciously: Unconscious thought can increase post-choice satisfaction“. In: Journal of Experimental Social Psychology. 42 (5), S. 627–631, doi: 10.1016/j.jesp.2005.10.008.
606
Literatur
Dijksterhuis, Ap; Roth, Gerhard (2010): Das kluge Unbewusste: Denken mit Gefühl und Intuition. 2. Aufl. Stuttgart: Klett-Cotta. Dijksterhuis, Ap; Strick, Madelijn (2016): „A Case for Thinking Without Consciousness“. In: Perspectives on Psychological Science. 11 (1), S. 117–132, doi: 10.1177/1745691615615317. Dikker, Suzanne; Wan, Lu; Davidesco, Ido; u. a. (2017): „Brain-to-Brain Synchrony Tracks Real-World Dynamic Group Interactions in the Classroom“. In: Current Biology. 0 (0), doi: 10.1016/j.cub. 2017.04.002. Dillbeck, Michael C.; Cavanaugh, Kenneth L. (2016): „Societal Violence and Collective Consciousness: Reduction of U.S. Homicide and Urban Violent Crime Rates“. In: SAGE Open. 6 (2), S. 2158244016637891, doi: 10.1177/2158244016637891. Dolde, F.; Jakobi, I.; Naydenov, B.; u. a. (2013): „Room-temperature entanglement between single defect spins in diamond“. In: Nature Physics. 9 (3), S. 139–143, doi: 10.1038/nphys2545. Dörner, Dietrich (1994): Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen. 10. Aufl. Reinbek bei Hamburg: Rowohlt. Dörpinghaus, Sabine (2016a): „Leibliche Gewissheit - Ermöglichung, Begrenzung und Bedingung bei Unbestimmtheiten in (lebendigen) Beziehungsberufen“. Katholische Stiftungsfachhochschule München 14.10.2016. Dörpinghaus, Sabine (2016b): „Leibliche Resonanz im Geburtsgeschehen“. In: Landweer, Hilge; Marcinski, Isabella (Hrsg.) Dem Erleben auf der Spur: Feminismus und die Philosophie des Leibes. 1. Aufl. Bielefeld: transcript S. 69–89. Dostál, Jakub; Mančal, Tomáš; Augulis, Ramu-nas; u. a. (2012): „Two-Dimensional Electronic Spectroscopy Reveals Ultrafast Energy Diffusion in Chlorosomes“. In: Journal of the American Chemical Society. 134 (28), S. 11611–11617, doi: 10.1021/ja3025627. Dotta, B. T.; Saroka, K. S.; Persinger, M. A. (2012): „Increased photon emission from the head while imagining light in the dark is correlated with changes in electroencephalographic power: Support for Bókkon’s biophoton hypothesis“. In: Neuroscience Letters. 513 (2), S. 151–154, doi: 10.1016/j.neulet.2012.02.021. Dotta, Blake T.; Buckner, Carly A.; Lafrenie, Robert M.; u. a. (2011): „Photon emissions from human brain and cell culture exposed to distally rotating magnetic fields shared by separate light-stimulated brains and cells“. In: Brain Research. 1388 , S. 77–88, doi: 10.1016/j.brainres.2011.03.001. Dressel, Martin; Drichko, Natalia (2004): „Optical Properties of Two-Dimensional Organic Conductors: Signatures of Charge Ordering and Correlation Effects“. In: Chemical Reviews. 104 (11), S. 5689–5716, doi: 10.1021/cr030642f. Dreyfus, Hubert L.; Dreyfus, Stuart E. (1998): Künstliche Intelligenz: von den Grenzen der Denkmaschine und dem Wert der Intuition. Reinbek bei Hamburg: Rowohlt TB-V., Rnb. Drossel, Barbara (2016): „Komplexe Systeme, Emergenz und die Grenzen des Physikalismus“. In: Mühling, Markus; Beuttler, Ulrich; Rothgangel, Martin (Hrsg.) Seelenphänomene: Ein interdisziplinärer Dialog. 29. Jahrgang 2016. New. Frankfurt am Main: Peter Lang GmbH, Internationaler Verlag der Wissenschaften S. 7–25. Duan, Hong-Guang; Prokhorenko, Valentyn I.; Cogdell, Richard J.; u. a. (2017): „Nature does not rely on long-lived electronic quantum coherence for photosynthetic energy transfer“. In: Proceedings of the National Academy of Sciences. 114 (32), S. 8493–8498, doi: 10.1073/pnas.170226 1114. Duan, L.-M.; Lukin, M. D.; Cirac, J. I.; u. a. (2001): „Long-distance quantum communication with atomic ensembles and linear optics“. In: Nature. 414 (6862), S. 413–418, doi: 10.1038/3510 6500.
Literatur
607
Duane, T. D.; Behrendt, T. (1965): „Extrasensory electroencephalographic induction between identical twins“. In: Science (New York, N.Y.). 150 (3694), S. 367. Duerr, Hans Peter; Bohr, Niels; Einstein, Albert; u. a.; Dürr, Hans-Peter (Hrsg.) (2012): Physik und Transzendenz: Die großen Physiker unserer Zeit über ihre Begegnung mit dem Wunderbaren. 2. Aufl. Bad Essen: Driediger Verlag. Duggan, Michael; Tressoldi, Patrizio (2018): „Predictive physiological anticipatory activity preceding seemingly unpredictable stimuli: An update of Mossbridge et al’s meta-analysis“. In: F1000Research. 7 , S. 407, doi: 10.12688/f1000research.14330.2. Duggan, William (2010): „How Aha! Really Happens“. In: strategy+business. 61 . Duggan, William (2013): Strategic Intuition: The Creative Spark in Human Achievement. Reprint edition. New York: Columbia University Press. Dullemond, Cornelis (2011): „Zusammenfassung der Vorlesung Mathematische Methoden in der Physik (WS2011/12) - Kapitel 8: Vektorfelder“. Uni Heidelberg. Dunn, Barnaby D.; Dalgleish, Tim; Lawrence, Andrew D. (2006): „The somatic marker hypothesis: a critical evaluation“. In: Neuroscience and Biobehavioral Reviews. 30 (2), S. 239–271, doi: 10.1016/j.neubiorev.2005.07.001. Dunn, Barnaby D.; Galton, Hannah C.; Morgan, Ruth; u. a. (2010): „Listening to your heart. How interoception shapes emotion experience and intuitive decision making“. In: Psychological Science. 21 (12), S. 1835–1844, doi: 10.1177/0956797610389191. Dunning, John H. (1988): Explaining international production. Unwin Hyman. Dunning, Luke T.; Olofsson, Jill K.; Parisod, Christian; u. a. (2019): „Lateral transfers of large DNA fragments spread functional genes among grasses“. In: Proceedings of the National Academy of Sciences. S. 201810031, doi: 10.1073/pnas.1810031116. Durnin, J. V. G. A. (1973): „How Much food Does Man Require“. In: Nature. 242 , S. 418. Dusso, Adriana S.; Brown, Alex J.; Slatopolsky, Eduardo (2005): „Vitamin D“. In: American Journal of Physiology - Renal Physiology. 289 (1), S. F8–F28, doi: 10.1152/ajprenal.00336.2004. D-Wave (2018): „D-Wave Breakthrough Demonstrates First Large-Scale Quantum Simulation of Topological State of Matter | D-Wave Systems“. Abgerufen am 16.12.2018 von https://www. dwavesys.com/press-releases/d-wave-breakthrough-demonstrates-first-large-scale-quantumsimulation-topological. Dyson, Malcom (1928): „Some aspects of the vibration theory of odor“. In: Perfumery and Essential Oil Record. 19 , S. 456–45. Eagleman, David (2012): Inkognito: Die geheimen Eigenleben unseres Gehirns. 1. Aufl. Frankfurt am Main: Campus Verlag. Ebeling, Werner; Feistel, Rainer (1994): „Information und Wert“. In: Chaos und Kosmos: Prinzipien der Evolution. Heidelberg Berlin: Spektrum Akademischer Verlag S. 55–67. Ebeling, Werner; Scharnhorst, Andrea (2015): „Modellierungskonzepte der Synergetik und der Theorie der Selbstorganisation“. In: Braun, Norman; Saam, Nicole J. (Hrsg.) Handbuch Modellbildung und Simulation in den Sozialwissenschaften. Wiesbaden: Springer VS S. 419–452. Eckoldt, Matthias (2016): Eine kurze Geschichte von Gehirn und Geist: Woher wir wissen, wie wir fühlen und denken. München: Pantheon Verlag. Ehrenstein, Walter H. (2017): „Psychophysik“. Lexikon der Psychologie. Abgerufen am 07.01.2017 von http://www.spektrum.de/lexikon/psychologie/psychophysik/12147. Ehrenstein, Walter H.; Ehrenstein, Addie (1999): „Psychophysical Methods“. In: Windhorst, Professor Dr Uwe; Johansson, Professor Dr Håkan (Hrsg.) Modern Techniques in Neuroscience Research. Berlin Heidelberg: Springer S. 1211–1241, doi: 10.1007/978-3-642-58552-4_43.
608
Literatur
Einstein, Albert (1915): „Die Feldgleichungen der Gravitation“. In: Sitzungsbericht der königlich preussischen Akademie der Wissenschaften. S. 844–847. Einstein, Albert (1921): Geometrie und Erfahrung. Erweiterte Fassung des Festvortrages an der Preußischen Akademie der Wissenschaften zu Berlin. Berlin: J. Springer. Engel, Andreas K.; Bear, Mark F.; Connors, Barry W.; u. a. (2016): Neurowissenschaften: Ein grundlegendes Lehrbuch für Biologie, Medizin und Psychologie. 3. Aufl. Berlin Heidelberg: Springer Spektrum. Engel, Andreas K.; Bear, Mark F.; Connors, Barry W.; u. a. (2018): Neurowissenschaften: Ein grundlegendes Lehrbuch für Biologie, Medizin und Psychologie. 4. Aufl. 2018. Berlin: Springer Spektrum. Engel, Gregory S.; Calhoun, Tessa R.; Read, Elizabeth L.; u. a. (2007): „Evidence for wavelike energy transfer through quantum coherence in photosynthetic systems“. In: Nature. 446 (7137), S. 782– 786, doi: 10.1038/nature05678. Engelen, Eva-Maria; Fleischhack, Christian; Galizia, C. Giovanni; u. a. (Hrsg.) (2010): Heureka - Evidenzkriterien in den Wissenschaften: Ein Kompendium für den interdisziplinären Gebrauch. 2010. Aufl. Heidelberg: Spektrum Akademischer Verlag. Esplugues, Juan V (2002): „NO as a signalling molecule in the nervous system“. In: British Journal of Pharmacology. 135 (5), S. 1079–1095, doi: 10.1038/sj.bjp.0704569. Fahrenberg, Jochen (2013): Zur Kategorienlehre der Psychologie: Komplementaritätsprinzip – Perspektiven und Perspektiven-Wechsel. Lengerich, Westf: Pabst Science Publishers. Fair, Damien A.; Cohen, Alexander L.; Power, Jonathan D.; u. a. (2009): „Functional Brain Networks Develop from a “Local to Distributed” Organization“. In: PLOS Computational Biology. 5 (5), S. e1000381, doi: 10.1371/journal.pcbi.1000381. Fallon, Nicholas; Chiu, Yee; Nurmikko, Turo; u. a. (2016): „Functional Connectivity with the Default Mode Network Is Altered in Fibromyalgia Patients“. In: PLOS ONE. 11 (7), S. e0159198, doi: 10.1371/journal.pone.0159198. Farhadi, Ashkan; Forsyth, Christopher; Banan, Ali; u. a. (2007): „Evidence for non-chemical, non-electrical intercellular signaling in intestinal epithelial cells“. In: Bioelectrochemistry. 71 (2), S. 142–148, doi: 10.1016/j.bioelechem.2007.03.001. Fasching, Cornelia (2009): „Aufstellungen in Systemen - Unterschiede in Theorie und Anwendung von Aufstellungsmethoden aus der Erfahrungswelt österreichischer Aufsteller“. (Diplomarbeit) Wien: Wirtschaftsuniversität. Faschingbauer, Michael (2017): Effectuation: Wie erfolgreiche Unternehmer denken, entscheiden und handeln. 3. Aufl. Stuttgart: Schäffer Poeschel. Faulstich, Jörg (2006): Aufstellungen im Kontext systemischer Organisationsberatung. 1. Aufl. Heidelberg: Carl-Auer Verlag GmbH. Feistel, Rainer (1990): „Ritualisation und die Selbstorganisation der Information“. In: Niedersen, Uwe; Pohlmann, Ludwig (Hrsg.) Selbstorganisation.: Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften. Band 1 (1990). Selbstorganisation und Determination. 1. Aufl. Berlin: Duncker & Humblot S. 83–98. Feistel, Rainer; Ebeling, Werner (2016): „Entropy and the Self-Organization of Information and Value“. In: Entropy. 18 (5), S. 193, doi: 10.3390/e18050193. Fels, Daniel (2009): „Cellular Communication through Light“. In: PLOS ONE. 4 (4), S. e5086, doi: 10.1371/journal.pone.0005086. Fels, Daniel; Cifra, Michal; Scholkmann, Felix (2015): Fields of the Cell. Research Signpost. Felser, Georg (2017): „Unterschwellige Wahrnehmung“. Lexikon der Psychologie. Heidelberg: Spektrum Akademischer Verlag.
Literatur
609
Ferrari, Elisabeth; Sparrer, Insa; Kibéd, Matthias Varga von (2016): „Simply More Complex: A SySt® Approach to VUCA“. In: Mack, Oliver; Khare, Anshuman; Krämer, Andreas; u. a. (Hrsg.) Managing in a VUCA World. Springer International Publishing S. 21–38, doi: 10.1007/978-3-31916889-0_2. Feynman, Richard P. (1992): QED: Die seltsame Theorie des Lichts und der Materie. 18. Aufl. München u.a.: Piper Taschenbuch. Feynman, Richard P.; Leighton, Robert B.; Sands, Matthew (1965): The Feynman lectures on physics. Addison Wesley Publishing Company (Vol. III). Feynman, Richard P.; Leighton, Robert B.; Sands, Matthew (1970): The Feynman Lectures on Physics, Vol. I, II & III. Ausgabe im Großformat: 28 x 21,5 cm. Reading, Mass. : AddisonWesley Longman, Amsterdam. Fischer, By Ernst Peter (2010): Die Hintertreppe zum Quantensprung: Die Erforschung der kleinsten Teilchen der Natur von Max Planck bis Anton Zeilinger. München: Herbig Verlag. Fischer, Hans R.; Schmidt, Siegfried J. (2000): Wirklichkeit und Welterzeugung. Heidelberg: Carl-AuerSysteme Verlag. Fisher, Matthew P. A. (2015): „Quantum cognition: The possibility of processing with nuclear spins in the brain“. In: Annals of Physics. 362 , S. 593–602, doi: 10.1016/j.aop.2015.08.020. Fisher, R. A. (1925): „Theory of Statistical Estimation“. In: Mathematical Proceedings of the Cambridge Philosophical Society. 22 (5), S. 700–725, doi: 10.1017/S0305004100009580. Fleischhack, Christian (2010): „Mathematik“. In: Engelen, Eva-Maria; Fleischhack, Christian; Galizia, C. Giovanni; u. a. (Hrsg.) Heureka - Evidenzkriterien in den Wissenschaften: Ein Kompendium für den interdisziplinären Gebrauch. 2010. Aufl. Heidelberg: Spektrum Akademischer Verlag S. 150–168. Fleming, Graham R. (2017): „The contributions of 49ers to the measurements and models of ultrafast photosynthetic energy transfer“. In: Photosynthesis Research. S. 1–6, doi: 10.1007/s11120-0170360-4. Florack, Arnd (2015): „Unterschwellige Beeinflussung“. WerbePsychologie online. Abgerufen am 04.04.2017 von http://www.werbepsychologie-online.com/index.php/beilaeufigkeit/unterschwellige-beeinflussung. Foerster, Heinz von; Pörksen, Bernhard (2001): Wahrheit ist die Erfindung eines Lügners. Gespräche für Skeptiker. Heidelberg: Carl-Auer-Systeme-Verlag. Footitt, Steven; Palleschi, Simonetta; Fazio, Eugenio; u. a. (2016): „Ultraweak Photon Emission from the Seed Coat in Response to Temperature and Humidity—A Potential Mechanism for Environmental Signal Transduction in the Soil Seed Bank“. In: Photochemistry and Photobiology. 92 (5), S. 678–687, doi: 10.1111/php.12616. Forstner, Christian (2007): Quantenmechanik im Kalten Krieg: David Bohm und Richard Feynman. 1. Aufl. Diepholz: GNT-Verlag GmbH. Franco, Maria Isabel; Turin, Luca; Mershin, Andreas; u. a. (2011): „Molecular vibration-sensing component in Drosophila melanogaster olfaction“. In: Proceedings of the National Academy of Sciences. 108 (9), S. 3797–3802, doi: 10.1073/pnas.1012293108. Freud, Sigmund (1906): „Analyse der Phobie eines fünfjährigen Knaben“. In: Gesammelte Werke Band 7. Freud, Sigmund (1927): „Die Zukunft einer Illusion“. In: Das Unbewußte 1950. 5. Aufl. Frankfurt S. 299–325. Freud, Sigmund (1920): „,Psychoanalyse‘ und ,Libidotheorie‘“. In: Gesammelte Werke Band 13. S. 208 –233.
610
Literatur
Freud, Sigmund (1909): „Ratschläge für den Arzt bei der psychoanalytischen Behandlung“. In: Gesammelte Werke Band 8. S. 375–387. Freud, Sigmund (2012): Vorlesungen zur Einführung in die Psychoanalyse. University of California Libraries. Freund, Alexandra M.; Oberauer, Klaus (2010): „Evidenz und deren Kommunikation in der Psychologie“. In: Engelen, Eva-Maria; Fleischhack, Christian; Galizia, C. Giovanni; u. a. (Hrsg.) Heureka - Evidenzkriterien in den Wissenschaften: Ein Kompendium für den interdisziplinären Gebrauch. 2010. Aufl. Heidelberg: Spektrum Akademischer Verlag S. 218–240. Friebe, Cord (2015): „Messproblem, Minimal-und Kollapsinterpretationen“. In: Friebe, Cord; Kuhlmann, Meinard; Lyre, Holger; u. a. (Hrsg.) Philosophie der Quantenphysik: Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen. Berlin: Springer Spektrum S. 43–78. Friesen, Douglas E.; Craddock, Travis J.A.; Priel, Avner; u. a. (2015): „Cytoskeletal electrostatic and ionic conduction effects in the cell“. In: Fields of the Cell. Research Signpost. Friis, Nicolai; Marty, Oliver; Maier, Christine; u. a. (2018): „Observation of Entangled States of a Fully Controlled 20-Qubit System“. In: Physical Review X. 8 (2), S. 021012, doi: 10.1103/PhysRevX. 8.021012. Frith, Chris; Frith, Uta (2005): „Theory of mind“. In: Current Biology. 15 (17), S. R644–R645, doi: 10.1016/j.cub.2005.08.041. Fröhlich, H. (1986): „Coherent Excitation in Active Biological Systems“. In: Gutmann, Felix; Keyzer, Hendrik (Hrsg.) Modern Bioelectrochemistry. Springer US S. 241–261, doi: 10.1007/978-14613-2105-7_8. Fröhlich, H. (1975): „Evidence for Bose condensation-like excitation of coherent modes in biological systems“. In: Physics Letters A. 51 (1), S. 21–22, doi: 10.1016/0375-9601(75)90300-X. Fröse, Marlies W.; Kaudela-Baum, Stephanie; Dievernich, Frank E. P. (2016): Emotion und Intuition in Führung und Organisation. 2. Aufl. Wiesbaden: Springer Gabler. Fuchs, Christopher A.; Mermin, N. David; Schack, Rüdiger (2014): „An introduction to QBism with an application to the locality of quantum mechanics“. In: American Journal of Physics. 82 (8), S. 749–754, doi: 10.1119/1.4874855. Fuchs, Christopher A.; Peres, Asher (2000): „Quantum Theory Needs No ‘Interpretation’“. In: Physics Today. 53 (3), S. 70–71, doi: 10.1063/1.883004. Fujita, T.; Shida, Osamu; Takagi, Hiroaki; u. a. (1996): „Description of Bacillus carboniphilus sp. nov.“. In: International Journal of Systematic and Evolutionary Microbiology. 46 (1), S. 116–118, doi: 10.1099/00207713-46-1-116. Fuqua, W C; Winans, S C; Greenberg, E P (1994): „Quorum sensing in bacteria: the LuxR-LuxI family of cell density-responsive transcriptional regulators.“. In: Journal of Bacteriology. 176 (2), S. 269–275. van Gaal, Simon; Lamme, Victor A. F.; Fahrenfort, Johannes J.; u. a. (2011): „Dissociable brain mechanisms underlying the conscious and unconscious control of behavior“. In: Journal of Cognitive Neuroscience. 23 (1), S. 91–105, doi: 10.1162/jocn.2010.21431. van Gaal, Simon; Lange, De; P, Floris; u. a. (2012): „The role of consciousness in cognitive control and decision making“. In: Frontiers in Human Neuroscience. 6 , doi: 10.3389/fnhum.2012.00121. Gabor, Dennis (1946): Theory of communication. London: Institution of Electrical Engineering. Gagliano, Monica; Mancuso, Stefano; Robert, Daniel (2012): „Towards understanding plant bioacoustics“. In: Trends in Plant Science. 17 (6), S. 323–325, doi: 10.1016/j.tplants.2012.03.002. Galindo, Alberto; Pascual, Pedro (2012): Quantum Mechanics II. Softcover reprint of the original 1st ed. 1991 edition. Springer.
Literatur
611
Galla, Judith; Kopp, Ursula; Martinuzzi, André; u. a. (2008): „Programmakteursaufstellungen – Erste Erfahrungen mit Systemaufstellungen in theoriebasierten Evaluationen“. In: Zeitschrift für Evaluation. (1), S. 35–73. Galli, Roberta; Preusse, Grit; Uckermann, Ortrud; u. a. (2017): „In ovo sexing of chicken eggs by fluorescence spectroscopy“. In: Analytical and Bioanalytical Chemistry. 409 (5), S. 1185–1194, doi: 10.1007/s00216-016-0116-6. Galve, Fernando; Pachón, Leonardo A.; Zueco, David (2010): „Bringing Entanglement to the High Temperature Limit“. In: Physical Review Letters. 105 (18), S. 180501, doi: 10.1103/PhysRev Lett.105.180501. Gambassi, Andrea (2009): „The Casimir effect: From quantum to critical fluctuations“. In: Journal of Physics: Conference Series. 161 (1), S. 012037, doi: 10.1088/1742-6596/161/1/012037. Gane, Simon; Georganakis, Dimitris; Maniati, Klio; u. a. (2013): „Molecular Vibration-Sensing Component in Human Olfaction“. In: PLOS ONE. 8 (1), S. e55780, doi: 10.1371/journal.pone. 0055780. Gauger, Erik; Rieper, Elisabeth; Morton, John J. L.; u. a. (2011): „Sustained Quantum Coherence and Entanglement in the Avian Compass“. In: Physical Review Letters. 106 (4), doi: 10.1103/Phys RevLett.106.040503. Gaury, Benoit; Weston, Joseph; Waintal, Xavier (2015): „The a.c. Josephson effect without superconductivity“. In: Nature Communications. 6 , S. ncomms7524, doi: 10.1038/ncomms7524. Gefter, Amanda; Hoffman, Donald (2016): „The Case Against Reality“. The Atlantic. Gehlert, Thomas (1997): „Die Bedeutung der Kultur für Veränderungsprozesse. Ein Diagnoseinstrument zur Kulturerkennung“. In: Bentner, Ariane; Beck, Christian (Hrsg.) Organisationskultur erforschen und verändern: Ein Methodenrepertoire zur qualitativen Analyse und praktischen Beratung. 1. Aufl. Frankfurt: Campus Verlag S. 190–209. Gehlert, Thomas (2014): „GHZ-Theorem und System-Aufstellungen - Quanten-Teleportation in Mehrteilchensystemen ohne Bell’sche Ungleichung“. In: ResearchGate. S. 6, doi: 10.13140/2.1. 3991.6487. Gehlert, Thomas (2015a): „Hinweise, dass quantenphysikalische Mechanismen auf menschliche Aktivitäten anwendbar sind. Strukturvergleich von Messanordnungen und Plausibilitätscheck mittels Theorie und Experimente. (deutsche Fassung)“. In: ResearchGate. S. 17, doi: 10.13140/ 2.1.5168.4166. Gehlert, Thomas (2015b): „Spiegelneuronen – eine quantenphysikalische Annäherung. Theorieentwurf zum Verständnis des Auftretens von Spiegelneuronen“. In: ResearchGate. S. 8, doi: 10.13140/ 2.1.1695.0088. Gehlert, Thomas (2016): „Verschränkung über Raum und Zeit“. In: Ja Magazin. 5 , S. 4. Gelbard-Sagiv, Hagar; Mudrik, Liad; Hill, Michael R.; u. a. (2018): „Human single neuron activity precedes emergence of conscious perception“. In: Nature Communications. 9 (1), S. 2057, doi: 10.1038/s41467-018-03749-0. Gell-Mann, M. (1964): „A schematic model of baryons and mesons“. In: Physics Letters. 8 , S. 214– 215, doi: 10.1016/S0031-9163(64)92001-3. Gerbert, Frank (2004): „Die Intelligenz der Gefühle“. FOCUS Online. Abgerufen am 11.05.2017 von http://www.focus.de/wissen/mensch/neurowissenschaft/psychologie-die-intelligenz-der-gefuehle_aid_201408.html. Gerlich, Stefan; Eibenberger, Sandra; Tomandl, Mathias; u. a. (2011): „Quantum interference of large organic molecules“. In: Nature Communications. 2 , S. ncomms1263, doi: 10.1038/ncomms 1263.
612
Literatur
Gernert, Dieter (2006): „Pragmatic Information: Historical Exposition and General Overview“. In: Mind and Matter. 4 (2), S. 141–167. Gershon, Michael (2001): Der kluge Bauch: die Entdeckung des zweiten Gehirns. München: Goldmann. geva-institut (2007): „Mitarbeiterbefragung international Arbeitszufriedenheit 25 Länder“. Abgerufen am 01.04.2017 von https://www.mitarbeiterbefragungen.de/angebot/unser_angebot_155.htm. Ghose, Partha; Mukherjee, Anirban (2014): „Entanglement in Classical Optics“. In: Reviews in Theoretical Science. 2 (4), S. 274–288, doi: 10.1166/rits.2014.1024. Gibney, Elizabeth (2014): „Physics: Quantum computer quest“. In: Nature. 516 (7529), S. 24–26, doi: 10.1038/516024a. Gibson, Daniel G.; Glass, John I.; Lartigue, Carole; u. a. (2010): „Creation of a bacterial cell controlled by a chemically synthesized genome“. In: Science (New York, N.Y.). 329 (5987), S. 52–56, doi: 10.1126/science.1190719. Gigerenzer, Gerd (2013a): „Bauchentscheidungen - die Intelligenz des Unbewussten“. Paderborn 5.2.2013. Gigerenzer, Gerd (2008): Bauchentscheidungen: Die Intelligenz des Unbewussten und die Macht der Intuition. München: Goldmann Verlag. Gigerenzer, Gerd (2013b): Risiko: Wie man die richtigen Entscheidungen trifft. München: C. Bertelsmann Verlag. Gigerenzer, Gerd; Gaissmaier, Wolfgang (2012): „Intuition und Führung: wie gute Entscheidungen entstehen“. In: Bertelsmann Stiftung. Gigerenzer, Gerd; Hertwig, Ralph; Pachur, Thorsten (2011): Heuristics: The Foundations of Adaptive Behavior. Oxford ; New York: Oxford Univ Pr. Gillenkirch, Robert (2018): „Definition: Axiome rationalen Entscheidens“. Gabler Wirtschaftslexikon Online. Abgerufen am 27.07.2018 von https://wirtschaftslexikon.gabler.de/definition/axiomerationalen-entscheidens-53907. Gillenkirch, Robert (2017): „Entscheidungstheorie“. Abgerufen am 08.04.2017 von https://wirtschaftslexikon.gabler.de/definition/entscheidungstheorie-32315. Giroldini, William; Pederzoli, Luciano; Bilucaglia, Marco; u. a. (2016): „EEG correlates of social interaction at distance“. In: F1000Research. 4 , doi: 10.12688/f1000research.6755.3. Giudice, Gian Francesco (2017): „The Dawn of the Post-Naturalness Era“. In: arXiv:1710.07663 [hepex, physics:hep-ph, physics:hep-th, physics:physics]. Gladwell, Malcolm (2007): Blink!: Die Macht des Moments. München: Piper Taschenbuch. Glanz, Axel; Nadler, Philipp (2011): „Entscheiderstudie zur steigenden Innovationsgeschwindigkeit“. Innovationen Institut. Glasersfeld, Ernst von; Schmidt, Siegfried J. (1997): Radikaler Konstruktivismus: Ideen, Ergebnisse, Probleme. 9. Aufl. Frankfurt am Main: Suhrkamp Verlag. Gleich, Michél (2008): Organisationsaufstellungen als Beratungsinstrument für Führungskräfte. Eine empirische Analyse. 1. Aufl. Heidelberg: Carl-Auer Verlag GmbH. Gminder, Carl Ulrich (2005): „Nachhaltigkeitsstrategien systemisch umsetzen: eine qualitative Exploration der Organisationsaufstellung als Managementmethode“. St. Gallen: Institut für Wirtschaft und Ökologie St. Gallen. Godbeer, A. D.; Al-Khalili, J. S.; Stevenson, P. D. (2014): „Environment-induced dephasing versus von Neumann measurements in proton tunneling“. In: Physical Review A. 90 (1), S. 012102, doi: 10.1103/PhysRevA.90.012102.
Literatur
613
Goebel, Simone (2008): Klinische und experimentelle Neuropsychologie der strategischen Fähigkeiten: Eine Untersuchung metakognitiver Funktionen mit Hilfe der funktionellen (fMRT) und klinischen Läsionsstudien. Saarbrücken: Vdm Verlag. Göhler, B.; Hamelbeck, V.; Markus, T. Z.; u. a. (2011): „Spin Selectivity in Electron Transmission Through Self-Assembled Monolayers of Double-Stranded DNA“. In: Science. 331 (6019), S. 894–897, doi: 10.1126/science.1199339. Goldbeter, A.; Gérard, C.; Gonze, D.; u. a. (2012): „Systems biology of cellular rhythms“. In: FEBS Letters. 586 (18), S. 2955–2965, doi: 10.1016/j.febslet.2012.07.041. Goldschmidt, E. A.; Boulier, T.; Brown, R. C.; u. a. (2016): „Anomalous Broadening in Driven Dissipative Rydberg Systems“. In: Physical Review Letters. 116 (11), S. 113001, doi: 10.1103/Phys RevLett.116.113001. Goldstein, Sheldon (2017): „Bohmian Mechanics“. In: Zalta, Edward N. (Hrsg.) The Stanford Encyclopedia of Philosophy. Summer 2017. Metaphysics Research Lab, Stanford University. González-Forero, Mauricio; Gardner, Andy (2018): „Inference of ecological and social drivers of human brain-size evolution“. In: Nature. 557 (7706), S. 554–557, doi: 10.1038/s41586-018-0127-x. Görnitz, T.; Schomäcker, U. (2012): „Quantum Particles From Quantum Information“. In: Journal of Physics: Conference Series. 380 (1), S. 012025, doi: 10.1088/1742-6596/380/1/012025. Görnitz, Thomas (2011): Quanten Sind Anders: Die verborgene Einheit der Welt. München: Spektrum Akademischer Verlag. Görnitz, Thomas; Görnitz, Brigitte (2002): Der kreative Kosmos: Geist und Materie aus Quanteninformation. 2002. Aufl. Springer Spektrum. Görnitz, Thomas; Görnitz, Brigitte (2009): Die Evolution des Geistigen. Quantenphysik - Bewusstsein Religion. 2. Aufl. Göttingen: Vandenhoeck & Ruprecht. Gosson, Maurice A. de; Hiley, Basil; Cohen, Eliahu (2016): „Observing quantum trajectories: From Mott’s problem to quantum Zeno effect and back“. In: Annals of Physics. 374 , S. 190–211, doi: 10.1016/j.aop.2016.08.003. Gosson, Maurice A. de; Hiley, Basil J. (2014): „Hamiltonian flows, short-time propagators and the quantum Zeno effect“. In: Journal of Physics: Conference Series. 504 (1), S. 012027, doi: 10.1088/1742-6596/504/1/012027. Goswami, Amit (2013): Das bewusste Universum. 2013. Aufl. Bielefeld: Lüchow in J.Kamphausen. Goswami, K.; Giarmatzi, C.; Kewming, M.; u. a. (2018): „Indefinite Causal Order in a Quantum Switch“. In: Physical Review Letters. 121 (9), S. 090503, doi: 10.1103/PhysRevLett.121. 090503. Gøtzsche, Peter C. (2014): Tödliche Medizin und organisierte Kriminalität: Wie die Pharmaindustrie unser Gesundheitswesen korrumpiert. München: Riva. Gracely, RichardH.; Dubner, Ronald; Deeter, WilliamR.; u. a. (1985): „Clincians’ expectations influence placebo analgesia“. In: The Lancet. (Originally published as Volume 1, Issue 8419), 325 (8419), S. 43, doi: 10.1016/S0140-6736(85)90984-5. Grau, Carles; Ginhoux, Romuald; Riera, Alejandro; u. a. (2014): „Conscious Brain-to-Brain Communication in Humans Using Non-Invasive Technologies“. In: PLOS ONE. 9 (8), S. e105225, doi: 10.1371/journal.pone.0105225. Greenberger, Daniel M.; Horne, Michael; Zeilinger, Anton (2008): „Bell theorem without inequalities for two particles. I. Efficient detectors“. In: Physical Review A. 78 (2), S. 022110, doi: 10.1103/ PhysRevA.78.022110. Greenberger, D. M.; Horne, M.A.; Shimony, A.; u. a. (1990): „Bell’s Theorem without Inequalities“. American Journal of Physics. S. 1131–1143.
614
Literatur
Greene, Brian R. (1998): „D-brane topology changing transitions“. In: Nuclear Physics B. 525 (1), S. 284–296, doi: 10.1016/S0550-3213(98)00246-6. Greenstein, George; Zajonc, Arthur G. (2005): The Quantum Challenge: Modern Research on the Foundations of Quantum Mechanics. 2 Rev ed. Sudbury, Mass: Jones and Bartlett Publishers, Inc. Greenwald, A. G.; McGhee, D. E.; Schwartz, J. L. (1998): „Measuring individual differences in implicit cognition: the implicit association test“. In: Journal of Personality and Social Psychology. 74 (6), S. 1464–1480. Greenwald, Anthony G.; Nosek, Brian A.; Banaji, Mahzarin R. (2003): „Understanding and using the implicit association test: I. An improved scoring algorithm“. In: Journal of Personality and Social Psychology. 85 (2), S. 197–216. Greicius, Michael D.; Srivastava, Gaurav; Reiss, Allan L.; u. a. (2004): „Default-mode network activity distinguishes Alzheimer’s disease from healthy aging: evidence from functional MRI“. In: Proceedings of the National Academy of Sciences of the United States of America. 101 (13), S. 4637–4642, doi: 10.1073/pnas.0308627101. Greiner, Johannes N.; Dasari, Durga Bhaktavatsala Rao; Wrachtrup, Jörg (2017): „Purification of an unpolarized spin ensemble into entangled singlet pairs“. In: Scientific Reports. 7 (1), S. 529, doi: 10.1038/s41598-017-00603-z. Greitemeyer, Tobias (2014): „Article retracted, but the message lives on“. In: Psychonomic Bulletin & Review. 21 (2), S. 557–561, doi: 10.3758/s13423-013-0500-6. Greschner, Martin; Thiel, Andreas; Kretzberg, Jutta; u. a. (2006): „Complex Spike-Event Pattern of Transient on-off Retinal Ganglion Cells“. In: Journal of Neurophysiology. 96 (6), S. 2845–2856, doi: 10.1152/jn.01131.2005. Grèzes, Julie; Frith, Chris; Passingham, Richard E. (2004): „Brain mechanisms for inferring deceit in the actions of others“. In: The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 24 (24), S. 5500–5505, doi: 10.1523/JNEUROSCI.0219-04.2004. Grinberg-Zylberbaum, Jacobo; Delaflor, M.; Arellano, M. E. Sanchez; u. a. (1992): „Human Communication and the electrophysiological activity of the brain“. In: Subtle Energies & Energy Medicine Journal Archives. 3 (3). Grinberg-Zylberbaum, Jacobo; Delaflor, M.; Attie, L.; u. a. (1994): „The Einstein‐Podolsky‐Rosen Paradox in the Brain: The Transferred Potential“. In: Physics Essays. 7 (4), S. 422–428, doi: 10.4006/1.3029159. Grochowiak, Klaus (2006): „Das Aufstellungsphänomen, deen und Überlegungen anlässlich des Buches „Aufstellungsarbeit revisited ... nach Hellinger““. Grochowiak, Klaus; Castella, Joachim (2001): Systemdynamische Organisationsberatung. Heidelberg: Carl-Auer-Systeme Verlag. Groth, Torsten (2015): „Organisationsaufstellung systemtheoretisch gewendet“. In: Mohe, Michael (Hrsg.) Innovative Beratungskonzepte: Ansätze, Fallbeispiele, Reflexionen. Springer-Verlag S. 139–156. Gruber, J. Michael; Xu, Pengqi; Chmeliov, Jevgenij; u. a. (2016): „Dynamic quenching in single photosystem II supercomplexes“. In: Physical Chemistry Chemical Physics. 18 (37), S. 25852– 25860, doi: 10.1039/C6CP05493E. Guerreschi, Gian Giacomo; Cai, Jianming; Popescu, Sandu; u. a. (2012): „Persistent dynamic entanglement from classical motion: How bio-molecular machines can generate non-trivial quantum states“. In: New Journal of Physics. 14 (5), S. 053043, doi: 10.1088/1367-2630/14/5/053043. Gugutzer, Robert (2017): „Leib und Körper als Erkenntnissubjekte“. In: Gugutzer, Robert; Klein, Gabriele; Meuser, Michael (Hrsg.) Handbuch Körpersoziologie. Springer Fachmedien Wiesbaden S. 381–394, doi: 10.1007/978-3-658-04138-0_27.
Literatur
615
Gupta, Vinay (2009): „On Black Elephants | The Bucky-Gandhi Design Institution“. Gurwitsch, A. A. (1988): „A historical review of the problem of mitogenetic radiation“. In: Experientia. 44 (7), S. 545–550. Gutmark, Benny J. (2014): „Systemische Aufstellungen im organisationalen Kontext, Eine empirische Untersuchung zur Wirksamkeit von Organisationsaufstellungen“. (Dissertation) Darmstadt: Technische Universität. Guzman-Silva, Diego; Brüning, Robert; Zimmermann, Felix; u. a. (2016): „Demonstration of local teleportation using classical entanglement“. In: Laser & Photonics Reviews. S. n/a-n/a, doi: 10.1002/lpor.201500252. Haag, Rudolf (1970): „Die Rolle der Quantenfeldtheorie in der Physik der letzten Jahrzehnte: MaxPlanck-Vortrag von der Physikertagung 1970 in Hannover“. In: Physikalische Blätter. 26 (12), S. 529–535, doi: 10.1002/phbl.19700261202. Hacker, Bastian; Welte, Stephan; Rempe, Gerhard; u. a. (2016): „A photon–photon quantum gate based on a single atom in an optical resonator“. In: Nature. 536 (7615), S. 193–196, doi: 10.1038/nature18592. Hackermüller, Lucia; Hornberger, Klaus; Brezger, Björn; u. a. (2004): „Decoherence of matter waves by thermal emission of radiation“. In: Nature. 427 (6976), S. 711–714, doi: 10.1038/nature02276. Haffelder, Günter (2012): Frühkindliche Traumatisierungen: EEG-spectralanalytische Diagnostik von geburtlichen Traumatisierungen. Konstanz: Vesalius. Haffelder, Günter (2007): „Wirksamkeit von FA mit Hilfe des EEG-spectralanaytischen Meßverfahrens“. In: Geist & Gehirn. (4). Hägele, Peter (2000): „Physik - Weltbild oder Naturbild?“. Regensburg 31.3.2000. Haken, Hermann (2016): „Teil I: Entwicklungslinien der Synergetik“. In: Haken, Hermann; Plath, Peter J.; Ebeling, Werner; u. a. (Hrsg.) Beiträge zur Geschichte der Synergetik. Wiesbaden: Springer Fachmedien Wiesbaden S. 1–85, doi: 10.1007/978-3-658-12952-1. Haken, Hermann; Plath, Peter J.; Ebeling, Werner; u. a. (2016): Beiträge zur Geschichte der Synergetik. Wiesbaden: Springer Fachmedien Wiesbaden doi: 10.1007/978-3-658-12952-1. Haldane, F. D. M. (1988): „Model for a Quantum Hall Effect without Landau Levels: Condensed-Matter Realization of the „Parity Anomaly““. In: Physical Review Letters. 61 (18), S. 2015–2018, doi: 10.1103/PhysRevLett.61.2015. Hameroff, Stuart; Marcer, P. (1998): „Quantum Computation in Brain Microtubules? The Penrose-Hameroff „Orch OR“ Model of Consciousness [and Discussion]“. In: Philosophical Transactions: Mathematical, Physical and Engineering Sciences. 356 (1743), S. 1869–1896. Hameroff, Stuart; Penrose, Roger (2014a): „Consciousness in the universe: A review of the ‘Orch OR’ theory“. In: Physics of Life Reviews. 11 (1), S. 39–78, doi: 10.1016/j.plrev.2013.08.002. Hameroff, Stuart; Penrose, Roger (2014b): „Reply to seven commentaries on “Consciousness in the universe: Review of the ‘Orch OR’ theory”“. In: Physics of Life Reviews. 11 (1), S. 94–100, doi: 10.1016/j.plrev.2013.11.013. Handsteiner, Johannes; Friedman, Andrew S.; Rauch, Dominik; u. a. (2017): „Cosmic Bell Test: Measurement Settings from Milky Way Stars“. In: Physical Review Letters. 118 (6), S. 060401, doi: 10.1103/PhysRevLett.118.060401. Hänsel, Markus (2002): „Intuition als Beratungskompetenz in Organisationen“. Heidelberg: RuprechtsKarls-Universität Heidelberg. Haramein, Nassim (2013a): „Addendum to " Quantum Gravity and the Holographic Mass " in View of the 2013 Muonic Proton Charge Radius Measurement“. ResearchGate. Abgerufen am 25.08. 2017 von https://www.researchgate.net/publication/316610309_Addendum_to_Quantum_
616
Literatur
Gravity_and_the_Holographic_Mass_in_View_of_the_2013_Muonic_Proton_Charge_Radius_Measurement. Haramein, Nassim (2013b): „Quantum Gravity and the Holographic Mass“. In: Physical Review & Research International. 3 (4), S. 270–292. Haramein, Nassim; Rauscher, E.A.; Hyson, Michael (2008): „Scale Unification - A Universal Scaling Law for Organized Matter“. In: Resonance Science Foundation. Harder, Bernd (2011): „GWUP-Konferenz: Quo vadis, Parapsychologie?“. Hasford, Jonathan (2014): „Should I think carefully or sleep on it?: Investigating the moderating role of attribute learning“. In: Journal of Experimental Social Psychology. 51 , S. 51–55, doi: 10.1016/ j.jesp.2013.11.004. Hashemi Rafsanjani, Seyed Mohammad; Mirhosseini, Mohammad; Magaña-Loaiza, Omar S.; u. a. (2015): „State transfer based on classical nonseparability“. In: Physical Review A. 92 (2), S. 023827, doi: 10.1103/PhysRevA.92.023827. Hasher, Lynn; Goldstein, David; Toppino, Thomas (1977): „Frequency and the conference of referential validity“. In: Journal of Verbal Learning and Verbal Behavior. 16 (1), S. 107–112, doi: 10.1016/S0022-5371(77)80012-1. Hassin, Ran R. (2013): „Yes It Can: On the Functional Abilities of the Human Unconscious“. In: Perspectives on Psychological Science: A Journal of the Association for Psychological Science. 8 (2), S. 195–207, doi: 10.1177/1745691612460684. Hawco, Colin; Kovacevic, Natasa; Malhotra, Anil K.; u. a. (2017): „Neural Activity while Imitating Emotional Faces is Related to Both Lower and Higher-Level Social Cognitive Performance“. In: Scientific Reports. 7 (1), S. 1244, doi: 10.1038/s41598-017-01316-z. Hawking, Stephen (2004): Die illustrierte Kurze Geschichte der Zeit: Aktualisierte und erweiterte Ausgabe. 7. Aufl. Reinbek bei Hamburg: Rowohlt Taschenbuch Verlag. Heidelberger, Michael (2007): „Das Experiment in den Wissenschaften“. In: Bartels, Andreas; Stöckler, Manfred (Hrsg.) Wissenschaftstheorie: Ein Studienbuch. 2. Aufl. Paderborn: mentis S. 155– 176. Heisenberg, W. (1927): „Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik“. In: Zeitschrift für Physik. 43 (3–4), S. 172–198, doi: 10.1007/BF01397280. Heisenberg, Werner (1955): Das Naturbild der heutigen Physik. Rowohlt. Heisenberg, Werner (2006): Physik und Philosophie. 7., korrig. A. Stuttgart: Hirzel, Stuttgart. Heiße, F.; Köhler-Langes, F.; Rau, S.; u. a. (2017): „High-Precision Measurement of the Proton’s Atomic Mass“. In: Physical Review Letters. 119 (3), S. 033001, doi: 10.1103/PhysRevLett. 119.033001. Hellinger, Bert (2018): „Hellinger“. Abgerufen am 03.06.2018 von https://www2.hellinger.com/ home/familienstellen/das-familienstellen-von-den-anfaengen-bis-jetzt/. Hemingway, Ernest (1932): Death in the Afternoon. chapter 16. New York: Scribner. Hensen, B.; Bernien, H.; Dréau, A. E.; u. a. (2015): „Loophole-free Bell inequality violation using electron spins separated by 1.3 kilometres“. In: Nature. 526 (7575), S. 682–686, doi: 10.1038/nature15759. Herbel, Vera; Orth, Christian; Wenzel, Ringo; u. a. (2013): „Lifetimes of Arabidopsis cryptochrome signaling states in vivo“. In: The Plant Journal. 74 (4), S. 583–592, doi: 10.1111/tpj.12144. Herzog, Michael H.; Kammer, Thomas; Scharnowski, Frank (2016): „Time Slices: What Is the Duration of a Percept?“. In: PLOS Biol. 14 (4), S. e1002433, doi: 10.1371/journal.pbio.1002433. Hilbert, Martin; López, Priscila (2011): „The World’s Technological Capacity to Store, Communicate, and Compute Information“. In: Science. 332 (6025), S. 60–65, doi: 10.1126/science.1200970.
Literatur
617
Hildner, Richard; Brinks, Daan; Nieder, Jana B.; u. a. (2013): „Quantum Coherent Energy Transfer over Varying Pathways in Single Light-Harvesting Complexes“. In: Science. 340 (6139), S. 1448– 1451, doi: 10.1126/science.1235820. Hiley, B. J. (2013): „The Early History of the Aharonov-Bohm Effect“. In: arXiv:1304.4736 [physics]. Hill, Doug (2014): „The Eccentric Genius Whose Time May Have Finally Come (Again)“. The Atlantic. Hinrichs, Gerd (2008): Modellierung im Mathematikunterricht. 2008. Aufl. Heidelberg: Spektrum Akademischer Verlag. Hinterberger, Thilo; Mochty, Ursula; Schmidt, Stefan; u. a. (2008): „EEG-Korrelationen zwischen räumlich weit entfernten Paaren“. In: Zeitschrift für Anomalistik. 8 , S. 55–75. Hinterberger, Thilo; Önal-Hartmann, Cigdem; Salari, Vahid (2015): „Synchrony and consciousness“. In: Fields of the Cell. Research Signpost. Hinterhuber, Prof Dr Hans H. (2011): Strategische Unternehmensführung: I. Strategisches Denken Vision - Ziele - Strategie. 8. Aufl. Berlin: Erich Schmidt Verlag GmbH & Co. Hirschauer, Norbert; Grüner, Sven; Mußhoff, Oliver; u. a. (2019): „Twenty Steps Towards an Adequate Inferential Interpretation of p-Values in Econometrics“. In: Jahrbücher für Nationalökonomie und Statistik. 0 (0), doi: 10.1515/jbnst-2018-0069. Hiscock, Hamish G.; Worster, Susannah; Kattnig, Daniel R.; u. a. (2016): „The quantum needle of the avian magnetic compass“. In: Proceedings of the National Academy of Sciences. 113 (17), S. 4634–4639, doi: 10.1073/pnas.1600341113. Hobson, Hannah M.; Bishop, Dorothy V. M. (2017): „The interpretation of mu suppression as an index of mirror neuron activity: past, present and future“. In: Royal Society Open Science. 4 (3), doi: 10.1098/rsos.160662. Hoffmeister, Wolfgang (2008): Investitionsrechnung und Nutzwertanalyse: Eine entscheidungsorientierte Darstellung mit vielen Beispielen und Übungen. 2., überarbeitete Auflage. Berlin: Bwv Berliner Wissenschafts-Verlag. Holitzka, Marlies; Remmert, Elisabeth (2006): Systemische Organisations-Aufstellungen: Für Konfliktlösungen in Unternehmen und Beruf. 1., Aufl. Darmstadt: Schirner Verlag. Holleczek, Annemarie; Aiello, Andrea; Gabriel, Christian; u. a. (2011): „Classical and quantum properties of cylindrically polarized states of light“. In: Optics Express. 19 (10), S. 9714, doi: 10.1364/OE.19.009714. Hölscher, Thomas (2003): „Wissende Felder bei Sheldrake und Dawkins“. In: (Praxis der Systemaufstellung), (1/2003). Holtfort, Thomas (2013): Intuition als effektive Ressource moderner Organisationen: Eine theoretische und empirische Analyse. Wiesbaden: Springer Gabler. Honerkamp, Josef (2010): „Der Informationsbegriff in der Physik“. SciLogs - Wissenschaftsblogs, Die Natur der Naturwissenschaft, Spektrum.de. Honey, Christian (2017): „Statistik: Eine signifikante Geschichte“. In: Spektrum Kompakt. S. 4–10. Hong, Sungkun; Riedinger, Ralf; Marinković, Igor; u. a. (2017): „Hanbury Brown and Twiss interferometry of single phonons from an optomechanical resonator“. In: Science. S. eaan7939, doi: 10.1126/science.aan7939. Höpcke, Klaas; Freyer, Johannes (2016): „Die Beeinflussung von Kaufentscheidungen – Effekte unterbewusster Manipulation der affektiven Einstellungskomponente |“. Höppner, Gert (2006): Heilt Demut, wo Schicksal wirkt? (Onlineausgabe): Eine Studie zu Effekten des Familien-Stellens nach Bert Hellinger. Carl Auer Verlag/KNO VA. Horn, Klaus P.; Brick, Regine; Wassermann, Otto (2001): Das verborgene Netzwerk der Macht: Systematische Aufstellung in Unternehmen und Organisationen. 4. Aufl. GABAL.
618
Literatur
Horney, Nick; Pasmore, Bill; O’Shea, Tom (2010): „Leadership Agility: A Business Imperative for a VUCA World“. In: People & Strategy. 33 (4), S. 32–38. Horr, Ninja K.; Braun, Christoph; Volz, Kirsten G. (2014): „Feeling before knowing why: The role of the orbitofrontal cortex in intuitive judgments - an MEG study“. In: Cognitive, Affective & Behavioral Neuroscience. 14 (4), S. 1271–1285, doi: 10.3758/s13415-014-0286-7. Horsey, Richard (2002): The art of chicken sexing. (Journal (On-line/Unpaginated)). Hsieh, D.; Xia, Y.; Wray, L.; u. a. (2009): „Observation of Unconventional Quantum Spin Textures in Topological Insulators“. In: Science. 323 (5916), S. 919–922, doi: 10.1126/science.1167733. Hu, Huping; Wu, Maoxin (2007a): „Evidence of Non-Local Physical, Chemical and Biological Effects Supports Quantum Brain“. In: NeuroQuantology. 4 (4), doi: 10.14704/nq.2006.4.4.108. Hu, Huping; Wu, Maoxin (2012): „New Nonlocal Biological Effect: A Preliminary Research“. In: NeuroQuantology. 10 (3), doi: 10.14704/nq.2012.10.3.586. Hu, Huping; Wu, Maoxin (2007b): „Photon Induced Non-Local Effects of General Anesthetics on the Brain“. In: NeuroQuantology. 4 (1), doi: 10.14704/nq.2006.4.1.86. Hu, Mao-Lin; Zong, Xiao-Fen; Mann, J. John; u. a. (2017): „A Review of the Functional and Anatomical Default Mode Network in Schizophrenia“. In: Neuroscience Bulletin. 33 (1), S. 73–84, doi: 10.1007/s12264-016-0090-1. Huizenga, Hilde M.; Wetzels, Ruud; van Ravenzwaaij, Don; u. a. (2012): „Four empirical tests of Unconscious Thought Theory“. In: Organizational Behavior and Human Decision Processes. 117 (2), S. 332–340, doi: 10.1016/j.obhdp.2011.11.010. Hümmler, Holm Gero (2017): Relativer Quantenquark: Kann die moderne Physik die Esoterik belegen? 1. Aufl. 2017 ed. Berlin: Springer. Hunger, Christina; Sailer, Pia; Krause, Lena; u. a. (2017): „Long-term efficiency of family constellation seminars on psychological well-being, experience in social systems, and individual goal achievement: A five-year follow-up. German Congress for Psychosomatic Medicine and Psychotherapy (DGPM), 22.- 24.03. Berlin“. Berlin 2017. Husserl, Edmund; Ströker, Elisabeth (Hrsg.) (2012): Cartesianische Meditationen. 1. Aufl. Hamburg: Meiner, F. Husserl, Edmund (1984): Logische Untersuchungen : Band 2, Untersuchungen zur Phänomenologie und Theorie der Erkenntnis, Teil 1. - 2., umgearb. Aufl. Springer Science+Business Media. Hutchison, W. D.; Davis, K. D.; Lozano, A. M.; u. a. (1999): „Pain-related neurons in the human cingulate cortex“. In: Nature Neuroscience. 2 (5), S. 403–405, doi: 10.1038/8065. Hüttemann, Andreas (2007): „Naturgesetze“. In: Bartels, Andreas; Stöckler, Manfred (Hrsg.) Wissenschaftstheorie: Ein Studienbuch. 2. Aufl. Paderborn: mentis S. 136–153. Iacoboni, Marco; Mazziotta, John C. (2007): „Mirror neuron system: basic findings and clinical applications“. In: Annals of Neurology. 62 (3), S. 213–218, doi: 10.1002/ana.21198. Iacoboni, Marco; Molnar-Szakacs, Istvan; Gallese, Vittorio; u. a. (2005): „Grasping the Intentions of Others with One’s Own Mirror Neuron System“. In: PLoS Biol. 3 (3), S. e79, doi: 10.1371/journal.pbio.0030079. van Inwagen, Peter (1997): „Materialism and the Psychological-Continuity Account of Personal Identity“. In: Philosophical Perspectives. 11 , S. 305–319. IPA-Studie; IHK Rhein-Neckar, Darmstadt, Pfalz (Hrsg.) (2015): „Industrie 4.0 – Chancen und Perspektiven für Unternehmen der Metropolregion Rhein-Neckar“. Ishiguro, Takehiko; Yamaji, Kunihiko; Saito, Gunzi (1998): „The Evolution of Organic Superconductors“. In: Organic Superconductors. Springer, Berlin, Heidelberg (Springer Series in Solid-State Sciences), S. 1–14, doi: 10.1007/978-3-642-58262-2_1.
Literatur
619
Itano, Wayne M.; Heinzen, D. J.; Bollinger, J. J.; u. a. (1990): „Quantum Zeno effect“. In: Physical Review A. 41 (5), S. 2295–2300, doi: 10.1103/PhysRevA.41.2295. Jacques, Vincent; Wu, E.; Grosshans, Frédéric; u. a. (2007): „Experimental Realization of Wheeler’s Delayed-Choice Gedanken Experiment“. In: Science. 315 (5814), S. 966–968, doi: 10.1126/science.1136303. Jaffe, R. L. (2005): „The Casimir Effect and the Quantum Vacuum“. In: Physical Review D. 72 (2), doi: 10.1103/PhysRevD.72.021301. Jahn, Robert G.; Dunne, Brenda J. (2009): Margins of Reality: The Role of Consciousness in the Physical World. Princeton: ICRL Press. Jelezko, F.; Gaebel, T.; Popa, I.; u. a. (2004): „Observation of Coherent Oscillations in a Single Electron Spin“. In: Physical Review Letters. 92 (7), S. 076401, doi: 10.1103/PhysRevLett.92.076401. Jenkins, Trisha A.; Nguyen, Jason C. D.; Polglaze, Kate E.; u. a. (2016): „Influence of Tryptophan and Serotonin on Mood and Cognition with a Possible Role of the Gut-Brain Axis“. In: Nutrients. 8 (1), doi: 10.3390/nu8010056. Jensen, Karin B.; Kaptchuk, Ted J.; Kirsch, Irving; u. a. (2012): „Nonconscious activation of placebo and nocebo pain responses“. In: Proceedings of the National Academy of Sciences of the United States of America. 109 (39), S. 15959–15964, doi: 10.1073/pnas.1202056109. Jeschke, Sabina; Jakobs, Eva-Maria; Dröge, Alicia (2013): Exploring Uncertainty: Ungewissheit und Unsicherheit im interdisziplinären Diskurs. 2013. Aufl. Springer Gabler. Jiang, Linxing; Stocco, Andrea; Losey, Darby M.; u. a. (2018): „BrainNet: A Multi-Person Brain-toBrain Interface for Direct Collaboration Between Brains“. In: arXiv:1809.08632 [cs, q-bio]. Jibu, M.; Hagan, S.; Hameroff, S. R.; u. a. (1994): „Quantum optical coherence in cytoskeletal microtubules: implications for brain function“. In: Bio Systems. 32 (3), S. 195–209. Jolie, Jan (2002): „Kernphysik: Supersymmetrie in Atomkernen“. In: Spektrum.de. (Kernphysik). Jordan, P (1938): Die Physik des 20. Jahrhunderts. Braunschweig: Vieweg. Josephson, B. D. (1962): „Possible new effects in superconductive tunnelling“. In: Physics Letters. 1 (7), S. 251–253, doi: 10.1016/0031-9163(62)91369-0. Josephson, Brian D.; Pallikari-Viras, Fotini (1991): „Biological utilization of quantum nonlocality“. In: Foundations of Physics. 21 (2), S. 197–207, doi: 10.1007/BF01889532. Julim, Christian; Scherm, Ewald (2012): „Der atmosphärische Einfluss auf die Organisationskultur: ein multidisziplinärer Ansatz“. In: SEM|RADAR Zeitschrift für Systemdenken und Entscheidungsfindung im Management. 11 . Julsgaard, Brian; Kozhekin, Alexander; Polzik, Eugene S. (2001): „Experimental long-lived entanglement of two macroscopic objects“. In: Nature. 413 (6854), S. 400–403, doi: 10.1038/35096524. Jung, Lorenz; Jung, Carl Gustav (2014): Typologie (Original 1921). München: dtv Verlagsgesellschaft. Jürgens, Eiko; Bohl, Thorsten (2008): Wissenschaftliches Arbeiten im Studium der Pädagogik: Arbeitsprozesse, Referate, Hausarbeiten, mündliche Prüfungen und mehr ... 3., überarbeitete Aufl. Beltz. Kahneman, Daniel (2003): „A perspective on judgment and choice: mapping bounded rationality“. In: The American Psychologist. 58 (9), S. 697–720, doi: 10.1037/0003-066X.58.9.697. Kahneman, Daniel (2012): Schnelles Denken, langsames Denken. 23. Aufl. München: Siedler Verlag. Kahneman, Daniel (2016): Schnelles Denken, langsames Denken. 1. Aufl. München: Penguin Verlag. Kahneman, Daniel; Klein, Gary (2009): „Conditions for intuitive expertise: a failure to disagree“. In: The American Psychologist. 64 (6), S. 515–526, doi: 10.1037/a0016755. Kahneman, Daniel; Tversky, Amos (1979): „Prospect Theory: An Analysis of Decision under Risk“. In: Econometrica. 47 (2), S. 263–291, doi: 10.2307/1914185.
620
Literatur
Kaiser, David (2014): „History: Shut up and calculate!“. In: Nature News. 505 (7482), S. 153, doi: 10.1038/505153a. Kaiser, Florian; Coudreau, Thomas; Milman, Pérola; u. a. (2012): „Entanglement-Enabled DelayedChoice Experiment“. In: Science. 338 (6107), S. 637–640, doi: 10.1126/science.1226755. Kälin, Karl; Müri, Peter (2005): Sich und andere führen. 15. Aufl. Bern: Ott Verlag. Kandasamy, Narayanan; Garfinkel, Sarah N.; Page, Lionel; u. a. (2016): „Interoceptive Ability Predicts Survival on a London Trading Floor“. In: Scientific Reports. 6 , S. 7, doi: 10.1038/srep32986. Kane, C. L.; Mele, E. J. (2005): „Z2 Topological Order and the Quantum Spin Hall Effect“. In: Physical Review Letters. 95 (14), S. 146802, doi: 10.1103/PhysRevLett.95.146802. Kanske, Philipp; Böckler, Anne; Singer, Tania (2015): „Models, Mechanisms and Moderators Dissociating Empathy and Theory of Mind“. In: Wöhr, Markus; Krach, Sören (Hrsg.) Social Behavior from Rodents to Humans. Springer International Publishing (Current Topics in Behavioral Neurosciences), S. 193–206, doi: 10.1007/7854_2015_412. Kanske, Philipp; Böckler, Anne; Trautwein, Fynn-Mathis; u. a. (2016): „Are strong empathizers better mentalizers? Evidence for independence and interaction between the routes of social cognition“. In: Social Cognitive and Affective Neuroscience. 11 (9), S. 1383–1392, doi: 10.1093/scan/ nsw052. Kaplan, Robert S.; Norton, David P. (1997): Balanced Scorecard: Strategien erfolgreich umsetzen. Stuttgart: Schäffer-Poeschel Verlag. Karban, Walter (2015): Systemtheorien, Komplexität, Emergenz und der notwendige Beobachter: Theorien komplexer Systeme - ein Paradigmenwechsel in der Wissenschaft? ... und Interdisziplinäre Bildung. Hamburg: Dr. Kovač (Komparative Philosophie und Interdisziplinäre Bildung (KoPhil)). Karremans, Johan C.; Stroebe, Wolfgang; Claus, Jasper (2006): „Beyond Vicary’s fantasies: The impact of subliminal priming and brand choice“. In: Journal of Experimental Social Psychology. 42 (6), S. 792–798, doi: 10.1016/j.jesp.2005.12.002. Kasabov, Nikola (2010): „To spike or not to spike: A probabilistic spiking neuron model“. In: Neural Networks. 23 (1), S. 16–19, doi: 10.1016/j.neunet.2009.08.010. Katenkamp, Olaf (2011): Implizites Wissen in Organisationen: Konzepte, Methoden und Ansätze im Wissensmanagement. 2011. Aufl. Wiesbaden: VS Verlag für Sozialwissenschaften. Keilmann, Tassilo; Lanzmich, Simon; McCulloch, Ian; u. a. (2011): „Statistically induced phase transitions and anyons in 1D optical lattices“. In: Nature Communications. 2 , S. 361, doi: 10.1038/ ncomms1353. Keppler, Joachim (2013): „A new perspective on the functioning of the brain and the mechanisms behind conscious processes“. In: Frontiers in Psychology. 4 , doi: 10.3389/fpsyg.2013.00242. Ketterle, Wolfgang (2002): „Nobel lecture: When atoms behave as waves: Bose-Einstein condensation and the atom laser“. In: Reviews of Modern Physics. 74 (4), S. 1131–1151, doi: 10.1103/Rev ModPhys.74.1131. Khatri, Naresh; Ng, H. Alvin (2000): „The Role of Intuition in Strategic Decision Making“. In: Human Relations. 53 (1), S. 57–86, doi: 10.1177/0018726700531004. Kheradpisheh, Saeed Reza; Ganjtabesh, Mohammad; Thorpe, Simon J.; u. a. (2018): „STDP-based spiking deep convolutional neural networks for object recognition“. In: Neural Networks. 99 , S. 56–67, doi: 10.1016/j.neunet.2017.12.005. Kibéd, Matthias Varga von (2013): „Ein Metakommentar“. In: Aufstellungsarbeit revisited. 2., unveränd. Aufl. Heidelberg: Carl-Auer-Systeme Verlag S. 200–250. Kiefer, Claus (2008): Der Quantenkosmos: Von der zeitlosen Welt zum expandierenden Universum. 2. Frankfurt am Main: S. FISCHER.
Literatur
621
Kiesel, Andrea (2012): „Die Erwartung macht den Unterschied“. In: (Gehirn & Geist), (23), S. 23–24. King, Andrew D.; Carrasquilla, Juan; Raymond, Jack; u. a. (2018): „Observation of topological phenomena in a programmable lattice of 1,800 qubits“. In: Nature. 560 (7719), S. 456, doi: 10.1038/s41586-018-0410-x. Kingsinger, Paul; Walch, Karen (2012): „Living and Leading in a VUCA World“. Original: Thunderbird School of Global Management in Phoenix, Arizona. Heruntergeladen von http://knowledgenetwork.thunderbird.edu/research/2012/07/09/kinsinger-walch-vuca ___ aktuell zu finden unter: http://www.forevueinternational.com/Content/sites/forevue/pages/1482/4_1__Living_and_ Leading_in_a_VUCA_World_Thunderbird_School.PDF. Kirsch, Werner; Seidl, David; Aaken, Dominik (2007): Betriebswirtschaftliche Forschung: Wissenschaftstheoretische Grundlagen und Anwendungsorientierung. Stuttgart: Schäffer Poeschel. Kiss, Monika; Eimer, Martin (2008): „ERPs reveal subliminal processing of fearful faces“. In: Psychophysiology. 45 (2), S. 318–326, doi: 10.1111/j.1469-8986.2007.00634.x. Kitaev, A. Yu. (2003): „Fault-tolerant quantum computation by anyons“. In: Annals of Physics. 303 (1), S. 2–30, doi: 10.1016/S0003-4916(02)00018-0. Klein, Gary (2008): „Naturalistic Decision Making“. In: Human Factors. 50 (3), S. 456–460, doi: 10.1518/001872008X288385. Klein, Gary; Calderwood, Roberta; Clinton-Cirocco, Anne (2010): „Rapid Decision Making on the Fire Ground: The Original Study Plus a Postscript“. In: Journal of Cognitive Engineering and Decision Making. 4 (3), S. 186–209, doi: 10.1518/155534310X12844000801203. Kleinbub, Johann R. (2017): „State of the Art of Interpersonal Physiology in Psychotherapy: A Systematic Review“. In: Frontiers in Psychology. 8 , doi: 10.3389/fpsyg.2017.02053. Kleppner, Daniel; Jackiw, Roman (2000): „One Hundred Years of Quantum Physics“. In: Science. 289 (5481), S. 893–898, doi: 10.1126/science.289.5481.893. Knight, Frank H. (2009): Risk, Uncertainty and Profit. Cornell University Library. Knill, David C.; Pouget, Alexandre (2004): „The Bayesian brain: the role of uncertainty in neural coding and computation“. In: Trends in Neurosciences. 27 (12), S. 712–719, doi: 10.1016/j.tins. 2004.10.007. Kobayashi, Katsuhiro; Okabe, Hirotaka; Kawano, Shinya; u. a. (2014): „Biophoton Emission Induced by Heat Shock“. In: PLoS ONE. 9 (8), doi: 10.1371/journal.pone.0105700. Kobayashi, Masaki; Kikuchi, Daisuke; Okamura, Hitoshi (2009): „Imaging of Ultraweak Spontaneous Photon Emission from Human Body Displaying Diurnal Rhythm“. In: PLOS ONE. 4 (7), S. e6256, doi: 10.1371/journal.pone.0006256. Kolb, Helga (2003): „How the Retina Works“. In: American Scientist. (91), S. 28–35. Kopp, Ursula (2016): „Easier Identification of Risks and Uncertainties with Project Risk Constellations“. In: Bodea, Constanta-Nicoleta; Purnus, Augustin; Huemann, Martina; u. a. (Hrsg.) Managing Project Risks for Competitive Advantage in Changing Business Environments. IGI Global S. 106–127. Kopp, Ursula (2013): „Systemische Nachhaltigkeitskompetenzen für Führungskräfte – Erfahrungen mit Aufstellungsarbeit in der Managementaus- und weiterbildung“. In: Die Unternehmung. 67 (2), S. 126–151, doi: 10.5771/0042-059X-2013-2-126. Kosterlitz, J. M.; Thouless, D. J. (2013): „Early Work on Defect Driven Phase Transitions“. In: Jose, Jorge V. (Hrsg.) 40 Years of Berezinskii-Kosterlitz-Thouless Theory. 1 edition. Singapore ; Hackensack, NJ: World Scientific Publishing Company S. 1–67. Kosterlitz, J. M.; Thouless, D. J. (1973): „Ordering, metastability and phase transitions in two-dimensional systems“. In: Journal of Physics C: Solid State Physics. 6 (7), S. 1181, doi: 10.1088/00223719/6/7/010.
622
Literatur
Koutsikou, Stella; Crook, Jonathan J; Earl, Emma V; u. a. (2014): „Neural substrates underlying fearevoked freezing: the periaqueductal grey–cerebellar link“. In: The Journal of Physiology. 592 (Pt 10), S. 2197–2213, doi: 10.1113/jphysiol.2013.268714. Krenn, Mario; Huber, Marcus; Fickler, Robert; u. a. (2014): „Generation and confirmation of a (100 × 100)-dimensional entangled quantum system“. In: Proceedings of the National Academy of Sciences of the United States of America. 111 (17), S. 6243–6247, doi: 10.1073/pnas.1402365111. Kriz, Jürgen (2017): „Humanistische Psychologie - Lexikon der Psychologie“. Heidelberg: Spektrum Akademischer Verlag. Kriz, Jürgen; Tschacher, Wolfgang (2017): Synergetik als Ordner: Die strukturierende Wirkung der interdisziplinären Ideen Hermann Hakens. Lengerich: Pabst Science Publishers. Krotz, Friedrich (2012): „Stuart Hall: Encoding/Decoding und Identität“. In: Hepp, Andreas; Krotz, Friedrich; Thomas, Tanja (Hrsg.) Schlüsselwerke der Cultural Studies. 2013. Aufl. Wiesbaden: VS Verlag für Sozialwissenschaften S. 210–223. Küblbeck, Josef; Müller, Rainer; Farber, Max U. (Hrsg.) (2007): Die Wesenszüge der Quantenphysik: Modelle, Bilder, Experimente. 3., unveränd. Neuaufl. Köln: Aulis. Kuhlmann (2014): „Was ist real?“. In: Quantenfeldtheorie , S. 46–53. Kuhlmann, Meinard (2007): „Theorie komplexer System: Nicht-fundamental und doch unverzichtbar?“. In: Bartels, Andreas; Stöckler, Manfred (Hrsg.) Wissenschaftstheorie: Ein Studienbuch. 2. Aufl. Paderborn: mentis. Kuhlmann, Meinard; Stöckler, Manfred (2015): „Quantenfeldtheorie“. In: Friebe, Cord; Kuhlmann, Meinard; Lyre, Holger; u. a. (Hrsg.) Philosophie der Quantenphysik: Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen. Berlin: Springer Spektrum S. 225–273. Kuls, Norbert (2016): „Anlagetheorie: Das Bauchgefühl der Wertpapierhändler“. Frankfurter Allgemeine Zeitung. 21.9.2016. Kumar, Sourabh; Boone, Kristine; Tuszynski, Jack; u. a. (2016): Possible existence of optical communication channels in the brain. ( Nr. biorxiv;062745v1). Kwiat, Paul G.; Barraza-Lopez, Salvador; Stefanov, André; u. a. (2001): „Experimental entanglement distillation and ‘hidden’ non-locality“. In: Nature. 409 (6823), S. 1014–1017, doi: 10.1038/ 35059017. Lambrecht, Astrid (2005): „Das Vakuum kommt zu Kräften: Der Casimir-Effekt“. In: Physik in unserer Zeit. 36 (2), S. 85–91, doi: 10.1002/piuz.200501061. Lapkiewicz, Radek; Li, Peizhe; Schaeff, Christoph; u. a. (2011): „Experimental non-classicality of an indivisible quantum system“. In: Nature. 474 (7352), S. 490–493, doi: 10.1038/nature10119. László, Ervin (2000): Das fünfte Feld. Bergisch Gladbach: Bastei Lübbe. Latka, Thomas (2006): „Das Denken in Räumen. Was wir von den Japanern lernen können.“. In: Praxis der Systemaufstellungen. (2/2006). Lebed, Andrei (Hrsg.) (2008): The Physics of Organic Superconductors and Conductors. 2008 edition. Berlin: Springer. LeDoux, J. E. (2000): „Emotion circuits in the brain“. In: Annual Review of Neuroscience. 23 , S. 155– 184, doi: 10.1146/annurev.neuro.23.1.155. Lee, Hohjai; Cheng, Yuan-Chung; Fleming, Graham R. (2007): „Coherence Dynamics in Photosynthesis: Protein Protection of Excitonic Coherence“. In: Science. 316 (5830), S. 1462–1465, doi: 10.1126/science.1142188.
Literatur
623
Legendre, Guillaume; Andrillon, Thomas; Koroma, Matthieu; u. a. (2019): „Sleepers track informative speech in a multitalker environment“. In: Nature Human Behaviour. S. 1, doi: 10.1038/s41562018-0502-5. Lehmann, Katharina (2006): Umgang mit komplexen Situationen: Perspektivenerweiterung durch Organisationsaufstellungen: Eine empirische Studie. 1., Aufl. Heidelberg: Carl Auer Verlag. Lehr, Ursula; Berlin-Institut für Bevölkerung und Entwicklung (Hrsg.) (2013): „Alterung der Bevölkerung“. Leitner, Barbara (2008): „Die Mathematik sozialer Phänomene“. Deutschlandfunk. Abgerufen am 27.05.2017 von http://www.deutschlandfunk.de/die-mathematik-sozialer-phaenomene.1148. de.html?dram:article_id=180295. Lemos, Gabriela Barreto; Borish, Victoria; Cole, Garrett D.; u. a. (2014): „Quantum imaging with undetected photons“. In: Nature. 512 (7515), S. 409–412, doi: 10.1038/nature13586. Leung, Calvin; Brown, Amy; Nguyen, Hien; u. a. (2018): „Astronomical random numbers for quantum foundations experiments“. In: Physical Review A. 97 (4), S. 042120, doi: 10.1103/PhysRev A.97.042120. Lewis, David K. (1983): Philosophical Papers: Volume I. 1 edition. New York: Oxford University Press. Libet, B.; Gleason, C. A.; Wright, E. W.; u. a. (1983): „Time of conscious intention to act in relation to onset of cerebral activity (readiness-potential). The unconscious initiation of a freely voluntary act“. In: Brain: A Journal of Neurology. 106 (Pt 3) , S. 623–642. Lin, Jennifer; Marcolli, Matilde; Ooguri, Hirosi; u. a. (2015): „Locality of Gravitational Systems from Entanglement of Conformal Field Theories“. In: Physical Review Letters. 114 (22), S. 221601, doi: 10.1103/PhysRevLett.114.221601. Lissek, Silke; Peters, Sören; Fuchs, Nina; u. a. (2008): „Cooperation and Deception Recruit Different Subsets of the Theory-of-Mind Network“. In: PLoS ONE. 3 (4), doi: 10.1371/journal.pone. 0002023. Little, W. A. (1964): „Possibility of Synthesizing an Organic Superconductor“. In: Physical Review. 134 (6A), S. A1416–A1424, doi: 10.1103/PhysRev.134.A1416. Liu, Gang-Qin; Po, Hoi Chun; Du, Jiangfeng; u. a. (2013): „Noise-resilient quantum evolution steered by dynamical decoupling“. In: Nature Communications. 4 , S. 2254, doi: 10.1038/ncomms3254. Liu, Yichuan; Piazza, Elise A.; Simony, Erez; u. a. (2017): „Measuring speaker–listener neural coupling with functional near infrared spectroscopy“. In: Scientific Reports. 7 , S. 43293, doi: 10.1038/ srep43293. Löffler, Winfried (2017): „Götter“. In: Schrenk, Markus (Hrsg.) Handbuch Metaphysik. 1. Aufl. 2017. Stuttgart: J.B. Metzler S. 201–213. Losee, John (1987): Wissenschaftstheorie. Eine historische Einführung. München: C.H. Beck Verlag. Lucadou, Walter von (2000): „Hans im Glück - oder in welcher Währung müssen wir Evidenz bezahlen?“. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie. 42/43 (1–4), S. 3– 19. Lucadou, Walter von (2015): „The Model of Pragmatic Information (MPI)“. In: May, Edwin C.; Marwaha, Sonali (Hrsg.) Extrasensory Perception [2 volumes]: Support, Skepticism, and Science (Extended version). Santa Barbara, California: Praeger Pulications S. 829. Lufityanto, Galang; Donkin, Chris; Pearson, Joel (2016): „Measuring Intuition: Nonconscious Emotional Information Boosts Decision Accuracy and Confidence“. In: Psychological Science. 27 (5), S. 622–634, doi: 10.1177/0956797616629403. Luhmann, Niklas (1964): Funktionen und Folgen formaler Organisation. 1. Auflage. Berlin: Duncker & Humblot (Schriftenreihe der Hochschule Speyer).
624
Literatur
Luhmann, Niklas (1991): Soziale Systeme: Grundriß einer allgemeinen Theorie. 4. Frankfurt am Main: Suhrkamp Verlag. Luis, Alfredo (2009): „Coherence, polarization, and entanglement for classical light fields“. In: Optics Communications. 282 (18), S. 3665–3670, doi: 10.1016/j.optcom.2009.06.024. Lutterer, Wolfram (2002): Gregory Bateson: Eine Einführung in sein Denken. 1. Heidelberg: Carl-AuerSysteme Verlag. Lutz, Antoine; Greischar, Lawrence L.; Rawlings, Nancy B.; u. a. (2004): „Long-term meditators selfinduce high-amplitude gamma synchrony during mental practice“. In: Proceedings of the National Academy of Sciences of the United States of America. 101 (46), S. 16369–16373, doi: 10.1073/pnas.0407401101. Lvovsky, Alexander I.; Sanders, Barry C.; Tittel, Wolfgang (2009): „Optical quantum memory“. In: Nature Photonics. 3 (12), S. 706–714, doi: 10.1038/nphoton.2009.231. Ma, Xiao-Song; Herbst, Thomas; Scheidl, Thomas; u. a. (2012a): „Quantum teleportation over 143 kilometres using active feed-forward“. In: Nature. 489 (7415), S. 269–273, doi: 10.1038/nature 11472. Ma, Xiao-song; Zotter, Stefan; Kofler, Johannes; u. a. (2012b): „Experimental delayed-choice entanglement swapping“. In: Nature Physics. 8 (6), S. 479–484, doi: 10.1038/nphys2294. Mack, Oliver; Khare, Anshuman (2016): „Perspectives on a VUCA World“. In: Mack, Oliver; Khare, Thomas; Kramer, Andreas; u. a. (Hrsg.) Managing in a VUCA World. Switzerland: Springer International Publishing S. 3–19. Mack, Oliver; Khare, Anshuman; Kramer, Andreas; u. a. (Hrsg.) (2016): Managing in a VUCA World. Switzerland: Springer International Publishing. MacLeod, D. I. A.; Fine, I. (2010): „Vision after early blindness“. In: Journal of Vision. 1 (3), S. 470– 470, doi: 10.1167/1.3.470. Maeda, Kiminori; Henbest, Kevin B.; Cintolesi, Filippo; u. a. (2008): „Chemical compass model of avian magnetoreception“. In: Nature. 453 (7193), S. 387–390, doi: 10.1038/nature06834. Maharishi University of Management (2016): „Kann Gruppenmeditation Gewaltverbrechen verhindern? Ja! Das legen neue Studien nahe.“. EurekAlert!. Abgerufen am 18.07.2018 von http:// www.eurekalert.org/pub_releases_ml/2016-04/muom-s041616.php. Mahler, Dylan H.; Rozema, Lee; Fisher, Kent; u. a. (2016): „Experimental nonlocal and surreal Bohmian trajectories“. In: Science Advances. 2 (2), S. e1501466, doi: 10.1126/sciadv.1501466. Mahr, Albrecht (1997): „Die Weisheit kommt nicht zu den Faulen – von Geführtwerden und Technik in Familienaufstellungen“. In: Weber, Gunthard (Hrsg.) Praxis des Familienstellens. Heidelberg: Carl-Auer-Systeme-Verlag. Maier, Markus; Büchner, Vanessa L. (2015): „Time and Consciousness“. In: Nadin, Mihai (Hrsg.) Anticipation Across Disciplines. 1st ed. 2016. Springer S. 93–104. Majumdar, N.S.; Pribram, K.H.; Barrett, T.W. (2006): „Time Frequency Characterization of Evoked Brain Activity In Multiple Electrode Recordings“. In: IEEE Transactions on Biomedical Engineering. 53 (12), S. 2516–2524, doi: 10.1109/TBME.2006.883733. Mak, Lauren E.; Minuzzi, Luciano; MacQueen, Glenda; u. a. (2016): „The Default Mode Network in Healthy Individuals: A Systematic Review and Meta-Analysis“. In: Brain Connectivity. 7 (1), S. 25–33, doi: 10.1089/brain.2016.0438. Malý, Pavel; Gruber, J. Michael; Cogdell, Richard J.; u. a. (2016): „Ultrafast energy relaxation in single light-harvesting complexes“. In: Proceedings of the National Academy of Sciences. 113 (11), S. 2934–2939, doi: 10.1073/pnas.1522265113.
Literatur
625
Manolea, Aliodor (2015): „Brain to Brain Connectivity During Distal Psycho-informational Influence Sessions, Between Spatially and Sensory Isolated Subjects“. In: Procedia - Social and Behavioral Sciences. 187 , S. 250–255, doi: 10.1016/j.sbspro.2015.03.047. Marien, Hans; Custers, Ruud; Hassin, Ran R.; u. a. (2012): „Unconscious goal activation and the hijacking of the executive function“. In: Journal of Personality and Social Psychology. 103 (3), S. 399–415, doi: 10.1037/a0028955. Matsuhashi, Michio; Pankrushina, Alla N.; Endoh, Katsura; u. a. (1996): „Bacillus carboniphilus cells respond to growth-promoting physical signals from cells of homologous and heterologous bacteria.“. In: The Journal of General and Applied Microbiology. 42 (4), S. 315–323, doi: 10.2323/ jgam.42.315. Matsuhashi, Michio; Pankrushina, Alla N. L.; Takeuchi, Satoshi; u. a. (1998): „Production of sound waves by bacterial cells and the response of bacterial cells to sound“. In: The Journal of General and Applied Microbiology. 44 (1), S. 49–55. Maturana, Humberto R. (2000): Biologie der Realität. 4. Aufl. Frankfurt am Main: Suhrkamp Verlag. Maturana, Humberto R.; Varela, Francisco J. (1990): Der Baum der Erkenntnis: Die biologischen Wurzeln menschlichen Erkennens. 12. Auflage. Goldmann Verlag. Maturana, Humberto R.; Varela, Francisco J. (2009): Der Baum der Erkenntnis: Die biologischen Wurzeln menschlichen Erkennens. 6. Aufl. Frankfurt am Main: FISCHER Taschenbuch. Matzler, Kurt; Bailom, Franz; Mooradian, Todd A. (2007): „Intuitive Decision Making“. In: MIT Sloan Management Review. 49 (1). Mauthner, O. E.; De Luca, E.; Poole, J. M.; u. a. (2015): „Heart transplants: Identity disruption, bodily integrity and interconnectedness“. In: Health: An Interdisciplinary Journal for the Social Study of Health, Illness and Medicine. 19 (6), S. 578–594, doi: 10.1177/1363459314560067. Mayer, Emeran A. (2011): „Gut feelings: the emerging biology of gut-brain communication“. In: Nature Reviews. Neuroscience. 12 (8), S. 453–466, doi: 10.1038/nrn3071. Maynard, M.-A.; Bretenaker, F.; Goldfarb, F. (2015): „Light storage in a room temperature atomic vapor based on coherent population oscillations“. In: Physical Review A. 92 (5), doi: 10.1103/Phys RevA.92.053803. Mazaheri, Ali; Diepen, Rosanne Van (2015): „Gamma Oscillations in a Bind?“. In: Cerebral Cortex. 25 (12), S. 4651–4652, doi: 10.1093/cercor/bhu136. McCann, Joseph; Selsky, John; Lee, James (2009): „Building Agility, Resilience and Performance in Turbulent Environments“. In: People Strategy. 32 (3), S. 44–51. McCraty, Rollin; Atkinson, Mike; Bradley, Raymond Trevor (2004a): „Electrophysiological evidence of intuition: part 1. The surprising role of the heart“. In: Journal of Alternative and Complementary Medicine (New York, N.Y.). 10 (1), S. 133–143, doi: 10.1089/107555304322849057. McCraty, Rollin; Atkinson, Mike; Bradley, Raymond Trevor (2004b): „Electrophysiological evidence of intuition: Part 2. A system-wide process?“. In: Journal of Alternative and Complementary Medicine (New York, N.Y.). 10 (2), S. 325–336, doi: 10.1089/107555304323062310. McCraty, Rollin; Childre, Doc (2010): „Coherence: bridging personal, social, and global health“. In: Alternative Therapies in Health and Medicine. 16 (4), S. 10–24. McGuinness, L. P.; Hall, L. T.; Stacey, A.; u. a. (2013): „Ambient nanoscale sensing with single spins using quantum decoherence“. In: New Journal of Physics. 15 (7), S. 073042, doi: 10.1088/13672630/15/7/073042. McTaggart, Lynne (2007): Das Nullpunkt-Feld: Auf der Suche nach der kosmischen Ur-Energie. München: Goldmann Verlag. McWilliams, James (2017): „The Lucrative Art of Chicken Sexing“. Pacific Standard. 14.12.2017.
626
Literatur
Meaney, Michael; Hellhammer, Dirk (2005): „Michael Meaney: Wie die Zuwendung der Eltern die Stressvulnerabilität beeinflusst: Molekularbiologische Grundlagen sozialer Erfahrung“. In: Verhaltenstherapie. 15 (2), S. 110–112, doi: 10.1159/000086723. Meltzoff, Andrew N. (1995): „Understanding the Intentions of Others: Re-Enactment of Intended Acts by 18-Month-Old Children“. In: Developmental psychology. 31 (5), S. 838–850, doi: 10.1037/ 0012-1649.31.5.838. Menk, Thomas; Martin, Sébastian (2011): Bedeutung der Kreativität und Intuition im Unternehmensalltag. (Studien-Ergebniss) MentalBusiness & PROXIDEA. Mersini-Houghton, L.; Holman, R. (2009): „“Tilting” the universe with the landscape multiverse: the dark flow“. In: Journal of Cosmology and Astroparticle Physics. 2009 (02), S. 006, doi: 10.1088/1475-7516/2009/02/006. Messner, Claude; Wänke, Michaela (2011): „Unconscious information processing reduces information overload and increases product satisfaction“. In: Journal of Consumer Psychology. (SI: Nonconscious Processes in Consumer Psychology), 21 (1), S. 9–13, doi: 10.1016/j.jcps.2010. 09.010. Meyl, Konstantin (2007): „Skalarwellen in der Medizin“. In: Komplementäre und integrative Medizin KiM. 7 . Mintzberg, Henry (2013): Mintzberg über Management. Softcover reprint of the original 1st ed. 1991. Wiesbaden: Springer. Mintzberg, Henry (1988): „Strategie als Handwerk“. Harvard Business Manager. 1. Aufl. 1988, S. 73– 79. Mintzberg, Henry; Ahlstrand, Bruce; Lampel, Joseph (2012): Strategy Safari: Der Wegweiser durch den Dschungel des strategischen Managements. München: FinanzBuch Verlag. Mintzberg, Henry; Raisinghani, Duru; Théorêt, André (1976): „The Structure of „Unstructured“ Decision Processes“. In: Administrative Science Quarterly. 21 (2), S. 246–275, doi: 10.2307/2392 045. Moi, Wen Ying; Shanks, David R. (2015): „Can lies be detected unconsciously?“. In: Frontiers in Psychology. 6 , doi: 10.3389/fpsyg.2015.01221. Møller, Christoffer B.; Thomas, Rodrigo A.; Vasilakis, Georgios; u. a. (2017): „Quantum back-actionevading measurement of motion in a negative mass reference frame“. In: Nature. 547 (7662), S. 191–195, doi: 10.1038/nature22980. Möller, Niklas; Wikman-Svahn, Per (2011): „Black Elephants and Black Swans of Nuclear Safety“. In: Ethics, Policy & Environment. 14 (3), S. 273–278, doi: 10.1080/21550085.2011.605853. Montagnier, L.; Aissa, J.; Giudice, E. Del; u. a. (2011): „DNA waves and water“. In: Journal of Physics: Conference Series. 306 (1), S. 012007, doi: 10.1088/1742-6596/306/1/012007. Moore, Dale L. (2014): „The Experience of Strategic Thinking in a Volatile, Uncertain, Complex, and Ambiguous (VUCA) Environment“. The George Washington University. Moreva, Ekaterina; Brida, Giorgio; Gramegna, Marco; u. a. (2014): „Time from quantum entanglement: an experimental illustration“. In: Physical Review A. 89 (5), doi: 10.1103/PhysRevA.89.052122. Mori, Kensaku; Shepherd, Gordon M. (1994): „Emerging principles of molecular signal processing by mitral/tufted cells in the olfactory bulb“. In: Seminars in Cell Biology. 5 (1), S. 65–74, doi: 10.1006/scel.1994.1009. Mossbridge, Julia A.; Tressoldi, Patrizio; Utts, Jessica; u. a. (2014): „Predicting the unpredictable: critical analysis and practical implications of predictive anticipatory activity“. In: Frontiers in Human Neuroscience. 8 , doi: 10.3389/fnhum.2014.00146.
Literatur
627
Mossbridge, Julia; Tressoldi, Patrizio E.; Utts, Jessica (2012): „Predictive Physiological Anticipation Preceding Seemingly Unpredictable Stimuli: A Meta-Analysis“. In: Frontiers in Psychology. 3 , doi: 10.3389/fpsyg.2012.00390. Mott, N.F. (1964): „On Teaching quantum phenomena“. In: Contemporary Physics. 5 (6), S. 401–418, doi: 0.1080/00107516408203103. Muhonen, Juha T.; Dehollain, Juan P.; Laucht, Arne; u. a. (2014): „Storing quantum information for 30 seconds in a nanoelectronic device“. In: Nature Nanotechnology. 9 (12), S. 986–991, doi: 10.1038/nnano.2014.211. Müller-Christ, Georg (2016a): „Systemaufstellungen als Instrument der qualitativen Sozialforschung. Vier vielleicht neue Unterscheidungen aus der Anwendungssicht der Wissenschaft“. In: Weber, Gunthard; Rosselet, Claude (Hrsg.) Organisationsaufstellungen: Grundlagen, Settings, Anwendungsfelder. 1. Aufl. Heidelberg: Carl-Auer Verlag GmbH S. 72–93. Müller-Christ, Georg (2016b): „Wie kann das Neue anders in die Welt kommen? Systemaufstellungen in der universitären Lehre“. In: Weber, Gunthard; Rosselet, Claude (Hrsg.) Organisationsaufstellungen: Grundlagen, Settings, Anwendungsfelder. 1. Aufl. Heidelberg: Carl-Auer Verlag GmbH S. 285–318. Müller-Christ, Georg; Hußmann, Gitta (2015): „Forschendes Lehren und Lernen mithilfe von Systemaufstellungen und systemischen Visualisierungen im Bachelorstudiengang Betriebswirtschaftslehre | Resonanz“. Resonanz - Magazin für Lehre und Studium an der Universität Bremen. Müller-Christ, Georg; Pijetlovic, Denis (2018): Komplexe Systeme lesen: Das Potential von Systemaufstellungen in Wissenschaft und Praxis. 1. Aufl. 2018. Springer Gabler. Musha, Takaaki (2009): „Possibility of high performance quantum computation by superluminal evanescent photons in living systems“. In: Biosystems. 96 (3), S. 242–245, doi: 10.1016/j.biosystems.2009.03.002. Musser, George (2018): „Informatik: Quantencomputer könnten künstliche Intelligenz voranbringen“. Abgerufen am 05.06.2018 von https://www.spektrum.de/news/koennen-quantencomputer-diekuenstliche-intelligenz-voranbringen/1566450. Myers, David G. (2004): Intuition: Its Powers and Perils. New edition edition. New Haven: Yale University Press. Myers, David G. (2007): „The Powers and Perils of Intuition“. In: Scientific American Mind. 18 (3), S. 24–31, doi: 10.1038/scientificamericanmind0607-24. Nagel, Reinhart; Wimmer, Rudolf (2002): Systemische Strategieentwicklung: Modelle und Instrumente für Berater und Entscheider. 4. Aufl. Stuttgart: Klett-Cotta. Näger, Paul M. (2016): „The causal problem of entanglement“. In: Synthese. 193 (4), S. 1127–1155, doi: 10.1007/s11229-015-0668-6. Näger, Paul; Stöckler, Manfred (2015): „Verschränkung und Nicht-Lokalität: EPR, Bell und die Folgen“. In: Friebe, Cord; Kuhlmann, Meinard; Lyre, Holger; u. a. (Hrsg.) Philosophie der Quantenphysik: Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen. Berlin: Springer Spektrum S. 113–176. Nelissen, Koen; Borra, Elena; Gerbella, Marzio; u. a. (2011): „Action observation circuits in the macaque monkey cortex“. In: The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 31 (10), S. 3743–3756, doi: 10.1523/JNEUROSCI.4803-10.2011. Neumann, John von (1996): Mathematische Grundlagen der Quantenmechanik, Erstausgabe 1932. 2. Aufl. Berlin: Springer. Neumann, John Von (2007): Theory of Games and Economic Behavior. 60th Anniversary ed. Princeton, N.J. ; Woodstock: University Press Group Ltd. Neven, Hartmut (2015): „When can Quantum Annealing win?“. Google Research Blog.
628
Literatur
New Scientist (2010): „Quantum wonders: The field that isn’t there“. New Scientist. Abgerufen am 22.05.2017 von https://www.newscientist.com/article/mg20627596-600-quantum-wondersthe-field-that-isnt-there/. Nieuwenstein, N.; Wierenga, M.; Nirey, R.; u. a. (2015): „On making the right choice: A meta-analysis and large-scale replication attempt of the unconscious thought advantage“. In: Judgment and Decision Making. 10 (1), S. 1–17. Nisbett, Richard; Borgida, Eugene; Kahneman, Daniel (Hrsg.) (2012): Schnelles Denken, langsames Denken. 23. Aufl. München: Siedler Verlag. Noh, Changsuk; Chia, A.; Nha, Hyunchul; u. a. (2009): „Quantum teleportation of the temporal fluctuations of light“. In: Physical Review Letters. 102 (23), S. 230501, doi: 10.1103/PhysRev Lett.102.230501. Nordgren, Loran F.; Bos, Maarten W.; Dijksterhuis, Ap (2011): „The best of both worlds: Integrating conscious and unconscious thought best solves complex decisions“. In: Journal of Experimental Social Psychology. 47 (2), S. 509–511, doi: 10.1016/j.jesp.2010.12.007. Norman, Elisabeth; Price, Mark C. (2012): „Social intuition as a form of implicit learning: Sequences of body movements are learned less explicitly than letter sequences“. In: Advances in Cognitive Psychology. 8 (2), S. 121–131, doi: 10.2478/v10053-008-0109-x. Nosek, Brian A.; Greenwald, Anthony G.; Banaji Mahzarin R. (2006): „The Implicit Association Test at Age 7: A Methodological and Conceptual Review“. In: Bargh, John A. (Hrsg.) Social Psychology and the Unconscious: The Automaticity of Higher Mental Processes. 1 edition. New York: Psychology Press S. 265–292. Nuzzo, Regina (2017): „Der Fluch des p-Wertes“. In: Statistik - Zahlenspiel mit Mehrwert. (Spektrum Kompakt), S. 11–19. Ockeloen-Korppi, C. F.; Damskägg, E.; Pirkkalainen, J.-M.; u. a. (2018): „Stabilized entanglement of massive mechanical oscillators“. In: Nature. 556 (7702), S. 478–482, doi: 10.1038/s41586-0180038-x. Ohnishi, S. Tsuyoshi; Ohnishi, Tomoko; Nishino, Kozo; u. a. (2005): „Growth Inhibition of Cultured Human Liver Carcinoma Cells by Ki-energy (Life-energy): Scientific Evidence for Ki-effects on Cancer Cells“. In: Evidence-based Complementary and Alternative Medicine. 2 (3), S. 387– 393, doi: 10.1093/ecam/neh116. Okamoto, Ryo; Takeuchi, Shigeki (2016): „Experimental demonstration of a quantum shutter closing two slits simultaneously“. In: Scientific Reports. 6 , doi: 10.1038/srep35161. Olsen, Steven (2017): „Effects of ultra-high dilutions of sodium butyrate on viability and gene expression in HEK 293 cells“. In: Homeopathy: The Journal of the Faculty of Homeopathy. 106 (1), S. 32–36, doi: 10.1016/j.homp.2017.01.003. Olson, S. Jay; Ralph, Timothy C. (2012): „Extraction of timelike entanglement from the quantum vacuum“. In: Physical Review A. 85 (1), S. 012306, doi: 10.1103/PhysRevA.85.012306. Orme-Johnson, D.; Dillbeck, M. C.; Wallace, R. K.; u. a. (1982): „Intersubject EEG coherence: is consciousness a field?“. In: The International Journal of Neuroscience. 16 (3–4), S. 203–209. Ortega, Ana M.; García, M. Teresa; Santos, M. Valle (2017): „Effectuation-causation: what happens in new product development?“. In: Management Decision. 55 (8), S. 1717–1735, doi: 10.1108/ MD-03-2016-0160. Ostovari, Mohsen; Alipour, Abolfazl; Mehdizadeh, Alireza (2014): „Entanglement Between Bio-Photons and Tubulins in Brain: Implications for Memory Storage and Information Processing“. In: NeuroQuantology. 12 (3), doi: 10.14704/nq.2014.12.3.766. Oswald, A.; Köhler, J. (2013): „Schnelles und langsames Denken in Projekten, Teil 1. Zur Beherrschung von Unsicherheit in komplexen Projekten.“. In: (Projekt Management), 5 , S. 30–36.
Literatur
629
Otti, A.; Gündel, H.; Wohlschläger, A.; u. a. (2012): „„Default-mode“-Netzwerk des Gehirns“. In: Der Nervenarzt. 83 (1), S. 16–24, doi: 10.1007/s00115-011-3307-6. Pan, Jian-Wei; Chen, Zeng-Bing; Lu, Chao-Yang; u. a. (2012): „Multiphoton entanglement and interferometry“. In: Reviews of Modern Physics. 84 (2), S. 777–838, doi: 10.1103/RevModPhys.84. 777. Pan, Jian-Wei; Daniell, Matthew; Gasparoni, Sara; u. a. (2001): „Experimental Four-photon Entanglement and High-fidelity Teleportation“. In: Physical Review Letters. 86 (20), S. 4435–4438, doi: 10.1103/PhysRevLett.86.4435. Panitchayangkoon, Gitt; Hayes, Dugan; Fransted, Kelly A.; u. a. (2010): „Long-lived quantum coherence in photosynthetic complexes at physiological temperature“. In: Proceedings of the National Academy of Sciences of the United States of America. 107 (29), S. 12766–12770, doi: 10.1073/pnas.1005484107. Panksepp, Jaak (2011): „The basic emotional circuits of mammalian brains: Do animals have affective lives?“. In: Neuroscience & Biobehavioral Reviews. (Pioneering Research in Affective Neuroscience: Celebrating the Work of Dr. Jaak Panksepp), 35 (9), S. 1791–1804, doi: 10.1016/j.neubiorev.2011.08.003. Paoli, M.; Münch, D.; Haase, A.; u. a. (2017): „Minute Impurities Contribute Significantly to Olfactory Receptor Ligand Studies: tales from Testing the Vibration Theory.“. In: eNeuro. S. ENEURO.0070-17.2017, doi: 10.1523/ENEURO.0070-17.2017. Paoli, Marco; Anesi, Andrea; Antolini, Renzo; u. a. (2016): „Differential Odour Coding of Isotopomers in the Honeybee Brain“. In: Scientific Reports. 6 , S. srep21893, doi: 10.1038/srep21893. Passeti, Tânia Aguiar; Bissoli, Leandro Ribeiro; Macedo, Ana Paula; u. a. (2017): „Action of antibiotic oxacillin on in vitro growth of methicillin-resistant Staphylococcus aureus (MRSA) previously treated with homeopathic medicines“. In: Homeopathy: The Journal of the Faculty of Homeopathy. 106 (1), S. 27–31, doi: 10.1016/j.homp.2016.10.002. Passon, Oliver (2010): Bohmsche Mechanik: Eine elementare Einführung in die deterministische Interpretation der Quantenmechanik. 2. Aufl. Europa-Lehrmittel. Patil, Y. S.; Chakram, S.; Vengalattore, M. (2015): „Measurement-Induced Localization of an Ultracold Lattice Gas“. In: Physical Review Letters. 115 (14), S. 140402, doi: 10.1103/PhysRevLett. 115.140402. Pearson, Karl F.R.S (1900): „X. On the criterion that a given system of deviations from the probable in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen from random sampling“. In: Philosophical Magazine. 50 (302), S. 157–175, doi: 10.1080/14786440009463897. Peat, F. D. (1992): Synchronizität. Die verborgene Ordnung. Bern: O. W. Barth. Peirce, Charles Sanders; Hartshorne, Charles; Weiss, Paul; Burks, Arthur W. (Hrsg.) (1998): Collected Papers of Charles Sanders Peirce. New edition. Bristol, England: Thoemmes Continuum. di Pellegrino, G.; Fadiga, L.; Fogassi, L.; u. a. (1992): „Understanding motor events: a neurophysiological study“. In: Experimental Brain Research. 91 (1), S. 176–180. Peña, Luis de la; Cetto, Ana María; Hernández, Andrea Valdés (2015): „The Zero-Point Field Waves (and) Matter“. In: The Emerging Quantum. Springer, Cham S. 309–330, doi: 10.1007/978-3319-07893-9_9. Penrose, Roger (2009): Computerdenken: die Debatte um künstliche Intelligenz, Bewußtsein und die Gesetze der Physik. Softcover reprint of the original 1st ed. 1991. Spektrum Akademischer Verlag. Penrose, Roger (2010): Der Weg zur Wirklichkeit: Die Teilübersetzung für Seiteneinsteiger. 2010. Aufl. Heidelberg: Spektrum Akademischer Verlag.
630
Literatur
Penrose, Roger (1995): Schatten des Geistes: Wege zu einer neuen Physik des Bewußtseins. Heidelberg: Spektrum Verlag. Peres, Asher (2000): „Delayed choice for entanglement swapping“. In: Journal of Modern Optics. 47 (2–3), S. 139–143, doi: 10.1080/09500340008244032. Persike, Malte (2017): „Auf diese Zahlen kommt es an“. In: Statistik - Zahlenspiel mit Mehrwert. (Spektrum Kompakt), S. 20–23. Persinger, Michael A.; Tsang, Eric W; Booth, J Nicholas; u. a. (2007): „Enhanced Power within a Predicted Narrow Band of Theta Activity During Stimulation of Another by Circumcerebral Weak Magnetic Fields After Weekly Spatial Proximity: Evidence for Macroscopic Quantum Entanglement?“. In: NeuroQuantology. 6 (1), doi: 10.14704/nq.2008.6.1.151. Peruzzo, Alberto; Shadbolt, Peter; Brunner, Nicolas; u. a. (2012): „A Quantum Delayed-Choice Experiment“. In: Science. 338 (6107), S. 634–637, doi: 10.1126/science.1226719. Pessiglione, Mathias; Petrovic, Predrag; Daunizeau, Jean; u. a. (2008): „Subliminal Instrumental Conditioning Demonstrated in the Human Brain“. In: Neuron. 59 (4), S. 561–567, doi: 10.1016/ j.neuron.2008.07.005. Pfaff, W.; Hensen, B. J.; Bernien, H.; u. a. (2014): „Unconditional quantum teleportation between distant solid-state quantum bits“. In: Science. 345 (6196), S. 532–535, doi: 10.1126/science.1253512. Pfister, Hans-Rüdiger; Jungermann, Helmut; Fischer, Katrin (2016): Die Psychologie der Entscheidung: Eine Einführung. 4. Aufl. Berlin Heidelberg: Springer. Pfungst, Oskar; Stumpf, Karl (1907): Das Pferd des Herrn von Osten: Der kluge Hans. Ein Beitrag zur experimentellen Tier- und ... J. A. Barth. Phillips, D. F.; Fleischhauer, A.; Mair, A.; u. a. (2001): „Storage of Light in Atomic Vapor“. In: Physical Review Letters. 86 (5), S. 783–786, doi: 10.1103/PhysRevLett.86.783. Pirandola, S.; Eisert, J.; Weedbrook, C.; u. a. (2015): „Advances in quantum teleportation“. In: Nature Photonics. 9 (10), S. 641–652, doi: 10.1038/nphoton.2015.154. Pizzi, Rita; Fantasia, Andrea; Gelain, Fabrizio; u. a. (2004): „Nonlocal correlations between separated neural networks“. In: Donkor, Eric; Pirich, Andrew R.; Brandt, Howard E. (Hrsg.) S. 107–117, doi: 10.1117/12.540785. Pizzi, Rita; Rossetti, Danilo; Cino, G.; u. a. (2009): „Evidence of neuron sensitivity to ultraweak electromagnetic fields“. In: Viterbo, Italy. Planck, Max (1944): „Das Wesen der Materie (The Nature of Matter), speech at Florence, Italy, Archiv zur Geschichte der Max‑Planck‑Gesellschaft, Abt. Va, Rep. 11 Planck, Nr. 1797“. Florenz. Polley, Lutz (1997): „Quantenmechanik: Eine Einführung auf der Grundlage von Energie und Überlagerungsprinzip“. Uni Oldenburg. Pollmann, Maike (2013): „Welt der Physik: Mit Quantenkontrolle zum Nobelpreis“. Abgerufen am 11.04.2017 von http://www.weltderphysik.de/gebiet/technik/quanten-technik/quantenkontrolle Polster, Erving (2001): Gestalttherapie. Wuppertal: Peter Hammer Verlag GmbH. Popp, F. A.; Nagl, W.; Li, K. H.; u. a. (1984): „Biophoton emission. New evidence for coherence and DNA as source“. In: Cell Biophysics. 6 (1), S. 33–52, doi: 10.1007/BF02788579. Popper, Karl R. (1959): „The Propensity Interpretation of Probability“. In: The British Journal for the Philosophy of Science. 10 (37), S. 25–42. Porter, Michael E. (1999): Wettbewerb und Strategie. München: Econ. Pössel, Markus (2010): „Auf den Spuren von Roger Penrose durch die moderne Physik“. In: Penrose, Roger (Hrsg.) Der Weg zur Wirklichkeit: Die Teilübersetzung für Seiteneinsteiger. 2010. Aufl. Spektrum Akademischer Verlag.
Literatur
631
Prasad, Ankush; Rossi, Claudio; Lamponi, Stefania; u. a. (2014): „New perspective in cell communication: potential role of ultra-weak photon emission“. In: Journal of Photochemistry and Photobiology. B, Biology. 139 , S. 47–53, doi: 10.1016/j.jphotobiol.2014.03.004. Preskill, John (2015): „Quantum Information: Chapter 3. Foundations II: Measurement and Evolution.pdf“. Institute for Quantum Information and Matter California Institute of Technology. Preskill, John (2016): „Quantum Information: Chapter 10. Quantum Shannon Theory“. Institute for Quantum Information and Matter California Institute of Technology. Pribram, Karl (2007): „Holonomic brain theory“. In: Scholarpedia. 2 (5), S. 2735, doi: 10.4249/scholarpedia.2735. Pribram, Karl H. (1991): Brain and Perception: Holonomy and Structure in Figural Processing. Hillsdale, N.J: Lawrence Erlbaum Assoc Inc. Pribram, Karl H. (2014): Rethinking Neural Networks: Quantum Fields and Biological Data. Psychology Press. Price, Huw (2012): „Does time-symmetry imply retrocausality? How the quantum world says “Maybe”?“. In: Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics. 43 (2), S. 75–83, doi: 10.1016/j.shpsb.2011.12.003. Price, Huw (2008): „Toy models for retrocausality“. In: Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics. 39 (4), S. 752–761, doi: 10.1016/ j.shpsb.2008.05.006. Prigogine, Ilya; Stengers, Isabelle (1993): Das Paradox der Zeit. Zeit, Chaos und Quanten. Ausgabe 1993. München; Zürich: Piper. Pullin, Jorge (2017): Loop Quantum Gravity: The First 30 Years: The First 30 Years. New Jersey: 100 Years of General Relativity. Pust, Joel; Zalta, Edward N. (Hrsg.) (2016): „Intuition“. The Stanford Encyclopedia of Philosophy. Spring 2016 Edition, URL=. Qian, Xiao-Feng; Eberly, J. H. (2011): „Entanglement and classical polarization states“. In: Optics Letters. 36 (20), S. 4110, doi: 10.1364/OL.36.004110. Radin, Dean (2006): Entangled Minds: Extrasensory Experiences in a Quantum Reality. New York: Paraview Pocket Books. Radin, Dean (1997): „Unconscious Perception of Future Emotions: An Experiment in Presentiment“. In: Journal of Scientific Exploration. 11 (2), S. 163–180. Radin, Dean I. (2004): „Event-related electroencephalographic correlations between isolated human subjects“. In: Journal of Alternative and Complementary Medicine (New York, N.Y.). 10 (2), S. 315–323, doi: 10.1089/107555304323062301. Rahnama, Majid; Tuszynski, Jack A.; Bókkon, István; u. a. (2011): „Emission of mitochondrial biophotons and their effect on electrical activity of membrane via microtubules“. In: Journal of Integrative Neuroscience. 10 (1), S. 65–88, doi: 10.1142/S0219635211002622. Raich, Karin (2009): „Nachhaltigkeitsfördernde Faktoren bei Systemischen Aufstellungsverfahren - ExpertInnen- und KlientInnensicht insbesondere am Beispiel von klassischen Systemaufstellungen und Dialogisch-Systemischer Aufstellungsarbeit.“. Universität Innsbruck. Raichle, Marcus E. (2015): „The brain’s default mode network“. In: Annual Review of Neuroscience. 38 , S. 433–447, doi: 10.1146/annurev-neuro-071013-014030. Raichle, Marcus E. (2011): „The Restless Brain“. In: Brain Connectivity. 1 (1), S. 3–12, doi: 10.1089/ brain.2011.0019. Rao, Rajesh P. N.; Stocco, Andrea (2014): „When Two Brains Connect“. In: Scientific American Mind. 25 (6), S. 36–39, doi: 10.1038/scientificamericanmind1114-36.
632
Literatur
Rao, Rajesh P. N.; Stocco, Andrea; Bryan, Matthew; u. a. (2014): „A Direct Brain-to-Brain Interface in Humans“. In: PLOS ONE. 9 (11), S. e111332, doi: 10.1371/journal.pone.0111332. Rauterberg, Matthias (2010): „Emotions: The Voice of the Unconscious“. In: Entertainment Computing - ICEC 2010. Springer, Berlin, Heidelberg S. 205–215, doi: 10.1007/978-3-642-15399-0_19. Ray, Supratim; Maunsell, John H. R. (2015): „Do gamma oscillations play a role in cerebral cortex?“. In: Trends in Cognitive Sciences. 19 (2), S. 78–85, doi: 10.1016/j.tics.2014.12.002. Read, Stuart; Dew, Nicholas; Sarasvathy, Saras D; u. a. (2009): „Marketing Under Uncertainty: The Logic of an Effectual Approach“. In: Journal of Marketing. 73 (3), S. 1–18, doi: 10.1509/ jmkg.73.3.1. Reber, Arthur S. (1996): Implicit Learning and Tacit Knowledge: An Essay on the Cognitive Unconscious. 1St Edition edition. New York: Oxford University Press. Reber, Arthur S (1989): „lmplicit Learning and Tacit Knowledge“. In: Journal of Experimental Psychology: General®. (3), 118 (3), S. 219–235. Reichertz, Jo (2013): Die Abduktion in der qualitativen Sozialforschung: Über die Entdeckung des Neuen. 2. Aufl. Wiesbaden: Springer VS. Reichertz, Jo (1999): „Gültige Entdeckung des Neuen? : zur Bedeutung der Abduktion in der qualitativen Sozialforschung“. In: Österreichische Zeitschrift für Soziologie. 24 (4), S. 47–64. Reineker, Peter; Schulz, Michael; Schulz, Beatrix Mercedes (2007): Theoretische Physik III: Quantenmechanik 1. Weinheim: Wiley-VCH Verlag GmbH & Co. KGaA. Reinhard, Marc-André; Greifeneder, Rainer; Scharmach, Martin (2013): „Unconscious processes improve lie detection“. In: Journal of Personality and Social Psychology. 105 (5), S. 721–739, doi: 10.1037/a0034352. Ren, Ji-Gang; Xu, Ping; Yong, Hai-Lin; u. a. (2017): „Ground-to-satellite quantum teleportation“. In: Nature. doi: 10.1038/nature23675. Reumschüssel, Anja (2018): „Vererbtes Schicksal“. In: National Geographic. S. 42–61. Rew, Lynn (2000): „Acknowledging Intuition in Clinical Decision Making“. In: Journal of Holistic Nursing. 18 (2), S. 94–108, doi: 10.1177/089801010001800202. Reymen, Isabelle; Berends, Hans; Oudehand, Rob; u. a. (2017): „Decision making for business model development: a process study of effectuation and causation in new technology‐based ventures“. In: R&D Management. 47 (4), S. 595–606, doi: 10.1111/radm.12249. Reyna, Valerie F. (2012): „A new intuitionism: Meaning, memory, and development in Fuzzy-Trace Theory“. In: Judgment and decision making. 7 (3), S. 332–359. Reyna, Valerie F.; Wilhelms, Evan A.; McCormick, Michael J.; u. a. (2015): „Development of Risky Decision Making: Fuzzy-Trace Theory and Neurobiological Perspectives“. In: Child development perspectives. 9 (2), S. 122, doi: 10.1111/cdep.12117. Ribary, Urs (2005): „Dynamics of thalamo-cortical network oscillations and human perception“. In: Laureys, Steven (Hrsg.) Progress in Brain Research. Elsevier (The Boundaries of Consciousness: Neurobiology and Neuropathology), S. 127–142. Ric, François; Muller, Dominique (2012): „Unconscious addition: when we unconsciously initiate and follow arithmetic rules“. In: Journal of Experimental Psychology. General. 141 (2), S. 222– 226, doi: 10.1037/a0024608. Riedinger, Ralf; Wallucks, Andreas; Marinković, Igor; u. a. (2018): „Remote quantum entanglement between two micromechanical oscillators“. In: Nature. 556 (7702), S. 473–477, doi: 10.1038/ s41586-018-0036-z. Rieper, Elisabeth (2011): „Quantum Coherence in Biological Systems“. Singapore: National University of Singapore.
Literatur
633
Ringsmuth, A. K.; Milburn, G. J.; Stace, T. M. (2012): „Multiscale photosynthetic and biomimetic excitation energy transfer“. In: Nature Physics. 8 (7), S. 562–567, doi: 10.1038/nphys2332. Ritz, Thorsten; Adem, Salih; Schulten, Klaus (2000): „A Model for Photoreceptor-Based Magnetoreception in Birds“. In: Biophysical Journal. 78 (2), S. 707–718, doi: 10.1016/S0006-3495 (00)76629-X. Rizzolatti, G.; Fadiga, L.; Fogassi, L.; u. a. (1999): „Resonance Behaviors and Mirror Neurons.“. In: Archives Italiennes de Biologie. 137 (2), S. 85–100, doi: 10.4449/aib.v137i2.575. Rizzolatti, G.; Fadiga, L.; Gallese, V.; u. a. (1996): „Premotor cortex and the recognition of motor actions“. In: Brain Research. Cognitive Brain Research. 3 (2), S. 131–141. Rohrlich, Daniel (2009): „Aharonov-Casher Effect“. In: Greenberger, Daniel; Hentschel, Klaus; Weinert, Friedel (Hrsg.) Compendium of Quantum Physics. Springer Berlin Heidelberg S. 3–6, doi: 10.1007/978-3-540-70626-7_2. Rong, Xing; Geng, Jianpei; Shi, Fazhan; u. a. (2015): „Experimental fault-tolerant universal quantum gates with solid-state spins under ambient conditions“. In: Nature Communications. 6 , S. ncomms9748, doi: 10.1038/ncomms9748. Rosenfeld, Wenjamin; Burchardt, Daniel; Garthoff, Robert; u. a. (2017): „Event-Ready Bell Test Using Entangled Atoms Simultaneously Closing Detection and Locality Loopholes“. In: Physical Review Letters. 119 (1), S. 010402, doi: 10.1103/PhysRevLett.119.010402. Rösler, Peter (2016): Grundlagen des Schnell-Lesens. 1. Aufl. exclam! Verlag. Rosselet, Claude; Senoner, Georg; Lingg, Henriette K. (2007): Management Constellations: Mit Systemaufstellungen Komplexität managen. 1. Aufl. Stuttgart: Klett-Cotta. Roth, Gerhard (2007): „Verstand oder Gefühle – wie das Gehirn unser Verhalten steuert“. In: index. 4 , S. 46–55. Rothman, Josh (2011): „Occam’s Razor: What Is It, Exactly?“. Boston.com. Abgerufen am 26.05.2017 von http://www.boston.com/bostonglobe/ideas/brainiac/2011/05/occams_razor_wh.html. Rovelli, Carlo (2011): „Loop quantum gravity: the first 25 years“. In: Classical and Quantum Gravity. 28 (15), S. 153002, doi: 10.1088/0264-9381/28/15/153002. Rowland, Deborah (2017): Still Moving: How to Lead Mindful Change. Chichester, West Sussex, UK: Wiley-Blackwell. Rozema, Lee A.; Darabi, Ardavan; Mahler, Dylan H.; u. a. (2012): „Violation of Heisenberg’s Measurement-Disturbance Relationship by Weak Measurements“. In: Physical Review Letters. 109 (10), S. 100404, doi: 10.1103/PhysRevLett.109.100404. Rusov, V. D.; Lukin, K. A.; Zelentsova, T. N.; u. a. (2012): „Can Resonant Oscillations of the Earth Ionosphere Influence the Human Brain Biorhythm?“. In: arXiv:1208.4970 [physics, q-bio]. Rüßmann, Helmut (1990): „Das Theorem von Bayes und die Theorie des Indizienbeweises“. In: Zeitschrift für Zivilprozeß. (103), S. 62–76. Sabín, Carlos; Peropadre, Borja; del Rey, Marco; u. a. (2012): „Extracting Past-Future Vacuum Correlations Using Circuit QED“. In: Physical Review Letters. 109 (3), S. 033602, doi: 10.1103/PhysRevLett.109.033602. Sachs-Schaffer, Brigitte (2010): „Infosyon: Einsatzbereiche“. Abgerufen am 27.01.2017 von http://infosyon.com/systemaufstellungen/einsatzbereiche/. Sahm, Marco; von Weizsäcker, Robert K. (2016): „Reason, Intuition, and Time“. In: Managerial and Decision Economics. 37 (3), S. 195–207, doi: 10.1002/mde.2711. Sahu, Satyajit; Ghosh, Subrata; Ghosh, Batu; u. a. (2013a): „Atomic water channel controlling remarkable properties of a single brain microtubule: correlating single protein to its supramolecular assembly“. In: Biosensors & Bioelectronics. 47 , S. 141–148, doi: 10.1016/j.bios.2013.02.050.
634
Literatur
Sahu, Satyajit; Ghosh, Subrata; Hirata, Kazuto; u. a. (2013b): „Multi-level memory-switching properties of a single brain microtubule“. In: Applied Physics Letters. 102 (12), S. 123701, doi: 10.1063/ 1.4793995. Salone, Anatolia; Di Giacinto, Alessandra; Lai, Carlo; u. a. (2016): „The Interface between Neuroscience and Neuro-Psychoanalysis: Focus on Brain Connectivity“. In: Frontiers in Human Neuroscience. 10 , doi: 10.3389/fnhum.2016.00020. Sanefuji, Wakako; Hashiya, Kazuhide; Itakura, Shoji; u. a. (2004): „Emergence of the Unterstanding of the Other’s Intention: Re-Enactment of Intended Acsts from ‘Failed-Attempts’ in 12- to 24Month Olds“. In: PSYCHOLOGIA -An International Journal of Psychology in the Orient. 47 (1), S. 10–17, doi: 10.2117/psysoc.2004.10. Sarasvathy, Saras D. (2001): „Causation and Effectuation: Toward a Theoretical Shift from Economic Inevitability to Entrepreneurial Contingency“. In: The Academy of Management Review. 26 (2), S. 243–263, doi: 10.2307/259121. Sarovar, Mohan; Ishizaki, Akihito; Fleming, Graham R.; u. a. (2010): „Quantum entanglement in photosynthetic light-harvesting complexes“. In: Nature Physics. 6 (6), S. 462–467, doi: 10.1038/ nphys1652. Schäfer, Andreas (2006): „Quantenfeldtheorie – was ist das?“. Welt der Physik. Abgerufen am 28.05. 2017 von http://www.weltderphysik.de/gebiet/theorie/quanteneffekte/quantenfeldtheorie Schandry, Rainer (2011): Biologische Psychologie: Mit Online-Materialien. 3. Aufl. Weinheim, Bergstr: Beltz. Scharmer, C. Otto (2014): Theorie U: Von der Zukunft her führen: Presencing als soziale Technik. 4. Aufl. Heidelberg: Carl-Auer Verlag GmbH. Scheele, Paul R. (2004): PhotoReading. Die neue Hochgeschwindigkeits-Lesemethode in der Praxis. 5. Paderborn: Junfermann. Schein, Edgar H.; Fatzer, Gerhard (Hrsg.) (2006): Organisationskultur. „The Ed Schein Corporate Culture Survival Guide“. 2. Aufl. Bergisch Gladbach: EHP - Edition Humanistische Psychologie. Schempp, Walter (1998): „Quantum Holography and Magnetic Resonance Tomography: An Ensemble Quantum Computing Approach“. In: Taiwanese Journal of Mathematics. 2 (3), S. 257–286, doi: 10.11650/tjm.2.1998.1356. Schempp, Walter (1992): „Quantum holography and neurocomputer architectures“. In: Journal of Mathematical Imaging and Vision. 2 (4), S. 279–326, doi: 10.1007/BF00121876. Schick, Axel; Hobson, Peter R.; Ibisch, Pierre L. (2017): „Conservation and sustainable development in a VUCA world: the need for a systemic and ecosystem-based approach“. In: Ecosystem Health and Sustainability. 3 (4), S. e01267, doi: 10.1002/ehs2.1267. Schiebler, Theodor H.; Korf, Horst-W. (2007): Anatomie: Histologie, Entwicklungsgeschichte, makroskopische und mikroskopische Anatomie, Topographie. 10., vollst. überarb. Aufl. 2007. Darmstadt: Steinkopff. Schlötter, Peter (2018): The Social Nature of Man – falsifiable / Die soziale Natur des Menschen – falsifizierbar: Empirical Study on the Global Meaning of Spatial Positioning ... zueinander. 1. Aufl. Carl-Auer Verlag GmbH. Schlötter, Peter; Simon, Fritz B. (2005): Vertraute Sprache und ihre Entdeckung: Systemaufstellungen sind keine Zufallsprodukte - der empirische Nachweis. 2., Aufl. Heidelberg: Carl Auer Verlag. Schmid, Bernd (2010): „Aus dem Bauch heraus: Intuition im professionellen Umfeld“. Wirtschaftsmagazin perspektive: blau. S. 5. Schmid, Bernd (1988): „Gegen die Macht der Gewohnheit: Systemische und wirklichkeitskonstruktive Ansätze in Therapie, Beratung und Training“. In: Transaktions-Analyse. 2–3 , S. 68–91.
Literatur
635
Schmid, Bernd; Hipp, J.; Caspari, S. (1999): „Intuition in der professionellen Begegnung“. In: Zeitschrift für systemische Therapie. 3 . Schmid, Gary Bruno (2015): KLICK!: Warum wir plötzlich etwas wissen, das wir eigentlich nicht wissen können. Zürich: Orell Füssli. Schmid, Gary Bruno (2005): „Much Ado about Entanglement: A Novel Approach to Test Nonlocal Communication via Violation of ‘Local Realism“. In: Forschende Komplementärmedizin Klassische Naturheilkunded. 12 , S. 214–2222, doi: 10.1159/000085849. Schmidt, Janina; Dunger, Christine; Schulz, Christian (2014): „Was ist „Grounded Theory“?“. In: Schnell, Martin W.; Schulz, Christian; Heller, Andreas; u. a. (Hrsg.) Palliative Care und Hospiz: Eine Grounded Theory. 2015. Aufl. Springer VS S. 35–59. Schmidt, P. O.; Rosenband, T.; Langer, C.; u. a. (2005): „Spectroscopy using quantum logic“. In: Science (New York, N.Y.). 309 (5735), S. 749–752, doi: 10.1126/science.1114375. Schmidt, Stefan; Jo, Han-Gue; Wittmann, Marc; u. a. (2016): „Catching the waves - slow cortical potentials as moderator of voluntary action“. In: Neuroscience and Biobehavioral Reviews. 68 , S. 639–650, doi: 10.1016/j.neubiorev.2016.06.023. Schmitz, Hermann (2009): Kurze Einführung in die Neue Phänomenologie. 4. Aufl. Freiburg, Br; München: Verlag Karl Alber. Schnell, Martin W. (2014): „Die Grounded Theory im Licht der Wissenschaftstheorie“. In: Schnell, Martin W.; Schulz, Christian; Heller, Andreas; u. a. (Hrsg.) Palliative Care und Hospiz: Eine Grounded Theory. 2015. Aufl. Springer VS S. 11–34. Schnell, Martin W.; Schulz, Christian; Heller, Andreas; u. a. (2014): Palliative Care und Hospiz: Eine Grounded Theory. 2015. Aufl. Springer VS. Scholkmann, Felix; Fels, Daniel; Cifra, Michal (2013): „Non-chemical and non-contact cell-to-cell communication: a short review“. In: American Journal of Translational Research. 5 (6), S. 586– 593. Scholtz, Alexia (2015): Das Potenzial der Fleischwirtschaft für Nachhaltigkeit: Eine Beziehungsanalyse mithilfe von Systemaufstellungen. Berlin Münster: Lit Verlag. Schreyögg, Georg (2008): Organisation: Grundlagen moderner Organisationsgestaltung. Mit Fallstudien. 5. Aufl. Wiesbaden: Gabler Verlag. Schrödinger, E. (1935a): „Discussion of Probability Relations between Separated Systems“. In: Mathematical Proceedings of the Cambridge Philosophical Society. 31 (04), S. 555–563, doi: 10.1017/S0305004100013554. Schrödinger, Erwin (1935b): „Die gegenwärtige Sitation in der Quantenphysik I“. In: Die Naturwissenschaften. 23 (48), S. 807–812. Schrödinger, Erwin (1935c): „Die gegenwärtige Sitation in der Quantenphysik II“. In: Naturwissenschaften. 23 (49), S. 823–828. Schulte-Rüther, Martin; Otte, Ellen; Adigüzel, Kübra; u. a. (2017): „Intact mirror mechanisms for automatic facial emotions in children and adolescents with autism spectrum disorder“. In: Autism Research: Official Journal of the International Society for Autism Research. 10 (2), S. 298–310, doi: 10.1002/aur.1654. Schumpeter, Joseph A. (2005): Kapitalismus, Sozialismus und Demokratie. 8. Tübingen und Basel: UTB, Stuttgart. Schumpeter, Joseph A. (1947): „The Creative Response in Economic History“. In: The Journal of Economic History. 7 (2), S. 149–159. Schurz, Gerhard (2007): „Wissenschaftliche Erklärung“. In: Bartels, Andreas; Stöckler, Manfred (Hrsg.) Wissenschaftstheorie: Ein Studienbuch. 2. Aufl. Paderborn: mentis S. 69–88.
636
Literatur
Schwabl, Franz (2004): Quantenmechanik. 6. Aufl. 2005. Korr. Nachdruck. Berlin: Springer. Schwartz, Jeffrey M; Stapp, Henry P; Beauregard, Mario (2005): „Quantum physics in neuroscience and psychology: a neurophysical model of mind–brain interaction“. In: Philosophical Transactions of the Royal Society B: Biological Sciences. 360 (1458), S. 1309–1327, doi: 10.1098/rstb. 2004.1598. Schweitzer, Frank (1997): „Selbstorganisation und Information“. In: Krapp, H.; Wägenbauer, T. (Hrsg.) Komplexität und Selbstorganisation - “Chaos” in Natur- und Kulturwissenschaften. München: Wilhelm Fink S. 99–129. Sclafani, Michele; Juffmann, Thomas; Knobloch, Christian; u. a. (2013): „Quantum coherent propagation of complex molecules through the frustule of the alga Amphipleura pellucida“. In: New Journal of Physics. 15 (8), S. 083004, doi: 10.1088/1367-2630/15/8/083004. Senge, Peter M. (2008): Die fünfte Disziplin: Kunst und Praxis der lernenden Organisation. 10. Aufl. Stuttgart: Klett-Cotta. Sezer, Uĝur; Schmid, Philipp; Felix, Lukas; u. a. (2015): „Stability of high-mass molecular libraries: the role of the oligoporphyrin core“. In: Journal of Mass Spectrometry. 50 (1), S. 235–239, doi: 10.1002/jms.3526. Shannon, C. E. (1948): „A Mathematical Theory of Communication“. In: Bell System Technical Journal. 27 (3), S. 379–423, doi: 10.1002/j.1538-7305.1948.tb01338.x. Shannon, Claude E.; Weaver, Warren (1949): The Mathematical Theory of Communication. Urbana: Combined Academic Publ. Sheehan, Daniel P. (Hrsg.) (2017): Quantum Retrocausation III. 1. Aufl. San Diego: AIP Publishing. Sheldrake, Rupert (1999): Der siebte Sinn der Tiere. 4. Auflage. Bern; München; Wien: Fischer Scherz. Shepherd, Dean A.; Suddaby, Roy (2017): „Theory Building: A Review and Integration - Dean A. Shepherd, Roy Suddaby, 2017“. In: Journal of Management. 43 (1), S. 59–86. Siegel, Markus; Donner, Tobias H.; Engel, Andreas K. (2012): „Spectral fingerprints of large-scale neuronal interactions“. In: Nature Reviews Neuroscience. 13 (2), S. 121–134, doi: 10.1038/nrn 3137. Siegfried, Tom (2016): „Entanglement is spooky, but not action at a distance“. Science News. Abgerufen am 23.08.2016 von https://www.sciencenews.org/blog/context/entanglement-spooky-not-action-distance?mode=blog&context=117. Šikl, Radovan; Šimecček, Michal; Porubanová-Norquist, Michaela; u. a. (2013): „Vision after 53 years of blindness“. In: i-Perception. 4 (8), S. 498–507, doi: 10.1068/i0611. Silva, José; Miele, Philip (2004): Silva Mind Control: Die universelle Methode zur Steigerung der Kreativität und Leistungsfähigkeit des menschlichen Geistes. Berlin: Allegria Taschenbuch. Silva, Jose; Stone, Robert B. (2002): Die Silva Mind-Control Methode für Führungskräfte. München: Erd. Silverman, Lloyd H.; Geisler, Carol J. (1986): „The Subliminal Psychodynamic Activation Method: Comprehensive Listing Update, Individual Differences, and Other Considerations“. In: Hentschel, Uwe; Smith, Gudmund; Draguns, Juris G. (Hrsg.) Advances in Psychology. NorthHolland (The Roots of Perception), S. 49–74, doi: 10.1016/S0166-4115(08)62406-1. Simon, Fritz B. (2012): Meine Psychose, mein Fahrrad und ich: Zur Selbstorganisation der Verrücktheit. 13. Heidelberg: Carl-Auer Verlag GmbH. Simon, Fritz B. (1998): Radikale Marktwirtschaft. Verhalten als Ware oder Wer handelt, der handelt. Heidelberg: Carl-Auer-Systeme-Verlag. Simon, Herbert A. (1992): „What Is an „Explanation“ of Behavior?“. In: Psychological Science. 3 (3), S. 150–161.
Literatur
637
Singer, Tania (2006): „The neuronal basis and ontogeny of empathy and mind reading: review of literature and implications for future research“. In: Neuroscience and Biobehavioral Reviews. 30 (6), S. 855–863, doi: 10.1016/j.neubiorev.2006.06.011. Singer, Tania (2012): „The past, present and future of social neuroscience: A European perspective“. In: NeuroImage. (NEUROIMAGING: THEN, NOW AND THE FUTURENEUROIMAGING: THEN, NOW AND THE FUTURE), 61 (2), S. 437–449, doi: 10.1016/j.neuroimage.2012.01. 109. Sklar, Asael Y.; Levy, Nir; Goldstein, Ariel; u. a. (2012): „Reading and doing arithmetic nonconsciously“. In: Proceedings of the National Academy of Sciences of the United States of America. 109 (48), S. 19614–19619, doi: 10.1073/pnas.1211645109. Smith, Alec; Lohrenz, Terry; King, Justin; u. a. (2014): „Irrational exuberance and neural crash warning signals during endogenous experimental market bubbles“. In: Proceedings of the National Academy of Sciences. 111 (29), S. 10503–10508, doi: 10.1073/pnas.1318416111. Sokol-Hessner, Peter; Hartley, Catherine A.; Hamilton, Jeffrey R.; u. a. (2015): „Interoceptive ability predicts aversion to losses“. In: Cognition & Emotion. 29 (4), S. 695–701, doi: 10.1080/0269 9931.2014.925426. Soon, Chun Siong; Brass, Marcel; Heinze, Hans-Jochen; u. a. (2008): „Unconscious determinants of free decisions in the human brain“. In: Nature Neuroscience. 11 (5), S. 543–545, doi: 10.1038/ nn.2112. Sorel, Maria (2010): Mit der Silva Mind Methode zu mehr Gesundheit und Lebensglück. 1. Aufl. Steyr, Neubaustr. 26: Haller, Ursula. Sparrer, Insa (2002): Wunder, Lösung und System. Lösungsfokussierte Systemische Strukturaufstellungen für Therapie und Organisationsberatung. 1. A. Heidelberg: Carl Auer Verlag. Sparrer, Insa; Kibéd, Matthias Varga von (2001): Ganz im Gegenteil. Heidelberg: Carl-Auer-Systeme Verlag. Spillner, Vera (2009): „Vortragsbericht: Keine Grenze zwischen Quantenwelt und Makrokosmos“. Spektrum der Wissenschaften. Abgerufen am 26.07.2018 von https://www.spektrum.de/alias/ vortragsbericht/keine-grenze-zwischen-quantenwelt-und-makrokosmos/986836. Spitzer, Manfred (2002): Lernen: Gehirnforschung und die Schule des Lebens. Heidelberg: Spektrum Akademischer Verlag. Spreeuw, Robert J. C. (1998): „A Classical Analogy of Entanglement“. In: Foundations of Physics. 28 (3), S. 361–374, doi: 10.1023/A:1018703709245. Spreeuw, Robert J. C. (2001): „Classical wave-optics analogy of quantum information processing“. In: Physical Review A. 63 (6), doi: 10.1103/PhysRevA.63.062302. St. Augustin (354 n. Chr.): „Weise Sprüche über das Wissen – Online Wissensdatenbank“. Stapp, Henry P. (2001): „Quantum Theory and the Role of Mind in Nature“. In: Foundations of Physics. 31 (10), S. 1465–1499, doi: 10.1023/A:1012682413597. Steinberg, Aephraim (2016): „Shutting a new door on locality“. In: Physics Today. doi: 10.1063/PT.5. 9076. Steinlechner, Fabian; Ecker, Sebastian; Fink, Matthias; u. a. (2017): „Distribution of high-dimensional entanglement via an intra-city free-space link“. In: Nature Communications. 8 , S. ncomms 15971, doi: 10.1038/ncomms15971. Stewart, Ian; Joines, Vann (2000): Die Transaktionsanalyse. Eine Einführung. Freiburg im Breisgau: Herder, Freiburg. Stöckler, Manfred (2007): „Philosphische Probleme der Quantentheorie“. In: Bartels, Andreas; Stöckler, Manfred (Hrsg.) Wissenschaftstheorie: Ein Studienbuch. 2. Aufl. Paderborn: mentis S. 245– 263.
638
Literatur
Stollorz, Volker (2018): „Pseudo Journale – worum es sich handelt und wie die Wissenschaft gegensteuert“. Science Media Center Germany gGmbH. Storch, Maja (2015): Das Geheimnis kluger Entscheidungen: Überarbeitete und erweiterte Neuausgabe. 9. Aufl. München Berlin Zürch: Piper Taschenbuch. Storm, Lance; Tressoldi, Patrizio E.; Di Risio, Lorenzo (2012): „Meta-analysis of ESP studies, 19872010: Assessing the success of the forced-choice design in parapsychology“. In: Journal of Parapsychology. 76 (2), S. 243–273. Strahan, Erin J; Spencer, Steven J; Zanna, Mark P (2002): „Subliminal priming and persuasion: Striking while the iron is hot“. In: Journal of Experimental Social Psychology. 38 (6), S. 556–568, doi: 10.1016/S0022-1031(02)00502-4. Stratford, Trisha; Lal, Sara; Meara, Alan (2012): „Neuroanalysis of Therapeutic Alliance in the Symptomatically Anxious: The Physiological Connection Revealed between Therapist and Client“. In: American Journal of Psychotherapy. 66 (1), S. 1–21. Stratford, Trisha; Lal, Sara; Meara, Alan (2009): „Neurophysiology of Therapeutic Alliance“. In: Gestalt Journal of Australia and New Zealand. 5 (2), S. 19. Stratford, Trisha; Meara, Alan; Psychotherapy, M. Gestalt; u. a. (2014): „Heart rate variability and the anxious client: cardiac autonomic and behavioral associations with therapeutic alliance“. In: The Journal of Nervous and Mental Disease. 202 (8), S. 613–619, doi: 10.1097/NMD. 0000000000000163. Straubinger, P. A. (2010): Am Anfang war das Licht. Alive - Vertrieb und Marketing/DVD. Strauss, Anselm; Corbin, Juliet M. (2010): Grounded Theory: Grundlagen Qualitativer Sozialforschung. 1. Aufl. Weinheim: BeltzPVU. Street, Chris N. H.; Vadillo, Miguel A. (2016): „Can the Unconscious Boost Lie-Detection Accuracy?“. In: Current Directions in Psychological Science. 25 (4), S. 246–250, doi: 10.1177/0963 721416656348. Strübing, Jörg (2013): Qualitative Sozialforschung: Eine Einführung. München: De Gruyter Oldenbourg. Strunz, Walter T.; Alber, Gernot; Haake, Fritz (2002): „Dekohärenz in offenen Quantensystemen, Von den Grundlagen der Quantenmechanik zur Quantentechnologie“. In: 1 (11), S. 47–52. Stumm, Gerhard; Pritz, Alfred; Voracek, Martin; u. a. (2000): Wörterbuch der Psychotherapie. Wien ; New York: Springer. Sun, Qi-Chao; Mao, Ya-Li; Chen, Si-Jing; u. a. (2016): „Quantum teleportation with independent sources and prior entanglement distribution over a network“. In: Nature Photonics. 10 (10), S. 671–675, doi: 10.1038/nphoton.2016.179. Sun, Yan; Wang, Chao; Dai, Jiapei (2010): „Biophotons as neural communication signals demonstrated by in situ biophoton autography“. In: Photochemical & Photobiological Sciences: Official Journal of the European Photochemistry Association and the European Society for Photobiology. 9 (3), S. 315–322, doi: 10.1039/b9pp00125e. Susskind, Leonard (2016): „Copenhagen vs Everett, Teleportation, and ER=EPR“. In: Fortschritte der Physik. 64 (6–7), S. 551–564, doi: 10.1002/prop.201600036. Sweeney-Reed, Catherine M.; Zaehle, Tino; Voges, Jürgen; u. a. (2016): „Pre-stimulus thalamic theta power predicts human memory formation“. In: NeuroImage. doi: 10.1016/j.neuroimage.2016. 05.042. Sweeney-Reed, Catherine M.; Zaehle, Tino; Voges, Jürgen; u. a. (2015): „Thalamic theta phase alignment predicts human memory formation and anterior thalamic cross-frequency coupling“. In: eLife. 4 , S. e07578, doi: 10.7554/eLife.07578.
Literatur
639
Sweeny, Timothy D.; Grabowecky, Marcia; Suzuki, Satoru; u. a. (2009): „Long-lasting effects of subliminal affective priming from facial expressions“. In: Consciousness and Cognition. 18 (4), S. 929–938, doi: 10.1016/j.concog.2009.07.011. Systemische Gesellschaft (2004): „Potsdamer Erklärung der Systemischen Gesellschaft zur systemischen Aufstellungsarbeit“. Takeda, Shuntaro; Mizuta, Takahiro; Fuwa, Maria; u. a. (2013): „Deterministic quantum teleportation of photonic quantum bits by a hybrid technique“. In: Nature. 500 (7462), S. 315–318, doi: 10.1038/nature12366. Taleb, Nassim Nicholas (2010): The Black Swan: The Impact of the Highly Improbable. 2nd edition. New York: Random House Trade Paperbacks. Tang, Rendong; Dai, Jiapei (2014a): „Biophoton signal transmission and processing in the brain“. In: Journal of Photochemistry and Photobiology B: Biology. (Ultra-weak photon emission from living systems - from mechanism to application), 139 , S. 71–75, doi: 10.1016/j.jphotobiol.2013.12.008. Tang, Rendong; Dai, Jiapei (2014b): „Spatiotemporal Imaging of Glutamate-Induced Biophotonic Activities and Transmission in Neural Circuits“. In: PLOS ONE. 9 (1), S. e85643, doi: 10.1371/journal.pone.0085643. Targ, R.; Puthoff, H. (1974): „Information transmission under conditions of sensory shielding“. In: Nature. 251 (5476), S. 602–607. Täubner, Mischa (2018): „Kriminalität in Großstädten: Das Wunder von New York“. brand eins online. Abgerufen am 18.07.2018 von https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2018/sicherheit/kriminalitaet-in-grossstaedten-das-wunder-von-new-york. Tecklenburg, Steffi (2012): „Zur Rolle der Intuition beim Mathematischen Modellieren“. Kassel: Universität Kassel. Tegmark, Max (2007): „Shut up and calculate“. In: arXiv:0709.4024 [gr-qc, physics:hep-th, physics:math-ph, physics:physics]. Tegmark, Max (2000): „The importance of quantum decoherence in brain processes“. In: Physical Review E. 61 (4), S. 4194–4206, doi: 10.1103/PhysRevE.61.4194. Tegmark, Max (2008): „The Mathematical Universe“. In: Foundations of Physics. 38 (2), S. 101–150, doi: 10.1007/s10701-007-9186-9. Tegmark, Max; Wheeler, John Archibald (2001): „100 Jahre Quantentheorie“. In: Spektrum der Wissenschaft. (4), S. 68. Tejero, Ismael; González-García, Núria; González-Lafont, Àngels; u. a. (2007): „Tunneling in Green Tea: Understanding the Antioxidant Activity of Catechol-Containing Compounds. A Variational Transition-State Theory Study“. In: Journal of the American Chemical Society. 129 (18), S. 5846–5854, doi: 10.1021/ja063766t. The Royal Swedish Academy of Sciences (2013a): „Advanced Information: The BEH-Mechanism, Interactons with short range Forces and Scalar Prticles“. The Royal Swedish Academy of Sciences. Abgerufen am 26.08.2017 von http://www.nobelprize.org/nobel_prizes/physics/laureates/2013/ advanced-physicsprize2013.pdf. The Royal Swedish Academy of Sciences (2016a): „Advanced Information: Topological phase transitions and topological phases of matter“. Abgerufen am 24.08.2017 von http://www.nobelprize.org/nobel_prizes/physics/laureates/2016/advanced-physicsprize2016.pdf. The Royal Swedish Academy of Sciences (2013b): „Popular science background - The Nobel Prize in Physics 2013“. Abgerufen am 26.08.2017 von http://www.nobelprize.org/nobel_prizes/physics/laureates/2013/popular-physicsprize2013.pdf.
640
Literatur
The Royal Swedish Academy of Sciences (2016b): „Popular science background - The Nobel Prize in Physics 2016“. Abgerufen am 24.08.2017 von http://www.nobelprize.org/nobel_prizes/physics/laureates/2016/popular-physicsprize2016.pdf. Thieves, Karin; Gleiss, Andreas; Kratky, Karl Wilhelm; u. a. (2016): „First evidence of Beauvais’ hypothesis in a plant model“. In: Homeopathy. 105 (3), S. 270–279, doi: 10.1016/j.homp.2016. 05.002. Thorpe, S.; Delorme, A.; Van Rullen, R. (2001): „Spike-based strategies for rapid processing“. In: Neural Networks: The Official Journal of the International Neural Network Society. 14 (6–7), S. 715–725. Tillemans, Axel (2011): „Schutzschild für Quantencomputer“. In: (Bild der Wissenschaften online), (7), S. 64. Tillisch, Kirsten (2014): „The effects of gut microbiota on CNS function in humans“. In: Gut Microbes. 5 (3), S. 404–410, doi: 10.4161/gmic.29232. Timmermans, Stefan; Tavory, Iddo (2012): „Theory Construction in Qualitative Research: From Grounded Theory to Abductive Analysis“. In: Sociological Theory. 30 (3), S. 167–186, doi: 10.1177/0735275112457914. Todd, Andrew R.; Molden, Daniel C.; Ham, Jaap; u. a. (2011): „The automatic and co-occurring activation of multiple social inferences“. In: Journal of Experimental Social Psychology. 47 (1), S. 37–49, doi: 10.1016/j.jesp.2010.08.006. Tomkovič, Jiří; Schreiber, Michael; Welte, Joachim; u. a. (2014): „Single spontaneous photon as a coherent beamsplitter for an atomic matter-wave“. In: AIP Conference Proceedings. 1633 (1), S. 25–28, doi: 10.1063/1.4903084. Tonomura, A.; Endo, J.; Matsuda, T.; u. a. (1989): „Demonstration of single‐electron buildup of an interference pattern“. In: American Journal of Physics. 57 (2), S. 117–120, doi: 10.1119/1. 16104. Topham, Alexander T.; Taylor, Rachel E.; Yan, Dawei; u. a. (2017): „Temperature variability is integrated by a spatially embedded decision-making center to break dormancy in Arabidopsis seeds“. In: Proceedings of the National Academy of Sciences. S. 201704745, doi: 10.1073/pnas. 1704745114. Tressoldi, Patrizio (2015): „Anticipation of Random Future Events“. In: Nadin, Mihai (Hrsg.) Anticipation Across Disciplines. 1st ed. 2016. Springer. Tressoldi, Patrizio E.; Maier, Markus A.; Buechner, Vanessa L.; u. a. (2015a): „A macroscopic violation of no-signaling in time inequalities? How to test temporal entanglement with behavioral observables“. In: Frontiers in Psychology. 6 , doi: 10.3389/fpsyg.2015.01061. Tressoldi, Patrizio E.; Martinelli, Massimiliano; Torre, Jacopo; u. a. (2015b): CardioAlert: A Heart Rate Based Decision Support System for Improving Choices Related to Negative or Positive Future Events. (SSRN Scholarly Paper Nr. ID 2604206) Rochester, NY: Social Science Research Network. Tressoldi, Patrizio; Pederzoli, Luciano; Bilucaglia, Marco; u. a. (2014): „Brain-to-Brain (mind-to-mind) interaction at distance: a confirmatory study“. In: F1000Research. doi: 10.12688/f1000research. 4336.1. Tressoldi, Patrizio; Pederzoli, Luciano; Matteoli, Marzio; u. a. (2016): „Can Our Minds Emit Light at 7300 km Distance? A Pre-Registered Confirmatory Experiment of Mental Entanglement with a Photomultiplier“. In: NeuroQuantology. 14 (3), doi: 10.14704/nq.2016.14.3.906. Tribus, Myron; McIrvin, Edward C. (1971): „Energy and Information“. In: Scientific American. (225), S. 179–188.
Literatur
641
Trushin, M.V. (2003): „Do bacterial cultures spread messages by emission of electromagnetic radiations?“. In: Annals of Microbiology. 53 , S. 37–42. Turin, Luca (1996): „A Spectroscopic Mechanism for Primary Olfactory Reception“. In: Chemical Senses. 21 (6), S. 773–791, doi: 10.1093/chemse/21.6.773. Turin, Luca; Gane, Simon; Georganakis, Dimitris; u. a. (2015): „Plausibility of the vibrational theory of olfaction“. In: Proceedings of the National Academy of Sciences of the United States of America. 112 (25), S. E3154, doi: 10.1073/pnas.1508035112. Tversky, Amos; Kahneman, Daniel (1992): „Advances in prospect theory: Cumulative representation of uncertainty“. In: Journal of Risk and Uncertainty. 5 (4), S. 297–323, doi: 10.1007/BF0012 2574. Uhlhaas, Christoph (2008): „Wahrnehmung: Bemerkenswert unbemerkt“. In: (Gehirn & Geist), (11), S. 38–42. Universität Bern (2006): „Mikrowellen-Resonator, Laborkurs Moderne Physik, Institut für Angewandte Physik“. Ursin, Rupert; Jennewein, Thomas; Aspelmeyer, Markus; u. a. (2004): „Communications: Quantum teleportation across the Danube“. In: Nature. 430 (7002), S. 849–849, doi: 10.1038/430849a. Valentino, Eleonora Di; Mersini-Houghton, Laura (2017a): „Testing predictions of the quantum landscape multiverse 1: the Starobinsky inflationary potential“. In: Journal of Cosmology and Astroparticle Physics. 2017 (03), S. 002, doi: 10.1088/1475-7516/2017/03/002. Valentino, Eleonora Di; Mersini-Houghton, Laura (2017b): „Testing predictions of the quantum landscape multiverse 2: the exponential inflationary potential“. In: Journal of Cosmology and Astroparticle Physics. 2017 (03), S. 020, doi: 10.1088/1475-7516/2017/03/020. Valivarthi, Raju; Puigibert, Marcel li Grimau; Zhou, Qiang; u. a. (2016): „Quantum teleportation across a metropolitan fibre network“. In: Nature Photonics. 10 (10), S. 676–680, doi: 10.1038/nphoton.2016.180. Van Wijk, Roeland; Van Wijk, Eduard P. A.; van Wietmarschen, Herman A.; u. a. (2014): „Towards whole-body ultra-weak photon counting and imaging with a focus on human beings: A review“. In: Journal of Photochemistry and Photobiology B: Biology. (Ultra-weak photon emission from living systems - from mechanism to application), 139 , S. 39–46, doi: 10.1016/j.jphotobiol.2013. 11.014. Varela, Francisco J. (1998): „Autonomy and autopoiesis“. In: Roth, Gerhard; Schwegler, Helmut (Hrsg.) Self-organizing Systems. An Interdisciplinary Approach. Frankfurt ; New York: Campus Verlag GmbH. Vedral, Vlatko (2010): „Quantum physics: Hot entanglement“. In: Nature. 468 (7325), S. 769–770, doi: 10.1038/468769a. van der Velden, Anne Maj; Kuyken, Willem; Wattar, Ulla; u. a. (2015): „A systematic review of mechanisms of change in mindfulness-based cognitive therapy in the treatment of recurrent major depressive disorder“. In: Clinical Psychology Review. 37 , S. 26–39, doi: 10.1016/j.cpr.2015. 02.001. Verlinde, Erik P. (2017): „Emergent Gravity and the Dark Universe“. In: SciPost Physics. 2 (3), S. 41, doi: 10.21468/SciPostPhys.2.3.016. Verwijmeren, Thijs; Karremans, Johan C.; Stroebe, Wolfgang; u. a. (2011): „The workings and limits of subliminal advertising: The role of habits“. In: Journal of Consumer Psychology. 21 (2), S. 206–213, doi: 10.1016/j.jcps.2010.11.004. Vienna University of Technology (2017): „Diamonds coupled using quantum physics“. Abgerufen am 11.04.2017 von https://phys.org/news/2017-04-diamonds-coupled-quantum-physics.html.
642
Literatur
Villoresi, P.; Jennewein, T.; Tamburini, F.; u. a. (2008): „Experimental verification of the feasibility of a quantum channel between space and Earth“. In: New Journal of Physics. 10 (3), S. 033038, doi: 10.1088/1367-2630/10/3/033038. Vivanti, Giacomo; Rogers, Sally J. (2014): „Autism and the mirror neuron system: insights from learning and teaching“. In: Philosophical Transactions of the Royal Society B: Biological Sciences. 369 (1644), doi: 10.1098/rstb.2013.0184. Vogd, Werner (2014): Von der Physik zur Metaphysik: Eine soziologische Studie zum Deutungsproblem der Quantentheorie. Weilerswist: Velbrück. Vorstand der DGSF (2003): „Stellungnahme der DGSF zum Thema Familienaufstellungen — DGSF e. V.“. Abgerufen am 05.03.2017 von https://www.dgsf.org/themen/berufspolitik/hellinger.htm. de Vries, Marieke; Fagerlin, Angela; Witteman, Holly O.; u. a. (2013): „Combining deliberation and intuition in patient decision support“. In: Patient Education and Counseling. 91 (2), S. 154– 160, doi: 10.1016/j.pec.2012.11.016. de Vries, Marieke; Witteman, Cilia L. M.; Holland, Rob W.; u. a. (2010): „The Unconscious Thought Effect in Clinical Decision Making: An Example in Diagnosis“. In: Medical Decision Making. 30 (5), S. 578–581, doi: 10.1177/0272989X09360820. Wagenmakers, E-J (2014): „Bem is Back: A Skeptic’s Review of a Meta-Analysis on Psi“. Open Science Collaboration Blog. Wagenmakers, Eric-Jan; Wetzels, Ruud; Borsboom, Denny; u. a. (2011): „Why psychologists must change the way they analyze their data: the case of psi: comment on Bem (2011)“. In: Journal of Personality and Social Psychology. 100 (3), S. 426–432, doi: 10.1037/a0022790. Walach, H. (2003): „Entanglement model of homeopathy as an example of generalized entanglement predicted by weak quantum theory“. In: Forschende Komplementarmedizin Und Klassische Naturheilkunde = Research in Complementary and Natural Classical Medicine. 10 (4), S. 192– 200, doi: 10.1159/000073475. Walach, Harald; von Lucadou, Walter; Römer, Hartmann (2014): „Parapsychological Phenomena as Examples of Generalized Nonlocal Correlations—A Theoretical Framework“. In: Journal of Scientific Exploration. 28 (4), S. 605–631. Walach, Harald; Stillfried, Nikolaus von (2011): „Generalised Quantum Theory—Basic Idea and General Intuition: A Background Story and Overview“. In: Axiomathes. 21 (2), S. 185–209, doi: 10.1007/s10516-010-9145-5. Wang, Lu; Fried, Stephen D.; Boxer, Steven G.; u. a. (2014): „Quantum delocalization of protons in the hydrogen-bond network of an enzyme active site“. In: Proceedings of the National Academy of Sciences. 111 (52), S. 18454–18459, doi: 10.1073/pnas.1417923111. Wang, Zhi-Wei; Zhou, Xiang-Fa; Huang, Yun-Feng; u. a. (2006): „Experimental Entanglement Distillation of Two-qubit Mixed States Under Local filtering Operations“. In: Physical Review Letters. 96 (22), doi: 10.1103/PhysRevLett.96.220505. Warnke, Ulrich (1998): Gehirn-Magie: Der Zauber unserer Gefühlswelt. Saarbrücken: Popular Academic Verlags-Gesellschaft. Warnke, Ulrich (2011): Quantenphilosophie und Spiritualität - Der Schlüssel zu den Geheimnissen des menschlichen Seins. München: Scorpio Verlag. Watzlawick, Paul (1986): Die erfundene Wirklichkeit. Wie wissen wir, was wir zu wissen glauben. Beiträge zum Konstruktivismus. München: Piper. Watzlawick, Paul (2005): Wie wirklich ist die Wirklichkeit?: Wahn, Täuschung, Verstehen. München: Piper Taschenbuch.
Literatur
643
Waytz, Adam; Mitchell, Jason P. (2011): „Two Mechanisms for Simulating Other Minds: Dissociations Between Mirroring and Self-Projection“. In: Current Directions in Psychological Science. 20 (3), S. 197–200, doi: 10.1177/0963721411409007. Webb, P.; Annis, J. F.; Troutman, S. J. (1980): „Energy balance in man measured by direct and indirect calorimetry“. In: The American Journal of Clinical Nutrition. 33 (6), S. 1287–1298. Weber, Gunthard (2001): Praxis der Organisationsaufstellungen. Grundlagen, Prinzipien, Anwendungsbereiche. Heidelberg: Carl-Auer-Systeme Verlag. Weber, Gunthard; Rosselet, Claude (2016): Organisationsaufstellungen: Grundlagen, Settings, Anwendungsfelder. 1. Aufl. Heidelberg: Carl-Auer Verlag GmbH. Weber, Gunthard; Simon, Fritz B.; Schmidt, Gunther (2005): Aufstellungsarbeit revisited: ...nach Hellinger? Heidelberg: Carl Auer Verlag. Weick, Karl E.; Sutcliffe, Kathleen M. (2007): Das Unerwartete managen: Wie Unternehmen aus Extremsituationen lernen. 2. Aufl. Stuttgart: Schäffer Poeschel. Weinhold, Jan; Bornhäuser, Annette; Hunger, Christina; u. a. (2014): Dreierlei Wirksamkeit: Die Heidelberger Studie zu Systemaufstellungen. 1. Aufl. Carl Auer Verlag. Weissmann, A.; Reitemeier, S.; Hahn, A.; u. a. (2013): „Sexing domestic chicken before hatch: A new method for in ovo gender identification“. In: Theriogenology. 80 (3), S. 199–205, doi: 10.1016/j.theriogenology.2013.04.014. Weizsäcker, C. F. v (1961): „Die Einheit der Physik“. In: Bopp, Fritz (Hrsg.) Werner Heisenberg und die Physik unserer Zeit. Vieweg+Teubner Verlag S. 23–46, doi: 10.1007/978-3-663-05439-9_3. Weizsäcker, C. F. v.; Scheibe, E.; Süssmann, G. (1958): „Komplementarität und Logik. III. Mehrfache Quantelung“. In: Zeitschrift Naturforschung Teil A. 13 , S. 705–721, doi: 10.1515/zna-19580901. Weizsäcker, Carl Friedrich von (2002): Die Einheit der Natur: Studien. 8. A. München: Deutscher Taschenbuch Verlag. Weizsäcker, Ernst U. von; Weizsäcker, Christine von (1972): „Wiederaufnahme der begrifflichen Frage: Was ist Information“. In: Nova Acta Leopoldina, N.F. 37 (206), S. 535–555. Weizsäcker, Ernst von (1974): „Erstmaligkeit und Bestätigung als Komponenten der pragmatischen Information“. In: Weizsäcker, Ernst von (Hrsg.) Offene Systeme I . Beiträge zur Zeitstruktur von Information , Entropie und Evolution. Ort: Ernst Klett Verlag S. 83–113. Welge, Martin K.; Al-Laham, Andreas; Eulerich, Marc (2017): Strategisches Management: Grundlagen - Prozess - Implementierung. 7. Aufl. Wiesbaden: Springer Gabler. Weng, Stephen F.; Reps, Jenna; Kai, Joe; u. a. (2017): „Can machine-learning improve cardiovascular risk prediction using routine clinical data?“. In: PLOS ONE. 12 (4), S. e0174944, doi: 10.1371/journal.pone.0174944. Weseloh, Friedrich Christian (2004): „Strategisches Verhalten kleiner und mittlerer Unternehmen der deutschen Ernährungsindustrie“. (Dissertation) Kiel: Christian-Albrechts-Universität zu Kiel. Wesseler, Matthias; Boland, H.; Michaelis, Thorsten; u. a. (2003): Systemaufstellungen als innovatives Beratungsinstrument im ökologischen Landbau. (Schlussbericht Nr. 514–43.60/02OE602) Kassel: Institut für soziokulturelle Studien (ISOS), Universität Kassel Steinstr. 19, 37213 Witzenhausen. Wheeler, Brandon C. (2010): „Decrease in Alarm Call Response Among Tufted Capuchins in Competitive Feeding Contexts: Possible Evidence for Counterdeception“. In: International Journal of Primatology. 31 (4), S. 665–675, doi: 10.1007/s10764-010-9419-1. Whyte, Lancelot Law (1979): The Unconscious Before Freud. London : New York: Palgrave Macmillan.
644
Literatur
Wiener, Norbert (1961): Cybernetics or Control and Communication in the Animal and the Machine. 2nd ed. Cambridge, Mass: Mit University Press Group Ltd. Wiener, Norbert (1968): Kybernetik. Regelung und Nachrichtenübertragung in Lebewesen und Maschine. 2. Rowohlt. Wiener, Norbert (1948): „Time, Communication, and the Nervous System“. In: Annals of the New York Academy of Sciences. 50 (4), S. 197–220, doi: 10.1111/j.1749-6632.1948.tb39853.x. Wigner, E. P. (1995): „Remarks on the Mind-Body Question“. In: Philosophical Reflections and Syntheses. Springer, Berlin, Heidelberg (The Collected Works of Eugene Paul Wigner), S. 247– 260, doi: 10.1007/978-3-642-78374-6_20. Wilczek, Frank (2017): „How ‘Anyon’ Particles Emerge From Quantum Knots“. Quanta Magazine. Abgerufen am 21.08.2017 von https://www.quantamagazine.org/how-anyon-particles-emergefrom-quantum-knots-20170228/. Wilczek, Frank (1991): „Physik: Anyonen“. Spektrum der Wissenschaften. Abgerufen am 18.07.2015 von http://www.spektrum.de/magazin/anyonen/944785. Wilde, Mark M. (2017): From Classical to Quantum Shannon Theory. 2 edition. Cambridge, UK. ; New York: Cambridge University Press. Wilhelmer, Doris (2009): Erinnerung an eine bessere Zukunft: Syntax für eine komplementäre Innovationsberatung. 1., Aufl. Heidelberg: Carl Auer Systeme Verlag. Willke, Helmut (2006): Systemtheorie I: Grundlagen: Eine Einführung in die Grundprobleme der Theorie sozialer Systeme. 7. Aufl. Stuttgart: UTB, Stuttgart. Willke, Helmut (2005): Systemtheorie II : Interventionstheorie: Grundzüge einer Theorie der Intervention in komplexe Systeme. 4. Aufl. Stuttgart: UTB, Stuttgart. Willke, Helmut (2014): Systemtheorie III: Steuerungstheorie: Grundzüge einer Theorie der Steuerung komplexer Sozialsysteme. 4. Aufl. Konstanz: UTB GmbH. Wilms, Hans Dieter (2016): „Die VUKA-Welt ... und ihre Auswirkungen auf Organisationen und Führungskräfte, sowie Konsequenzen für Beratung und Qualifizierung.“. Ansbach 25.1.2016. Wilson, T. D.; Schooler, J. W. (1991): „Thinking too much: introspection can reduce the quality of preferences and decisions“. In: Journal of Personality and Social Psychology. 60 (2), S. 181– 192. Wilson, Timothy D.; Lisle, Douglas J.; Schooler, Jonathan W.; u. a. (1993): „Introspecting about Reasons can Reduce Post-Choice Satisfaction“. In: Personality and Social Psychology Bulletin. 19 (3), S. 331–339, doi: 10.1177/0146167293193010. Wiltschko, Roswitha; Ahmad, Margaret; Nießner, Christine; u. a. (2016): „Light-dependent magnetoreception in birds: the crucial step occurs in the dark“. In: Journal of The Royal Society Interface. 13 (118), S. 20151010, doi: 10.1098/rsif.2015.1010. Wiltschko, W.; Wiltschko, R. (1972): „Magnetic compass of European robins“. In: Science (New York, N.Y.). 176 (4030), S. 62–64, doi: 10.1126/science.176.4030.62. Wirth, Uwe (1995): „Abduktion und ihre Anwendungen“. In: Zeitschrift für Semiotik. 17 (3–4), S. 405– 424. Wiseman, Howard (2014a): „Bellsche Ungleichung: Kontroverse Korrelationen“. In: Spektrum.de. Wiseman, Howard (2014b): „Physics: Bell’s theorem still reverberates“. In: Nature News. 510 (7506), S. 467, doi: 10.1038/510467a. Wittgenstein, Ludwig; Schulte, Joachim (1963): Tractatus logico-philosophicus: Logisch-philosophische Abhandlung. Frankfurt am Main: Suhrkamp Verlag.
Literatur
645
Wolchover, Natalie (2014): „Have We Been Interpreting Quantum Mechanics Wrong This Whole Time?“. WIRED Science. Abgerufen am 18.08.2017 von https://www.wired.com/2014/06/thenew-quantum-reality/. Wolchover, Natalie (2013): „Is Nature Unnatural?“. Quanta Magazine. Abgerufen am 11.05.2018 von https://www.quantamagazine.org/complications-in-physics-lend-support-to-multiverse-hypothesis-20130524/. Woolley, Amanda; Kostopoulou, Olga (2013): „Clinical Intuition in Family Medicine: More Than First Impressions“. In: The Annals of Family Medicine. 11 (1), S. 60–66, doi: 10.1370/afm.1433. Wu, Yuzhou; Jelezko, Fedor; Plenio, Martin B.; u. a. (2016): „Diamond Quantum Devices in Biology“. In: Angewandte Chemie International Edition. 55 (23), S. 6586–6598, doi: 10.1002/anie.20150 6556. Xiang, Ze-Liang; Ashhab, Sahel; You, J. Q.; u. a. (2013): „Hybrid quantum circuits: Superconducting circuits interacting with other quantum systems“. In: Reviews of Modern Physics. 85 (2), S. 623–653, doi: 10.1103/RevModPhys.85.623. Xie, Zhenda; Zhong, Tian; Shrestha, Sajan; u. a. (2015): „Harnessing high-dimensional hyperentanglement through a biphoton frequency comb“. In: Nature Photonics. 9 (8), S. 536–542, doi: 10.1038/nphoton.2015.110. Yan, Ru-Jia; Gong, Hai-Qing; Zhang, Pu-Ming; u. a. (2016): „Coding Properties of Mouse Retinal Ganglion Cells with Dual-Peak Patterns with Respect to Stimulus Intervals“. In: Frontiers in Computational Neuroscience. 10 , doi: 10.3389/fncom.2016.00075. Yang, Eunice; Zald, David H.; Blake, Randolph (2007): „Fearful expressions gain preferential access to awareness during continuous flash suppression“. In: Emotion (Washington, D.C.). 7 (4), S. 882– 886, doi: 10.1037/1528-3542.7.4.882. Yang, Sen; Wang, Ya; Rao, D. D. Bhaktavatsala; u. a. (2016): „High-fidelity transfer and storage of photon states in a single nuclear spin“. In: Nature Photonics. 10 (8), S. 507–511, doi: 10.1038/ nphoton.2016.103. Yehuda, Rachel; Daskalakis, Nikolaos P.; Lehrner, Amy; u. a. (2014): „Influences of maternal and paternal PTSD on epigenetic regulation of the glucocorticoid receptor gene in Holocaust survivor offspring“. In: The American Journal of Psychiatry. 171 (8), S. 872–880, doi: 10.1176/appi. ajp.2014.13121571. Yin, Juan; Cao, Yuan; Li, Yu-Huai; u. a. (2017): „Satellite-based entanglement distribution over 1200 kilometers“. In: Science. 356 (6343), S. 1140–1144, doi: 10.1126/science.aan3211. Yong, Ed (2013): „Intercontinental mind-meld unites two rats“. In: Nature News. doi: 10.1038/nature. 2013.12522. Yost, William A. (1992): „Auditory Perception and Sound Source Determination“. In: Current Directions in Psychological Science. 1 (6), S. 179–184. Zeh, H. Dieter (2011): Physik ohne Realität: Tiefsinn oder Wahnsinn? Springer. Zeh, H.D. (2013): „Wie Dekohärenz das Problem des quantenmechanischen Meßprozesses löst“. Abgerufen am 26.08.2016 von http://www.rzuser.uni-heidelberg.de/~as3/Messproblem.pdf. Zeilinger, Anton (2011): Die Welt der Quanten - Quantenphysik erklärt die Quantenheilung? https://www.youtube.com/watch?v=EW0KZwMWhyc. Zeilinger, Anton (2002): „Dinge, die ohne Grund geschehen - Protokoll der Siemens Academy of Life“. Wiener Zeitung. 12.7.2002. Zeilinger, Anton (2005): Einsteins Schleier: Die neue Welt der Quantenphysik. Goldmann Verlag. Zeilinger, Anton (2007): Einsteins Spuk: Teleportation und weitere Mysterien der Quantenphysik. 4. Aufl. München: Goldmann Verlag.
646
Literatur
Zhong, Manjin; Hedges, Morgan P.; Ahlefeldt, Rose L.; u. a. (2015): „Optically addressable nuclear spins in a solid with a six-hour coherence time“. In: Nature. 517 (7533), S. 177–180, doi: 10.1038/nature14025. Zhou, Yi; Zhang, Fu-Chun (2012): „Quantum spin Hall effect: Left up right down“. In: Nature Physics. 8 (6), S. 448–449, doi: 10.1038/nphys2335. Zörlein, Caronline (2008): „Inventur eines Maßes - Kaleidoskop Deutsches Museum“. Zrzavý, Jan; Burda, Hynek; Storch, David; u. a. (2013): Evolution: Ein Lese-Lehrbuch. 2., vollst. überarb. Aufl. 2013. Berlin: Springer Spektrum. Żukowski, M.; Zeilinger, A.; Horne, M. A.; u. a. (1993): „Event-ready-detectors - Bell experiment via entanglement swapping“. In: Physical Review Letters. 71 (26), S. 4287–4290, doi: 10.1103/PhysRevLett.71.4287.