130 87 7MB
German, English Pages 325 [327] Year 2018
Volker Friedrich (Hg.)
Technik denken Philosophische Annäherungen Festschrift für
Klaus Kornwachs
Philosophie Franz Steiner Verlag
Volker Friedrich (Hg.) Technik denken
Volker Friedrich (Hg.)
Technik denken Philosophische Annäherungen Festschrift für Klaus Kornwachs
Franz Steiner Verlag
Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar. Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist unzulässig und strafbar. © Franz Steiner Verlag, Stuttgart 2018 Umschlagabbildung: Prof. Thilo Rothacker Druck: Hubert & Co., Göttingen Gedruckt auf säurefreiem, alterungsbeständigem Papier. Printed in Germany. ISBN 978-3-515-12039-5 (Print) ISBN 978-3-515-12042-5 (E-Book)
INHALTSVERZEICHNIS Technik denken – eine Annäherung ................................................................
9
I. PHILOSOPHIE DER TECHNIK: KÖNNEN WIR BEGREIFEN, WAS WIR TUN? ...........................................
13
Mario Bunge Technology ≠ Applied Science, and Industry ≠ Technology ...........................
15
Walther Ch. Zimmerli Technologisierung und Pluralisierung – ein Januskopf...................................................................................................
21
Carl Mitcham Speeding things down .....................................................................................
31
Klaus Mainzer Die Berechenbarkeit von Technik und Wissenschaft. Von komplexen Systemen zur Digitalisierung und künstlichen Intelligenz ....
41
Walter von Lucadou Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? ................................................................................................
53
Klaus Erlach Vom Erkennen und Gestalten technischer Möglichkeiten. Überlegungen zur Wissenschaftstheorie der Technikwissenschaften ..............
69
II. FOLGEN DER TECHNIK: KÖNNEN WIR ABSCHÄTZEN, WAS WIR TUN? .......................................
81
Armin Grunwald Von Technikfolgenprognosen zur hermeneutischen Perspektive. Metamorphosen der Technikfolgenabschätzung .............................................
83
Ortwin Renn Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft ............
95
Welf Schröter Mehr Ent-Ortung erfordert mehr Ver-Ortung. Warum die digitale Transformation in den Betrieben eine Stärkung der kommunalen Stadtentwicklungsplanung benötigt ................................................................ 107
6
Inhaltsverzeichnis
Klaus Wiegerling Zur Anthropologie des körperlich aufgerüsteten Menschen. Auswirkungen der technischen Aufrüstung des menschlichen Körpers auf unser Selbst- und Weltverständnis............................................................. 115 Heinz–Ulrich Nennen Das Prometheus-Projekt und die Mitgift der Pandora ..................................... 127 III. ETHIK DER TECHNIK: KÖNNEN WIR WOLLEN, WAS WIR TUN? ................................................ 139 Franz Josef Radermacher Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen ............. 141 Peter Jan Pahl Verantwortung angesichts der Unvollkommenheit der Technik ...................... 153 Hans-Jörg Bullinger, Rainer Nägele Zur Zukunft von „Technology Push“ und „Market Pull“ ................................ 163 Christian Berg Nachhaltigkeit – totgeritten und lebendige Notwendigkeit ............................. 169 Thomas Bschleipfer Warum Medizintechnik nicht für alle da sein kann ......................................... 179 Walter Glöckle Soziotechnischer Systemansatz in der Atomaufsicht ...................................... 193 Ernst Peter Fischer Verantwortlich für das Wissen......................................................................... 203 IV. SPRACHE DER TECHNIK: KÖNNEN WIR SAGEN, WAS WIR TUN? ................................................... 215 Hans Poser Technisches Wissen, technische Sprache, technische Bilder ............................................................................................. 217 Imre Hronszky Too tightly-cut new clothes for the “emperor”? .............................................. 229 Harald Kirchner „Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert.......................................................................................... 239 Volker Friedrich Zur Rhetorik der Technik. Aufriss eines Forschungsgebietes ......................... 249
Inhaltsverzeichnis
7
V. KULTUR DER TECHNIK: KÖNNEN WIR LEBEN, WAS WIR TUN? .................................................... 261 Steffen W. Groß Technik als Erkenntnis- und Formprozess ...................................................... 263 Stefan Poser Technisches Spiel ohne Grenzen? Ethische und sicherheitstechnische Fragen beim Spiel mit Technik........................................................................ 271 Francesca Vidal Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten ........................ 283 Wolfgang Hofkirchner Gibt es eine Kultur der vernetzten Welt? Wie Informatik eine globale und nachhaltige Informationsgesellschaft ermöglicht ..................................... 295 Wolfgang König Scheitern von Innovationen. Überlegungen zur techniktheoretischen Bedeutung eines innovativen Forschungsfelds ............................................... 305 VI. PROF. DR. PHIL. HABIL. DIPL.-PHYS. KLAUS KORNWACHS – ZUR PERSON ................................................................................................ 315 VII. EINE NICHT NUR PHILOSOPHISCHE ANNÄHERUNG ................... 321 VIII. ÜBER DIE AUTOREN .......................................................................... 323
TECHNIK DENKEN – EINE ANNÄHERUNG Mit einer Festschrift sollen verdiente Persönlichkeiten geehrt, insbesondere ihr Werk, Wirken und Denken gewürdigt werden. Sich einem Denker anzunähern, der sich wie Klaus Kornwachs philosophisch breit aufzustellen weiß, ist – in einer ihm gemäßen Breite – nicht einfach. Diese Festschrift, die anlässlich des 70. Geburtstages von Klaus Kornwachs erscheint, setzt an bei seinem Wirken als Technikphilosoph, der Titel des Bandes lautet deshalb: „Technik denken. Philosophische Annäherungen.“ In die fünf Kapitel des Bandes fügen sich 27 Essays, die meisten Autoren kommen zwar aus Deutschland, doch sind auch Argentinier, Ungarn, Österreicher, Schweizer und Amerikaner unter ihnen, zudem Schwaben. Die Kapitelüberschriften verweisen auf Themengebiete, denen sich Klaus Kornwachs in seinem Schaffen zuwendet, die Autoren nähern sich mit ihren Beiträgen seinen Themen und Fragen an, nicht allein aus philosophischen Perspektiven, auch aus historischen, soziologischen, rhetorischen, medialen, informatischen … Die Grenzziehungen zwischen diesen Kapiteln, Fragen und Themen sind selbstverständlich ein redaktionelles Konstrukt, manche der Essays hätten sich auch in ein anderes Kapitel fügen lassen. Wer hat mitgewirkt, welche Themen werden im Detail aufgegriffen? Das erste Kapitel der Festschrift widmet sich der Frage: „Können wir begreifen, was wir tun?“ Das Kapitel wendet sich der Philosophie der Technik zu. Darin meldet sich Mario Bunge zu Wort, er legt die Unterschiede zwischen Wissenschaft und Technik dar und dass der verständige Mensch beide benötige, um kein närrischer Mensch zu sein.– Walther Ch. Zimmerli widerspricht in seinem Beitrag der kornwachsschen Auffassung, der Pluralismus stoße an seine Grenzen angesichts alltäglicher Gefahren durch den Terrorismus. Zimmerli leitet seinen Gegenposition aus der Betrachtung des Januskopfes her, den Technologisierung und Pluralisierung darstellten.– Carl Mitcham rät einer sich durch Technik immer schneller wandelnden Welt, es langsamer angehen zu lassen. Das Motto „speeding things down“ könnte es Kultur und Politik erlauben, zur Technik aufzuschließen.– Ähnliche Fragen wirft Klaus Mainzer auf und betrachtet sie mit Blick auf Digitalisierung und künstliche Intelligenz – welche Wissenschaft betrieben wir, stellten wir sie ausschließlich auf die Grundlage von Daten?– Walter von Lucadou schlägt zur Präzisierung der Frage, ob Computern Bewusstsein zuzubilligen wäre, die Einführung des Begriffes der „Verschränkung“ vor.– Wo aus wissenschaftstheoretischer Perspektive die Unterschiede zwischen den Technik- und den Ingenieurwissenschaften liegen und welche Rolle dabei eine Theorie der Technik spielt, betrachtet Klaus Erlach. Das zweite Kapitel geht der Frage nach: „Können wir abschätzen, was wir tun?“, es behandelt die Folgen der Technik. Armin Grunwald möchte die Technikfolgenabschätzung metamorphisieren, in die Prognostik eine hermeneutische Perspektive tragen – also mehr Interdisziplinarität herbeiführen.– Unter anderem
10
Technik denken – eine Annäherung
angesichts der Komplexität, Ambivalenz und Folgenunsicherheit der Technik plädiert Ortwin Renn für eine diskursive Technikfolgenabschätzung und ebenfalls für neue interdisziplinäre Formen der Zusammenarbeit unter den Wissenschaftsdisziplinen.– Die Auswirkungen der Digitalisierung auf den arbeitenden Menschen nimmt Welf Schröter in den Blick und gibt Hinweise, wie auf die Ent-Ortung der Arbeit reagiert werden könnte.– Der Mensch rüstet seinen Körper technisch rasant auf; was dieser Umbau des Leibes für die „conditio humana“, also anthropologisch in einem umfassenden Sinne bedeutet, betrachtet Klaus Wiegerling.– Die neuen Götter unserer neuen Zeit macht Heinz Ulrich Nennen zum Thema seines Essays und schaut in die Pandora-Büchse der Technik. „Können wir wollen, was wir tun?“ wird im dritten Kapitel gefragt, das sich um die Ethik der Technik dreht. Welchen Beitrag Technik leisten kann, um zwölf Milliarden Menschen ein lebenswertes Leben auf unserem Planeten zu ermöglichen, und wie Märkte „moralisiert“ werden könnten, untersucht Franz Josef Radermacher.– Ingenieure stehen zweifach in Verantwortung: für die früher geschaffene materielle Infrastruktur und für die Ausrichtung der Technik der Zukunft. Lässt sich die Verantwortung stemmen?, hinterfragt Peter Jan Pahl.– Die Technik schiebt, der Markt zieht – wie sich diese Wechselwirkung entwickeln wird in Zeiten computergestützter Fertigung und „Industrie 4.0“, dem gehen Hans-Jörg Bullinger und Rainer Nägele nach.– Christian Berg beschreibt zwei Seiten der Nachhaltigkeit: wie sehr der Begriff totgeritten und wie sehr Nachhaltigkeit eine lebendige Notwendigkeit ist.– Mit ethischen Aspekten medizintechnischer Innovationen befasst sich Thomas Bschleipfer und weist darauf hin, dass sie sich nicht allein um Verfügbarkeit und Zugänglichkeit drehen.– Walter Glöckle legt dar, wie ein soziotechnischer Systemansatz multidisziplinär für die Atomaufsicht genutzt werden kann.– Inwieweit Wissenschaftler verantwortlich für das Wissen sind, das ihrem Wirken entwächst, ist Gegenstand des Beitrages von Ernst Peter Fischer. Die Sprache der Technik wird im vierten Kapitel behandelt, das fragt: „Können wir sagen, was wir tun?“ Technisches Wissen wird in technischer Sprache und in technischen Bilder festgehalten; welche Binnenverhältnisse sich dabei entwickeln, beschreibt Hans Poser.– Die EU hat sich verantwortungsvolle Forschung und Innovation (RRI – Responsible research and Innovation) auf die Fahne geschrieben; doch wovon ist dabei die Rede?, fragt Imre Hronszky.– Moderne Technik verändert Journalismus nicht nur in seinen Produktionsweisen, sondern auch inhaltlich, belegt Harald Kirchner. – Rhetorik könnte zur Technikphilosophie beitragen, vermutet Volker Friedrich und umreisst das Forschungsgebiet der „Rhetorik der Technik“. Das fünfte und letzte Kapitel wirft die Frage auf: „Können wir leben, was wir tun?“ In diesem Kapitel wird der Kultur der Technik nachgegangen. Steffen Groß beschreibt Technik als Erkenntnis- und Formprozess und sieht in ihr eine Idee wirken: Freiheit.– Technik lässt mit sich spielen und scheint ein Spiel ohne Grenzen zu ermöglichen; was das für unsere Lebenskultur bedeuten kann, beleuchtet Stefan Poser.– Lässt sich, so fragt Francesca Vidal, der Wandel der Arbeit hin zu virtuellen Arbeitswelten mittels rhetorischer Gestaltungsfähigkeiten besser bewältigen, kann Rhetorik als Erfahrungswissenschaft in dieser Lage einen Beitrag leisten?– Eine Weltkultur der vernetzten Welt, beschreibt Wolfgang Hofkirchner
Technik denken – eine Annäherung
11
und untersucht, wie Informatik eine globale Informationsgesellschaft ermöglichen kann.– Zur Untersuchung technischer Innovationen gehörte, sich mit deren Scheitern zu befassen, dies trüge zu einer Theorie technischen Wandels bei, erläutert Wolfgang König. Mit diesem ersten Einblick in den Band tritt bereits zutage: Das Denken Klaus Kornwachs’ lässt viele Anschlussdiskussionen aufmachen, und so kommt diese Festschrift vielfältig daher und deckt ein weites Spektrum ab, Technik zu denken und sich ihr und nicht zuletzt dem Denken des Jubilars philosophisch und nicht ausschließlich philosophisch anzunähern – diese Vielfalt des Denkens findet sich wohl kaum zufällig in einer Klaus Kornwachs gewidmeten Festschrift … Volker Friedrich
I. PHILOSOPHIE DER TECHNIK: KÖNNEN WIR BEGREIFEN, WAS WIR TUN?
TECHNOLOGY ≠ APPLIED SCIENCE, AND INDUSTRY ≠ TECHNOLOGY Mario Bunge The popular press keeps the confusion of science with technology introduced by Francis Bacon when he demanded a “philosophy of works” to replace the “philosophy of words” of the schoolmen. That confusion was updated by Auguste Comte, the founder of classical positivism, who coined the formula “Savoir pour pouvoir”. It was also shared by the young Karl Marx in his famous Thesis XI, as well as by his coworker and best friend Friedrich Engels, who mistook the utility criterion, “The proof of the pudding is in the eating,” for the truth criterion used by scientists, namely predictive power joined with compatibility with the bulk of antecedent knowledge. 1 APPLIED SCIENCE: THE BRIDGE BETWEEN BASIC RESEARCH AND TECHNOLOGY In recent years some philosophers have tried to disentangle technology from science. In particular, we have learned that applied science must be interpolated between basic science and technology. For example, pharmacology is the link between biochemistry, a basic science, and the discipline in charge of drug design and drug production. In fact, pharmacologists select a tiny fraction of the millions of possible molecules, namely those that may be turned into drugs through the so-called translation process in charge of the pharmacologists working in the so-called laboratories attached to drug companies. These people, or the automated machines they control, perform the myriad tests required to find out how those promising molecules act on the receptors sitting on cellular membranes. Schematically, this whole process looks like this: Biochemistry
selection
Pharmacology
translation
Pharmatech
→
Pharma industry
Technologists proper start only at the last two phases: the pharmatechnologists design artifacts expected to produce drugs, and the chemical engineers working at pharma industrial plants (popularly called “laboratories”) design, perfect, repair or maintain the machinery that delivers the merchandise sold at pharmacies. Let us review two stories that, though apparently unrelated, are relevant to our problem: gravitational waves, and the cradle of the Industrial Revolution.
16
Mario Bunge
2 A FIRST IN PURE SCIENCE: GRAVITATIONAL WAVES The detection of gravitational waves November of 2015, should have unfused science from technology. Indeed, that sensational finding was a triumph of Einstein’s basic or disinterested scientific research exactly one century earlier. True, the experimenters were helped by the civil engineers who participated in the realization of the original design of the LIGO1 experimental installation, which involved two huge interferometers and two 4,000 meters long vacuum tunnels. What interests us is that what motivated this recent successful search was not utility but sheer scientific curiosity – just as Aristotle had written. Indeed, the finding in question has no foreseeable practical applications, if only because the energy of the said waves is minute. Only the intervention of a few far-sighted bureaucrats made it possible to round up and organize a body of nearly 1,000 specialists who spent 1,100 million US dollars working on a project that culminated a search that had yielded no results for nearly half a century. What sustained the faith of the members of the LIGO team was that Einstein’s prediction was part of his complex if beautiful theory of gravitation, other predictions of which had been empirically confirmed since 1919. That was the year when the bending of star light by the Earth’s gravitational field was confirmed by a team led by the astrophysicist Arthur Eddington. Since then, about 30 additional “effects” predicted by the same theory have been corroborated. In other words, the gravitational waves hypothesis, far from being isolated, was firmly entrenched in one of the most important physical theories. In short, the LIGO finding was sought and accepted largely because it had been predicted by a successful theory. It killed two birds with one stone: the empiricist dogma that all scientific inquiries originate in observation, and the pragmatist confusion of science with technology. 3 MANCHESTER RATHER THAN PARIS If technology sufficed to beget modern industry, and if the latter were just applied science, the Industrial Revolution (ca. 1760–1820) would have started in Paris, the city of light, rather than in dark Manchester. In 1750 Paris, the second most populated European city, had 556,000 inhabitants, and was the seat of the largest and most progressive scientific and humanistic communities in the world. It was the Mecca of all the best scientists and the most popular writers. By contrast, Manchester had hardly 20,000 inhabitants, though this number was multiplied by 10 in the course of one century, while the Paris population only doubled in the same period. Recall this small sample of French scientists active during the Industrial Revolution: d’Alembert, Buffon, Condorcet, Lagrange, Laplace, and Lavoisier, to which we should add a bevy of foreign visitors, such as Leonhard Euler, Alexander von Humboldt, and Ben Franklin. The British scientific community of the same period 1
LIGO: Laser Interferometer Gravitational-Wave Observatory [Anmerkung des Herausgebers].
17
Technology ≠ Applied Science, and Industry ≠ Technology
was no less brilliant: suffice it to recall Babbbage, Black, Cavendish, Davy, William Herschel, Jenner, and Priestley. Foreign scientists visited Paris, not London, let alone Oxford or Cambridge – which specialized in training parsons, and rejected the entrance applications of John Dalton because he was a Quaker – the only Mancunian to leave a deep track on science: he was no less than the founder of atomic chemistry. More to the point, none of these eminent scientists was interested in machines, so they made no significant contributions to the Industrial Revolution. The inventors of the steam engine, the spinning jenny, the steam regulator, and the power loom, were self-taught engineers like Cartwright, Hargreaves, Newman, and Watt. The most ingenious artifacts were Vaucanson’s duck automaton and Jacquard’s programmable loom. Both inventions were fully exploited only two centuries later, by the computer industry. And except for Vaucanson, none of these inventors was interested in basic science, and none expected riches from their inventions. 4 THE INPUTS AND OUTPUTS OF THE INDUSTRIAL REVOLUTION Great riches came not from technology but from the manufacturing plants using the new machines and financed by some venture capitalists, in particular some of the merchants who had made huge fortunes in the slave trade. Thus, contrary to Marx’s “law” of historical stages – slavery, serfdom, capitalism, and socialism – the slave trade was flourishing during the period we are examining, and it contributed significantly to the birth of industrial capitalism. The old was feeding the new. Far from being generated only by technology, the industrial capitalism born in Manchester and similar English towns had at least three inputs, as shown in the following diagram: New Technology Cheap Labor Venture Capital
→
Modern Industry
→
New Products for Mass Consumption
Profit
→
Market
→
Salaries Maintenance
Let us comment briefly on both the inputs and the outputs of this system. The new technology made only a very small use of the new science born three centuries earlier, as can be seen from the biographies of the inventors of the new machines. Indeed, none of them had gotten the higher education required to understand the new science: they were craftsmen rather than engineers. By contrast, labor was superabundant and very cheap at the time. In fact, the salaries paid to the workers in the English cotton mills for 14 hours a day just sufficed to keep them from starving – about 20 pennies, or 10 kilograms of bread per day in 1740. (At the present time, in the US, labor counts for less than 10 percent of the cost of an ordinary merchandise.) Capital too was plenty and cheap in Britain at the time of the Industrial Revolution, for the slave trade was both intensive and extremely profitable. (The main
18
Mario Bunge
slave route was England-Gulf of Guinea-Caribbean or Southern USA-Britain. Essentially, slaves were traded for cotton, sugar, and coffee.) Unlike aristocrats, who invested mainly in land or bonds, slave traders invested their cash mainly in the new industry. Consequently the English industrialists needed not borrow from banks or money-lenders. The French industralists had no access to that kind of capital because Haiti, their only colony with slave labor, was far smaller, and they did not supply raw materials to industry. Besides, the French inventors’s ingenuity was held back by the conservatism of the French investors. The main product of the cotton mills was calico, a cheap cotton cloth suitable for dresses and loincloths. Unlike the fine silk brocades produced in Lyon for the rich, the English cloth was accessible to millions of people around he world, especially in British India. That was the secret of the great success of the Industrial Revolution: mass consumption through mass production.There was, of course, the competition of the cotton cloth that the natives produced with the primitive manual looms common in Indian houselholds. But the Brits knew how to overcome this obstacle: they incapacitated the Bengali weavers by chopping off their thumbs. Surely this cruelty was inconsistent with the high-sounding free-trade rhetoric of the English politicians and their philosophers. But someone had to pay for progress. And the British Army in India made sure that neither the industralists nor the merchants payed for it. The burden fell on the Indian workers and the taxpayers, both in Britain and in India, who supported the half a milllion-strong British Indian Army, led by men with an “inborn capacity for leadership” or their tamed native subordinates. CONCLUSIONS We have defended the theses that technologists and basic scientists pursue very different goals: whereas the former seek utility, the latter try to find new truths, and the applied scientists focus on truths of possible practical utility. Still, the individuals in all three camps are primarily motivated by curiosity. Further, advanced experimental observation in Big Science makes intensive use of high-tech, as in large-scale automatic drug trial, neutrino detection, and black hole research. To indulge in Bible talk, let both Myriam and Martha do their jobs on the Lord’s vineyard. In other words, we need both brain and hand. So, let us neither confuse them, nor regard one of them as being higher than the other. They need one another, and Homo sapiens needs them both to avoid becoming homo stultus. However, we should try to keep making progress without exploiting anyone. We no longer live in 1845, when the great Heinrich Heine empathized with the suffering and struggling Silesian weavers, and prophesized Altdeutschland, wir weben dein Leichentuch (Old Germany, we weave your shroud.)
We have made much social progress since installing the welfare state in much of the so-called West. But it is high time to complete the task started two centuries ago by the social reformers who sought social justice – the balancing of duties with
Technology ≠ Applied Science, and Industry ≠ Technology
19
rights, and the control of technological progress to avoid its evil effects – massive labor “redundancy”, ever more destructive wars, environmental degradation, and dumbing entertainment. We should be able to paraphrase Heine, saying Neuzeit, wir weben deine Windel. (Modern times, we weave your nappies.)
TECHNOLOGISIERUNG UND PLURALISIERUNG – EIN JANUSKOPF Walther Ch. Zimmerli Aus mehr oder minder einsichtigem aktuellem Anlass wird „Pluralismus“ in letzter Zeit wieder häufiger diskutiert, und nach Auffassung von Klaus Kornwachs ist es sogar evident, „dass der Begriff des Pluralismus an seine Grenzen stößt bei der mittlerweile alltäglichen Bedrohung durch den Terrorismus als einer Form der politischen, religiösen und zweifelsohne auch wirtschaftlichen Auseinandersetzung“1. Dieser Ansicht soll, allerdings in Gestalt einer reflektierten Weiterführung, im Folgenden widersprochen werden. Wenn Philosophie, wie Kornwachs meint, „die Aufgabe“ hat, „solche Grenzen auszuloten“, dann mag es nämlich zunächst einmal umgekehrt auch zulässig sein, die Verbindung zwischen diesem Grenzbegriff und demjenigen herzustellen, um den das Denken von Kornwachs ebenso wie die ihm hier zugeeignete akademische Festgabe kreist: dem Begriff der Technik, den es immer wieder neu zu denken gilt. Ohne zunächst explizit auf den von Kornwachs genannten konkreten Anlass einzugehen, will ich als Post- (oder gar Anti-)Platoniker allerdings, um nicht der in der abendländischen Philosophie hinter jeder Ecke lauernden Gefahr einer Substantialisierung zu erliegen, nicht über das Verhältnis von Pluralismus und Technik, sondern über dasjenige von Pluralisierung und Technologisierung nachdenken, auf diese Weise Whiteheads Ermahnung folgend, nie den Prozesscharakter der Realität aus dem Blick zu verlieren. Um das umzusetzen, soll in einem ersten Schritt mein ursprüngliches Theorem des antiplatonischen Experiments bezüglich des Pluralismus sowie seine Revision in Erinnerung gerufen werden (I), dem dann das Standardmodell der philosophischen Reaktion darauf gegenübergestellt und um eine Analyse des Prozesses der Digitalisierung erweitert werden soll (II). Der abschließende dritte Schritt schließlich entwickelt – in Absetzung von Popper – ein erweitertes Konzept einer „Drei-Welten“-Lehre, das ein neues Feld philosophischer Erforschung virtueller Realität und zudem eine neue ontologische Dimension von Pluralismus erschließt (III).
1
Kornwachs, Klaus: Kann man mit Terroristen reden? In: Wolf, Stefan; Marquering, Paul (Hg.): Unkritische Masse? Offene Gesellschaft und öffentliche Vernunft. Berlin, Münster, London 2016. S. 145.
22
Walther Ch. Zimmerli
DAS „ANTIPLATONISCHE EXPERIMENT“ – REVISITED Hermeneutisch und tiefenpsychologisch geschulte Philosophen wissen, dass es eine aufklärerische Illusion wäre zu meinen, wir seien – wenn auch reflexiv gebrochen – „Herren im eigenen Haus“; vielmehr können wir uns eben niemals in die Lage versetzen, durch philosophische Reflexion einen Zustand vollständiger Transparenz der Voraussetzungen des eigenen Denkens zu erreichen. Philosophische Reflexion besteht zwar nicht zuletzt in dem Versuch, etwas von dem, was uns hinter unserem eigenen Rücken bestimmt, vor uns zu bringen, aber eben nur „etwas – nicht alles“, um es in den gegen Jürgen Habermas gerichteten Worten Hans-Georg Gadamers zu sagen2. Noch etwas pointierter: Philosophische Reflexion besteht zugleich in diesem Versuch und in der Einsicht, dass prinzipiell immer vieles, vielleicht sogar das Meiste „hinter unserem Rücken“ bleibt. Und dazu gehört – bis zu Heidegger und dem sich an ihm abarbeitenden hermeneutischen, strukturalistischen und poststrukturalistischen Denken – die zwingende Übermacht des Platonismus (was ja im Übrigen selber ein nach dem Prinzip der Selbstähnlichkeit platonisierend verdinglichender Begriff ist). Heidegger hatte dies im Gefolge Nietzsches noch der Metaphysik und damit primär Platons Lehrer Sokrates und Platons Schüler Aristoteles angelastet. Bei genauerer Betrachtung zeigt sich hinter alledem jedoch die eine Denkfigur: die Vielheit der Erscheinungen („Phänomene“) auf die Einheit der Begriffe („Ideen“) zu reduzieren und diese mit der Wahrheit, jene dagegen mit dem bloßen Schein zu assoziieren. Jeder (aristotelisch oder anderweitig motivierte) Versuch, die Dignität der phänomenalen Vielheit wieder herzustellen („sozein ta phainomena“3), war als seinerseits begrifflicher Versuch zum Scheitern verurteilt, und die Geschichte dieses Scheiterns macht nicht weniger als eben die gesamte Geschichte des abendländischen Denkens aus. Aber warum? Worauf ist zurückzuführen, dass zwar das Unbehagen an einer Kultur des Allgemeinen oder des Begrifflichen überall zu spüren war und ist, dass dieses Unbehagen sich aber nicht in Gestalt einer antiplatonischen Revolution Bahn brach, sondern sich ganz im Gegenteil sogar in Form einer Selbstverstärkung perpetuierte? Diese Frage fand im Verlaufe der abendländischen Denkgeschichte zahllose Beantwortungsversuche, die aber allesamt auf eines hinauslaufen, was wir mit umgekehrtem Vorzeichen ohnehin schon immer mit unserer Denk- und Ideengeschichte als „Logos“-Geschichte verbinden und was sich wie unter einem Brennglas erneut in einem Begriff, nämlich in dem Begriff „Epistemologie“, bündeln lässt. Über welche Kraft dieses Denkmodell verfügt, lässt sich daran ablesen, dass wir, allen entgegenstehenden Evidenzen zum Trotz, ganz fraglos davon ausgehen, dass die Erfolgsgeschichte des abendländisch-platonisierenden Denkmodells ihre Bekräftigung im epistemologischen Siegeszug der (natur)wissenschaftlichen Rationalität gefunden habe und noch immer finde. Ich sage „allen entgegenste2 3
Gadamer, Hans-Georg: Rhetorik, Hermeneutik und Ideologiekritik. Metakritische Erörterungen zu „Wahrheit und Methode“ (1967). Wieder abgedruckt in: Apel, Karl-Otto u. a.: Hermeneutik und Ideologiekritik. Frankfurt am Main 1971. S. 78. vgl. Mittelstraß, Jürgen: Die Rettung der Phänomene. Ursprung und Geschichte eines antiken Forschungsprinzips. Berlin 1962.
Technologisierung und Pluralisierung – ein Januskopf
23
henden Evidenzen zum Trotz“, denn diese erzählen eine andere Geschichte: Es gibt keinen Siegeszug der (natur)wissenschaftlichen Rationalität, und dass sich das so verhält, haben nahezu alle bedeutenden Denker seit der Antike nicht nur gewusst, sondern auch öffentlich gesagt. Was es vielmehr gibt, ist ein Siegeszug der technischen Umgestaltung der Welt, die desto erfolgreicher war, je enger sie sich mit der (Natur)Wissenschaft verbündete, anders gesagt: je techno-logischer sie wurde. Dass das auf einer gegenseitigen Wechselwirkung beruhte, weiß zwar jeder, aber es ist, um es paradox zu formulieren, niemandem wirklich bewusst. Zwar ist es bis in die höhere Unterhaltungsliteratur hinein sedimentiertes Allgemeinbildungsgut, dass etwa die thermodynamischen Grundprinzipien der modernen Physik in der Konstruktion von Dampfmaschinen ihren technischen Ursprung haben (cf. Spoerls „Feuerzangenbowle“), aber ihre platonisierende Formulierung („Energieerhaltungs-“ bzw. „Entropiesatz“) stellt für diese Einsicht ein nahezu unüberwindliches Hindernis dar. Und auch dort, wo der Sachverhalt als solcher erkannt wird, legt sich die im engeren Sinne epistemologische Interpretation wieder so nah, dass sie die eigentliche Einsicht verdrängt bzw. in die traditionellen konzeptionellen Bahnen zwingt: „Die Technisierung der Wissenschaft durch die experimentelle Methode und die Verwissenschaftlichung der Technik hat zusammen mit dem Verwertungsdruck wissenschaftlicher Ergebnisse für die Technik (…) den Erklärungsdruck technisch machbarer Vorgänge so erhöht, dass de facto zwischen angewandter Forschung und Grundlagenforschung nicht mehr unterschieden werden kann.“4 Die durchaus zutreffende Beobachtung, dass im Kontext des Technologisierungsprozesses die im epistemologischen Grundmodell vorausgesetzten Grenzen zwischen Grundlagenforschung und angewandter Forschung verschwimmen, stellt eine zwar notwendige, aber eben nicht hinreichende Bedingung für die erforderliche neue Sicht der Dinge dar. Statt Wissenschaft als Abstraktionsprodukt technischen Herstellens zu verstehen und so zu analysieren, drängt sich immer wieder die epistemologische Engführung auf: Technologie wird nach Maßgabe wissenschaftstheoretischer Kategorien interpretiert. Wenn wir jedoch einmal so weit sind, die platonisierend-epistemologische Weltsicht „vom Kopf auf die Füße zu stellen“, werden wir vielleicht eines Besseren, ganz sicher aber eines Anderen belehrt werden, und zwar nicht nur, was die Erkenntnis- und Wissenschaftstheorie, sondern auch was die Ontologie betrifft: Neben und über die platonisierende Reduktion der Phänomenvielfalt durch die begriffliche Einheit der Ideen hat sich nämlich aufgrund der sukzessiven Hybridisierung von begrifflichen Konstrukten und Artefakten eine Vereinheitlichung der Phänomene gelegt, die eine Vervielfachung der auf dieser Basis möglichen virtuellen Welten erst ermöglicht. Was wir also derzeit durch Begriffe wie „Technologisierung“ und – eher irreführend – „Digitalisierung“ markieren, ist, ideengeschichtlich gesehen, ein groß angelegtes „antiplatonisches Experiment“5, dessen Resultat 4 5
Kornwachs, Klaus: Technik – System – Verantwortung. Eine Einleitung. In: ders. (Hg.), Technik – System – Verantwortung. Münster 2004. S. 26. vgl. Zimmerli, Walther Ch.: Das antiplatonische Experiment. In: ders. (Hg.): Technologisches Zeitalter oder Postmoderne. München 1991(2). S. 13–35.
24
Walther Ch. Zimmerli
übrigens, wie das eben bei „richtigen“ Experimenten der Fall zu sein pflegt, noch durchaus offen und ungewiss6 ist. Während ich früher angenommen hatte, dieses Experiment beziehe sich nur auf die damals modische Postmoderne, bin ich zwischenzeitlich zu der Einsicht gekommen, dass die Postmoderne ihrerseits nur ein kulturelles Epiphänomen der technologieinduzierten Pluralisierung auf dem Wege zu einem Pluralismus zweiter Ordnung war7. Reichte für einen Pluralismus erster Ordnung noch eine Begründung nach dem Muster einer Autostereotypbildung durch Abgrenzung von einem Heterostereotyp des weltanschaulich-ideologischen Monismus aus, so ist nun unter Bedingungen der Globalisierung und des damit verbundenen Feindbildverlustes eine doppelt affirmative Bestätigung der Vielheit erforderlich: d. h. nicht bloß Pluralität, sondern Pluralismus erster Ordnung wird seinerseits zu einem Wert. Dass dies direkte Auswirkungen auf die aktuellen Debatten z. B. über Flüchtlinge bzw. Immigranten hat, liegt auf der Hand, kann aber hier im Einzelnen nicht ausgeführt werden. Eine vollständige zeitdiagnostische Erklärung für den epochalen Einschnitt, der sich – erneut „hinter dem Rücken“ der meisten der beteiligten Akteure – hiermit auftut, ist damit zwar noch nicht gegeben, es ist aber zumindest ein erster Schritt auf dem dazu zu beschreitenden Wege getan. Wir halten fest: Der durch die weltweite Technologisierung induzierten Vereinheitlichung der Welt auf der Ebene der Phänomene korrespondiert eine ebenfalls weltweite Pluralisierung auf der Ebene der begrifflichen Repräsentationen, seien diese nun kognitiv, kulturell, normativ oder im engeren Sinne politisch. DIE PHILOSOPHISCHE REAKTION: STANDARDMODELL UND DIGITALISIERUNG Nun kann die skizzierte und ansatzweise analysierte epochale Wendung, die unter den Begriff des „antiplatonischen Experiments“ gefasst wurde, schlechterdings niemandem verborgen geblieben sein. Und in der Tat sind dazu ganze Bibliotheken mehr oder minder gelehrter Literatur verfasst worden, die sich, in der Regel aus gesellschaftstheoretischer Perspektive, mit der „post-industriellen“ Gesellschaft, der „Informationsgesellschaft“, der „Netzwerkgesellschaft“ oder neuerdings der „digital society“ befassen. Zwar geht es dabei immer um neuartige Phänomenbestände dieser anderen, „post-“ oder „antiplatonischen“ Art, aber sie werden in der Regel eben gerade nicht als solche thematisiert und erfasst. Vielmehr gibt es eine Art von sozialphilosophischem Standardmodell, das nach dem von dem Soziologen Ulrich Beck geprägten Muster der (Welt-)Risikogesellschaft konzipiert ist8 und 6
7 8
Für die wissenschaftstheoretische Perspektive, der zufolge sogar im Rahmen mikrophysikalischen Experimentierens nicht das einzelne Individuum, sonders eine komplexe scientific community zur Verfertigung eines wissenschaftlichen Experiments bzw. der daraus folgenden Tatsachen beiträgt, vgl. Galison, Peter: How Experiments End. Chicago 1987. vgl. Zimmerli, Walther Ch.: Second Order Pluralism. In: Hertzog, Dirk; Britz, Etienne; Henderson, Alastair (Hg.): Gesprek sonder grense. Festschrift für Johan Degenaar zum 80. Geburtstag. Stellenbosch 2006. S. 324–341. vgl. Beck, Ulrich: Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt am Main 1986.
Technologisierung und Pluralisierung – ein Januskopf
25
sich an einem nicht-linearen Kausalitätsverständnis von nicht-intendierten Folgen bzw. Nebenfolgen orientiert. Mit anderen Worten: Die Globalisierung als Technologisierung der Welt rückt in Gestalt der Abweichung vom kausal-linearen Konzept naturwissenschaftlichen Wissens in den Blick, und die Theoretiker begeben sich – nicht gerade begeistert – auf dieses unbekannte Terrain. Es war – neben anderen – wieder Klaus Kornwachs, der eine Variante dieses Standardmodells für die Philosophie formuliert hat: „Angesichts der Zuspitzung technisch induzierter Probleme, bewirkt durch vielfältig vermittelte gesellschaftliche Herstellungs- und Nutzungszusammenhänge und Verwertungsinteressen, Pluralisierung und Globalisierung sowie zunehmende Komplexität und Entgrenzung der Folgen des technischen Fortschritts, hat auch die Philosophie begonnen, wenn auch zögernd, sich mit den damit verbundenen wissenschaftstheoretischen, erkenntnistheoretischen und ethischen, moralischen und politischen Fragen zu beschäftigen.“9 Und erneut lässt sich hieran exemplarisch ablesen, dass nicht die ontologische, sondern eben die epistemologische und allenfalls noch die ethische Dimension im Blick ist. Gewiss, es geht um das Bedenken nicht-intendierter Folgen und um die damit zunehmende Bedeutung der Reflexion auf Verantwortung. Anders als bei Hans Jonas10 fehlt allerdings eine Reflexion auf den Hybridcharakter von Sein und Sollen, die eine Konsequenz der Einsicht in die Charakteristika des antiplatonischen Experiments und damit in die Komplementarität von Technologisierung und Pluralisierung gewesen wäre. Das kann fraglos niemandem zum Vorwurf gemacht werden – zu allerletzt Klaus Kornwachs, der immerhin die Notwendigkeit einer philosophischen Reflexion dieser neuartigen Situation gesehen und immer wieder betont hat. Allerdings ist und bleibt seine Reaktion in gewissem Sinne symptomatisch für den blinden Fleck der Gegenwartsphilosophie bezüglich des nicht-kontingenten Zusammenhangs von Technologisierung und Pluralisierung, der die zuvor vielfach beschworene Abwendung von der platonisierenden Vereinheitlichung der Vielfalt der Phänomene unter der Herrschaft der Ideen erst wirklich zu vollziehen erlaubt. Was ist – so kann nun gefragt werden – eigentlich erforderlich, um die nahezu magische Kraft des „hinter unserem Rücken“ wirkenden Platonismus zu durchbrechen? Wenn dieser in der Verbegrifflichung der Phänomen bestand, also gleichsam in einer kognitiven oder idealen Verdopplung der Welt, dann liegt die Vermutung nahe, dass die Umkehrung auf eine Konkretisierung der Begriffe, also auf eine Reifizierung des Kognitiven oder Ideellen hinausläuft. Einen ersten Vorgeschmack davon vermag uns zunächst das Internet, verstärkt aber nun das „Internet der Dinge“11 zu geben, das bislang philosophisch noch kaum erfasst worden ist.
9 10
11
Kornwachs, 2004, a. a. O., S. 27. vgl. Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main 1979; jetzt mit zahlreichen zusätzlichen Materialien kritisch ediert in: Böhler, Dietrich; Bongardt, Michael; Burckhart, Holger; Zimmerli, Walther Ch. (Hg.): Kritische Gesamtausgabe der Werke von Hans Jonas. Abteilung I, Bd. I.2,1. Freiburg im Breisgau, Berlin, Wien 2017. vgl. Bullinger, Hans-Jörg; ten Hompel, Michael (Hg.): Internet der Dinge. Berlin 2007.
26
Walther Ch. Zimmerli
Um mindestens eine Ahnung der Dimension dessen, was damit gemeint ist, zu erhalten, mag es hilfreich sein, sich des Mechanismus zu erinnern, auf dem die Transformation beruht, die wir – wie gesagt: eher irreführend und erneut platonisierend – als „Digitalisierung“ bezeichnen. Schon der Versuch, die Ideengeschichte mit dem Fluchtpunkt der künstlichen Intelligenz zu reformulieren, zeigt, dass es dreier Voraussetzungen bedurfte: der Formalisierung, der Kalkülisierung und der Mechanisierung12. Bei noch genauerer Betrachtung zeigt sich allerdings, dass es dabei semiotisch vordringlich um die Reduktion der Semantik auf eine in binärer Logik darstellbare Syntax ging, die dann in Maschinen mit diskreten Zuständen algorithmisch abgearbeitet werden konnte. Anders: Was wir „Digitalisierung“ nennen, beruht auf „Binarisierung“; nicht der ganze kalkülisierbare Zahlenraum ist dazu erforderlich, sondern dessen Reduktion auf seine logisch und semantisch elementaren Zustände ist es, was den informationstheoretischen und -technologischen Durchbruch erlaubt. Allein: erst die iterierte Vernetzung in diesem Sinne digitalisierter KI-Systeme (Computer) und deren Verwendung in anderen Maschinensystemen (Robotisierung) führt uns schrittweise in das Umfeld dessen, was wir heute unter „Digitalisierung“ verstehen. Bezogen auf das Konzept eines „antiplatonischen Experiments“ ist damit nicht mehr nur die vereinheitlichende semantische Repräsentation der Vielfalt der Phänomene in einer als „theoretisch“ charakterisierten zweiten, und zwar begrifflichen Wirklichkeit (oder „Welt“) gemeint, sondern die Erschaffung einer dritten Wirklichkeit13 oder „Welt“. Anders: wir schreiben Programme, und diese laufen auf Maschinen, genauer: auf Netzwerken von Maschinen, die ihrerseits eine dritte Wirklichkeit erschaffen – eben das Internet der Dinge vom aus dem Keramikblock herausgefrästen Zahnersatz über das Cochlea-Implantat bis zum Produkt der 3-D-Drucker. Nicht dass wir erst am Anfang dieser neuen Zeit stehen, die wie eine Sturzflut über uns hereinbricht, ist das Faszinierende, sondern dass wir uns damit der Einlösung eines neuzeitlichen Versprechens nähern, nämlich dem des sogenannten „Vico-Axioms“: dass wir etwas erst dann wirklich wissen, wenn wir es selbst machen können – „Wissen ist Machen“14. ABSCHIED VON DER TÄUSCHUNG Was aber bedeutet dies nun im Kontext der Reformulierung des antiplatonischen Experiments? Erneut einschränkend muss wiederholt werden, dass sich erst nur die Umrisse dieses epochalen Wandels abzeichnen, so dass noch kein konsisten12 13 14
vgl. Zimmerli, Walther Ch.; Wolf, Stefan: Einleitung. In: dies. (Hg.): Künstliche Intelligenz. Philosophische Probleme. Stuttgart 2002(2). S. 5–37, bes. 8 ff. vgl. Kroker, Eduard J. M.; Deschamps, Bruno (Hg.): Information – eine dritte Art von Wirklichkeit neben Materie und Geist. Frankfurt am Main 1995. Zimmerli, Walther Ch.: To Know is to Make. Knowledge, Ignorance and Belief in a Technological Society. In: Meisinger, Hubert; Drees, Willem B.; Zbigniew, Liana (Hg.): Wisdom or Knowledge? Science, Theology, and Cultural Dynamics. London 2006. S. 145–152.
Technologisierung und Pluralisierung – ein Januskopf
27
tes Bild davon gegeben werden kann, welche Veränderungen zu erwarten sind. Eines kann aber jetzt schon als gesichert gelten: Da philosophische Reflexion per definitionem insofern platonisierend bleiben muss, als sie darin besteht, das Besondere auf allgemeine Begriffe zu bringen, bleibt sie selbst zunächst einmal von dem Experiment unberührt. Anders formuliert: Die philosophische Reflexion ändert sich zwar in Bezug auf ihre Gegenstände, nicht aber per se durch die experimentelle antiplatonische Wendung. Nach wie vor muss es uns Philosophen darum gehen, die allgemeinen Begriffe zu der Mannigfaltigkeit der Erscheinungen zu finden – auch und gerade wenn wir realisieren, dass es sich dabei um eine andere Mannigfaltigkeit, nämlich diejenige im Kontext der vereinheitlichenden Technologie handelt. Diese letztere muss nun allerdings anders gesehen werden: In der Welt der „zweiten Wirklichkeit“ ist sie weltweit identisch. Zwar gibt es Unterschiede der Gestaltung und des Marketing, aber diese sind – bis auf wenige Ausnahmen – allesamt kompatibel. Und so entsteht denn quasi-kompensatorisch eine Art Krieg zwischen denen, die auf Microsoft „schwören“, und den Apple-Gefolgsleuten. An dem Prinzip, dass es sich hierbei „nur“ um verschiedene Gestaltungsvarianten der Nutzeroberfläche jener elementar vereinheitlichenden binären Reduktion von Semantik auf Syntax handelt, ändert das jedoch nichts. Schon mit der Entstehung der dann als Paradigma auftretenden iterierten Grundstruktur von Information als Unterschied15, technisch zwischen „Schalter offen“ – „Schalter geschlossen“ bzw. „Strom fließt“ – „fließt nicht“, ist eine antiplatonische, vollständige Reduzierbarkeit von Welt 1 (realistisch interpretierte Semantik) auf Welt 2 (Syntax als zweiwertige Logik) gegeben. Hand in Hand damit geht die fortschreitende Algorithmisierung, die nun, vom Navigationssystem über die Welt der Spiele bis hin zu derjenigen der auch dafür erforderlichen technologischen Theoriebildung nach dem Muster des Designs nicht nur alles durchdringt, sondern auch erlaubt, eine vollständige Welt 3 (virtuelle Realität) zu erschaffen. Zwar gilt nach wie vor, dass Welt 1 und Welt 3 im Prinzip unterscheidbar sind, aber das gilt eben nur „im Prinzip“. Theoretisch, d. h. im platonischen Muster der (auch philosophischen) Reflexion, spielt diese Unterscheidbarkeit eine große, vielleicht die zentrale Rolle. Lebenspraktisch, genauer: im Zusammenhang der unterschiedlichen pragmatischen User-Kontexte jedoch kommt es auf diese Unterscheidbarkeit nicht nur nicht an, sondern alles ist ganz im Gegenteil darauf angelegt, ununterscheidbar zu erscheinen. Und das führt uns zurück zu den Anfängen dessen, was seither – irreführenderweise, aber symptomatisch – „künstliche Intelligenz“ heißt. Von allem (Turingschen) Anfang an geht es dabei nämlich um ein „Imitation Game“16. Nicht die Frage, ob Maschinen bzw. die auf diesen laufenden Programme intelligent sind oder 15
16
vgl. Zimmerli, Walther Ch.: Macht Information Sinn? Reflexionen zur Iteration von Unterschied und Nichtwissen. In: Roelcke, Thorsten; Ballod, Matthias; Pelikan, Kristina (Hg.): Information und Wissen – Beiträge zum transdisziplinären Diskurs. Frankurt am Main, Bern u. a. 2018 (im Druck). Es ist durchaus kein Zufall, dass Alan Turing seinen als „locus classicus“ zu bezeichnendem Aufsatz „Computing Machinery and Intelligence“ nicht mit einem Satz, sondern gleich mit
28
Walther Ch. Zimmerli
denken können, steht zur Diskussion. Sondern es handelt sich um eine Frage nach dem, was wir systemtheoretisch als „funktionale Äquivalenz“ bezeichnen können, die eine Weiterführung des „principium identitatis indiscernibilium“ darstellt. In dieser Welt 3 ist es gleichgültig, ob die auf den Endgeräten laufenden Programme intelligent sind. Das wird zu einer letztlich platonisierend metaphysischen Frage, die – pragmatisch gesehen – obsolet ist. Wichtig ist allein, ob sie sich so verhalten, dass der Nutzer das nicht mehr unterscheiden kann und – wenn er nicht ein Philosoph ist – auch nicht mehr unterscheiden will und muss. Anders: es geht um nicht mehr, aber auch um nicht weniger als um eine Rehabilitierung der Täuschung17, und zwar in Nietzsches Formulierung: „im außermoralischen Sinne“. So betrachtet, gilt in dieser Welt 3 im Rahmen des begonnenen antiplatonischen Experiments, dass auch einige der das platonische Denkmodell konstituierenden Bestimmungsstücke entfallen, und zwar jeweils immer nur auf der Ebene ihrer Gegenstände. Mit den Begriffspaaren „Sein“ und „Schein“, „Virtualität“ und „Realität“, „Wesen“ und „Erscheinung“ seien nur einige exemplarisch genannt. Allerdings läuft, wer nach Popper von „Welt 1“, „Welt 2“ und „Welt 3“ spricht, Gefahr, einer – nun erneut wieder platonisierenden – Fehldeutung Vorschub zu leisten, die es daher hier von vornherein auszuschließen gilt. In seinem Buch „Objective Knowledge“ hatte Popper seine (für seine Verhältnisse erstaunlich metaphysische) Drei-Welten-Lehre entwickelt, und zwar in Abgrenzung von Platon und Hegel ausgerechnet als Erläuterung seines Verständnisses von Pluralismus: „In dieser pluralistischen Philosophie besteht die Welt aus mindestens drei ontologisch verschiedenen Teilwelten, was ich so ausdrücken werde, dass es drei Welten gibt: als erste die physikalische Welt oder die Welt der physikalischen Zustände; als zweite die Bewusstseinswelt oder die Welt der Bewusstseinszustände; als dritte die Welt der intelligibilia oder der Ideen im objektiven Sinne; es ist die Welt der möglichen Gegenstände des Denkens: die Welt der Theorien an sich und ihrer logischen Beziehungen; die Welt der Argumente an sich; die Welt der Problemsituationen an sich.“18 Es dürfte sich wohl von selber verstehen, dass sich Popper, all seinen Befreiungsschlägen zum Trotz, noch mitten im platonischen Denkmodell befindet, das – jedenfalls an dieser Stelle – offenbar gar nicht mit Artefakten rechnet und schon gar nicht mit solchen, die wir als logische Artefakte zweiter Stufe bezeichnen können, die also auf dem Wege einer vollständigen Reduktion von Semantik auf Syntax eine „virtuell“ genannte andere Realität erschaffen. Das hier von mir vorgeschlagene Konzept einer Welt 3 der virtuellen Realität, die es nach der erfolgreichen Durchführung einer Reduktion, die sich als „digitalisierte Epoche“ bezeichnen ließe und die sich ausschließlich der Erfassung der Wirklichkeitskonstitution durch
17 18
einem ersten Zwischentitel beginnen lässt: „The Imitation Game“. Turing, Alan: Kann eine Maschine denken? (1950). Dt. in: Zimmerli; Wolf (Hg.): Künstliche Intelligenz, a. a. O., S. 39. Anders – und stärker platonisierend – dagegen: Müller, Olaf L.: Wirklichkeit ohne Illusionen. 2 Bde. Paderborn 2003; bes. Bd. 1: Hilary Putnam und der Abschied vom Skeptizismus oder Warum die Welt keine Computersimulation ist. a. a. O., S. 1 ff. Popper, Karl R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg 1974(6). S. 174.
Technologisierung und Pluralisierung – ein Januskopf
29
Täuschung widmet, stellt eine veritable Befreiung von der jahrtausendelangen Engführung allen philosophischen Denkens auf allgemeine Begriffe dar. Auf diese Weise eröffnet sich nun – so ähnlich wie damals nach Husserls Entdeckung der Welt der intentionalen Gegenstände und damit letztlich der Noumena nach einer zunächst phänomenologischen und dann transzendentalen Reduktion – ein ganzes Panorama zu bearbeitender Probleme, die die Beziehungen und die Differenzen allgemein zwischen Welt 1, 2 und 3, insbesondere aber zwischen Welt 1 und 3, also der „aktuellen“ und der „virtuellen Realität“ betreffen. Diese gilt es nun systematisch zu analysieren, um sie wenigstens für die philosophische Reflexion zu retten. Denn es ist abzusehen, dass sich die Unterschiede für die Pragmatik der Lebensführung ähnlich schnell und nachhaltig verschleifen wie z. B. im Falle des Umgangs mit sogenannten „intelligenten“ oder „smarten“ Fahrerassistenzsystemen, deren Mitwirkung beim Autofahren unterhalb der Wahrnehmbarkeitsschwelle der Fahrerinnen oder Fahrer liegt und daher für diese auch nicht mehr „existiert“. Der hier skizzenhaft beleuchtete Abschied von der lebenspragmatischen Bedeutung einer Unterscheidbarkeit zwischen Erkenntnis und Täuschung mag zwar eine hinreichende Motivation dafür darstellen, es für nicht sinnvoll zu halten, weiterhin danach zu fragen, ob die auf unseren als „smart“ bezeichneten Endgeräten laufenden Programme uns „täuschen“; auf der Ebene der philosophischen Reflexion aber ist es nicht nur erlaubt, sondern absolut erforderlich, Fragen dieser Art zu diskutieren. Denn vergessen wir nicht: die philosophische Einsicht, dass die Grundlage dieses neuen Denkens in der systematischen Rehabilitierung der Täuschung zu suchen ist, ist entweder (wie Nietzsches Versuch einen Rehabilitierung des Scheins19) zum Scheitern verurteilt, oder sie wird umgekehrt die Erforschung dieser Welt als Abschied von der Täuschung inszenieren. Dieser aber birgt immer auch die Gefahr einer potenziellen Ent-Täuschung in sich. So betrachtet, gewinnt der Januskopf von Technologisierung und Pluralisierung, ontologisch gesehen, eine weitere Dimension: Die zunehmende Technologisierung unserer Welt, durch Digitalisierung noch verstärkt, sorgt nicht nur dafür, dass das antiplatonische Experiment sich in der Vereinheitlichung der Welt durch digitale Technologie bei gleichzeitiger Pluralisierung der Welt der Ideen und gedanklichen Konstrukte verschärft fortsetzt, sondern auch noch dafür, dass die Ununterscheidbarkeit von aktueller und virtueller Realität letztlich zum Ausgangspunkt einer neuen philosophischen Analyse der Pluralität der Welten wird. Und insofern musste der eingangs erwähnten skeptischen Einschätzung von Klaus Kornwachs, dass der Begriff des Pluralismus angesichts terroristischer Bedrohung an seine Grenzen stoße, im Sinne einer reflektierten Weiterführung widersprochen werden.
19
vgl. Zimmerli, Walther Ch.: „Alles ist Schein“ – Bemerkungen zur Rehabilitierung einer Ästhetik post Nietzsche und Derrida. In: Oelmüller, Willi (Hg.): Ästhetischer Schein. Kolloquium Kunst und Philosophie 2. Paderborn, München, Wien, Zürich 1982. S. 147–167.
30
Walther Ch. Zimmerli
LITERATUR Beck, Ulrich: Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt am Main 1986. Bullinger, Hans-Jörg; ten Hompel, Michael (Hg.): Internet der Dinge. Berlin 2007. Gadamer, Hans-Georg: Rhetorik, Hermeneutik und Ideologiekritik. Metakritische Erörterungen zu „Wahrheit und Methode“ (1967). Wieder abgedruckt in: Apel, Karl-Otto u. a.: Hermeneutik und Ideologiekritik. Frankfurt am Main 1971. S. 57–82. Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main 1979; jetzt mit zahlreichen zusätzlichen Materialien kritisch ediert in: Böhler, Dietrich; Bongardt, Michael; Burckhart, Holger; Zimmerli, Walther Ch. (Hg.): Kritische Gesamtausgabe der Werke von Hans Jonas. Abteilung I, Bd. I.2,1. Freiburg im Breisgau, Berlin, Wien 2017. Kornwachs, Klaus (Hg.): Technik – System – Verantwortung. Münster 2004. ders.: Kann man mit Terroristen reden? In: Wolf, Stefan; Marquering, Paul (Hg.): Unkritische Masse? Offene Gesellschaft und öffentliche Vernunft. Berlin, Münster, London 2016. S. 145– 164. Kroker, Eduard J. M.; Deschamps, Bruno (Hg.): Information – eine dritte Art von Wirklichkeit neben Materie und Geist. Frankfurt am Main 1995. Mittelstraß, Jürgen: Die Rettung der Phänomene. Ursprung und Geschichte eines antiken Forschungsprinzips. Berlin 1962. Popper, Karl R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg 1974(6). Turing, Alan: Kann eine Maschine denken? (1950). Dt. in: Zimmerli, Walther Ch.; Wolf, Stefan: Künstliche Intelligenz. Philosophische Probleme. Stuttgart 2002(2). Zimmerli, Walther Ch.: „Alles ist Schein“ – Bemerkungen zur Rehabilitierung einer Ästhetik post Nietzsche und Derrida. In: Oelmüller, Willi (Hg.): Ästhetischer Schein. Kolloquium Kunst und Philosophie 2. Paderborn, München, Wien, Zürich 1982. S. 147–167. ders.: Das antiplatonische Experiment. In: ders. (Hg.): Technologisches Zeitalter oder Postmoderne. München 1991(2). S. 13–35. ders.: Macht Information Sinn? Reflexionen zur Iteration von Unterschied und Nichtwissen. In: Roelcke, Thorsten; Ballod, Matthias; Pelikan, Kristina (Hg.): Information und Wissen – Beiträge zum transdisziplinären Diskurs. Frankurt am Main, Bern u. a. 2018 (im Druck). ders.: Second Order Pluralism. In: Hertzog, Dirk; Britz, Etienne; Henderson, Alastair (Hg.): Gesprek sonder grense. Festschrift für Johan Degenaar zum 80. Geburtstag. Stellenbosch 2006. S. 324– 341. ders.: To Know is to Make. Knowledge, Ignorance and Belief in a Technological Society. In: Meisinger, Hubert; Drees, Willem B.; Zbigniew, Liana (Hg.): Wisdom or Knowledge? Science, Theology, and Cultural Dynamics. London 2006. S. 145–152. Zimmerli, Walther Ch.; Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme. Stuttgart 2002(2).
SPEEDING THINGS DOWN1 Carl Mitcham As someone who has been acquainted with Klaus Kornwachs since the early 1990s, I find it unfortunate how little of his work is available in English. His contributions to technical systems theory, the philosophy of science, and philosophy of technology are mostly unknown outside a German orbit. But it is from the perspective of science, technology, and society (STS) studies that I venture a glancing engagement with his thought. This informal reflection aims to complement his critical analyses of relationships between technology and culture by calling attention to a concern that has slowly emerged over the last quarter century – but is coming increasingly to the fore among scholars venturing critical reflections on the technoscientific lifeworld. One of the most widely shared values in our world is the idea of speeding things up. From the earliest phases of the Industrial Revolution, efforts to accelerate the production of goods and services have been presented as of multi-dimensional human benefit. Increasing speed increases productivity, which in turn increases worker pay and the availability of goods. From the 19th through the 20th century those responsible for scientific and technological policies have promoted accelerations in transport and communications as public goods that further facilitate the satisfaction of private consumer interests. In the 21st century increasing the speed of knowledge production and technological innovation are largely unquestioned ideals that are imagined as the most effective means to deal with social problems such as poverty and disease as well as environmental challenges such as pollution, biodiversity loss, and climate change. Of course, there have been occasional complaints. For instance, rapid-fire scientific or technological changes are readily admitted to disrupt social ecologies. During the early decades of the 20th century economist Thorsten Veblen and sociologist William Fielding Ogburn developed the concept of a socio-cultural lag, noting how changes in technology often outstrip their contexts and demand companion changes in society or culture. Insofar as the functioning of a society depends on harmony among its various institutions, socio-cultural lag can be the cause of disorder or mal-functioning. An example given by Ogburn concerned the effects of industrialization on worker safety and health. Factory system technology limited worker abilities to protect themselves, but appropriate safety regulations and worker compensation laws were slow to redress the balance, in part because such laws were contrary to the interests of captains of industry. Two other examples from later work are automobiles and nuclear weapons. The mass consumption of cars 1
Acknowledgment: A much earlier version of this reflection grew out of and benefitted from conversations with Daniel Sarewitz as well as Ned Woodhouse.
32
Carl Mitcham
required the development of traffic regulations, insurance systems, and government acceptance of responsibility for highway construction. The case of nuclear weapons is even more dramatic, as articulated by Albert Einstein’s 1946 version of cultural lag theory: “The unleashed power of the atom has changed everything save our modes of thinking, and thus we drift toward unparalleled catastrophe.”2 The idea that rapid technological change could be the source of such disorder was further developed by futurologist Alvin Toffler in “Future Shock”, a concept he presented as complementary to cultural lag. Cultural lag implicitly criticizes culture as a problem. Toffler means for future shock to suggest technological change as a problem. Yet even with Toffler, complaints are mostly voiced in ways that suggest a need to adjust to the speed of change. Although he raised the idea of moderating technological change to accommodate limited human response abilities, he also argued that “The only way to maintain any semblance of equilibrium … will be to meet invention with invention – to design new personal and social change-regulators”3. The social problems attributed to rapid scientific or technological change call for human creative flexibility that can support increases in the speed of adjustment. Dealing with technological innovation requires social innovation. With Toffler and others, technological change or innovation is not something that always takes place at the same pace. Technological change is virtually sycomorus with speeding things up. It is difficult to conceive of technological change that would be compatible with slowing things down. Indeed, social scientists repeatedly assume that just as the physical sciences are translated into material culture must we learn to apply the social sciences to produce social scientific knowledge that enables catch-up cultural change. Speed of change in social technologies is necessary to balance speed of change in physical technologies. Social institutions and personal behavior designed for agility in adjusting to new technologies – from outsourced contracting to life-long learning – are the name of the world-wide competitive game. VARIATIONS ON A THEME Neither Ogburn nor Toffler venture to develop much in the way of quantitative metrics for technological change. But there are two common approaches. One focuses on technological outputs and counts numbers of patents over time. Another looks at increases in some dimension of productivity (GDP, per capita income, personal consumption index), together with the assumption that technological change is a major driver of the economy. Techno-optimists such as Julian Simon4 and Ray Kurzweil5 have developed a host of related versions: Exponential growths in com2 3 4 5
Einstein, Albert: Atomic Education Urged by Einstein: Scientists in Plea for $ 200,000 to Promote New Type of Essential Thinking. New York Times, 25 May 1946, p. 13. Toffler, Alvin: Future Shock. New York 1970. p. 331 Moore, Stephen; Simon, Julian L.: It’s Getting Better All the Time: 100 Greatest Trends of the Last 100 years. Washington, DC, 2000. Kurzweil, Ray: The Singularity Is Near: When Humans Transcend Biology. New York 2006.
Speeding things down
33
puter power and speed, internet users, or internet traffic. (One might note in passing a parallel growth in instruments for analyzing speed: from the calculus to stop watches, stop-motion photography, and virtual reality simulations.) Social or cultural change is much more difficult to assess. Social and quality-of-life indicators such as those associated with employment, education, public health and longevity, mental health, family stability, crime, environmental quality, museum attendance and arts productions, subjective happiness, et al. provide little direct measurement for any lag tracking technological change. Although it may well be that when these indicators go negative it reflects a disequilibrium between new technology and old social or cultural patterns, the correlation rests more on qualitative than quantitative assessment. Qualitatively and intuitively it nevertheless remains a reasonable hypothesis that insofar as social stability is a common good dependent on an appropriate fit between its different material and non-material elements, disharmonies between some of them may well be reflected in declines in quality of life. Moreover, whereas the non-material dimensions of culture such as social habits and traditions exhibit natural inertias, material dimensions such as science-based technologies exhibit inherent change momentums. The social rituals of religion and politics reproduce more of the same; those of science and technology even more than modern art constitute the culture of the new. More than capitalism, to adapt Joseph Schumpeter’s famous descriptor, science and technology manifest creative destruction. Historians of technology have documented how material changes in premodern cultures such as the stirrup or the draft chimney were experienced in their times as highly disorienting. But the accumulation and increasing dominance of these kinds of material technologies makes socio-cultural lag a more pervasive feature of the present than of the past. In terms coined by anthropologist Margaret Mead, traditional cultures with their relatively stable technologies are pre-figurative. The knowledge of older members, who have mastered those technologies central to a society, pre-figures what younger generations need to learn. By contrast, when the central technologies change, young and old learn together in co-co-figurative culture or have to learn on their own while elders loose status in a post-figurative social order. As material culture accumulates and technologically thickens alterations in social power begin to affect intra-generational relations – and call forth ever more disjunctions and efforts at responsive structural adjustment. Thus arises what social theorist Daniel Bell has described as “the cultural contradictions of capitalism”: the difficulty of maintaining either cultural conservatism or political equities in the face of turbo-charged techno-economic growth. One reason for the increasing replacement in the schools of lectures by active and collaborative learning exercises may be the simple decline in relevance of what teachers themselves have previously learned. By the late 1990s speed began to appear as an ever more explicit theme of social criticism. Classics professor Stephen Bertman’s “Hyperculture: The Human Cost of Speed”6 took off from Toffler hyperbolically to blame the accelerating pace of 6
Bertman, Stephen: Hyperculture: The Human Cost of Speed. New York 1998.
34
Carl Mitcham
American life as the source of social disorder, environmental degradation, and an erosion of the most fundamental humanistic values. In a less rhetorical and more nuanced manner, sociologist Hartmut Rosa, argued a connection between alienation and acceleration7, collected texts by others related to the topic8, then presented social acceleration as a critical theory of late modernity9. Rosa distinguishes accelerations in technological change, in social change, and in the pace at which individuals lead their daily lives. This trilogy of accelerations engender what he terms of a “shrinking of the present”: a diminishing of the time period in which expectations from the past can reliably serve as guides to future experiences. STS scholar Judy Wajcman’s “Pressed for Time”10 further explores the pace of life paradox: technologies that were supposed to give us leisure wind up taking it away from us. DE-INNOVATION ECONOMICS Some of the strongest beliefs in the virtues of technological change are economic. A minority questioning of unfettered technological innovation nevertheless deserves brief mention. There are two minority economic criticisms, one much more radical than the other. The most radical criticism flys under banners of entropy economics, ecological economics, and degrowth. The theoretical application of the concept of entropy to economics was pioneered by Nicholas Georgescu-Roegen11. A version emphasizing environmental sustainability was independently developed by, among others, Herman Daly12. But it is the degrowth theory of Serge Latouche that has the strongest implications not just for re-directing economic activity but reducing it – and thereby speeding things down. At the same time, as Latouche admits, “‘De-growth’ is a political slogan with theoretical implications … that is designed to silence the chatter of those who are addicted to productivism”13. It presents an aspirational ideal that might be encapsulated in a slogan, “Slow is better.” Slow is better because it enhances conviviality over production and consumption. Don’t just innovate in new ways, he might say, de-innovate. Despite efforts to give political muscle to a political vision, Latouche’s argument remains an impotent imagination. A less radical but perhaps equally impotent argument has been voiced in response to the question “How fast should we innovate?” by a chemist obviously 7 8 9 10 11 12 13
Rosa, Hartmut: Alienation and Acceleration: Towards a Critical Theory of Late-modern Temporality. Aarhus 2010. Rosa, Hartmut; Scheuerman, William E. (Hg.): High-Speed Society: Social Acceleration, Power, and Modernity. University Park, PA, 2010. Rosa, Hartmut: Social Acceleration: A New Theory of Modernity. New York 2015. Wajcman, Judy: Pressed for Time: The Acceleration of Life in Digital Capitalism. Chicago 2014. Georgescu-Roegen, Nicholas: The Entropy Law and the Economic Process. Cambridge, MA, 1971. Daly, Herman: Economics, Ecology, Ethics: Essays Toward a Steady-State Economy. San Francisco 1980. Latouche, Serge: Petit traité de la décroissance sereine. Paris 2007. English trans.: Farewell to Growth. Cambridge, UK, 2009. p. 7.
Speeding things down
35
sensitive to the emerging notions of responsible research and innovation. In the face of the commonplace belief in the promiscuous promotion of innovation, Thomas Vogt asks: “[W]hat speed should a particular innovation have? Are there reasons for us to accelerate or slow down an innovation? … Is fast innovation always better?”14 His particular response begins by noting that innovations can make once abundant resources scare. Prior to certain high-tech electronic developments, the so-called rare earth minerals were only physically not economically rare. Now that they physics has become economics, it would seem better to slow down innovation in some aspects of product development (such as miniaturization) in order to allow others (such as materials substitution) time to catch up. In many instances, “slower innovation can be a more efficient process as it allows the exploration of a wider parameter space and allows sustainable materials compositions to be developed”15. BEYOND EQUILIBRIUM IN CHANGE There are two basic reasons why social lag theorists argue for the promotion of social adaptation to technological change, never mind its speed. One is an assessment of technological change as mostly good. Another is belief in the inevitability of such change. Although logically independent, the two beliefs reinforce each other. Yet insofar as we want to argue that technologies themselves are not independent variables – that is, against technological determinism and for social constructionism – it is worthwhile to consider arguments to the contrary. On occasion it may be reasonable to pause and at least review criticisms of technological change without jumping immediately to proposals for social accommodation or economic balance, and should such criticisms prove even marginally persuasive, to propose ways in which change might be globally modulated. Begin with the normative assessment: Is technological change always or on balance good? There are at least four overlapping arguments against any simple affirmative response: counter productivity, injustice, unhappiness, and reduced intelligence. After a certain point, increasing technological change readily turns counterproductive. Consider the example of computer software. The introduction of a new version of some computer program costs the user money and learning time (and attention) that must be subtracted from whatever increased utility the new program is alleged to provide. The immediate widespread adoption of a new program further requires that a much larger number of persons dedicate time to learning and suffering the inevitable bugs. Consumer Reports regularly recommends against purchasing the new model of a car its first year on the market precisely for this reason: it takes a few years to identify and work out the bugs. As the marginal utility of rapid change decreases, the personal investment required remains much the same. Who really finds the shrinking life cycle of computers truly worthwhile – or that of smart phones anything more than a fashion competition? 14 15
Vogt, Thomas: How Fast Should We Innovate? Journal of Responsible Innovation, 2016, vol. 3, no. 3, p. 255. ibid, p. 258.
36
Carl Mitcham
Indeed, parallel to those dis-economies of size that have been identified as boundary conditions to economies of scale, one can postulate inefficiencies of speed as shadow conditions for acceleration of pace. If a new product is adopted rapidly by everyone, then the improvements that first users might otherwise experience from new generation products actually decline in significance. The original promise of technology was that it would reduce work. It may have reduced the physical strain of work for those in what Peter Sloterdijk16 calls the crystal place, but as numerous studies of labor patterns have shown, there has been little if any reduction in amount. With cells phones and the wireless internet, the forty-hour work week has become an impossible ideal. Through technological change, including its speed, work has simply changed its character (becoming more mental) and actually expanded (taking up more time). Another aspect of counterproductivity is magnified inequality. As Ivan Illich, Jean Robert, and Jean-Pierre Dupuy have all argued, increased speed in transport has widened the gap between the speed rich and the speed poor. Those who are able to buy airplane tickets go faster while those who walk never alter their speed – and are even slowed down by roads that cut across paths and inconvenienced by multiple ambient invasions (chemical, aural, and visual). More generally, speed capitalism increases many different types of inequality and thus raises questions of justice At its origin, the founders of the American polity proclaimed as a self-evident truth that all human beings are endowed with a right to the pursuit of happiness. Does technological change assist in such pursuit? Empirical research on happiness gives reason to doubt. Psychological studies have questioned whether rising material welfare due to technological change is accompanied by increases in subjective well-being. As reported in a clutch of research – see, e. g., Richard Layard17 and Jonathan Haidt18 – Americans in the early decades of the 21st century are twice as wealthy as in the 1950s but report no greater levels of happiness or personal satisfaction. Instead of getting happier as they become wealthier, people tend to get stuck on a “hedonic treadmill” with expectations rising as fast or faster than incomes. Humans have remarkable abilities to adapt to new situations over time. One empirical study discovered that even persons with spinal cord injuries were eventually able to adapt emotionally to their new situations to the extent that positive emotions outweighed negative ones. But happiness studies also suggest that it is harder to adapt to some experiences than others. Unemployment, for instance, although a necessary concomitant of rapid technological change, leaves more lasting emotional scars than spinal cord injuries. There are personal cultural lags in adjusting to technological change that may be more difficult to negotiate than social lags. Technological change, especially in the form of enhanced communication and computing power is often presumed to increase personal as well as public democratic intelligence. Here again research raises questions. Technological change mul16 17 18
Sloterdijk, Peter: Im Weltinnenraum des Kapitals. Für eine philosophische Theorie der Globalisierung. Frankfurt 2005. Layard, Richard: Happiness: Lessons from a New Science. New York 2005. Haidt, Jonathan: The Happiness Hypothesis: Finding Modern Truth in Ancient Wisdom. New York 2006.
Speeding things down
37
tiplies choices, thus requiring increased decision making. Although initially people tend to feel better when given options to choose among, after a certain point the positive benefits quickly disappear. Counter productivity becomes compounded by irrationality. Faced with the need to choose between large numbers of options, people often opt out. At the supermarket, a shopper faced with multiple product choices has a strong tendency simply to go buy something else. When choice becomes necessary, as when some cereal has to be purchased, shoppers resort to simple and even irrational rules (which is why advertising works). In one analogous empirical study, researchers offered students either thirty or six options for an extra credit essay on an exam; Those presented with thirty options were less likely to choose to do the extra credit essay, and when they did so the essays produced were of inferior quality. It has also been established that beyond a certain point increases in information about patients reduces the ability of physicians to make accurate diagnoses. More generally, speed can slow down both personal and social learning. The simple fact is that one needs time to discover and reflect. A rush to judgment is often a rush to mis-judgment. Here the “dromology” of French social critic Paul Virilio (if one digs beneath his oracular prose) has important things to say.19 Virilio’s analysis of speed in politics points toward tendencies of speed in communications (the news cycle via the electronic media) to create a real-time politics that inhibits reflection and reduces social intelligence. COULD SECOND BEST BE BEST? Imagine then (if only for a moment) that speeding things up might not always be beneficial. Is it even possible to speed things down? The most popular argument against attempting to delimit the speed of scientific research or technological invention and innovation is that if we do not innovate someone else will – and that the only way to maintain any competitive advantage and dominance in the global economic system is to maintain and even increase an existing rate of technological change. The technological system has a dynamism all its own, and if we decline to serve as its carrier then someone else will – to our detriment. But what if second (or even third or fourth) best is really best? Who wants to be on the front lines of a military attack? Even in races, it is often the second or third person for most of the course who is able to be the first to sprint over a finish line. We establish procedural boundaries such as those of free and informed consent for human subjects in scientific research and set speed limits on roads in order to promote the common good. The slow food and slow cities movements are actually carving out their own competitive advantages. Why not look for ways to modulate the rates of technological change? Among science and technology policy analysts, political scientist Edward Woodhouse has for more than thirty years argued for and considered practical pol19
Virilio, Paul: Vitesse et Politique. Paris 1977.
38
Carl Mitcham
icies for moving in this direction. In a critical commentary on Vogt’s much more restricted argument for modulating speed in the innovative use of scarce resources, Woodhouse seeks expand the reflective possibility space with two interrelated re-framing moves: shift from personal experiences to what goes on in social-political institutions and away from “we-talk”. It is not “we” who innovate but corporations. “Given that a majority of the world’s population has little to say over how fast the technology revolutionaries move, it is misleading to deploy careless collective nouns and pronouns that obscure lack of agency”.20 Carelessness becomes especially salient when consider democratic political intelligence. Intelligence democratic decision making depends on social trial-and-error learning, which is turn requires a slow enough pace to actually become aware of outcomes and greater diversity of stakeholder engagements. Rapidly of technological change cannot help but hide defects in the haze. Fast driving blurs the countryside. As Woodhouse summarizes, “rapid pace is the enemy of intelligent trial-and-error learning both for specific technoscientific endeavors and for the overall pace of change”21. Although in the context of techno-capitalist momentum it is difficult to imagine what might actually be done to moderate our headlong rush into the (questionable) future, Woodhouse ventures three modest proposals: limit the government funding of innovation, reduce automatic tax write offs for innovation investments, and broaden peer review criteria for what government innovation funding continues. Any mechanisms for the social consideration of invention and innovation prior to market introductions, the auctioning of technological licenses, and the strengthening of corporate legal liabilities for negative outcomes would be positive actions that could potentially speed things down. Beyond such modest ideas, one might further propose revamping a global trade system that promotes international technological competition by formulating policies to redistribute income and wealth, and question socio-religious assumptions about technological progress. “If no manufacturer, government regulator, or consumer would find acceptable an automobile without brakes, should a member of technological civilization endorse an innovation system that lacks institutions for slowing the pace of change when it becomes excessive?”22 The bottom line is that politicians and the public are not wholly impotent with regard to the modulation of technological change. But we have to be convinced that such modulation is on occasion more rational than simply accepting the social dislocations of such change or promoting cultural lag catch up. At the very least, the promotion of research and education on such questions is a worthy policy goal – one that can only enhance interdisciplinary knowledge about the circumstances under which we live, even among those who wind up concluding more of the same is as good as it gets.
20 21 22
Woodhouse, Edward J.: Slowing the Pace of Technological Change? Journal of Responsible Innovation, 2016, vol. 3, no. 3, p. 267. ibid, p. 269. Ibid, p. 271.
Speeding things down
39
LITERATURE Reflecting its character as an informal essay rather than a scholarly research paper, references are selective. Bell, Daniel: The Cultural Contradictions of Capitalism. New York 1976. Bertman, Stephen: Hyperculture: The Human Cost of Speed. New York 1998. Daly, Herman: Economics, Ecology, Ethics: Essays Toward a Steady-State Economy. San Francisco 1980. Dupuy, Jean-Pierre; Robert, Jean: La trahison de l’opulence. Paris 1976. Einstein, Albert: Atomic Education Urged by Einstein: Scientists in Plea for $ 200,000 to Promote New Type of Essential Thinking. New York Times, 25 May 1946, p. 13. Georgescu-Roegen, Nicholas: The Entropy Law and the Economic Process. Cambridge, MA, 1971. Haidt, Jonathan: The Happiness Hypothesis: Finding Modern Truth in Ancient Wisdom. New York 2006. Illich, Ivan: Energy and Equity. New York 1976. Kurzweil, Ray: The Singularity Is Near: When Humans Transcend Biology. New York 2006. Latouche, Serge: Petit traité de la décroissance sereine. Paris 2007. English trans.: Farewell to Growth. Cambridge, UK, 2009. Layard, Richard: Happiness: Lessons from a New Science. New York 2005. Mead, Margaret: Culture and Commitment: A Study of the Generation Gap. New York 1970. Moore, Stephen; Simon, Julian L.: It’s Getting Better All the Time: 100 Greatest Trends of the Last 100 years. Washington, DC, 2000. Ogburn, William Fielding: Social Change with Respect to Culture and Original Nature. New York 1922. Rosa, Hartmut: Alienation and Acceleration: Towards a Critical Theory of Late-modern Temporality. Aarhus 2010. Rosa, Hartmut: Social Acceleration: A New Theory of Modernity. New York 2015. Rosa, Hartmut; Scheuerman, William E. (Hg.): High-Speed Society: Social Acceleration, Power, and Modernity. University Park, PA, 2010. Sloterdijk, Peter: Im Weltinnenraum des Kapitals. Für eine philosophische Theorie der Globalisierung. Frankfurt 2005. Toffler, Alvin: Future Shock. New York 1970. Virilio, Paul: Vitesse et Politique. Paris 1977. Vogt, Thomas: How Fast Should We Innovate? Journal of Responsible Innovation, 2016, vol. 3, no. 3, pp. 255–259. Wajcman, Judy: Pressed for Time: The Acceleration of Life in Digital Capitalism. Chicago 2014. Woodhouse, Edward J.: Slowing the Pace of Technological Change? Journal of Responsible Innovation, 2016, vol. 3, no. 3, pp. 266–273.
DIE BERECHENBARKEIT VON TECHNIK UND WISSENSCHAFT
Von komplexen Systemen zur Digitalisierung und künstlichen Intelligenz Klaus Mainzer Klaus Kornwachs traf ich zum ersten Mal 1997 in der Villa Vigoni am Comer See anlässlich einer Konferenz über „Interdisciplinary Approaches to a New Understanding of Cognition and Consciousness“, die von Valentino Braitenberg und Franz Josef Radermacher organisiert war.1 Damals waren wir beide 50 Jahre alt. Wir hatten damals schon Ideen zur interdisziplinären Grundlagenforschung und Technikphilosophie, die heute genau 20 Jahre später angesichts exponentiell wachsender Computer- und Informationstechnologie dramatische Aktualität erhalten. 1 GRUNDLAGEN DES DIGITALEN ZEITALTERS Als Carl Friedrich von Weizsäcker (1912–2007) im 20. Jahrhundert über die Grundlagen von Physik und Philosophie nachdachte, stand die Welt unter dem Eindruck von Kernwaffen und Kernenergietechnik. Die Verantwortung des Naturwissenschaftlers und Ingenieurs in der globalisierten Welt wurde erstmals zu einem zentralen Thema. Weizsäcker erkannte aber, dass man zu kurz springt, wenn man sich nur auf die Tagespolitik einlässt. Tatsächlich hing damals die Veränderung der Welt mit grundsätzlichen Umwälzungen des physikalischen Weltbilds zusammen, deren physikalischen und philosophischen Grundlagen aufgearbeitet werden mussten. Im 21. Jahrhundert ist die Digitalisierung eine globale Herausforderung der Menschheit. Spätestens seit Data Mining und Big Data ist der Öffentlichkeit klar, wie sehr unsere Welt von Daten und Algorithmen beherrscht wird. Umgekehrt ist aber auch klar, dass ohne Digitalisierungstechnik die Komplexität moderner Gesellschaften nicht mehr zu bewältigen wäre. Wie berechenbar ist aber diese komplexe Welt? Manche glauben, dass es nur noch auf schnelle Algorithmen ankommt, um Lösungen von Problemen in Technik und Wirtschaft zu finden. Selbst in der Ausbildung geht es häufig nur noch um „Business-Modelle“ und den schnellen wirtschaftlichen Profit. Bereits die Finanz- und Weltwirtschaftskrise von 2008 (die jederzeit wieder eintreten könnte) hing wesentlich mit falsch verstandenen Grundlagen und Voraussetzungen von mathematischen Modellen und Algorithmen zusammen. 1
Braitenberg, Valentino; Radermacher, Franz Josef (Hg.): Interdisciplinary Approaches to a New Understanding of Cognition and Consciousness. Ergebnisband Villa Vigoni Konferenz, Italy 1997. Ulm 2007.
42
Klaus Mainzer
Gefährlich wird es besonders dann, wenn wir uns blind auf Algorithmen wie Kochrezepte verlassen, ohne ihre theoretischen Grundlagen und Anwendungs- und Randbedingungen zu kennen. Nur wer die Theorie kennt, kann allgemeingültige Sätze und Theoreme über die Leistungsfähigkeit und Grenzen dieser Algorithmen und Computertechnik beweisen. Erst solche „Metatheoreme“ garantieren Verlässlichkeit und Korrektheit. Im „theoriefreien“ Raum des Probierens befinden wir uns im Blind-, bestenfalls Sichtflug. Von Heidegger2 (Heidegger 1954) stammt die sarkastische Äußerung: „Die Wissenschaft denkt nicht.“ Erst recht gilt für ihn dieses Diktum in der Technik. Wie immer man seine verkürzten Zuspitzungen bewerten mag: Statt Heideggers „Seinsvergessenheit“ in Wissenschaft und Technik wäre in diesem Fall ihre „Theorievergessenheit“ zu beklagen. Wenn auch noch das „postfaktische“ Zeitalter ausgerufen wird, in dem Fakten und Beweise durch Stimmungen und Gefühle ersetzt werden, ist Wissenschaft vollends im Niedergang. Chancen und Risiken der Digitalisierungstechnik werden in der Öffentlichkeit häufig deshalb falsch eingeschätzt, weil die Grundlagen der Algorithmen nicht berücksichtigt werden. Sie sind in der modernen Logik, Mathematik, Informatik und Philosophie tief verwurzelt.3 Historisch entstand die Theorie der Algorithmen und Berechenbarkeit (und damit die Informatik) aus der Grundlagendiskussion von Logik, Mathematik und Philosophie seit Anfang des letzten Jahrhunderts. Seit der Antike wird die Wahrheit mathematischer Sätze durch logische Beweise in Axiomensystemen begründet. Logisch-axiomatische Beweise wurden zum Vorbild in Wissenschaft und Philosophie. Im 20. Jahrhundert stellte sich die Frage, ob die Wahrheiten einer Theorie durch Formalisierung vollständig, korrekt und widerspruchsfrei erfasst werden können. Große Logiker, Mathematiker und Philosophen des 20. Jahrhunderts (z. B. Hilbert, Gödel, Turing) zeigten erste Möglichkeiten und Grenzen der Formalisierung auf. Aus formalen Beweisen lassen sich unter bestimmten Voraussetzungen Algorithmen bzw. Computerprogramme gewinnen, die von Rechenmaschinen ausgeführt werden können. So lässt sich maschinell überprüfen, ob ein Beweis korrekt und widerspruchsfrei ausführbar ist. Diese Einsichten der mathematischen Beweistheorie haben in der Informatik praktische Folgen. Informatik ist nämlich, wie Friedrich L. Bauer, einer der Münchner Begründer der Informatik in Deutschland, bemerkte, eine „GeistesIngenieurwissenschaft“4: Statt formaler Theorien und Beweise in der Mathematik werden dort formale Modelle von Prozessabläufen z. B. in der Industrie untersucht. Um Unfälle und erhebliche Mehrkosten bei Fehlern zu vermeiden, sollte vorher überprüft und bewiesen werden, ob die Prozessabläufe korrekt und zuverlässig ausführbar sind. Wegen der steigenden Datenmassen und Komplexität der Prozessabläufe werden solche Untersuchungen immer dringender, damit uns am Ende die Algorithmenwelt nicht aus dem Ruder läuft. Die Grundlagen der mathematischen Beweistheorie, Algorithmen, Computerprogramme und ihre philosophischen Wurzeln sind daher ein dringendes Desiderat 2 3 4
Heidegger, Martin: Was heißt Denken? Tübingen 1954. Mainzer, Klaus: Die Berechenbarkeit der Welt. Von der Weltformel zu Big Data. München 2014. Bauer, Friedrich L.: Was heißt und was ist Informatik? In: IBM 223, 1974, S. 334.
Die Berechenbarkeit von Technik und Wissenschaft
43
der Ditalisierungstechnik: Wie lassen sich aus Beweisen Computerprogramme gewinnen („proof mining“), die automatisch die Korrektheit und Zuverlässigkeit der Beweise bzw. Computerprogramme garantieren? Wie lassen sich die Algorithmen in der Finanzwelt konstruktiv sichern? Wieweit ist das überhaupt bei steigender Komplexität der Probleme und Beweise möglich? Hierbei geht es nicht nur um die erwähnten praktischen Konsequenzen, sondern auch um grundliegende erkenntnistheoretische Fragen: Computerprogramme sind Beispiele von konstruktiven Verfahren. Seit Anfang des letzten Jahrhunderts wird in Philosophie und mathematischer Grundlagenforschung darüber nachgedacht, ob oder bis zu welchem Grad Mathematik auf konstruktive Verfahren und damit kontrollierbare Algorithmen reduzierbar ist. 2 VON DER GRUNDLAGENFORSCHUNG ZU KOMPLEXEN SYSTEMEN IN NATUR, TECHNIK UND GESELLSCHAFT Die methodischen Grundlagen und interdisziplinären Bezüge der Digitalisierung sind daher ausgehend von Logik und mathematischer Grundlagenforschung zu untersuchen. Dabei spielt heute die Frage nach der Berechenbarkeit komplexer Systeme in Natur, Technik und Gesellschaft eine zentrale Rolle. Fachübergreifende Modelle für komplexe dynamische Systeme in Natur, Technik und Gesellschaft liefert die mathematische Systemtheorie. Sie beschäftigt sich fachübergreifend in Physik, Chemie, Biologie und Ökologie mit der Frage, wie durch die Wechselwirkungen vieler Elemente eines komplexen dynamischen Systems (z. B. Atome in Materialien, Biomoleküle in Zellen, Zellen in Organismen, Organismen in Populationen) Ordnungen und Strukturen entstehen können, aber auch Chaos und Zerfall. Allgemein wird in dynamischen Systemen die zeitliche Veränderung ihrer Zustände durch Gleichungen beschrieben. Der Bewegungszustand eines einzelnen Himmelskörpers lässt sich noch nach den Gesetzen der klassischen Physik genau berechnen und voraussagen. Bei Millionen und Milliarden von Molekülen, von denen der Zustand einer Zelle abhängt, muss auf Hochleistungscomputer zurückgegriffen werden, die Annäherungen in Simulationsmodellen liefern. Komplexe dynamische Systeme gehorchen aber fachübergreifend in Physik, Chemie, Biologie und Ökologie denselben oder ähnlichen mathematischen Gesetzen.5 Die universellen Gesetze komplexer dynamischer Systeme sind der Rahmen für weitere Forschung. Die Grundidee ist immer dieselbe: Erst die komplexen Wechselwirkungen von vielen Elementen erzeugen neue Eigenschaften des Gesamtsystems, die nicht auf einzelne Elemente zurückführbar sind. So ist ein einzelnes Wassermolekül nicht „feucht“, aber eine Flüssigkeit durch die Wechselwirkungen vieler solcher Elemente. Einzelne Moleküle „leben“ nicht, aber eine Zelle aufgrund ihrer Wechselwirkungen. In der Systembiologie ermöglichen die komplexen chemischen Reaktionen von vielen einzelnen Molekülen die Stoffwech5
vgl. Haken, Hermann: Synergetics. An Introduction. Berlin 1983(3) sowie Mainzer, Klaus: Thinking in Complexity. The Computational Dynamics of Matter, Mind, and Mankind. New York 2007(5).
44
Klaus Mainzer
selfunktionen und Regulationsaufgaben von ganzen Proteinsystemen und Zellen im menschlichen Körper. Wir unterscheiden daher bei komplexen dynamischen Systemen die Mikroebene der einzelnen Elemente von der Makroebene ihrer Systemeigenschaften. Diese Emergenz oder Selbstorganisation von neuen Systemeigenschaften wird in Computermodellen simulierbar. Allgemein stellen wir uns ein räumliches System aus identischen Elementen („Zellen“) vor, die miteinander in unterschiedlicher Weise (z. B. physikalisch, chemisch oder biologisch) wechselwirken können. Ein solches System heißt komplex, wenn es aus homogenen Anfangsbedingungen nicht-homogene („komplexe“) Muster und Strukturen erzeugen kann. Diese Muster- und Strukturbildung wird durch lokale Aktivität ihrer Elemente ausgelöst. Das gilt nicht nur für Stammzellen beim Wachstum eines Embryos, sondern auch z. B. für Transistoren in elektronischen Netzen. Wir nennen in der Elektrotechnik einen Transistor lokal aktiv, wenn er einen kleinen Signalinput aus der Energiequelle einer Batterie zu einem größeren Signaloutput verstärken kann, um damit nicht-homogene („komplexe“) Spannungsmuster in Schaltnetzen zu erzeugen. Keine Radios, Fernseher oder Computer wären ohne die lokale Aktivität solcher Einheiten funktionstüchtig. Bedeutende Forscher wie die Nobelpreisträger Ilya Prigogine (Chemie) und Erwin Schrödinger (Physik) waren noch der Auffassung, dass für Struktur- und Musterbildung ein nichtlineares System und eine Energiequelle ausreichen. Bereits das Beispiel der Transistoren zeigt aber, dass Batterien und nichtlineare Schaltelemente alleine keine komplexen Muster erzeugen können, wenn die Elemente nicht lokal aktiv im Sinne der beschriebenen Verstärkerfunktion sind. Das Prinzip der lokalen Aktivität hat grundlegende Bedeutung für Musterbildung komplexer Systeme und wurde bisher weitgehend nicht erkannt. Eine Ausnahme ist der geniale Logiker und Computerpionier Alan M. Turing (1912– 1954), der sich kurz vor seinem tragischen Tod mit Struktur- und Musterbildung in der Natur beschäftigt hatte.6 Musterbildung konnte von uns allgemein mathematisch definiert werden, ohne auf spezielle Beispiele aus Physik, Chemie, Biologie oder Technik Bezug zu nehmen.7 Dabei beziehen wir uns auf nichtlineare Differentialgleichungen, wie sie von Reaktions-Diffusionsprozessen bekannt sind. Anschaulich stellen wir uns ein räumliches Gitter vor, dessen Gitterpunkte mit Zellen besetzt sind, die lokal wechselwirken. Jede Zelle (z. B. Protein in einer Zelle, Neuron im Gehirn, Transistor im Computer) ist mathematisch betrachtet ein dynamisches System mit Input und Output. Ein Zellzustand entwickelt sich lokal nach dynamischen Gesetzen in Abhängigkeit von der Verteilung benachbarter Zellzustände. Zusammengefasst werden die dynamischen Gesetze durch die Zustandsgleichungen isolierter Zellen und ihrer Kopplungsgesetze definiert. Zusätzlich sind bei der Dynamik Anfangs- und Nebenbedingungen zu berücksichtigen. 6 7
Turing, Alan M.: The chemical basis of morphogenesis. In: Philosophical Transactions of the Royal Society. London, Series B, 237, 1952, S. 37–72. Mainzer, Klaus; Chua, Leon: Local Activity Principle. London 2013.
Die Berechenbarkeit von Technik und Wissenschaft
45
Allgemein heißt eine Zelle lokal aktiv, wenn an einem zellulären Gleichgewichtspunkt ein kleiner lokaler Input existiert, der mit einer externen Energiequelle zu einem großen Output verstärkt werden kann. Die Existenz eines solchen Inputs, der lokale Aktivität auslöst, kann mathematisch durch bestimmte Testkriterien systematisch geprüft werden. Eine Zelle heißt lokal passiv, wenn es keinen Gleichgewichtspunkt mit lokaler Aktivität gibt. Das fundamental Neue an diesem Ansatz ist der Beweis, dass Systeme ohne lokal aktive Elemente prinzipiell keine komplexen Strukturen und Muster erzeugen können. Neu ist auch der mathematische Beweis, dass nicht nur lokal aktive und instabile Zustände Veränderungen auslösen. Es ist zunächst aus dem Alltag intuitiv einleuchtend, dass z. B. eine instabile politische Situation einer Revolution und Gesellschaftsveränderung vorausgehen muss. Bereits Turing hatte aber wenigstens für einfache Fälle gezeigt, dass auch stabile Systeme, wenn sie dissipativ gekoppelt werden, neue Strukturbildungen auslösen können. In diesem Fall sind stabile Zustände quasi wie „tote“ chemische Substanzen, die durch geeignete dissipative Wechselwirkung „zum Leben erweckt“ werden. Wir sprechen dann von lokal aktiven, aber asymptotisch stabilen Zuständen, die „am Rand des Chaos“ (edge of chaos) ruhen. Sie wurden z. B. von Prigogine nicht berücksichtigt.8 Strukturbildung in der Natur lässt sich mathematisch systematisch klassifizieren, indem Anwendungsgebiete durch Reaktions-Diffusionsgleichungen nach den eben beschriebenen Kriterien modelliert werden. So haben wir z. B. die entsprechenden Differentialgleichungen für Musterbildung in der Chemie (z. B. Musterbildung in homogenen chemischen Medien), in der Morphogenese (z. B. Musterbildung von Muschelschalen, Fellen und Gefieder in der Zoologie), in der Gehirnforschung (Verschaltungsmuster im Gehirn) und elektronischen Netztechnik (z. B. Verschaltungsmuster in Computern) untersucht. Strukturbildungen entsprechen mathematisch nicht-homogenen Lösungen der betrachteten Differentialgleichungen, die von unterschiedlichen Kontrollparametern (z. B. chemischen Stoffkonzentrationen, ATP-Energie in Zellen, neurochemischen Botenstoffen von Neuronen) abhängen. Für die betrachteten Beispiele von Differentialgleichungen konnten wir systematisch die Parameterräume definieren, deren Punkte alle möglichen Kontrollparameterwerte des jeweiligen Systems repräsentieren. In diesen Parameterräumen lassen sich dann mit den erwähnten Testkriterien die Regionen lokaler Aktivität und lokaler Passivität genau bestimmen, die entweder Strukturbildung ermöglichen oder prinzipiell davon ausgeschlossen sind. Mit Computersimulationen lassen sich für jeden Punkt im Parameterraum die möglichen Struktur- und Musterbildungen erzeugen. In diesem mathematischen Modellrahmen lässt sich also Struktur- und Musterbildung vollständig bestimmen und voraussagen. Manche Systemeigenschaften sind der jeweiligen Systemumgebung angepasst und setzen sich durch, andere zerfallen wieder und werden ausgesondert. Dieses Zusammenspiel von Zufall und Selektion bei der Entstehung von neuen Strukturen wurde erstmals von Charles Darwin am Beispiel der biologischen 8
Prigogine, Ilya: From Being to Becoming. San Francisco 1980.
46
Klaus Mainzer
Evolution der Arten entdeckt. Es handelt sich aber um universelle Eigenschaften komplexer dynamischer Systeme, die daher auch in technischen Systemen Anwendung finden können. Das menschliche Gehirn ist wieder ein Beispiel für ein komplexes dynamisches System, in dem Milliarden von Neuronen neurochemisch wechselwirken. Durch vielfach versendete elektrische Impulse entstehen komplexe Schaltmuster, die mit kognitiven Zuständen wie Denken, Fühlen, Wahrnehmen oder Handeln verbunden sind. Die Entstehung (Emergenz) dieser mentalen Zustände ist wieder ein typisches Beispiel für die Selbstorganisation eines komplexen Systems: Das einzelne Neuron ist quasi „dumm“ und kann weder denken oder fühlen noch wahrnehmen. Erst ihre kollektiven Wechselwirkungen und Verschaltungen unter geeigneten Bedingungen erzeugen kognitive Zustände. Auch das Internet ist ein komplexes System von Netzknoten, die sich zu Mustern verschalten können. Wie im Straßenverkehr kann es bei kritischen Kontrollparametern (z. B. Datendichte, Übertragungskapazität) zu Datenstau und Datenchaos kommen.9 Mathematisch handelt es sich bei diesen Netzen um komplexe Systeme mit nichtlinearer Dynamik, wie wir sie bereits schon bei Zellen, Organismen und Gehirnen kennengelernt haben. Die nichtlinearen Nebenwirkungen dieser komplexen Systeme können global häufig nicht mehr kontrolliert werden. Lokale Ursachen können sich aufgrund nichtlinearer Wechselwirkungen zu unvorhergesehenen globalen Wirkungen aufschaukeln. Man spricht daher auch von systemischen Risiken, die keine einzeln identifizierbaren Verursacher haben, sondern durch die Systemdynamik insgesamt ermöglicht werden. Unsere Technologie wird autonomer, um die Aufgaben einer zunehmend komplexer werdenden Zivilisation zu lösen. Die dafür notwendigen Organisationssysteme können einzelne Menschen nicht mehr durchschauen. Die Kehrseite der zunehmenden Autonomie von Technik ist allerdings die schwieriger werdende Kontrolle: Maschinen und Geräte wurden in den Ingenieurwissenschaften immer mit der Absicht entwickelt, sie auch kontrollieren zu können. Wie lassen sich aber systemische Risiken komplexer Systeme vermeiden? Ein Blick auf die Evolution zeigt, dass sich dort autonome Selbstorganisation und Kontrolle ergänzt haben. Bei Krankheiten wie Krebs wird dieses Gleichgewicht gestört: Ein Krebsgeschwulst ist ein selbstorganisierender Organismus, der eigene Interessen entwickelt und sozusagen um sein Überleben kämpft, aber nicht überblickt, dass sein eigener Wirtsorganismus daran zugrunde geht. Komplexe Systeme brauchen also Kontrollmechanismen, um Balance zu finden – in Organismen, Finanzmärkten und der Politik. Diese Megasysteme aus Mikro- und Makrowelten entwickeln ihre eigene nichtlineare Dynamik. Sie werden zunehmend eine Herausforderung für die menschliche Governance, damit uns die soziotechnischen Superorganismen nicht aus dem Ruder laufen.
9
Mayinger, Franz (Hg.): Mobility and Traffic in the 21st Century. Berlin 2001.
Die Berechenbarkeit von Technik und Wissenschaft
47
3 VON KOMPLEXEN SYSTEMEN ZUR KÜNSTLICHEN INTELLIGENZ Wie lassen sich komplexe Systeme berechnen? Dazu müssen wir uns über die Grundlagen des Berechenbarkeitsbegriffs klar werden. Mit der Turing-Maschine wurde 1936 ein theoretischer Prototyp für Berechenbarkeit und Entscheidbarkeit von Problemen definiert.10 Turing veranschaulichte seine Definition durch ein Rechenband, das in Arbeitsfelder eingeteilt ist, die mit Symbolen eines endlichen Alphabets (z. B. 0 und 1 als Bits) bedruckt werden können. Das Rechenband soll nach beiden Seiten nach Bedarf verlängerbar sein, was der Annahme eines im Prinzip unbegrenzten Speichers entspricht. Das Band kann von einem Lese- und Schreibkopf ein Feld nach links und nach rechts verschoben werden. Zudem gibt es einen Stoppbefehl, wenn das Programm beendet ist. Das Erstaunliche ist, dass bis heute jeder Laptop, jeder Supercomputer und jedes Smartphone durch Turing-Maschinen simuliert werden kann. Nach einer These von Alonzo Church ist daher jeder Algorithmus bzw. jedes Computerprogramm durch eine Turing-Maschine simulierbar. Diese sogenannte Churchsche These ist das einzige Axiom, das die Informatik zusätzlich zu den übrigen Axiomen der Mathematik benötigt. Darauf baut theoretisch die gesamte Digitalisierung auf. Ein Problem heißt Turing-entscheidbar, wenn seine Lösung durch eine Turing-Maschine (bzw. nach der Churchsche These durch einen äquivalenten technischen Computer) berechnet werden kann. Um aber Prozesse dynamischer Systeme zu erfassen, müssen Komplexitätsgrade der Turing-Berechenbarkeit untersucht werden. Komplexitätsgrade berücksichtigen z. B. die zeitliche Länge, den benötigten Speicherplatz und in der Technik auch den Energieaufwand. Es ist offensichtlich, dass die Komplexitätstheorie eine erhebliche technisch-ökonomische Bedeutung hat. Auf den Grundlagen von Algorithmen und komplexen dynamischen Systemen bauen, wie im Folgenden deutlich wird, Robotik und künstliche Intelligenz auf. Künstliche Intelligenz (KI) beherrscht längst unser Leben, ohne dass es vielen bewusst ist. Smartphones, die mit uns sprechen, Armbanduhren, die unsere Gesundheitsdaten aufzeichnen, Arbeitsabläufe, die sich automatisch organisieren, Autos, Flugzeuge und Drohnen, die sich selbst steuern, Verkehrs- und Energiesysteme mit autonomer Logistik oder Roboter, die ferne Planeten erkunden, sind technische Beispiele einer vernetzten Welt intelligenter Systeme. Sie zeigen uns, wie unser Alltag von KI-Funktionen bestimmt ist. Turing definierte 1950 in dem nach ihm benannten Test ein System dann als intelligent, wenn es in seinen Antworten und Reaktionen nicht von einem Menschen zu unterscheiden ist.11 Der Nachteil dieser Definition ist, dass der Mensch zum Maßstab gemacht wird. 10 11
Turing, Alan M.: On computable numbers, with an application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. 2 42, 1937, S. 230–265, Korrektur dazu 43, 1937, S. 544–546. Turing, Alan M.: Computing Machinery and Intelligence. In: Mind. Bd. LIX, Nr. 236, 1950, S. 433–460.
48
Klaus Mainzer
Auch biologische Organismen sind nämlich Beispiele von intelligenten Systemen, die wie der Mensch in der Evolution mehr oder weniger zufällig entstanden und mehr oder weniger selbstständig Probleme effizient lösen können. Dass unser Organismus mit seinen Muskeln, Sensoren und Gehirn, aber auch mit unserem Denken und Fühlen so ist, wie er ist, ergibt sich keineswegs notwendig. Aus Computerexperimenten wissen wir, dass nur bei leichten Veränderungen der Anfangs- und Nebenbedingungen auf dieser Erde die Evolution nicht noch einmal so ablaufen würde, wie wir sie heute kennen. Es gibt also gesetzmäßig mögliche Entwicklungsbäume, von denen die biologische Evolution auf unserer Erde nur einige ausprobiert hat. Gelegentlich ist die Natur zwar Vorbild für technische Entwicklungen (z. B. in der Bionik). Häufig finden Informatik und Ingenieurwissenschaften jedoch Lösungen, die anders und sogar besser und effizienter sind als in der Natur. Es gibt also nicht „die“ Intelligenz, sondern Grade effizienter und automatisierter Problemlösungen, die von technischen oder natürlichen Systemen realisiert werden können. Daher nenne ich (in einer vorläufigen Arbeitsdefinition) ein System dann intelligent, wenn es selbstständig und effizient Probleme lösen kann.12 Der Grad der Intelligenz hängt vom Grad der Selbstständigkeit des problemlösenden Systems, dem Grad der Komplexität des Problems und dem Grad der Effizienz des Problemlösungsverfahrens ab – und diese Kriterien können wir messen. Bewusstsein und Gefühle wie bei Tieren (und Menschen) gehören danach nicht notwendig zu Intelligenz. Hinter dieser Definition steht die Welt lernfähiger Algorithmen, die mit exponentiell wachsender technischer Rechenkapazität (nach dem Mooreschen Gesetz) immer leistungsfähiger werden. Sie steuern die Prozesse einer vernetzten Welt im Internet der Dinge. Ohne sie wäre die Datenflut nicht zu bewältigen, die durch Milliarden von Sensoren und vernetzten Geräten erzeugt werden. Auch Forschung und Medizin benutzen zunehmend intelligente Algorithmen, um in einer wachsenden Flut von Messdaten neue Gesetze und Erkenntnisse zu entdecken. Vor einigen Jahren schlug der Superrechner „Deep Blue“ von IBM menschliche Champions in Schach, kurz darauf „Watson“ in einem sprachlichen Frage- und Antwortwettbewerb. In beiden Fällen war der Supercomputer im Sinn der Churchschen These eine Art Turing-Maschine. Im Fall von „Watson“ zerlegen parallel arbeitende linguistische Algorithmen eine Frage in ihre Teilphrasen, um die Wahrscheinlichkeit möglicher Antwortmuster zu berechnen. Dabei wird allerdings ein gigantischer Speicher („Gedächtnis“) benutzt, den das menschliche Gehirn nicht realisieren kann – wie etwa das gesamte Internet. 2016 wartete „Google“ mit der Software „AlphaGo“ und einem Supercomputer auf, der menschliche Champions im Bettspiel „Go“ schlug. Daran ist nicht nur bemerkenswert, dass Go wesentlich komplexer als Schach ist. Hier kamen zum ersten Mal Lernalgorithmen (machine learning) nach dem Vorbild des menschlichen Gehirns zum Einsatz, die den Durchbruch ermöglichten. Genauer gesagt handelt es 12
Mainzer, Klaus: Information. Algorithmus – Wahrscheinlichkeit – Komplexität – Quantenwelt – Leben – Gehirn – Gesellschaft. Berlin 2016.
Die Berechenbarkeit von Technik und Wissenschaft
49
sich um verstärkendes Lernen (reinforcement learning), das aus der Robotik und den Ingenieurwissenschaften wohlbekannt ist13: Das System erhält beim Problemlösen in festen Zeitintervallen Rückmeldungen (rewards), wie gut oder wie schlecht es dabei ist, ein Problem zu lösen. Das System versucht dann seine Strategie zu optimieren. Im Fall von Go wurden nur die einfachen Grundregeln programmiert. Nach ersten verlorenen Spielen, trainierte das System quasi über Nacht mit Tausenden von Spielen, die es blitzschnell gegen sich selber spielte. Damit hatte es schließlich eine Spielerfahrung angesammelt, von der selbst die „Google“-Programmierer von „AlphaGo“ überrascht waren. Noch einen Schritt weiter geht 2017 ein Superrechner der Carnegie-Mellon University mit der Software „Poker-Libratus“. Poker wurde immer als uneinnehmbare Festung menschlicher Raffinesse angesehen, da hier doch – so das Argument – „Intuition“ und „Emotion“, eben das „Pokerface“, zum Einsatz kommen. Zudem ist Poker im Unterschied zu Schach und Go ein Spiel mit unvollständiger Information. „Libratus“ wendet wieder das verstärkende Lernen an, diesmal aber unter Ausnutzung hochentwickelter mathematischer Spiel- und Wahrscheinlichkeitstheorie.14 So werden in den Spielbäumen der Entscheidungen solche Entwicklungsäste zeitweilig „ausgeschnitten“ (pruning) bzw. ausgeschlossenen, die Aktionen mit schlechter Performance beinhalten. Das kann sich natürlich in späteren Spielverläufen für die jeweiligen Spieläste ändern. Jedenfalls führt „Pruning“ zu einer erheblich Zeitersparnis und Beschleunigung der Algorithmen, wenn das Programm nicht mehr alle möglichen Spielzüge blind durchforsten muss. Nur Aktionen, die Teil einer besten Antwort auf ein Nash-Gleichgewicht sind, werden akzeptiert.15 „Libratus“ ist dem Menschen nicht nur in der blitzschnellen statistischen Auswertung ungeheuer vieler Daten überlegen. Nachdem das System zunächst wie ein Anfänger das Spiel verloren hatte, spielte es quasi über Nacht Millionen von „Hands“ gegen sich selber, es lernte und übte und hatte schließlich einen Erfahrungsstand, der in einem Menschenleben nicht erreicht werden kann. Hinter der von einigen Psychologen so vielgerühmten menschlichen Intuition verbergen sich ebenfalls frühere Lernerfahrungen – nur im Umfang deutlich ärmlicher als in dieser höchst effizienten Software mit Datenmassen von Spielen und menschlichem Verhalten, die im Gehirn eines menschlichen Spielers nicht verarbeitet werden können. Man mag einwenden, dass es „nur“ raffinierte Mathematik plus gigantische Computertechnologie ist, die den Menschen schlagen. Wenn aber solche Software in absehbarer Zeit auch z. B. in allen möglichen Entscheidungssituationen der Technik, Wirtschaft und Politik mit unvollständiger Information zum Einsatz kommt, dann werden wir mit unserer menschlichen Intuition alt aussehen: Die Entscheidungen werden – wie heute bereits im „Flashtrade“ an der Börse – in Intervallen von Millisekunden getroffen werden können, ohne dass unser Gehirn in der Lage 13 14 15
Bishop, Christopher M.: Pattern Recognition and Machine Learning. Singapore 2006. Sandholm, Tuomas: The state of solving large incomplete-information games, and application to poker. In: AI Magazine 2010, S. 13–32. Nash, John: Equilibrium points in n-person games. In: Proceedings of the National Academy of Sciences 36, 1950, S. 48–49.
50
Klaus Mainzer
wäre, sie mit zu vollziehen. Daher sollten wir uns die Grundlagen diese Algorithmen genau ansehen, um ihre Möglichkeiten und Grenzen zu bestimmen. Genau diese mathematischen „Metatheoreme“, wie es im 1. Abschnitt hieß, bleiben die intellektuelle Stärke von uns Menschen. Zudem ist menschliche Intuition von typisch menschlichen Erfahrungen und Empfindungen abhängig, die wir für wertvoll halten und bewahrt wissen wollen. Das führt zu einer ethischen Perspektive von Technikphilosophie, die über die erkenntnistheoretischen Fragen und den technischen Einsatz von KI hinausführt. 4 VON KOMPLEXEN SYSTEMEN UND KI ZUR TECHNIKGESTALTUNG Am Ende wird es nicht nur auf unsere intelligenten Fähigkeiten ankommen, in der uns die Maschinen überlegen sind. Dann geht es auch um die Ziele und Werte, die wir diesen Systemen vorgeben. Seit ihrer Entstehung ist die KI-Forschung mit großen Visionen über die Zukunft der Menschheit verbunden. Löst die „künstliche Intelligenz“ den Menschen ab? Einige sprechen bereits von einer kommenden „Superintelligenz“, die Ängste und Hoffnungen auslöst. Dieser Beitrag ist ein Plädoyer für Technikgestaltung16: KI muss sich als Dienstleistung in der Gesellschaft bewähren. Die Algorithmisierung und der Einbruch der Big-Data-Welt eröffnen ein neues Wissenschaftsparadigma, wonach Wissenschaft ohne Digitalisierungstechnik weitgehend nicht mehr möglich ist. Naturwissenschaftler kommen heute bereits ohne den Einsatz intelligenter Software und großer Rechenkapazität nicht mehr aus. Das Higgsteilchen beispielsweise wurde nicht wie weiland ein Planet am Himmel von einem Wissenschaftler beobachtet, sondern durch Software und Superrechner aus Milliarden von Messdaten als höchstwahrscheinliches Datenmuster herausgefiltert. In den Life Sciences ist es mittlerweile eine Software des Machine Learning, die Korrelationen in den Daten von z. B. Proteinnetzen entdeckt, um eine neue Forschungshypothese vorzuschlagen. Diese Art von „Technomathematik“ und „Technowissenschaft“ darf allerdings nicht von ihren theoretischen Grundlagen abgekoppelt werden. In kritischer Auseinandersetzung mit Steven Wolfram („A New Kind of Science“) und Chris Anderson („Big Data – End of Theory“) erkennen wir die Gefahren, die in einer nur noch datengetriebenen (data-driven) Wissenschaft lauern, wenn blind auf Algorithmen vertraut wird. In der Medizin könnten Big-Data-Algorithmen z. B. statistische Korrelationen einer chemischen Substanz zur Tumorbekämpfung bestimmen. In einer datengläubigen Welt könnten dann sowohl der Profitwunsch eines Pharmakonzerns als auch der Wunsch betroffener Patienten den Druck erhöhen, daraus ein entsprechendes Medikament zu entwickeln. Eine nachhaltige Therapie wird aber nur möglich sein, wenn molekularbiologische Grundlagenforschung die Kausalität zellulären Tumorwachstums erklären kann. Statistische Korrelationen ersetzen keine Kausalitätsanalyse. Auch hier ist wieder ein Plädoyer für Grundlagenforschung an16
acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. Berlin 2012.
Die Berechenbarkeit von Technik und Wissenschaft
51
gebracht, um die Leistungsfähigkeit und Grenzen von Algorithmen und Big Data abschätzen zu können. Erst wenn wir die Leistungsfähigkeit und Grenzen unserer Instrumente kennen, können wir sie uns dienstbar machen. Damit sind Herausforderungen von Risiko und Ethik verbundenen. Wachsende Automatisierung ist die Antwort der Technik auf die wachsende Komplexität der Zivilisation. Menschen scheinen mit ihren natürlichen Fähigkeiten der Kontrolle und Analyse zunehmend überfordert. Schnelle und effiziente Algorithmen versprechen bessere Kontrolle und Problemlösung in einer unübersehbaren Datenflut. Zu welchen Risiken führen komplexe soziotechnische Systeme, Finanz- und Wirtschaftssysteme, aber auch Automatisierung durch Roboter und autonome Entscheidungssysteme in Technik und Gesellschaft?17 Sind die Konstrukte traditioneller Ethik obsolet, die von einer Autonomie des Menschen ausgehen? Hier sollten wir die menschliche Urteilskraft stärken – im Gegensatz zu den Verheißungen des Transhumanismus im Silicon Valley.18 Technik unterliegt keiner naturwüchsigen Evolution, sondern muss für uns gestaltbar bleiben – trotz wachsender Effizienz und Automatisierung.19
17 18 19
acatech (Hg.): Cyber-Physical Systems. Innovationsmotor für Mobilität, Gesundheit, Energie und Produktion. Berlin 2011. Hölger, Stefan: Wider den Transhumanismus. Rezension des Buchs „Künstliche Intelligenz“ von Klaus Mainzer. In: Spektrum der Wissenschaft 14.3.2017. Kornwachs, Klaus: Technikphilosophie – eine Einführung. München 2013; sowie ders.: Philosophie für Ingenieure. München 2014.
52
Klaus Mainzer
LITERATUR acatech (Hg.): Cyber-Physical Systems. Innovationsmotor für Mobilität, Gesundheit, Energie und Produktion. Berlin 2011. acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. Berlin 2012. Bauer, Friedrich L.: Was heißt und was ist Informatik? In: IBM 223, 1974, S. 334. Bishop, Christopher M.: Pattern Recognition and Machine Learning. Singapore 2006. Braitenberg, Valentino; Radermacher, Franz Josef (Hg.): Interdisciplinary Approaches to a New Understanding of Cognition and Consciousness. Ergebnisband Villa Vigoni Konferenz, Italy 1997. Ulm 2007. Haken, Hermann: Synergetics. An Introduction. Berlin 1983(3). Heidegger, Martin: Was heißt Denken? Tübingen 1954. Hölger, Stefan: Wider den Transhumanismus. Rezension des Buchs „Künstliche Intelligenz“ von Klaus Mainzer. In: Spektrum der Wissenschaft 14.3.2017. Kornwachs, Klaus: Technikphilosophie – eine Einführung. München 2013. ders.: Philosophie für Ingenieure. München 2014. Mainzer, Klaus: Die Berechenbarkeit der Welt. Von der Weltformel zu Big Data. München 2014. ders.: Information. Algorithmus – Wahrscheinlichkeit – Komplexität – Quantenwelt – Leben – Gehirn – Gesellschaft. Berlin 2016. ders.: Künstliche Intelligenz – wann übernehmen die Maschinen? Berlin 2016. ders.: Thinking in Complexity. The Computational Dynamics of Matter, Mind, and Mankind. New York 2007(5). Mainzer, Klaus; Chua, Leon: Local Activity Principle. London 2013. Mayinger, Franz (Hg.): Mobility and Traffic in the 21st Century. Berlin 2001. Nash, John: Equilibrium points in n-person games. In: Proceedings of the National Academy of Sciences 36, 1950, S. 48–49. Prigogine, Ilya: From Being to Becoming. San Francisco 1980. Sandholm, Tuomas: The state of solving large incomplete-information games, and application to poker. In: AI Magazine 2010, S. 13–32. Schrödinger, Erwin: What is Life? The Physical Aspect of the Living Cell, Mind and Matter. Cambridge 1948. Turing, Alan M.: Computing Machinery and Intelligence. In: Mind. Bd. LIX, Nr. 236, 1950, S. 433–460. ders.: On computable numbers, with an application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. 2 42, 1937, S. 230–265, Korrektur dazu 43, 1937, S. 544– 546. ders.: The chemical basis of morphogenesis. In: Philosophical Transactions of the Royal Society. London, Series B, 237, 1952, S. 37–72.
GIBT ES MAKROSKOPISCHE VERSCHRÄNKUNGEN ZWISCHEN MENSCH UND MASCHINE? Walter von Lucadou ZUSAMMENFASSUNG Die alte philosophische Frage nach Körper und Geist – res extensa und res cogitans – tritt beim Problem der „künstlichen Intelligenz“ (KI) in ganz neuer Weise in Erscheinung. Das „Imitation Game“ war ein Gedankenexperiment, das sich Alan M. Turing (1912–1954) ausgedacht hatte, um die Frage zu klären, ob man einem Computer unter bestimmten Umständen „Bewusstsein“ zubilligen müsse. Mit dem Begriff der „Verschränkung“ lässt sich diese Fragestellung weiter präzisieren und experimentell überprüfen. Es werden Experimente vorgestellt, bei denen Verschränkungs-Korrelationen zwischen quantenphysikalischen Zufallsprozessen und verschiedenen psychologischen Variablen menschlicher Beobachter nachgewiesen werden konnten. Ob man damit der Realisierung von Computern mit Bewusstsein einen Schritt näher gekommen ist, bleibt abzuwarten. EINFÜHRUNG Die philosophische Frage des „Leib-Seele-Problems“ (mind-brain-problem) mit der wir es hier zu tun haben, ist zurzeit Teil verschiedener Forschungsprogramme, die mit erheblichem Aufwand finanziert werden. Vordergründig geht es hierbei um ein Funktionsmodell des menschlichen Gehirns, künstliche Intelligenz und deren technische Anwendung; im Hintergrund jedoch steht die Frage, was Bewusstsein ist und ob dieses adäquat maschinell simuliert werden kann. Die Maschinen, um die es hier in erster Linie geht, sind natürlich Computer. Zunächst erhebt sich die Frage, ob der Mensch selbst als Computer beschrieben werden kann. Hierbei spielt die Frage nach dem freien Willen eine zentrale Rolle. Wenn experimentell gezeigt werden könnte, dass das Gehirn in der Lage ist, echte nicht-deterministische Prozesse zu produzieren, könnte dies als ein Hinweis für die Möglichkeit des freien Willens interpretiert werden.1 Echte nichtdeterministische Prozesse sind in der Quantenphysik bekannt, z. B. beim Zerfall von Atomen. Thermisches Rauschen wird dagegen nicht als echter nicht-deterministischer Prozess an1
vgl. Jordan, Pascual: Verdrängung und Komplementarität. Hamburg 1947 sowie Primas, Hans: Time-asymmetric phenomena in biology complementary exophysical descriptions arising from deterministic quantum endophysics. In: Open Systems & Information Dynamics 1(1), 1992, pp. 3–34.
54
Walter von Lucadou
gesehen. Es scheint allerdings unrealistisch, experimentell zwischen diesen beiden Arten von Zufall durch neurophysiologische Messungen unterscheiden zu können. Eine andere Möglichkeit bestünde darin, nicht-klassische Eigenschaften von Gehirnfunktionen nachzuweisen, d. h. die Demonstration nicht-lokaler Effekte in der Neurophysiologie. Die klassischen Experimente von Kornhuber2 und Libet3 zum „Bereitschaftspotential“ (das einer freien Willensentscheidung vorausgeht) könnten vielleicht in dieser Weise interpretiert werden, aber es ist eben auch möglich, sie als klassische, deterministische Prozesse zu verstehen, wenn angenommen wird, dass unbewusste Prozesse das „Bereitschaftspotential“ im EEG vor einer „freien Willensentscheidung“ determinieren. Einen anderen Ansatz liefert das Theorem von Hans Primas (1996). Es besagt, dass inkompatible Eigenschaften „holistische“ (oder „nicht-lokale“) Korrelationen4 in Systemen erzeugen, und dass holistische Korrelationen auch zwischen sonst unabhängigen Systemen existieren, wenn beide Systeme inkompatible Eigenschaften (komplementäre Observablen) enthalten. Primas schreibt: „Zwischen zwei kinematischen unabhängigen Subsystemen ΣA und ΣB können holistische Korrelationen dann, und nur dann, existieren, wenn es sowohl in ΣA als auch in ΣB inkompatible Eigenschaften gibt. Bezüglich eines Zustandes mit dem Zustandsfunktional ρ gibt es genau dann holistische Korrelationen, wenn es im System ΣA mindestens zwei Observablen A1,A2 und im System ΣB mindestens zwei Observablen B1,B2 mit |ρ{A1(B1 + B2) + A2(B2 - B1)}|> 2 gibt.“5 Das Theorem kann auch umgekehrt werden: Wenn es möglich ist, nicht-lokale Korrelationen zwischen zwei unabhängigen Systemen nachzuweisen, und wenn eines der Systeme nicht-kompatible Observablen enthält oder eine quantentheoretische Struktur aufweist, dann folgt daraus, dass das andere unabhängige System notwendigerweise nicht-lokale Korrelationen oder quantentheoretische Strukturen enthält. Dies bedeutet, dass das „mentale System“ (Bewusstsein) keine klassische Struktur haben kann, wenn experimentell nachgewiesen werden sollte, dass makroskopische Verschränkungskorrelationen zwischen einem menschlichen Beobachter und einem unabhängigen quantenphysikalischen Prozess möglich sind.6
2
3 4 5 6
Kornhuber, Hans Helmut; Deecke, Lüder: Hirnpotentialänderungen bei Willkürbewegungen und passiven Bewegungen des Menschen. Bereitschaftspotential und reafferente Potentiale. In: Pflüger’s Archiv für die gesamte Physiologie des Menschen und der Tiere. Bd. 284, 1965, pp. 1–17. Libet, Benjamin; Gleason, Curtis A.; Wright, Elwood W.; Pearl, Dennis K.: Time of conscious intention to act in relation to onset of cerebral activities (readiness potential).The unconscious initiation of a freely voluntary act. In: Brain, 106, 1983, pp. 623–642. Die Begriffe „holistisch“, „nicht-lokal“ oder „Verschränkungskorrelation“ werden in der Literatur mehr oder weniger synonym verwendet. Sie sollen ausdrücken, dass kein verborgener kausaler Prozess die Korrelationen erzeugt. Primas, Hans: Time-asymmetric phenomena in biology complementary exophysical descriptions arising from deterministic quantum endophysics. In: Open Systems & Information Dynamics 1(1), 1992, p. 88 f. Uzan, Pierre: On the Nature of Psychophysical Correlations. In: Mind and Matter, Vol 12 (1), 2014, pp. 7–36.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine?
55
Die sogenannte „Verallgemeinerte Quantentheorie (VTQ)“ von Hartmann Römer7 beschreibt solche Strukturen detaillierter und liefert die theoretische Grundlage für die experimentelle Untersuchung von makroskopischen Verschränkungskorrelationen. Wenn sich Versuchspersonen mit physikalischen Zufallsprozessen verschränken können, folgt im Prinzip auch, dass dies auch für selbstorganisierende Maschinen gilt, weil durch deren „Embodiment“ notwendigerweise Zufallsprozesse ins Spiel kommen. TURINGMASCHINEN UND DIE CHURCHSCHE THESE Alan Turing hat gezeigt, dass jeder Computer, ganz gleich ob es sich um ein Smartphone oder das Rechenzentrum einer Universität handelt, durch eine ganz einfache Anordnung dargestellt werden kann, eine einfache Maschine, die nur aus drei Teilen besteht, nämlich einem unendlich langen Band mit unendlich vielen sequentiell angeordneten Feldern und einem Programm, welches den Lese- und Schreibkopf, der sich auf diesen Bändern hin- und her bewegen kann, steuert. Bei dem Programm handelt es sich im Prinzip um eine geschriebene Anweisung, welche festlegt, in welche Richtung sich das Band bewegen und ob gelesen oder geschrieben werden soll. Das Programm schreibt vor, wie sich der Lese- und Schreibkopf bewegt (einen Schritt vorwärts oder rückwärts oder ob er auf der Stelle stehen bleibt) und ob er einen Inhalt des Bandes lesen oder einen neuen Inhalt auf das Band schreiben soll (in der Regel genügen die beiden Zeichen „0“ und „1“). Ferner wird bei jedem Programmschritt festgelegt, welcher Programmschritt aufgrund der jeweiligen Situation (gelesenes oder geschriebenes Zeichen) als nächstes erfolgt. Erhält die Maschine am Ende keine neue Anweisung mehr, so bleibt die Turingmaschine stehen. Die Frage, welche Probleme von Turingmaschinen berechnet werden können, wird durch die Churchsche These (benannt nach Alonzo Church und Alan Turing, 1936), beleuchtet. Sie besagt, dass die Gruppe aller intuitiv berechenbaren Probleme (womit Probleme gemeint sind, von denen der Mensch vernünftigerweise annehmen kann, sie formal darstellen zu können) genau mit der Klasse der Turingberechenbaren Funktionen übereinstimmt. Das hieße, dass der Computer alle vernünftig darstellbaren Probleme auch berechnen kann. Diese These wurde übrigens bereits im 13. Jahrhundert von Raimundus Lullus als „ars magna“ vorhergesehen, als Imagination einer Maschine, die in der Lage wäre, alle Probleme der Menschheit, nicht nur die mathematischen, zu lösen. Die Churchsche These, die sich allerdings nicht beweisen lässt, weil der Begriff „intuitiv berechenbare Funktion“ nicht exakt formalisiert werden kann, geht natürlich sehr weit, und die gesamte Forschung zur künstlichen Intelligenz basiert auf ihr. 7
Atmanspacher, Harald; Römer, Hartmann; Walach, Harald: Weak quantum theory. Complementarity and entanglement in physics and beyond. In: Foundations of Physics, 32, 2002, pp. 379–406 sowie Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic Phenomena as Entanglement Correlations in Generalized Quantum Theory. In: Journal of Consciousness Studies, 14, 4, 2007, pp. 50–74.
56
Walter von Lucadou
DIE VERALLGEMEINERTE QUANTENTHEORIE Die bisherigen Modelle der Neuro- und Kognitionswissenschaften sind in erster Linie von klassischen, also lokalen Modellen bestimmt. Obwohl es sich in der Physik, Chemie und ansatzweise sogar in der Biologie und Psychologie gezeigt hat, dass sich klassische Modelle als obsolet erwiesen haben, wird von den meisten Neurowissenschaftlern das menschliche Gehirn als zwar komplexer, aber doch deterministischer Biocomputer verstanden. Neurowissenschaftliche Laien bestehen dagegen zumeist hartnäckig auf der realen Existenz des handelnden Ichs und zwar in einem tendenziell dualistischen Sinne.8 Man sagt nämlich nicht: „Ich bin ein Gehirn oder ein Körper“, sondern „Ich habe ein Gehirn und einen Körper“. Typischerweise existiert das Wort „Ich“ in allen Kulturen und allen Sprachen zur Kennzeichnung der eigenen handelnden oder erlebenden Person, und es gibt mittlerweile auch bei einigen Primaten oder einigen Meeressäugern Hinweise dafür, dass sie sich als handelndes Subjekt erkennen können. Mit der Formulierung der verallgemeinerten Quantentheorie9 als systemtheoretischem Ansatz ergibt sich nun allerdings eine überraschende Möglichkeit zur Lösung der vermeintlichen Diskrepanz zwischen dem intuitiven und dem naturalistischen Modell des „freien Willens“ und zwar dadurch, dass angenommen wird, dass die Grundstruktur der Quantentheorie ein sehr allgemeines Schema darstellt, das der Natur in allen Bereichen (z. B. auch in der Psychologie) zugrunde liegt, während es sich beim klassischen kausalreduktionistischen Modell um einen Spezialfall handelt, der in ausgewählten Bereichen der (klassischen) Physik gilt, für den aber nicht von vorneherein feststeht, ob er tatsächlich für allgemeine Systeme zutrifft. Bei der verallgemeinerten Quantentheorie handelt es sich also um eine theoretische Struktur, die die naturalistische Auffassung als Spezialfall enthält. Ein Unterschied zu klassischen Strukturen tritt erst in dem Moment auf, wenn zwei Beschreibungsgrößen (Observablen) A und B nicht kommutieren. Das heißt, dass die Messergebnisse von A und B von der Reihenfolge ihrer Messung abhängen und zu unterschiedlichen Messresultaten führen. A und B werden dann als „komplementäre“ Observablen bezeichnet, andernfalls als „kompatibel“. In der Psychologie und Soziologie sind komplementäre Verhältnisse allerdings eher die Regel als die Ausnahme. So wird man z. B. nicht erwarten, dass das Ergebnis eines anstrengenden Intelligenztests und das eines Stimmungsfragebogens nicht von der Reihenfolge der „Messung“ abhängen, wohingegen dies bei der Länge und dem Gewicht eines Tisches sehr wohl der Fall ist. So kann man annehmen, dass es sich bei der neurologischen Beschreibung des Gehirns und der Beschreibung des Bewusstseins (aus der „Ich-Perspektive“) um komplementäre Observablen handelt; Zeichenerkennung und Gestaltwahrnehmung, Kontrolle und Vertrauen, wären weitere mögliche Beispiele. Es muss 8 9
Reuter, Bernhard M.: Zur Psychophysiologie der Ich-Identität. Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 38, 1996, S. 115–135. Atmanspacher et al., a. a. O.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine?
57
allerdings hinzugefügt werden, dass „Komplementarität“ immer empirisch nachgewiesen werden muss. Der plausible und scheinbar „harmlose“ Unterschied zwischen kompatiblen und komplementären Observablen hat für die vorliegende Fragestellung jedoch weit reichende Folgen: 1. Komplementäre Beschreibungsgrößen sind nicht aufeinander reduzibel, d. h. sie können nicht von- oder auseinander abgeleitet werden. Es ist also im Allgemeinen nicht möglich eine globale Observable aus lokalen Observablen kausalreduktionistisch „herzuleiten“10. 2. Komplementäre Beschreibungsgrößen können nicht ohne gegenseitige Störung aufeinander „gemessen“ werden. Der Begriff Störung bedeutet hierbei, dass die Auswirkung auf die jeweils nicht gemessene komplementäre Größe nicht präzise angegeben werden kann, sondern stochastischer Natur ist. Hier zeigt sich, dass eine vollkommen deterministische Beschreibung, wie sie der Naturalismus anstrebt, prinzipiell nicht durchgehalten werden kann. 3. Komplementäre Beschreibungsgrößen können Verschränkungskorrelationen im jeweiligen komplementären Subsystem erzeugen. Das heißt, dass die lokalen Variablen eines globalen Systems untereinander Korrelationen aufweisen, die nicht-kausaler Natur sein können und damit „Musterübereinstimmungen“ aufweisen, die unabhängig von räumlichen und zeitlichen Distanzen existieren. Solche nicht-kausalen oder nicht-lokalen Verschränkungskorrelationen11 können aber nicht zur Signalübertragung oder zur Erreichung kausaler Wirkungen benutzt werden (NT-Axiom)12. Wird dies dennoch versucht, erweisen sich die Verschränkungskorrelationen als instabil13. 10
11 12
13
Wenn man z. B. die „Freiheit“ einer bewussten Entscheidung als eine globale Beschreibungsgröße für einen bestimmten Zustand des Gehirns auffasst, wird man also nicht erwarten können, diese aus den lokalen neurophysiologischen Zuständen des Gehirns eindeutig herleiten zu können. Dies schließt natürlich nicht aus, dass zwischen beiden Beschreibungsgrößen korrelative Zusammenhänge bestehen (vgl. Römer, Hartmann; Walach, Harald: Complementarity of phenomenal and physiological observables. A primer on generalised quantum theory and its scope for neuroscience and consciousness studies. In: Walach, Harald; Schmidt, Stefan; Jonas, Wayne B. (Eds.): Neuroscience, consciousness and spirituality. Dordrecht, Heidelberg, London, New York 2011. pp. 97–107.). Lucadou, Walter von: Makroskopische Nichtlokalität. In: Kratky, Karl W. (Hg.): Systemische Perspektiven: Interdisziplinäre Beiträge zu Theorie und Praxis. Heidelberg 1991. S. 45–63. vgl. Römer, Hartmann: Verschränkung. In: Knaup, Marcus; Müller, Tobias; Spät, Patrick (Hg.): Post-Physikalismus. Bamberg 2013. S. 87–121; Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic Phenomena as Entanglement Correlations in Generalized Quantum Theory. In: Journal of Consciousness Studies, 14, 4, 2007, pp. 50–74.; Walach, Harald; Lucadou, Walter von; Römer, Hartmann: Parapsychological Phenomena as Examples of Generalised Nonlocal Correlations. A Theoretical Framework. In: Journal of Scientific Exploration, Vol. 28, No. 4, 2014, pp. 605–631.; Walach, Harald; Römer, Hartmann: Complementarity is a useful concept for consciousness studies. A Reminder. In: Neuroendocrinology Letters, 21, 2000, pp. 221–232. Dieser Sachverhalt kann als das stärkste Argument gegen die naturalistische Position angesehen werden: In einem klassischen kausalreduktionistischen Modell kann es keine nicht-kausalen Zusammenhänge geben. Allerdings eröffnen gerade die Verschränkungskorrelationen innerhalb organisatorisch geschlossener Systeme (z. B. einer Gesellschaft) eine neue Sicht auf die Frage, was Verbindlichkeit (eines Wertesystems) bedeutet, und wie sie hergestellt werden kann
58
Walter von Lucadou
4. Potentialität ist ein wesentliches Charakteristikum der Quantentheorie. Erst durch den Akt der Messung wird aus Potentialität Faktizität. Sogar eine unvollständig vorgenommene und noch nicht abgelesene Messung kann bereits Faktizität erzeugen. Dagegen wird in klassischen Theorien stets Faktizität auch dann angenommen, wenn nicht bekannt ist, welches Faktum vorliegt. Für diese quantentheoretische Potentialität gibt es kein klassisches Analogon. Am einfachsten lässt sich der Sachverhalt so ausdrücken: Wenn bei einem nichtklassischen System die konkrete Möglichkeit einer Wirkung von oder auf ein externes System besteht, dann verhält sich das System als Ganzes so, als habe die Wirkung tatsächlich stattgefunden, auch wenn dies faktisch nicht der Fall ist14. Es konnte gezeigt werden, dass sich Probanden unter Doppelblindbedingungen anders verhielten, wenn sie durch eine Einwegscheibe beobachtet wurden, auch wenn sie davon nichts wussten.15 Dieses „intuitive Wissen“ oder diese „innere Wahrnehmung“ hat für die meisten Menschen eine weit größere Bedeutung, als sie „offiziell“ zuzugeben bereit sind.16 INNEN UND AUSSEN Kant hat in seiner Kritik der reinen Vernunft dargelegt, dass Raum, Zeit und Kausalität gewissermaßen vor (a priori) der Vernunft existieren und erst die Bedingungen für dieselbe schaffen. Diese Einsicht findet heute eine grandiose Bestätigung in der Psychologie durch das sogenannte Repräsentationsmodell17, welches besagt,
14
15 16
17
(Lucadou, Walter von; Römer, Hartmann: Schuld, Person und Gesellschaft. Systemische Perspektiven. In: Kick, Hermes Andreas; Schmitt, Wolfram (Hg.): Schuld – Bearbeitung, Bewältigung, Lösung. Strukturelle und prozessdynamischer Aspekte. Berlin 2011. S. 79–97.). In der Physik kann dies bei den sogenannten „delayed-choice-Experimenten“ oder dem „negative result measurement“ (Renninger, Mauritius: Messungen ohne Störungen des Messobjekts. Zeitschrift für Physik, 158, 1960, S. 417–421.) demonstriert werden: Das bloße Vorhandensein eines Teilchen-Detektors bei einem Doppelspalt-Experiment, der Aufschluss über den Weg eines Teilchens liefern könnte, zerstört das Interferenzmuster, selbst dann, wenn das Teilchen gar nicht entdeckt wird. Für die hier diskutierten Fragestellungen hat dieser Sachverhalt nicht unerhebliche Konsequenzen; So wirkt sich z. B. die Etablierung von gesellschaftlichen Kontrollsystemen auf individuelles Handeln selbst dann aus, wenn gar keine Kontrollen durchgeführt werden und die Betroffenen gar nichts davon wissen. Beutler, J. J.; Attevelt, J. T. M.; Geijskes, G. G.; Schouten, S. A.; Faber, J. A. J.; Mees, E. J. D.: The Effect of Paranormal Healing on Hypertension. In: Journal of Hypertension, 5 (suppl. 5), 1987, pp. 551–552. vgl. Lucadou, Walter von: Locating Psi-Bursts. Correlations Between Psychological Characteristics of Observers and Observed Quantum Physical Fluctuations. In: Cook, E. W.; Delanoy, Deborah L. (Eds.): Research in Parapsychology 1991. Metuchen, NJ, 1994. pp. 39–43. Eine ähnliche Einstellungs-verändernde Erfahrung findet sich bei religiösen Konversions-Erlebnissen. Häufig wurden solche Flow-ähnlichen Erfahrungen (Csikszentmihalyi, 2000) der seelischen Kohärenz auch von Menschen berichtet, die unter Bedrohung ihres eigenen Lebens anderen Menschen vor Verfolgung geholfen haben. Aus der Sichtweise des hier vorgeschlagenen Modells spiegeln solche Erfahrungen nicht-kausale Korrelationen in organisatorisch geschlossenen sozio-psychologischen Systemen wieder. Um es eher poetisch auszudrücken: Globale Observablen in der Psychologie und Soziologie haben etwas „Magisches“; Albert Einstein (et. al., a. a. O.) hatte sie als „ghostly interactions“ bezeichnet. Tholey, P.: Erkenntnistheoretische und systemtheoretische Grundlagen der Sensumotorik aus
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine?
59
dass die subjektive Vorstellung von Realität nicht die Realität selbst, sondern ein Abbild derselben darstellt, die als mentale Repräsentation vermittels der afferenten Nervenreizungen aus den Sinnesorganen im Zentralnervensystem entstehen. Um es einfach auszudrücken, besteht unsere subjektive Realität aus einer Art „Kino im Kopf“. In der Aufklärung, deren wichtigster Vertreter Kant war, wird jedoch die menschliche Kognition ausschließlich unter dem Aspekt der Vernunft bzw. Ratio gesehen. Subjektive oder vermeintlich irrationale Aktionen unserer mentalen Aktivität wurden dagegen als minderwertig betrachtet. Es ist daher nicht verwunderlich, dass in der behavioristischen Psychologie und auch in der künstlichen Intelligenz mentale Vorgänge hauptsächlich unter Paradigmen, die dem klassischen Weltbild zugrunde liegen, beschrieben werden. Ein weiteres wichtiges Charakteristikum der VQT ist die Unterscheidung der Exo- und Endo-Perspektive.18 In der Endo-Exophysik wird systematisch berücksichtigt, dass der „Beobachter“ ein Teil der beobachteten Welt ist, dass aber die Welt auch ohne (menschlichen) „Beobachter“ existieren kann. Durch die Unterscheidung der Exo- und Endoperspektive wird verständlich, weshalb die Cartesianische Trennung der „res cogitans“ von der „res extensa“ unter bestimmten Umständen tatsächlich aufgehoben sein könnte. Die „Ort- und Zeitlosigkeit“ von Verschränkungskorrelationen lässt sofort an die Exo-Endo-Unterscheidung in der algebraischen Quantenphysik19 denken. Abbildung 1 zeigt die Aufteilung des „universe of discourse“ (das, worüber man reden kann) in vier Bereiche, die durch den Cartesischen und den Heisenberg-Schnitt beschrieben werden. Der Cartesische Schnitt bildet die Grenze zwischen den mentalen und den physikalischen Beschreibungsgrößen der Welt. Der Heisenberg-Schnitt dagegen drückt die Trennung zwischen dem epistemischen (gemessenen) und dem ontischen Bereich aus. Die psycho-physikalische Welt kann also in den Bereich „Vernunft und Technik“ auf der epistemischen Seite und „Seele und Natur“ auf der „ontischen“ Seite aufgeteilt werden, in der es jedoch keinen Cartesischen Schnitt geben kann. Fügt man den klassischen Kategorien der Erkenntnis, diese „neue“ nicht-klassische „Kategorie der Verschränkung“ hinzu, dann sind (wegen 4. im letzten Kapitel) diese Kategorien nicht bloß „Filter“ der Erkenntnis, sondern Konstrukte, die sich gewissermaßen „aktiv“ auf den „Universe of Discourse“ auswirken. Wie bei der Erfahrung von Raum, Zeit und Kausalität können auch bei der Verschränkung Irrtümer und Wahrnehmungstäuschungen auftreten, ohne dass es gerechtfertigt wäre, Verschränkungserfahrungen generell als Illusionen zu betrachten. Verschränkungswahrnehmungen sind somit wichtiger Bestandteil von allen Bereichen menschlichen Lebens und spielen – so wird hier vermutet – auch bei der Mensch-Maschine-
18
19
gestalttheoretischer Sicht. In: Sportwissenschaft, 10, 1980, S. 7–35. Primas, Hans: Time-asymmetric phenomena in biology complementary exophysical descriptions arising from deterministic quantum endophysics. In: Open Systems & Information Dynamics 1(1), 1992, pp. 3–34. sowie Lucadou, Walter von: The Exo-Endo-Perspective of Non-locality in Psycho-Physical Systems. In: International Journal of Computing Anticipatory Systems, 2, 1989, pp. 169–185. Primas, a. a. O.
60
Walter von Lucadou
Abbildung 1: Aufteilung des „Universe of discourse“
Interaktion eine wichtige Rolle.20 Hierzu gibt es jede Menge anekdotische Erfahrungsberichte, die meist mit einem „Augenzwinkern“ vorgetragen werden.21 ORGANISIERTE GESCHLOSSENHEIT UND SELBSTORGANISATION Der Biologe Francisco Varela hat den wichtigen Begriff der organisierten Geschlossenheit geprägt22, der einen symbiotischen Zustand von Teilsystemen bezeichnet (z. B. Verliebtheit, Mutter-Kind-Beziehung aber auch ein Ameisenhaufen), dessen einzelne Konstituenten eben nur in ihrer Gesamtheit dargestellt werden können. Durch die VQT wird verständlich, dass es sich dabei um ein verschränktes System handeln muss. Bewusstsein wird vom Gegenüber im direkten Kontakt gespürt und zugebilligt. Ob mein Gegenüber über ein Bewusstsein verfügt, ist somit keine kognitive, rationale Entscheidung, sondern eine unmittelbare Erfahrung von Verschränkung. Voraussetzung für organisierte Geschlossenheit ist Selbstorganisation. Sie ist dadurch charakterisiert, dass mindestens zwei Beschreibungsebenen, die Exo-, Endo-Perspektive zur Beschreibung notwendig sind, sich das System in einem Fließgleichgewicht von äußeren Ressourcen befindet und somit quasi-intelligentes 20 21
22
Lucadou, Walter von: Verschränkungswahrnehmung und Lebenskunst. In: Engelhardt, Dietrich von; Kick, Hermes Andreas (Hg.): Lebenslinien – Lebensziele – Lebenskunst. Festschrift zum 75. Geburtstag von Wolfram Schmitt. Reihe: Medizingeschichte. Bd. 6. Berlin 2014. S. 37–55. Gesetze von Murphy und Klipstein; Bloch, Arthur: Murphy’s Law and other reasons why things go wrong. Los Angeles, CA, 1977; Lucadou, Walter von: Die Magie der Pseudomaschine. In: Belschner, Wilfried; Galuska, Joachim; Walach, Harald; Zundel, Edith (Hg.): Transpersonale Forschung im Kontext. Oldenburg 2002: Transpersonale Studien 5, Bibliotheks- und Informationssystem der Universität Oldenburg. Varela, Francisco J.: Autonomy and autopoesis. In: Roth, Gerhard; Schwengler, Helmut (Eds.): Self-Organizing Systems. Frankfurt, New York: Campus 1981. pp. 14–23.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine?
61
Verhalten, d. h. Muster mit niedriger Entropie erzeugen kann, die sich selbstverstärkend ausbreiten und für Adaptivität, Autonomie und Plastizität sorgen. Ist eine solche Erfahrung der organisierten Geschlossenheit auch im Kontakt mit einem Computer möglich und nachweisbar? 2012 hat eine amerikanische Forschergruppe23 einen selbstorganisierenden Roboter gebaut, der über Sinne verfügt, so dass er in einer fremden Umgebung Kontakt aufnehmen und Sinneseindrücke sammeln muss, um dann eigenständig Rückschlüsse auf ein adäquates Verhalten zu ziehen. Das Experiment zeigte, dass die Maschine auf fast schon gespenstische Weise in der Lage war, in einer realen Umgebung aus ihren Wahrnehmungen zu lernen. Obwohl der Roboter nicht „wusste“, dass er sich bewegen kann, „lernte“ er sich fortzubewegen. Die Maschine konnte allerdings nur im Kontakt mit einer realen Umgebung, also durch ihr „Embodiment“, lernen. Genau genommen sind solche Maschinen keine Turingmaschinen mehr, weil sie Elemente der „realen Welt“ (z. B. Sensoren) enthalten. Sie sind somit eher „psychophysikalische“ Systeme. VERSCHRÄNKUNG ZWISCHEN MENSCH UND MASCHINE Aus dem bisherigen folgt, dass der Nachweis einer Verschränkung zwischen Mensch und Maschine den Turing-Test (Imitation Game) in einem vollkommen neuen Licht erscheinen lassen würde. Darauf hatte übrigens Turing 1950 bereits selbst hingewiesen: „These disturbing phenomena seem to deny all our usual scientific ideas. How we should like to discredit them! Unfortunately the statistical evidence, at least for telepathy, is overwhelming.“ Um eine solche Verschränkung nachweisen zu können, müssen allerdings alle kausalen Zusammenhänge zwischen einem Probanden und einer Maschine, mit der er sich verschränken soll, ausgeschlossen werden. Dies ist eine höchst artifizielle Situation, die in der Natur so gut wie niemals vorkommt, weil sich kausale und Verschränkungsprozesse in organisatorisch geschlossenen Systemen immer gegenseitig bedingen und „unterstützen“. Es war auch in der Physik experimentell und messtechnisch sehr schwierig, reine Verschränkungskorrelationen (vgl. Fußnote 14) zu isolieren. Das ist auch der Grund, weshalb bisher noch keine gebrauchsfertigen „Quantencomputer“ existieren, die übrigens ebenfalls keine Turingmaschinen sind. Trotz dieser Schwierigkeiten ist es in den letzten 30 Jahren gelungen, solche Verschränkungskorrelationen bei Mensch-Maschine-Experimenten nachzuweisen.24 23 24
Prof. Dr. Hod Lipson, Cornell University, 19. Januar 2012, swissnex, San Francisco, CA, FORA.tv. Lucadou, Walter von: Experimentelle Untersuchungen zur Beeinflussbarkeit von stochastischen quantenphysikalischen Systemen durch den Beobachter. Frankfurt 1986; ders.: Keine Spur von Psi. Zusammenfassende Darstellung eines umfangreichen Psychokineseexperiments. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 28, 1986, S. 169–197; ders.: A multivariate PK experiment. Part III. Is PK a real force? The results and their interpretation. In: European Journal of Parapsychology, 6, 4, 1987, pp. 369–428; ders.: A Multivariate PK Experiment with unidirectional correlated RNGs. In: Morris, R. L. (Ed.): The Parapsychological Association 30th Annual Convention. Proceedings of Presented Papers. 1987. Parapsychological Association. pp. 255–261; ders: Locating psi-bursts. Correlations between psychological characteristics of observers and observed quantum physical fluctuations. In: Delanoy,
62
Walter von Lucadou
Ein typisches Experiment25, das zum Ziel hat, Verschränkungskorrelationen zwischen quantenphysikalischen Zufallsprozessen und einem menschlichen Beobachter nachzuweisen, kann folgendermaßen beschrieben werden: Eine Versuchsperson beobachtet auf einem Computerbildschirm ein sich zufällig nach rechts oder links bewegendes Farbband. Sie bekommt die Instruktion, die Bewegung des Bandes mit einer Taste für die linke Hand und einer für die rechte Hand so zu steuern, dass sich das Farbband möglichst in die Richtung eines auf dem Bildschirm gezeigten Pfeils bewegt. Die Richtung des Pfeils ändert sich nach jedem der neun Versuchsdurchgänge systematisch. Jeder Tastendruck bewirkt einen Schritt des Farbbandes nach links oder nach rechts. Dabei wird die Häufigkeit der Betätigung jeder Taste als psychologische Variable verwendet. Die Tastendrücke wurden von der Versuchsperson mit der linken oder der rechten Hand getätigt, um den Zufallsprozess, der auf einem Display angezeigt wird, zu „kontrollieren“. Jeder Tastendruck startet den nächsten Zufallsprozess, dessen statistische Merkmale (Mittelwert, Autokorrelationswert) als physikalische Variablen verwendet werden. Der Zufallsprozess ist in Wirklichkeit jedoch vollkommen unabhängig von den Tastendrucken. Es kann also keinen kausalen Einfluss der Versuchsperson auf den Zufallsprozess geben. Die Studie besteht aus zwei unabhängigen Datensätzen, die mit der gleichen Apparatur in zwei unterschiedlichen experimentellen Situationen erzeugt wurden. Der erste Datensatz dient als Referenz: Ein automatischer Kontroll-Run ohne Versuchsteilnehmer. Der zweite Datensatz wurde von Versuchsteilnehmern erzeugt, die hoch motiviert waren. Die Dauer des Experiments hing von der Geschwindigkeit der Tastendrücke ab.
25
Deborah L. (Ed.): The Parapsychological Association 34th Annunal Conventio. Proceedings of Presented Papers. Heidelberg 1991. Parapsychological Association. pp. 265–281; ders.: Lassen sich „PK-Impulse“ lokalisieren? Korrelationen zwischen Persönlichkeitsmerkmalen von Beobachtern und quantenphysikalischen Fluktuationen. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 35, 1993, S. 41–70; ders.: A new experiment suggesting nonlocal correlations in macroscopic complex systems. In: Dalenoort, Gerhard J. (Ed.): The Paradigm of Self-Organization II. Studies in Cybernetics). New York, London, Paris 1994. pp. 52– 77; ders.: Locating Psi-Bursts. Correlations Between Psychological Characteristics of Observers and Observed Quantum Physical Fluctuations. In: Cook, E. W.; Delanoy, Deborah L. (Eds.): Research in Parapsychology 1991. Metuchen, NJ, 1994. pp. 39–43; ders.: Backward Causation and the Hausdorff-Dimension of Singular Events. In: Steinkamp, Fiona (Ed.): Proceedings of Presented Papers. The Parapsychological Association 43rd Annual Convention August 17–20. Freiburg i. Br. 2000. pp. 138–147.; ders.: Self-organization of temporal structures–a possible solution for the intervention problem. In: Sheehan, Daniel P. (Ed.): Frontiers of Time. Retrocausation–Experiment and Theory. AIP Conference Proceedings, Volume 863. Melville, New York 2006. pp. 293–315.; ders.: Selbstorganisation zeitlicher Strukturen. Eine mögliche Lösung für das Interventionsproblem. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 47/48/49, 2005/2006/2007, 2011, S. 63–88.; Walach, Harald; Horan, Majella: Capturing PSI. Replicating von Lucadou’s Correlation Matrix Experiment using a REG Mikro-PK. Presentation at the BIAL-Conference, Porto, March 2014; Walach, Harald; Horan, Majella; Hinterberger, Thilo; Lucadou, Walter von: Evidence for a Generalised Type of Nonlocal Correlations Between Systems Using Human Intention and Random Event Generators. Submitted for publication in PLOS 1. 2016. Lucadou, 2006 a. a. O.; ders.: Selbstorganisation zeitlicher Strukturen. Eine mögliche Lösung für das Interventionsproblem. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 47/48/49, 2005/2006/2007, 2011, S. 63–88.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine?
63
Das Ergebnis bestätigte frühere Studien: Die Art und Weise, wie die Versuchspersonen die Tasten drückten, korreliert signifikant mit dem unabhängigen Zufallsprozess. Dies zeigt sich daran, dass in einer Korrelationsmatrix, wo alle psychologischen Variablen den physikalischen Variablen gegenübergestellt werden, signifikante Korrelationen zwischen den jeweiligen Variablenpaaren (psychologisch – physikalisch) auftauchen, die in der Kontroll-Korrelationsmatrix fehlen. Die Kontroll-Korrelationsmatrix wird mit dem Kontrolldatensatz (ohne Display) und den gleichen psychologischen Variablen erzeugt.26 Die Struktur der Daten erlaubt die Schlussfolgerung, dass die beobachteten Korrelationen (in der experimentellen Matrix) als Verschränkungskorrelationen betrachtet werden können. Es konnte außerdem gezeigt werden, dass die Struktur der Verschränkungskorrelationsmatrix zeitlich nicht stabil ist (wie vom NT-Axiom gefordert27) und sich verändert, wenn das Experiment wiederholt wird. Die Ergebnisse sind in Übereinstimmung mit den Voraussagen der „Verallgemeinerten Quantentheorie (VQT)“. In der Zwischenzeit wurden ähnliche Studien von verschiedenen Autoren an mehreren unabhängigen Forschungseinrichtungen mit ganz ähnlichen Resultaten vorgelegt (Tabelle 1), so dass man als Fazit – mit einer gewissen Vorsicht – schließen kann, dass sich (genügend motivierte) Versuchspersonen mit kausal unabhängigen physikalischen Zufallsprozessen verschränken können. Publikation Lucadou 1986 Lucadou 1986 Lucadou 1991 Radin 1993 Lucadou 2006 Lucadou 2006 Lucadou 2006 Faul, Braeunig 2010 Walach et al 2014 Grote 2016 Jolij 2016 Flores 2016
Subjects Markov Schmidt
motivated non-motivated Innovatives
299 299 307 1 386 386 220 22 503 20 105 213
Psych Var 24 24 16 16 27 27 27 24 45 6 10 45
Phys # Corr Var 23 552 22 528 8 128 23 368 20 540 20 540 20 540 9 216 45 2025 5 30 60 600 45 2025
N N D sig cont 34 11 4,95 11 4 2,48 28 13 3,10 32 17 2,63 93 42 5,79 53 42 1,25 60 42 2,05 17 10 1,60 278 198 4,23 6 1 3,60 82 52 3,08 362 173 10,62
Tabelle 1: Ergebnis aller bisherigen Korrelationsstudien: Nsig zählt die Anzahl von signifikanten Korrelationen in der Korrelationsmatrix zwischen den psychologischen Variablen (Psych Var) und den physikalischen Variablen (Phys Var), Ncont diejenigen in der Kontrollmatrix. (#corr = Psych Var x Phys Var), Nsubj = Anzahl der Versuchspersonen, Standardisierte Differenz D = (Nsig – Ncont)/√(2* Ncont*(1- Ncont/#corr)). 26 27
vgl. ders.: The Model of Pragmatic Information (MPI). In: May, Edwin C.; Marwaha, Sonali Bhatt (Eds.): Extrasensory Perception: Support, Skepticism, and Science. Vol. 1: History, Controversy, and Research; Vol. 2: Theories and the Future of the Field. Santa Barbara, CA, 2015. Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic Phenomena as Entanglement Correlations in Generalized Quantum Theory. In: Journal of Consciousness Studies, 14, 4, 2007, pp. 50–74.
64
Walter von Lucadou
MÖGLICHE KONSEQUENZEN Wenn Versuchspersonen sich mit physikalischen Zufallsprozessen verschränken können, dann folgt daraus im Prinzip, dass Menschen sich auch mit Computern verschränken können – allerdings nur mit realen, weil diese bisweilen (Hardware-) Fehler machen, also Zufallsprozesse enthalten. Dies gilt (nach obigen Überlegungen) besonders für selbstorganisierende (also lernende) Maschinen, weil durch deren Embodiment notwendigerweise Zufallsprozesse ins Spiel kommen und natürlich erst recht mit echten Quantencomputern, die es allerdings noch nicht gibt. Quantencomputer sind nämlich keine Turingmaschinen, sondern extrem effiziente Rate- oder Schätz-Maschinen, die präparierbare Quantenzustände einnehmen können und dann ein „geeignetes“ Zufallsergebnis liefern. Eine Verschränkung des Menschen mit einem solchen System unterscheidet sich von den oben geschilderten Experimenten im Prinzip kaum. Man kann somit davon ausgehen, dass Probanden diesen Systemen genauso „Bewusstsein“ zuschreiben werden, wie sie dies bei einem menschlichen Gegenüber tun würden. Als praktische Anwendung könnte man durch die Verschränkung zwischen Mensch und Maschine die enorme Rechenleistung des Computers mit der „Intuition“ des Menschen so kombinieren, dass Anwendungen möglich werden, die weit über die Möglichkeiten von Turingmaschinen hinausgehen.28 Die Frage ist natürlich, ob solche Anwendungen für den Menschen wirklich positiv zu bewerten wären.
28
Lucadou, Walter von: Die Magie der Pseudomaschine. In: Belschner, Wilfried; Galuska, Joachim; Walach, Harald; Zundel, Edith (Hg.): Transpersonale Forschung im Kontext. Oldenburg 2002: Transpersonale Studien 5, Bibliotheks- und Informationssystem der Universität Oldenburg.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine?
65
LITERATUR Atmanspacher, Harald; Römer, Hartmann; Walach, Harald: Weak quantum theory. Complementarity and entanglement in physics and beyond. In: Foundations of Physics, 32, 2002, pp. 379–406. http://arxiv.org/abs/quant-ph/0104109. Beutler, J. J.; Attevelt, J. T. M.; Geijskes, G. G.; Schouten, S. A.; Faber, J. A. J.; Mees, E. J. D.: The Effect of Paranormal Healing on Hypertension. In: Journal of Hypertension, 5 (suppl. 5), 1987, pp. 551–552. Bloch, Arthur: Murphy’s Law and other reasons why things go wrong. Los Angeles, CA, 1977. Borges Flores, A.: Unpublished results. Personal communication. 2016. Braeunig, Matthias; Faul, Tillmann: Die von Lucadousche Korrelationsmatrix am Beispiel des T.REG Zufallsgenerators – Probleme und Resultate. Abstract 2010. XXVI. Workshop der wissenschaftlichen Gesellschaft zur Förderung der Parapsychologie e. V. (WGFP), 22. bis 24. Oktober 2010 in Offenburg. The Meaning-Switch. Investigation of Precognition in an Operationally Closed System. Final Report for BIAL Project No. 98/06 (completed February 2009). Csikszentmihalyi, Mihaly: Das Flow-Erlebnis. Jenseits von Angst und Langeweile im Tun aufgehen. 2000(8). (Übers.: Beyond Boredom and Anxiety. The Experience of Play in Work and Games. Stuttgart 1975.) Einstein, Albert; Podolsky, Boris; Rosen, Nathan: Can quantum mechanical description of physical reality be considered complete? In: Physical Review, 47, 1935, pp. 777–780. Grote, Hartmut: Multiple-analysis correlation study between human psychological variables and binary random events. Submitted to Journal for Scientific Exploration, 2016. Jolij, Jake: Conceptual replications of the correlation matrix method in main stream experiments. International Symposium: Testing Generalised Entanglement: The Matrix Experiment – Towards a Consortium Replication, Capri, October 27–29, 2016. Jordan, Pascual: Verdrängung und Komplementarität. Hamburg 1947. Kornhuber, Hans Helmut; Deecke, Lüder: Hirnpotentialänderungen bei Willkürbewegungen und passiven Bewegungen des Menschen. Bereitschaftspotential und reafferente Potentiale. In: Pflüger’s Archiv für die gesamte Physiologie des Menschen und der Tiere. Bd. 284, 1965, pp. 1–17. doi:10.1007/BF00412364 PDF Libet, Benjamin; Gleason, Curtis A.; Wright, Elwood W.; Pearl, Dennis K.: Time of conscious intention to act in relation to onset of cerebral activities (readiness potential).The unconscious initiation of a freely voluntary act. In: Brain, 106, 1983, pp. 623–642. Lucadou, Walter von: Experimentelle Untersuchungen zur Beeinflussbarkeit von stochastischen quantenphysikalischen Systemen durch den Beobachter. Frankfurt 1986. ders.: Keine Spur von Psi. Zusammenfassende Darstellung eines umfangreichen Psychokineseexperiments. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 28, 1986, S. 169–197. ders.: A multivariate PK experiment. Part III. Is PK a real force? The results and their interpretation. In: European Journal of Parapsychology, 6, 4, 1987, pp. 369–428. ders.: A Multivariate PK Experiment with unidirectional correlated RNGs. In: Morris, R. L. (Ed.): The Parapsychological Association 30th Annual Convention. Proceedings of Presented Papers. 1987. Parapsychological Association. pp. 255–261. ders.: Locating psi-bursts. Correlations between psychological characteristics of observers and observed quantum physical fluctuations. In: Delanoy, Deborah L. (Ed.): The Parapsychological Association 34th Annunal Conventio. Proceedings of Presented Papers. Heidelberg 1991. Parapsychological Association. pp. 265–281. ders.: Makroskopische Nichtlokalität. In: Kratky, Karl W. (Hg.): Systemische Perspektiven: Interdisziplinäre Beiträge zu Theorie und Praxis. Heidelberg 1991. S. 45–63. ders.: Lassen sich „PK-Impulse“ lokalisieren? Korrelationen zwischen Persönlichkeitsmerkmalen von Beobachtern und quantenphysikalischen Fluktuationen. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 35, 1993, S. 41–70.
66
Walter von Lucadou
ders.: A new experiment suggesting non-local correlations in macroscopic complex systems. In: Dalenoort, Gerhard J. (Ed.): The Paradigm of Self-Organization II. Studies in Cybernetics). New York, London, Paris 1994. pp. 52–77. ders.: Locating Psi-Bursts. Correlations Between Psychological Characteristics of Observers and Observed Quantum Physical Fluctuations. In: Cook, E. W.; Delanoy, Deborah L. (Eds.): Research in Parapsychology 1991. Metuchen, NJ, 1994. pp. 39–43. ders.: The Exo-Endo-Perspective of Non-locality in Psycho-Physical Systems. In: International Journal of Computing Anticipatory Systems, 2, 1989, pp. 169–185. ders.: Backward Causation and the Hausdorff-Dimension of Singular Events. In: Steinkamp, Fiona (Ed.): Proceedings of Presented Papers. The Parapsychological Association 43rd Annual Convention August 17–20. Freiburg i. Br. 2000. pp. 138–147. ders.: Die Magie der Pseudomaschine. In: Belschner, Wilfried; Galuska, Joachim; Walach, Harald; Zundel, Edith (Hg.): Transpersonale Forschung im Kontext. Oldenburg 2002: Transpersonale Studien 5, Bibliotheks- und Informationssystem der Universität Oldenburg. ders.: Self-organization of temporal structures–a possible solution for the intervention problem. In: Sheehan, Daniel P. (Ed.): Frontiers of Time. Retrocausation–Experiment and Theory. AIP Conference Proceedings, Volume 863. Melville, New York 2006. pp. 293–315. ders.: Complex Environmental Reactions as a New Concept to Describe Spontaneous ‘‘Paranormal’’ Experiences. In: Axiomathes, 21(2), 2010, pp. 263–285. ders.: Selbstorganisation zeitlicher Strukturen. Eine mögliche Lösung für das Interventionsproblem. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 47/48/49, 2005/2006/ 2007, 2011, S. 63–88. ders.: The Model of Pragmatic Information (MPI). In: May, Edwin C.; Marwaha, Sonali Bhatt (Eds.): Extrasensory Perception: Support, Skepticism, and Science. Vol. 1: History, Controversy, and Research; Vol. 2: Theories and the Future of the Field. Santa Barbara, CA, 2015. ders.: Verschränkungswahrnehmung und Lebenskunst. In: Engelhardt, Dietrich von; Kick, Hermes Andreas (Hg.): Lebenslinien – Lebensziele – Lebenskunst. Festschrift zum 75. Geburtstag von Wolfram Schmitt. Reihe: Medizingeschichte. Bd. 6. Berlin 2014. S. 37–55. ders.: The Correlation-Matrix Method (CMM). A New Light Upon the Repeatability Problem of Parapsychology. In: Journal of Parapsychology, Vol. 79, Nr. 2, 2015, pp. 145–146. Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic Phenomena as Entanglement Correlations in Generalized Quantum Theory. In: Journal of Consciousness Studies, 14, 4, 2007, pp. 50–74. Lucadou, Walter von; Römer, Hartmann: Schuld, Person und Gesellschaft. Systemische Perspektiven. In: Kick, Hermes Andreas; Schmitt, Wolfram (Hg.): Schuld – Bearbeitung, Bewältigung, Lösung. Strukturelle und prozessdynamischer Aspekte. Berlin 2011. S. 79–97. Primas, Hans: Time-asymmetric phenomena in biology complementary exophysical descriptions arising from deterministic quantum endophysics. In: Open Systems & Information Dynamics 1(1), 1992, pp. 3–34. Radin, Dean: Enviromental modulation and statistical equilibrium in mind-matter interaction. In: Subtle Energies and Energy Medicine 4, 1993, pp. 1–29. Renninger, Mauritius: Messungen ohne Störungen des Messobjekts. Zeitschrift für Physik, 158, 1960, S. 417–421. Reuter, Bernhard M.: Zur Psychophysiologie der Ich-Identität. Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 38, 1996, S. 115–135. Römer, Hartmann: Verschränkung. In: Knaup, Marcus; Müller, Tobias; Spät, Patrick (Hg.): PostPhysikalismus. Bamberg 2013. S. 87–121. Römer, Hartmann; Walach, Harald: Complementarity of phenomenal and physiological observables. A primer on generalised quantum theory and its scope for neuroscience and consciousness studies. In: Walach, Harald; Schmidt, Stefan; Jonas, Wayne B. (Eds.): Neuroscience, consciousness and spirituality. Dordrecht, Heidelberg, London, New York 2011. pp. 97–107. Tholey, P.: Erkenntnistheoretische und systemtheoretische Grundlagen der Sensumotorik aus gestalttheoretischer Sicht. In: Sportwissenschaft, 10, 1980, S. 7–35.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine?
67
Turing, Alan M.: On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. Series 2. Nr. 42, 1936, pp. 230–265. ders.: Computing machinery and intelligence. Mind, 59, 1950, pp. 433–460. Uzan, Pierre: On the Nature of Psychophysical Correlations. In: Mind and Matter, Vol 12 (1), 2014, pp. 7–36. Varela, Francisco J.: Autonomy and autopoesis. In: Roth, Gerhard; Schwengler, Helmut (Eds.): SelfOrganizing Systems. Frankfurt, New York: Campus 1981. pp. 14–23. Walach, Harald: Mind-Matter Interactions. On the Rollercoaster from Data to Theory and Back Again. In: Aquém e Alén do Cérebro. Behind and Beyond the Brain 100 Simpósio da Fundação Bial. 2014. pp. 85–114. Walach, Harald; Lucadou, Walter von; Römer, Hartmann: Parapsychological Phenomena as Examples of Generalised Nonlocal Correlations. A Theoretical Framework. In: Journal of Scientific Exploration, Vol. 28, No. 4, 2014, pp. 605–631. Walach, Harald; Horan, Majella: Capturing PSI. Replicating von Lucadou’s Correlation Matrix Experiment using a REG Mikro-PK. Presentation at the BIAL-Conference, Porto, March 2014. Walach, Harald; Horan, Majella; Hinterberger, Thilo; Lucadou, Walter von: Evidence for a Generalised Type of Nonlocal Correlations Between Systems Using Human Intention and Random Event Generators. Submitted for publication in PLOS 1. 2016. Walach, Harald; Römer, Hartmann: Complementarity is a useful concept for consciousness studies. A Reminder. In: Neuroendocrinology Letters, 21, 2000, pp. 221–232.
VOM ERKENNEN UND GESTALTEN TECHNISCHER MÖGLICHKEITEN
Überlegungen zur Wissenschaftstheorie der Technikwissenschaften Klaus Erlach 1 DREITEILUNG DES MENSCHLICHEN VERNUNFTVERMÖGENS IN THEORIE, PRAXIS UND POIËSIS Technik als Gegenstandsbereich der Philosophie scheint im Vergleich zu den großen Themen wie Metaphysik, Naturphilosophie oder Ethik von der abendländischen Philosophie meist nur recht beiläufig behandelt worden zu sein. Dies hat seine Ursache bereits in der antiken Philosophie und hängt oberflächlich betrachtet auch mit einer gewissen Geringschätzung der „banausischen“ (βαναυσοι) Handwerke im Vergleich zur geistigen Schau wahren Wissens, bezeichnet als „Theorie“ (ϑεωρια), zusammen. So stellt etwa Platon im Dialog „Politikos“ fest, dass kein vernünftiger Mensch die Struktur beispielsweise der Weberei um ihrer selbst willen untersuchen wird1. Damit scheint eine an konkrete Techniken angebundene Technikphilosophie in der Antike weiterer Überlegung nicht wert zu sein. Für Platon dient eine Erklärung der Struktur der Weberei lediglich als Modell zur Klärung komplexer theoretischer Probleme. Im bekannten Einleitungssatz der „Nikomachischen Ethik“ nimmt Aristoteles eine grundlegende Dreiteilung der Formen menschlicher Tätigkeiten vor: „Jede Kunst (τεχνη) und jede Lehre (μεθοδος), ebenso jede Handlung (πραξις) und jeder Entschluss scheint irgendein Gut zu erstreben.“2 Von Interesse ist hier insbesondere die Unterscheidung zwischen dem mit einem Entschluss verbundenen Handeln und dem technischen Können. Während nun beim praktischen Handeln das Ziel in den Tätigkeiten (ενεργειαι) selbst oder den durch sie bewirkten Folgen liegt, dient das technische Können dem Hervorbringen eines Werkes (εργον), das von der Tätigkeit abtrennbar und für etwas anderes dienlich ist.3 „Demnach ist auch das mit Vernunft verbundene handelnde Verhalten von dem mit Vernunft verbundenen hervorbringenden (ποιησις) Verhalten verschieden. Darum ist auch keines im anderen enthalten. Denn weder ist ein Handeln Hervorbringen, noch ist ein Hervorbringen Handeln.“4 Sittliches Handeln und das Produzieren eines Werkes sind demnach voneinander zu unterscheiden. Diese Dreiteilung in Theorie, Praxis und Poiësis ist nach Günther Bien „für die aristotelische Philosophie konstitutiv und für die Folgezeit von größter Bedeutung. Sie gibt den Rahmen ab für die aristotelische 1 2 3 4
s. Platon: Politikos. In: ders.: Sämtliche Werke, Bd. 5. Reinbek bei Hamburg 1987. 285 d. Aristoteles: Die Nikomachische Ethik (EN). München 1986. 1094a1, 55. a. a. O., 1139b1–3, 183. a. a. O., 1140a3–6, 185.
70
Klaus Erlach
Einteilung (und Bewertung) der Wissenschaften, der Weltbestände, der menschlichen Handlungskompetenzen (oder ‚Tugenden‘), der Vernunftformen und vernünftigen Seelenteile, der Grundformen von Wahrheit sowie der Lebensweisen und Lebensziele und wird als vollständig und abgeschlossen vorausgesetzt.“5 Damit ist aber auch klar, dass ethische und technikphilosophische Fragen nach Aristoteles komplett getrennten Sphären zuzuordnen sind. Das auf die Praxis, also auf das sittliche Handeln im sozialen Kontext bezogene Vernunftvermögen ist die Klugheit (φρονησις), die richtige Entscheidungen gewährleistet und für die Wahl legitimer Handlungsziele zuständig ist. Demgegenüber ist das auf die Poiësis, also auf das richtige Hervorbringen von kunstvollen Werken bezogene Vernunftvermögen das rationale Herstellungsvermögen mit der Bezeichnung „Technik“ (τεχνη). Damit ist zugleich eine Auf- und Abwertung verbunden. Zum einen ist die technische Vernunft auf der gleichen intellektuellen Ebene wie die sittliche oder auch die theoretische Vernunft anzusiedeln, zum anderen bleibt sie aber ob ihres Werkcharakters fremden Zielen dienlich und damit der guten Zielsetzung sittlichen Handelns untergeordnet. Die drei grundsätzlichen Lebensformen (βιοι) – erstens der theoretischen Kontemplation mit dem Streben nach Wissen, zweitens des politisch-sittlichen Handelns mit dem Streben nach dem Guten sowie drittens des poiëtischen Herstellens mit dem Streben nach schönen und nützlichen Werken – spannen eine Trias auf, nach der sich nicht nur die philosophischen Disziplinen, sondern auch alle anderen Wissenschaften einteilen lassen (Abb. 1). Die Formalwissenschaften – bei Aristoteles im „Organon“ zusammengefasst – bilden die Grundlage für alle drei Wissensbereiche und sind hier nicht eigens dargestellt.
Abb. 1: Die fundamentale Dreiteilung der Wissenschaften in Theorie, Praxis und Poiësis (in Anlehnung an Aristoteles) 5
Bien, Günther: Praxis, praktisch. I. Antike. In: Ritter, Joachim; Gründer, Karlfried (Hg.): Historisches Wörterbuch der Philosophie. Bd. 7. Basel 1989. Sp. 1281.
Vom Erkennen und Gestalten technischer Möglichkeiten
71
Etwas pointiert und auch nur in lockerer Anlehnung an Aristoteles lassen sich also die drei Sphären wie folgt charakterisieren und in ihrer jeweiligen Zielsetzung verorten: 1. In der Sphäre der Theorie geht es um die Erkenntnis der physikalischen, chemischen, biologischen und menschlichen Natur dank des Vermögens der reinen Vernunft. Dazu formulieren die Naturwissenschaften mit Kausalgesetzen – den sogenannten Naturgesetzen – und Naturprinzipien deskriptive Aussagen über die (objektive) Realität, die sich an ihrer Wahrheit messen lassen müssen. 2. In der Sphäre der Praxis geht es um die Legitimation der sozialen und sittlichen Verhältnisse in der Gesellschaft dank des Vermögens der praktischen Vernunft. Dazu formulieren die Sozialwissenschaften mit moralischen Normen und Gesetzen des positiven Rechts präskriptive Aussagen über die (soziale) Welt, die sich an der damit erreichten Gerechtigkeit messen lassen müssen. 3. In der Sphäre der Poiësis geht es um die Gestaltung technischer Gebilde dank des Vermögens der poiëtischen Vernunft. Dazu entwickeln die Technikwissenschaften mit technologischen Regeln und Gestaltungsrichtlinien handlungsleitende Aussagen über die (zu konstruierende) Wirklichkeit, die sich an ihrer Effektivität – sowie der funktionalen Schönheit der konstruierten Produkte – messen lassen müssen. Die konstruierte Wirklichkeit kann man in extensionaler Definition als „Technosphäre“ bezeichnen.6 Mit einer Kritik der poiëtischen Vernunft wären dann Möglichkeiten und Grenzen der Gestaltbarkeit der Technosphäre aufzuzeigen.7 Die im abendländischen Denken vorherrschenden philosophischen Disziplinen konzentrieren sich hauptsächlich auf die beiden Sphären von Theorie und Praxis, während die Sphäre der Poiësis nur selten mit eigenständigen Werken gewürdigt worden ist. Bei Aristoteles sind dies nur die „Poetik“ und im eingeschränkten Sinne auch die „Rhetorik“. Die besondere Stellung der aristotelischen „Poetik“ liegt im technikphilosophischen Zusammenhang darin, dass sie Gestaltungsrichtlinien für die gelungene Tragödie angibt, also präskriptiv vorschreibt, wie eine gute Tragödie zu „konstruieren“ ist.8 Als moderne philosophische Disziplin gehört zur Sphäre der Poiësis die historisch sehr spät auftretende Ästhetik, die mit dem Schönen nach der Scheidung des Wahren vom Guten nur einen kleinen Teil des poiëtischen Schaffens umfasst, nämlich nur die „zweckfreien“ Künste, nicht aber die „nützliche“ Technik. Zudem ist sie in der Regel als Rezeptionsästhetik lediglich auf die Frage des ästhetischen Urteils eingeschränkt, ohne Vorschriften für die richtige Gestaltung von Kunstwerken zu entwickeln. Genau dies aber muss eine allgemeine Theorie 6 7 8
grob skizziert in: ders.: Eine Kritik der poiëtischen Vernunft. Anmerkungen zur Wissenschaftstheorie vom technischen Gestalten. In: Zeitschrift für allgemeine Wissenschaftstheorie. 32, 2001, 1, S. 1–25. Erlach, Klaus: Das Technotop. Die technologische Konstruktion der Wirklichkeit. Münster 2000. S. 35. Mit dem unlängst aufgefundenen zweiten Buch der „Poetik“ über die Komödie konnte eine bedeutende Lücke im überlieferten Werk des Aristoteles geschlossen werden (vgl. ders.: Der unauslöschliche Weltenbrand des Lächerlichen. Die Wiederentdeckung der verschollenen Theorie der Komödie von Aristoteles. In: Der blaue Reiter. 40, 2017, S. 50–55.). Wenn man bedenkt, wie gering die bisherige Quellenlage zum Bereich der poiëtischen Vernunft gewesen ist, ist dies kein kleiner Gewinn.
72
Klaus Erlach
der Technik im Rahmen der Technikphilosophie leisten – vor allem wenn es um die Konstruktion und Herstellung nützlicher Artefakte geht. Mit wachsender Bedeutung der technischen Lebenswelt – dem „Technotop“9 – stellt sich den historisch „verspäteten“ Wissenschaftlern an Technischen Universitäten10 immer dringlicher die Frage, was den spezifisch technikwissenschaftlichen Gehalt ihrer Forschung ausmachen kann und soll. Mit den nun folgenden Überlegungen zu einer Wissenschaftstheorie der Technik soll umrissen werden, was Technikwissenschaften sind und wie sie arbeiten sollen. Dies erfordert zunächst ein definitorisches Unterfangen. 2 WISSENSCHAFTSVERSTÄNDNIS DER TECHNIKWISSENSCHAFTEN Unter dem sehr treffenden Titel „Erkennen – Gestalten – Verantworten“ hat die „Deutsche Akademie der Technikwissenschaften“ die wissenschaftliche Eigenständigkeit der Technikwissenschaften hervorgehoben: „Technikwissenschaften schaffen kognitive Voraussetzungen für Innovation in der Technik und Anwendung technischen Wissens und legen die Grundlagen für die Reflexion ihrer Implikationen und Folgen.“11 Leider geht in dieser Definition die doppelte Aufgabe des Erkennens und Gestaltens verloren. Die Überlegungen von „acatech“ aufgreifend sei daher folgende Definition vorgeschlagen, die mit einer begrifflichen Trennung von Technik- und Ingenieurwissenschaften den Doppelaspekt betont: „Die Technik- und Ingenieurwissenschaften dienen der Gesellschaft durch Erkennen und Gestalten technischer Möglichkeiten mit Hilfe von spezifischen Methoden. Sie sind institutionalisiert in sich beständig wandelnden, eigenständigen Disziplinen.“12 1. Das „Dienen“ verweist darauf, dass die Technik- und Ingenieurwissenschaften zweckmäßig sind in dem allgemeinen Sinne, dass sie die Möglichkeitsräume des technischen Handelns vergrößern. Dadurch erschließen sie neue Möglichkeiten zur Erfüllung gesellschaftlicher Bedürfnisse und stehen in entsprechender Verantwortung. 2. Im „Erkennen“ sind die Technikwissenschaften den Naturwissenschaften am ähnlichsten. Typische Methoden sind hier empirische Versuchsreihen zur systematischen Analyse präparierter technischer Artefakte. Typische Ergebnisse sind technologische Gesetze und Regeln, die zum Teil auch normativ kodifiziert werden (Abschnitt 3). 9 10
11 12
ders.: Das Technotop. Die technologische Konstruktion der Wirklichkeit. Münster 2000. 37 ff. Erst 1899 verlieh Wilhelm II. anlässlich des 100-jährigen Jubiläums der TH Berlin das Promotionsrecht (s. König, Wolfgang: Die Technikerbewegung und das Promotionsrecht der Technischen Hochschulen. In: Schwarz, Karl (Hg.).: 1799–1999. Von der Bauakademie zur Technischen Universität Berlin. Berlin 2000, S. 127.). acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. acatech Impuls. Berlin 2013. S. 18. Diese Definition wurde Auftrag der „Expertenkommission Ingenieurwissenschaften@BW2025“ erarbeitet und nahezu wortgleich als Definition von „Ingenieurwissenschaften“ publiziert (Expertenkommission Ingenieurwissenschaften@BW2025: Abschlussbericht. Stuttgart 2015. S. 5).
Vom Erkennen und Gestalten technischer Möglichkeiten
73
3. Im „Gestalten“ gehen die Ingenieurwissenschaften über andere Wissenschaften am meisten hinaus, weil sie Prinziplösungen, Methoden sowie normative Gestaltungsrichtlinien zur Synthese neuer technischer Artefakte und Systeme entwickeln (Abschnitt 4). 4. In „Disziplinen“ sind die Technik- und Ingenieurwissenschaften aufgrund ihres geradezu unüberschaubaren inhaltlichen Umfangs fachlich gegliedert. Da diese Disziplinen eine gewisse Kontinuität brauchen, müssen sie in Einrichtungen institutionalisiert sein, die sich dem technologischen Wandel anpassen können. Für eine „Wissenschaftstheorie der Technikwissenschaften“ ergibt sich durch die basale Zweiteilung in Technikanalyse und Techniksynthese die Aufgabe, neben dem richtigen Erkennen auch das richtige Gestalten zu begründen. Die Begründung des verantwortlichen technischen Handelns bleibt hingegen der Technikethik überlassen und soll hier nicht weiter verfolgt werden. 3 ERKENNEN TECHNOLOGISCHER REGELN UND GESETZE IN DEN TECHNIKWISSENSCHAFTEN Das Erkennen in den Technikwissenschaften hat Klaus Kornwachs mit einer auf Regeln aufbauenden technischen Handlungslogik rekonstruiert. Eine Regel definiert Kornwachs dabei als eine „Anweisung, eine endliche Anzahl von Handlungen in einer bestimmten Reihenfolge hinsichtlich eines gegebenen Ziels an einem ‚Sachsystem‘ durchzuführen“13. Die so bestimmten technischen Regeln ermöglichen eine qualifizierte Anwendung von technischen Artefakten beim technischen Handeln. Mario Bunge hat nun darauf hingewiesen, dass derartige Regeln nicht als einfache Aussage über nomologische Zusammenhänge in Form der Implikation A → B aufzufassen sind, sondern als Handlungsanleitung einen Aufforderungscharakter haben.14 Das technische Regelwissen verbindet in Zweck-Mittel-Relationen zwei kategorial unterschiedliche Dinge – nämlich ein anzustrebendes Resultat B (Zielzustand) mit der dazu als erforderlich angesehenen Handlung A (Durchführung). Die Regel „Wenn B sein soll, muss man A tun“ kann formal ausgedrückt werden durch „try B per A“. Bunge führt zusätzlich den pragmatischen Syllogismus ein, der die Gültigkeit der Regel auf die Gültigkeit eines Kausalgesetzes zurückführt: „wenn (A → B), versuche B durch A.“15 Damit werden technische Regeln sehr eng an gesetzesartige Aussagen wie z. B. Naturgesetze angebunden. Im Unterschied zur logischen Implikation behauptet Bunge nun, dass die Effektivität technischer Regeln unbestimmt bzw. hinsichtlich des Resultats nicht entscheidbar bleibt, wenn man die Handlung A nicht ausführt, sondern unterlässt. 13 14 15
Kornwachs, Klaus: Vom Naturgesetz zur technologischen Regel – ein Beitrag zu einer Theorie der Technik. In: Banse, Gerhard; Friedrich, Käthe (Hg.): Technik zwischen Erkenntnis und Gestaltung. Berlin 1996, S. 33. a. a. O., S. 35. Kornwachs, Klaus: Theoretisch-deduktive Methoden. In: Banse, Gerhard; Grundwald, Armin; König, Wolfgang; Ropohl, Günter (Hg.): Erkennen und Gestalten. Eine Theorie der Technikwissenschaften. Berlin 2006. S. 248.
74
Klaus Erlach
Die entsprechend der Wahrheitstabelle der formalen Logik aufgebaute Effektivitätstabelle hat dann zwei offene, mit Fragezeichen markierte Felder.16 Es ist das Verdienst von Klaus Kornwachs und Mario Harz mit der von ihnen neu entwickelten „Durchführungslogik“ diese Lücke geschlossen zu haben. Dabei wird zunächst die Handlung A als Durchführung ε eines Sachverhaltes A präzisiert, um dann im Formalismus das Unterlassen einer Durchführung ε (¬A) deutlich von der Verhinderung einer Durchführung ≈ ε (A) zu unterscheiden.17 Die entwickelten durchführungslogischen Operationen formalisieren den rationalen Umgang mit technischen Regeln beim technischen Handeln, also in der Anwendung. Sie sind damit aber nicht Gegenstand einer Wissenschaftstheorie der Technikwissenschaften in dem hier interessierenden engeren Sinn. Das Ziel der Technikwissenschaften ist die Erkenntnisgewinnung im Bereich grundlegender technischer Zusammenhänge, nicht primär das technische Anwendungshandeln. Das technikwissenschaftlich erzeugte Wissen hat drei Aufgaben – erkennende, erklärende und pragmatische. Es genügt dem Technologen nicht, bloß zu wissen, erstens dass eine Konstruktion hält und die beabsichtigte Funktion erfüllt (also effektiv ist), sondern er sucht zusätzlich nach gesetzesartigen Zusammenhängen, die angeben, zweitens weshalb eine Konstruktion hält und effektiv ist sowie drittens wie sie in ihrer Stabilität, Materialausnutzung oder Funktionalität zu verbessern wäre, also effizienter zu gestalten ist. Die Technikwissenschaften befassen sich dazu mit Wirkungszusammenhängen, die zwischen instrumentell messbaren Phänomenen im technischen Bereich bestehen. Ergebnis ist ein technisches Wissen, das in einem technologischen Regelwerk systematisch zusammengefasst und soweit wie möglich formal-mathematisch gefasst wird. Diese Gestalt ist auch ein deutlicher Unterschied zu Handlungsregeln mit Zweck-Mittel-Beziehungen. Die so erarbeiteten technologischen Regeln dienen dann wissenschaftlich begründeten Berechnungen zur Auslegung, Dimensionierung und elementaren Formgebung einer technischen Konstruktion. Zur Entwicklung des technologischen Wissens ist eine eigenständige experimentelle Grundlagenforschung erforderlich. Dies soll an einem Beispiel aus der Festigkeitslehre kurz umrissen werden. Im Experiment spannt man Materialproben mit definierter Geometrie in ein Prüfgerät, das die Probe in Längsrichtung mit steigender Kraft langsam auseinanderzieht, bis sie reißt. Der zeitliche Verlauf wird im Spannungs-Dehnungs-Diagramm dargestellt (Abb. 2). Dabei ist über der Dehnung ε die Zunahme der Spannung σ in der Probe aufgetragen. Bei kleinen Kräften gilt für Metalle ein proportionaler Verlauf mit linear-elastischer (also reversibler) Dehnung. Der entsprechend formulierte mathematische Zusammenhang σ = E × ε findet sich als Hookesches Gesetz in jedem Physikbuch. Dieses sogenannte „Naturgesetz“ zeigt, wie sich Material unter Krafteinwirkung „natürlicher“ Weise verhält. Die Natur zeigt sich in drei materialabhängigen Naturkonstanten, dem Elastizitätsmodul E, der Streckgrenze Re, sowie der Zugfestigkeit Rm. 16 17
Kornwachs, 1996, S. 37. ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. S. 178 ff.
Vom Erkennen und Gestalten technischer Möglichkeiten
▲ Spannung ơ =
Zugfestigkeit Rm (maximale Kraft)
Kraft F Fläche A
75
Einschnürungsbeginn Zerreißgrenze nicht-lineare plastische Verformung
Streckgrenze Re
linear-elastische Dehnung nach Hookschem Gesetz: Spannung ơ = Elastizitätsmodul E x Dehnung ε
Dehnung ε =
▲
Längenänderung Δ / Ausgangslänge /0
Abb. 2: Die Spannungs-Dehnungs-Kurve beschreibt das Verhalten einer Materialprobe unter Zugspannung
O Omax
F
A
O*
On
AK
F
F Zugkraft A Querschnittsfläche AK Querschnittsfläche im Kerbgrund O durchschnittliche Spannung in der Kerbe Omax maximale Spannung im Kerbgrund O * Spannungsverlauf in der Kerbe
Abb. 3: Spannungsverteilung im außen gekerbten Rundstab bei Zugbelastung (Läpple, Volker: Einführung in die Festigkeitslehre. Wiesbaden 2016(4). S.139.)
Den Technikwissenschaftler interessiert nun aber das Verhalten des gekerbten Rundstabs als Basis für Festigkeitsberechnungen zur Bauteilauslegung (Abb. 3). Im Kerbgrund ist die Querschnittsfläche A des Rundstabes durch die Kerbe auf AK verkleinert. Nun kann man aber nicht einfach mit der durchschnittlichen Spannung im Kerbgrund σN rechnen, denn die Kerbe bedingt eine lokale Spannungsüberhöhung im Kerbgrund auf σmax. Da sich dieser Wert nicht direkt messen lässt, muss man implizit vorgehen. Dazu definiert man als Formzahl αK das Spannungsverhältnis σmax / σN, so dass eine höhere Formzahl auf eine höhere Bauteilbelastung hinweist. Diese Formzahl lässt sich nun experimentell ermitteln, indem man einen Zugversuch mit der gekerbten
76
Klaus Erlach
Probe durchführt und dann die Kräfte, die jeweils beim Beginn der plastischen Verformung aufgewendet werden müssen, in Beziehung zueinander setzt. Der Spannungsverlauf σ* in der Probe und somit der Wert von σmax hängen von der Geometrieform der Kerbe und des Bauteiles ab. Für jede Kerbform müsste man nun sehr aufwendig eigene Versuchsreihen durchführen. Heinz Neuber hat 1937 Berechnungsverfahren für den Spannungsverlauf σ* entwickelt, die auf Lösungen nichtlinearer Differentialgleichungen basieren. Da die manuelle Berechnung aufwendig ist, werden die Formzahlwerte in Abhängigkeit von geometrischen Parametern auch in Diagrammen dargestellt. Mit Finiten Elemente Methoden kann man heute für beliebige Kerbformen Näherungslösungen berechnen. In beiden Fällen kann man von einem „technologischen Gesetz“ sprechen, das mathematisch als Differentialgleichung formuliert ist, auf theoretischen Grundannahmen über den Spannungsverlauf beruht und auch experimentell überprüft werden kann.18 Die mit einigem experimentellen und theoretischen Aufwand ermittelten Ergebnisse werden zur Berechnung der Festigkeit von neu konstruierten Bauteilen benötigt. Für die Vorgehensweise gilt nun folgende „technologische Regel“: Erstens ist die Formzahl in Abhängigkeit von der Belastungsform und der Bauteilgeometrie mit ihrer jeweiligen Kerbwirkung zu ermitteln. Zweitens hat die Festlegung eines Sicherheitsfaktors, der die Effektivität der Regel gegen nicht berücksichtigte Abweichungen und Störgrößen (Materialfehler, Toleranzen) absichern soll, zu erfolgen. Und schließlich erfolgt drittens die Berechnung der maximal zulässigen Belastung über die zulässige Spannung nach folgender Dimensionierungsregel:
Um ein Bauteilversagen sicher zu vermeiden, dürfen die beim Einsatzzweck auftretenden Kräfte keine größere Belastungsspannung erzeugen als kalkuliert. Bei schwingender Beanspruchung verringert sich die Kerbwirkung, d. h. das Bauteil kann kleiner dimensioniert werden. Für diesen aus der Erfahrung bekannten Effekt gibt es keine theoretische Ableitung. Die technologische Regel wird hier ohne zugrundeliegendes technologisches Gesetz formuliert. Das Beispiel aus der Festigkeitslehre zeigt die gegenüber der Physik in den grundlagenorientierten Technikwissenschaften verschobene Fragestellung. Die Naturwissenschaft formuliert mathematisch gefasste Naturgesetze (als Differentialgleichung), die Naturkonstanten (meist Materialkonstanten) enthalten. Damit betreffen naturwissenschaftliche Aussagen primär Merkmale und Verhalten der Materie (υλη) – von der Elastizität der Festkörper bis zur Wechselwirkung der Elementarteilchen. Die Aussagen beinhalten in der Regel keine konkreten geometrischen Gestaltangaben, sondern bevorzugen abstrakte Grenzwerte wie Massepunkte. Der 18
Auch „acatech“ unterscheidet Gesetze von Regeln: „Das Ziel der Technikwissenschaften besteht in der Erzeugung von Gesetzes-, Struktur- und Regelwissen über Technik – in der Absicht, dieses in technischen Anwendungen zu nutzen.“ (acatech, a. a. O., S. 19.)
Vom Erkennen und Gestalten technischer Möglichkeiten
77
Technikwissenschaftler erforscht keine Naturkonstanten wie der Physiker, sondern setzt sie als bekanntes Wissen voraus. Er erforscht vielmehr die Auswirkungen unterschiedlicher, standardisierter Formelemente auf die mit Naturgesetzen beschriebenen, idealisierten, gerade von spezifischer Formgebung absehenden Zusammenhänge. Für den Ingenieur tritt mit Geometrie und Abmessungen die Form (ειδοζ) in den Mittelpunkt des Forschungsinteresses. Ergebnis ist ein technologisches Regelwerk mit zwei zentralen Elementen: 1. Den „Kern“ bilden technologische Gesetze, die die Berechnung von Formkennzahlen in Abhängigkeit von Materialkonstanten und geometrischen Parametern angeben. Die experimentell bestätigten Zusammenhänge werden entweder explizit in Gleichungen oder implizit mit parametrisierten Kurvenscharen in Diagrammen dargestellt. Wenn physikalische Tabellenbücher Materialkonstanten enthalten, dann enthalten technische Tabellenbücher Formkennzahlen. Die Gesetze sind wahr, wenn sie zutreffen. 2. Die „Peripherie“ bilden technologische Regeln, die angeben, wie basierend auf technologischen Gesetzen oder bloß vermuteten gesetzesartigen Zusammenhängen technische Entwürfe zu dimensionieren sind. Als wichtigen Bestandteil beinhalten sie zusätzlich normative Sicherheitsfaktoren basierend auf standardisierten Erfahrungswerten. Diese präskriptiven Dimensionierungsregeln sind häufig auch kodifiziert (DIN). Die Regeln erweisen sich als effektiv, wenn die damit dimensionierten Konstruktionen in der Anwendung funktionieren. In die oben angegebene Dimensionierungsregel fließen dementsprechend auch drei kategorial unterschiedliche Bestimmungsgrößen ein: Das sind erstens die Naturkonstante Re aus dem Naturgesetz, zweitens der Geometrieparameter αK aus dem technologischen Gesetz sowie drittens der normative Sicherheitsfaktor S aus der technologischen Regel. 4 GESTALTEN MIT LÖSUNGSKATALOGEN UND GESTALTUNGSRICHTLINIEN IN DEN INGENIEURWISSENSCHAFTEN Das Ziel der Ingenieurwissenschaften besteht nun nicht darin, durch Anwendung der in den Technikwissenschaften entwickelten technologischen Regeln ein bestimmtes Artefakt zu gestalten, denn dies ist Aufgabe des technischen Konstruktionshandelns der Ingenieure. Ziel ist vielmehr die grundsätzliche Erweiterung der Gestaltungsmöglichkeiten im Bereich technischer Lösungen durch die systematische Entwicklung von spezifischem Gestaltungswissen, nämlich geeigneten Gestaltungsmethoden, Gestaltungsprinzipien und Prinziplösungen. Das ingenieurwissenschaftlich erzeugte Wissen hat dabei drei Aufgaben – gestaltende, heuristische und bewertende. Es genügt dem Ingenieur nicht, bloß zu ermitteln, erstens mit welchem Entwurf ein Artefakt und seine Funktionen herstellbar sind durch Verwendung bereits bekannter Lösungselemente (also verwirklichbar sind), sondern er benötigt zusätzlich präskriptive Handlungsleitfäden für den Entwurfsprozess. Diese müssen
78
Klaus Erlach
angeben, zweitens wie in methodischer Weise neue Möglichkeiten zu finden und verwirklichungsfähig zu gestalten sind, sowie drittens nach welchen Kriterien die jeweils gefundenen Lösungen zu bewerten sind, um schließlich die Lösung auszuwählen (und zu verwirklichen), die die heterogenen technischen und außertechnischen Anforderungen bestmöglich erfüllt. Die Ingenieurwissenschaften befassen sich dazu mit Gestaltungsaspekten, die als qualitativ bestimmbare Eigenschaften im technischen Bereich zu bewerten sind. Ergebnis ist ein technisches Wissen, das in technischen Lösungskatalogen in Verbindung mit präskriptiven, methodischen Leitfäden systematisch zusammengefasst wird. Zur Erarbeitung, Überprüfung durch Bewährung und Normierung des im technischen Lösungskatalog zusammengefassten Funktions-, Struktur- und Gestaltungswissens ist eine eigenständige Anwendungsforschung zu betreiben. Hierbei werden nun nicht eigens herauspräparierte Zusammenhänge wie in einem naturoder technikwissenschaftlichen Experiment erforscht, sondern die Strukturen und Funktionen eines vollständigen Artefaktes werden im Test geprüft. Bei der Strukturprüfung geht es beispielsweise um Stabilität und Haltbarkeit. Bei der Funktionsprüfung interessieren neben der Effektivität und Effizienz der Funktionserfüllung auch ungeplante Zusatzfunktionen, die sich gerne als Nebenwirkungen störend bemerkbar machen. Ein Test kann virtuell als Simulation oder mit Prototypen entweder im Prüfstand oder unter realen Einsatzbedingungen erfolgen. Im Fallbeispiel der Kerbwirkung interessieren den Ingenieurwissenschaftler nun die möglichen Gestaltungsvarianten. In Abbildung 4 ist beispielhaft ein Teilstück einer Welle dargestellt. Die Welle erhält aus funktionalen Gründen einen sogenannten Einstich, der eine starke Kerbwirkung entfaltet. Diese soll durch Entlastungskerben verringert werden. Für die Bewertung der jeweiligen Lösung gilt das auf eine Ideallösung abzielende Gestaltungsprinzip des kraftflussorientierten Konstruierens: „In der Bauteilkonstruktion ist soweit wie möglich ein ungestörter Kraftfluss zu realisieren.“ Im Fall der kleinen Entlastungskerbe links bleibt der Kraftfluss (in der Zeichnung mit den Linien in der oberen Hälfte dargestellt) gestört, daher ist die rechte Entlastungskerbe zu wählen. Das Beispiel aus der Konstruktion zuverlässiger Bauteile zeigt zwei Hauptergebnisse einer Ingenieurwissenschaft. Das ist erstens der Lösungskatalog, dessen Elemente neben ihrer unterschiedlichen geometrischen Formgebung auch durch unterschiedliche Wirkprinzipien charakterisiert sind. Nach Untergliederung einer Konstruktionsaufgabe in Teilfunktionen, die das zu entwerfende Artefakt erfüllen soll, kann der Konstrukteur die Gesamtfunktion modular aus Lösungsbausteinen für jede Teilfunktion zusammensetzen. Aus einer spezifischen Aufgabenstellung lässt sich die „richtige“ Lösungsgestaltung jedoch nicht deduktiv eindeutig ableiten, sondern es kann durch die unterschiedlichen Kombinationen der Lösungsbausteine eine Vielzahl effektiver technischer Lösungen geben. Eine Orientierungshilfe bei der Auswahl der Lösungsbausteine geben Gestaltungsrichtlinien der Form „Versuche soweit wie möglich die Ideallösung I zu erreichen“ – kurz: ◊I (ermögliche I). Die Güte der Entwurfsvarianten ist schließlich mit gewichteten Kriterien zu bewerten. Ergebnis ist eine Methodik des systematischen Konstruierens mit zwei zentralen Elementen:
▲
Vom Erkennen und Gestalten technischer Möglichkeiten
79
Störung des Kraftflusses links durch zu kleine Entlastungskerbe
▲
falsch
Einstich
richtig
Abb. 4: Gestaltungsvarianten einer Welle mit Einstich, mit Kraftfluss (aus: Steinhilper, Waldemar; Sauer, Bernd (Hg.): Konstruktionselemente des Maschinenbaus 1. Grundlagen der Berechnung und Gestaltung von Maschinenelementen. Berlin, Heidelberg 2012(8). S. 181.)
1. Den „Kern“ bilden Lösungskataloge mit den zugehörigen Gestaltungsrichtlinien. Die systematisch aufgebauten Konstruktionskataloge mit den Teilfunktionen, Wirkprinzipien und Baustrukturen dienen als heuristische Suchhilfe (morphologischer Kasten). Dies wird vervollständigt durch Gestaltungsrichtlinien, die den Weg zur Ideallösung, den „one best way“ weisen. 2. Die „Peripherie“ bilden methodische Vorgehensweisen, die als präskriptiver Handlungsleitfaden in definierten Arbeitsschritten den Weg zu einer möglichst gelungenen Lösung absichern sollen. Zentraler Bestandteil einer Lösungsmethodik sind die Bewertungskriterien und Bewertungsverfahren, die abschließend zur Auswahl einer Vorzugslösung unter konkurrierenden Zielsetzungen dienen. Dadurch sind sowohl eine quantitative als auch eine qualitative Bewertung nach technischen und außertechnischen Kriterien zur Auswahl und Gestaltung der guten Form, des geeigneten Materials sowie des zweckmäßigen Produktionsverfahrens von technischen Artefakten möglich. In die Methodik einer Ingenieurswissenschaft fließen drei kategorial unterschiedliche Bestimmungsgrößen ein: Das sind erstens die Lösungsbausteine aus dem Konstruktionskatalog, zweitens die Gestaltungsrichtlinien für die technische Ideallösung sowie drittens die normativen Bewertungskriterien zur Abwägung konfligierender Zielsetzungen. Pointiert lässt sich zusammenfassend sagen: Die Technikwissenschaften zielen auf das richtige Erkennen und leiten daraus Regeln ab. Die Ingenieurwissenschaften zielen auf das richtige Gestalten und leiten daraus Richtlinien ab. Für eine Theorie der Technik ist dann zusätzlich noch eine Handlungstheorie erforderlich.
80
Klaus Erlach
LITERATUR acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. acatech Impuls. Berlin 2013. Aristoteles: Die Nikomachische Ethik (EN). München 1986. Bien, Günther: Praxis, praktisch. I. Antike. In: Ritter, Joachim; Gründer, Karlfried (Hg.): Historisches Wörterbuch der Philosophie. Bd. 7. Basel 1989. Sp. 1277–1287. Erlach, Klaus: Das Technotop. Die technologische Konstruktion der Wirklichkeit. Münster 2000. ders.: Eine Kritik der poiëtischen Vernunft. Anmerkungen zur Wissenschaftstheorie vom technischen Gestalten. In: Zeitschrift für allgemeine Wissenschaftstheorie. 32, 2001, 1, S. 1–25. ders.: Der unauslöschliche Weltenbrand des Lächerlichen. Die Wiederentdeckung der verschollenen Theorie der Komödie von Aristoteles. In: Der blaue Reiter. 40, 2017, S. 50–55. Expertenkommission Ingenieurwissenschaften@BW2025: Abschlussbericht. Stuttgart 2015. König, Wolfgang: Die Technikerbewegung und das Promotionsrecht der Technischen Hochschulen. In: Schwarz, Karl (Hg.).: 1799–1999. Von der Bauakademie zur Technischen Universität Berlin. Berlin 2000, S. 123–129. Kornwachs, Klaus: Vom Naturgesetz zur technologischen Regel – ein Beitrag zu einer Theorie der Technik. In: Banse, Gerhard; Friedrich, Käthe (Hg.): Technik zwischen Erkenntnis und Gestaltung. Berlin 1996, S. 13–50. ders.: Theoretisch-deduktive Methoden. In: Banse, Gerhard; Grundwald, Armin; König, Wolfgang; Ropohl, Günter (Hg.): Erkennen und Gestalten. Eine Theorie der Technikwissenschaften. Berlin 2006. S. 245–251. ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. Läpple, Volker: Einführung in die Festigkeitslehre. Wiesbaden 2016(4). Steinhilper, Waldemar; Sauer, Bernd (Hg.): Konstruktionselemente des Maschinenbaus 1. Grundlagen der Berechnung und Gestaltung von Maschinenelementen. Berlin, Heidelberg 2012(8).
II. FOLGEN DER TECHNIK: KÖNNEN WIR ABSCHÄTZEN, WAS WIR TUN?
VON TECHNIKFOLGENPROGNOSEN ZUR HERMENEUTISCHEN PERSPEKTIVE Metamorphosen der Technikfolgenabschätzung Armin Grunwald 1 TECHNIKFOLGENABSCHÄTZUNG UND KONSEQUENTIALISMUS Entscheidungen werden in der Moderne, anders als in traditionellen Gesellschaften, maßgeblich durch Zukunftsüberlegungen orientiert. Prospektives Folgenwissen, Visionen, Prognosen, Erwartungen und Befürchtungen, aber auch Ziele werden in Form von „Zukünften“ (z. B. von Technikzukünften1) gebündelt, kommuniziert und diskutiert. Vielfach werden mögliche oder wahrscheinliche Folgen von Handlungen und Entscheidungen analysiert, im Hinblick auf Erwünschtheit oder Zumutbarkeit bewertet und in gegenwärtige Entscheidungsprozesse hinein rückgekoppelt. Ist die Orientierung durch Zukunftswissen bereits im alltäglichen Leben gängige Praxis, wenn etwa Entscheidungen über die angemessene Kleidung oder zum Freizeitverhalten an der Wettervorhersage ausgerichtet werden, so gilt dies auch im gesellschaftlichen Bereich. Umweltpolitik, Sozialpolitik, Energiepolitik oder Sicherheitspolitik sind einschlägige Felder, in denen teils weit ausgreifende Aussagen über mögliche, zu verhindernde oder erhoffte Zukünfte als Entscheidungsgrundlagen verwendet werden, mit all den involvierten Unsicherheiten und konfliktbehafteten Auseinandersetzungen der „Contested Futures“2. Insbesondere die Erfahrung von unerwarteten und teilweise gravierenden Technikfolgen, die man gerne im Vorhinein gekannt hätte, um sie verhindern oder um Kompensationsmaßnahmen einleiten zu können, ist vor diesem Hintergrund eine der Grundmotivationen der Technikfolgenabschätzung (TA).3 Von den 1970er Jahren an ging es zunächst um die Frühwarnung vor technikbedingten Gefahren4, dann auch um die Früherkennung der Chancen von Technik, damit diese optimal genutzt werden und Chancen und Risiken abgewogen werden können. TA soll systematisch die Voraussicht für die Folgen des wissenschaftlich-technischen Fortschritts und seiner Nutzung ausweiten. Damit soll eine naive „wait-and-see“-Strategie über1 2 3 4
acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. acatech IMPULS. Heidelberg u. a. 2012. Brown, Nik; Rappert, Brian; Webster, Andrew (Hg.): Contested Futures. A Sociology of Prospective Techno-Science. Burlington 2000. Grunwald, Armin: Technikfolgenabschätzung. Eine Einführung. Berlin 2010(2). Paschen, Herbert; Petermann, Thomas: Technikfolgenabschätzung – ein strategisches Rahmenkonzept für die Analyse und Bewertung von Technikfolgen. In: Petermann, Thomas (Hg.): Technikfolgen-Abschätzung als Technikforschung und Politikberatung. Frankfurt 1991. S. 26.
84
Armin Grunwald
Abbildung 1: Das konsequentialistische Muster der Generierung von Orientierung durch Zukunftsbetrachtungen (modifiziert nach Grunwald 6)
wunden werden, die sich darauf verlässt, dass im Wesentlichen positive Folgen zu erwarten sind und bei unerwarteten negativen Technikfolgen der Schaden im Nachhinein leicht repariert werden könnte. Zu den Basisüberzeugungen der TA gehört, dass für Entwicklung und Einsatz vieler moderner Technologien diese Strategie weder politisch oder ökonomisch praktikabel noch ethisch verantwortbar ist.56 Technikfolgenabschätzung ist entstanden, um speziell den Umgang mit dem wissenschaftlich-technischen Fortschritt, seinen Resultaten und seinen Folgen unter den Anspruch praktischer Gestaltung zu stellen und diesen Anspruch durch Folgenforschung einzulösen. Belastbares Zukunftswissen, vor allem also Folgenwissen, stellt dafür eine zentrale Vorbedingung dar. Hauptsächlicher Gegenstand der Analyse ist die Erforschung von Folgen, die es noch gar nicht gibt und vielleicht auch nie geben wird. Das Wissen über diese Folgen soll Orientierung für Gesellschaft und Politik geben, z. B. für Entscheidungsprozesse über Forschungsförderung oder Regulierung oder in der deliberativen Austragung von Technikkonflikten (Abb. 1). Gleichwohl ist es nicht trivial zu verstehen, wie durch Zukunftswissen Orientierung geschaffen werden kann, da Zukunftswissen erkenntnistheoretisch prekär ist. Weil also der Prognose-Optimismus der frühen TA (Kap. 2) nicht funktioniert hat, wurden in der Technikfolgenabschätzung Mittel und Wege entwickelt, mit dieser prekären Natur – anders ausgedrückt, der Offenheit der Zukunft – verantwortlich und reflektiert umzugehen. Szenarienbasierte Ansätze (Kap. 3) sind zum Standard geworden. Für die Situation, dass auch diese nicht mehr im Sinne eines konsequentialistischen Paradigmas funktionieren, wurden hermeneutische Ansätze vorgeschlagen (Teil 4). Auf diese Weise hat Technikfolgenabschätzung erhebliche Metamorphosen und Weiterentwicklungen durchgemacht, die als historischer Lernprozess zu verstehen sind. 5 6
Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt 1979. Grunwald, Armin: Modes of orientation provided by futures studies: making sense of diversity and divergence. European Journal of Futures Studies, 2013. doi 10.1007/s40309-013-0030-5.
Von Technikfolgenprognosen zur hermeneutischen Perspektive
85
2 TECHNIKFOLGENABSCHÄTZUNG IM PROGNOSE-OPTIMISMUS Technikfolgenabschätzung hat in ihren Anfängen hohe Erwartungen an die mehr oder weniger genaue Prognostizierbarkeit von Technikfolgen geweckt bzw. wurde mit solchen Erwartungen konfrontiert. Nun sind Technikfolgen nicht einfach Folgen der Technik, sondern Folgen von sozio-technischen Konstellationen. Denn für die Folgen sind nicht nur die technischen Artefakte und Systeme verantwortlich, sondern auch die Innovationen, Wertschöpfungsketten, Geschäftsmodelle, Nutzungsweisen etc., in denen moderne Gesellschaften sich die Technik zu Nutze machen, man könnte auch sagen, sich aneignen oder sie inkulturieren. Die Prognose von Technikfolgen muss also die Prognose der entsprechenden gesellschaftlichen Anteile mit umfassen. Zu diesem Zweck wurde beispielsweise das System „Technik – Gesellschaft“ kybernetisch analog zu natürlichen Systemen, nämlich als quasinaturgesetzlich ablaufendes und von außen beobachtbares Geschehen betrachtet, analog zum Wettergeschehen.7 Für ein solches kybernetisches System könne eine „Messtheorie“ für Technikfolgen entwickelt werden, mit der eine möglichst quantitative Erfassung dieser Folgen erreicht werden könnte. Auf der Basis der Verlaufsgesetze, nach denen dieses System funktioniere, seien dann auch mehr oder weniger exakte Prognosen möglich. Über das Hempel-Oppenheim-Schema8 seien logisch deduktive Prognosen auf der Basis von kausalem Gesetzeswissen möglich: „Viele technische, ökonomische und soziale Folgeerscheinungen zeigen klare Regelmäßigkeiten, wenn man sie auf einem hoch aggregierten Niveau betrachtet.“9 Probleme der Realisierung dieses Idealprogramms wurden zwar anerkannt, aber der Komplexität gesellschaftlicher Zusammenhänge, der unzureichenden Datenbasis und der im Vergleich mit den Naturwissenschaften bislang geringen Gesetzeskenntnis angelastet.10 Es bestand ein Optimismus, dass mit genügend Forschungsaufwand und besseren Methoden die bis dato schlechte Performanz gesellschaftlicher Vorhersagen deutlich verbessert werden könnte. Aktuell werden im Feld der „Big Data“ erneut Hoffnungen auf weitgehende Prognostizierbarkeit geweckt. Allerdings sollte sorgfältig bedacht werden, was Prognostizierbarkeit bedeuten würde. Denn prognostizieren lässt sich nur das, was zum Zeitpunkt der Prognose schon feststeht, wenn also gesetzesartige Verknüpfungen zwischen dem Zustand heute und dem Zustand einer zukünftigen Welt bestehen wie etwa im Bereich der Himmelsmechanik. Die Ausrichtung auf die Prognose der Folgen von Technik in der frühen Technikfolgenabschätzung unterstellt implizit oder explizit einen Tech-
7 8 9 10
Bullinger, Hans-Jörg Technikfolgenabschätzung – wissenschaftlicher Anspruch und Wirklichkeit. In: Kornwachs, Klaus (Hg.): Reichweite und Potential der Technikfolgenabschätzung. Stuttgart 1991. S. 103–114. Hempel, Carl Gustav: Aspects of Scientific Explanation and other Essays in the Philosophy of Science. New York, London 1965. Renn, Ortwin: Methodische Vorgehensweisen in der TA. In: Bröchler, Stefan; Simonis, Georg; Sundermann, Karsten (Hg.): Handbuch Technikfolgenabschätzung. Berlin 1999. S. 611. Renn, Ortwin: Kann man die technische Zukunft voraussagen? In: Pinkau, Klaus; Stahlberg, Christina (Hg.): Technologiepolitik in demokratischen Gesellschaften. Stuttgart 1996. S. 23–51.
86
Armin Grunwald
nikdeterminismus11, also die Vorstellung, dass die Technikentwicklung eigenen und gar nicht oder nur begrenzt von außen zu steuernden Gesetzen folge. Aufgabe des Staates und anderer gesellschaftlicher Institutionen sei, Anpassungs- oder Kompensationsleistungen an die Technikfolgen vorzunehmen und genau dazu brauche er möglichst genaue Prognosen der Technikfolgen, damit die Anpassungen daran optimal ausgerichtet werden könnten. Es geht hier also nicht um Gestaltung der Technik, sondern um die Gestaltung der Anpassungsleistungen an die Technik. Erstrebenswert ist das wohl nicht. Glücklicherweise sprechen sowohl die empirische Erfahrung12 als auch theoretische Argumente13 gegen eine Prognostizierbarkeit gesellschaftlicher Entwicklungen, zu denen nach dem oben Gesagten auch Technikfolgen gehören. Damit ist der Prognose-Optimismus deutlich geschwunden. Objektive Verlaufsgesetze analog zu den Naturwissenschaften lassen sich nicht begründen.14 Ihre Stelle nehmen Modellbildung und Simulation unter Zuhilfenahme statistischer Verfahren mit den entsprechenden Unsicherheiten ein. Eine radikale Abwendung vom Prognose-Optimismus findet sich im Rahmen eines Prognose-Skeptizismus, nach dem eine Antizipation der Zukunft nicht möglich sei15, sondern der Umgang mit Technikfolgen nur in einem „Prozessieren von Nichtwissen“ bestehen könne.16 3 OFFENHEIT DER ZUKUNFT UND SZENARISCHE ORIENTIERUNG Nichtwissen und Unsicherheit des Zukunftswissens sind abwertende Begriffe. In einer wissenschaftlich-technischen Zivilisation mit dem Ideal der Sicherheit sind Unwissen und Unsicherheit immer defizitär. Entsprechend wird die schlechte Vorhersehbarkeit von Technikfolgen häufig in einem klagend-lamentierenden Ton vorgetragen, worin die gute Prognostizierbarkeit als Ideal durchscheint. Dahinter steht wohl eine implizite Hoffnung, die Gesellschaft sei doch so etwas wie das Sonnensystem, in dem sich sehr genaue Prognosen machen lassen, nur etwas komplexer. Diese Sicht halte ich für vollständig verfehlt. Denn gute Prognostizierbarkeit impliziert logisch einen Determinismus, der weder begründbar noch wünschenswert ist. Dadurch werden Gestaltungspotentiale ausgeblendet und wird gesellschaftliche Entwicklung als bloße Anpassung an Technikdeterminismus modelliert. Dementsprechend sollte negativ nicht von Unsicherheit des Zukunftswissens, sondern positiv von der Offenheit der Zukunft geredet werden, die neben sicher auch vorhandenen Eigendynamiken vielfältige Gestaltungsmöglichkeiten bietet. 11 12 13 14 15 16
Ropohl, Günter: Kritik des technologischen Determinismus. In: Rapp, Friedrich; Durbin, Paul T. (Hg.): Technikphilosophie in der Diskussion. Braunschweig 1982. S. 3–18. Leutzbach, Wilhelm: Das Problem mit der Zukunft: wie sicher sind Voraussagen? Düsseldorf 2000. Schwemmer, Oswald: Theorie der rationalen Erklärung. München 1976. ebd. Nordmann, Alfred: Responsible Innovation, the Art and Craft of Future Anticipation. Journal of Responsible Innovation 1 (1), 2014, pp. 87–98. Bechmann, Gotthard: Frühwarnung – die Achillesferse der TA? In: Grunwald, Armin; Sax, Hartmut (Hg.): Technikbeurteilung in der Raumfahrt. Anforderungen, Methoden, Wirkungen. Berlin 1994. S. 88–100.
Von Technikfolgenprognosen zur hermeneutischen Perspektive
87
Szenarien sind ein Instrument, um mit der Offenheit zukünftiger Entwicklungen umgehen, Gestaltungsaspekte berücksichtigen und Orientierung im konsequentialistischen Modus leiten zu können.17 Wenn, und dies ist im Technikfolgenbereich meistens der Fall, Prognosen nicht möglich sind, dient die Entwicklung alternativer Szenarien dazu, den Möglichkeitsraum zukünftiger Entwicklungen auszuloten und zu strukturieren. Wesentliches Element von Szenarien sind durch zukünftige Entscheidungen oder eintretende Ereignisse verursachte Verzweigungen, wie sie z. B. als Entscheidungsbäume dargestellt werden können: Ein exploratives Szenario (normative Szenarien werden hier nicht betrachtet) ist ein Satz von Ausprägungen verschiedener Deskriptoren, der eine zukünftige Situation, die Ereignisse auf dem Weg dorthin und deren zeitlichen Ablauf beschreibt. Szenarien in der Technikfolgenabschätzung müssen relevant (bedeutsam), kohärent, plausibel, anschlussfähig und transparent sein, um ihre Funktionen zu erfüllen.18 Die Bildung von explorativen Szenarien geht vom gegenwärtigen Stand der Entwicklung aus und versucht, treibende Faktoren (driving forces) zu identifizieren, die die zukünftige Entwicklung beeinflussen könnten. Durch unterschiedliche Annahmen bezüglich der Richtung, in der diese Faktoren wirken können, und durch konsistente Kombination solcher Annahmen für verschiedene Faktoren können unterschiedliche Szenarien entwickelt werden. Im Gegensatz zu Trendextrapolationen oder anderen prognostischen Verfahren wird nicht der Eindruck einer Zukunft erweckt, die man vorhersehen könne, sondern es wird – abhängig von verschiedenen angenommenen Randbedingungen – mit mehreren Zukünften gearbeitet: Szenarien beschreiben mögliche Zukünfte.19 Dadurch ist ihnen der Gestaltungs- und Entscheidungsbezug inhärent: je nach unseren heutigen oder zukünftigen Entscheidungen wird man auf andere Szenarien und damit in andere Zukünfte geführt. Szenarien lehren das Denken in (zumindest teilweise) offenen Gestaltungsräumen. Szenarien sind integrative Konzeptualisierungen von Zukünften. Der Einbau von Prognosewissen aus Trendextrapolationen oder Modellierungen bestimmter Parameter ist dabei genauso möglich wie die Integration von Bewertungen und Relevanzentscheidungen oder von Risikoanalysen. Szenarien können auf quantitativen Modellen basieren wie z. B. übliche Energieszenarien.20 „Weiche“ Begründungen, z. B. durch organisatorisches Wissen zur Durchführung von Großprojekten, durch ingenieurwissenschaftliche Erfahrung über die zu erwartenden Realisierungszeiträume technischer Entwicklungen, durch Expertenaussagen zu Fragen der Realisierbarkeit oder durch betriebswirtschaftliche Erfahrung hinsichtlich der Kosten von Großprojekten können ebenfalls berücksichtigt werden. Auch das Wissen um Rahmenbedingungen, Megatrends, bestimmte vorgegebene Fristen in Planfeststellungsverfahren oder anderen Regulierungen technischer Entwick17 18 19 20
Gausemeier, Jürgen; Fink, Alexander; Schlafke, Oliver: Szenario-Management. Planen und Führen mit Szenarien. München, Wien 1996. Grunwald, Technikfolgenabschätzung, a. a. O. Dieckhoff, Christian; Appelrath, Hans-Jürgen; Fischedick, Manfred; Grunwald, Armin; Höffler, Felix; Mayer, Christoph; Weimer-Jehle, Wolfgang: Zur Interpretation von Energieszenarien. München 2014. ebd.
88
Armin Grunwald
lungen kann in entsprechende Szenarien und damit in die betreffenden Entscheidungen eingehen. Szenarien können ebenfalls als rein narrative Formen der Zukunftserzählung vorliegen. Häufig werden sogenannte Business-as-usual-Szenarien, die im Wesentlichen von einer Kontinuität bzw. Fortschreibung wesentlicher Trends ausgehen (s. o.), anderen Szenarien gegenübergestellt, in die bestimmte Veränderungen der Randbedingungen oder anders gewählte Annahmen eingearbeitet werden. Verbreitet ist die Aufspaltung des Möglichkeitsraumes der Zukunft in drei Szenarien: einem „best case“, einem „worst case“ und einem „realistischen“ Szenario. Es können dann die Implikationen der jeweils unterschiedlichen Randbedingungen auf den zeitlichen Verlauf des Untersuchungsgegenstands analysiert und bewertet werden, woraus sich dann wiederum Hinweise für politischen oder gesellschaftlichen Handlungsbedarf der jeweiligen Gegenwart ergeben. Häufig wird nach so genannten „robusten“ Handlungsstrategien gesucht, die im gesamten Spektrum der betrachteten Szenarien positive Effekte erwarten lassen. Damit entspricht das Arbeiten mit Szenarien dem konsequentialistischen Paradigma (Abb. 1), obwohl eben das Folgenwissen nicht prognostisch vorliegt, sondern als Satz möglicher Zukünfte. Szenarien haben sich mit ihrer Konzeptualisierung einer gestaltungsoffenen Zukunft zum hauptsächlichen Instrument der Technikfolgenabschätzung im Umgang mit Zukunft entwickelt. Auch in anderen strategischen Kontexten haben sie ganz erhebliche Bedeutung gewonnen21 und sind zu einem zentralen Tool der Nachhaltigkeitsforschung geworden22. Auf diese Weise hat TA gelernt, mit der Offenheit der Zukunft und der dadurch implizierten Nicht-Prognostizierbarkeit konstruktiv umzugehen und in dieser Offenheit Orientierungsmöglichkeiten zu entwickeln, z. B. durch die Bestimmung der genannten robusten Handlungsstrategien. 4 HERMENEUTISCHE TECHNIKFOLGENABSCHÄTZUNG Freilich ist der Mechanismus der Orientierungsgewinnung über Szenarien daran gebunden, dass es gelingt, plausible von unplausiblen Zukünften zu unterscheiden. Beispielsweise wird nur der Bereich zwischen „best-“ und „worst-case“-Szenario betrachtet, während die (zumeist wohl riesig großen) Bereiche von Zukünften außerhalb aus der Betrachtung ausgeschieden werden. Erst dadurch, durch das Ausscheiden der als nicht plausibel eingestuften Zukünfte wird Orientierungsleistung im konsequentialistischen Paradigma möglich. Etwa ab dem Jahr 2000 wurden Technikfolgenabschätzung und andere Ansätze der Technikfolgenreflexion vor die Herausforderung der heute so genannten NEST (new and emerging sciences and technologies) gestellt. Dort zeigte sich rasch, dass der konsequentialistische Ansatz nicht funktioniert, weder prognostisch noch sze21 22
Gausemeier, Jürgen; Fink, Alexander; Schlafke, Oliver: Szenario-Management. Planen und Führen mit Szenarien. München, Wien 1996. z. B. Heinrichs, Dirk; Krellenberg, Kerstin; Hansjürgens, Bernd; Martínez, Francisco (Hg.): Risk Habitat Megacity. Heidelberg 2012.
Von Technikfolgenprognosen zur hermeneutischen Perspektive
89
narienbasiert. Erste Hinweise finden sich in der Debatte zur Nanotechnologie.23 Angesichts des extremen Schwankens früher Reflexionsansätze zwischen Paradieserwartungen und Befürchtungen der Apokalypse24 war hier nicht nur der prognostische Ansatz, sondern sogar das Denken in alternativen Zukünften in Form von Szenarien illusorisch. Zu groß und unbestimmt erschien der Möglichkeitsraum des Zukünftigen, als dass hier noch eine vernünftige Eingrenzung auf einige Szenarien möglich gewesen wäre. Die Debatten zum „Human Enhancement“, zur synthetischen Biologie und zum „Climate Engineering“ führten auf ähnliche Probleme der Orientierungsleistung.25 Der Vorschlag eines „Vision Assessment“26, die Kritik an der spekulativen Nano-Ethik27 und verschiedene, meist verstreute Hinweise auf die hermeneutische Seite der Technik- und Technikfolgenreflexion28 markieren konzeptionelle Reaktionen auf diese Herausforderung. Gemeinsam ist ihnen eine nicht-konsequentialistische Perspektive. Denn wo das „Folgenwissen“ nur in epistemologisch nicht klassifizierbaren spekulativen Zukunftserwartungen, Visionen oder Befürchtungen besteht, muss jeder Versuch misslingen, durch eine Folgenanalyse gemäß Abb. 1 zur wissenschaftlichen, gesellschaftlichen oder politischen Orientierung beizutragen. Orientierung in Form von wissenschaftlicher Politik- und Gesellschaftsberatung ist auch in diesen Fällen möglich – allerdings in anderer Form.29 Es bleibt die Option, die teils sehr lebhaften und kontroversen Debatten um NEST oder andere spekulative oder visionäre Wissenschafts- oder Technikfelder eben nicht als antizipatorische, prophetische oder quasi-prognostische Rede über Zukünftiges, sondern als Ausdruck unserer Gegenwart zu deuten. Nicht das, was in diesen Debatten mit völlig unklarer Berechtigung über kommende Jahrzehnte gesagt wird, sondern was die Tatsache, dass diese Debatten heute stattfinden und wie sie aussehen, über uns heute aussagt, wird zum Thema der Untersuchung und zur Quelle der Generierung von Orientierung gemacht. Dies ist letztlich ein hermeneutischer Ansatz.30 Um der Möglichkeit einer hermeneutischen Orientierung31 nachzuspüren, ist es erforderlich, die Technikzukünfte und deren Diversität und Divergenz als „social text“ in den Blick zu nehmen, um ihre Ursachen und Quellen aufzude23 24 25 26 27 28 29 30 31
Zülsdorf, Torben; Coenen, Christopher; Ferrari, Arianna; Fiedeler, Ulrich; Milburn, Colin; Wienroth, Matthias (Hg.): Quantum Engagements: Social Reflections of Nanoscience and Emerging Technologies. Heidelberg 2011. Grunwald, Armin: Nanotechnologie als Chiffre der Zukunft. In: Nordmann, Alfred; Schummer, Joachim; Schwarz, Astrid (Hg.): Nanotechnologien im Kontext. St. Augustin 2006. S. 49–80. Grunwald, Armin: The Hermeneutic Side of Responsible Research and Innovation. London 2016. Grunwald, Nanotechnologie, a. a. O. Nordmann, Alfred: If and Then: A Critique of Speculative NanoEthics. Nanoethics 1, 2007, pp. 31–46. z. B. Torgersen, Helge: TA als hermeneutische Unternehmung. Technikfolgenabschätzung – Theorie und Praxis 22 (2), 2013, S. 75–80. Grunwald, The Hermeneutic, a. a. O. ebd. nach Grunwald, Armin: Modes of orientation provided by futures studies: making sense of diversity and divergence. European Journal of Futures Studies, 2013. doi 10.1007/s40309-013-0030-5.
90
Armin Grunwald
cken und nach ihrer „Bedeutung“ zu fragen. Diese Technikzukünfte sind soziale Konstrukte, erzeugt und „hergestellt“ durch Menschen, Gruppen und Organisationen zu je bestimmten Zeitpunkten.32 Zukunftsbilder entstehen aus einer Komposition von Zutaten in bestimmten Verfahren (z. B. den Methoden der Zukunftsforschung). Dabei gehen die je gegenwärtigen Wissensbestände, aber auch Zeitdiagnosen, Werte und andere Formen der Weltwahrnehmung in diese Zukunftsbilder ein. Zukünfte erzählen, wenn prognostische oder szenarische Orientierungen nicht gelingen, ausschließlich etwas über uns heute. Technikzukünfte als ein Medium gesellschaftlicher Debatten33 bergen Wissen und Einschätzungen, die es zu explizieren lohnt, um eine transparentere demokratische Debatte und entsprechende Entscheidungsfindung zu erlauben. Die Erwartung an hermeneutische Orientierungsleistung besteht darin, aus Technikzukünften in ihrer Diversität etwas über uns, unsere gesellschaftlichen Praktiken, unterschwelligen Sorgen, impliziten Hoffnungen und Befürchtungen lernen zu können. Diese Form der Orientierung ist freilich weitaus bescheidener als die konsequentialistische Erwartung, mit Prognosen oder Szenarien „richtiges Handeln“ mehr oder weniger direkt orientieren oder gar, wie es in manchen Verlautbarungen heißt, „optimieren“ zu können. Sie besteht letztlich in nicht mehr als darin, die Bedingungen dafür zu verbessern, dass demokratische Debatten und Zukunftsentscheidungen aufgeklärter, transparenter und offener ablaufen können. Im Vergleich zum konsequentialistischen Paradigma mit seiner zentralen Ausrichtung auf Fragen der Art, welche Folgen neue Technologien haben können, wie wir diese beurteilen und ob und unter welchen Bedingungen wir diese Folgen willkommen heißen oder ablehnen, geraten in dieser Perspektive weitere Fragestellungen in den Blick34: • wie wird wissenschaftlich-technischen Entwicklungen, die ja zunächst im Labor nichts weiter als eben wissenschaftlich-technische Entwicklungen sind, eine gesellschaftliche, ethische, soziale, ökonomische, kulturelle etc. Bedeutung zugeschrieben? Welche Rollen spielen dabei z. B. (visionäre) Technikzukünfte? Wer schreibt diese Bedeutungen zu und warum? • wie werden diese Bedeutungszuweisungen kommuniziert und diskutiert? Welche Rollen spielen sie in den großen Technikdebatten unserer Zeit? Welche kommunikativen Formate und sprachlichen Mittel werden verwendet und warum? Welche außersprachlichen Mittel (z. B. Filme, Kunstwerke) spielen hier eine Rolle, und was sagt ihre Nutzung aus? • warum thematisieren wir wissenschaftlich-technische Entwicklungen in der jeweiligen Weise, mit den jeweils verwendeten Technikzukünften und mit den jeweiligen Bedeutungszuweisungen und nicht anders? Welche alternativen Bedeutungszuschreibungen wären denkbar und warum werden diese nicht aufgegriffen?
32 33 34
Grunwald, Armin: Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung. Karlsruhe 2012. ebd. vgl. Grunwald, The Hermeneutic Side, a. a. O.
Von Technikfolgenprognosen zur hermeneutischen Perspektive
91
• haben nicht auch traditionelle Formen der Technikfolgenreflexion (Prognostik, Szenarien) eine hermeneutische Seite? Werden vielleicht hermeneutisch bedeutsame Konstellationen hinter schein-objektiven Zahlenreihen, Prognosen und in Diagrammen geradezu versteckt? In der Beantwortung dieser Fragen erweitert sich das interdisziplinäre Spektrum der TA. Sprachwissenschaften, hermeneutische Ansätze in Philosophie und Geisteswissenschaften, Kulturwissenschaften und auch die Hermeneutik in der Kunst – insofern z. B. Technikzukünfte mit künstlerischen Mitteln erzeugt und kommuniziert werden – müssen an Bord der TA kommen. Damit wird der übliche konsequentialistische Modus der Technikfolgenabschätzung verlassen, in dem aus einem Wissen über mögliche, plausible oder wahrscheinliche zukünftige Technikfolgen Schlussfolgerungen für heutige Entscheidungen orientiert werden sollen. In ganz anderer Hinsicht freilich bleibt auch hier ein konsequentialistisches Moment. Denn die Erzeugung, Verbreitung und Diskussion auch der spekulativsten Technikzukünfte kann Folgen generieren: Folgen für die gesellschaftliche Debatte, Folgen für die Risiko- und Chancenwahrnehmung, Folgen für die Allokation von Forschungsgeldern, Folgen durch die Motivation junger Menschen, sich in Feldern mit hohen technologischen Erwartungen zu engagieren. Auch komplett spekulative Zukünfte sind Interventionen in gesellschaftliche Kommunikation35 und können dort einiges an Folgen bewirken oder auch anrichten. Diese Folgen freilich sind nicht erst in einer fernen Zukunft, sondern oft schon direkt in der Gegenwart zu sehen. Entsprechend ist besondere Verantwortung im Umgang mit diesem Typ von Zukünften verbunden.36 NACHTRAG: DANK AN KLAUS KORNWACHS Klaus Kornwachs habe ich, jedenfalls meiner Erinnerung folgend, auf einer Tagung zur Philosophie der Technik kennengelernt, die etwa 1993 an der Brandenburgischen Technischen Universität in Cottbus stattgefunden hat. Dort hatte ich Grundgedanken einer Philosophie der Technik vorgetragen, wie ich sie in Anwendung und Fortführung des Programms des Methodischen Kulturalismus sah und später zu einem Programm entwickelte.37 Die Diskussion mit Klaus Kornwachs, der technikphilosophische Ideen von Mario Bunge mitbrachte und weiterführte, war durchaus kontrovers, aber oder gerade deswegen auch lehrreich. Danach haben sich unsere Bahnen immer wieder gekreuzt. Besondere Ereignisse waren, wieder aus meiner subjektiven Sicht, die Einladung zur Mitwirkung am von Klaus Kornwachs initiierten und herausgegebenen, ambitionierten Band
35 36 37
acatech (Hg.), a. a. O. Grunwald, The Hermeneutic Side, a. a. O. Grunwald, Armin: Technisches Handeln und seine Resultate. Prolegomena zu einer kulturalistischen Technikphilosophie. In: Hartmann, Dirk; Janich, Peter (Hg.): Methodischer Kulturalismus. Zwischen Naturalismus und Postmoderne. Frankfurt 1998. S. 178–224.
92
Armin Grunwald
„Technik – System – Verantwortung“38 (2004) sowie die Mit-Diskussion und auch Publikation von Arbeiten zur Wissenschaftstheorie der Technikwissenschaften, wie sie sich aus einer vom VDI unterstützten Tagung in Ulm ergeben hatte (ebenfalls 2004). Die frühen Arbeiten von Klaus Kornwachs zur systemanalytischen Seite der Technikfolgenabschätzung und der Technikgestaltung39 haben mich dabei begleitet, eigene Ansätze zu entwickeln. Das Projekt „Technikzukünfte“ der Deutschen Akademie der Technikwissenschaften (acatech), von Klaus Kornwachs 2011 initiiert (soweit ich weiß), bildete erstmalig die Möglichkeit einer direkten Zusammenarbeit. Sie mündete im Rahmen des Projekts in eine gemeinsame Publikation der acatech-Projektgruppe40, welche sehr gut rezipiert wurde und Quelle weiterer Überlegungen war, z. B. im Rahmen des Projekts „Energiesysteme der Zukunft“ (ESYS) zum Verständnis von Energieszenarien41. Diese wenigen Stationen mögen die vielen Schnittstellen zwischen Klaus Kornwachs und mir verdeutlichen. Ich nutze daher gerne diese Gelegenheit, um ihm hierfür zu danken, ihm ganz herzlich zum 70. Geburtstag zu gratulieren und alles Gute für sein weiteres Leben und Schaffen zu wünschen!
38 39 40 41
Kornwachs, Klaus (Hg.): Technik – System – Verantwortung. 2. Cottbuser Konferenz zur Technikphilosophie. Münster, London 2004. z. B. Kornwachs, Klaus: Glanz und Elend der Technikfolgenabschätzung. In: ders. (Hg.): Reichweite und Potential der Technikfolgenabschätzung. Stuttgart 1991. S. 1–22; ders.: Kommunikation und Information. Zur menschengerechten Gestaltung von Technik. Berlin 1993. acatech (Hg.), a. a. O. Dieckhoff et al., a. a. O.
Von Technikfolgenprognosen zur hermeneutischen Perspektive
93
LITERATUR acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. acatech IMPULS. Heidelberg u. a. 2012. Bechmann, Gotthard: Frühwarnung – die Achillesferse der TA? In: Grunwald, Armin; Sax, Hartmut (Hg.): Technikbeurteilung in der Raumfahrt. Anforderungen, Methoden, Wirkungen. Berlin 1994. S. 88–100. Brown, Nik; Rappert, Brian; Webster, Andrew (Hg.): Contested Futures. A Sociology of Prospective Techno-Science. Burlington 2000. Bullinger, Hans-Jörg Technikfolgenabschätzung – wissenschaftlicher Anspruch und Wirklichkeit. In: Kornwachs, Klaus (Hg.): Reichweite und Potential der Technikfolgenabschätzung. Stuttgart 1991. S. 103–114. Dieckhoff, Christian; Appelrath, Hans-Jürgen; Fischedick, Manfred; Grunwald, Armin; Höffler, Felix; Mayer, Christoph; Weimer-Jehle, Wolfgang: Zur Interpretation von Energieszenarien. München 2014. Gausemeier, Jürgen; Fink, Alexander; Schlafke, Oliver: Szenario-Management. Planen und Führen mit Szenarien. München, Wien 1996. Grunwald, Armin: Technisches Handeln und seine Resultate. Prolegomena zu einer kulturalistischen Technikphilosophie. In: Hartmann, Dirk; Janich, Peter (Hg.): Methodischer Kulturalismus. Zwischen Naturalismus und Postmoderne. Frankfurt 1998. S. 178–224. ders.: Nanotechnologie als Chiffre der Zukunft. In: Nordmann, Alfred; Schummer, Joachim; Schwarz, Astrid (Hg.): Nanotechnologien im Kontext. St. Augustin 2006. S. 49–80. ders.: Technikfolgenabschätzung. Eine Einführung. Berlin 2010(2). ders.: Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung. Karlsruhe 2012. ders.: Modes of orientation provided by futures studies: making sense of diversity and divergence. European Journal of Futures Studies, 2013. doi 10.1007/s40309-013-0030-5. ders.: The Hermeneutic Side of Responsible Research and Innovation. London 2017. Heinrichs, Dirk; Krellenberg, Kerstin; Hansjürgens, Bernd; Martínez, Francisco (Hg.): Risk Habitat Megacity. Heidelberg 2012. Hempel, Carl Gustav: Aspects of Scientific Explanation and other Essays in the Philosophy of Science. New York, London 1965. Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt 1979. Kornwachs, Klaus: Glanz und Elend der Technikfolgenabschätzung. In: ders. (Hg.): Reichweite und Potential der Technikfolgenabschätzung. Stuttgart 1991. S. 1–22. ders.: Kommunikation und Information. Zur menschengerechten Gestaltung von Technik. Berlin 1993. ders. (Hg.): Technik – System – Verantwortung. 2. Cottbuser Konferenz zur Technikphilosophie. Münster, London 2004. Leutzbach, Wilhelm: Das Problem mit der Zukunft: wie sicher sind Voraussagen? Düsseldorf 2000. Nordmann, Alfred: If and Then: A Critique of Speculative NanoEthics. Nanoethics 1, 2007, pp. 31–46. Nordmann, Alfred: Responsible Innovation, the Art and Craft of Future Anticipation. Journal of Responsible Innovation 1 (1), 2014, pp. 87–98. Paschen, Herbert; Petermann, Thomas: Technikfolgenabschätzung – ein strategisches Rahmenkonzept für die Analyse und Bewertung von Technikfolgen. In: Petermann, Thomas (Hg.): Technikfolgen-Abschätzung als Technikforschung und Politikberatung. Frankfurt 1991. S. 19–42. Renn, Ortwin: Kann man die technische Zukunft voraussagen? In: Pinkau, Klaus; Stahlberg, Christina (Hg.): Technologiepolitik in demokratischen Gesellschaften. Stuttgart 1996. S. 23–51. ders.: Methodische Vorgehensweisen in der TA. In: Bröchler, Stefan; Simonis, Georg; Sundermann, Karsten (Hg.): Handbuch Technikfolgenabschätzung. Berlin 1999. S. 609–615. Ropohl, Günter: Kritik des technologischen Determinismus. In: Rapp, Friedrich; Durbin, Paul T. (Hg.): Technikphilosophie in der Diskussion. Braunschweig 1982. S. 3–18.
94
Armin Grunwald
Schwemmer, Oswald: Theorie der rationalen Erklärung. München 1976. Torgersen, Helge: TA als hermeneutische Unternehmung. Technikfolgenabschätzung – Theorie und Praxis 22 (2), 2013, S. 75–80. Zülsdorf, Torben; Coenen, Christopher; Ferrari, Arianna; Fiedeler, Ulrich; Milburn, Colin; Wienroth, Matthias (Hg.): Quantum Engagements: Social Reflections of Nanoscience and Emerging Technologies. Heidelberg 2011.
TECHNIKFOLGENABSCHÄTZUNG: EIN KONZEPT ZUR GESTALTUNG DER ZUKUNFT Ortwin Renn EINLEITUNG Technikfolgen vorherzusagen und zu bewerten – dies ist Aufgabe und Auftrag der Technikfolgenabschätzung (TA). Mit dem Begriff der Technikfolgenabschätzung verbindet sich der Anspruch auf eine systematische, wissenschaftlich abgesicherte und umfassende Identifizierung und Bewertung von technischen, umweltbezogenen, ökonomischen, sozialen, kulturellen und psychischen Wirkungen, die mit der Entwicklung, Produktion, Nutzung und Verwertung von Techniken zu erwarten sind.1 Mit dieser Aufgabenbeschreibung ist letztlich alles angesprochen, was durch Technik beeinflusst werden kann. Wenn Wissenschaftler und Techniker TA betreiben, dann tun sie dieses mit dem erklärten Ziel, für die Gesellschaft verlässliche und unparteiische Informationen bereitzustellen, die Auskunft über die zu erwartenden Konsequenzen von technischem Handeln geben.2 Besonderes Schwergewicht liegt dabei auf der Erfassung von unbeabsichtigten Folgen, seien sie Chancen oder Risiken. Je besser die Gesellschaft im Voraus die Folgen technischer Handlungen antizipieren kann, desto weniger braucht sie im Nachhinein durch Versuch und Irrtum schmerzlich zu lernen. Ausschalten kann man den dornenreichen Weg des Lernens über Irrtum jedoch nicht. So sehr Technikfolgenabschätzung auf die Antizipation von möglichen Folgen des Technikeinsatzes festgelegt ist, so sehr sind die Grenzen dieser Voraussicht zu betonen. Diese Grenzen beziehen sich auf drei Aspekte: die Komplexität der miteinander vernetzten Ursache-Wirkungsketten, der Ungewissheit über Chancen und Risiken einer Entwicklung und die Ambivalenz technischer Entwicklungen.3 Zu diesen drei Problemen sind im Folgenden einige Überlegungen zusammengetragen.
1
2 3
vgl. Dusseldorp, Marc: Technikfolgenabschätzung. In: Grunwald, Armin (Hg.): Handbuch Technikethik. Stuttgart 2013. S. 394–399; Grunwald, Armin: Technikfolgenabschätzung – eine Einführung. Berlin 2010(2). S. 54 ff.; Bullinger, Hans-Jörg: Was ist Technikfolgenabschätzung. In: ders. (Hg.): Technikfolgenabschätzung. Stuttgart 1994. S. 3 ff. Renn, Ortwin: Technikfolgenabschätzung. In: Naturwissenschaftliche Rundschau, 4 (56), 2003, S. 233–234. Renn, Ortwin; Klinke, Andreas: Complexity, Uncertainty and Ambiguity in Inclusive Risk Governance. In: Andersen, Torben J. (Hg.): The Routledge Companion to Strategic Risk Management. Routledge 2016. S. 13–30.
96
Ortwin Renn
KOMPLEXITÄT, UNSICHERHEIT UND AMBIVALENZ: DIE HERAUSFORDERUNGEN DER TECHNIKFOLGENABSCHÄTZUNG Erstes Stichwort: Ambivalenz. Die Hoffnung auf Vermeidung von negativen Technikfolgen ist trügerisch, weil es keine Technik gibt, nicht einmal geben kann, bei der nur positive Auswirkungen zu erwarten wären. Dies klingt trivial. Ist es nicht offensichtlich, dass jede Technik ihre guten und schlechten Seiten hat? Die Anerkennung der Ambivalenz besagt aber mehr, als dass sich die Menschen mit Technik weder das Paradies noch die Hölle erkaufen können. Es ist eine Absage an alle kategorischen Imperative und Handlungsvorschriften, die darauf abzielen, Techniken in moralisch gerechtfertigte und moralisch ungerechtfertigte aufzuteilen.4 Auch die Solarenergie hat ihre Umweltrisiken, wie auch die Kernenergie ihre unbestreitbaren Vorteile aufweist. Ambivalenz ist das Wesensmerkmal jeder Technik.5 Gefragt ist also eine Kultur der Abwägung. Zur Abwägung gehören immer zwei Elemente: Wissen und Bewertung. Wissen sammelt man durch die systematische, methodisch gesicherte Erfassung der zu erwartenden Folgen eines Technikeinsatzes (Technikfolgenforschung). Bewertung erfolgt durch eine umfassende Abwägung alternativer Handlungsoptionen aufgrund der Wünschbarkeit der mit jeder Option verbundenen Folgen, einschließlich der Folgen des Nichtstuns, der sogenannten Nulloption (Technikfolgenbewertung). Für das erste Element, die Technikfolgenforschung, braucht die TA ein wissenschaftliches Instrumentarium, das es erlaubt, so vollständig, exakt und objektiv wie möglich Prognosen über die zu erwartenden Auswirkungen zu erstellen. Für das zweite Element benötigt man allgemein gültige Kriterien, nach denen man diese Folgen intersubjektiv verbindlich bewerten und abwägen kann. Solche Kriterien sind nicht aus der Wissenschaft abzuleiten: sie müssen in einem politischen Prozess durch die Gesellschaft identifiziert und entwickelt werden.6 Beide Aufgaben wären weniger problematisch, gäbe es nicht die beiden weiteren Probleme: Komplexität und Unsicherheit.7 Mit Komplexität ist hier der Umstand gemeint, dass mehrere Ursache-Wirkungsketten parallel auf die Folgen von Technikeinsatz einwirken, sich synergistisch oder antagonistisch beeinflussen sowie durch Rücklaufsschleifen miteinander vernetzt sind. Selbst wenn die Technikforscher jede einzelne Wirkungskette kennen würden, verbleibt das Problem der mangelnden Kenntnis der jeweils wirksamen interaktiven Effekte. Diese im Einzelnen analytisch aufzuspüren, ist nicht nur eine kaum zu bewältigende Sisy4 5 6 7
Renn, Ortwin: Technik und gesellschaftliche Akzeptanz: Herausforderungen der Technikfolgenabschätzung. In: GAIA Ecological Perspectives in Science, Humanities, and Economics, 2 (2), 1993, S. 72. vgl. Bauman, Zygmunt: Moderne und Ambivalenz: Das Ende der Eindeutigkeit. Hamburg 2012(2). vgl. Zweck, Axel: Die Entwicklung der Technikfolgenabschätzung zum gesellschaftlichen Vermittlungsinstrument. Heidelberg 2013; sowie: Renn, Klinke, a. a. O. vgl. Nowotny, Helga; Scott, Peter; Gibbons, Michael: Introduction. “Mode 2” Revisited: The New Production of Knowledge. In: Minerva, 41, 2003, S. 179–194; sowie: Funtowicz, Silvio; Ravetz, Jerome: Post-Normal Science. Science and Governance under Conditions of Complexity. In: Decker; Michael (Hg.): Interdisciplinarity in Technology Assessment. Implementation and its Chances and Limits. Heidelberg 2001. S. 16 f.
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft
97
phusarbeit, sie erfordert auch eine ganzheitliche Betrachtungsweise, für die es in der Wissenschaft noch keine allgemein akzeptierten Kriterien der Gültigkeit und Zuverlässigkeit im Rahmen der eingesetzten Methoden gibt.8 Die psychologische Forschung hat eindringlich gezeigt, wie schwer es Menschen in Entscheidungssituationen fällt, mit komplexen Sachverhalten adäquat umzugehen.9 Eng gekoppelt mit dem Problem der Komplexität ist die unvermeidbare Ungewissheit über Inhalt und Richtung der zukünftigen Entwicklung. Wenn die Menschen in der Tat im Voraus wüssten, welche Folgen sich mit bestimmten Technologien einstellen, fiele es ihnen leichter, eine Abwägung zu treffen und auch einen Konsens über Kriterien zur Beurteilung von Folgen zu erzielen. Doch die Wirklichkeit ist komplizierter. Technikeinsatz ist immer mit unterschiedlichen und komplexen Zukunftsmöglichkeiten verbunden, deren jeweilige Realisierungschance sich überwiegend der Kontrolle der Gesellschaft entzieht.10 Die Frage ist, inwieweit sich die Mitglieder einer Gesellschaft auf die Gestaltung von riskanten Zukunftsentwürfen einlassen und sich von den nicht auszuschließenden Möglichkeiten negativer Zukunftsfolgen abschrecken lassen wollen.11 Wie viel Möglichkeit eines Nutzens ist ihnen wie viel Möglichkeiten eines Schadens wert? Für diese Abwägung gibt es keine Patentlösung. Pauschal auf Technik und damit auf Risiken zu verzichten ist wohl kaum der gesuchte Ausweg aus dem Abwägungsdilemma unter Ungewissheit. Nach wie vor steht die Menschheit vor der Notwendigkeit, die erwartbaren positiven und negativen Konsequenzen des Technikeinsatzes miteinander zu vergleichen und abzuwägen, trotz der prinzipiellen Unfähigkeit, die wahren Ausmaße der Folgen jemals in voller Breite und Tiefe abschätzen zu können. Bestenfalls lassen sich Technikfolgen in ihrer Potentialität erfassen, aber man kann nicht die reale Zukunft vorhersagen. VON DER FOLGENFORSCHUNG ZUR FOLGENBEWERTUNG: NOTWENDIGKEIT DES BEWERTENS Technikfolgenforschung ist der erste Schritt zur Verbesserung von technischen Entscheidungen. Die Ergebnisse der Technikfolgenforschung bilden die faktische Grundlage, d. h. die wissensgesteuerte Unterfütterung zur Folgenbewertung, um anstehende Entscheidungen zu überdenken, negativ erkannte Folgen zu mindern 8 9 10 11
vgl. Mittelstrass, Jürgen: Methodische Transdisziplinarität. In: Technologiefolgenabschätzung – Theorie und Praxis, 2 (14), 2005, S. 18–23. vgl. Kahneman, Daniel: Schnelles Denken, langsames Denken. München 2012; sowie: Dörner, Dietrich; Schaub, Harald; Strohschneider, Stefan: Komplexes Problemlösen – Königsweg der Theoretischen Psychologie? In: Psychologische Rundschau, 50 (4), 1999, S. 198–205. vgl. Grunwald, Armin: Auf der Suche nach Orientierung: Technikzukünfte als interdisziplinärer Forschungs- und Reflexionsgegenstand. In: Hilgendorf, Eric; Hötitzsch, Sven (Hg.): Das Recht vor den Herausforderungen der modernen Technik. Baden-Baden 2015. S. 41–62. vgl. Renn, Ortwin: Neue Technologien, neue Technikfolgen: Ambivalenz, Komplexität und Unsicherheit als Herausforderungen der Technikfolgenabschätzung. In: Kehrt, Christian; Schüßler, Peter; Weitze, Marc-Denis (Hg.): Neue Technologien in der Gesellschaft. Akteure, Erwartungen, Kontroversen und Konjunkturen. Bielefeld 2011. S. 63–76.
98
Ortwin Renn
und mögliche Modifikationen der untersuchten Technik vorzunehmen. Die Einbindung faktischen Wissens in Entscheidungen wie auch die möglichst wertadäquate Auswahl der Optionen können im Prozess der Technikbewertung (Abwägung) nach rationalen und nachvollziehbaren Kriterien gestaltet werden, so wie es in den einschlägigen Arbeiten zur Entscheidungslogik dargelegt wird.12 Das Prinzip der Entscheidungslogik ist einfach: Kennt man die möglichen Folgen und die Wahrscheinlichkeiten ihres Eintreffens (oder besser gesagt: glaubt man sie zu kennen), dann beurteilt man die Wünschbarkeit der jeweiligen Folgen auf der Basis der eigenen Wertorientierungen. Man wählt diejenige Variante aus der Vielzahl der Entscheidungsoptionen aus, von der man erwartet, dass sie das höchste Maß an Wünschbarkeit für den jeweiligen Entscheider verspricht. Die Entscheidung erfolgt auf der Basis von Erwartungswerten, wohl wissend, dass diese erwarteten Folgen aller Voraussicht nach so nicht eintreffen werden. So intuitiv einsichtig das Verfahren der Entscheidungslogik ist, eindeutige Ergebnisse sind auch bei rigoroser Anwendung nicht zu erwarten. Das liegt zum ersten daran, dass wir selber unsicher sind über die Wünschbarkeit von einzelnen Folgen, zum zweiten daran, dass diese Folgen auch andere betreffen, die von uns verschiedene Wertorientierungen haben und deshalb zu anderen Entscheidungen kommen würden, und schließlich daran, dass sich Menschen in unterschiedlichem Maße risikoaversiv verhalten.13 Aus diesem Grunde haben eine Reihe von psychologisch orientierten Entscheidungstheoretikern mit suboptimalen (aber in der Realität häufig vorfindbaren) Verfahren der Auswahl von Optionen beschäftigt. Diese reichen von sogenannten „satisficing“-Strategien, bei denen man nur für alle Bewertungen ein noch gerade zufriedenstellendes Abschneiden akzeptiert, über lexikografische Verfahren, bei denen die wichtigsten Kriterien vorab die Auswahl bestimmen, bis hin zu speziellen Formen der „bounded rationality“, bei der die relativen Gewichte der Kriterien oder die Wahrscheinlichkeiten des Eintreffens von erwartbaren Folgen unbeachtet bleiben.14 Festzuhalten bleibt deshalb: Technikfolgenforschung bleibt auch bei der Anwendung der bestmöglichen Methodik ein unvollständiges Instrument der Zukunftsvorsorge, denn Komplexität, Ambivalenz und Ungewissheit lassen sich nicht durch Wissen auflösen. Technikfolgenbewertung lässt sich ebenso wenig nach intersubjektiv gültigen und verbindlichen Kriterien und Vorgehensweisen durchführen, weil auch hier Ambivalenz und Ungewissheit einer eindeutigen Selektionsregel den Riegel vorschieben. Was also können wir tun? 12
13 14
vgl. Kornwachs, Klaus; König, Wolfgang; Verein Deutscher Ingenieure: Technikbewertung – Begriffe und Grundlagen. In: Hubig, Christoph; Huning, Alois; Ropohl, Günter (Hg.): Nachdenken über Technik. Baden-Baden 2013(3). S. 518–522.; sowie: Akademie der Wissenschaften zu Berlin: Umweltstandards. Berlin 1991. S. 345 ff. vgl. Kähler, Jürgen; Weber, Christoph: Theorien der Entscheidung unter Unsicherheit. In: WiSt-Wirtschaftswissenschaftliches Studium, 44 (10), 2015, S. 572–578.; sowie: Eisenführ, Franz; Weber, Martin: Rationales Entscheiden. Berlin 2003(4). vgl. Gigerenzer, Gert: Rationality without Optimization: Bounded Rationality. In: Macchi, Laura; Bagassi, Maria; Viale, Riccardo (Hg.): Cognitive Unconscious and Human Rationality. Cambridge, MA, 2016. S. 3–22.; sowie: Pfister, Hans-Rüdiger; Jungermann, Helmut; Fischer, Katrin: Die Psychologie der Entscheidung. Eine Einführung. Heidelberg 2017(5).
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft
99
DISKURSIVE TA: EIN LÖSUNGSVORSCHLAG FÜR DEN UMGANG MIT KOMPLEXITÄT, UNSICHERHEIT UND AMBIVALENZ Technikfolgenabschätzung ist meines Erachtens auf einen transdisziplinären und diskursiven Prozess der Wissensgenerierung, Wissenserfassung und Wissensbewertung angewiesen.15 Auch das in den Niederlanden entwickelte Konzept einer konstruktiven TA kommt dem Leitbild einer diskursiven TA nahe.16 Als Diskurs soll hier eine Form von Kommunikation verstanden werden, bei der Sprechakte im gegenseitigen Austausch von Argumenten nach festgelegten Regeln der Gültigkeit auf ihre Geltungsansprüche hin ohne Ansehen der Person und ihres Status untersucht werden.17 Dabei beziehen sich die im Diskurs vorgebrachten Geltungsansprüche nicht nur auf kognitive Aussagen, sondern umfassen expressive (Affekte und Versprechungen) ebenso wie normative Äußerungen. Letztendlich soll der Diskurs in der Vielfalt der Sprachakte die Vielfalt der erlebten Welt und ihre Begrenzungen widerspiegeln.18 Transdisziplinarität bedeutet, dass nicht nur systematisches Wissen aus der Wissenschaft, sondern auch Erfahrungswissen und lokales Wissen zur Problemidentifikation und erst recht zur Problemlösung (etwa bei der Gestaltung von Technik oder ihren Einsatzbedingungen) im diskursiven Austausch stehen und integriert werden müssen.19 Dabei liegt der Schwerpunkt der TA auf ko-kreativen Funktionsbezügen zu Wissenschaft, Gesellschaft, Wirtschaft und Politik, die zugleich in kritischer Absicht hinterfragt werden (beispielsweise Rolle der Wissenschaft, Auswahl und Inklusivität der gesellschaftlichen Akteure, Macht, Wirkung). Auch der Wissenschaftsrat hat „ein berechtigtes Interesse nicht wissenschaftlicher Akteure, an Forschungs- und Innovationsprozessen mitzuwirken“ erkannt und empfiehlt „die Bedingungen und Möglichkeiten unterschiedlicher Beteiligungsformate zu untersuchen und dafür Experimentierräume zu schaffen“.20 Schaut man sich in der transdisziplinären TA-Forschung um, so führt sie in ihrer Praxis wissenschaftliches und außerwissenschaftliches Wissen auf vieler15
16 17 18 19 20
vgl. Renn, Ortwin; Kastenholz, Hans: Diskursive Technikfolgenabschätzung. In: Stein, Gerhard (Hg.): Umwelt und Technik im Gleichklang. Technikfolgenforschung und Systemanalyse in Deutschland. Heidelberg 2002. S. 33–48; sowie: Schweizer, Pia-Johanna; Renn, Ortwin: Partizipation in Technikkontroversen: Panakeia für die Energiewende? In: Technikfolgenabschätzung. Theorie und Praxis, 22 (2), 2013, S. 42–47. Grunwald, Armin: Technikfolgenabschätzung – eine Einführung. Berlin 2010(2). S. 145 ff.; sowie: Rip, Ari; Misa, Thomas; Schot, Johan: Managing Technology in Society. London 1995. Habermas, Jürgen: Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompetenz. In: Habermas, Jürgen; Luhmann, Niklas (Hg.): Theorie der Gesellschaft oder Sozialtechnologie. Was leistet die Systemforschung? Frankfurt am Main 1990(10). S. 104 ff. Hubig, Christoph: Pragmatische Entscheidungslegitimation angesichts von Expertendilemmata. In: Grunwald, Armin; Saupe, Stephan (Hg.): Ethik in der Technikgestaltung. Praktische Relevanz und Legitimation. Heidelberg 1999, S. 201. vgl. Bergmann, Matthias; Jahn,Thomas: Methoden transdisziplinärer Forschung. Ein Überblick mit Anwendungsbeispielen. Frankfurt am Main 2010. vgl. Wissenschaftsrat: Zum wissenschaftspolitischen Diskurs über Große gesellschaftliche Herausforderungen. Ein Positionspapier. Köln 2015.
100
Ortwin Renn
lei Weise zusammen.21 Transdisziplinarität ist in vielerlei Hinsicht angewiesen auf Erkenntnisse, die in „klassischen“ Wissenschaftsformen gewonnen werden, ebenso wie diese Wissenschaftsformen durch den Austausch mit transdisziplinärer Forschung möglicherweise ihre Forschungsgegenstände und Organisationsformen erneut auf den Prüfstand stellen. Transdisziplinarität ist aber methodisch an den dialogischen Austausch zwischen unterschiedlichen Wissensträger gebunden. Hierfür sind Diskurse im Sinne der Habermas’schen kommunikativen Rationalität besonders gut geeignet.22 Dazu reicht es nicht aus, alle möglichen „Stakeholder“ um einen runden Tisch zu versammeln und darauf zu hoffen, dass sich allein aus der Tatsache des gemeinsamen Gespräches ein Mehrwert für die Erkenntnisfindung oder die Erarbeitung einer transdisziplinären Problemlösung ergeben würde. Im schlimmsten Falle wird das methodisch abgesicherte Wissen durch interessengeleitete Vorstellungen ersetzt und die normativen (Vor)urteile der beteiligten Wissenschaftler als kollektiv verbindliche Orientierungen zur Bewertung herangezogen. Es bedarf eines strukturierten und eines methodisch bewährten Prozessvollzugs, um die jeweiligen Stärken der einzelnen Wissensformen synergetisch herauszuarbeiten und die jeweiligen Schwächen gegenseitig zu kompensieren. Das geht nicht von alleine, sondern bedarf eines eigenen evidenz-basierten Prozesswissens. Dies muss theoretisch fundiert, empirisch geprüft und methodisch reproduzierbar sein. Das Methodische der transdisziplinären Forschung liegt in der auf Dauer gestellten Reflexivität bzw. „argumentativer Erzeugung und den dabei unterscheidbaren Stufen im Produktionsprozess“.23 Häufig enden TA-Diskurse nicht mit einem Konsens, sondern mit einem Konsens über den Dissens. In diesem Falle wissen alle Teilnehmer, warum die eine Seite für eine Maßnahme und die andere dagegen ist. Die jeweiligen Argumente sind dann aber im Gespräch überprüft und auf Schwächen und Stärken ausgelotet worden. Die verbleibenden Unterschiede beruhen nicht mehr auf Scheinkonflikten oder auf Fehlurteilen, sondern auf klar definierbare Differenzen in der Bewertung von Entscheidungsfolgen.24 Das Ergebnis eines Diskurses ist mehr Klarheit, nicht unbedingt Einigkeit. Es gibt eine Vielzahl von Verfahren und Möglichkeiten, solche Diskurse zu führen.25 Geht es mehr um gemeinsame Selbstverpflichtung oder Selbstbindung, haben sich runde Tische und spezielle Techniken wie Zukunftswerkstatt oder „Open Space Forum“ bewährt. Für die Behandlung wissenschaftlicher Streitfra21 22 23 24 25
vgl. Nowotny, Helga; Scott, Peter; Gibbons, Michael: Re-thinking Science: Knowledge and the Public in an Age of Uncertainty. Cambridge, UK, 2001. vgl. Webler, Thomas: “Right” Discourse in Citizen Participation. An Evaluative Yardstick. In: Renn, Ortwin; Webler, Thomas; Wiedemann, Peter (Hg.): Fairness and Competence in Citizen Participation. Dordrecht, Boston 1995. S. 35–86. vgl. Mittelstrass, Jürgen: Methodische Transdisziplinarität. In: Technologiefolgenabschätzung – Theorie und Praxis, 2 (14), 2005, S. 18–23. Grunwald 2010, S. 128 f. Überblick und Erläuterung in: Renn, Ortwin; Oppermann, Bettina: Mediation und kooperative Verfahren im Bereich Planung und Umweltschutz. In: Institut für Städtebau (Hg.): Kooperative Planung und Mediation im Konfliktfall. Heft 82. Berlin 2001. S. 13–36.
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft
101
gen sind Instrumente wie Delphi, Gruppen-Delphi, meta-analytische Werkstätten oder Konsensuskonferenzen geeignet. Stehen dagegen Interessen- oder Wertkonflikte im Raum, die behandelt und wenn möglich aufgelöst werden sollen, lassen sich Mediations- und Schlichtungsverfahren einsetzen. Für eine Beteiligung der nicht-organisierten Bürger sind Planungszellen, Konsensuskonferenzen oder Bürgerkomitees bzw. Bürgerforen die richtigen Instrumente. Diese unterschiedlichen Diskursverfahren lassen sich auch kombinieren: Die amerikanische Akademie der Wissenschaften hat vor allem eine Kombination aus analytischen (wie Delphi, Metaanalysen etc.) und deliberativen Verfahren für Technikdebatten empfohlen26. KLASSIFIKATION VON DISKURSEN In der Literatur finden sich viele verschiedene Klassifikationssysteme für Diskurse.27 Man kann sich beispielsweise über Sachverhalte, über Bewertungen, über Handlungsforderungen oder über ästhetische Urteile streiten. Für die praktische Arbeit in der Technikfolgenabschätzung erscheint eine Klassifikation in drei Diskurskategorien28 hilfreich: Der epistemische Diskurs umfasst Kommunikationsprozesse, bei denen Experten (nicht unbedingt Wissenschaftler) um die Klärung eines Sachverhaltes ringen. Ziel eines solches Diskurses ist eine möglichst wirklichkeitsgetreue Abbildung und Erklärung eines Phänomens. Je vielschichtiger, disziplinenübergreifender und unsicherer dieses Phänomen ist, desto eher ist ein kommunikativer Austausch unter den Experten notwendig, um zu einer einheitlichen Beschreibung und Erklärung des Phänomens zu kommen. Häufig können diese Diskurse nur die Bandbreite des noch methodisch rechtfertigbaren Wissens aufzeigen, also den Rahmen abstecken, in denen Dissens noch unter methodischen oder empirischen Gesichtspunkten begründet werden können. An diesem Diskus können alle relevanten Wissensträger mitwirken: entscheidend für die Teilnahme ist es, dass die Parteien Einsichten und Erkenntnisse mitbringen, die ein besseres Verständnis der Problemsituation versprechen oder funktional wirksame Vorschläge zur Problemlösung enthalten. Der Reflexionsdiskurs umfasst Kommunikationsprozesse, bei denen es um die Interpretation von Sachverhalten, zur Klärung von Präferenzen und Werte sowie 26 27
28
US-National Research Council of the National Academies: Public Participation in Environmental Assessment and Decision Making. Washington, D. C., 2008. vgl. Rowe, Gene; Frewer, Lynn: Public Participation Methods: A Framework for Evaluation. In: Science, Technology & Human Values, 225 (1), 2002, S. 3–29.; sowie: Webler, Thomas: “Right” Discourse in Citizen Participation. An Evaluative Yardstick. In: Renn, Ortwin; Webler, Thomas; Wiedemann, Peter (Hg.): Fairness and Competence in Citizen Participation. Dordrecht, Boston 1995. S. 35 ff. ursprünglich in: Wachlin, Klaus-Dieter; Renn, Ortwin: Diskurse an der Akademie für Technikfolgenabschätzung in Baden-Württemberg: Verständigung, Abwägung, Gestaltung, Vermittlung. In: Bröchler, Stephan; Simonis, Georg; Sundermann, Karsten (Hg.): Handbuch Technikfolgenabschätzung. Bd. 2. Berlin 1999. S. 713–722.
102
Ortwin Renn
zur normativen Beurteilung von Problemlagen und Vorschlägen geht. Reflexionsdiskurse eignen sich vor allem als Stimmungsbarometer für technische Entwicklungen, als Hilfsmittel zur Entscheidungsvorbereitung und als Instrument zur antizipativen Konfliktvermeidung. Sie vermitteln einen Eindruck von Stimmungen, Wünschen und Unbehagen, ohne aber konkrete Entscheidungsoptionen im Einzelnen zu bewerten. Der Gestaltungsdiskurs umfasst Kommunikationsprozesse, die auf die Bewertung von Handlungsoptionen und/oder die Lösung konkreter Probleme abzielen. Verfahren der Mediation oder direkten Bürgerbeteiligung sind ebenso in diese Kategorie einzuordnen wie Zukunftswerkstätten zur Gestaltung der eigenen Lebenswelt oder politische bzw. wirtschaftliche Beratungsgremien, die konkrete Politikoptionen vorschlagen oder evaluieren sollen. Alle drei Diskursformen bilden das Gerüst für eine diskursive TA. Selbst wenn es gelingt, alle diese Diskurse ergebnisorientiert und effizient zu führen, so werden sie dennoch keine akzeptablen Lösungen hervorbringen, wenn die Probleme von Ambivalenz und Unsicherheit nicht selbst zum Thema gemacht werden. Technikanwendern wie Technikbetroffenen muss deutlich werden, dass mit jeder Technikanwendung Risiken verbunden und Schäden auch bei bester Absicht und größter Vorsorge nicht auszuschließen sind. Erst die Bewusstmachung der verbleibenden Risiken eröffnet neue Strategien, kreativ und vorsorgend mit Ambivalenz und Ungewissheit umzugehen. AUSBLICK Die Ausführungen in diesem Beitrag begannen mit einer Übersicht über die Aufgaben der Technikfolgenabschätzung, erläuterten die wesentlichen Herausforderungen, die sich aus der Komplexität, Unsicherheit und Ambivalenz der Technikfolgen ergeben, und schlossen dann mit einer Betrachtung der transdisziplinären und diskursiven Ausrichtung der TA. Dabei wurden folgende Erkenntnisse gewonnen: Erstens, Technikfolgenabschätzung muss sich immer an der Komplexität, Ambivalenz und Folgenunsicherheit der Technik orientieren. Dabei muss sie zweitens zwischen der wissenschaftlichen Identifizierung der möglichen Folgen und ihrer Bewertung funktional trennen, dabei jedoch beide Schritte diskursiv miteinander verzahnen. Drittens sollte sie ein schrittweises, rückkopplungsreiches und reflexives Vorgehen bei der Abwägung von positiven und negativen Folgen durch Experten, Anwender und betroffene Bürger vorsehen. Viertens ist sie auf eine transdisziplinäre und diskursive Form der Folgenforschung vor allem aber der Folgenbewertung angewiesen. Eine so verstandene Technikfolgenabschätzung setzt eine enge Anbindung der Folgenforschung an die Folgenbewertung voraus, ohne jedoch die funktionale und methodische Differenzierung zwischen diesen beiden Aufgaben (Erkenntnis und Beurteilung) aufzugeben. Eine solche Verkoppelung ist notwendig, um im Schritt der Bewertung die Probleme der Komplexität, Ambivalenz und der Ungewissheit bei der Folgenforschung und Folgenbewertung angemessen zu berücksichtigen. Umgekehrt müssen auch
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft
103
schon bei der Identifikation und Messung der Folgepotentiale die letztendlichen Bewertungskriterien als Leitlinien der Selektion zugrunde gelegt werden. So wichtig es ist, die Methoden der Erkenntnisgewinnung und der Folgenbewertung nicht zu vermischen, so wichtig ist aber auch, die enge Verzahnung zwischen diesen beiden Bereichen anzuerkennen, weil Technikfolgenforschung ansonsten in einer unsicheren Welt nicht mehr leistungsfähig und wirklichkeitsnahe wäre. Diese Notwendigkeit der Verzahnung spricht ebenfalls für eine diskursive Form der Technikfolgenabschätzung. Die hier beschriebene diskursive Auffassung von TA fußt auf der Voraussetzung, dass die Wissenschaften bei der systematischen Erforschung von Folgepotentiale durchaus Fortschritte machen und viele der Probleme der Komplexität und Ungewissheit zumindest ansatzweise in den Griff bekommen. Dies sollte aber nicht zur Hybris verführen anzunehmen, TA-Studien seien in der Lage, mit Hilfe einer nach bestem Wissen ausgeführten Folgeanalyse Ungewissheit soweit reduzieren zu können, dass eindeutige Antworten über Gestalt und Verlauf möglicher Zukünfte vorliegen. Diese Warnung hat Kornwachs immer wieder den TA-Forschern ins Pflichtenbuch geschrieben.29 Weder der Willenseinfluss menschlicher Handlungen noch die Unschärfe naturgegebener Reaktionen auf gesellschaftliche Interventionen in die natürlichen Regelkreise erlauben eine eindeutige Vorhersage der Folgen. Gerade weil Folgen von Handlungen weitgehend von Entscheidungen der Handelnden ausgehen, hat sich Klaus Kornwachs für die diskursive Ausrichtung der TA eingesetzt. Es wäre eine Illusion, so Klaus Kornwachs, wenn man glaubt, dass TA-Studien die Zukunft vorhersehen könnten. Sie können allenfalls die Chancen der wirtschaftlichen, politischen und sozialen Akteure für eine bewusste und wissensgestützte Gestaltung im Rahmen ihres Entscheidungsraumes erweitern.30 Die wissenschaftliche Behandlung und Abschätzung von Technikfolgen ist auch für ein diskursives Konzept von TA unerlässlich. Adäquates Folgewissen ist notwendig, um die systemischen Zusammenhänge zwischen Nutzungsformen, Reaktionen von ökologischen und sozialen Systeme auf menschliche Interventionen und sozio-kulturellen Bedingungsfaktoren aufzudecken. Das Zusammentragen der Ergebnisse interdisziplinärer Forschung, die politikrelevante Auswahl der Wissensbestände und die ausgewogene Interpretation in einem Umfeld von Unsicherheit, Komplexität und Ambivalenz sind schwierige Aufgaben, die in erster Linie vom Wissenschaftssystem selbst geleistet werden müssen. Dabei werden auch innerhalb des Wissenschaftssystems neue Formen der interdisziplinären, vor allem aber der transdisziplinären Zusammenarbeit, der diskursiven Integration von unterschiedlichen Wissensbeständen zu einem Gesamtbild und der akteursbezogenen Bewertung der einbezogenen Wissensbestände benötigt. 29 30
Kornwachs, Klaus: Information und Kommunikation: Zur menschengerechten Technikgestaltung. Heidelberg 2013. S. 11 ff. Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. S. 256 ff.
104
Ortwin Renn
LITERATUR Akademie der Wissenschaften zu Berlin: Umweltstandards. Berlin 1991. Bauman, Zygmunt: Moderne und Ambivalenz: Das Ende der Eindeutigkeit. Hamburg 2012(2). Bullinger, Hans-Jörg: Was ist Technikfolgenabschätzung. In: ders. (Hg.): Technikfolgenabschätzung. Stuttgart 1994. S. 3–32. Bergmann, Matthias; Jahn,Thomas: Methoden transdisziplinärer Forschung. Ein Überblick mit Anwendungsbeispielen. Frankfurt am Main 2010. Dörner, Dietrich; Schaub, Harald; Strohschneider, Stefan: Komplexes Problemlösen – Königsweg der Theoretischen Psychologie? In: Psychologische Rundschau, 50 (4), 1999, S. 198–205. Dusseldorp, Marc: Technikfolgenabschätzung. In: Grunwald, Armin (Hg.): Handbuch Technikethik. Stuttgart 2013. S. 394–399. Eisenführ, Franz; Weber, Martin: Rationales Entscheiden. Berlin 2003(4). Funtowicz, Silvio; Ravetz, Jerome: Post-Normal Science. Science and Governance under Conditions of Complexity. In: Decker; Michael (Hg.): Interdisciplinarity in Technology Assessment. Implementation and its Chances and Limits. Heidelberg 2001. S. 15–24. Gigerenzer, Gert: Rationality without Optimization: Bounded Rationality. In: Macchi, Laura; Bagassi, Maria; Viale, Riccardo (Hg.): Cognitive Unconscious and Human Rationality. Cambridge, MA 2016. S. 3–22. Grunwald, Armin: Technikfolgenabschätzung – eine Einführung. Berlin 2010(2). ders.: Auf der Suche nach Orientierung: Technikzukünfte als interdisziplinärer Forschungs- und Reflexionsgegenstand. In: Hilgendorf, Eric; Hötitzsch, Sven (Hg.): Das Recht vor den Herausforderungen der modernen Technik. Baden-Baden 2015. S. 41–62. Habermas, Jürgen: Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompetenz. In: Habermas, Jürgen; Luhmann, Niklas (Hg.): Theorie der Gesellschaft oder Sozialtechnologie. Was leistet die Systemforschung? Frankfurt am Main 1990(10). S. 101–141. Hubig, Christoph: Pragmatische Entscheidungslegitimation angesichts von Expertendilemmata. In: Grunwald, Armin; Saupe, Stephan (Hg.): Ethik in der Technikgestaltung. Praktische Relevanz und Legitimation. Heidelberg 1999, S. 197–209. Kähler, Jürgen; Weber, Christoph: Theorien der Entscheidung unter Unsicherheit. In: WiSt-Wirtschaftswissenschaftliches Studium, 44 (10), 2015, S. 572–578. Kahneman, Daniel: Schnelles Denken, langsames Denken. München 2012. Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. Kornwachs, Klaus; König, Wolfgang; Verein Deutscher Ingenieure: Technikbewertung –Begriffe und Grundlagen. In: Hubig, Christoph; Huning, Alois; Ropohl, Günter (Hg.): Nachdenken über Technik. Baden-Baden 2013(3). S. 518–522. Kornwachs, Klaus: Information und Kommunikation: Zur menschengerechten Technikgestaltung. Heidelberg 2013. Mittelstrass, Jürgen: Methodische Transdisziplinarität. In: Technologiefolgenabschätzung – Theorie und Praxis, 2 (14), 2005, S. 18–23. Nowotny, Helga; Scott, Peter; Gibbons, Michael: Re-thinking Science: Knowledge and the Public in an Age of Uncertainty. Cambridge, UK, 2001. Nowotny, Helga; Scott, Peter; Gibbons, Michael: Introduction. “Mode 2” Revisited: The New Production of Knowledge. In: Minerva, 41, 2003, S. 179–194. Pfister, Hans-Rüdiger; Jungermann, Helmut; Fischer, Katrin: Die Psychologie der Entscheidung. Eine Einführung. Heidelberg 2017(5). Renn, Ortwin: Technik und gesellschaftliche Akzeptanz: Herausforderungen der Technikfolgenabschätzung. In: GAIA Ecological Perspectives in Science, Humanities, and Economics, 2 (2), 1993, S. 69–83. ders.: Technikfolgenabschätzung. In: Naturwissenschaftliche Rundschau, 4 (56), 2003, S. 233–234. ders.: Neue Technologien, neue Technikfolgen: Ambivalenz, Komplexität und Unsicherheit als Herausforderungen der Technikfolgenabschätzung. In: Kehrt, Christian; Schüßler, Peter; Weitze,
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft
105
Marc-Denis (Hg.): Neue Technologien in der Gesellschaft. Akteure, Erwartungen, Kontroversen und Konjunkturen. Bielefeld 2011. S. 63–76. Renn, Ortwin; Kastenholz, Hans: Diskursive Technikfolgenabschätzung. In: Stein, Gerhard (Hg.): Umwelt und Technik im Gleichklang. Technikfolgenforschung und Systemanalyse in Deutschland. Heidelberg 2002. S. 33–48. Renn, Ortwin; Klinke, Andreas: Complexity, Uncertainty and Ambiguity in Inclusive Risk Governance. In: Andersen, Torben J. (Hg.): The Routledge Companion to Strategic Risk Management. Routledge 2016. S. 13–30. Renn, Ortwin; Oppermann, Bettina: Mediation und kooperative Verfahren im Bereich Planung und Umweltschutz. In: Institut für Städtebau (Hg.): Kooperative Planung und Mediation im Konfliktfall. Heft 82. Berlin 2001. S. 13–36. Rip, Ari; Misa, Thomas; Schot, Johan: Managing Technology in Society. London 1995. Rowe, Gene; Frewer, Lynn: Public Participation Methods: A Framework for Evaluation. In: Science, Technology & Human Values, 225 (1), 2002, S. 3–29. Schweizer, Pia-Johanna; Renn, Ortwin: Partizipation in Technikkontroversen: Panakeia für die Energiewende? In: Technikfolgenabschätzung. Theorie und Praxis, 22 (2), 2013, S. 42–47. US-National Research Council of the National Academies: Public Participation in Environmental Assessment and Decision Making. Washington, D. C., 2008. Wachlin, Klaus-Dieter; Renn, Ortwin: Diskurse an der Akademie für Technikfolgenabschätzung in Baden-Württemberg: Verständigung, Abwägung, Gestaltung, Vermittlung. In: Bröchler, Stephan; Simonis, Georg; Sundermann, Karsten (Hg.): Handbuch Technikfolgenabschätzung. Bd. 2. Berlin 1999. S. 713–722. Webler, Thomas: “Right” Discourse in Citizen Participation. An Evaluative Yardstick. In: Renn, Ortwin; Webler, Thomas; Wiedemann, Peter (Hg.): Fairness and Competence in Citizen Participation. Dordrecht, Boston 1995. S. 35–86. Wissenschaftsrat: Zum wissenschaftspolitischen Diskurs über Große gesellschaftliche Herausforderungen. Ein Positionspapier. Köln 2015. Zweck, Axel: Die Entwicklung der Technikfolgenabschätzung zum gesellschaftlichen Vermittlungsinstrument. Heidelberg 2013.
MEHR ENT-ORTUNG ERFORDERT MEHR VER-ORTUNG Warum die digitale Transformation in den Betrieben eine Stärkung der kommunalen Stadtentwicklungsplanung benötigt Welf Schröter Der Diskurs über den Wandel der Arbeitswelten durch die digitale Transformation hat seit dem Jahr 2011 mehrere Täler und Höhen durchschritten. Von schlichten Marketingkampagnen mit buntglänzenden Drucksachen bis hin zu Forschungsprojekten mit dem sinnigen Namen „Käse 4.0“ erschien plötzlich alles möglich. Mit der gedanklich unterkomplexen Formel „alles hänge mit allem zusammen“ wurde versucht, „Industrie 4.0“ und „Arbeit 4.0“ zu erklären. Doch hinter dem vordergründigen Messe-Verkäufer-Vokabular waren ernsthafte Herausforderungen zu erkennen, die einer tiefergehenden Analyse und komplexen Gestaltung bedürfen. Schiebt man die technikzentrierte Vertrieblersprache beiseite, wird der Blick frei auf tatsächliche, gravierende Veränderungen des Begriffes „Arbeit“ und des Begriffes „Betrieb“. Es ist Zeit, von einer Kontinentalverschiebung der Arbeitswelt zu sprechen. Der Entgrenzung der Arbeit folgt nun die Entgrenzung der Betriebe. Im Beteiligungsdiskurs des aus mehr als 3700 Frauen und Männern von Betriebs- und Personalräten bestehenden gewerkschaftsnahen Personennetzwerks „Forum Soziale Technikgestaltung“ (FST), das 2016 sein 25-jähriges Gründungsjubiläum feierte, werden die laufenden Debatten in zwei große Handlungsfelder aufgeteilt: Zum einen werden die derzeitigen, zumeist technikzentrierten und zugleich betriebszentrierten digitalen Implementierungen als „Prozess der nachholenden Digitalisierung“ bezeichnet. Rund 90 Prozent aller Einführungen von elektronischen Werkzeugen und Endgeräten basieren auf Schlüsselanwendungen, die seit zehn und mehr Jahren vorhanden sind, aber in den Betrieben aus Kostengründen nicht genutzt wurden. Das erste Smartphone war 1996 auf dem Markt verfügbar. Mobiles Arbeiten wurde bereits 1996 in einem innovativen Tarifvertrag geformt. Das „Internet der Dinge“ existiert seit mindestens einer Dekade. Die „Smart Glasses“ wurden schon lange als Endgeräte der „angereicherten Virtualität“ pilotiert. Die Liste ließe sich bruchlos lange fortführen. Neu an dieser „nachholenden Digitalisierung“, bei dem bereits vorhandene Technik den Nutzern als geradezu frische Kost vorgeführt wird, ist der ambitionierte Versuch, diesen großen digitalen Baukasten von isolierten Einzelteilen in ein prozesshaft Ganzes zu verknüpfen. Der zweite große Bereich, den das FST intensiv berät, lässt sich als Nutzung „autonomer Software-Systeme“ benennen. Die Anwendung dieser „selbstlernenden“, „selbstbewertenden“ und „selbstentscheidenden“ Systeme – sowohl in vertikalen wie auch in horizontalen Wertschöpfungsketten – steckt in den Anfängen.
108
Welf Schröter
Derzeit gibt es noch keine durchgehende betriebsübergreifende horizontale Wertschöpfungskette, die erfolgreich und alltagstauglich von „autonomen SoftwareSystemen“ verlässlich gesteuert wird. Aus den umfänglichen Diskursberatungen und Diskursergebnissen des FST sollen hier zwei Aspekte zur näheren Betrachtung herausgegriffen werden. Die strukturierten Debatten legen eine weitreichende These nahe: Die digitale Transformation der Arbeitswelten in Produktion, Dienstleistung und Verwaltung sind nicht nur eine betrieblich und betriebsbegrenzt zu behandelnde Veränderung. Dieser Wandel löst zugleich tiefgreifende gesellschaftliche und gesellschaftsstrukturelle Brüche aus. Das Forum Soziale Technikgestaltung betont daher, dass eine nachhaltige, soziale und dauerhaft belastbare digitale Transformation der betrieblichen Arbeitswelten nur mit starken flankierenden gesellschaftlichen Reformen erreicht werden kann. Der Ansatz, dass der Wandel zur „Arbeit 4.0“ allein von den Sozialund Tarifpartnern realisiert werden kann, ist hinreichend, aber nicht ausreichend. Der komplementäre Gestaltungsort zum Betrieb ist die Kommune. Ein Kreis von Aktiven aus dem FST, aus Kirchen und sozialen Trägern haben sich daher zur Gründung eines neuen Netzwerkes „Sozialer Zusammenhalt in digitalen Lebenswelten“ entschlossen. Dieses Netzwerk will den technikinduzierten Wandel zu einem gesellschaftlichen Thema machen und vice versa technikgestalterisch agieren. Grundlage der Netzwerkgründung ist ein Thesenpapier, das die gesellschaftsbezogenen Aspekte mit der digitalen Transformation bündelt. NETZWERK „SOZIALER ZUSAMMENHALT IN DIGITALER LEBENSWELT“ – THESEN FÜR EIN GEMEINSAMES HANDELN These 1: Die digitale Transformation ist eine gesamtgesellschaftliche Herausforderung. Die digitale Transformation der Wirtschafts- und Arbeitswelten zieht einen ganzheitlichen Wandel der Lebenswelten nach sich. Dieser Wandel stellt nicht nur ein Technik- oder Wettbewerbsthema dar. Die digitale Transformation bildet eine gesamtgesellschaftliche Herausforderung und benötigt eine selbstbewusste, gestaltende Antwort der Zivilgesellschaft. „Industrie 4.0“, „Arbeit 4.0“, „Handwerk 4.0“, „Mittelstand 4.0“, „Verwaltung 4.0“ betreffen nicht nur Betriebe, Werkstätten und Büros. Sie betreffen alle Bürgerinnen und Bürger. Alle Bürgerinnen und Bürger sind einzuladen, sich an der Gestaltung dieses Wandels zu beteiligen. These 2: Soziale Innovationen sichern die Nachhaltigkeit des Wandels. Wirtschaft und Technik leiten einen Wandel von Beruf, Arbeit und Freizeit ein. Dieser Wandel benötigt in demokratischer, sozialer, kultureller, rechtlicher, ökologischer und ökonomischer Hinsicht Nachhaltigkeit. Diese Nachhaltigkeit ist erst zu erreichen, wenn soziale Innovationen, soziale Standards, demokratische Rechte und gesellschaftspolitische wie auch strukturelle Maßnahmen diese Nachhaltigkeit absichern. Schritte zur Förderung des sozialen Zusammenhalts müssen aktiv weiter entwickelt werden.
Mehr Ent-Ortung erfordert mehr Ver-Ortung
109
These 3: Technik muss dem Menschen dienen. Die digitale Transformation der Wirtschafts- und Arbeitswelten verändern das Verhältnis von Mensch und Technik. Technik muss dem Menschen dienen. Der Mensch darf nicht der bloße Assistent digitaler Technik werden. Eine durch Digitalisierung und Virtualisierung sich wandelnde Zivilgesellschaft benötigt einen öffentlichen und beteiligungsorientierten Diskurs über moderne Ethik und die Stellung des Menschen in technikgestützten Lebenswelten. Die Zivilgesellschaft benötigt für die positive Nutzung neuer Techniken eine vorausschauende, integrierte und partizipative Technikbegleitforschung gegenüber dem Einsatz autonomer Software-Systeme. Notwendig ist eine aktive präventive Technikfolgenabschätzung. These 4: Privatheit muss geschützt werden, sie ist ein wesentlicher Baustein der Demokratie. Die Anwendungen neuer digitaler und virtueller Werkzeuge in Beruf, Arbeit und Lebenswelten beeinflussen das Verhältnis von Öffentlichkeit und Privatheit. Um die Vorteile der Digitalisierung für die Gesellschaft absichern zu können, benötigen Bürgerinnen und Bürger eine Stärkung ihres Rechtes auf informationelle Selbstbestimmung, einen intensiveren Schutz der Privatheit, einen umfassenden Daten- und Identitätsschutz. Der Schutz der Privatheit ist ein wesentlicher Baustein des Fundaments der Demokratie. These 5: Zugänge der Bürgerinnen und Bürger zu Bildung, Beruf und sozialer Infrastruktur sind zu bewahren. Der Prozess der digitalen Transformation der Arbeits- und Lebenswelten verändert die Zugänge und die Zugänglichkeit der Bürgerinnen und Bürger zu Wissen und Bildung, Beruf und Einkommen, sozialen Dienstleistungen und Infrastrukturen. Der Wandel vermindert einerseits Barrieren, lässt aber andererseits neue entstehen. Die wachsende Unübersichtlichkeit und Abstraktion, die zunehmende Geschwindigkeit und Komplexität sowie die abnehmende Nachvollziehbarkeit wirken sich für viele Menschen wie neue Zugangsbarrieren aus. Bürgerinnen und Bürger sowie die zivilgesellschaftlichen Akteure sollen in die Findung sozialer Innovationen, in die Entwicklung und Einführung neuer Technologien beteiligungsorientiert einbezogen werden, um Gefahren der Ausgrenzung, der Geschlechterungerechtigkeit und der möglichen digitalen Spaltung zu vermeiden. Frühzeitige Beteiligung können sozialen Zusammenhalt, Integration, Selbstbestimmung, Identität in der Virtualität, persönliche Autonomie, Solidarität und Inklusion erleichtern. These 6: Veränderte Berufsbiographien benötigen neue Regelungen der sozialen Absicherung. Die voranschreitende digitale Transformation verändert Berufsbiografien und führt immer häufiger zu unfreiwilliger individueller Selbstständigkeit und Erwerbslosigkeit. Um soziale Brüche und Gefahren prekärer Lebensphasen zu verringern, bedarf es dringend neuer gesellschaftlicher Übereinkünfte und sozialstaatlicher Regelungen zugunsten sozialer Standards für Freelancer und Crowdworker. Wir brauchen in einer digital handelnden Gesellschaft neue sozialstaatliche Anstöße für die soziale Absicherung von Erwerbssuchenden und Langzeitarbeitslosen. Dabei kann aus der Diskussion um das bedingungslose Grundeinkommen gelernt werden.
110
Welf Schröter
These 7: Neue Lernkulturen sollten zu selbstbestimmtem Leben ermutigen. Die zunehmende Digitalisierung und Virtualisierung der Lebenszusammenhänge in Beruf, Lebensphasen und Freizeit stellt die Zivilgesellschaft vor die Herausforderung, neue Lernkulturen zu schaffen, die sich an die Lebenslagen anpassen und lebensphasenorientiert ausgelegt sind. Diese Lernkulturen sollten zu selbstbestimmtem Leben ermutigen und lernförderliche Bildungswelten in Schule und Berufsschule sowie in der Erwachsenenbildung stärken. Dabei sollten nicht das technische Werkzeug oder die technische Infrastruktur das Zentrum bilden, sondern das begleitende Lernen in kollegialer Gemeinschaft, das erst im Nachhinein mit Assistenzlösungen unterstützt wird. Der sich beschleunigenden Virtualisierung von Bildung und Weiterbildung muss eine Aufwertung der persönlichen Begegnung und der Wiederverortung des Lernens folgen. These 8: Eine klimagerechte Anwendungsstrategie der Digitalisierung wird dringend benötigt. Die neuen digitalen Technologien können zu mehr Material-, Ressourcen- und Energieeffizienz in Wirtschaft und Arbeitswelt, im städtischen Zusammenleben, in Mobilität und Verkehr, in Freizeit und Wohnumgebung beitragen. Ohne die modernsten Informationstechnologien und ohne die „intelligenten“ digitalen Werkzeuge wird das gemeinsame Klimaschutzziel nicht erreicht werden können. Um aber dem Ziel mit Hilfe dieser Techniken erfolgreich nahezukommen, bedarf es einer klimagerechten Digitalisierungs- und Anwendungsstrategie. Diese ist gerade für die Entwicklung von Städten und Gemeinden unabdingbar. These 9: Benötigt werden Netzwerke zivilgesellschaftlicher Akteure – nicht nur in Baden-Württemberg. In einer gemeinsamen Anstrengung haben die baden-württembergische Landesregierung, Vertreter von Wirtschaft, Gewerkschaften, Verbänden, Kammern und Forschungseinrichtungen im Frühjahr 2015 das Netzwerk „Allianz Industrie 4.0 Baden-Württemberg“ gegründet. Diesem – vor allem auf technische Innovationen ausgerichteten Netzwerk – sollte ein offenes und öffentliches Netzwerk zivilgesellschaftlicher Akteure, Kirchen, Verbände und Initiativen zur Seite stehen. Ein solches Netzwerk soll den begonnenen Zukunftsdialog des Landes erweitern, soll für gesellschaftliche und soziale Innovationen eintreten. Ein solches Netzwerk soll Impulse für demokratische Beteiligungen, für Chancengleichheit und Gleichberechtigung, für Zugänglichkeit und soziale Standards, für Bildungschancen und unterstützende Jugendarbeit, für den Schutz der Privatheit und Verbraucherschutz, für eine Kultur der Selbstbestimmung und Autonomie, für lebensphasenorientiertes Lernen und den Erwerb von Komplexitätskompetenz, für Integration und Inklusion, für Klimaschutz, Open Government und für die Stärkung des ländlichen Raumes geben.
Mehr Ent-Ortung erfordert mehr Ver-Ortung
111
AUSWIRKUNGEN DES BEDEUTUNGSWANDELS DES ORTES „BETRIEB“ Der zunehmenden Vernetzung als Ent-Ortung stehen Impulse aus dem Forum Soziale Technikgestaltung gegenüber, die einen Bedeutungswandel des Ortes „Betrieb“ erkennen lassen: Impuls I: Betrieb als sozialer Ort Der Ort Betrieb als traditionell zumeist erfolgreiche Sozialisationsinstanz, wo sozialer Zusammenhalt und Sozialkompetenz erlernt werden, büßt seine normierend dominierende Kraft ein. Er verschwindet aber nicht. Mehr und mehr Menschen sind nur auf Zeit im Betrieb. Sie erfahren eine mehrfach gebrochene Berufsbiografie, in der immer mehr Phasen der neuen Selbstständigkeiten (Freelancer, Crowdworker etc.) gelebt werden müssen. Wo lernen „Freie“ den sozialen Zusammenhalt? Impuls II: Aufhebung der Fragmentierung Unsere Gesellschaft benötigt neue Orte des öffentlichen gemeinsamen sozialen Erlernens von Zusammenhalt. Diese neuen Orte können Verortungen jenseits verbleibender Betriebskulturen sein: öffentliche Wissensorte in Stadtteilen und Kommunen wie etwa geöffnete gewandelte Bibliotheken, wie etwa neue Kommunikationsorte wie betreute CoWorking-Cafés. Die Fragmentierung von Betrieben und Arbeitswelten muss nicht-technisch als gesellschaftliche Herausforderung verstanden werden. Impuls III: Der sozialpsychologische Blick Die Digitalisierung und Virtualisierung neuen Typs in Richtung „Arbeit 4.0“ löst deutliche Prozesse der sozialen und kulturellen „Entbettung“ (disembedding) aus. Eine wachsende Zahl von Menschen mit oder ohne Arbeit fühlt sich in den neuen Arbeitswelten überfordert, entwertet und nicht mehr als zugehörig. Eine gesellschaftsbezogene „innere Kündigung“ und „innere Emigration“ kann eine Abkehr von der Gesellschaft und von der Demokratie auslösen. Die Strategie „Arbeit 4.0“ benötigt dringend eine integrierende, inkludierende gesellschaftliche Strategie. Der Sozialpsychologe Heiner Keupp schrieb schon 2003: „Wenn wir uns der Frage zuwenden, welche gesellschaftlichen Entwicklungstendenzen die alltäglichen Lebensformen der Menschen heute prägen, dann kann man an dem Gedanken des ,disembedding‘ oder der Enttraditionalisierung anknüpfen. Dieser Prozess lässt sich einerseits als tiefgreifende Individualisierung und als explosive Pluralisierung andererseits beschreiben.“
112
Welf Schröter
PLURALISIERUNG DER SOZIALISATIONSVERORTUNG ALS NEUE VER-ORTUNG Die normierende Kraft des Wortes „Betrieb“ wird für die Sozialisierung der Menschen im Beruf abnehmen. Entortung, Entzeitlichung, Individualisierung und Vereinzelung, Virtualisierung und Entbetrieblichung stellen die Frage, wo dann noch Menschen zu einem sozialen und einem demokratischen Miteinander sozialisiert werden können. Die „Community Betrieb“ bröckelt. Die Zahl der Ein-PersonenSelbstständigen und Freelancer steigt. Doch was, wo und wer tritt strategisch in der Gesellschaft an die Stelle des Sozialisationsortes „Betrieb“? Wenn die strukturelle Bedeutung des Ortes „Betrieb“ in seiner normierenden gesellschaftlichen Funktion nachlässt, wird dies auch zu einer Pluralisierung der Sozialisationsverortung führen. Dies kann entweder eine kulturelle Bereicherung für alle ermöglichen oder eine verstärkte Fragmentierung und Parzellierung gesellschaftlicher Gruppen einläuten. Das arbeitende Individuum wird von den kulturellen Prägungen und Regulationen der Sozialpartner immer weniger erreicht. Die Kollegialkultur und deren sozialisierende Kraft aus Betrieben, Belegschaften, Teams, Verbänden und Sozialpartnern verlieren ihre Interpretationshoheit in den aufkommenden virtuellen Einkommenswelten. Die strukturelle Ent-Integration des arbeitenden Individuums aus den postanalogen Strukturen der Arbeitswelten zieht eine latente Tendenz zur Ent-Sozialisation nach sich. Die Rollen der Sozialpartner als gesellschaftliche Binde-Mittel werden geschwächt. Sie büßen Kohäsionskraft ein. Parallel zur realen und virtuellen Atomisierung des Individuums vollzieht sich eine Rückbildung des zentralen Kohäsionszentrums „Betrieb“ als formierender Ort der Vergesellschaftung des Individuums. Angesichts dieses beginnenden Ent-Kohäsionsprozesses der Gesellschaft muss die Frage nach neuen Anlässen, Orten und Kulturen formuliert werden, wie und wo kompensatorische Kohäsionsorte und ebensolche Kohäsionskräfte wachsen können. BIBLIOTHEKEN ALS NEUE BERUFSBEZOGENE SOZIALISATIONSORTE Vor diesem Hintergrund gilt es, eine These zu prüfen: Nicht die realen und virtuellen Orte des lebenslangen Broterwerbs strukturieren die postanalogen Einkommens-Patchwork-Biografien, sondern es sind die realen und virtuellen Orte des emotional-intelligenten Lernens als lebenslange Lernkultur. Die neuen emotionalintelligenten Lernwege bzw. Lerninfrastrukturen mit ihren Social-Media-Einspiegelungen benötigen nicht den Ort „Betrieb“ als Konditionierungstreffpunkt. Erforderlich ist der Ausbau der Orte des Wissens- und Erfahrungsaustausches, der Orte des Lernens und innovativen Experimentierens zu strategischen Kohäsions-Nahtstellen mit hoher emotionaler Identifizierungs- und Bindekraft. Die gewachsenen Orte der Informations- und Wissensvermittlung müssen demnach die zusätzliche Rolle der aktiven Kohäsionsstabilisierung proaktiv annehmen.
Mehr Ent-Ortung erfordert mehr Ver-Ortung
113
Die Entortung und Entzeitlichung von Arbeit sowie der Rückgang des „Prinzips Betrieb“ eröffnen die Suche nach neuen gesellschaftlich-öffentlichen, synchronen Orten des Face-to-Face-Austausches. Bibliotheken und insbesondere Stadtteilbibliotheken könnten als Bildungstreffpunkte zu neuen Drehpunkten der vernetzten Wissensgesellschaft (kollegiale Sozialisationsorte als Ersatz für den Ort „Betrieb“) werden: „Blended Living“. „BLENDED LIVING“ ALS SCHWESTER VON SOCIAL MEDIA UND ANKER SOZIALER KOHÄSION Bibliotheken könnten sich zu berufsbezogenen Knotenpunkten der Netzwerke von überall wachsenden sozialinnovativen „Coworking Spaces“ der Zukunft entfalten. Bibliotheken werden zu Orten, wo sich neue Dienstleistungen und Services verbinden: Wissensspeicher und Lernportal der Wissensarbeitenden, Support für themenorientierte, tätigkeitsorientierte und wertschöpfungsorientierte Netzwerke, proaktiver Kommunikationsort, Eingang zum Open Government, Cafeteria-Prinzip einer Face-to-face-Community, Knotenpunkt der kommunalen Coworking Spaces, Kooperationsbörse, Treff der anonymen Burnoutler und anderes mehr. Das „biografische Ich“ verhält sich zu seinem „virtuellen Ich“ ungleichzeitig. Diese operative Ungleichzeitigkeit des prozessualen Arbeitens fordert vom Subjekt, vom Individuum, die Ungleichzeitigkeiten des kulturellen Erfahrens und Bewusstwerdens nicht nur als ein vorübergehendes Phänomen anzusehen, sondern in diesem Phänomen eine auf Dauer angelegte Identität/Nicht-Identität zu erkennen. Am Ort des emotional-intelligenten Lernens könnten „natürliches Ich“ und „virtuelles Ich“ wieder zusammenfinden, weil dauerhaftes wirkliches Lernen nur möglich ist von Angesicht zu Angesicht (face to face) und weil das „natürliche Ich“ persönliche Kommunikation, Kooperation und Konditionierung benötigt. Dies trägt zur „Heilung“ der „Burn-out-Seelen“ der virtuell Entfremdeten bei und eröffnet eine Perspektive auf nachhaltiges Blended Living, eine Mischung aus Natürlichem und Virtuellem. Die Digitalisierung und Virtualisierung neuen Typs in Gestalt von „Arbeit 4.0“ fordert beschäftigungspolitisch das Recht auf Arbeit, die Zugänglichkeit zum Erwerbsleben, die soziale Struktur unserer Gesellschaft und den sozialen Frieden massiv heraus. Entweder gelingt mit „Arbeit 4.0“ ein neuer Job-Boom auf der Basis digitaler Transformation oder unsere Gesellschaft benötigt neue soziale Innovationen (bedingungsloses Grundeinkommen?) für viele Menschen, die entweder keinen Zugang zur Arbeitswelt finden oder aber im Verständnis der Arbeitsagentur „unterbeschäftigt“ (heute 3,5 Mio.) sind bzw. bleiben.
114
Welf Schröter
DER VORHANG AUF UND ALLE FRAGEN OFFEN Was passiert mit dem menschlichen Subjekt im Spannungsgefüge von Realität und Virtualität, zwischen fiktiver Realität und realer Virtualität? Erleichtert dieses Spannungsgefüge die gesellschaftliche und individuelle Emanzipation oder stellt es ein wachsendes Hemmnis dar? Zur synchronen Dreigliedrigkeit des Industriearbeitsplatzes von Ort, Zeit und Verfasstheit tritt in der wissensbasierten asynchronen Arbeitsrealität die Ungleichzeitigkeit des Ortes, der Zeit und der Verfasstheit von Arbeit als dauerhafte vierte Konstante. Die Arbeitswelten der Informations- und Wissensgesellschaften fußen unter anderem auf der Ungleichzeitigkeit des Realen mit dem Virtuellen. Eine derartige Ungleichzeitigkeit verlangt eine strukturell andere Emanzipationsstrategie. Sie schließt eine Emanzipation mit Hilfe der Virtualität und vor allem in der Virtualität ein. Mit der Idee von Klaus Kornwachs einer befristeten, dauerhaften oder partiellen „Entnetzung“ als Mittel der Entschleunigung könnte zeitlich jener Gestaltungsraum entstehen, der einem Mehr an Ent-Ortung endlich ein Mehr an Ver-Ortung bringt. Virtualisierung benötigt Lokalisierung.
ZUR ANTHROPOLOGIE DES KÖRPERLICH AUFGERÜSTETEN MENSCHEN
Auswirkungen der technischen Aufrüstung des menschlichen Körpers auf unser Selbst- und Weltverständnis Klaus Wiegerling Klaus Kornwachs beschäftigt sich in seinem Buch „Strukturen technischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik“ u. a. mit der Frage, wie sich die Entwicklung und Ausgestaltung einer Technik auf technische Organisationsformen und organisatorische Rahmungen auswirkt. Technische Entwicklungen stehen in einer Relation zu ökonomischen, politischen und kulturellen Dispositionen sowie Stimmungen, die wie die Technik einem permanenten Wandlungsprozess unterworfen sind. Die Frage nach einem Primat kann nur stellen, wer vergisst, dass Technik ein genuiner Ausdruck von Kultur und technisches Handeln ein wertendes Tun ist. Letzteres ist zweckorientiert und unterscheidet sich von einem theoretischen Zugriff auf die Welt. Auch wenn der Naturforscher technische Hilfsmittel nutzt, so ist sein Ziel zu Erkenntnissen zu gelangen, die sich in Gesetzen fassen lassen. Es geht ihm „letztlich“ um begründbare Wahrheitsaussagen. Der Techniker dagegen formuliert sein Ziel aus lebensweltlichen Verhältnissen, in die er wertend verstrickt ist. Es geht um den erfolgreichen Einsatz von Mitteln, um ein Ziel zu erreichen. Technisches Handeln beruht, wie Kornwachs ausführt, auf Kausalund Regelwissen. Letzteres aber ist normativ, da mit der Bestimmung des Zieles, das erreicht werden soll, eine Wertung einhergeht1. Technik basiert auf vorgängigen Bewertungen; und auch während des Herstellungsprozesses werden Bewertungen vorgenommen, die zu Neubestimmungen des Zielbereichs und Neujustierungen des eingeschlagenen Weges, ja sogar zum Abbruch von Entwicklungen führen können. Technisches Tun ist anders als naturwissenschaftliches auf Gewolltes und Gesolltes eingelassen. Fokussiert wird eine Zweck-Mittel-Relation. Die Technisierung der Wissenschaft ist weit fortgeschritten. Die Zustandsbeschreibung der Wissenschaft, wie sie Husserl in seiner Krisis-Schrift2 vorgenommen hat, ist so aktuell wie 1938. Die Synthetische Biologie, die den Anspruch erhebt, Leben aus unbelebtem Material herzustellen, scheint nicht mehr eindeutig der Naturwissenschaft oder der Technik zuordenbar zu sein. Immer offensichtlicher 1
2
vgl. Kornwachs, Klaus: Strukturen technischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. S. 52 ff. Vgl. auch: ders.: Die Entortung der Wissenschaft und Universität 4.0. In: Kittowski, Frank; Kriesel, Werner (Hg.): Informatik und Gesellschaft. Festschrift zum 80. Geburtstag von Klaus Fuchs-Kittowski. Frankfurt am Main 2016. vgl. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Den Haag 1976 (1938).
116
Klaus Wiegerling
dringt in Wahrheitsansprüche Normatives bzw. Präskriptives. Dies wird nicht zuletzt im Feld des sogenannten „Human Enhancement“ sichtbar. Unsere Diskussion schließt an Kornwachs’ Gedanken von der Wechselwirkung zwischen Technikentwicklung und ihren organisatorischen Rahmenbedingungen an. Diese Rahmung weist eine doppelte Mittelbarkeit auf, wenn technische Funktionalität ins Körperinnere dringt und Interaktionen mit einer intelligenten Umgebung initiiert. Es findet eine doppelte Vermittlung der Technologie durch veränderte Rahmenbedingungen einerseits und durch organische Dispositionen andererseits statt. Der Mensch steht damit nicht nur in einer biologischen Deszendenz-, sondern auch in einer technischen Entwicklungsreihe. Technische Konfigurationen sind in gewisser Weise organisch und organische technisch vermittelt. Dies bedeutet, dass eine Kohärenz zwischen technischen und naturwissenschaftlichen Theorien hergestellt werden muss. Zu fragen ist, inwieweit dies möglich ist. Wann und unter welchen Bedingungen können wir von einem gemeinsamen Kern sprechen? Oder löst sich gar der eine Theoriebereich unter der Dominanz des anderen auf? Die Kernfrage dieses Beitrags lautet: Wie wirkt sich die technische Aufrüstung des Menschen auf sein Selbst- und Weltverständnis aus? Nicht der Eingriff in die menschliche Keimbahn steht im Fokus, sondern die technische Aufrüstung des menschlichen Körpers durch Implantate und Prothesen. Genetische Eingriffe unterliegen den Besonderheiten biologischen Materials, das in der Regel resilienter, aber weniger resistent als nichtorganisches ist. Eine herstellende Wissenschaft suggeriert, dass unsere biologische, soziale und kulturelle Existenz einem Kalkül unterworfen werden könne. Überbordende Phantasien über grenzenlose Gestaltungspotentiale des Körpers durch technische Eingriffe greifen zunehmend um sich. Der aufgerüstete Mensch soll der länger lebende, leistungs- und genussfähigere sein. Er wird seinen Körper auf- und umrüsten können und in einer biologisch-informatischen Werkstatt warten lassen. Krankheiten werden im Frühstadium erkannt und durch eine Um- oder Neuprogrammierung intelligenter Implantate beseitigt werden können. Man hat traditionell die physiologische Disposition des Menschen von dem unterschieden, was unter dem Begriff „conditio humana“ gefasst wurde. Diese Disposition ist Teil einer technischen Verfügungsmacht geworden. Bio- und informationstechnologische Möglichkeiten werden bereits zur Herstellung, Erhaltung, aber auch Aufrüstung menschlichen Lebens genutzt. Die „conditio humana“, die sich in sozialen bzw. kulturellen Bedingungen äußert, erfährt nun eine Unterwanderung durch technische Verfügungsmittel, die Teil unserer körperlichen Disposition sind. Technik wird damit Bestand unserer „Natur“. Wann nun, ist die Frage, können wir definitiv nicht mehr von Leib bzw. Leben im heutigen Sinne reden. Wann wären Menschen eine Species, für die es Leiberfahrungen, wie wir sie kennen, nicht mehr gibt und für die der Begriff des Lebens eine Bedeutung hat, die wenig mit unserem heutigen Verständnis zu tun hat. Wie lange können wir menschliche Organe und Gliedmaßen substituieren, ohne dass der Mensch auch qualitativ einen Wandel erfährt? Bei der technischen Substitution eines Organs oder einer Organfunktion werden nicht das ganze Organ, sondern nur bestimmte, als relevant eingeschätzte Funktionen ersetzt. Es gibt keine Mög-
Zur Anthropologie des körperlich aufgerüsteten Menschen
117
lichkeit, ein Organ digital zu verdoppeln. Die Grenze, die hier von Interesse ist, liegt da, wo ein Begriff auf etwas qualitativ Verschiedenes referiert. Schon mit der Verschiebung der Bedeutung der Begriffe „Leib“ und „Leben“ geht ein Wandel unseres Selbstverständnisses einher. Wir verstehen uns anders, wenn unser Leib als kultiviertes Naturstück auf Körperlichkeit reduziert wird. Leib und Leben galten lange als unerreichbar, weil sie sich der menschlichen Herstellungsfähigkeit entziehen. Der Leib wäre „erreichbar“, wenn er völlig in einen Körper transformiert, das Leben, wenn es vollkommen rekonstruierbar wäre – kurz, wenn sie berechenbar, disponibel, herstellbar und steuerbar sind. Es muss ein Grenzdiskurs geführt werden, der nicht Grenzverschiebungen, sondern die Auflösung von Grenzen fokussiert. Es ist der Anspruch eines positivistisch reduzierten Wissenschaftsverständnisses, das aufzuheben, was für Kant Wissenschaftlichkeit auszeichnet, nämlich die Markierung des Feldes, in dem wissenschaftliche Aussagen Geltung beanspruchen können. Wir müssten die Rede von einem menschlichen Wesen, das nicht nur über einen Körper, sondern auch über einen Leib verfügt, aufgeben, wenn sich die Bedingungen seiner organischen Existenz so verändern, dass sich die Spezifika der leiblichen Existenz nicht mehr fassen lassen. Das Überschreiten der Grenze macht den Menschen zu etwas anderem, die Überschreitung verändert den Überschreitenden. Disziplinär gesehen spielt der in der Alltagssprache nur vage bestimmte Begriff des Lebens sowohl in den Natur- als auch in den Geisteswissenschaften eine Rolle. In seinem Gebrauch spiegelt sich die Ambivalenz, die auch den Begriff des Leibes auszeichnet, nämlich eine Zwitterstellung, in der sich sowohl eine Relation auf ein in der Dritten-Person-Perspektive gegebenes Naturphänomen artikuliert als auch ein historisch-kulturelles Phänomen, das in der Ersten-Person-Perspektive zugänglich ist – jedoch als etwas, das die subjektive Zugänglichkeit transzendiert und als überindividuelles Geschehen nur in Auslegungsprozessen erfasst werden kann. Der Begriff des Lebens weist alle Merkmale auf, die Blumenberg für eine absolute Metapher fordert, die sich einer Übertragbarkeit in explizites Wissen entzieht, auf Totalität verweist und eine Orientierungsfunktion hat. Eine frühe begriffliche Fassung liegt in der altgriechischen Unterscheidung von βιόϛ (m.) und ζωή (f.) vor. Während ζωή das reine Existieren eines Lebewesens bezeichnet, kommt βιόϛ nur vernünftigen Wesen zu. Ersteres benennt die Tatsache der biologischen Existenz, letzteres die Lebensart. Βιόϛ ist ein qualitativer Ausdruck, während ζωή nur eine Tatsache bestimmt bzw. eine Unterscheidung zur unbeseelten Entität vornimmt. Die neuzeitliche Benennung der Wissenschaft vom Lebendigen als Biologie ist eigentlich ein Fehlgebrauch des Begriffs βιόϛ. Der deutsche Begriff des Lebens kann sowohl qualitativ-werthafte Momente hervorheben als auch eine Tatsachenfeststellung sein. Weder in der frühen Biologie noch in der Lebensphilosophie wird er nur im Sinne einer Tatsachenfeststellung gebraucht. In der Lebensphilosophie wird er einerseits als kultur- und wissenschaftskritische Kategorie ausgebildet, andererseits, wie bei Dilthey, als Klammer zwischen Geistes- und Naturwissenschaften gesehen. Selbstbezug, Selbsterhaltungs- und Transzendierungswille des Lebens werden hervorgehoben.
118
Klaus Wiegerling
Der Lebensdiskurs der modernen Biologie wird wesentlich vom Gegensatz zum Vitalismus, der von der Autonomie der Lebensvorgänge und ihrer Zweckmäßigkeit ausgeht, geprägt. Vitalisten unterscheiden Lebewesen von anderen Körpern durch Form, Stoffwechsel und Bewegung. Leben ist ein irreduzibles Phänomen, das als Tätigkeit aufgefasst werden muss. Es lässt sich nicht als geschlossenes System fassen und artikuliert sich in einem permanenten Austauschprozess. Der Vitalismus verlor an Bedeutung als es Wöhler 1824 gelang, organische Substanzen synthetisch herzustellen und auf physikalisch-chemische Kausalzusammenhänge zurückzuführen – und gilt endgültig als überholt, als Miller und Urey 1959 das spontane Entstehen von Aminosäuren nachwiesen. Insbesondere in der Molekularbiologie wird versucht, teleologische Momente ganz aus der Sphäre des Lebens als metaphysische Dreingabe zu bannen. Merkwürdigerweise wird die Teleologie aber im pragmatischen Anspruch der synthetischen Biologie auf einer höheren Stufe wieder eingeführt. Die Hervorbringung des Lebens unterliegt ja selbst den Zwecken der „Macher“. Diese artikulieren bestimmte Eigenschaften im jeweiligen Biofakt. Dabei spielen auch kulturelle oder ästhetische Präferenzen eine Rolle. Dem deterministischen Anspruch reduktionistisch-naturalistischer Konzepte entsprechend müsste aber auch diese Teleologie aus dem wissenschaftlichen Handeln gebannt werden.3 In der Biologie hat der Begriff des Lebens, wie Toepfer feststellt, einen integrativen Charakter, der so unterschiedliche Felder wie Ethologie, Morphologie und Genetik zusammenhält.4 Er vereinigt s. E. drei Intentionen, nämlich Leben als Zustand, als Tätigkeit oder als Dauer zu fassen. Biologiegeschichtlich könnte man von zwei Epochen sprechen, einer antikmittelalterlichen aristotelischen und einer mechanistischen cartesianischen. In der mechanistischen Haltung bleiben aber viele mit dem Begriff des Lebens verknüpfte Probleme ungelöst: Wie sollen Lebewesen, die nach mechanistischen Prinzipien entstehen, sich reproduzieren und evolutionäre Veränderungen aufweisen können, wie die Selbstbewegung von lebendigen Organismen verstanden werden, wie der Zusammenhang von Körper und Geist oder die Wechselwirkung von Umwelt und Organismus gedacht werden? Toepfer bietet eine Kriteriologie an, auf deren unterster Stufe die Organisation steht, die ein wechselseitiges Verhältnisses von Ursache und Wirkung in einem geschlossenen System formuliert. Darauf aufstufend stehen die Selbsterhaltung implizierende Regulation und schließlich die den Rahmen der organischen Identität sprengende Evolution, die auf Wandel und Komplexitätssteigerung verweist.5 Der lebendige Organismus aber ist ein individueller, selbst wenn, wie bei eineiigen Zwillingen, die genetische Anlage identisch ist. Die Erfahrung des eigenen Leibes ist nicht übertragbar. Leiberfahrung heißt auch Differenzerfahrung. Lässt sich aber technisch aufgerüstetes Leben noch unter den genannten Kriterien fassen? Dass sich intrakorporal in Form eines Implantats etwas Nichtindividuelles etabliert, das Regulierungsfunktionen übernimmt und als realisiertes Funktionsmodell die Aufgabe eines ausgefallenen 3 4 5
vgl. Janich, Peter: Kultur und Methode – Philosophie in einer wissenschaftlich geprägten Welt. Frankfurt am Main 2006. S. 158. vgl. Toepfer, Georg: Der Begriff des Lebens. In: Krohs, Ulrich; Toepfer, Georg: Philosophie der Biologie. Frankfurt am Main 2005. S. 157 f. a. a. O., S. 166 ff.
Zur Anthropologie des körperlich aufgerüsteten Menschen
119
oder geschädigten Organs übernimmt, ist ein Problem. Eine vollständige Ersetzung eines Organs findet nicht statt, da in einem Funktionsmodell nicht alle Momente des Organs erfasst werden können. Der deutsche Begriff des Leibes ist aufs Engste mit dem des Lebens verknüpft. Etymologisch ist das althochdeutsche Wort „lip“ mit den beiden Verben leben („leben“) und bleiben („pilipan“) verbunden. In seiner ursprünglichen Bedeutung stand der Begriff im Gegensatz zu „wal“, mit dem die auf dem Schlachtfeld Gefallenen bezeichnet wurden, die für den Heldenhimmel bestimmt waren. „Lip“ und „wal“ waren wertbesetzte Begriffe, die nicht nur einen Zustand bezeichnen, sondern zugleich eine kriegerische Leistung würdigen. Der Begriff „Körper“ drang als vom Lateinischen „corpus“ abgeleitetes Fremdwort über das Latein der Ärzteschaft und der Geistlichkeit ins Deutsche. In der Alltagssprache hat sich der Begriff erst ab dem 18. Jahrhundert durchgesetzt. Körper stand für etwas, das auch im medizinischen Sinne objektivierbar ist. Er kann zum Gegenstand einer äußeren Betrachtung gemacht werden wie jedes andere Naturstück auch. Der Körper wandelte sich zu einer physikalischen Kategorie, die für alle voluminösen Körper steht. Er wurde in einen Gegensatz zur Seele gebracht, der Leib in einen Gegensatz zum Geist, was darauf hinweist, dass er als etwas Individuelles dem allgemeinen Anspruch des Geistes entgegengesetzt wurde. Der Begriff des Körpers hat schnell eine erweiterte Verwendung erfahren, wurde als etwas verstanden, das einen Sachverhalt konkretisiert, ihm Gestalt verleiht. Zuletzt wurden Übertragungen auf Sozialphänomene wie Lehrkörper vorgenommen. Er konnte so für alles stehen, das sich räumlich artikuliert oder die körperlich getragene Personalität des Menschen übersteigt und in einen allgemeinen gesellschaftlichen Rahmen stellt. Während sich der Körper als Gegenstand einer naturalistischen Betrachtung fokussieren lässt, kann der Leib intuitiv erschlossen und als der eigene gespürt werden. Darüber hinaus ist er auch kulturhistorisch disponiert, enthält in seiner subjektiven Erfahrung allgemeine Bestände. Der ältere Begriff des Leibes ist umfassender als der naturalistisch reduzierte Körper. Mit dem Leib wird Individuelles, mit dem Körper Überindividuelles verknüpft, was sich in Komposita wie Leibgericht einerseits oder Körperschaft andererseits artikuliert. Er ist eine Limesgestalt, ein naturalisiertes Kulturstück bzw. kultiviertes Naturstück, also weder natural noch kulturell zu fassen. Als historisch-kulturelle Entität ist er ein Vermittlungsprodukt und immer wieder aufs Neue auszulegen. Er weist auch individualgeschichtliche Komponenten auf, ist Ausdruck von Leistungen, die für unser Selbst- und Weltverständnis wesentlich sind. In der Verleiblichung findet die Individualisierung eines allgemeinen geistigen Ausdrucks statt. Erst durch das Empfinden bzw. Selbstgefühl wird aus einer Verkörperung eine Verleiblichung. Hegel benennt die besonderen Vermittlungseigenschaften, die dem Leib zukommen: Allgemeines und Partikulares, Naturales und Geistiges werden in ihm vermittelt. Gegenstand einer Aufrüstung kann nur der Körper, nicht der Leib sein. Wenn wir von einem neuen Typus des Menschen reden, der eine Verbesserung seiner körperlichen Vermögen durch eine technische Aufrüstung erfährt, dann ist es angemessen von sekundärer Leiblichkeit zu sprechen, denn es wird neue Formen der Selbst- und Welterfahrung geben, wenn Schmerzen und Belastungen nicht mehr spürbar, sinnli-
120
Klaus Wiegerling
che Erfahrungen und Leistungsvermögen ohne Training erweiterbar sind. Sekundäre Leiblichkeit verweist auf die technische Transformation des Leibverständnisses. Körperliche Vermögen können nicht nur kompensiert, sondern verbessert und damit neue Möglichkeiten der Steuerung körperlicher Vorgänge sowie der Erweiterung unseres Wirkens geboten werden. Von Leiblichkeit können wir hier nur noch in einem analogen Sinne sprechen. Aber „wie“ sieht eine Selbsterfahrung auf Basis veränderter oder substituierter organischer Dispositionen aus? Leib und Leben sind historischwertende Ausdrücke, die eine biologisch-historische Verstrickung aufweisen und in skalierenden und kalkulierenden Verfahren nicht erfasst werden können. Betreiben wir ein Gedankenspiel um 1) Potentiale von Technologien auszuloten, die bei der Aufrüstung, Umrüstung und Substitution körperlicher Vermögen wirksam sind; um 2) anthropologische Fragen in den Blick zu bringen, die möglicherweise die Anthropologie zu einer historischen Disziplin transformieren; und um 3) Auswirkungen technischer Optionen zur Steigerung körperlicher Vermögen auf unser Selbst- und Weltbild herauszufinden. Selbst- und Weltverständnis hängen wesentlich vom Verständnis des eigenen Leibes ab, der zum einen Ausdruck unserer Verortung in der Welt, zum anderen aber auch Ausdruck eines Potentials ist, mit dessen Hilfe wir die Welt erschließen und in ihr agieren. Die Frage ist nun, ob sich aus der Aufrüstung des Körpers neue Aspekte für leibliche Vermittlungsleistungen und damit neue Sichtweisen auf den Leib als Vermittlungskategorie ergeben? Insbesondere ist zu fragen, ob es einen Wandel im Verhältnis von synchroner und diachroner Vermittlung gibt? Zuletzt geht es auch um eine elementare ethische Frage. Kants Konzept der menschlichen Würde hängt „auch“ an der Idee der Einmaligkeit der menschlichen Existenz. Der Mensch kann nur dann in einem ethischen Sinne praktisch werden, wenn das Sittengesetz durch ein dem Individuationsprinzip unterstehendes Wesen, das in Raum und Zeit eine konkrete Stelle einnimmt, in der Welt realisiert wird. Was aber bleibt vom Menschen, wenn die Einmaligkeit der menschlichen Existenz ins Wanken gerät? Ein aufgerüsteter Körper könnte neue Möglichkeiten der synchronen Vermittlung bieten, etwa in einer komplexer und intelligent werdenden Umwelt neue Wahrnehmungs- und Interaktionsmöglichkeiten, die nicht mehr hirngesteuert sind. Offen bleibt aber, wie eine erweiterte Wahrnehmung mit dem Gesamtorganismus vermittelt ist. Es ist kaum vorstellbar, dass es möglich sein wird, wie ein gesunder Hund zu hören, ohne dass dies Auswirkungen auf unseren psychischen Zustand hätte. Und wie soll man sich vorstellen, dass evolutionäre Effekte, die Jahrmillionen gedauert haben, im Instantverfahren eine Realisierung erfahren? Ein grundsätzliches Problem stellt die diachrone Vermittlung dar, ohne die ein menschliches oder menschenähnliches Wesen nicht vorstellbar ist: 1. ist die Kontinuität der Selbsterfahrung im Wandel der Zeit, d. h. auch im Wandel unserer körperlichen Disposition, eine Bedingung der Identität des Handlungssubjekts, ohne die es keine Zuschreibung von Handlungen und keine Verantwortlichkeit gibt. 2. leistet Historizität die Vermittlung zwischen Einmaligkeit und Allgemeinheit. Die Individualgeschichte ist von der geteilten intersubjektiven Geschichte disponiert. 3. ist in der Historizität auch das Ereignishafte als das Unverfügbare und sich der Berechenbarkeit entziehende mitgedacht.
Zur Anthropologie des körperlich aufgerüsteten Menschen
121
Wie nun könnte die Kontinuität eines transformierten Körpers gedacht werden? Engramme, Einschreibungen in die organische Materie durch die Lebenserfahrung werden in Implantaten nicht stattfinden. Trotz unterschiedlicher Organbelastungen altert der Organismus als ganzer. Wird dies auch beim transformierten Menschen der Fall sein? Implantate unterliegen anderen Alterungszyklen als organische Materie. Der zur Apparatur transformierte Körper wird eine permanente Wartung erfahren, in der es zu einem Austausch von Teilen und Neuprogrammierungen kommt. Es wird selbstgesteuerte organische Entwicklungen ohne graduelle Sprünge als auch additive Hinzufügungen bei Implantaten und Prothesen geben, die eine Steuerung von außen erfahren können.6 Wie könnte nun Historizität als bleibende, aber selektive Prägung des Individuums bei transformierten Wesen aussehen? Natürlich könnte ein Implantat Belastungen protokollieren, um seinen Verschleiß anzuzeigen und Austauschmaßnahmen zu initiieren. Aber nach welchen Kriterien sollen Erfahrungen aufgezeichnet werden? Das leiblich-implizite Wissen wäre im Falle transformierter Menschen reduziert, das explizite dagegen müsste anwachsen. Ein transformierter Körper müsste historische Vermittlungen anders leisten, wenn Erfahrungen kaum physiologische Spuren hinterlassen und defekte Teile einfach ersetzt werden. Zwischenleiblichkeit als besondere leibliche Prägungen, etwa kulturell bedingte Rhythmisierungen, würde keine Rolle spielen. Es ginge nur um die optimale Anpassung an soziale oder ökonomische Erfordernisse, was in unterschiedlichen Sphären unterschiedlich justiert bzw. programmiert werden könnte. Ein leibliches Gedächtnis im Sinne eines impliziten Wissens, über das ein Handwerker oder Musiker verfügt, ist beim transformierten Menschen wohl nur noch eine Marginalie. Wie sollte sich dieses Wissen in intelligenten Implantaten sedimentieren? Technische Funktionalität besteht wesentlich in der Wiederholbarkeit gleicher Abläufe. Genau dies wäre aber im Falle eines Pianisten oder Handwerkers kontraproduktiv. Der Pianist wäre ein Spielautomat, der Handwerker ein Roboter, der die Feinmodellierung, auf die es bei gelungenen Werkstücken ankommt, nur insofern vorzunehmen vermag, als ihm dafür Erfassungs- und Ausführungsschemata zur Verfügung stehen. Implizites Wissen zeichnet sich durch ein gewisses Spiel aus, das in der Verleiblichung seinen Ausdruck findet. Um ein solches Wissen beim transformierten Menschen wirksam werden zu lassen, müsste es explizit gemacht werden, also zu etwas werden, was es seinem Wesen nach gerade nicht ist. Die diachrone Vermittlung wird also zugunsten der synchronen zurückgefahren werden. Der transformierte Mensch wird ein posthistorischer Wesen sein – ein Jetztgenosse im Sinne von Anders, kein Zeitgenosse. Es stellt sich die Frage, ob sich aus der Diskussion der technischen ZweckMittel-Relation Probleme für den ethischen Diskurs ergeben, wenn der Mensch in Zeiten seiner Transformation eine Entindividualisierung erfährt. Ein Herzschrittmacher ist etwas anderes als ein mit dem gesamten Organismus verbundenes Organ. Bei der Schaffung eines Implantats, das eine organische Funktion ersetzen oder regulieren soll, wird, wie bei jeder Nachbildung, etwas artikuliert und etwas desartikuliert. Es gibt kein digitales Double des Organs, sondern nur die Ersetzung 6
vgl. Brenner, Andreas: Leben. Stuttgart 2009. S. 90.
122
Klaus Wiegerling
bestimmter organischer Funktionen. Jede Aufrüstung gründet in einer Bewertung von Organfunktionen. Es werden also nicht alle funktionalen Beziehungen artikuliert, sondern nur die als wesentlich erachteten. Es geht bei posthumanistischen Optionen zur Transformation des Menschen um ein Verfügbarmachen der aufgrund von Krankheit, Schwäche und Verletzung entgleitenden menschlichen Leiblichkeit durch seine Reduzierung auf reine Körperlichkeit. Die Historizität des menschlichen Leibes soll aus dem wissenschaftlichen Diskurs eliminiert werden, da sie sich einem Kalkül, einer modellhaften Betrachtung und damit der Herstellbarkeit entzieht. Durch die fortschreitende informatische Verknüpfung des aufgerüsteten menschlichen Körpers mit einer intelligenten Umwelt, die ihn überwacht und in automatisierten Prozessen steuert, findet auch eine technische, den jeweiligen Rollenfunktionen angepasste Taktung des Körpers statt. Ein durch intelligente Implantate und Prothesen aufgerüsteter Körper und eine informationstechnologisch durchdrungene Lebenswelt weisen eine gemeinsame technische Disposition und Normierung auf und sind entsprechend miteinander verknüpfbar. Eine Entindividualisierung findet möglicherweise auch insofern statt als der Körper des aufgerüsteten Wesens sogar im Raum verteilt gedacht werden kann. Warum sollte dieses Wesen nicht einen zusätzlichen Arm bewegen können, der über das Nervensystem Impulse erhält, aber nicht mehr direkt mit dem Gesamtorganismus verbunden ist? Was bisher nur mittelbar über die Steuerung robotischer Systeme möglich ist, kann dann ohne Bedienungsschnittstelle und mit einer quasitaktilen Rückmeldung erfolgen. Die Einheit des Individuums wird dann nicht mehr im Sinne des Individuationsprinzips, sondern nur noch über eine besondere Integrations- und Vermittlungsleistung zu bestimmen sein, wobei bestimmte Vermittlungsleistungen kein organisatorisches Zentrum mehr benötigen. Es wären neuartige Synthesisleistungen zu erbringen, die den kantischen Grundsatz, dass das Ich im gesamten Organismus waltet, erweitern bzw. sprengen würden. Wenn der Mensch auch in einer technischen Entwicklungsreihe steht, nicht nur in einer Deszendenzreihe, dann stellt sich die Frage, bis zu welchem Punkt er seine Einzigartigkeit und damit Selbstzweckhaftigkeit behält. Wird er in seiner organischen Substanz ersetzbar, findet eine Transformation zu einem Wesen statt, das mit dem derzeitigen Menschen nur noch bedingt etwas zu tun hat. Wird das künftige Wesen, bei aller Komplexität seiner organisch-informatischen Bestände, noch Einmaligkeit und damit Würde beanspruchen können? Findet im aufgerüsteten und in seiner organischen Disposition zunehmend substituierten Menschen eine Befreiung der Mittel von den Zwecken statt, wenn er nicht mehr individuell gedacht und in seinen Komponenten weitgehend ersetzbar ist? Wird dieses technisch wandelbare Wesen, seine eigene Apparatur, eigene Zurüstung sein, ohne einen identischen Kern? Die Zurüstung wäre von ihrem Referenzsystem abgekoppelt und selbständig geworden. Sie böte unterschiedliche Anschluss- und Verknüpfungsmöglichkeiten und müsste nicht in einem bestimmten Zustand bewahrt werden. Die angestrebte Aufhebung der Leiblichkeit geht einher mit der Vision eines verlängerten und vitalen Lebens ohne Leid und körperliche Einschränkung. In Zeiten, in denen der menschliche Körper eine allmähliche Umgestaltung erfährt, ist Gesundheit ein steigerbarer Zustand. Verlorene Potentiale sollen nicht nur wiederhergestellt,
Zur Anthropologie des körperlich aufgerüsteten Menschen
123
sondern bestehende auch verbessert werden. Die Grenze zwischen der Wiederherstellung von verlorenen oder eingeschränkten Vermögen und deren Verbesserung ist fließend. Unser Körper wird eine Sache des Designs. Der Zusammenhang von Alterung und Krankheit wird eine weitgehende Entkoppelung erfahren. Dies wird Auswirkungen auf gesellschaftliche Erwartungen haben. Krankheit wird stärker mit Schuld konnotiert werden. Man wird in einem Gesundheitswesen, das sich in ein Präventionssystem transformiert, damit zu rechnen haben, dass nur noch dem uneingeschränkt Hilfe gewährt wird, der seinen Präventionsverpflichtungen nachkommt. Es wird in hoch technisierten Gesellschaften wohl zwei Menschentypen geben, die durch eine Kluft getrennt sind, die durch keine sozialen Maßnahmen zu überbrücken ist. Auf der einen Seite steht ein bio- und informationstechnologisch verbesserter Typus, der, was seine körperlichen Disposition anbetrifft, im heutigen Sinne wohl nicht mehr als Mensch bezeichnet werden kann. Er wird nicht generell den „alten“ Menschen ersetzen. Vielmehr wird, was bisher durch Schichtenzugehörigkeit, Tradition und individuelle Leistung zur Differenzierung der Gesellschaft beigetragen wurde, vermehrt durch körperliche Selektion geschehen. Das „transhumane“ Wesens der Zukunft wird ein Hybride sein, in den jederzeit technisch eingegriffen werden kann. Die Unmittelbarkeit der eigenen Leiberfahrung wird eine Brechung erfahren. Es wird einen Wandel des individuellen Leibverständnisses geben. Allerdings wird auch der neue Mensch seinen aufgerüsteten Leib als etwas erfahren, das sich nicht abstreifen und vollständig objektivieren lässt. Auch er wird noch verletzlich und sterblich sein, aber er wird anders seine Sterblichkeit erleben, wenn auch später und in vitaleren Zustand. Seine Leiberfahrung wird noch immer eine unmittelbare sein, die aber in einer spontanen Koordinations- und Integrationsleistung erfahren wird und weniger in leiblichem Spüren. Bereits heute haben sich die rechtlichen Verhältnisse in Bezug auf den eigenen Leib durch die Tatsache, dass der menschliche Körper zur biologischen Ressource geworden ist, geändert. Umso mehr ist mit einem beschleunigten Wandel dieser Verhältnisse zu rechnen, wenn es um austauschbare nichtorganische Implantate und Prothesen geht. Die Unverletzlichkeit des Körpers und damit der Eingriff in ihn wird anders bewertet werden, wenn er auf informatischer Basis erfolgt und keine Spuren im organischen Teil des Körpers hinterlässt. Die Exterritorialisierung von Körperfunktionen, die Überprüfung von Vitaldaten und die informatische Verknüpfung mit Apparaturen inner- und außerhalb des Körpers sind bereits möglich. Die permanente Überwachung von Vitalfunktionen und die damit verbundene Fixierung unserer Existenz auf Gesundheit werden nicht nur Auswirkungen auf ein transformiertes Gesundheitswesen, sondern auch auf die menschliche Psyche haben. Unweigerlich führt die Aufrüstung des Körpers zu einer Anmessung der Gesundheit an technische und ökonomische Kategorien wie Effizienz und Funktionalität. Welche Auswirkungen wird die Verschaltung von Körper und Umwelt auf das Verhältnis von Leib und Lebenswelt haben? Nur der historisch disponierte, gespürte und sich positionierende Leib steht in einem Vermittlungsverhältnis zur Lebenswelt, nicht der Körper, der nur eine Umwelt hat. Der Organismus muss sich auf neue Weisen der Interaktion mit der Umwelt einstellen, wenn diese intelligent
124
Klaus Wiegerling
geworden ist und die Komplexität von Umwelt und Gesellschaft eine unsere Aufmerksamkeit übersteigende Interaktion erfordert. Das Anwachsen automatisierter Interaktionsprozesse erscheint wahrscheinlich, aber auch mit Entmündigungstendenzen verbunden. Es wird wohl ein neuartiger gesellschaftlicher Normierungsdruck bezüglich der Funktionalität des Körpers geben. Die von Husserl gestellte Frage nach der Lebenswelt als intersubjektive Normalwelt ist unter dem Aspekt technischer Normierungen neu zu diskutieren. Normalität wird verstärkt an technischen und ökonomischen Abläufen gemessen werden. Technisch erschließen kann man nur einen der Dritten-Person-Perspektive zugänglichen skalierbaren Körper, nicht einen spürbaren und historisch disponierten Leib, der immer wieder aufs Neue ausgelegt werden muss. Die allmähliche Ankündigung von Krankheit, die Einstellung des Körpers auf die Möglichkeit einer Selbstheilung wird nur noch „ein“ Erfahrungstyp von Erkrankung sein. Wahrscheinlich werden wir von Systemen, die unsere Körperfunktionen überwachen, Hinweise auf Störungen bekommen. Wir werden den Leib als etwas Äußerliches erfahren. Die Medizin wird sich als „Body-Engineering“ verstehen. Gesundheit ist dann in erheblichem Maße eine Sache der Verschaltung intelligenter Implantate und Prothesen. Mit der fortschreitenden Substitution des Leibes geht auch dessen technisch bedingte Reduzierung einher. Ein herstellbarer Körper kann in seiner Funktionalität auf Kultur- und Umweltbedingungen eingestellt werden. Körperliche Widerstandserfahrungen im Sinne der Anzeige körperlicher Belastungen werden zugunsten der Ausschöpfung körperlicher Potentiale eingeschränkt. Auch wenn durch solche „Ausblendungstechniken“ Schäden entstehen können, werden wir Steigerungen unserer körperlichen Leistungsfähigkeit erreichen, ohne dass Training und Gewöhnung die zentrale Rolle spielen. Und gewiss ist auch mit der Definition neuer Krankheiten zu rechnen, die sich aus dem Verlust apparativ hergestellter Vermögen ergeben. Krankheiten werden sich vermehrt als technische Probleme darstellen, für die technische Lösungen gefunden werden müssen. Basis der gegenwärtigen Transformationsbestrebungen ist ein positivistisches Wissenschaftsverständnis, das dazu neigt, Modelle mit der Wirklichkeit zu verwechseln. Das zugrunde liegende Menschenbild ist das eines utilitaristisch und pragmatisch agierenden Wesens, das bereit ist, für eine erhöhte Leistungsfähigkeit viel zu tun. Wir gesunden quasi spontan durch das Umlegen eines Schalters und steigern unsere Leistungsfähigkeit durch technische Manipulation. Gesundheit, Wohlbefinden und Leistungsfähigkeit sollen lebensunabhängig und ohne Umweg erreicht werden. Die technische Durchdringung und Aufrüstung der biologischen Disposition des Menschen lässt sich in einen Zusammenhang stellen, den der späte Heidegger erörterte, als er die moderne Technik als Endgestalt des thetischen, also stellenden metaphysischen Denkens bestimmte, das versucht alles verfügbar zu machen. Alles soll berechenbar und das Ereignishafte als das nicht Voraussehbare zum Verschwinden gebracht werden. Der menschliche Körper soll jederzeit gestaltet, verbessert und repariert werden können. Allerdings erfährt die menschliche Verfügungsgewalt eine Art Unterwanderung durch seine Hervorbringungen. Informatische Systemkonfigurationen können bereits heute nur noch bedingt kontrolliert und gesteuert
Zur Anthropologie des körperlich aufgerüsteten Menschen
125
werden. Es ist eine Konsequenz des stellenden Denkens, dass es sich selbst unterwandert, wenn es uns einem Kalkül zu unterwerfen versucht. Als das Denken totaler Berechenbarkeit arbeitet es an seiner eigenen technischen Substitution. Gerade weil es keine Grenzen des Berechenbaren kennt, begrenzt es das prinzipiell transzendierende Denken selbst. Das eigene Leben wird als etwas Konstruierbares bzw. Nachkonstruierbares verstanden. Als solches hat es aber seine Einzigartigkeit und prinzipielle Schutzwürdigkeit verloren. Was veränderbar ist, kann nicht den Anspruch erheben, als solches bewahrt zu werden. Die Versachlichung des eigenen Leibes äußert sich in dessen Transformation in eine skalierbare und unter Laborbedingungen isolierbare Entität. Die Welt mitsamt menschlichem Körper wird zum Gestaltungsmaterial. Der künftige Mensch steht in einer Entwicklungslinie, zu der auch die zweckgeleitete Technik gehört. Technische Zwecke sind aber keine Selbstzwecke. Die Selbstzweckhaftigkeit der leiblichen Existenz ist aber die conditio sine qua non unseres heutigen Selbstverständnisses, nicht zuletzt unserer Würdevorstellung.
126
Klaus Wiegerling
LITERATUR Brenner, Andreas: Leben. Stuttgart 2009. Janich, Peter: Kultur und Methode – Philosophie in einer wissenschaftlich geprägten Welt. Frankfurt am Main 2006. Kornwachs, Klaus: Strukturen technischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. ders.: Die Entortung der Wissenschaft und Universität 4.0. In: Kittowski, Frank; Kriesel, Werner (Hg.): Informatik und Gesellschaft. Festschrift zum 80. Geburtstag von Klaus Fuchs-Kittowski. Frankfurt am Main 2016. Krohs, Ulrich; Toepfer, Georg: Philosophie der Biologie. Frankfurt am Main 2005.
DAS PROMETHEUS-PROJEKT UND DIE MITGIFT DER PANDORA Heinz–Ulrich Nennen Alles geben Götter, die unendlichen, ihren Lieblingen ganz, Alle Freuden, die unendlichen, Alle Schmerzen, die unendlichen, ganz.1
PROLOG Es ist nicht nur unangebracht sondern gefährlich, noch immer zu glauben, Technik sei nichts weiter als ein Werkzeug, dessen man sich nach Lust und Laune bedienen kann. Technik dient nicht, sie herrscht: Wir sind es, die sich anpassen müssen, wenn wir uns, unser Leben, unsere Lebens- und Arbeitswelten, unsere Personalität und Intimität immer weiter adaptieren lassen.– Das Entscheidende an der Technik ist nichts Technisches. Darauf hat Klaus Kornwachs vielfach hingewiesen: Jede Technik braucht eine Hülle, ohne die sie gar nicht arbeiten kann. „Die organisatorische Hülle einer Technik (…) enthält die Anteile an Organisation und deren Regeln (…), die erforderlich sind, um die Geräte adäquat interagieren zu lassen. Dabei kann ein Gerät immer mehr Funktionen realisieren, als in ihm angelegt sind.“2 „Die organisatorische Hülle einer Technik umfasst alle Organisationsformen, die notwendig sind, um die Funktionalität eines technischen Artefakts überhaupt ins Werk setzen zu können.“3
Aber so sehen, erfahren und erleben wir es nicht. Wir glauben vielmehr, uns im Alltag der Technik nur zu bedienen und meinen allen Ernstes, ihre Dienstbarkeit sei etwas, das wie ein Flaschengeist hinzukommt. Wir rufen sie nur, um ihr zu befehlen, uns zu Diensten zu sein, tatsächlich aber verhält es sich anders: „Wir erleben Technik meist unbewusst, sie ist oft unsichtbar, sie funktioniert fast selbstverständlich. Wir halten sie für eine Errungenschaft der Naturwissenschaft und der Zivilisation und beginnen unsere Fragen erst zu stellen, wenn sie eben nicht oder nicht mehr funktioniert. Dabei stellen wir fest, dass wir meist gar nicht wissen, wie und warum Technik funktioniert, wer sie in die Welt gestellt hat, wer damit etwas vorhat und wer damit welche Interessen verfolgt. Und wir stellen auch fest, dass Technik, so gut sie gemeint sein mag, zuweilen gar nicht funktioniert, weil das, was sie zum Funktionieren braucht, gar nicht gegeben ist. Dieses Etwas ist (…) nichts Technisches, sondern eher etwas Organisatorisches (…)“4 1 2 3 4
Goethe, Johann Wolfgang von: Gedichte. Nachlese. Berliner Ausgabe. Berlin 1960 ff. Bd. 2. S. 74. Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. S. 118. ders.: Philosophie der Technik. Eine Einführung; München 2013. S. 22 f. a. a. O., S. 10.
128
Heinz–Ulrich Nennen
Sobald eine neue, revolutionäre Technik aufkommt, verändert sich die Kultur, die Weltanschauung, das Reden und auch das Empfinden. Mit jeder technischen Revolution kommen neue Götter und neue Menschenbilder auf, weil sich die Lebensumstände sehr schnell fundamental wandeln: neue Zeiten, neue Götter. Mit der Götterdämmerung ist zuletzt die Reihe an den Menschen gekommen. Aber anders als diese beherrschen wir die göttliche Scheidekunst nicht, das Gute vom Übel abzutrennen, um dann alles Unerwünschte einfach auf Flaschen zu ziehen. Wir beherrschen weder die Fähigkeit, allein durch Sehen bereits zu wissen, noch können wir uns nonverbal einfach durch Blicke verständigen. Wir müssen Worte machen und sind dabei auf langwierige Diskurse verwiesen, in denen es erst allmählich gelingen kann, komplexe Konstellationen aus den unterschiedlichsten Perspektiven nach und nach in den Blick zu bekommen. Schon gar nicht ist es uns als Menschen gestattet, nach Art der Götter in unseren Ratschlüssen unergründlich zu sein, ohne mit dem Gesetz in Konflikt zu kommen. Zudem müssen wir immer dann, wenn es wirklich wichtig wird, eine selbst fast göttliche Vernunft bemühen, die es uns erst ermöglicht, alle erdenklichen Perspektiven der Reihe nach zu würdigen, nicht nur den Verstand reiner Rationalität, sondern auch Gefühle, Sehnsüchte, Hoffnungen, die Wonnen von Kunst und Erotik und vor allem auch die Erfordernisse einer Psyche, die selbst immer komplexer wird. Also müsste sich eine umfassende Vernunft mit dem Anspruch, den Pantheon aller Götter tatsächlich zu verkörpern, dann auch auf wirklich alles verstehen, was diese nun einmal repräsentieren. Das wahrhaft Göttliche am Menschen dürfte allerdings darin liegen, gar nicht erst Gott zu spielen, weil wir es nicht wirklich könnten. Was bleibt, ist der Trost, dass die Götter ohnehin unsere Erfindungen sind, aus guten Gründen, denn wir müssen immer wieder Maß nehmen, an und mit ihnen. „Der Mensch ist das Maß aller Dinge, der seienden, dass (wie) sie sind, der nicht seienden, dass (wie) sie nicht sind.“5 ARBEIT AM MYTHOS6 Mythen betreiben selbst bereits Aufklärung, daher ist die Arbeit an ihnen so inspirierend. Jeder Zeitgeist erwartet schließlich ureigenste Antworten auf drängende Fragen von epochaler Bedeutung. Und solange es einem dieser Plots gelingt, immer wieder neue Orientierungsmuster zu liefern, wird er weiterhin von überzeitlicher Bedeutung bleiben. 5 6
„Er [Protagoras] sagt nämlich, der Mensch sei das Maß aller Dinge, der seienden, wie sie sind, der nichtseienden, wie sie nicht sind.“ (Platon: Theaitetos 152 a. In: Werke in acht Bänden. Darmstadt 1990. S. 31.) Siehe hierzu: Nennen, Heinz-Ulrich: Der Mensch als Maß. Über Protagoras, Prometheus und Pandora. Hamburg 2018; ders.: Die Urbanisierung der Seele. Über Zivilisation und Wildnis. Hamburg 2018; ders.: Pandora: Das schöne Übel. Über die dunklen Seiten der Vernunft. Hamburg 2017; ders.: Die Masken der Götter. Anthropologie der modernen Welt. Hamburg 2018; ders.: Das erschöpfte Selbst. Erläuterungen zur Psychogenese. Hamburg 2018.
Das Prometheus-Projekt und die Mitgift der Pandora
129
Zwischen Mythos und Logos herrscht eine Dialektik, die sich kreativ in Dienst nehmen lässt, so wie auch Metaphern nicht selten das Verstehen erst möglich machen. Aber die Spekulation, es gebe so etwas wie eine Höherentwicklung vom Mythos zum Logos, entbehrt jeder Grundlage. Beide Weisen der Welterklärung kommen einander gar nicht in die Quere, sie operieren auf völlig anderen Ebenen. Sie können einander aber wechselseitig aufhelfen, wenn sie nur geschickt genug arrangiert werden. Gängige Theorien sind in der Regel ein mixtum compositum aus Mythos und Logos. Irgendwoher muss schließlich die Zuversicht kommen, einer Modellvorstellung und der darauf gegründeten Theorie zuzutrauen, tatsächlich auch leisten zu können, was man sich von ihr verspricht. Genesis und Geltung lassen sich daher zurückführen auf Narrative von überzeitlicher Bedeutung. Die Fundamente aller dieser Meistererzählungen gründen tief im kollektiven Unbewussten. Sie stehen im Bunde mit mächtigen Motiven aus der Welt der Archetypen, Mythen, Metaphern, Symbole und Allegorien. So gelingt es, auf höchstem Niveau immer wieder neue Modellvorstellungen, aber auch Heils- und Unheilsszenarien zu generieren, in denen die entscheidenden Momente, Kräfte und Prinzipien, die im Spiel sind oder sein könnten, mustergültig „personalisiert“ werden.– Wir sind in Geschichten verstrickt und darauf angewiesen, die Welt einzuspinnen in Begebenheiten, die oft phantastische Motive bemühen, was nicht bedeuten muss, dass alles das Phantasterei ist. Götter, Helden, Halbgötter und mythische Figuren sind zwar Projektionen, was aber keineswegs bedeutet, dass sie nichts sind, denn sie stehen als Allegorien immerhin für ganz entscheidende Perspektiven. Als solche lassen sie sich in Dienst nehmen. Sobald solche Plots generiert worden sind, lassen sich ganze Szenarien darstellen, deuten und bewerten. Ob wir damit tatsächlich die Wirklichkeit treffen und nicht vielmehr einfach nur beliebige Vor-Stellungen generieren, das ist die Frage. Nicht von ungefähr betreiben manche Mythen selbst bereits Aufklärung, etwa so wie der Zentralmythos des Abendlandes: In der Frage, ob die Idealzeit in der Vergangenheit oder aber in der Zukunft liegt, kann es der Mythos von Prometheus mit dem Utopischen ohne weiteres aufnehmen.– Das Unheil, dem vormalige Mythen noch entgegen traten, ist längst eingetreten, wenn der Halbgott als Allegorie für den Fortschritt die Bühne betritt, um nach dem Feuerraub in der Frage nach den Folgen und dem Schicksal der Menschheit ganz neue Erklärungsmodelle zu liefern. Als dieser Mythos aufkam, war der Prozess der Zivilisation initialisiert, der „Point of no return“ bereits überschritten und der ungeheure Paradigmenwechsel vom Mythos zur Utopie längst vollzogen. Seither ist jede noch so große Vergangenheit auch nur von gestern und jede verheißungsvolle Zukunft einfach nur ungewiss.– Was Schamanen und Priester über Epochen hinweg noch kompensieren konnten, ist inzwischen zur Gewissheit geworden, die transzendentale Obdachlosigkeit wird zur Grundbefindlichkeit. Und sogar die anonymen Mächte, denen sich die Menschen in vormythischen Zeiten ausgesetzt sahen, kehren inzwischen wieder und feiern fröhliche Urständ als alles umfassende, anonyme System-Gottheiten.
130
Heinz–Ulrich Nennen
Mythen schreiben Geschichte auf ihre Weise, und mit etwas Phantasie lassen sich die Begebenheiten „dahinter“ noch ahnen: Innerhalb weniger Generationen haben sich seinerzeit die Verhältnisse ebenso radikal wie fundamental geändert. Hesiod fabuliert noch vom ehedem einvernehmlichen Verhältnis zwischen Menschen und Göttern, wenn er die vormalige Mühelosigkeit mit der neuerdings aufkommenden Mühseligkeit konfrontiert.– Für ihn ist der ganze Prozess eine einzige Verfallsgeschichte. Der Mythagoge gibt sich untröstlich, tatsächlich demonstriert er aber das notorische Hadern utopischen Ungenügens, etwa wenn er das fünfte Geschlecht derer, die sich vom Acker ernähren, als das von Zeus geschaffene identifiziert und ausruft: „Wäre ich selbst doch nie zu den fünften Männern gekommen, sondern zuvor schon gestorben oder danach erst geboren! Jetzt das Geschlecht ist nämlich das eiserne. Niemals bei Tage werden sie ausruhn von Not und von Arbeiten, nie auch zur Nachtzeit, völlig erschöpft. Und die Götter bescheren drückende Sorgen.“7
Der eigentliche Auslöser für den Prozess der Zivilisation war die Metallurgie: Zunächst Kupfer, dann Bronze und schließlich Eisen.– Nicht von ungefähr spielt der hinkende Erfindergott Hephaistos eine so entscheidende Rolle. Daher auch ist das von Prometheus geraubte Feuer ganz gewiss kein einfaches Herdfeuer. Es handelt sich vielmehr um das Schmiedefeuer, „die“ Allegorie „der“ Technik. Die neue Metallurgie kam um 3500 v. u. Z. auf. Und Hesiod weiß, worauf es ankommt, wenn er hervorhebt, welches der Menschengeschlechter bereits über „schwärzliches Eisen“ verfügt. Tatsächlich geht es dabei um Metall-Legierungen mit neuen Eigenschaften, also um „Stahl“. Es ist eine technische Revolution sondergleichen.– Prometheus steht bei alledem Pate, ursprünglich ein Töpfergott, erschuf er die Menschen aus Ton und seine Freundin, die Stadtgöttin Athene haucht ihnen die Seele ein. Aber der „Mensch“, den Prometheus erschafft, entspricht nicht dem „alten Adam“, sondern einer gänzlich neue Menschentypologie: Die Geschöpfe des Prometheus sind Zivilisationsmenschen in ihrer zuvor nie gesehenen Vielfalt als Herrscher, Priester, Krieger, Beamte, Gutsbesitzer, Bürger, Städter, Händler, Matronen, Hetären, Handwerker, Untertanen und eben auch Bauern, Leibeigene und Sklaven. Zuvor gab es nur zwei „Menschentypen“, abhängig von ihrer stets nomadischen Subsistenz- und Erscheinungsweise, einerseits Hirten und andererseits Sammler und Jäger. Dann aber „schuf“ Prometheus die neuen Menschentypen aus vielen verschiedenen Ethnien, Clans und Geschlechtern in den multikulturellen Schmelztiegeln neuer urbaner Welten, die als naturenthobene, künstliche Lebensräume bisher ungeahnte Möglichkeiten der Arbeitsteilung aber eben auch der Entfremdung boten. Und der sagenumwobene Gilgamensch, König von Uruk im Zweistromland zwischen Euphrat und Tigris, errichtete etwa 3000 Jahre v. u. Z. die vielleicht erste Stadt-Mauer der Welt.8 7 8
Hesiod: Werke und Tage. In: Werke in einem Band. Berlin, Weimar 1994. S. 52 f. vgl. Maul, Stefan: Das Gilgamesch-Epos. München 2014(6); sowie: Schrott, Raoul; Rollinger, Robert; Schretter, Manfred: Gilgamesh: Epos. Darmstadt 2001.
Das Prometheus-Projekt und die Mitgift der Pandora
131
METALL: LUXUS, REICHTUM UND KRIEG Mit dem Metall kommt nicht nur ein neuer Werkstoff – es kommt das Geld in die Welt: Metall ist universell konvertierbar, das ist, was zählt. Erstmals gibt es die Möglichkeit, Vermögen zu horten, um damit zu spekulieren und allein durch Geld zu Macht und Einfluss zu kommen. Das war vorher so nicht möglich, weil sich nämlich mit verderblichen Gütern nur schwer spekulieren lässt und weil es per se gar kein Eigentum gab.– Das Märchen von Hans im Glück führt vor Augen, was es damit auf sich hat: Ein Goldklumpen so groß wie sein Kopf, den Hans von seinem Meister für geleistete Dienste erhält, drückt ihm unangenehm auf die Schulter, außerdem kann er seinen Kopf nicht mehr grade halten. Süffisanter kann subtile Kritik am Privateigentum kaum ausfallen. Metall verdirbt nicht, es lässt sich im Verborgenen horten und beizeiten hervorholen. Allein das Gerücht, jemand verfüge über Metall, erzeugt noch immer Kreditwürdigkeit erster Güte. Erstmals in der Geschichte der Menschheit stand damit ein universell konvertierbares und zugleich waffenfähiges Material zur Verfügung: Metall ist Geld und Geld ist Metall.– Die soziokulturellen Folgen dieser Technik sind einschneidend, umfassend und radikal. Das ist „die“ Wendestelle in der Menschheitsgeschichte, denn von nun an wurde Macht verfügbar, disponibel und gewissermaßen käuflich. So wurde der Prozess der Zivilisation in Gang gesetzt. Es entstand eine historische Dynamik, die nie zuvor geherrscht hat. Metall, das bedeutet Schmuck, aber auch Waffen, Geld und Macht. Man kann sich gegebenenfalls die Freiheit damit erkaufen oder sich alle erdenklichen Freiheiten herausnehmen – in diesen frühen Zeiten allemal. Metall ist universell konvertierbar, damit lässt sich Handel betreiben und spekulieren. Waffen können erworben werden für Raubzüge, mit denen Söldner bezahlt werden für Beutezüge, um Reichtümer an sich zu raffen, mit denen wiederum Waffen gekauft werden können … Geld schafft Distanz, es erlaubt, sich die Umwelt tatsächlich vom Leibe zu halten. Reichtum verschafft Möglichkeiten, sich weder der Natur noch der Gesellschaft anpassen zu müssen, sondern vielmehr Verhältnisse zu schaffen, die den eigenen Wünschen, Bedürfnissen und Vorstellungen entsprechen.– Schon seit Urzeiten verstehen es Menschen, sich souverän abzusetzen von der Natur. Es ist eine im Übrigen recht erfolgreiche Anpassungsstrategie, sich nicht wirklich anpassen zu müssen, sondern das Spiel nach eigenen Regeln zu spielen. Urbanisierung ist die ultimative Steigerung menschlicher Kultur. Wildnis wird endgültig ausgegrenzt und „Natur“ als solche wird nur noch möglichst „perfekt“ reinszeniert. Aber im Inneren dieser hochzivilisierten Gesellschaften kommt eine neue Art von Wildnis auf. Mit dem Aufkommen von Metall wird dieser Ablösungsprozess von der Natur wirklich perfekt, denn das Geld macht den universellen Tausch möglich. Alles wird von Stund an konvertierbar, disponibel und käuflich. Wer über Geld verfügt, kann die eigene Binnenwelt gegen alle widrigen Umstände abschotten. Mit Geld lassen sich Wünsche erfüllen, die man zuvor nicht nur nicht zu träumen gewagt hätte, sondern die schlichtweg noch gar nicht geträumt werden konnten.– Städte kommen auf, mit Luxus, Kunst und Schönheit und einer zuvor unvorstellbaren Lebensweise nach Art der Götter, fernab jeglicher Notwendigkeit.
132
Heinz–Ulrich Nennen
Städte, Königreiche, unermesslicher Reichtum ebenso wie politische Unterdrückung, großangelegte kriegerische Raubzüge, die Versklavung ganzer Völkerschaften, Zwangsarbeit, Ausbeutung in großem Stil und auch die Finanzierung von Priesterschaften, die all das als vom Himmel befohlen auslegten, konnte sich leisten, wer in diesen Zeiten über Metall und damit über uneingeschränkt konvertierbare Macht verfügte.– Was die Metallurgie seinerzeit ausgelöst hat, ist unermesslich. Die Folgen sind weitreichend, sie erfassen bald schon ganze Länder. Es ist die Frage, ob es sich mit der Digitalisierung, mit dem Internet und der Globalisierung dieser Tage nicht ähnlich verhält. Auch gegenwärtig reichen die Folgen einer neuen Technologie weit über die Technik hinaus, sie stürzen sämtliche vormaligen Verhältnisse um und erschaffen sie neu – nach ihrem Bilde. Mit dem Metall kommt urplötzlich eine vollkommen neue Machtfülle, verbunden mit irrsinnigem Reichtum in die vormals so wohlgeordnete, vor allem doch mehr oder minder sozial ausgewogene Welt. In dieser Szenerie ist daher auch die Pandora nicht etwa eine Allegorie für die Frau als solche. Sie ist keineswegs wie Eva die mythisch erste Frau überhaupt, obwohl der Plot etwas von einem Paradiesmythos hat.– Die Pandora ist ein ungemein eindrucksvolles Kind dieser neuen Zeit. Sie ist die mondäne Städterin, vielleicht auch die sündhaft teure, hochgebildete Kurtisane, denn sie verkörpert, was fortan möglich werden wird in diesen ersten Städten: Menschen, die wie Götter auftreten, die mitunter wohl auch wie solche verehrt werden. DIE ZWEI SEITEN DES FORTSCHRITTS Prometheus und Epimetheus verkörpern die beiden Seiten des Fortschritts. Das Brüderpaar ist eine Allegorie für das Phänomen, dass es am Ende anders kommt als gedacht. Erst wenn sich nach der Promethie allmählich die Epimethie abzuzeichnen beginnt, mit allen Folgen und Nebenwirkungen, an die man immer erst hinterher denkt, dann wird sich zeigen, dass der technische, der humane und der kulturelle Fortschritt nur äußerst selten gemeinsame Sache machen. Die Arbeit am Mythos hat sich im Verlauf der Zeiten an beiden Figuren zu schaffen gemacht. Die vormalige Tadellosigkeit des angeblich so menschenfreundlichen und gegen die Götter so rebellischen Feuerbringers wurde allmählich relativiert, denn dahinter verbergen sich historisch einschlägige Erfahrungen von katastrophalem Ausmaß. Aber noch immer ist, neben dem schillernden Bruder, die Figur des angeblich so unterbelichteten Epimetheus nicht entsprechend aufgewertet worden. Wenn Pro-Metheus bereits seinem Namen nach alles im Voraus bedenkt und der so minderbemittelte Bruder Epi-Metheus immer erst hinterher denkt, eben wenn es zu spät ist, warum sieht der so weit vorausdenkende Feuereiferer dann nicht besser in die Zukunft und begreift die Risiken der eigenen Hyperaktivität? Der Mythos zeigt, was zu tun ist: Wir sollten auch die Perspektiven des Bruders wahrnehmen. Mögen die Projektplanungen der Macher noch so hochtrabend sein, es gilt die Vorhaben von ihrem Ende her zu beurteilen. Erst nachdem Epimetheus die Abschlussbilanz aufgemacht hat, wird man Näheres wissen: Ob wieder nur Hoffnungen, Illusionen und leere Versprechen ins Kraut geschossen sind.
Das Prometheus-Projekt und die Mitgift der Pandora
133
Ist Prometheus nicht einer, der immer wieder einen neuen Plan hat, stets aber scheitert? Einer, der mit besten Absichten größtmögliche Katastrophen nicht nur für sich, sondern auch für die von ihm so geliebten Menschenkinder heraufbeschwört? Wäre es nicht besser, er wäre angekettet geblieben, auf dass ihn in der Tat kein Mensch jemals wieder zu Gesicht bekommt?– Es scheint, als ginge es diesem Helden des Fortschritts ganz im Sinne der zweiten Strophe aus der „Ballade von der Unzulänglichkeit menschlichen Planens“ aus der „Dreigroschenoper“: „Ja, mach nur einen Plan Sei nur ein großes Licht! Und mach dann noch ’nen zweiten Plan Geh’n tun sie beide nicht.“9
DAS SCHÖNE ÜBEL UND DIE BÜCHSE DER PANDORA Aus Sorge um die Menschheit warnt Prometheus den Bruder, niemals ein Geschenk der Götter anzunehmen. Das lässt die Differenzen erahnen, die sich nunmehr zwischen Menschen und Göttern auftun. Der Mythos schildert diese Götterdämmerung, wie es zur Demission der glücklichen Götter Athens kam: Aufgrund der Erfindung immer neuer Technologien entstand unter Städtern der Eindruck, gar nicht mehr so sehr auf Gedeih und Verderb vom Wohlwollen der Götter abhängig zu sein. Es blieb daher nicht aus, dass man sehr viel selbständiger und auch selbstbewusster auftrat. Ein neuer Zeitgeist kam auf, Philosophen betraten die Bühne, weil die Götter immer schlechter gedacht wurden. Nur zu oft wurden sie einfach nur noch lächerlich gemacht, in dieser Phase der griechischen Antike, einer Sternstunde der Menschheitsgeschichte. Wenn wir den Mythos um die Entsendung der ebenso geheimnisvollen wie schwermütigen Luxusgöttin Pandora ernst nehmen, dann waren himmlische Güter zuvor samt und sonders den Göttern zu verdanken. Mit dem Prometheusfeuer der Technik wird der Mensch aber nun selbst zum Produzenten. Fortan wurden mehr und mehr dieser göttlichen Güter selbst produziert, allerdings viel zu oft mit Pferdefuß: Das von Menschen geschaffene Bonum ist stets mit einem Malum behaftet. Sämtliche vom Menschen selbst produzierten himmlischen Güter sind nur zu oft mit exorbitanten Übeln verknüpft. Um diesen unheilvollen Nexus ins Bild zu setzen, wurde im Mythos die schillernde, umfassend göttlich begabte Pandora ersonnen. Die Götter gaben ihr die hochgefährliche Mitgift mit auf den Weg, ein hermetisch versiegeltes Gefäß als böse Morgengabe an die junge, reichlich übermütige Zivilisation. Das war keine Rache, denn zugleich zeigt sich, wie wohlwollend die Götter eigentlich sind. Sie treten wie Mentoren auf, sind weder rachsüchtig noch neidisch, sondern eher wohlwollend, ja sogar konziliant. Und schließlich, beim Aufkommen der Zivilisation, leiten sie mit einer imposant honorigen Geste selbst die Götterdäm9
Brecht, Bertolt: Dreigroschenoper. In: Werke. 30 Bd. Frankfurt am Main 1988–2000. Bd. 11. S. 145.
134
Heinz–Ulrich Nennen
merung ein und übergeben dem Menschen, was zuvor in ihrer Obhut lag. Bevor sie aber endgültig abtreten, demonstrieren sie noch ein letztes Mal ihre ultimative Kunst, das Gute vom Üblen zu trennen.– Genau diese Kunst hatte schließlich auch die Paradiesschlange in Aussicht gestellt, das Gute vom Bösen unterscheiden zu können. Es geht also eigentlich um die göttliche Scheidekunst, eine „Alchemie“, die sich darauf versteht, das Üble gar nicht erst aufkommen zu lassen, es zu konzentrieren, auf jeden Fall abzusondern, einzuschließen, um es ganz auszuschließen vom Sein. Betrachten wir daher sämtliche dieser Errungenschaften aus der Perspektive des Epimetheus, dann hat alles seinen Preis, alle vom Olymp auf die Erde heruntergeholten Schätze: Reichtum, Luxus, Schönheit, nicht zuletzt Hochkultur, Wissenschaft und Technik, Kunst, Literatur, Musik und Theater. Alles Erdenkliche überbrachte Pandora im Zuge der Zivilisation, aber zugleich hatte sie als Mitgift die Büchse der Pandora mit im Gepäck und damit auch das, was bei allen himmlischen Gütern offenbar einfach mit dazugehört, das mitproduzierte Übel. Pandora steht allegorisch für den ungeheuren Reiz, der vom urbanen Luxusleben ausgeht. Sie ist eigentlich nicht von dieser Welt, ebenso wie das Glück der Götter nicht wirklich von dieser Welt sein kann. Alles muss teuer erkauft werden, denn das mitproduzierte Elend ist wie ein Fluch, mit dem die menschlich produzieren Göttergaben belegt sind. Pandora setzt nun diesen unglückseligen Nexus ins Bild: Als schönes Übel verkörpert sie den Teufelspakt, dass Technik nicht einfach nur funktioniert, sondern auf nichttechnischen Voraussetzungen beruht, die selbst wiederum problematisch sein können. Die schillernde schöne Pandora repräsentiert den gediegenen Anspruch auf exorbitanten Luxus. Die Quellen geben aber viel zu wenig über sie her, so dass wir uns fragen, was wohl in ihr vorgehen mag, wo sie doch nun wirklich umfassend göttlich begabt ist.– Hier wäre eine weiterführende Arbeit an ihrem Mythos vonnöten: Es kann nicht sein, dass sie so farblos ist bei diesen Talenten. Es kann ebensowenig sein, dass die Welt nicht schon sehr viel weiter fortgeschrittener ist, bei diesen göttlichen Gaben. Vermutlich soll uns diese Figur genau das vor Augen führen, dass jeder Fortschritt auch mit Rückschritten einhergeht, dass mancher „Fortschritt“ viel zu teuer erkauft wird. Einstweilen sehen wir die göttliche Schöne als Allegorie für den Luxus und für jene unerklärliche Melancholie inmitten perfekter künstlicher Paradiese, wie sie nicht selten gerade Ausnahmekünstler befällt. Bei allen Talenten ist sie von einer ungeheuerlichen Empfindsamkeit, eine labile Diva, die an ihrer eigenen Inspiration leidet. Rein äußerlich ist sie begehrt aufgrund ihrer Kunst, ihrer Schönheit und ihrer Prominenz, so dass sich erfolgreiche Jäger nur zu sehr gern mit ihr schmücken. Mitunter ist sie nicht ganz bei sich, das lässt sie passiv werden und macht sie zu einer Trophäe, wie auch die Helena kaum mehr ist als ein Zeichen des Erfolgs. Wer die Schönste aller Frauen in seinen Besitz brachte, war König unter den Königen und damit der Mächtigste unter den Jägern. Ihrer ganzen Erscheinung nach entspricht die Pandora einer erst mit Zivilisation und Eigentum aufkommenden, zuvor nie dagewesenen, völlig neuen sozialen Rolle der Frau im Spektrum zwischen Heilige und Hure. Auf der einen Seite ist da die im Hause eingeschlossene Matrone: eine Frau von hohem Stand, die gewisse
Das Prometheus-Projekt und die Mitgift der Pandora
135
Ansprüche hat, die als Ehefrau, Hausherrin und Mutter durch legitime Erben ihrem Gatten die Nachkommenschaft sichert, auf dass dieser seinen Reichtum über die männliche Linie weiter vererben kann. Und auf der anderen Seite ist da die öffentliche Person der hoch begehrten, begabten und gebildeten Hetäre, die sich nicht nur auf Kunst und Erotik, sondern eben auch auf Philosophie versteht. Eines der Übel, die sich in der Büchse der Pandora befunden haben müssen, ist neben Herrschaft und Versklavung ganz gewiss auch das Eigentum. Das alles sind Übel, weil sie die höchsten Kosten und das größte Elend verursachen, bei einer geringen Rate von Glück für nur einige Wenige. Eigentum zieht den Anspruch auf Erbschaft nach sich, unterminiert aber das Prinzip der vormaligen Solidarität. Anders als unter Jägern, wo der Bessere das höhere Ansehen hatte, untergräbt der Nepotismus fortan die Prinzipien der angeblichen Leistungsgesellschaft. Es sind eben keineswegs die Besten, denen die hohen Ämter zufallen, wollte man das anders haben, dürfte man wie im mustergültigen Staat von Platon die Kinder nicht mehr den Familien, sondern müsste sie dem Staat überantworten. Gleichsam als Gegengewicht zur privatisierenden Matrone entsteht wie aus der Retorte ein gänzlich neuer Frauentyp im Herzen der Städte, auf den öffentlichen Plätzen, in den Metropolen der frühen Reiche. Dafür steht die Pandora Modell: Es ist die Femme fatale, die sündhaft teure Kurtisane, die Lola aus dem Blauen Engel.– Sie ist eine Person des öffentlichen Lebens, ein Luxusobjekt par excellence, ein Status-Symbol, eine Kunst-Identität, eine Phantasmagorie. Hesiod ist kein Verächter der Frauen, er warnt aber vor diesen Verführungen: Pandora verkörpert die neue urbane Lebensweise der Reichen und Schönen. Sie ist eben auch eine mitbedingte Nebenfolge des neuen Reichtums, der mit dem Metall, dem Geld und dem Eigentum in die Welt gekommen ist. Sie ist der Anfang vom Ende, eben nicht selten der soziale, psychische und finanzielle Ruin ihrer Verehrer. Dort also, in den neuen Städten, wo Öffentlichkeit erstmals entsteht, wo ein zuvor ungeahnter Luxus und eine neue urbane Oberschicht aufkommt, dort konnte man reich werden und es den Göttern an Lebensqualität, Wonnen des Glücks und vor allem in der sozialen Wertschätzung gleichtun.– Das Leben ist ein Kampf um Heu, so hat der geheimnisvolle niederländische Maler Hieronymus Bosch in seinem Triptychon Der Heuwagen den Kampf ums Sozialprestige gespenstisch in Szene gesetzt.10 Die Klage gegen die Götter, sie hätten die Pandora aus purer Rachsucht entsannt und mit allen erdenklichen Übeln ausgestattet, lenkt davon ab, dass ein Zusammenhang besteht zwischen Luxus und Elend, Gütern und Übeln, Licht und Schatten – Pandora ist die Allbeschenkte, als Allegorie verkörpert sie umfassend alles, was mit der Zivilisation in die Welt gekommen ist: Nie dagewesene Möglichkeiten im Guten wie im Schlechten, wovon man zuvor nicht einmal zu träumen gewagt hätte. Wir deuten den Mythos von Prometheus immer nur von der prometheischen Seite, sehen immer nur die Vorzüge der Zivilisation, die Schönheit, die Attraktivität und das Verführerische an der Pandora und ihren Gaben. Wir ignorieren dagegen oder sehen zu spät, was uns die epimetheische Sicht derselben Angelegenheit früh 10
Hieronymus Bosch: Der Heuwagen (ca. 1515). Prado, Madrid.
136
Heinz–Ulrich Nennen
bereits auch hätte vor Augen führen können, dass eben alles, wirklich alles seinen Preis hat, alle erdenklichen Folgen und Nebenwirkungen. Daher sind die tatsächlichen Preise für neue Errungenschaften oft viel zu hoch, weil sich und ganz und gar nicht rechtfertigen lässt, was dabei alles mit auf dem Spiel steht. Die Fesselung des Prometheus am Felsen im Kaukasus und seine spätere Befreiung durch Herakles, könnte ein Hinweis sein darauf, dass der Gott des Fortschritts den Menschen längere Zeit verborgen gewesen sein muss. Sie bekamen ihn offenbar geraume Zeit nicht wieder zu Gesicht – was als Anspielung auf eine längere Phase der Agonie verstanden werden kann. Und tatsächlich dürften die frühen Städte und Gesellschaften äußerst instabil gewesen sein. Es genügt eben nicht, nur über die Technik des Städtebaus zu verfügen. Das ist das Credo des Protagoras im gleichnamigen Dialog bei Platon, wo dieser seine Variation des Mythos vom Prometheus vorbringt, um damit zu demonstrieren, dass Technik allein nicht genügt. Man muss darüber hinaus auch die Staatskunst beherrschen, ein Gemeinwesen politisch zu stabilisieren, weil ansonsten alles bald schon wieder im Chaos versinkt.– Die Gründe, warum die frühen Städte immer wieder in sich zerfielen, liegen eigentlich auf der Hand, denn die Verhältnisse in diesen frühen Stadtstaaten dürften abenteuerlich gewesen sein. „So versuchten sie denn, sich zu vereinigen und zu erhalten, indem sie Städte gründeten. Aber als sie zusammengetreten waren, da taten sie wieder einander Unrecht und Schaden an, weil sie eben die Kunst, den Staat zu verwalten, noch nicht besaßen, so dass sie sich von neuem zerstreuten und umkamen.“11
11
Platon: Protagoras. In: Sämtliche Werke. Berlin [1940]. Bd. 1. S. 74.
Das Prometheus-Projekt und die Mitgift der Pandora
137
LITERATUR Brecht, Bertolt: Werke. Große kommentierte Berliner und Frankfurter Ausgabe in 30 Bänden. Berlin, Weimar, Frankfurt am Main 1988–2000. Goethe, Johann Wolfgang von: Berliner Ausgabe. Berlin 1960 ff. Hesiod: Werke in einem Band. Berlin, Weimar 1994. Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. ders.: Philosophie der Technik. Eine Einführung. München 2013. Maul, Stefan: Das Gilgamesch-Epos. München 2014. Nennen, Heinz-Ulrich: Der Mensch als Maß. Über Protagoras, Prometheus und Pandora. Hamburg 2018. ders.: Die Urbanisierung der Seele. Über Zivilisation und Wildnis. Hamburg 2018. ders.: Pandora: Das schöne Übel. Über die dunklen Seiten der Vernunft. Hamburg 2017. ders.: Die Masken der Götter. Anthropologie der modernen Welt. Hamburg 2018. ders.: Das erschöpfte Selbst. Erläuterungen zur Psychogenese. Hamburg 2018. Platon: Werke in acht Bänden. Darmstadt 1990. Schrott, Raoul; Rollinger, Robert; Schretter, Manfred: Gilgamesh: Epos. Darmstadt 2001.
III. ETHIK DER TECHNIK: KÖNNEN WIR WOLLEN, WAS WIR TUN?
HINWEISE ZUR TECHNIK FÜR EINE WELT MIT ZWÖLF MILLIARDEN MENSCHEN1 Franz Josef Radermacher Ist für zwölf Milliarden Menschen eine balancierte, auskömmliche, friedliche und reichhaltige Welt denkbar? Und was sind die Alternativen? Welche Rolle hat in diesem Kontext die Technik? Und wie könnte eine Technik aussehen, die für eine solche Welt geeignet ist? DIE LAGE IST SCHWIERIG Die Welt sieht sich vor der Herausforderung, eine nachhaltige Entwicklung zu erreichen. Es ist eine große Aufgabe, die dominierenden gesellschaftlichen Subsysteme der modernen Zeit und ein nachhaltigkeitskonformes Wachstum zu gestalten. Dabei soll gleichzeitig ein (welt-)sozialer Ausgleich, ein Schutz der ökologischen Systeme und die Lösung des Klimaproblems erfolgen. Dies ist allenfalls dann erreichbar, wenn sich die Wechselwirkung zwischen den Staaten in Richtung einer Weltinnenpolitik bewegt, eine Forderung, die auf Carl Friedrich von Weizsäcker zurückgeht. In diesem Rahmen könnten Forderungen eines Weltethos und des interkulturellen Humanismus lebenspraktisch realisiert werden.2 Eine adäquate Regelsetzung würde bewirken, dass es sich ökonomisch nicht lohnt, systematisch gegen vereinbarte Regeln und legitime Interessen anderer zu operieren. Und unter solchen Regeln könnte der Innovationsprozess diejenigen Technologien hervorbringen, die zwölf Milliarden Menschen eine lebenswerte Zukunft eröffnen. Das Hervorbringen geeigneter Innovationen – und die Probleme in der Folge der Durchsetzung weniger geeigneter Innovationen – hat Klaus Kornwachs in seiner Arbeit vielfach beleuchtet.3 Jetzt erforderliche Innovationen müssen im Besonderen ein neues 1
2
3
Ich danke Frau Prof. Dr. E. Herlyn für die vielfältige Unterstützung bei der Erarbeitung dieses Textes. Der Text basiert wesentlich auf einem Beitrag zur Publikation: Kreibich, Rolf; Lietsch, Fritz (Hg.): „Zukunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhundert – inspiriert vom Visionär Robert Jungk. München 2015. S. 122–132. vgl. Bummel, Andreas: Internationale Demokratie entwickeln. Für eine Parlamentarische Versammlung bei den Vereinten Nationen. Ein Strategiepapier des Komitees für eine demokratische UNO. Stuttgart 2005; Held, David: Soziale Demokratie im globalen Zeitalter. Berlin 2007; Köhler, Horst: Für eine neue Kultur der Zusammenarbeit mit Afrika. Rede von Bundespräsident a. D. Horst Köhler beim Afrika-Kongress der CDU/CSU-Fraktion. Berlin, Deutscher Bundestag, 16. März 2016; Piketty, Thomas: Das Kapital im 21. Jahrhundert, München 2014. vgl. Kornwachs, Klaus: Technikfolgenabschätzung – Reichweite und Potential. Ein Symposium im Amerika Haus Stuttgart 1988. Stuttgart 1991; ders.: Bedingungen und Triebkräfte technologischer Innovationen. Beiträge aus Wissenschaft und Wirtschaft. Reihe „achtech dis-
142
Franz Josef Radermacher
Energiesystem beinhalten, dass den Bedingungen „überall verfügbar“, „umweltfreundlich“, „klimaneutral“ und „bezahlbar“ erfüllt. Auf der Ressourcenseite wäre gleichzeitig der Übergang zu einer stärkeren Nutzung erneuerbarer Ressourcen erforderlich. Die Chancen zur Erreichung dieses Ziels sind bedauerlicherweise alles andere als gut, da sich das weltökonomische System als Folge der Globalisierung in einem Prozess zunehmender Entfesselung und Entgrenzung befindet und dies im Rahmen einer „explosiven Beschleunigung“ und unter teilweise inadäquaten weltweiten Rahmenbedingungen. DIE UMWELT- UND RESSOURCENFRAGE – DIE BEWÄLTIGUNG DER AKTUELLEN KNAPPHEITSPROBLEME Im Kontext der Globalisierung erweist sich der Zugriff auf Ressourcen und das Recht auf Erzeugung von Umweltbelastungen als großes Thema. Ohne Ressourcenzugriff kein Wohlstand, doch bei übermäßigem Zugriff droht ein Kollaps. Wer kann bzw. wer darf auf Ressourcen in welchem Umfang zugreifen? Das kann eine Frage von Krieg und Frieden werden. Das rasche Wachstum der Weltbevölkerung verschärft die Situation signifikant. Die Menschheit bewegt sich mit Blick auf 2050 in Richtung von zehn Milliarden Menschen und, wenn die Weltgemeinschaft nicht aufpasst, für 2100 in Richtung von zwölf Milliarden Menschen, davon allein vier Milliarden in Afrika. Hinzu kommt das Hineinwachsen von hunderten Millionen weiterer Menschen in ressourcenintensive Lebensstile. Es könnte deshalb in den nächsten Jahrzehnten trotz massiver Steigerung der Nahrungsmittelproduktion hinsichtlich der Ernährung der Weltbevölkerung eng werden. Hier drohen massive Probleme und Konflikte. Die anhaltenden Konflikte und damit zunehmende Migrationsbewegungen aus Afrika und dem Nahen Osten geben einen Vorgeschmack auf das, was passieren könnte.4 KOLLAPS ALS MÖGLICHE ZUKUNFT Ein Kollaps hängt mit den Möglichkeiten der Aushebelung der Demokratie über Globalisierung zusammen, mit den absehbar gefährlichen Möglichkeiten technischer Intelligenz und technischer Systeme zur Substituierung auch anspruchsvoller Tätigkeit und der Gefahr einer über Technik verwirklichte Totalkontrolle über den Menschen, vielleicht verbunden mit einem Programm vom Typ „Brot und Spiele“. Andere Risiken resultieren aus einer eventuellen Klimakatastrophe, aber auch aus
4
kutiert“. München Berlin 2007; ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012; ders.: Einführung in die Philosophie der Technik. München 2013. vgl. Radermacher, Franz Josef: Balance oder Zerstörung. Ökosoziale Marktwirtschaft als Schlüssel zu einer weltweiten nachhaltigen Entwicklung. Wien 2002; sowie: Radermacher, Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhundert. Hamburg 2007; überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive. Hamburg 2011.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen
143
dem sogenannten „Trilemma der Globalisierung“.5 Sollen Verhältnisse wie nach dem 30-jährigen Krieg oder heute in Indien für die unteren Kasten oder in Brasilien oder Südafrika für eine Großzahl der Menschen vermieden werden, brauchen wir die gleichzeitige Verwirklichung von Markt und Nachhaltigkeit, eine Globalisierung der Demokratie und des Finanzausgleichs und ausreichende ökologisch-soziale Regulierungsvorgaben für die Märkte – national und weltweit. Wenn wir das alles erreichen wollen, wird das wahrscheinlich nur als Reaktion auf große Krisen in der richtigen Dosierung und in der richtigen Reihenfolge gelingen. DIE ROLLE VON INNOVATIONEN: WAS BRINGT DIE ZUKUNFT? Das in Europa erfundene „Betriebssystem der modernen Welt“ entwickelte sich zur globalen „Wohlstandsmaschine“. Technische Innovationen sind der Schlüssel für immer mehr Wohlstand. Die Märkte sind dabei im Sinne von Schumpeter6 der stärkste Mechanismus zur Schaffung von Innovationen und ein zentrales und unübertroffenes Element zur Hervorbringung von Wohlstand. Ohne ein weltweites Marktsystem ist eine Zukunft in Wohlstand für die ganze Welt nicht vorstellbar. Abhängig von der spezifischen Regulierung sind enorm vielfältige Marktausprägungen möglich: in Form eines Manchester-Kapitalismus, einer sozialen Marktwirtschaft, eines Casino-Kapitalismus, eines Merkantilismus oder eines Staatskapitalismus (wie er heute in China besteht). Natürlich kann auch eine stärkere Gemeinwohlorientierung und/oder ein soziales Unternehmertum7 realisiert werden. Als Ergebnis und Voraussetzung für eine bessere Welt gilt die Hoffnung wichtigen Innovationen im Bereich Ressourcen, im Besonderen das oben beschriebene neue Energiesystem, das eine zentrale Bedeutung besitzt. WIESO IST DER MARKT SO WICHTIG? Markt bedeutet immer Wettbewerb unter Regeln, hier besteht eine Analogie zum Sport. Der Wettbewerb bringt jeweils die Leistung, d. h. die Effizienz, hervor. Die Folgen: ein gutes Input-Output-Verhältnis, niedrige Kosten, schnelle Prozessierung und große Volumina. Die Regeln geben dem jeweiligen Markt mit seinen spezifischen Merkmalen die Effektivität – genauso wie in einer Sportart.
5 6 7
vgl. Radermacher, Franz Josef: Das Trilemma der modernen Welt. FAW/n Report. Ulm 2013; Rodrik, Dani: Globalization Paradox: Democracy and the Future of the World Economy. New York 2012. vgl. Schumpeter, Josef: Theorie der wirtschaftlichen Entwicklung. Berlin 1912; Neuauflage: Berlin 2006. vgl. Radermacher, Franz Josef; Spiegel, Peter; Obermüller, Marianne: Global Impact – der neue Weg zur globalen Verantwortung. München 2009; Yunus, Muhammad: Building Social Business. The New Kind of Capitalism that Serves Humanity’s Most Pressing Needs. New York 2011.
144
Franz Josef Radermacher
Die marktschaffenden Regeln bilden somit ein erstes marktstrukturierendes Restriktionssystem und sind von wesentlicher Bedeutung dafür, dass ein Markt seine Leistung hervorbringen kann. Zu den marktstrukturierenden Regeln zählen die sogenannten vier großen Freiheiten von Individuen und Unternehmen die vernünftigerweise um Elemente der Gemeinwohlorientierung anzureichern sind.8 1. 2. 3. 4.
Freiheit des Eigentums Vertragsfreiheit Freiheit zur Innovation Freiheit zur Kreditaufnahme bzw. zur Kreditgewährung
Innovationen sind der wohl wichtigste Beitrag von Märkten, denn durch sie konnte und kann der Wohlstand in der Breite erhöht werden. Staaten fördern mittlerweile in Konkurrenz zueinander Innovationen und die entsprechenden Wissenschaften. Sie geben technische Standards vor, etwa bezüglich der Abgasnormen bei Automobilen, und beeinflussen so wesentlich die technische Entwicklung und die umweltrelevanten Parameter. Sie treten als Einkäufer mit sehr großem Einkaufsvolumen und damit Nachfragemacht auf. Über die Finanzierung der Militäretats treiben sie Innovationen in vielen High-Tech-Segmenten voran. WACHSTUM: VERÄNDERUNG DER WIRTSCHAFTSLEISTUNG Wachstum (sei es positiv, null oder negativ) bezeichnet die (jährliche) Veränderung einer in Geld (bei Inflationsausgleich) ausgedrückten gemeinsamen Kennzahl für die Gesamtwirtschaftsleistung. Aus der Theorie der Märkte folgt nicht – wie oft behauptet wird –, dass positives Wachstum unbedingt erforderlich ist, damit der Markt funktioniert. Es ist jedoch so, dass das „politische Geschäft“ bzw. die Kompromissfindung unter Menschen mit unterschiedlichen Zielvorstellungen unter positiven Wachstumsbedingungen wesentlich einfacher möglich ist als im gegenteiligen Fall. Hinzu kommt: Bei der heutigen Ausgestaltung der Märkte ist eine hohe Beschäftigung wahrscheinlich eher mit positivem als ohne Wachstum zu erreichen, obwohl es auch bzgl. dieser Aussage Fragezeichen gibt. Das in unheilvoller Form um sich greifende Phänomen nicht-auskömmlicher Beschäftigungsverhältnisse (sogenannte „Working Poor“) könnte sich bei der immer schnelleren Verbesserung technischer Intelligenz im Umfeld von Big Data und dem Internet der Dinge sowie weiterer technischer Durchbrüche noch dramatisch verschärfen.9 Verteilungsfragen 8 9
vgl. Kay, John: The truth about markets. Why some nations are rich but most remain poor. London 2004. vgl. Herlyn, Estelle; Kämpke, Thomas; Radermacher, Franz Josef; Solte, Dirk: Reflections on the OECD-Project “The Role of Data in Promoting Growth and Well-Being”, BIG DATA and Analytics – What are the perspectives? 2015; Radermacher, Franz Josef: Die Zukunft der digitalen Maschine: Was kommt auf uns zu? Lang- und Kurzvariante. FAW/n-Report. Ulm, Juli 2015; Radermacher, Franz Josef: Algorithmen, maschinelle Intelligenz, Big Data: Einige Grundsatzüberlegungen. In: Schwerpunktheft „Big Data contra große Datensammlungen.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen
145
sind im Falle eines „wachsenden Kuchens“ in der Regel einfacher zu adressieren, wenn auch die landläufige Behauptung, dass bei Wachstum alle gleichermaßen profitieren, kritisch und differenziert zu betrachten und letztlich falsch ist.10 In individueller Perspektive kommt dem eigenen Einkommen eine viel größere Bedeutung zu als dem Bruttoinlandsprodukt (BIP) bzw. dem volkswirtschaftlichen Gesamteinkommen.11 Trotz moderater Wachstumsraten war es in den vergangenen Jahren in Deutschland so, dass nur die Einkommen des reichsten Dezils wahrnehmbar stiegen. Die mittleren Einkommen blieben weitgehend unverändert, während die niedrigsten Einkommen sogar sanken.12 In Großbritannien verlief die Entwicklung dramatischer, und besonders eklatant verlief sie in den USA.13 Brexit und „Trump“ haben hier einige Wurzeln. Wachstum drückt gegenwärtig nur die Veränderung der geeignet quantifizierten (monetären) Wirtschaftsleistung unter dem marktstrukturierenden Restriktionssystem aus. Es besteht zunächst kein unmittelbarer sachlicher Zusammenhang zur Nachhaltigkeit. Die aktuelle Herausforderung besteht darin, die Nachhaltigkeit in das bestehende System zu integrieren, denn das jetzige System ist trotz aller Debatten und Aktivitäten nicht nachhaltig. Wichtige Parameter, z. B. der weltweite CO2Ausstoß oder die Anzahl der Menschen, die akut vom Hunger bedroht sind, deuten ganz im Gegenteil auf eine Verschlechterung des Status quo hin. Nicht besser ist die Lage hinsichtlich der Ressourcen- und Energiefrage, der Entwicklung der Weltbevölkerungsgröße, der „Plünderung“ der Realökonomie und der Staaten über ein unzureichend reguliertes Weltfinanzsystem und die resultierende Schuldenkrise.14 An diesen Stellen müssen jetzt entscheidende Weichenstellungen erfolgen, sonst „endet“ die Menschheit in einem ökologischen Kollaps. Die Durchsetzung ökologischer „Constraints“ bedeutet, dass gewisse Dinge nicht gemacht werden dürfen oder teuer werden, z. B. CO2-Emissionen. Die Durchsetzung von sozialen Constraints bedeutet auskömmliche Finanzierung über Arbeit für möglichst alle Bürger und da, wo es diese Arbeitsplätze nicht gibt, über Transfers. Das in einer Weise, dass Wachstumsstärke stimuliert wird, sonst ist eine lebenswerte Zukunft für zwölf Milliarden Menschen undenkbar.
10 11
12 13 14
Chancen und Risiken für die Gesundheitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8. Berlin Heidelberg 2015. S. 859–865. ebd. vgl. Herlyn, Estelle: Einkommensverteilungsbasierte Präferenz- und Koalitionsanalysen auf der Basis selbstähnlicher Equity-Lorenzkurven. Ein Beitrag zu Quantifizierung sozialer Nachhaltigkeit. Laufendes Dissertationsverfahren zur Erlangung des akademischen Grades Dr. rer. pol. an der wirtschaftswissenschaftlichen Fakultät der RWTH Aachen, 2012. vgl. Heitmeyer, Wilhelm: Die rohe Bürgerlichkeit. In: Die Zeit, Nr. 39, 2011. http:/www.zeit. de/20111/39/Verteilungsdebatte-Klassenkampf. vgl. Stiglitz, Joseph: Der Preis der Ungleichheit. Wie die Spaltung der Gesellschaft unsere Zukunft bedroht. München 2012. vgl. Radermacher, Franz Josef: Zukunft gestalten – Potentiale und Gegenkräfte. In: Kreibich, Rolf; Lietsch, Fritz (Hg.): „Zukunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhundert – inspiriert vom Visionär Robert Jungk. München 2015. S. 122–132.
146
Franz Josef Radermacher
MARKT UND NACHHALTIGKEIT Ein erfolgversprechender Ansatz, mit dem eine Kombination beider Konzepte gelingen kann, ist das etwa 35 Jahre alte Konzept einer ökosozialen Marktwirtschaft15, die – um erfolgreich zu sein – eine weltweite Implementierung ohne Schlupflöcher erfahren muss. Eine solche Marktwirtschaft etabliert erforderliche Leitplanken. Dieses ist, wie ausgeführt, auch erforderlich, wenn eine lebenswerte Zukunft für zwölf Milliarden Menschen das Ziel ist. Eine ökosoziale Marktwirtschaft (genauer: eine ökologisch und sozial adäquat regulierte Marktwirtschaft) ist per Definition eine Marktwirtschaft die neben einem Restriktionssystem, durch das sie ihre spezifische ökonomische Ausprägung im Bereich der Hervorbringung von Gütern und Dienstleistungen erhält, unbedingt und prioritär einem Restriktionssystem 2 der oben beschriebenen Art genügt, das Nachhaltigkeit nicht nur sicherstellt, sondern erzwingt.16 Im angelsächsischen Raum spricht man heute von „green and inclusive markets“ und „green and inclusive growth“. Alle großen internationalen Organisationen, vor allem die OECD, treten massiv dafür ein – die alte marktfundamentale Position ist endlich überwunden. Die OECD, die Organisation der reichen Länder, argumentiert für balancierte Einkommensverteilungen, Einhegung von Steuerparadiesen, Verhinderung aggressiver Steuervermeidungsstrategien und Durchsetzung einer adäquaten Besteuerung hoher Einkommen. Dies alles ist eine Folge der internationalen Probleme wie neuen Einsichten seit der großen Weltfinanzkrise 2007/2008. GRÜNES UND INKLUSIVES WACHSTUM FÜR WELTWEITEN WOHLSTAND IST MÖGLICH Die bisherigen Erörterungen machen deutlich, dass „grünes“ und zusätzlich „inklusives“ Wachstum möglich ist, allerdings negativ sein kann. Dass die Wachstumsraten auf Dauer selbst im positiven Fall kontinuierlich fallen werden, ist in einer endlichen Welt anzunehmen, schließt aber konstanten absoluten Zuwachs und bei irgendwann vielleicht sinkender Weltbevölkerung sogar eine weitere relative Zunahme pro Jahr nicht aus. Die Vermeidung des Bumerang-Effekts ist dabei ein zentrales Thema.17
15
16 17
vgl. Radermacher, Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhundert. Hamburg 2007; überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive. Hamburg 2011; 27. Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale Marktwirtschaft – Historie, Programm und Perspektive eines zukunftsfähigen globalen Wirtschaftssystems. München 2011. vgl. Herlyn, Estelle; Radermacher, Franz Josef: Ökosoziale Marktwirtschaft: Wirtschaften unter Constraints der Nachhaltigkeit. In: Rogall, Holger (Hg.): Jahrbuch Nachhaltige Ökonomie. Marburg 2012. vgl. Neirynck, Jacques: Der göttliche Ingenieur. Renningen 1994.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen
147
WELCHE TECHNIK KANN MAN SICH ALS ERGEBNIS DER INNOVATIONSPROZESSE VORSTELLEN? Es ist grundsätzlich schwierig, Innovationsprozesse vorwegzunehmen. Wie ausgeführt ist aber ein anderes Energiesystem das absolute Schlüsselthema. Energie ist die entscheidende Ressource für Reichtum, während Essen und Trinken das entscheidende Thema für Arme ist. Energie lässt sich sehr weitgehend „übersetzen“ in Essen und Trinken, aber auch in sehr viel mehr. Nahrung kann heute auch an Häuserfronten produziert werden und über Meerwasserentsalzung und klimaneutralen Pipeline-Transport kann Wasser in beliebiger Menge überall hingebracht werden, Voraussetzung dafür ist preiswerte klimaneutrale Energie. Das Energiethema ist wesentlich getrieben durch die Klimafrage. Wenn wir den Klima-Kollaps verhindern wollen, müssen wir uns tendenziell von den fossilen Energieträgern verabschieden, wir brauchen dafür dann Alternativen. Gleichzeitig müssen wir CO2 aus der Atmosphäre herausholen. Daraus resultieren zwei Stoßrichtungen: einerseits erneuerbare Energien, andererseits massive Aufforstprogramme, potentiell auf einer Milliarde Hektar degradierter Flächen in den Tropen. Wenn auf einer solchen Fläche neu aufgeforstet wird, entzieht das der Atmosphäre etwa zehn Milliarden Tonnen CO2 pro Jahr, das ist ein erhebliches Volumen und erlaubt es uns, „Zeit zu kaufen“. Das Holz muss in einem etwa 40-jährigem Rhythmus geerntet werden, es ist eine erneuerbare Ressource, die für unterschiedlichste Verwendungszwecke, etwa im Hausbau (mittlerweile auch mehrstöckig) genutzt werden kann. Das gilt insbesondere für innovative Holzmaterialien, die aus Verleimung von Holzstreifen entstehen und ein großes Potential haben, auch für den Haushochbau. Die erneuerbaren Energien stehen insbesondere im Sonnengürtel der Erde zur Verfügung, die Sahara und die arabische Wüste bieten hier ein großes Potential, sowohl für Wind als auch für Photovoltaik, Solarthermie, Aufwindkraftwerke etc. Der Autor hat in jüngerer Zeit eine Denkschrift für den Club of Rome und den Senat der Wirtschaft für die Bundesregierung koordiniert unter der Überschrift „Ein Marshall Plan für Afrika“.18 Das Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) hat einen Plan dieser Art zwischenzeitlich ebenfalls vorgelegt.19 Hier sind die Technologien absehbar, auf die man hinzielen muss. Es geht bei diesem Marshall Plan für Afrika um Wohlstandsentwicklung in der MENA-Region. Hier müssen über die nächsten Jahrzehnte jedes Jahr viele Millionen neue Arbeitsplätze geschaffen werden.20 Die wesentlichen Ideen kombinieren die enormen Potentiale an solarer Energie mit Kohlekraftwerken, die über massive Aufforstprogramme klimaneutral gestellt werden. Bei diesen wird das CO2 abgefangen, genauso wie bei Stahlpro18
Club of Rome, Senat der Wirtschaft (Koordination: Prof. Radermacher, FAW/n): Migration, Nachhaltigkeit und ein Marshall Plan mit Afrika. Denkschrift für die Bundesregierung. http:// www.faw-neu-ulm.de/portfolio-item/denkschrift-bundesregierung (Zugriff am: 26. Januar 2017). 19 Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung: Afrika und Europa – neue Partnerschaft für Entwicklung, Frieden und Zukunft. Eckpunkte für einen Marshallplan mit Afrika. http://www.bmz.de/marshallplan_pdf sowie unter http://www. marshallplan-mit-afrika.de (Zugriff am: 26. Januar 2017). 20 vgl. Club of Rome, Senat der Wirtschaft, a. a. O.
148
Franz Josef Radermacher
duktion und in Zementwerken. Über den Einsatz erneuerbarer Energie für Elektrolyse zur Erzeugung von Wasserstoff kann das CO2 dazu genutzt werden, ein methanolartiges Benzin zu produzieren, mit dem Autos, Heizungen, etc. bei uns klimaneutral betrieben werden können.21 Dieser Ansatz hat ein großes Potential für Nordafrika, aber sicherlich auch für Europa, und ist eine Alternative zu der um sich greifenden „Klima-Planwirtschaft“, bei der alle Häuser zu unglaublich hohen Kosten und mit nur geringen Klimabeiträgen verpackt werden, ebenso alle Autos durch Elektroautos ersetzt, die bisherigen Heizungen abgeschafft werden etc. Nähere Informationen zu diesem Aspekt des Themas liefert die Studie „Die soziale Dimension des Klimaschutzes und der Energieeffizienz im Kontext von Bauund Wohnungswirtschaft“, die im Auftrag des GdW Bundesverband deutscher Wohnungs- und Immobilienunternehmen vom Forschungsinstitut für anwendungsorientierte Wissensverarbeitung (FAW/n) erstellt wurde.22 Kernpunkt der Studie ist die Frage der sozialen Balance, behandelt werden die Rahmenbedingungen und deren mögliche Folgen auf z. B. Segregationsprozesse. Das alles könnte man sich sparen, wenn eine vernünftige Methanol-Lösung, wesentlich getrieben über erneuerbare Energien und die Nutzung von nicht vermeidbaren CO2-Emmissionen, in ein neues Energiesystem transformiert würden, bei dem über große Aufforstflächen Klimaneutralität hergestellt wird. Entsprechende Aufforstungen sind im Übrigen auch im Umfeld der früheren Regenwälder entscheidend dafür, deren Austrocknen zu verhindern (siehe hierzu auch den aktuellen Bericht an den Club of Rome von Claude Martin „On the Edge“23). All das lässt sich mit forcierter Humusbildung und mit neuen Methoden in der Landwirtschaft koppeln. Afrika könnte die heutigen 30 Milliarden Dollar Nahrungsimporte vermeiden und zum Nahrungsexporteur werden, selbst bei weiter wachsender Bevölkerung. Das Export-Potential von Methanol, die vielfältigen Möglichkeiten von Holz deuten auf die Art von Ökonomie für Afrika hin, mit der die international in 2016 verabschiedete Agenda 2030 vielleicht umgesetzt werden kann. Das Ziel ist eine wohlhabende Welt für viel mehr Menschen als heute bei gleichzeitiger Verbesserung der Lage im Bereich der Klima- und Umweltthematik. DER BUMERANG-EFFEKT Technische Entwicklung ist kein Selbstläufer. Sehr oft erlaubt sie zwar die Steigerung der Effizienz, d. h. sie leistet es, aus weniger Ressourcen mehr Output zu machen. Es kann aber ohne weiteres so sein, dass – als Folge zum Beispiel der dadurch 21 22
23
vgl. Offermanns, Heribert; Effenberger, Franz X.; Keim, Willi; Plass, Ludolf: Solarthermie und CO2: Methanol aus der Wüste. Chem. Ing. Tech 89, No. 3, 2017, S. 1–5. Forschungsinstitut für anwendungsorientierte Wissensverarbeitung: Die soziale Dimension des Klimaschutzes und der Energieeffizienz im Kontext von Bau- und Wohnungswirtschaft. Studie im Auftrag des GdW Bundesverband deutscher Wohnungs- und Immobilienunternehmen. http://web.gdw.de/energie-und-klimaschutz/gutachten/489-studie-zur-sozialen-dimensiondes-klimaschutzes-und-der-energieffizienz (Zugriff am: 26. Januar 2017). Martin, Claude: On the edge: The state and fate of the world’s tropical rainforests. Report to the Club of Rome. Vancouver 2015.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen
149
häufig bewirkten Preissenkungen oder des durch den technischen Fortschritt erleichterten Zugriffs auf Ressourcen – es zum Schluss dazu kommt, dass unter den verbesserten Effizienzbedingungen mehr Ressourcen verbraucht werden als vorher. Das ist insbesondere auch eine Folge der wachsenden Bevölkerung, die selber wiederum eine Technik-Folge ist. Weil wir immer mehr Menschen ernähren können, weil wir für immer mehr Menschen ein vernünftiges Leben organisieren können existieren eben auch immer mehr Menschen und immer mehr Erwartungen, sodass in der Summe immer mehr Ressourcen und nicht weniger Ressourcen verbraucht werden, trotz einer ständig erhöhten Ökoeffizienz der technischen Prozesse. Klar ist in einer Situation wie unserer heutigen, dass wir zehn oder zwölf Milliarden Menschen auf einem hohen Wohlstandsniveau nur erreichen können, wenn sich die Technologien wesentlich weiter verändern, wir also insbesondere mit sehr viel weniger kritischen Ressourcen auskommen. Heute liegt der ökologische Fußabdruck der Menschheit schon bei etwa 1,5 Globus, wobei allerdings 0,7 davon letztlich das Klimaproblem sind. Der letzte Punkt bedeutet buchhalterisch, dass wir auf der Erde nicht die Flächen haben, um das CO2 bei heutiger Nutzung fossiler Energieträger „einzufangen“ und so den Klimawandel zu vermeiden. Neue Technologie heißt also insbesondere ein neues Energiesystem, und zwar dergestalt, dass wir die Erzeugung von Klimagasen vermeiden. Dieses Ziel muss allerdings erst einmal erreicht werden, davon sind wir noch weit entfernt. Sicher geht das nur mit adäquater Regulierung. Regulierung und Governance werden, wie oben beschrieben, das entscheidende Instrument sein, um Leitplanken ökologischer und sozialer Art zu verankern, die dann die Nachhaltigkeit der ökonomischen Prozesse durchsetzen und insbesondere auch die Innovationsprozesse induzieren, die dafür Voraussetzung sind. Viele Informationen zu dem Thema finden sich in dem Buch „Der göttliche Ingenieur“ von Jacques Neirynck.24 WAS BRINGT DIE KÜNSTLICHE INTELLIGENZ? Es ist erstaunlich, was wir aktuell wieder an Veränderungen im Bereich „künstliche Intelligenz, Big Data, Industrie 4.0“ erleben. Maschinen machen immer mehr, Maschinen operieren immer intelligenter. Viele erhoffen sich davon wesentliche Durchbrüche für eine bessere Zukunft, zum Beispiel weniger Ressourcenverbrauch, da gleich das Richtige produziert und unter Umständen viel weniger Transportaufwand erforderlich wird, zum Beispiel wenn über „Printing“ von Gütern der Transport eingespart wird. Andere Lösungen betreffen ein konsequentes, technisch geregeltes Umwelt-Monitoring oder auch die Hilfe für ausbildungsmäßig Schwache, denen ein persönlicher IT-Assistent das Leben sehr erleichtern kann und der dann auch in Richtung von mehr sozialer Balance wirken würde. So positiv das aber alles aussieht, so sehr sind aber auch andere Entwicklungen denkbar. Es könnte auch so kommen, dass diese Technologie vielen Menschen den heute noch auskömmlichen Arbeitsplatz nimmt.25 Wir beobachten auch, dass wir im Bereich soziale Medien viele Freiheiten 24 25
Neirynck, a. a. O. Radermacher, Franz Josef: Algorithmen, maschinelle Intelligenz, Big Data: Einige Grundsatzüberlegungen. In: Schwerpunktheft „Big Data contra große Datensammlungen. Chancen und
150
Franz Josef Radermacher
verlieren, dass wir gläsern werden, dass der Druck über soziale Netzwerke zunimmt, von den politischen In-Group-Bildungen gar nicht zu reden. Wir sind außerdem mit disruptiven Marktmodellen des sogenannten Plattformkapitalismus konfrontiert und mit Unternehmen, die sehr viel Geld verdienen, aber kaum Steuern bezahlen und generell sehr gerne zu Lasten von anderen operieren. Parallel dazu erleben wir politische Prozesse der Abschottung von In-Groups, die sich im Netz nur noch mit sich selber beschäftigen. Wir sind insgesamt mit einer großen Gefahr für die Freiheit einerseits und für die politischen Prozesse andererseits (Entwicklungen wie Brexit und Trumps Wahl) konfrontiert und wir wissen noch nicht, wie sich die Situation mit den Arbeitsplätzen entwickeln wird. Es liegt ohne Zweifel in IT ein enormes Potential für eine lebenswerte Welt mit zwölf Milliarden Menschen, aber leider kann es auch genau auf das Gegenteil, nämlich die „Brasilianisierung“ der Welt, hinauslaufen. ZUSAMMENFASSUNG Nachhaltigkeit und Wohlstand für zwölf Mrd. Menschen sind zu erreichen durch ein grünes und inklusives Wachstum im Sinne der Rio+20 Konferenz und des Postmillenniumsprozesses auf UN-Ebene. Voraussetzung ist allerdings eine adäquate Global Governance, damit Preise in Märkten die Wahrheit sagen und erforderliche Querfinanzierungen und die Besteuerung der Nutzung von Weltgemeingütern durchgesetzt werden können. Dabei geht es letztlich um eine sogenannte „Moralisierung der Märkte“26. Zugleich ist zu erwarten, dass unter diesen Bedingungen die richtigen Innovationen technischer Art hervorgebracht werden. Diese sind ein absolutes Schlüsselthema. Dies betrifft u. a. ein neues Energiesystem und eine andere Art von Ressourcenzugriff. In der Global Governance Frage liegen dabei aus Sicht des Autors heute die eigentlichen Engpässe für die Erreichung von Nachhaltigkeit, also in der unzureichenden internationalen politischen Koordination. Es fehlt der Wille und die Fähigkeit zu supranational fairen Lösungen. Und mit den aktuell zu beobachtenden Prozessen in Richtung Re-Nationalisierung verschärft sich der Druck, dem wir ausgesetzt sind, und nimmt die internationale Koordinierungsfähigkeit ab. Die Weltgemeinschaft muss deshalb im Bereich Governance mehr leisten. Ist sie an dieser Stelle nicht erfolgreich, werden „Brasilianisierung“ oder ein Ökokollaps unsere Zukunft bestimmen.27 Auch das wäre nicht das Ende der Welt. Aber ein „Desaster“ und ein extremer – zudem vermeidbarer – Verlust an zivilisatorischer Qualität. Potentiale ringen hier mit starken Gegenkräften. Die Auseinandersetzung muss geführt werden.
26 27
Risiken für die Gesundheitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8. Berlin Heidelberg 2015. S. 859–865. s. Stehr, Nico; Adolf, Marian: Sozio-ökonomischer Wandel: Der Konsum der Verbraucher. In: Meffert, Heribert; Kenning, Peter; Kirchgeorg, Manfred: Sustainable Marketing Management. Wiesbaden 2014. Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale Marktwirtschaft – Historie, Programm und Perspektive eines zukunftsfähigen globalen Wirtschaftssystems. München 2011; Randers, Jorgen: 2052: A Global Forecast for the Next Forty Years. White River Junction, USA, 2012; Rockström, Johan: Planetary Boundaries. In: Nature 461, 2009, S. 472–475.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen
151
LITERATUR Bummel, Andreas: Internationale Demokratie entwickeln. Für eine Parlamentarische Versammlung bei den Vereinten Nationen. Ein Strategiepapier des Komitees für eine demokratische UNO. Stuttgart 2005. Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung: Afrika und Europa – neue Partnerschaft für Entwicklung, Frieden und Zukunft: Eckpunkte für einen Marshallplan mit Afrika. http://www.bmz.de/marshallplan_pdf sowie unter http://www.marshallplan-mitafrika.de (Zugriff am: 26. Januar 2017) Club of Rome und Senat der Wirtschaft: Migration, Nachhaltigkeit und ein Marshall Plan mit Afrika. Denkschrift für die Bundesregierung (Koordination: Prof. Radermacher, FAW/n), 2016 http://www.faw-neu-ulm.de, http://www.senat-deutschland.de/, http://www.senatsinstitut.de/, http://www.clubofrome.de/ und http://www.clubofrome.org/ (Zugriff am: 26. Januar 2017) Forschungsinstitut für anwendungsorientierte Wissensverarbeitung: Die soziale Dimension des Klimaschutzes und der Energieeffizienz im Kontext von Bau- und Wohnungswirtschaft. Studie im Auftrag des GdW Bundesverband deutscher Wohnungs- und Immobilienunternehmen. http:// web.gdw.de/energie-und-klimaschutz/gutachten/489-studie-zur-sozialen-dimension-desklimaschutzes-und-der-energieffizienz (Zugriff am: 26. Januar 2017) Heitmeyer, Wilhelm: Die rohe Bürgerlichkeit. In: Die Zeit, Nr. 39, 2011. http:/www.zeit.de/20111/39/ Verteilungsdebatte-Klassenkampf Held, David: Soziale Demokratie im globalen Zeitalter. Berlin 2007. Herlyn, Estelle: Einkommensverteilungsbasierte Präferenz- und Koalitionsanalysen auf der Basis selbstähnlicher Equity-Lorenzkurven. Ein Beitrag zu Quantifizierung sozialer Nachhaltigkeit. Laufendes Dissertationsverfahren zur Erlangung des akademischen Grades Dr. rer. pol. an der wirtschaftswissenschaftlichen Fakultät der RWTH Aachen, 2012. Herlyn, Estelle; Kämpke, Thomas; Radermacher, Franz Josef; Solte, Dirk: Reflections on the OECD-Project “The Role of Data in Promoting Growth and Well-Being”, BIG DATA and Analytics – What are the perspectives? 2015. Herlyn, Estelle; Radermacher, Franz Josef: Ökosoziale Marktwirtschaft: Wirtschaften unter Constraints der Nachhaltigkeit. In: Rogall, Holger (Hg.): Jahrbuch Nachhaltige Ökonomie. Marburg 2012. Kay, John: The truth about markets. Why some nations are rich but most remain poor. London 2004. Köhler, Horst: Für eine neue Kultur der Zusammenarbeit mit Afrika. Rede von Bundespräsident a. D. Horst Köhler beim Afrika-Kongress der CDU/CSU-Fraktion. Berlin, Deutscher Bundestag, 16. März 2016. Kornwachs, Klaus: Technikfolgenabschätzung – Reichweite und Potential. Ein Symposium im Amerika Haus Stuttgart 1988. Stuttgart 1991. ders.: Bedingungen und Triebkräfte technologischer Innovationen. Beiträge aus Wissenschaft und Wirtschaft. Reihe „achtech diskutiert“. München Berlin 2007. ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. ders.: Einführung in die Philosophie der Technik. München 2013. Martin, Claude: On the edge: The state and fate of the world’s tropical rainforests. Report to the Club of Rome. Vancouver 2015. Neirynck, Jacques: Der göttliche Ingenieur. Renningen 1994. Offermanns, Heribert; Effenberger, Franz X.; Keim, Willi; Plass, Ludolf: Solarthermie und CO2: Methanol aus der Wüste. Chem. Ing. Tech 89, No. 3, 2017, S. 1–5. Piketty, Thomas: Das Kapital im 21. Jahrhundert, München 2014. Radermacher, Franz Josef: Balance oder Zerstörung. Ökosoziale Marktwirtschaft als Schlüssel zu einer weltweiten nachhaltigen Entwicklung. Wien 2002. ders.: Das Trilemma der modernen Welt. FAW/n Report. Ulm 2013. ders.: Kann die 2 °C-Obergrenze noch eingehalten werden? Ansätze für einen neuen Klimavertrag. FAW/n-Bericht. Ulm 2014.
152
Franz Josef Radermacher
ders.: Die Zukunft der digitalen Maschine: Was kommt auf uns zu? Lang- und Kurzvariante. FAW/nReport. Ulm, Juli 2015 ders.: Zukunft gestalten – Potentiale und Gegenkräfte. In: Kreibich, Rolf; Lietsch, Fritz (Hg.): „Zukunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhundert – inspiriert vom Visionär Robert Jungk. München 2015. S. 122–132. ders.: Algorithmen, maschinelle Intelligenz, Big Data: Einige Grundsatzüberlegungen. In: Schwerpunktheft „Big Data contra große Datensammlungen. Chancen und Risiken für die Gesundheitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8. Berlin Heidelberg 2015. S. 859–865. Radermacher, Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhundert. Hamburg 2007; überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive. Hamburg 2011. Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale Marktwirtschaft – Historie, Programm und Perspektive eines zukunftsfähigen globalen Wirtschaftssystems. München 2011. Radermacher, Franz Josef; Spiegel, Peter; Obermüller, Marianne: Global Impact – der neue Weg zur globalen Verantwortung. München 2009. Randers, Jorgen: 2052: A Global Forecast for the Next Forty Years. White River Junction, USA, 2012. Rockström, Johan: Planetary Boundaries. In: Nature 461, 2009, S. 472–475 Rodrik, Dani: Globalization Paradox: Democracy and the Future of the World Economy. New York 2012. Schumpeter, Josef: Theorie der wirtschaftlichen Entwicklung. Berlin 1912; Neuauflage: Berlin 2006. Stehr, Nico; Adolf, Marian: Sozio-ökonomischer Wandel: Der Konsum der Verbraucher. In: Meffert, Heribert; Kenning, Peter; Kirchgeorg, Manfred: Sustainable Marketing Management. Wiesbaden 2014. Stiglitz, Joseph: Der Preis der Ungleichheit. Wie die Spaltung der Gesellschaft unsere Zukunft bedroht. München 2012. Yunus, Muhammad: Building Social Business. The New Kind of Capitalism that Serves Humanity’s Most Pressing Needs. New York 2011.
VERANTWORTUNG ANGESICHTS DER UNVOLLKOMMENHEIT DER TECHNIK Peter Jan Pahl Die Technik befindet sich in dauerhaftem Wandel. Fortlaufend veränderte Anforderungen an die Technik führen zu neuen Aufgaben. Neues Wissen und neue Technologien ermöglichen neue technische Lösungen, die das bisher Übliche verbessern. Die technische Gemeinschaft beobachtet und bewertet die Auswirkungen ihrer Taten und Unterlassungen in der Vergangenheit, erkennt Fehler und erreicht einige der notwendigen Verbesserungen. Durch technischen Wandel wird die ungünstige Entwicklung im Verhältnis der Bevölkerungszahl zu Art und Umfang der verfügbaren Ressourcen teilweise kompensiert. Der Drang nach Veränderung ist nicht zwangsläufig. Die Grundeinstellung der Menschen hat zeitweise die Erhaltung des Bestehenden gegenüber dem Wandel zum Neuen bevorzugt, beispielsweise zum Schutz bestehender Machtverhältnisse. Verhindert wurde der Wandel aber nicht. Die Veränderung des Bestehenden ist zwangsläufig, nur die Intensität des Wandels ist beeinflussbar. Bereits das unvermeidliche Altern der Menschen und der Objekte ihrer Umgebung führt zwangsläufig zu Wandel. Es liegt in der Natur des Menschen, nicht nur das durch Altern Verlorene zu ersetzen, sondern Besseres zu schaffen. Die Jungen wollen sich selbst und den Alten beweisen, dass sie es besser können. Die Abgrenzung zum Vorangegangenen, Neugier, Wissensdurst sowie Freude an der Entdeckung des Neuen sind starke Motive für andauernden Wandel. Bei Urteilen über die Haftung für Schäden stellt sich die Frage, ob die betrachteten Objekte und Prozesse hätten verbessert werden können. Ein Objekt oder einen Prozess, die nicht mehr verbessert werden können, nennt man vollkommen. Um mögliche Verbesserungen beurteilen zu können, müssen die an das Objekt oder den Prozess gestellten Anforderungen bekannt sein. Diese Anforderungen bestehen aus der vollständigen Menge der Attribute eines vollkommenen Objektes oder Prozesses, und aus den Werten, die diese Attribute bei Vollkommenheit besitzen. Betrachtet man Vollkommenheit als die Menge an Attributen und Werten, die das Ergebnis einer endlichen Menge von Schritten zur Verbesserung eines Objektes oder Prozesses sind, so hat der Begriff Vollkommenheit die Bedeutung von Vollendung: die Verbesserung ist zum Abschluss gekommen. Betrachtet man Vollkommenheit als Übereinstimmung der vorhandenen Werte der Attribute des Objektes oder Prozesses mit den in den Anforderungen festgelegten Werten, so hat der Begriff Vollkommenheit die Bedeutung von Makellosigkeit oder Schadensfreiheit. Vollkommenheit ist mehr als Optimalität, da Optimalität für ein festgelegtes Modell des Objektes oder Prozesses angestrebt wird, während Vollkommenheit auch die möglichen Alternativen bei der Abbildung des Originals auf das Modell beinhaltet.
154
Peter Jan Pahl
Aus dem Wandel in der Technik ergibt sich zwangsläufig die Unvollkommenheit der Technik. Für die Technik der Zukunft gibt es keine gesicherten und vollständigen Prognosen. Daher sind die in der Zukunft erforderlichen Eigenschaften vollkommener technischer Objekte und Prozesse nicht bekannt. Weder die Vollständigkeit der Attributmenge noch die Attributwerte, die in der Zukunft nicht verbessert werden können, sind in der Gegenwart bekannt. Die Menge der möglichen Verbesserungen ist nicht endlich. Es besteht breites Einvernehmen darüber, dass technische Objekte und Prozesse nicht nur zum Zeitpunkt ihres Entstehens, sondern über den vollen Zeitraum ihres Bestehens vollkommen sein sollen. Wegen mangelnden Wissens ist es nicht möglich, den heute geschaffenen Objekten und Prozessen alle für Vollkommenheit in der Zukunft erforderlichen Attributwerte zu geben. Die Objekte und Prozesse der Technik sind in Vergangenheit, Gegenwart und Zukunft unvollkommen. Der Wandel in der Technik ist nicht die einzige Ursache für die Unvollkommenheit der Technik. Die Ereignisse in der Natur und ihre Zusammenhänge sind dem Menschen nur zum Teil bekannt und verständlich. Deshalb wäre die Vollständigkeit des Wissens über die Technik auch dann nicht nachweisbar, wenn die Technik statisch wäre. Mit unvollständigem Wissen können keine vollständigen Attributlisten aufgestellt und Attributwerte zugeordnet werden. Die Natur ist nicht deterministisch. Mehrfache Messungen desselben Attributs unter anscheinend gleichen Bedingungen führen zu verschiedenen Werten. Daher kann der Einfluss von Naturereignissen auf technische Objekte und Prozesse nur stochastisch beschrieben werden. Werden die Werte der Attribute aber statistisch festgelegt, so ist Vollkommenheit nicht mehr eindeutig definierbar. Selbst wenn es möglich wäre, Attributmenge und Attributwerte vollkommener Objekte und Prozesse deterministisch zu spezifizieren, so könnte man diese Objekte und Prozesse doch nicht realisieren. Technik wird von Menschen geschaffen. Menschen machen Fehler. Diese Fehler sind in der technischen Praxis unvermeidbar, nur die Fehlerrate ist beeinflussbar. Fehlerbehaftete Objekte und Prozesse sind nicht vollkommen. Obwohl die Technik unvollkommen ist, wird sie in immer stärkerem Maße eingesetzt, um den Menschen ein gutes und glückliches Leben zu ermöglichen. Bei der Entwicklung und dem Einsatz von Technik ist zwischen vielen potentiellen Handlungen und Unterlassungen zu wählen, die voneinander abhängen. Wie kann diese unvermeidbare Wahl rational vorgenommen werden, wenn das Vollkommene nicht bekannt ist? Was ist messbar, und wie kann es zur Bewertung von Alternativen eingesetzt werden? Auf welcher Grundlage werden Entscheidungen gefällt? Obwohl das Vollkommene dem Menschen nicht bekannt ist, kann doch der Prozess des Strebens nach Vollkommenheit untersucht werden. Der durch eine Verbesserung geänderte Zustand kann erkannt und gemessen sowie mit dem Zustand vor der Verbesserung verglichen werden. Mit diesem inkrementellen Ansatz wird Vollkommenes als Maßstab durch Bestmögliches ersetzt. Grundlagen des bestmöglichen Handelns zu einem gegebenen Zeitpunkt sind das Wissen und Können der beteiligten Personen zu diesem Zeitpunkt. Das Bestmögliche ist eine relative Größe, da Zwischenzustände auf dem Weg zum unbekannten Vollkommenen ver-
Verantwortung angesichts der Unvollkommenheit der Technik
155
glichen werden. Der vollkommene Zustand geht nicht in die Beurteilung ein. Das Bestmögliche ist eine zeitgebundene Größe, da der dauerhafte Wandel der Technik die jeweils vorhandene Näherung der Attributmengen und Attributwerte der angestrebten Vollkommenheit verändert. Die Bestimmung des Bestmöglichen für gegebene Objekte und Prozesse ist eine Optimierungsaufgabe. Die zu betrachtende Attributmenge der Objekte und Prozesse sowie die Werte einer Teilmenge dieser Attribute werden vorab festgelegt. Auch die Relationen der Attribute werden als bekannt vorausgesetzt. Die Optimierung besteht darin, die Werte der freien Attribute so zu bestimmen, dass die Relationen wahr sind und vorab festgelegte Attribute vorab festgelegte Optimalitätskriterien erfüllen. Zur Durchführung der Optimierung kann auf ein breites Spektrum an mathematischen und nicht-mathematischen Verfahren zurückgegriffen werden. Das heute bestimmte Bestmögliche mag aber schon morgen nicht mehr das Bestmögliche sein. Wie kann in möglichst hohem Maße sichergestellt werden, dass zu jedem Zeitpunkt die bestmögliche Technik verfügbar ist und nützlich eingesetzt wird? Dies wird angestrebt, indem die Attributmenge und die Wertemenge der vollkommenen Lösung fortlaufend besser angenähert werden und das zu jedem Zeitpunkt vorhandene Wissen über Attributmengen, Relationen und Werte optimal eingesetzt wird. Ein gutes Konzept für die Verfügbarkeit und Nutzung optimaler Technik ist sehr wichtig, da Technik infolge ihrer Unvollkommenheit nicht nur Nutzen, sondern auch Schaden verursachen kann, der vermieden werden soll. Die Aufgabe, das Materielle im Lebensraum der Menschen zu optimieren, zeigt große Ähnlichkeit mit der Aufgabe, das Geistige im Leben der Menschen zu optimieren. Auch im Geistigen gibt es dauerhaften Wandel ohne Vollkommenheit. Dennoch strukturieren die Menschen das Geistige im Leben individuell und als Gemeinschaft. Es ist eine der großen Leistungen der Philosophen des Altertums, dass sie nicht nur Gesetzgebung und Machtausübung der Gesellschaft oder ihrer Repräsentanten als Mittel zur Optimierung im geistigen Bereich erkannt haben, sondern auch die natürliche Veranlagung des Menschen als Individuum zur Selbstkontrolle. Diese Einsicht wurde in der Ethik gewonnen, als Philosophen im Menschen die Fähigkeit zur Verantwortung erkannten, die beispielsweise in folgendem Ansatz zum Ausdruck kommt: • Der Mensch besitzt den Drang zum Handeln und zum Unterlassen mit dem Ziel, ein gutes Leben zu führen und Glück zu erwerben. • Die Sinne und das Denken versetzen den Menschen in die Lage, sein eigenes Handeln und Unterlassen zu beobachten und zu verstehen. • Der Mensch bewertet die Ursachen, Inhalte und Ergebnisse seines Handels und Unterlassens, um die Güte und den Nutzen seines Wirkens zu beurteilen. • Der Mensch kennt das Vollkommene nicht und lässt als Ersatz eine Instanz (beispielsweise Gott oder sein Gewissen) das Bestmögliche vorgeben. Erreicht er das vorgegebene Bestmögliche nicht, so fühlt er sich vor der Instanz schuldig und sucht Verbesserung.
156
Peter Jan Pahl
Dieser Ansatz für eine Verantwortungstheorie besitzt offensichtliche Schwächen. Er berücksichtigt nicht, ob der Mensch zu Handlungen oder Unterlassungen fähig und in seinen Entscheidungen frei ist oder nicht. Der Ursprung des Bestmöglichen ist nicht bekannt. An Stelle des Menschen könnte die Instanz die Aufgabe haben, das Erreichen des Bestmöglichen zu beurteilen und als Schiedsrichter zu wirken. Wie werden dem Menschen das Urteil und seine Folgen mitgeteilt? An die Stelle des Schuldgefühls des Menschen kann eine Strafe der Instanz treten. Philosophen haben diese und viele andere offene Fragen erkannt und in der Ethik eine Fülle von Verantwortungstheorien geschaffen. Die Ansätze dieser Theorien stehen teilweise im Widerspruch zueinander, ohne dass feststellbar wäre, ob der eine besser ist als der andere. Auch in der Philosophie ist Vollkommenheit nicht erreichbar. Die Entwicklung der Ethik im Geistigen ist weiter fortgeschritten als ihre Entwicklung im Materiellen. Dies ist darauf zurückzuführen, dass sich viele Menschen seit dem Altertum intensiv mit Religion, Staatswesen und Krieg befassen, allen voran die Philosophen. Die Erforschung der Verantwortung blieb nicht auf diese Gebiete beschränkt. So rückte mit der Demokratie die politische Verantwortung in den Fokus der Forschung, mit der Industrialisierung die soziale Verantwortung, mit der Globalisierung die ökonomische Verantwortung und mit dem zunehmenden Potential biologischer Eingriffe die medizinische Verantwortung für das Leben selbst. Die Technik hat ihre heutige Bedeutung durch Verwissenschaftlichung in einem Zehntel des Zeitraums gewonnen, in dem die Ethik die Verantwortungstheorie für das Geistige entwickelt hat. Das Verständnis für Verantwortung in der Technik beschränkte sich ursprünglich vorwiegend auf die Sicherheit und Gebrauchsfähigkeit von Bauwerken und Maschinen. Die Unvollkommenheit der Technik wurde durch Einführung von Sicherheitsfaktoren und Prüfverfahren berücksichtigt. Im Vordergrund stand am Anfang die Begeisterung für neue Theorien, Erfindungen und Technologien, die Dinge möglich machten, von denen Menschen vorher nur geträumt hatten, und die mit der Zeit den Lebensraum und die Lebensweise der Menschen geprägt haben. Brücken und Hallen mit großer Spannweite, Mobilität mit Fahrzeugen, Massenproduktion mit Maschinen, Beleuchtung mit Elektrizität und Kommunikation über weite Strecken waren einige der großen Errungenschaften und Gegenstand internationalen Wettbewerbs. Erst große Katastrophen wie der Einsatz von Giftgas1 und Atombomben2 haben die Menschen dazu gebracht, ernsthaft über die Auswirkungen der Naturwissenschaften, der Technikwissenschaften und der Technik nachzudenken. Mit der Zeit wuchs die Erkenntnis, dass der gewünschte Nutzen ohne unvermeidbare schädliche Nebenwirkungen nicht zu erzielen ist. Heute ist das Abwägen zwischen Nutzen und Schaden ein integraler Bestandteil von Wissenschaft und Technik, beispielsweise
1 2
vgl. Lenk, Hans: Zur Verantwortungsfrage in den Naturwissenschaften. In: Maring, Matthias (Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 62–70. vgl. Gleitsmann, Rolf-Jürgen: Über die Verantwortbarkeit wissenschaftlicher Erkenntnis: das Fallbeispiel Kernforschung und Atombombe 1938–1945. In: Maring, a. a. O., S. 36–45.
Verantwortung angesichts der Unvollkommenheit der Technik
157
bei Themen wie Energie, Mobilität und Umwelt3. Die Menschen haben gelernt, die Technik nicht nur zu lieben, sondern auch zu fürchten. Die Entwicklung, Erkenntnisse und offenen Fragen der Verantwortungstheorie sind in dem Band „Technikwissenschaften. Erkennen – Gestalten – Verantworten“4 dargestellt, der unter dem Vorsitz von Klaus Kornwachs erarbeitet wurde. Kapitel 6 der Schrift behandelt Verantwortung in Technikwissenschaft und Technik aus heutiger Sicht. Verantwortung wird als eine Relation verstanden, deren Attribute die Struktur der Verantwortung festlegen.5 Besitzt eine Belegung der Relation den Wert „wahr“, so beschreiben die Attributwerte eine Form der Verantwortung. Es gibt verschiedene Auffassungen über zutreffende und vollständige Strukturen der Verantwortung sowie eine Vielfalt an Formen der Verantwortung. Ein Beispiel für die Struktur von Verantwortung ist das Tupel: (Subjekt, Objekt, Grund, Instanz, Norm, Zeitraum). Ein Beispiel für eine Form dieser Verantwortung ist folgende Belegung des Tupels: (Ingenieur, Maschine, Sicherheit, Gericht, Gesetz, Alter). Der Ingenieur ist das Subjekt, das die Verantwortung wahrnimmt. Die Maschine ist das Objekt, für das der Ingenieur die Verantwortung trägt. Die Sicherheit der Maschine ist der Grund, weshalb der Ingenieur Verantwortung trägt. Das Gericht ist die Instanz, vor der sich der Ingenieur verantworten muss, wenn an der oder durch die Maschine ein Schaden entsteht. Das Gericht entscheidet über die Schuld des Ingenieurs und verhängt eine Strafe, wenn der Ingenieur schuldig ist. Gesetze legen technische Regelwerke und Verfahren fest, die das Gericht als Normen bei der Urteilsfindung verwendet. Das Alter ist der Zeitraum, der beim Betrieb der Maschine verstreicht, bis die Verantwortung des Ingenieurs für die Maschine erlischt. Besonders nachteilige Auswirkungen der Unvollkommenheit der Technik sind große Schwierigkeiten bei der Festlegung der Strukturen und Formen der Verantwortung für die Technik. Selbst wenn man voraussetzt, dass das im vorangehenden Beispiel gewählte Tupel für einen bestimmten Aufgabenbereich geeignet ist und keine weiteren Strukturen zu untersuchen sind, so erweist sich doch die bestmögliche Belegung des Tupels mit Attributwerten als äußerst komplexe Aufgabe. Das Subjekt der Verantwortung ist nicht zwangsläufig ein Individuum. Ist das Objekt der Verantwortung ein technisches Projekt mit mehreren Aufgaben, so muss für jede dieser Aufgaben sowie für die Schnittstellen zwischen den Aufgaben das Bestmögliche festgelegt und angestrebt werden. Wegen des Umfangs und der Vielartigkeit der Aufgaben und der für ihre Bearbeitung erforderlichen Fähigkeiten ist selten ein Individuum fähig und vom Arbeitsaufwand her in der Lage, allein die Verantwortung für alle Aufgaben und Schnittstellen des Projekts zu übernehmen. Das Subjekt der Verantwortung wird dann zu einer Personengruppe erweitert, die in der Regel hierarchisch strukturiert ist. Ist das Objekt der Verantwortung ein Produkt oder eine Technologie, so tritt an die Stelle der Personengruppe eine juristische Per3 4 5
vgl. Grunwald, Armin: Der ingenieurtechnische Blick auf das Weltklima. In: Maring, a. a. O., S. 219–226. acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. Heidelberg 2013. Ropohl, Günter: Das Risiko im Prinzip Verantwortung. In: Ethik und Sozialwissenschaften, 5 (1994), S.109–120.
158
Peter Jan Pahl
son. Mit diesem Schritt entsteht eine große Distanz zum ursprünglichen Konzept der moralischen Verantwortung des Individuums vor seinem Gewissen. Eine hierarchisch strukturierte Personengruppe ist ein problematisches Verantwortungssubjekt.6 In der Gruppe besteht Weisungsrecht, sodass ein Teil der Personengruppe auf Anweisung handelt und in ihren Entscheidungen nicht frei ist.7 Wegen der Unvollkommenheit der Technik können Meinungsverschiedenheiten in der Gruppe bezüglich des Bestmöglichen bestehen. Einige Mitglieder handeln dann im Gegensatz zu ihrer freien Entscheidung. Bleibt die Verantwortung der Betroffenen gegenüber der Instanz in diesem Fall bestehen, wird sie eingeschränkt, oder wird sie aufgehoben? Im juristischen Sinne mögen Konstrukte gefunden werden, welche die Betroffenen von der Verantwortung gegenüber der Instanz entlasten. Es können jedoch auch Handlungen zustande kommen, die gegen das Gewissen der Betroffenen verstoßen, sodass eine Entlastung nicht möglich ist. Bei wesentlichen Themen darf nicht verlangt werden, dass Personen gegen ihr Gewissen handeln oder an einem Projekt mitwirken, in dem die Handlungen Anderer dagegen verstoßen. Es muss also eine Umbesetzung des Subjektes ohne Nachteile für die Betroffenen möglich sein. Die in diesem Zusammenhang auftretenden Schwierigkeiten sind absehbar. Fehler weisungsgebundener Personen sind nicht immer von diesen allein zu verantworten, sondern auch von den Weisungsberechtigten. In der Regel ist mit der Weisungsberechtigung auch eine Aufsichtspflicht verbunden. Wegen der Fülle der Handlungen und der Anzahl der ihm zugeordneten Personen kann der Weisungsberechtigte die Aufsichtspflicht aber nur stichprobenartig wahrnehmen. Stichproben führen unabhängig von der Sorgfalt, mit der sie durchgeführt werden, nicht zu deterministischer Fehlerkontrolle. Aus dem Auftreten von Fehlern weisungsgebundener Personen allein kann nicht auf Verletzung der Aufsichtspflicht geschlossen werden. Dennoch wird bei gravierenden Fehlern weisungsgebundener Personen in der Technik, wie in der Politik, häufig der Rücktritt des Weisungsbefugten von der Verantwortung auch dann verlangt, wenn er seiner Aufsichtspflicht gerecht wurde und ihn keine direkte Schuld trifft. Er hatte leider keine Fortune. Die vorangehenden Beispiele zeigen, dass es notwendig sein kann, mit der Zeit das Verantwortungssubjekt zu ändern. In dem betrachteten Beispiel ist die Änderung des Subjekts nicht als Verantwortungsobjekt erfasst. Es besteht aber eine Verantwortung, deren Objekt die Besetzung und Änderung des Subjekts einer anderen Verantwortung ist. So gibt es in vielen Unternehmen einen Aufsichtsrat und einen Vorstand. Auf den unteren Ebenen der Hierarchie fehlt häufig eine vergleichbare Struktur. Wegen der Unvollkommenheit der Technik mag das Objekt einer Verantwortung nur schwer definierbar und von anderen Objekten oder Prozessen in der Welt abgrenzbar sein. Die Attributmenge des Bestmöglichen und die Attributwerte am Optimum mögen in solchen Fällen erst durch Handlungen (Untersuchungen und 6 7
Lenk, Hans: Einige Technik-Katastrophen im Lichte der Ingenieurethik. In: Maring, Matthias (Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 149–154. Ropohl, Günter: Verantwortungskonflikte in der Ingenieurarbeit. In: Maring, a. a. O., S. 133– 148.
Verantwortung angesichts der Unvollkommenheit der Technik
159
Beurteilungen) im Rahmen der zu definierenden Verantwortung bestimmbar sein. Beispielsweise mag erst nach Vorstudien die Entscheidung möglich sein, ob für eine bestimmte Verkehrsverbindung eine Brücke oder ein Tunnel besser ist. Das Verantwortungssubjekt und die Normen für die alternativen Lösungen sind verschieden. Der Prozess der Anpassung der ursprünglichen Verantwortung an die getroffene Objektwahl ist selbst Objekt einer weiteren Verantwortung. Verantwortung erzeugt Verantwortung, so entsteht ein Verantwortungsgeflecht. Die Unvollkommenheit der Technik verhindert die Vollständigkeit der Spezifikation des Objektes einer Verantwortung. Änderungen des Objektes, beispielsweise zusätzliche Wünsche eines Bauherrn oder Änderungen wegen nachträglich erkannter schlechter Bodenverhältnisse, sind eine häufige Ursache von Kostensteigerungen und Verzögerungen bei der Fertigstellung des Objektes. Das Objekt einer Verantwortung kann heterogen sein. Es kann beispielsweise aus einer Menge von Maschinen und baulichen Anlagen bestehen, zwischen denen Abhängigkeiten zu berücksichtigen sind. Bei solchen Verantwortungsobjekten mag es nicht ausreichend sein, bestimmte Objektteile bestimmten Teilen des Subjekts zuzuordnen. Vielmehr erfordern die Abhängigkeiten Handlungen und Unterlassungen von Personen des Subjekts an den Schnittstellen zwischen den Objektteilen. In diesem Bereich der Technik sind wir besonders weit von der Vollkommenheit entfernt. Wegen der Unvollkommenheit der Technik kann der Grund einer Verantwortung nicht eindeutig angegeben werden. Beispielsweise führt die Unvollkommenheit dazu, dass es keine vollständige Sicherheit in Gebäuden oder beim Einsatz von Maschinen gibt. Wird Sicherheit als Grund einer Verantwortung angegeben, so handelt es sich dabei um bestmögliche Sicherheit. Die Definition der bestmöglichen Sicherheit ist abhängig vom Objekt. Wie es mehrere Personen als Subjekt einer Verantwortung gibt, so gibt es auch mehrere Gründe einer Verantwortung. So soll ein Gebäude nicht nur sicher sein, sondern auch brauchbar, funktionsgerecht und wirtschaftlich. Zwischen diesen Zielen kann es Konflikte geben. Beispielsweise kann häufig die Sicherheit eines Objektes erhöht werden, indem mehr Ressourcen eingesetzt werden. Geringere Sicherheit setzt also Mittel frei, die für andere Zwecke verwendbar sind. Die Balance zwischen Sicherheit und Wirtschaftlichkeit ist eine ethische Aufgabe der Gemeinschaft, da die verfügbaren Ressourcen begrenzt sind und der Nutzen verschiedener Verwendungen der verfügbaren Ressourcen zu messen und zu vergleichen ist. Hierfür sind Verantwortungen festzulegen, die nicht auf einzelne Vorhaben beschränkt sind. Die Aufgaben der Instanz einer Verantwortung werden durch die Unvollkommenheit der Technik besonders erschwert. Da das Bestmögliche nicht eindeutig ist und wegen des erforderlichen Kompromisses zwischen verschiedenen Zielen auch nicht für jede Eigenschaft angestrebt wird, werden neben den gesetzlich vorgegebenen Mindestanforderungen in Verträgen zwischen Auftraggebern und Auftragnehmern weitere Anforderungen vereinbart. Mit diesen Vorgaben wägt die Instanz Schaden, Schuld, Sorgfalt und Haftung. Häufig verfügt die Instanz nicht über eigene Expertise bezüglich des Objekts der Verantwortung und muss ihr Urteil zwangsläufig auf Gutachten gründen. Selbst wenn man die Neutralität, Sorgfalt und Gewissenhaftigkeit der Gutachter voraussetzt, sind Schwierigkeiten unvermeidbar,
160
Peter Jan Pahl
da beim jeweiligen Stand der Technik mehrere Auffassungen über die Mindestanforderungen bestehen können. Die Instanz muss nicht nur die vorliegenden Gutachten verstehen, sondern auch zwischen den Gutachten abwägen. Die Instanz einer Verantwortung für ein bestimmtes Objekt kann aus mehreren Elementen bestehen, beispielsweise einem Gericht und der öffentlichen Meinung. Bei der juristischen Beurteilung der Verantwortung für das Objekt sind die gesetzlichen oder vertraglichen Mindestanforderungen maßgebend. Die Öffentlichkeit fordert das Bestmögliche, das mit wesentlich höheren Anforderungen verbunden sein kann. Über die Medien ist die Öffentlichkeit in der Lage, ihrer Forderung Gewicht zu verleihen. Individuen werden durch ihr Gewissen veranlasst, sich selbst zu Instanzen einer Verantwortung zu machen, auch wenn es bereits andere Instanzen gibt. In technischen Normen wird technisches Wissen als eine strukturierte Menge von Regeln formuliert. Normen enthalten Mindestanforderungen der Gemeinschaft an die Handlungen der Verantwortungssubjekte, sind also keine Beschreibung des Bestmöglichen in der Technik. Dennoch sind beispielsweise europäische Normen ein wichtiger Beitrag zur Technik, da sie Maßstäbe setzen, die von allen Betroffenen einzuhalten sind. Bei der Entwicklung von Normen muss das Bestmögliche bekannt sein, damit die Regeln der Technik formuliert werden können. Neben den Normen haben auch die digitalen Modelle die Technik standardisiert. Verbreitete Anwendungspakete wirken wie Normen, sind es aber nicht. Die Softwareunternehmen sind weder beauftragt, Normen zu setzen, noch sind sie immer dazu in der Lage. Trotzdem handeln Ingenieure oft so, wie es die Funktionalität der Anwendungspakete erlaubt. Dies ist nicht immer die bestmögliche Handlung. Die festgelegten Strukturen der Pakete, beispielsweise ihre Datenstruktur, schränken die fortlaufende Anpassung der Pakete an den Stand der Technik ein. Neuentwicklungen sind wegen des hohen finanziellen Aufwands selten. Innere Abläufe in Anwendungspaketen werden häufig nicht offengelegt, um so das Eigentum an der Software zu schützen. Gebrauchsanweisungen und allgemein gehaltene Beschreibungen der Theorie können aber nicht die vollständige Kenntnis der eingesetzten Verfahren ersetzen. Der Ingenieur trägt die Verantwortung für die Verwendung der mit den Paketen erarbeiteten Ergebnisse, auch wenn er die Abläufe und verwendeten Parameter nicht vollständig feststellen und bewerten kann. Der Vergleich der Ergebnisse zweier unabhängiger Anwendungspakete löst das Problem nicht vollständig, da beide zwangsläufig nicht vollständig sind. Insbesondere bei Innovationen mag ein wesentliches Phänomen in keinem der beiden Pakete erfasst sein. Der Ingenieur kann seine Sorgfaltspflicht in der Praxis nicht vollständig erfüllen. Dieses Problem ist zur Zeit ungelöst, da der Einsatz der vorhandenen suboptimalen Software notwendig ist. Der Zeitraum einer Verantwortung wird durch die Unvollkommenheit der Technik beeinflusst, weil der zeitliche Verlauf vieler Prozesse der Technik nicht zuverlässig bekannt ist. Beispielsweise wird das Altern von Gebäuden und Städten nicht beherrscht, weil dieser komplexe Prozess nicht mit vertretbarem Aufwand messbar ist. Die lange Dauer der Prozesse erschwert ihre Erforschung. Die Ingenieure von heute tragen gegenüber der Gesellschaft von Berufs wegen die Verantwortung für die in der Vergangenheit geschaffene materielle Infrastruk-
Verantwortung angesichts der Unvollkommenheit der Technik
161
tur, obwohl sie an deren Entstehen nicht beteiligt waren. Berufsbezogene Verantwortung für Technik ist zeitlich nicht begrenzt. Schuld kann in diesem Zusammenhang aber nur bei Überwachungs- und Änderungsaufgaben entstehen. Ingenieure tragen die Verantwortung für die Ausrichtung der Technik auf die Zukunft, obwohl diese Verantwortung kaum beurteilt und sanktioniert werden kann. Beispielsweise sollen Ingenieure die Entscheidungsträger der Gesellschaft dabei unterstützen, den materiellen Zustand von Städten so zu beurteilen, dass quantitative Aussagen zu den erforderlichen Ressourcen und zeitlichen Abläufen von Betrieb, Instandhaltung, Renovierung und Modernisierung des Bestehenden möglich sind und der Umfang von Neubauten den Ressourcen der Zukunft angepasst werden kann. Die vorliegende Betrachtung der Verantwortung angesichts der Unvollkommenheit der Technik ist nicht vollkommen und nicht die bestmögliche. Viele der angesprochenen Themen entstammen der Erfahrung beim Prüfen von Bauvorhaben. In anderen Bereichen der Technik liegen vermutlich auch andere Erfahrungen vor. Vertreter aller Bereiche der Technik sollten gemeinsam mit Philosophen versuchen, der Vollkommenheit der Verantwortung für die Technik näher zu kommen. Klaus Kornwachs hat diesen Prozess gefördert und wichtige eigene Beiträge dazu geleistet.8
8
s. acatech (Hg.), a. a. O.; sowie: Kornwachs, Klaus: Technik – System – Verantwortung. Eine Einleitung. In: Kornwachs, Klaus (Hrsg.): Technik – System – Verantwortung. Reihe Technikphilosophie, Bd.10. Münster, London 2004. S. 23–41.
162
Peter Jan Pahl
LITERATUR acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. Heidelberg 2013. Gleitsmann, Rolf-Jürgen: Über die Verantwortbarkeit wissenschaftlicher Erkenntnis: das Fallbeispiel Kernforschung und Atombombe 1938–1945. In: Maring, Matthias (Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 36–45. Grunwald, Armin: Der ingenieurtechnische Blick auf das Weltklima. In: Maring, Matthias (Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 219–226. Kornwachs, Klaus: Technik – System – Verantwortung. Eine Einleitung. In: Kornwachs, Klaus (Hrsg.): Technik – System – Verantwortung. Reihe Technikphilosophie, Bd.10. Münster, London 2004. S. 23–41. Lenk, Hans: Zur Verantwortungsfrage in den Naturwissenschaften. In: Maring, Matthias (Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 62–70. ders.: Einige Technik-Katastrophen im Lichte der Ingenieurethik. In: Maring, Matthias (Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 149–154. Ropohl, Günter: Das Risiko im Prinzip Verantwortung. In: Ethik und Sozialwissenschaften, 5 (1994), S.109–120. ders.: Verantwortungskonflikte in der Ingenieurarbeit. In: Maring, Matthias (Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 133–148.
ZUR ZUKUNFT VON „TECHNOLOGY PUSH“ UND „MARKET PULL“ Hans-Jörg Bullinger, Rainer Nägele COMPUTER INTEGRATED MANUFACTURING UND INDUSTRIE 4.0 – VON DER UTOPIE ZUR REALITÄT Computer Integrated Manufacturing (CIM) als Utopie zu bezeichnen, ist keine Beleidigung, sondern eine Auszeichnung des weitsichtigen Blicks ihrer Protagonisten. August Wilhelm Scheer, einer der Protagonisten des Computer Integrated Manufacturing selbst bezeichnete CIM bereits 1990 als eine Utopie, deren Verwirklichung viel Zeit und Ausdauer erfordere. Genauso wenig sollte Industrie 4.0 als die umfassende Realisierung der CIM-Idee verstanden werden. Utopien stehen immer auch Argumente gegenüber, die diese als nicht machbar deklassieren. Hierbei handelt es sich immer um ein Duell zwischen „zu visionär“ und „zu wenig visionär“. Die goldene Mitte sind „die Langweiler“, die im alltäglichen Arbeitsleben an der Umsetzung und Gestaltung der Zukunft beharrlich arbeiten und häufig nicht wissen, in welchem Applikationskontext ihre Arbeit bahnbrechende Innovationen ermöglicht. Dabei steht Industrie 4.0 als wahrgewordene Utopie nicht alleine. Die Innovationshistorie ist voll von entsprechenden Beispielen. Leonardo da Vinci zeichnete und konstruierte Fluggeräte, die hunderte Jahre später alltäglich geworden sind. Apple stellte bereits 1993 den ersten Tabletcomputer vor, der grandios floppte. 16 Jahre später hielt das iPad mit Spitzengeschwindigkeit Einzug in das Alltagsleben der Menschen. „Verlogen“ war keine dieser Utopien – eher zu unrealistisch oder zu optimistisch gedacht. Warum? Hier gilt es, auf die technischen Entwicklungen und das Timing zu schauen, die diese Utopien Wirklichkeit werden ließen. Da Vinci fehlte eine performante Antriebskomponente. Apple fehlten die erforderlichen Displays, Batterien, Speichermedien, Contents und Konnektivität. Und CIM? 1987 war vom Internet noch nicht viel zu sehen. Die Rechenleistung der damals eingesetzten Systeme war, im Vergleich zu heute, minimal. Sensoren und Aktuatoren waren zu groß, viel zu teuer oder noch nicht vorhanden. Produktionssoftware war nicht performant genug und die notwendige Konnektivität nicht gegeben. Utopien beschreiben nicht das aktuell technisch Machbare, sondern skizzieren die Zukunft. Wie lange der Weg dorthin dauert, hängt damit zusammen wie schnell die Technologieentwicklung in den einzelnen Disziplinen des erforderlichen Technologiesystems voran geht und wie weit die Möglichkeit zur technischen Umsetzung von den latenten Bedürfnissen zur Lösung einer Problemstellung potenzieller Kunden entfernt liegt. Dieses sogenannte „Chasm of Innovation“ wurde
164
Hans-Jörg Bullinger, Rainer Nägele
bereits 1991 von Geoffrey Moore aufgezeigt und beschreibt den Punkt innerhalb einer Technologieadaptionskurve, an der jeweils kritische Mengen eines „Technology Push“ auf eine kritische Menge an „Market Pull“ stößt, um eine technische Innovation in der Breite erfolgreich zu machen. VON DER GESELLSCHAFT DES SELBERMACHENS ZUR DEMOKRATISIERUNG DER WISSENSCHAFT Der Wandel in unserer Arbeits- und Lebenswelt ist durch eine zunehmende Komplexität geprägt. Globalität, Nachhaltigkeit, Flexibilität, Diversität, Dezentralität und neue Lebensstile sind Schlagworte und Entwicklungen, die bestehende Märkte und Systeme an ihre Grenzen bringen und hinter denen sich eine Vielzahl von Herausforderungen verbergen, die es im Sinne systemischer Lösungen optimal und zum Wohle aller zu lösen gilt. Vor diesem Hintergrund gilt es, die Fragen zu stellen, wie unser Forschungs- und Innovationssystem der Zukunft aussehen und wie sich die Rollen von „Technology Push“ und „Market Pull“ als die bisher maßgeblichen Grundmechanismen von Innovation verändern werden. Innovationen beruhen in der Regel auf den beiden Grundmechanismen „Technology Push“ und „Market Pull“. Dabei sind technologiegetriebene Innovationen das Ergebnis eines dynamischen wissenschaftlichen Fortschritts, der häufig auf Erfolgen der Grundlagenforschung, die bewusst nicht auf die Entwicklung marktfähiger Anwendungen abzielt, beruht. Das Leitprinzip des „Technology Push“ ist daher nicht die Nützlichkeit sondern die Möglichkeit. Das Risiko von „TechnologyPush“-Ansätzen besteht darin, dass Inventionen keine vorhandenen oder latent vorhandenen Bedürfnisse erfüllen, während die Chancen, aus einer angebotsorientierten Perspektive gesehen, in der Entwicklung radikaler Innovationen liegen, die die Grundlage für völlig neue Märkte und neue gesellschaftliche Entwicklungen bilden. Daher steht neben der eigentlichen Forschungs- und Entwicklungsarbeit die Identifikation von Funktionen und der dadurch möglichen Anwendungen innovativer Technologien im Mittelpunkt eines „Technology-Push“-Ansatzes. Im Gegensatz dazu bildet der „Market-Pull“-Ansatz die Perspektive der Nachfrageseite ab. Leitprinzip ist dabei die Suche nach innovativen Lösungen für ein gegebenes Problem, wodurch Innovationen folglich als Reaktionen auf spezifische Marktbedürfnisse zu verstehen sind. Zukünftige Entwicklungen basieren immer auf dem Wunsch nach Verbesserung bestehender Situationen in Kombination mit der Adaption übergeordneter Entwicklungen, die Einfluss auf das Betrachtungssystem nehmen. Im hier betrachteten Fall ist somit die Frage zu stellen, wie die beschriebenen Risiken minimiert und die skizzierten Chancen optimal genutzt werden können. Diese Betrachtung führt aber lediglich zu inkrementellen Verbesserungen im Sinne der Optimierung des bestehenden Forschungs- und Innovationssystems. Daneben gilt es, sich in Zukunftsbetrachtungen die Frage zu stellen, welche disruptiven Elemente auf das Betrachtungssystem einwirken können. Derartige Elemente können in Form technologischer Entwicklungen, vielmehr aber in Form von grundlegenden Veränderungen
Zur Zukunft von „Technology Push“ und „Market Pull“
165
der Rahmenbedingungen den entsprechenden Einfluss auf den Betrachtungsgegenstand nehmen. Gerade den letzten Punkt halten wir für die Fragen, wie sich die bestehenden Grundmechanismen für Innovationen zueinander verhalten werden und wie ein zukünftiges Innovationssystem gestaltet sein wird, für entscheidend. So halte ich die Frage, wer künftig den wissenschaftlichen Fortschritt vorantreibt, für eine der entscheidenden Fragen mit einem enormen Disruptionspotenzial für unser bestehendes Innovationssystem. Wirft man einen Blick in einschlägige Veröffentlichungen, wie beispielsweise die Forsight-Studien des Bundesministeriums für Bildung und Forschung (BMBF) und der japanischen Regierung oder in Veröffentlichungen unabhängiger Thinktanks, so lassen sich unter den Schlagworten „Verwissenschaftlichung der Gesellschaft“, „Bürgerforschung“ und „Gesellschaft des Selbermachens“ viele Ansatzpunkte erkennen, die unseres Erachtens radikal Einfluss auf unser bisheriges Innovationssystem nehmen werden. Grundlage für all die genannten Schlagwörter bildet dabei die gerechtfertigte Annahme, dass in einer zukünftigen Wissensgesellschaft jegliche Information frei verfügbar sein wird. Open Source ist bereits heute Realität, und Open Access, also der kostenlose Zugriff auf wissenschaftliche Veröffentlichungen, sowie Open Data werden mittelfristig vermutlich selbstverständlich. Zudem wurde mit Crowdfunding bereits eine Finanzierungsmöglichkeit geschaffen, deren weitere Entwicklung es zu einer maßgeblichen und konkurrierenden alternativen Finanzierungsquelle für Forschung und Entwicklung jeglicher Art und Ausgestaltung werden lässt. Was macht nun aber Wissenschaftlerinnen und Wissenschaftler zu dem, was sie sind? In der Regel sind sie neugierig und wissbegierig. Sie hinterfragen, stellen Vermutungen auf und überprüfen diese. Der Erkenntnisgewinn ist die treibende Motivation. Um diesen zu befriedigen, arbeiten sie mit wissenschaftlichen Methoden und setzen ihre gewonnenen Erkenntnisse der Kritik anderer aus. Verfügt ein Individuum über dieses beschriebene „Set an Eigenschaften“, so wird es ihm zukünftig vor dem Hintergrund der allgegenwärtigen Verfügbarkeit von Wissen und Information, den technischen Möglichkeiten zum Aufbau von virtuellen Expertennetzwerken sowie den erforderlichen monetären Mitteln möglich sein, Forschung, Entwicklung, Innovation zu leisten und den erzielten Erkenntnisgewinn zu kommunizieren. Diese „Demokratisierung der Wissenschaft“ in Kombination mit den Strömungen einer „Gesellschaft des Selbermachens“ führt schlussendlich dazu, dass die etablierten Pfade des „Technology Push“ durch alternative Pfade ergänzt, hybridisiert, wenn nicht gar zurückgedrängt werden. Die inhaltliche Basis wird weiterhin durch eine exzellente Grundlagenforschung gebildet, da der oben beschriebene Dreiklang aus Kompetenz, Netzwerk und Finanzierung für diese Art der Forschung nicht oder kaum auf individueller Ebene leistbar sein wird. Betrachtet man „Market-Pull“ wie bereits erwähnt als die Suche nach innovativen Lösungen für ein gegebenes Problem und Innovationen als Reaktionen auf spezifische Marktbedürfnisse, so schafft die Digitalisierung bereits jetzt und zukünftig noch verstärkt gänzlich neue Kunden-Anbieter-Beziehungen, die den Nährboden für marktgetriebene Innovationen bilden. Ville Tikka, einer der Gründer des Thinktanks „Wevolve“, beschreibt einen zukünftigen möglichen Lebensstil als
166
Hans-Jörg Bullinger, Rainer Nägele
„Augumented and programmed lives“. Darunter versteht er, dass wir zukünftig in einer Welt des allgegenwärtigen Internets und der allgegenwärtigen Information leben werden, die es uns ermöglichen wird, alle Aspekte unseres Lebens im Austausch und in Kommunikation mit Menschen und Dingen zu gestalten. Wenn nur ein Bruchteil dieser Vision Realität werden wird, so erscheint es naheliegend, dass die Ermittlung spezifischer Marktbedürfnisse, ja sogar individueller Kundennutzen nicht nur machbar, sondern zum Standard wird. Big Data, immer leistungsfähigere Data Analytics in Kombination mit Aspekten der virtuellen Kundenintegration und der künstlichen Intelligenz sind dafür die Wegbereiter. Im Umkehrschluss bedeutet dies aber auch, dass die Anforderungen an Innovationen immer individueller werden und der oben erwähnten „Gesellschaft des Selbermachens“ damit der Weg bereitet wird. Neben dem Menschen als Kunden werden sich zudem Maschinen und/oder Systeme als weitere Kundengruppen etablieren, und die Vorstellung, dass Maschinen für Maschinen entwickeln werden, erscheint nicht mehr abwegig. Zusammenfassend lassen sich die beschriebenen Überlegungen daher in den folgenden vier Hypothesen zusammenfassen: 1. „Forschung und Innovation“ sind wir alle, die in einer Wissensgesellschaft leben. 2. Wissenschaft im engeren (klassischen) Sinne findet auf Grundlagenniveau statt und ist der Treibstoff der Wissensgesellschaft. 3. „Technology Push“ und „Market Pull“ rücken immer näher zusammen und werden eins. 4. Disruptive Inventionen und Innovationen sind weiterhin nur durch „Technology Push“ möglich. Die Frage nach der Zukunft ist zutiefst menschlich und von dem Bedürfnis motiviert, sich auf das, was kommt, vorzubereiten. Der Versuch einer Antwort auf diese Fragen ist jedoch gleich in doppelter Hinsicht trügerisch: Einerseits lassen sich die Entwicklungen in einer sich schnell verändernden Welt nicht präzise vorhersagen. Andererseits vermochte der Umstand, dass man den Wandel nicht konkret vorhersagen kann, das menschliche Fortschrittstreben bislang nicht zu lähmen. Seit jeher bewältigte die Menschheit den Wandel, indem sie sich an veränderte Arbeits- und Lebensbedingungen anpasste. Es scheint, dass die Gestaltungskraft der Menschen groß genug ist, alle Herausforderungen anzunehmen und Lösungen zu deren Bewältigung umsetzen zu können. Dies scheint für die großen Themen wie das weltweite Bevölkerungswachstum und dem damit verbundenen Nahrungsbedarf oder dem Klimawandel und dem Energiebedarf genauso zu gelten wie für die kleinen Dinge der menschlichen Existenz. Auf eine ungewisse Zukunft bereitet man sich idealerweise vor, indem man diese versucht aktiv mitzugestalten – und zugleich dort anpassungsfähig zu bleiben, wo die eigenen Gestaltungsmöglichkeiten enden. Die Beherrschung von Ungewissheiten wird daher zu einer existenziellen Aufgabe von Institutionen und Individuen.
Zur Zukunft von „Technology Push“ und „Market Pull“
167
LITERATUR Bundesministerium für Bildung und Forschung (2014): Gesellschaftliche Entwicklungen 2030, online verfügbar unter http://www.vditz.de/meldung/bmbf-foresight-berichte-so-sieht-die-weltim-jahr- 2030-aus (Zugriff am: 2.2.2018). Moore, Geoffrey A. (1991): Crossing the Chasm – Marketing and Selling High- Tech Products to Mainstream Customers, HarperCollins Publishers. National Institute of Science and Technology Policy (2010): Contribution of Science and Technology to Future Society, online verfügbar unter http://data.nistep.go.jp/dspace/bitstream/11035/ 1183/1/NISTEP-NR145- FullE.pdf (Zugriff am: 2.2.2018). Scheer, August-Wilhelm (1990): CIM im Mittelstand, Tagungsband zur Fachtagung CIM im Mittelstand 14. bis 15.2.1990, Springer-Verlag, Berlin, Heidelberg. Tikka, Ville (2014): Future Lifestyles in EU and the US, online verfügbar unter http://espas.eu/orbis/ sites/default/files/generated/document/en/10%20EFFLA%20Study%20%20Tikka%20%20 Wevolve%20%20Life%20styles.pdf (Zugriff am: 2.2.2018).
NACHHALTIGKEIT – TOTGERITTEN UND LEBENDIGE NOTWENDIGKEIT Christian Berg Für Sonntagsreden und Festschriften ist der Begriff Nachhaltigkeit geradezu prädestiniert. Denn einerseits ist er positiv besetzt, scheint einen für alle erstrebenswerten Zustand zu beschreiben und ist als politisches Ziel festgeschrieben. Wer Nachhaltigkeit für sich reklamiert, kann kaum jemanden gegen sich haben. Andererseits – und auch als Folge daraus – wird der Begriff in einer Weise ge- und zum Teil missbraucht, dass alles und nichts damit gesagt zu sein scheint. Nachhaltigkeit changiert in seiner Verwendung zwischen Allquantor und Leerformel, in ihm schlägt quasi das Sein in das Nichts um. So mag man sich dem Urteil Frank Uekötters anschließen: „Zur Nachhaltigkeit ist, so scheint es, alles Sinnvolle gesagt und auch ein guter Teil des Sinnlosen.“1 Warum ist das so? Warum ist der Begriff so schillernd, so verbreitet und anscheinend so bedeutungs- oder zumindest folgenlos? Im Folgenden soll gezeigt werden, warum „Nachhaltigkeit“ ein so ambivalentes Schicksal erfährt – warum es ad nauseam strapaziert wird und trotz aller Schwierigkeiten unverzichtbar ist. 1 WARUM TOTGERITTEN? NACHHALTIGE SCHWIERIGKEITEN 1.1 Spannung zwischen Begriffssemantik und Begriffsverwendung Dass mir mit dem Titel dieses Beitrags die Aufgabe gegeben wurde, der Ambivalenz des Begriffs bzw. des Konzepts Nachhaltigkeit nachzuspüren, ist insofern kurios, als ich einer sehr ähnlichen Frage bereits vor 15 Jahren in einer anderen Festschrift, für Michael F. Jischa, nachgegangen bin.2 Schon damals gab es hinreichend Anlass, sich über diesen strapazierten Begriff Gedanken zu machen – und was ist seitdem nicht alles über Nachhaltigkeit geschrieben und gesagt worden! Wie ich damals argumentierte, hängt die Proliferation der Verwendung des Nachhaltigkeitsbegriffs mit der nicht aufzulösenden Spannung zwischen Wortsemantik und Wortverwendung zusammen bzw. zwischen Wortsemantik und dem normativen Konzept einer nachhaltigen Entwicklung3. Dem Wortsinne nach ist „nachhaltig“ wertneutral und 1 2 3
Uekötter, Frank: Ein Haus auf schwankendem Boden: Überlegungen zur Begriffsgeschichte der Nachhaltigkeit. In: Aus Politik und Zeitgeschichte, 31–32, 2014, S. 9–15. Berg, Christian, Nachhaltigkeit oder Futerumanum? Zur Kritik eines Begriffs zehn Jahre nach „Rio“. In: Berg, Christian; Charbonnier, Ralph; Tulbure, Ildiko (Hg.): Folgenabschätzungen. Resonanzen zum 65. Geburtstag von Michael F. Jischa. Clausthal-Zellerfeld 2002. S. 69–80. a. a. O., S. 72 ff.
170
Christian Berg
bedeutet lediglich, „sich auf längere Zeit stark auswirkend“4. Im Sinne der Wortsemantik könnte man sagen, dass die Menschheit derzeit dabei ist, ihre Lebensgrundlagen auf längere Zeit hin massiv zu beeinträchtigen, die Menschheit betreibt eine sehr nachhaltige Schädigung ihrer natürlichen Lebensgrundlagen, also eine nachhaltige Umweltzerstörung. Im Sinne des Konzepts „Nachhaltigkeit“ wäre dies aber geradezu eine contradictio in adjecto, denn die Bedürfnisse künftiger Generationen werden ohne natürliche Lebensgrundlagen nicht zu befriedigen sein.5 Zur Lösung dieser Spannung schlug ich damals vor, anstelle des semantisch nur formal bestimmten, inhaltlich aber leeren Begriffs der Nachhaltigkeit einen neuen Begriff zu schaffen, der nicht die (momentan messbare) Wirkung einer Maßnahme oder Handlung als vielmehr das Ziel derselben formuliert. Das Ziel sollte sein, die Zukunft der Erde und des Menschlichen zu erhalten: futurum terrae et humanorum, Futerumanum. Da dieser Vorschlag nicht wirklich realistisch ist, werden wir wohl mit der genannten Spannung leben müssen, die zu ambivalenten Verwendungen geradezu einlädt. „Nachhaltig“ wird dann zu einer Bestärkungs-Leerformel, zu einem adjektivischen Ausrufungszeichen! Das ist der erste, semantische Grund für die Sprachverwirrung. 1.2 Nachhaltigkeit wirkt (nur) als regulative Idee Wenn nachhaltige Entwicklung beansprucht, die Bedürfnisse der gegenwärtigen Generationen zu befriedigen, ohne die der künftigen Generationen zu gefährden, dann setzt das ein Wissen darüber voraus, wie denn künftige Generationen ihre Bedürfnisse befriedigen – was naturgemäß nur in Umrissen und für nahe Zukünfte möglich ist und letztlich immer von unseren heutigen Prämissen ausgeht. Ein Ausweg aus diesem Dilemma wird versucht, indem die Bewältigung von Herausforderungen nicht in die Zukunft verlagert werden darf, wie es die Grundregel der deutschen Nachhaltigkeitsstrategie verlangt: „Jede Generation muss ihre Aufgaben selbst lösen und darf sie nicht den kommenden Generationen aufbürden. Zugleich muss sie Vorsorge für absehbare zukünftige Belastungen treffen.“6 Wann aber eine Generation wirklich die „eigenen Aufgaben“ löst und für „absehbar zukünftige Belastungen“ ausreichend Vorsorge getroffen hat, wann also ein Zustand als nachhaltig bezeichnet zu werden verdient, lässt sich nie wirklich sagen. Deswegen ist das Konzept Nachhaltigkeit im Sinne einer „regulativen Idee“ zu ver4 5
6
Dudenredaktion (Hg.): Duden – Deutsches Universalwörterbuch. Mannheim, Leipzig, Wien, Zürich 2001(4). S. 1116. In der berühmten „Brundtland“-Definition ist ja nachhaltige Entwicklung „a development that meets the needs of the present without compromising the ability of future generations to meet their own needs”, zitiert nach Wikisource: https://en.wikisource.org/wiki/Brundtland_Report/ Chapter_2._Towards_Sustainable_Development (Zugriff am: 28.3.2017). Vgl. die deutsche Ausgabe: Hauff, Volker (Hg.): Unsere gemeinsame Zukunft. Der Brundtland-Bericht der Weltkommission für Umwelt und Entwicklung. Greven 1987. Bundesregierung der Bundesrepublik Deutschland: Deutsche Nachhaltigkeitsstrategie. Neuauflage 2016. Berlin 2016. S. 33.
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit
171
stehen.7 Als regulative Idee bleibt Nachhaltigkeit notgedrungen eine abstrakte Forderung. Was im Konkreten wirklich nachhaltig ist, lässt sich wegen der diachronen, intergenerationellen Perspektive und der Berücksichtigung der natürlichen Umwelt noch weniger bestimmen als im Falle des verwandten Begriffs der Gerechtigkeit. Und schon bei der Frage, was gerecht ist, scheiden sich die Geister. 1.3 Herausforderungen bei der Operationalisierung Der Operationalisierung des Leitbilds Nachhaltigkeit stehen sodann eine ganze Reihe von Schwierigkeiten entgegen, die ebenfalls dazu beitragen, dass die Forderung nach Nachhaltigkeit leerformelhaft ist, weil sie folgenlos bleibt. Diese Schwierigkeiten zu bestimmen, ist eine wichtige Voraussetzung für die Übersetzung der regulativen Idee in konkretes (politisches) Handeln. Aus meiner Sicht lassen sich dabei zwei grundsätzlich verschiedene Kategorien von Schwierigkeiten unterscheiden, kontingente und strukturelle (bzw. akzidentelle und notwendige). Während erstere ihren Grund in Bedingungen haben, die mit dem Konzept der Nachhaltigkeit nicht notwendig verbunden sind, die also grundsätzlich auch anders denkbar und gestaltbar wären, haben letztere ihren Grund im Konzept der Nachhaltigkeit selbst, sie sind strukturell mit dem Konzept verbunden – und lassen sich daher auch nicht grundsätzlich beseitigen, will man das Konzept selbst nicht aufgeben. 1.3.1 Kontingente Herausforderungen Rahmenbedingungen des Marktes Der obengenannte Grundregel, wonach jede Generation ihre eigenen Aufgaben lösen muss und sie nicht künftigen Generationen aufbürden darf, könnte im Marktgeschehen durch die konsequente Umsetzung des Verursacherprinzips entsprochen werden, was bedeutet, dass soziale und ökologische Kosten internalisiert werden.8 Mit dem besseren Verständnis globaler Umweltveränderungen und ihren anthropogenen Ursachen wird auch die Berechnung der damit verbundenen Kosten ermöglicht (vgl. „Stern-Report“). Das gegenwärtige Marktsystem, genauer gesagt: die politischen Rahmenbedingungen desselben, stehen an vielen Stellen einer Internalisierung negativer ökologischer Externalitäten entgegen. Schlimmer noch, anstatt beispielsweise Kosten für den Klimaschutz in die Nutzung fossiler Brennstoffe zu integrieren, wird die Nutzung fossiler Energieträger jedes Jahr weltweit mit mehr als 500 Milliarden Dollar subventioniert9! 7
8 9
So schon in: Deutscher Bundestag (Hg.): Konzept Nachhaltigkeit. Vom Leitbild zur Umsetzung. Abschlussbericht der Enquete-Kommission „Schutz des Menschen und der Umwelt – Ziele und Rahmenbedingungen einer nachhaltig zukunftsverträglichen Entwicklung“ des 13. Deutschen Bundestages. Bonn 1998. S. 28. vgl. Gabler Wirtschaftslexikon: Stichwort „Verursacherprinzip“. http://wirtschaftslexikon. gabler.de/Archiv/1852/verursacherprinzip-v7.html (Zugriff am: 20.3.2017). International Energy Agency: World Energy Outlook 2014. Paris 2014, S. 313. http://www.iea. org/publications/freepublications/publication/WEO2014.pdf (Zugriff am: 29.3.2017).
172
Christian Berg
Da es keine global einheitlichen Marktbedingungen gibt, können global operierende Unternehmen die Unterschiede zwischen nationalen Gesetzgebungen geschickt nutzen, um Kostenvorteile zu erzielen – was in der Regel mit der Externalisierung sozialer und ökologischer Kosten verbunden ist. Man sieht dies an Standards des Arbeitsschutzes und der Arbeitssicherheit in Asiens Textil- und Elektroindustrie, an der Elektroschrott-Verbrennung auf afrikanischen Müllhalden oder der Luftverschmutzung in chinesischen Großstädten. Diese Externalitäten haben noch einen weiteren ökologischen Nachteil. Da die fehlende Internalisierung externer Kosten den Verbrauch von Rohstoffen gleichsam subventioniert, sind Kosten für Rohstoff-Beschaffung wie auch für Produktentsorgung vergleichsweise niedrig. Unternehmen konkurrieren deshalb darum, möglichst viel ihrer Produkte zu einem möglichst günstigen Preis (ceteris paribus) an die Kunden zu verkaufen, was u. a. kurze Produktlebenszeiten, schlechte Aufund Nachrüstbarkeit, schlechte Demontagepfade bis hin zu geplanter Obsoleszenz führt. Das dringend erforderliche Wirtschaften in Kreisläufen ist so in weiter Ferne. Dass für globale Umweltveränderungen eine verursachergerechte Kostenallokation wiederum global zu erfolgen hätte, erschwert die technische Umsetzung. Dies ist eine zweite kontingente Herausforderung für die Operationalisierung von Nachhaltigkeit. Fehlende bzw. unzureichende globale Institutionen Im nationalen Alleingang ließe sich das Verursacherprinzip nur auf Kosten der eigenen Wettbewerbsfähigkeit durchsetzen, was politisch schwer umsetzbar ist. Außerdem wäre die Frage, ob beispielsweise Nachfragerückgänge, die durch verursachergerechte Kostenallokation bedingt wären, nicht andernorts zu entsprechenden Zuwächsen der Nachfrage führen würden, da ein Rückgang der Nachfrage den Preis senkt. Globalen Herausforderungen lässt sich nur mit globalen Maßnahmen begegnen. Eine wirksame Operationalisierung des Nachhaltigkeitsleitbilds erfordert deshalb zumindest ein kohärentes Vorgehen der wichtigsten globalen Akteure. Wie schwierig es aber ist, ein solch kohärentes Vorgehen zu erzielen, internationale Übereinkünfte zu verabschieden oder wirksame globale Institutionen zu errichten, zeigt sich an den zahllosen Verhandlungen der Conference of the Parties (COP), der fehlenden weltweiten Anerkennung des Internationalen Strafgerichtshofs oder der von vielen beklagten Ineffektivität der Vereinten Nationen. Wirkmächtigkeit der Technik Die Mächtigkeit technischer Wirkungen in Raum und Zeit potenziert die mit der Forderung nach Nachhaltigkeit gegebene Herausforderung. Das Endlager für radioaktiven Müll, für das bis 2031 ein Standort gesucht und das bis 2050 fertiggestellt werden soll, muss den radioaktiven Müll über eine Million (!) Jahre sicher verwahren. Die Neandertaler sind vor etwa 40 000 Jahren ausgestorben, vor einer Millionen Jahre war die Gattung Homo sapiens gerade erst im Entstehen. Keine menschliche Hochkultur hat mehr als maximal wenige tausend Jahre überdauert. Wie sollen
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit
173
die Folgewirkungen von Technik über Zeiträume beherrschbar bleiben, die tausend Mal länger sind als die Existenz der dauerhaftesten menschlichen Zivilisationen?10 Es gibt noch eine Reihe weiterer Herausforderungen für die Operationalisierung von Nachhaltigkeit, die wir hier nur kurz nennen können, wie etwa wie Rebound-Effekte, fehlerhafte Anreizsysteme oder die durch technischen Wandel und globalen Wettbewerb beschleunigte Kurzfristorientierung in vielen Bereichen. 1.3.2 Strukturelle Herausforderungen Ziel- und Interessenkonflikte Die wohl größte Herausforderung bei der Operationalisierung von Nachhaltigkeit ist die Frage, wie die Interessenkonflikte unterschiedlicher Akteure und die Zielkonflikte zwischen verschiedenen Teilzielen in einem fairen Prozess ausgehandelt und gelöst werden können. Soll der Regenwald geschützt oder ein verhungerndes Kind ernährt werden? Schon bei der Forderung nach Gerechtigkeit sind solche Güterabwägungen schwer genug zu realisieren – wenn nun noch die Perspektive einer gerechten Berücksichtigung der Interessen künftiger Generationen hinzukommt und die Berücksichtigung der natürlichen Lebensgrundlagen, wird diese Aufgabe in der Praxis fast unlösbar. Sie erfordert jedenfalls bestmögliche Transparenz über Ziel- und Interessenkonflikte, um diese einem öffentlichen Prozess zugänglich zu machen. Komplexität der Wirkungsketten Viele natürliche Zusammenhänge entziehen sich mathematisch-analytischer Beschreibung, weil sie in nicht-linearen dynamischen Systemen auftreten. Schon für einfachste Beispiele aus der Mechanik (z. B. Bewegung eines Doppelpendels) oder Ökologie (z. B. Räuber-Beute-Systeme) lassen sich Lösungen nur noch numerisch, das heißt näherungsweise angeben. Je komplexer die Wirkungsketten werden, desto schwieriger wird auch deren Modellierung. Angesichts weltweiter Vernetzung wirtschaftlicher, gesellschaftlicher und kultureller Aktivitäten und der Wirkmächtigkeit heutiger Technik befinden wir uns quasi in einem Reallabor für Mensch-UmweltInteraktionen.11 Hinreichend viele Beispiele belegen, dass gutgemeinte Aktionen gegenteilige Effekte erzielen können – wie zum Beispiel die 1935 als natürliche Schädlingsbekämpfung nach Australien eingeführten Aga-Kröte, die aufgrund feh10 An dieser Stelle, bei der Technik, treffen sich unsere Überlegungen zum Thema Nachhaltigkeit mit den Arbeiten von Klaus Kornwachs, dem es stets um eine „menschengerechte Technikgestaltung“ geht (so der Untertitel von: Kornwachs, Klaus: Information und Kommunikation. Zur menschengerechten Technikgestaltung. Berlin, Heidelberg 1993.). Zwar nicht expressis verbis, de facto jedoch sehr wohl auf Nachhaltigkeit ausgerichtet, ist z. B. Kornwachs’ Prinzip der Bedingungserhaltung: „Handle so, dass die Bedingungen der Möglichkeit des verantwortlichen Handelns für alle Beteiligten erhalten bleiben.“ (ders.: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Reihe „Technikphilosophie“. Bd. 1. Münster, Hamburg, London 2000. S. 60.) 11 Zur weltweiten Vernetzung vgl. Berg, Christian: Vernetzung als Syndrom. Risiken und Chancen von Vernetzungsprozessen für eine nachhaltige Entwicklung. Frankfurt am Main 2005.
174
Christian Berg
lender natürlicher Feinde im neuen Habitat mittlerweile auf eine Population von ca. 200 Millionen Exemplare angewachsen ist, sich mit 25 % pro Jahr vermehrt und die einheimischen Tiere und Pflanzen bedroht.12 Dass schon eine einzige gutgemeinte Aktion solch verheerenden Wirkungen zeitigen kann, verdeutlicht die Komplexität ökologischer Zusammenhänge, die eine einmal aus dem Ruder gelaufene Entwicklung schwer beherrschbar werden lässt. Wie sollen angesichts dessen die langfristigen Folgen heutiger Maßnahmen eingeschätzt werden? Komplizierte Analysen und Betrachtungsweisen Nicht nur sind die realen Wirkungsketten sehr komplex. Auch die Frage der Analysebzw. Betrachtungsperspektive herrscht aufgrund der Multidimensionalität des Konzepts der Nachhaltigkeit eine sehr unübersichtliche Situation. Um diese Komplexität der Nachhaltigkeitsforderung für die Praxis in Unternehmen, beim Konsum, in der Politik zu reduzieren, sind verschiedene Methoden entwickelt worden – wie zum Beispiel der „Carbon Footprint“. Abgesehen davon, dass es bis heute nicht trivial ist, den Carbon Footprint eines Produktes entlang der gesamten Wertschöpfungskette genau zu berechnen, geschieht diese Berechnung naturgemäß unter Ausblendung vieler anderer Effekte. Der Carbon Footprint eines Produktes macht, zum Beispiel, keinerlei Aussagen zur Toxizität, zum Wasserverbrauch oder zu den Standards für Arbeitsschutz und Arbeitssicherheit entlang der Lieferkette – was bei einer Beurteilung der „Nachhaltigkeit“ eines Produktes allerdings unabdingbar wäre. So kommt es, dass lang geglaubte Selbstverständlichkeiten plötzlich in Frage gestellt werden. Wegen des hohen Ressourceneinsatzes (vor allem von Wasser, Energie und Dünger) sowie der ökologischen Belastungen (Treibhausgasemissionen, Bodendegradation, Verlust an Biodiversität etc.) gilt vegetarische Ernährung meist als nachhaltiger als eine tierische Diät. Misst man allerdings den Energiebedarf, den Wasserbedarf und die Treibhausgasemissionen und folgt den Ernährungsempfehlungen des US-Landwirtschaftsministeriums, dann weist eine vegetarische Diät laut einer Studie von 2015 eine Verschlechterung der ökologischen Indikatoren gegenüber der heutigen Standard-Ernährung in den USA auf!13 Entscheidend ist nämlich, womit der Kalorienbedarf des Fleisches kompensiert wird – wird im selben Maße mehr Obst konsumiert, kann sich der gutgemeinte Schritt zum Vegetarismus ökologisch negativ auswirken. Nachhaltigkeit als permanente Überforderung Angesichts der genannten Operationalisierungs-Herausforderungen birgt die Forderung nach einem nachhaltigen Handeln die Gefahr einer permanenten Überforderung. Denn wenn jede Handlung nicht nur die je angestrebten Zwecke, sondern auch noch der Erhalt der Lebensgrundlagen und das Wohl künftiger Generationen 12 13
vgl. Artikel „Aga-Kröte“. In: Wikipedia, https://de.wikipedia.org/wiki/Aga-Kr%C3%B6te (Zugriff am: 28.3.2017). Tom, Michelle S.; Fischbeck, Paul S.; Hendrickson, Chris T.: Energy use, blue water footprint, and greenhouse gas emissions for current food consumption patterns and dietary recommendations in the US. In: Environment Systems and Decisions, 2016, 36: 92. https://doi.org/10.1007/ s10669-015-9577-y.
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit
175
mitbedacht werden soll, wird das Handeln unmöglich. Obwohl die Forderung nach mehr Nachhaltigkeit in der Sache begründeter ist denn je, könnte es daher sogar kontraproduktiv sein, wenn sie zu alarmistisch vorgetragen wird. Zumindest wird sie aber folgenlos bleiben, wenn nicht für konkretes Handeln erkennbar wird, welche Implikationen diese Forderung mit sich bringt. Was dem geltenden Recht und allgemein anerkannten Wertmaßstäben entspricht und was moralisch angemessen, kurz: was gerecht ist, ist weitgehend kodifiziert durch Sitte und Gesetz. Dass auch Sitte und Gesetz permanentem Wandel unterliegen und immer nur Annäherungen an eine gerechte Ordnung darstellen können, ändert nichts an ihrer komplexitätsreduzierenden, das Handeln erleichternden Funktion. Für die Frage, was nachhaltig ist, lässt sich (noch?) nichts Entsprechendes angeben – und vermutlich ist das auch nicht in derselben Weise möglich wie bei der Frage nach Gerechtigkeit. Solange eine solche Komplexitätsreduktion fehlt, bleibt die Forderung nach Nachhaltigkeit abstrakt. Sie wird zur Leerformel für Sonntagsreden und Festschriften. 2 NACHHALTIGKEIT ALS LEBENDIGE NOTWENDIGKEIT Es gibt Dinge, die müsste man erfinden, wenn es sie nicht schon gäbe. Die Vereinten Nationen gehören dazu. Man kann Ineffizienz, Bürokratie, Vetternwirtschaft und Korruption und vieles andere mehr beklagen, aber dass es einen Ort gibt, an dem die Völker dieser Welt gemeinsam nach Lösungen für ihre geteilten Herausforderungen suchen, ist für ein friedliches, solidarisches und kooperatives Miteinander zwischen den Völkern unverzichtbar. Ähnlich ist es mit dem Konzept „Nachhaltigkeit“. Auch wenn es schwer operationalisierbar ist, oft unkonkret bleibt, immer mit Zielkonflikten verbunden ist, die Gefahr ständiger Überforderung mit sich bringt und auch die Begriffswahl des deutschen Wortes „Nachhaltigkeit“ ihre Tücken hat – das Konzept der nachhaltigen Entwicklung müsste man erfinden, wenn es es nicht schon gäbe. Als normatives Konzept ist es buchstäblich notwendig – denn die Grundbedürfnisse der gegenwärtigen Generation sind noch nicht befriedigt, wenn immer noch mehr als eine halbe Milliarde Menschen hungern und keinen Zugang zu sauberem Trinkwasser haben. Und angesichts der globalen Umweltveränderungen, von denen der Klimawandel nur das prominenteste Beispiel ist, steht auch zu befürchten, dass künftige Generationen es immer schwerer haben werden, ihre Bedürfnisse zu befriedigen. In den Worten des UN-Generalsekretärs Ban Ki-moon: „We are the first generation that can put an end to poverty and we are the last generation that can put an end to climate change …“14 Nachhaltigkeit ist nicht nur eine normatives Konzept, eine moralische Forderung, sondern auch Ausdruck aufgeklärten Eigeninteresses. Kein Land kann auf Dauer seine Probleme alleine lösen – und kein Land wird es sich auf Dauer leisten können, nicht solidarisch zu sein. Der Wohlstand der reichen Länder hängt auch am Fortbestand der Regenwälder, die Entwicklungschancen der armen Länder werden 14
Ki-moon, Ban: Rede vor der Katholischen Universität Leuven am 28.5.2015. https://www. un.org/press/en/2015/sgsm16800.doc.htm (Zugriff am: 24.3.2017).
176
Christian Berg
auch durch Subventionspolitik des Nordens erschwert, der daraus entstehende Migrationsdruck gefährdet die gesellschaftliche Stabilität der Industrieländer. Schon die vergleichsweise wenigen Flüchtlinge, die durch die Auseinandersetzungen im Nahen Osten nach Europa und Deutschland drängen, führen zum Erstarken des Rechtspopulismus – obwohl selbst in Deutschland im Mittel auf je 50 Einwohner nur ein Flüchtling kommt. Bangladesh, eines der am dichtesten besiedelten Länder weltweit, liegt zu weiten Teilen des Landes nur ein bis zwei Meter über dem Meeresspiegel. Indien ist mit einem 3000 km langen Grenzzaun schon gerüstet gegen den Migrationsdruck. Wo sollen die fast 160 Millionen Menschen leben, wenn der Meeresspiegel steigt? Jeder, der Kinder hat, wird auch seinen Kindern und Enkeln wünschen, dass auch sie Kinder und Enkel haben können. Damit eröffnet sich ein Zeithorizont, der leicht bis ins Jahr 2200 reicht. Bis dahin könnte der Meeresspiegel um 1,5 bis 3,5 Meter steigen. Dann werden dutzende Millionen von Menschen eine neue Heimat suchen, mit sozialen Verwerfungen, die man sich jetzt wohl noch nicht wirklich vorstellen kann. Mit der Agenda 2030 und den 17 Nachhaltigkeitszielen mit ihren 169 Unterzielen ist die Operationalisierung insofern vorangekommen, als es konkrete Ziele gibt und jeder Staat in der Pflicht ist, sie für sich zu konkretisieren und zu kontextualisieren. Insofern ist zwischen der Erklärung von „Rio“ 1992 und der Agenda 2030 von 2015 ein wichtiger Fortschritt zu verzeichnen. Das Problem der Zielkonflikte bleibt aber bestehen. Die 17 Nachhaltigkeitsziele beschreiben fast eine Utopie: kein Hunger, keine Armut, gesunde Umwelt, Gleichberechtigung und Zusammenarbeit zwischen den Völkern. Es bestehen allerdings ernste Zweifel, dass sich die 17 Ziele gleichzeitig erreichen lassen. Es gibt erhebliche Zielkonflikte, zum Beispiel im Bereich der Biomasse. Eine Studie des Institute for Advanced Sustainability Studies kommt zu dem Ergebnis bzgl. dieser 17 Ziele: „they cannot be met sustainably.“15 Gleichwohl, die Millenium Development Goals (MDGs) haben gezeigt, dass globale Zielvorgaben viel bewirken können, weil sie für alle Akteure Orientierung geben. Nicht alle MDGs wurden erreicht, aber der Fortschritt im Bereich Kindersterblichkeit, Armutsbekämpfung und verbesserten Lebensbedingungen in den Entwicklungsländern ist bemerkenswert. Nachhaltigkeit ist letztlich eine hochkomplexe und multidimensionale Optimierungsaufgabe. „People, Planet, Prosperity, Partnership, and Peace“ gehören zusammen, wie es die Agenda 2030 ausdrückt – auf den Begriff gebracht ist es die Forderung nach einer nachhaltigen Entwicklung. Dass die Reichen dieser Welt die Ökosysteme für ihre Kinder und Enkel nicht schützen können, wenn vielen Armen immer noch die Mittel fehlen, heute ihre Kinder zu ernähren – dieser Gedanke entspricht sowohl aufgeklärtem Eigeninteresse als auch moralischem Imperativ. Wenn Nachhaltigkeit tatsächlich ein Thema für Festschriften ist, dann werde ich vielleicht in 15 Jahren wieder über dieses Thema nachdenken – und dann werden wir hoffentlich feststellen, dass die Nachhaltigkeitsziele uns auf dem Weg zur Umsetzung einer nachhaltigen Entwicklung trotz allem ein wenig nähergebracht haben. 15
Institute for Advanced Sustainability Studies (IASS): The Role of Biomass in the Sustainable Development Goals: A Reality Check and Governance Implication. IASS Working Paper. Potsdam 2015. S. 4.
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit
177
LITERATUR Artikel „Aga-Kröte“. In: Wikipedia, https://de.wikipedia.org/wiki/Aga-Kr%C3%B6te (Zugriff am: 28.3.2017). Berg, Christian, Nachhaltigkeit oder Futerumanum? Zur Kritik eines Begriffs zehn Jahre nach „Rio“. In: Berg, Christian; Charbonnier, Ralph; Tulbure, Ildiko (Hg.): Folgenabschätzungen. Resonanzen zum 65. Geburtstag von Michael F. Jischa. Clausthal-Zellerfeld 2002. S. 69–80. ders.: Vernetzung als Syndrom. Risiken und Chancen von Vernetzungsprozessen für eine nachhaltige Entwicklung. Frankfurt am Main 2005. Bundesregierung der Bundesrepublik Deutschland: Deutsche Nachhaltigkeitsstrategie. Neuauflage 2016. Berlin 2016. Deutscher Bundestag (Hg.): Konzept Nachhaltigkeit. Vom Leitbild zur Umsetzung. Abschlussbericht der Enquete-Kommission „Schutz des Menschen und der Umwelt – Ziele und Rahmenbedingungen einer nachhaltig zukunftsverträglichen Entwicklung“ des 13. Deutschen Bundestages. Bonn 1998. Dudenredaktion (Hg.): Duden – Deutsches Universalwörterbuch. Mannheim, Leipzig, Wien, Zürich 2001(4). Gabler Wirtschaftslexikon: Stichwort „Verursacherprinzip“. http://wirtschaftslexikon.gabler.de/ Archiv/1852/verursacherprinzip-v7.html (Zugriff am: 20.3.2017). Hauff, Volker (Hg.): Unsere gemeinsame Zukunft. Der Brundtland-Bericht der Weltkommission für Umwelt und Entwicklung. Greven 1987. Institute for Advanced Sustainability Studies (IASS): The Role of Biomass in the Sustainable Development Goals: A Reality Check and Governance Implication. IASS Working Paper. Potsdam 2015. International Energy Agency: World Energy Outlook 2014. Paris 2014, S. 313. http://www.iea.org/ publications/freepublications/publication/WEO2014.pdf (Zugriff am: 29.3.2017). Ki-moon, Ban: Rede vor der Katholischen Universität Leuven am 28.5.2015. https://www.un.org/ press/en/2015/sgsm16800.doc.htm (Zugriff am: 24.3.2017). Kornwachs, Klaus: Information und Kommunikation. Zur menschengerechten Technikgestaltung. Berlin, Heidelberg 1993. ders.: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Reihe „Technikphilosophie“. Bd. 1. Münster, Hamburg, London 2000. Tom, Michelle S.; Fischbeck, Paul S.; Hendrickson, Chris T.: Energy use, blue water footprint, and greenhouse gas emissions for current food consumption patterns and dietary recommendations in the US. In: Environment Systems and Decisions, 2016, 36: 92. https://doi.org/10.1007/ s10669-015-9577-y.
WARUM MEDIZINTECHNIK NICHT FÜR ALLE DA SEIN KANN Thomas Bschleipfer Medizintechnik, auch als biomedizinische Technik bezeichnet, wird von Wikipedia als „Anwendung von ingenieurwissenschaftlichen Prinzipien und Regeln auf dem Gebiet der Medizin“ definiert. „Sie kombiniert Kenntnisse aus dem Bereich der Technik, besonders dem Lösen von Problemen und der Entwicklung, mit der medizinischen Sachkenntnis der Ärzte, der Pflegefachleute und anderer Berufe, um die Diagnostik, Therapie, Krankenpflege, Rehabilitation und Lebensqualität kranker oder auch gesunder Einzelpersonen zu verbessern.“1 Diese Definition verdeutlicht, dass sich Medizintechnik nicht nur auf technische Instrumente beschränkt. Medizintechnik umfasst mehr: Sie bedarf zunächst der Verfügbarkeit und Funktionsfähigkeit von technischen Instrumenten, ferner das Know-how des bedienenden Personals, die medizinische Expertise zur Indikationsstellung, Anwendung und im Falle von diagnostischen Verfahren der Interpretation möglicher Befunde. Zur Medizintechnik können auch Wearables gezählt werden, die eine tragbare Datenverarbeitung ermöglichen und während der Anwendung am Körper des Benutzers befestigt sind.2 Diese Wearable Computers „verfolgen und dokumentieren“ die tägliche Aktivität des Benutzers und registrieren die unterschiedlichsten Körperparameter. Der breiten medizinischen Anwendung dürfte künftig nichts im Wege stehen, sobald die Qualität der erfassten Daten noch weiter verbessert wird. „Sie integrieren dann ausgefeilte Sensortechnologien, leisten entsprechende Konnektivität und können dazu führen, dass mehr Patienten mit chronischen Leiden zuhause überwacht und medizinisch behandelt werden.“3 Schließlich muss auch das Internet als Medizintechnik im weitesten Sinne gesehen werden. Während das World Wide Web in der Medizin ursprünglich als wissenschaftliches Netzwerk genutzt wurde, gewinnen Telemedizin und Internetmedizin immer mehr an Bedeutung. In vielen Ländern ist die Telemedizin bereits gängige Praxis. In Deutschland gilt jedoch (noch) ein Fernbehandlungsverbot.4 1 2 3 4
Artikel „Medizintechnik“. In Wikipedia, https://de.wikipedia.org/w/index.php?title=Medizintechnik &oldid=158229517 (Zugriff am: 8.11.2016). Artikel „Wearable Computing“. In: Wikipedia, https://de.wikipedia.org/w/index.php?title= Wearable_Computing&oldid=154601583 (Zugriff am: 14.11.2016). Imec, Jan Provoost: Wearables für die Gesundheit. In: Medizin und Technik, 8.6.2015, http:// medizin-und-technik.industrie.de/allgemein/wearables-fuer-die-gesundheit/ (Zugriff am: 14.11.2016). Trumpf, Steffen: Ärzte streiten über Verbot von Online-Diagnosen. Spiegel online, 12.11.2013, http://www.spiegel.de/gesundheit/diagnose/telemedizin-aerzte-streiten-ueber-verbot-vononline-diagnosen-a-933059.html (Zugriff am: 14.11.2016).
180
Thomas Bschleipfer
Bei der Frage „Medizintechnik für alle?“ muss nicht nur die Begrifflichkeit Medizintechnik präzisiert und definiert werden, sondern auch die Gruppe aller Akteure. Im Mittelpunkt steht unbestritten der Patient. Ferner von Bedeutung sind dessen Angehörige oder Betreuer, der Arzt, das Ärzteteam und das betreuende Pflegepersonal. Hinzu kommen das technische Personal und die Industrie. Der durch die Industrie geleistete Support ermöglicht erst eine längerfristige Funktion der Medizintechnik. Schließlich sind die Krankenkassen, sei es die gesetzliche Krankenkasse (GKV) oder die privaten Krankenkassen (PKV) und damit die Solidargemeinschaft, welche Medizintechnik zu finanzieren hat, involviert. Bei der philosophischen Betrachtung der Verfügbarkeit und Verwendung einer Ressource wie Medizintechnik muss neben den Beteiligten auch der Aktionsspielraum definiert werden. Hier sind mehrere Szenarien denkbar: Soll ausschließlich die Situation in einer Industrienation wie Deutschland betrachtet, eine weltweite Betrachtung anstrebt oder Sondersituationen betrachtet werden, wie beispielsweise die Verfügbarkeit limitierter Ressourcen in Krisensituationen? Die beiden letzten Punkte sollen in dieser Ausarbeitung nicht diskutiert werden. Hinsichtlich der Allokationsproblematik lebenswichtiger, aber begrenzter Ressourcen in Krisensituationen sei auf meine Dissertation mit dem Thema „Ethik einer Krisenmedizin“ verwiesen.5 Medizintechnik „Made in Germany“ genießt einen exzellenten Ruf und ist weltweit gefragt.6 Grundüberzeugung in den allermeisten Köpfen ist daher, dass uns in Deutschland eine Medizintechnik auf höchstem Niveau zur Verfügung steht – immer, überall und für jedermann. Zu diesem Denken trägt sicherlich die gesteigerte Portabilität von Medizintechnik aber auch die Point-of-care (POC) Diagnostik bei. Ein Bild, welches trügt. Im Folgenden soll geklärt werden, warum auch in einer Industrienation eine hochmoderne Medizintechnik nicht für jedermann zugänglich sein kann. Zunächst und augenscheinlich dürfte der räumliche Aspekt sein. Es lassen sich mobile und immobile Medizintechnik unterscheiden. Mobile Medizintechnik findet sich beispielsweise in Notarzt- oder Rettungswägen, bei der immobilen Medizintechnik handelt es sich unter anderem um Operationssäle oder Computertomographen. Mobile Medizintechnik kommt somit in der Regel zum Patienten, im Falle immobiler Medizintechnik muss der Patient den Weg zur Medizintechnik finden. Sicherlich gibt es auch Zwischenlösungen, wie z. B. eine mobile extrakorporale Stoßwellenlithotripsie (ESWL), die möglicherweise zwischen mehreren Zentren „pendelt“. Doch auch hier muss der Patient zumindest den für ihn nächsten Ort aufsuchen. Medizintechnik ist somit nicht ubiquitär verfügbar. Lebensbedrohlich Verletzte oder Erkrankte sind darauf angewiesen, dass der Rettungsdienst rechtzei5
6
Bschleipfer, Thomas: Ethik einer Krisenmedizin. Kritische Analyse bereichsspezifischer Dilemmata: Ressourcenallokation, Instrumentalisierung und Doppelloyalität. BTU Cottbus, 25.10.2007, https://opus4.kobv.de/opus4-btu/frontdoor/index/index/docId/346 (Zugriff am: 16.11.2016); sowie: Bschleipfer, Thomas; Kornwachs, Klaus: Militärische Einsatzmedizin – Ethische Dilemmata. In: Deutsches Ärzteblatt 2010; 107(30): S. 1448–1450. Krüger-Brand, Heike E.: Medizintechnik: „Made in Germany“ ist gefragt. In: Deutsches Ärzteblatt 2007; 104(45): S. 10; sowie: Wallenfels Matthias: Medizintechnik – Große Exportchancen in Asien. In: Ärzte Zeitung, 5.8.2014, http://www.aerztezeitung.de/praxis_ wirtschaft/medizintechnik/article/866174/medizintechnik-grosse-exportchancen-asien.html (Zugriff am: 14.11.2016).
Warum Medizintechnik nicht für alle da sein kann
181
tig sein Ziel erreicht. Hierauf muss aber auch der Patient zeitnah in einem nächstgelegenen und für ihn geeigneten Zentrum ankommen. Sicherlich konnte durch die Einführung des Rettungsdienstes mit Rendezvous-System und die Einrichtung von Rettungshubschraubern ein Maximum an Zeitersparnis gewonnen werden. Dennoch bedarf es eines Patientenzustandes, der das Erreichen der Rettungskräfte und die entsprechende Weiterbehandlung ermöglicht. Ein limitierender Faktor ist somit zunächst der Patientenzustand, die Schwere der akuten Erkrankung oder Verletzung. Doch auch in der Palliativsituation bei Tumorpatienten scheint die Nähe zum Hausarzt, zum behandelnden Facharzt und zur Klinik als nächstes Zentrum mit medizintechnischer Ausstattung und Versorgungsmöglichkeit von entscheidender Bedeutung zu sein. Dies zeigen erste Ergebnisse einer Versorgungsstudie bei Patienten mit fortgeschrittenem, metastasierten Prostatakarzinom, welche derzeit am Klinikum Weiden der Kliniken Nordoberpfalz AG durchgeführt wird. Zu diskutieren ist, wie es zu werten ist, dass Personen, die fern von Zentren wohnen, systematisch benachteiligt sind. Zum einen ist die Wahl des Lebensmittelpunktes unbestritten eine persönliche Entscheidung. Die Folgen hinsichtlich einer etwaigen Benachteiligung wären somit dem jeweiligen Individuum zuzuschreiben. Die Wahl des Wohnortes wird jedoch aus unterschiedlichsten Gründen und Beweggründen gefällt. Die Priorisierung obliegt dem Einzelnen und wird häufig in einer Situation vorgenommen, in welcher ärztliche bzw. medizintechnische Unterstützung (noch) nicht oder kaum benötigt wird. Wird jedoch eine bewusste Entscheidung für ein Leben in für den Rettungsdienst schwer zu erreichenden Regionen trotz bekanntem, erhöhtem Erkrankungsrisiko (z. B. nach stattgehabtem Herzinfarkt, Stentimplantation oder anderen Risikofaktoren für akute lebensgefährliche Erkrankungen) getroffen, so ist dies als klare Akzeptanz einer möglichen Benachteiligung bei Notwendigkeit medizinischer Hilfe zu werten. Problematisch in diesem Zusammenhang scheint der Wille von Politik und Krankenkassen, Medizin mehr und mehr zu zentralisieren7, um „durch strukturelle Reformen Effektivität und Qualität der medizinischen Versorgung zu verbessern und gleichzeitig alle Beteiligten maßvoll in Sparmaßnahmen einzubeziehen“8. Somit wird bewusst eine Benachteiligung verschiedener Personengruppen in Kauf genommen, um zentral hochwertige, teure Medizin oder Medizintechnik vorhalten zu können. Verfügbarkeit und Ökonomie stehen klar in Konkurrenz. Ubiquitär verfügbare Medizin muss preisgünstig sein, wohingegen hochpreisige Technik nur zentralisiert zur Verfügung gestellt werden kann. Gerade letztere wird sicherlich einigen Patienten verwehrt bleiben.
7
8
Werner, Markus: Planwirtschaft auf die Spitze getrieben. In: eigentümlich frei, 6.3.2015, http://ef-magazin.de/2015/03/06/6525-versorgungsstaerkungsgesetz-im-gesundheitsbereichplanwirtschaft-auf-die-spitze-getrieben (Zugriff am: 15.11.2016); sowie: dpa / aerzteblatt.de: Niedersachsen: Techniker Krankenkasse will Zentralisierung von Krankenhäusern. Veröffentlichung: 29.10.2014, http://www.aerzteblatt.de/nachrichten/60667 (Zugriff am: 15.11.2016). Deutscher Bundestag – 15. Wahlperiode: Entwurf eines Gesetzes zur Modernisierung der gesetzlichen Krankenversicherung (GKV-Modernisierungsgesetz – GMG). Drucksache 15/1525, 8.9.2003, http://dipbt.bundestag.de/doc/btd/15/015/1501525.pdf.
182
Thomas Bschleipfer
In diesem Zusammenhang ist interessant, dass sich die medizinischen Leitlinien nicht nur nach den bestmöglichen Verfahren richten, sondern wesentlich auch nach der meistverfügbaren. Am Beispiel der europäischen Leitlinien für maligne Hodentumore9 sei dies erörtert. Patienten mit malignem Hodentumor werden zunächst mittels Semikastratio (einseitige inguinale Hodenentfernung) operativ saniert und anschließend einem langjährigen Follow-up zugeführt. Die regelmäßige Bildgebung von Abdomen und Becken stellt hierbei eine der wichtigsten Nachuntersuchungen dar. Es ist bekannt, dass wiederholte Computertomographie eine nicht unerhebliche Strahlenbelastung bedeutet10, welche nach längerer Latenzzeit zu Zeittumoren führen kann11. Diese kann durch den Einsatz der Kernspintomographie vermieden werden. Die europäischen Leitlinien empfehlen nun, sowohl für die Nachsorge des nicht-seminomatösen als auch des seminomatösen malignen Hodentumors die Durchführung des CTs. Lediglich in der Langversion der Leitlinie ist an einer Stelle unter der Rubrik „General considerations“ vermerkt: „CT can be substituted by MRI however, MRI is a protocol-dependent method and should be performed in the same institution with a standardised protocol.“12 Eine klare Empfehlung für das MRT besteht nicht. Hintergrund für diese Tatsache ist, dass sich die Leitlinie nicht nur nach dem bestmöglichen und risikoärmsten Verfahren richtet, sondern auch nach deren Verfügbarkeit.13 Als weiterer Aspekt sind sicherlich die Kosten anzuführen, welche für das MRT im Vergleich zum CT mehr als doppelt so hoch sind.14 Das CT ist zudem um ein Vielfaches schneller durchgeführt als ein MRT, was dessen Praktikabilität im Klinikalltag nochmals unterstreicht. Philosophisch stellt sich die Frage, ob aus Verfügbarkeits-, Praktikabilitäts- und Kostengründen ein Verfahren dem anderen vorgezogen werden darf, wenn dabei ein überschaubares, aber dennoch erhöhtes Risiko für den Patienten einhergeht, an malignen Zweittumoren zu erkranken. Da es sich bei Hodentumorpatienten um eine sehr kleine Patientenzahl mit einer Inzidenz von 3–10 Neuerkrankungen / 100 000 Männern pro Jahr15 und einer 5-Jahres-Prävalenz von 19 500 Patienten in Deutschland16 handelt, dürfte der Kostenaspekt für die Solidargemeinschaft und der zeitliche Aspekt für die Durchführung der Untersuchung keine wesentliche 9 10 11 12 13 14 15 16
s. Albers, P.; Albrecht, W.; Algaba, F.; Bokemeyer, C.; Cohn-Cedermark, G., Fizazi, K.; Horwich, A.; Laguna, M. P.; Nicolai, N.; Oldenburg, J.: EAU Guidelines on Testicular Cancer. European Association of Urology, 2016; S. 1–48. s. Sullivan, C. J.; Murphy, K. P.; McLaughlin, P. D.; Twomey, M.; O’Regan, K. N.; Power, D. G.; Maher, M. M.; O’Connor, O. J.: Radiation exposure from diagnostic imaging in young patients with testicular cancer. European Radiology, April 2015; 25, 4, pp. 1005–1013. s. Su, Danial; Faiena, Izak; Tokarz, Robert; Bramwit, Mark; Weiss, Robert E.: Comparative analysis of the risk of radiation exposure and cost of reduced imaging intensity for surveillance of early-stage nonseminomatous germ cell tumors. Urology 2015; 85, 1: pp. 141–146. s. Albers u. a., a. a. O. Albrecht, Walter: Vortrag „Hodenkarzinom: Neues in der Leitlinienorientierten Therapie“. 11. Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kelheim, 11.–12.11.2016. vgl. Su u. a., a. a. O. s. Albers u. a., a. a. O. Zentrum für Krebsregisterdaten, Robert Koch Institut: Hodenkrebs (Hodenkarzinom), 17.12.2015, http://www.krebsdaten.de/Krebs/DE/Content/Krebsarten/Hodenkrebs/hodenkrebs_ node.html (Zugriff am: 29.11.2016).
Warum Medizintechnik nicht für alle da sein kann
183
Rolle spielen. Es bleibt also der Praktikabilitätsaspekt aufgrund von Verfügbarkeit. Ist einer größeren Zahl von Patienten der Zugang zu einer Untersuchung möglich, so resultiert im gesamten eine bessere Nachsorge für das Gesamtkollektiv der Erkrankten (sozialethischer Aspekt), was dem gering erhöhten Risiko der Zweittumore (individualethischer Aspekt) entgegengesetzt werden muss. Insgesamt wäre die Entscheidung für das CT versus MRT somit als „größere Sicherheit“ für die Gesamtzahl der Patienten als statistische Größe zu werten. Diese Betrachtung unterscheidet jedoch nicht die (gegebene) Nicht-Praktikabilität für ein Gesamtkollektiv von der (fehlenden, nicht-existenten) Nicht-Praktikabilität für das Individuum. Der einzelne Patient kann sich sehr wohl für eine längere Wegstrecke, Eigenfinanzierung etc. entscheiden. Da jedoch das MRT in der (praxiskonformen Kurzversion der Leitlinie) keine Erwähnung findet, entsteht ein bewusstes Informationsdefizit für Ärzte und Patienten. In diesem Fall wurde meines Erachtens von den Leitlinienautoren gegen das Prinzip der Bedingungserhaltung verstoßen, da den Akteuren (Ärzten und Patienten) ein eigenverantwortliches Entscheiden nur eingeschränkt möglich ist: „Handle so, daß die Bedingungen der Möglichkeit des verantwortlichen Handelns für alle Beteiligten erhalten bleiben.“17 Die Verfügbarkeit von Medizintechnik ist neben der räumlichen Komponente streng assoziiert mit dem zeitlichen Aspekt. Technische Entwicklung unterliegt einem zeitlichen Verlauf. Bleibt man am Beispiel der Bildgebung, so erfolgte 1880 die Entdeckung des piezoelektrischen Effekts durch Marie und Pierre Curie, welcher erstmals 1938 als Ultraschalldiagnostik genutzt wurde. 1895 entdeckte Wilhelm Conrad Röntgen die X-Strahlen, welche bereits 1896 medizinisch-diagnostisch genutzt wurden. 1964 nutzte Allen Cormack die Rotation der Röntgenröhre, was schließlich 1971 zum ersten CT-Scan von G. Hounsfield führte. 1946 wurden die physikalischen Prinzipien der Magnetresonanz dargelegt und 1977 die ersten Bilder des menschlichen Körpers mittels Kernspintomographie angefertigt. Positronen-Emissions-Tomographie (PET) und die Single-Photon-Emissions-Computertomographie (SPECT) sind aktuell die neuesten Entwicklungen.18 In den 50er und 60er Jahren war somit das CT und die MRT noch „Zukunftsmusik“. Auch ein Ultraschallbild, wie wir es heute kennen, existierte noch nicht. Erste Graustufenbilder waren erst ab 1972 möglich.19 Erkrankten in dieser Zeit war somit der Zugang zu unserer heutigen modernen Medizintechnik per se verwehrt – ein „Problem der frühen Geburt“. Nach Einführung medizintechnischer Verfahren in den klinischen Alltag nimmt jedoch die Verbreitung rasant zu. „Die Anzahl der CT-Geräte hat sich allein von 1990 bis 1997 – in nur sieben Jahren mehr als verdoppelt – im Jahr 2009 waren es schon vier Mal so viele: jetzt 2 600 Geräte. Noch dramatischer war die Entwicklung bei den MRT-Geräten (…) Deren Zahl hat sich in den gleichen sieben Jahren – 1990 bis 1997 – mehr als vervierfacht! Im Jahr 2009 waren es gleich sieb17 18 19
Kornwachs, Klaus: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000. S. 47 ff. u. S. 60 ff. Pachner, A.: Bildgebende Verfahren in der Medizin. Veröffentlichung: 22.4.2004, http://www.vis. uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung.pdf (Zugriff am: 16.11.2016). ebd.
184
Thomas Bschleipfer
zehn Mal so viele wie 1990.“20 Die Zeit bringt somit ein Mehr an Verfügbarkeit, obwohl (nach eigenen Recherchen) derartige Großgeräte nicht billiger wurden. Auch änderte sich die Vergütung (abgebildet in der Gebührenordnung für Ärzte) für CT- und MRT-Untersuchungen über die Jahrzehnte hinweg nicht wesentlich. Vom zeitlichen Aspekt ist auch die Indikationsstellung zur Anwendung von Medizintechnik betroffen. Vielfach existieren bereits medizintechnische Verfahren, wohingegen Studien für den Wirksamkeitsnachweis bei speziellen Erkrankungen noch fehlen. Diese Verfahren können somit Patienten, welche von derartigen Erkrankungen betroffen sind, nicht zur Verfügung gestellt werden. Als Lösung wird häufig angeboten, Patienten in Studien einzuschließen, sofern diese bereits initiiert wurden. Ein- oder Ausschlusskriterien für die Studienteilnahme und die häufig weite Entfernung zu Studienzentren erschweren jedoch vielen Patienten den Zugang zu neuartigen Verfahren. Die Verfügbarkeit von Medizintechnik ist ferner hochgradig an den Kostenfaktor gebunden. Auch hier zeigen sich wesentliche zeitliche Veränderungen. Als Beispiel sei die Genomsequenzierung genannt. Das National Human Genome Research Institute veröffentlichte Daten über die Kosten im zeitlichen Verlauf. Während sich die Kosten für eine Gesamt-Genomanalyse im Jahre 2001 auf 100 Mio. Dollar beliefen, betrugen diese in 2015 „nur“ noch 1000 Dollar.21 Dies ist wesentlich der medizintechnischen Weiterentwicklung zu verdanken, wodurch die Automatisierung zahlreicher Prozesse ermöglicht wurde. Insbesondere in der Onkologie mag dies von großer Bedeutung sein. Durch die Genomanalyse aus im Blut zirkulierenden Tumorzellen (Liquid Biopsy) wird es möglich sein, einen malignen Tumor besser klassifizieren und therapieren zu können. Erfolgversprechende Daten liegen bereits für das Prostatakarzinom vor.22 In Anbetracht der Kosten wäre eine solche Untersuchung trotz ihrer Verfügbarkeit vor zehn Jahren nicht oder nur sehr schwerlich denkbar gewesen. Die Belastung einer Solidargemeinschaft, welche für die Kosten des Gesundheitssystems aufzukommen hat, muss daher in gleicher Weise berücksichtigt werden, wie die tatsächliche Verfügbarkeit von Medizintechnik bzw. deren Vorhandensein in „adäquater“ Nähe zum Patienten, was die „realistische“ Erreichbarkeit im klinischen Alltag meint. Wichtigste Einflussgröße (als limitierender Faktor) ist schließlich der Patient selbst. Ich möchte dieses Kapitel unter folgenden Aspekten betrachten: Der Patient will nicht, kann nicht, und/oder soll bzw. darf nicht Nutznießer von Medizintechnik werden. 20 Hentschel, Klaus: Kostenfalle Apparatemedizin. In: Die freie Welt, 6.8.2014, http://www. freiewelt.net/blog/kostenfalle-apparatemedizin-10038603/ (Zugriff am: 16.11.2016). 21 National Human Genome Research Institute. DNA Sequencing Costs: Data. Veröffentlichung: 24.5.2016, http://www.vis.uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung. pdf (Zugriff am: 16.11.2016). 22 vgl. Schlomm, Thorsten: Vortrag „Welche Bedeutung hat die Genetik bei urologischen Tumoren, Schwerpunkt PCa“. 11. Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kelheim, 11.–12.11.2016; sowie: Xia, Shu; Kohli, Manish; Du, Meijun; Dittmar, Rachel L.; Lee, Adam; Nandy, Debashis; Yuan, Tiezheng; Guo, Yongchen; Wang, Yuan; Tschannen, Michael R.; Worthey, Elizabeth; Jacob, Howard; See, William; Kilari, Deepak; Wang, Xuexia; Hovey, Raymond L.; Huang, Chiang Ching; Wang, Liang: Plasma genetic and genomic abnormalities predict treatment response and clinical outcome in advanced prostate cancer. Oncotarget 2015; 6: pp. 16411–16421.
Warum Medizintechnik nicht für alle da sein kann
185
A) DER PATIENT WILL NICHT Der formulierte Wille eines Patienten, eine medizintechnische Leistung nicht in Anspruch nehmen zu wollen, regelt klar, dass auch bei Vorliegen einer Indikation die entsprechende Medizintechnik nicht zum Einsatz kommen darf. Typisches Beispiel dürfte eine entsprechend formulierte Patientenverfügung sein, in der ausdrücklich eine intensivmedizinische Therapie, eine Intubation oder der Einsatz einer kardiopulmonalen Reanimation abgelehnt werden. § 630d (Einwilligung) des Gesetzes zur Verbesserung der Rechte von Patientinnen und Patienten vom 20. Februar 201323 – kurz: Patientenrechtegesetz – regelt dies eindeutig: „(1) Vor Durchführung einer medizinischen Maßnahme, insbesondere eines Eingriffs in den Körper oder die Gesundheit, ist der Behandelnde verpflichtet, die Einwilligung des Patienten einzuholen. Ist der Patient einwilligungsunfähig, ist die Einwilligung eines hierzu Berechtigten einzuholen, soweit nicht eine Patientenverfügung nach § 1901a Absatz 1 Satz 1 die Maßnahme gestattet oder untersagt. Weitergehende Anforderungen an die Einwilligung aus anderen Vorschriften bleiben unberührt. Kann eine Einwilligung für eine unaufschiebbare Maßnahme nicht rechtzeitig eingeholt werden, darf sie ohne Einwilligung durchgeführt werden, wenn sie dem mutmaßlichen Willen des Patienten entspricht. (2) Die Wirksamkeit der Einwilligung setzt voraus, dass der Patient oder im Fall des Absatzes 1 Satz 2 der zur Einwilligung Berechtigte vor der Einwilligung nach Maßgabe von § 630e Absatz 1 bis 4 aufgeklärt worden ist. (3) Die Einwilligung kann jederzeit und ohne Angabe von Gründen formlos widerrufen werden.“24
B) DER PATIENT KANN NICHT Zunächst ist es denkbar, dass Patienten eine bestimmte Medizintechnik nicht in Anspruch nehmen können, da die Grunderkrankung ihren Einsatz nicht zulässt. Es gibt Situationen, in denen im individuellen Fall die entsprechende medizinische Indikation nicht vorliegt. So kann beispielsweise bei Patienten mit einem bösartigen Tumor der Nieren (Nierenzellkarzinom) keine Strahlentherapie des Primärtumors angeboten werden. Der Tumor zeigt keine Strahlensensibilität, so dass der Einsatz dieser hochmodernen Technik für diesen Tumor ungeeignet ist. Allzu häufig stellen sich auch Patienten – „vorgebildet“ durch das Internet – vor und formulieren den detaillierten Wunsch für eine bestimmte Medizin- oder Operationstechnik (explizierter Patientenwille). Nicht wenige Patientinnen mit Harninkontinenz äußern beispielswiese die Bitte zur Implantation eines suburethralen Bandes (Inkontinenzbandes) oder (seltener) eines künstlichen Schließmuskels. Nach gründlicher Evaluation und Untersu23 Deutscher Bundestag: Gesetz zur Verbesserung der Rechte von Patientinnen und Patienten vom 20. Februar 2013. Bundesgesetzblatt, Jahrgang 2013, Teil I, Nr. 9, ausgegeben zu Bonn am 25. Februar 2013. http://www.bundesaerztekammer.de/fileadmin/user_upload/downloads/ Patientenrechtegesetz_BGBl.pdf 24 ebd.
186
Thomas Bschleipfer
chung stellt sich jedoch häufig heraus, dass nicht wie angenommen eine Belastungsinkontinenz (Urinverlusten beim Husten, Niesen …), sondern eine Dranginkontinenz (unwillkürliche Kontraktionen der Blase mit Urinverlust) vorliegt. Die Implantation eines Bandes bzw. eines artifiziellen Sphinkters würde demnach zu einer Befundaggravation und nicht zu einer Besserung führen. Durch Darlegung der Pathophysiologie und durch ausführliche Besprechung von Befunden und Indikationen muss den Patienten erklärlich gemacht werden, dass sie einer bestimmten Technik nicht zugeführt werden können. In diesen Fällen fehlt die medizinische Indikation und Sinnhaftigkeit für ein Verfahren. Meist existieren jedoch entsprechende Alternativen. Bestimmte medizintechnische Verfahren können bei Patienten auch nicht zur Anwendung kommen, sofern Kontraindikationen vorliegen. Liegt bei einer Patientin beispielsweise ein lokal weit fortgeschrittenes Zervixkarzinom (maligner Tumor des Gebärmutterhalses) vor (FIGO IV A) mit bestehenden Infiltrationen der Harnblase oder des Rektums, so kann diesen Patienten keine Strahlentherapie mehr angeboten werden. Die Gefahr von rekto- oder zystovaginalen Fisteln ist deutlich erhöht, so dass der Einsatz einer Radiotherapie als kontraindiziert anzusehen ist.25 Ein weiteres Beispiel sei die Implantation eines Blasenschrittmacher (sakrale Neuromodulation S3) bei Patienten mit multipler Sklerose und der Notwendigkeit zu regelmäßigen Kernspinuntersuchungen des zentralen Nervensystems, insbesondere des Rückenmarks. Aktuell existieren keine Schrittmacher, welche kernspintauglich sind. Somit bleibt Patienten, die zwingend oben genannte Bildgebung zur Verlaufsdiagnostik ihrer Erkrankung benötigen, die Implantation eines solchen Blasenschrittmachers verwehrt. Neben der Grunderkrankung ist häufig eine schwere Nebenerkrankung oder die Multimorbidität (insbesondere älterer Patienten) limitierender Faktor für den Einsatz moderner Medizintechnik. In den letzten Jahren hat die „roboter-assistierte“ Chirurgie (DaVinci®, Fa. Intuitive Surgical) in zahlreichen Fachgebieten und bei zahlreichen Indikationen Einzug gehalten. Operationen im kleinen Becken sind häufig mit einer Trendelenburg-Lagerung (Kopftieflage) verbunden. Für die roboter-assistierte Prostatektomie beim Mann werden hierbei 25°–35°, für Beckenbodenrekonstruktionen der Frau (z. B. Sakrokolpopexie) 30–40° gewählt. Bisweilen wurden auch Lagerungen bis 45° beschrieben. Diese Kopftielflagerung ist assoziiert mit einem Anstieg des Hirndrucks und des Augeninnendrucks. Ferner zeichnet sich eine erschwerte Belüftung der Lungen ab. Die Lungencompliance (Weitbarkeit) wird z. T. bis zur Hälfte reduziert. Ebenfalls wird eine Ischämie der unteren Extremitäten beschrieben mit dem Risiko eines Kompartmentsyndroms.26 „Most 25 26
Klinik für Strahlentherapie und Radioonkologie, Universitätsklinikum Leipzig: Zervixkarzinom. Veröffentlichung: 2.5.2016. http://radioonkologie.uniklinikum-leipzig.de/radioonko. site,postext,therapiekonzepte,a_id,1043.html (Zugriff am: 18.11.2016). vgl. Rosenblum, Nirit: Robotic approaches to prolapse surgery. Current Opinion in Urology: July 2012, 22, 4, pp. 292–296; sowie: Tomescu, Dana Rodica; Popescu, Mihai; Dima, Simona Olimpia; Bacalbașa, Nicolae; Bubenek-Turconi, Șerban: Obesity is associated with decreased lung compliance and hypercapnia during robotic assisted surgery. J Clin Monit Comput (2017) 31: pp. 85–92. DOI 10.1007/s10877-016-9831-y; sowie: EZSurgical, Clinical Intro: Risks of Trendelenburg Position in Surgery. Veröffentlichung: 2016. http://www.ezsurgical.com/Files/ Trendelenburg%20Risks_Short%20Intro.pdf; sowie: Kaye, Alan D.; Vadivelu, Nalini; Ahuja,
Warum Medizintechnik nicht für alle da sein kann
187
vulnerable to the head-down extreme position are the cardiac, respiratory, and central nervous systems.“27 Aus diesem Grund bestehen für verschiedene Patienten (relative) Kontraindikationen für den Einsatz eines Roboters bei Operationen mit notwendiger Trendelenburg-Lagerung. Hierzu zählen beispielsweise Patienten mit deutlicher Adipositas (BMI > 30), Lungenerkrankungen, gastroösophagealem Reflux, erhöhtem Aspirationsrisiko und Augenerkrankungen mit Gefahr der Retinaablösung.28 Die Liste weiterer Beispiele ist lang und betrifft somit zahlreiche Patienten und Indikationen. Patienten mit Kontrastmittelallergie oder Niereninsuffizienz können häufig keiner Bildgebung mit Kontrastmittelgabe (KM-CT, KM-MRT) zugeführt werden. Patienten, denen es nicht möglich ist, für längere Zeit zu liegen, können nicht bestrahlt werden. Bei Patienten mit Koagulopathien, unbehandelten Gerinnungsstörungen, Schwangerschaft oder unbehandeltem Hypertonus besteht für die Durchführung einer ESWL (extrakorporalen Stoßwellentherapie von Nierensteinen) eine Kontraindikation. Vielfach handelt es sich jedoch um relative Kontraindikationen, so dass Nutzen, Risiko und Praktikabilität für jeden Patienten individuell abgewogen werden müssen. Vorstellbar sind auch Szenarien, bei welchen ein Eingriff nicht durchgeführt werden kann, da die (peri- und) postoperative Nachbehandlung bzw. Nachsorge nicht gewährleistet ist. Man stelle sich vor, ein Patient mit Parkinsonerkrankung oder Epilepsie wird vorgestellt zur Implantation einer tiefen Hirnstimulation (THS). Der Patient sei asylsuchend, jedoch ohne vorliegende Aufenthaltsgenehmigung mit der Gefahr der Abschiebung. In diesem Falle könnte – abgesehen von allen kostentechnischen Aspekten – auch bei korrekter Indikationsstellung obiger Eingriff nicht durchgeführt werden, da die Nachsorge des Patienten nicht gewährleistet ist: „In den ersten Monaten nach dem operativen Eingriff muss der Patient im Normalfall häufig seinen Arzt aufsuchen, um die Stimulation zu optimieren und die Medikamenteneinnahme zu titrieren. Später wird ein Wiedervorstellungsschema (alle 3–6 Monate) gewählt, das regelmäßige Vorstellungen beim behandelnden Arzt vorsieht, um den Status der Erkrankung zu überwachen und die Stimulation bei Bedarf anzupassen.“29 Der Erfolg eines medizintechnischen Verfahrens hängt somit nicht allein vom Vorhandensein, der Machbarkeit und korrekten Indikation ab, sondern auch von der häufig damit unabdingbar verbundenen Nachkontrolle und Nachsorge. Zuletzt seien nicht-medizinische Gründe genannt, weshalb Patienten möglicherweise ein medizintechnisches Verfahren nicht in Anspruch nehmen können. Hierzu
27
28 29
Nitin; Mitra, Sukanya; Silasi, Dan; Urman, Richard D.: Anesthetic considerations in roboticassisted gynecologic surgery. The Ochsner Journal 2013; 13, pp. 517–524. Sener, Alp; Chew, Ben H.; Duvdevani; Mordechai; Brock, Gerald B.; Vilos, George A.; Pautler: Stephen E.: Combined transurethral and laparoscopic partial cystectomy and robot-assisted bladder repair for the treatment of bladder endometrioma. Journal of Minimally Invasive Gynecology, June 2006; 13, 3, p. 245. vgl. Rosenblum, a. a. O.; sowie: Gilfrich, Christian; Brookman-May, Sabine; May, Matthias; Lebentrau, Steffen: Die roboterassistierte radikale Prostatektomie. Urologie Scan 2014; 1: S. 49–68. Medtronic. Tiefe Hirnstimulation. Veröffentlichung: 26.03.2013, http://www.medtronic.de/ fachkreise/produkte-therapien/neurologie-schmerztherapie/therapien/tiefe-hirnstimulation/ nachsorge/index.htm (Zugriff am: 19.11.2016).
188
Thomas Bschleipfer
gehören insbesondere finanzielle Aspekte. Es gibt zahlreiche Untersuchungen und/ oder Interventionen, welche nicht zum Regelleistungsvolumen der Krankenkassen zählten bzw. zählen. Lange Zeit wurde das PET-CT bei Verdacht auf ein metastasiertes Prostatakarzinom nicht von (allen) Krankenkassen übernommen. Eigenleistungen oder Zuzahlungen vom Patienten waren notwendig.30 Diese beliefen sich auf mehrere 100 Euro. Es bestand jedoch die Möglichkeit, eine Kostenübernahme bei der zuständigen Krankenkasse zu beantragen, was als „kompliziertes Verfahren“ beschrieben wurde und für jede Untersuchung separat erfolgen musste.31 Auch für die roboter-assistierte Prostatektomie mit DaVinci® (Fa. Intuitive Surgical) mussten lange Zeit von den Patienten Zuzahlungen in Höhe von mehreren tausend Euro in Kauf genommen werden.32 Glücklicherweise ist dies zum jetzigen Zeitpunkt nicht mehr nötig und die Krankenkassen übernehmen den Eingriff zumeist komplett (siehe oben zeitlicher Aspekt und Kostenentwicklung). Es ist nachvollziehbar, dass für zahlreiche Patienten und deren Familien eine Kostenbelastung von derart hohen Beträgen nicht immer zu leisten war. Aus diesem Grund blieb zahlreichen Patienten der Einsatz moderner Medizintechnik für ihre Operation verwehrt. Zu den nicht-medizinischen Gründen zählt auch die fehlende Verfügbarkeit von Ressourcen, Utensilien, Verbrauchsgütern, die für ein medizintechnisches Verfahren vonnöten sind. Beispielhaft sei dies am PSMA-PET-CT erörtert, ein hochmodernes Verfahren zur Detektion von Metastasen eines Prostatakarzinoms. Die Durchführung dieser Diagnostik erfordert einen Tracer auf der Basis des künstlich erzeugten Radionukleids 68Gallium (68Ga) oder Technetium-99m (99mTc), dessen Herstellung bislang nur in bestimmten Zentren erfolgt. Dieser Tracer stand unserer Klinik aufgrund von Herstellungs- und Lieferproblemen temporär nicht zur Verfügung, weshalb das PSMA-PET-CT nicht zum Einsatz kommen konnte. Medizintechnik ist somit nur in einem Netzwerk zu betrachten, zu welchem neben materiellen Ressourcen auch die entsprechenden personellen und räumlichen Ressourcen zählen. C) DER PATIENT SOLL / DARF NICHT Warum sollte ein Patient eine medizintechnische Leistung nicht erhalten dürfen? „Nicht zu dürfen“ bedeutet, keine Erlaubnis zu haben. Somit liegt vor, dass andere Personen als der Patient eine Erlaubnis für den Zugang zu medizintechnischen Leistungen verwehren. Vorstellbar ist dies bei Patienten mit weit fortgeschrittenem Tumorleiden „am Ende ihres Weges“. Bei Eintreten eines Herzstillstandes oder an30 31 32
Prostatakrebs – Diskussionsforum. PET/CT Kostenübernahme Techniker Kasse. Veröffentlichung: 29.–30.8.2008, http://forum.prostatakrebs-bps.de/showthread.php?3847-PET-CTKosten%FCbernahme-Techniker-Kasse (Zugriff am: 20.11.2016). PET-CT Zentrum Hamburg. Wer übernimmt die Kosten einer PET/CT-Untersuchung? Veröffentlichung: 2009, http://www.petct-zentrum-hamburg.de/patienteninformationen_05.php (Zugriff am: 20.11.2016). Fink, Hans-Juergen: Roboter im Einsatz: Da Vinci operiert in 3-D. Hamburger Abendblatt, 19.4.2011, http://www.abendblatt.de/ratgeber/gesundheit/article108002567/Roboter-im-EinsatzDa-Vinci-operiert-in-3-D.html (Zugriff am: 19.11.2016).
Warum Medizintechnik nicht für alle da sein kann
189
derer lebensbedrohlicher Notfallsituationen verzichtet man auf Wiederbelebungsmaßnahmen oder weiterer umfangreicher Intensivbehandlung mit Intubation etc. („do not resuscitate“ (DNR), keine Wiederbelebung). Man könnte argumentieren „es lohnt sich nicht“, den Patienten einer weiteren (medizintechnischen) Intervention zuzuführen. Hintergrund ist jedoch vielmehr, dass man dem Patienten einen unaufhaltsam fortschreitenden Leidensweg ersparen möchte. Die medizinische Entscheidung basiert somit auf einem angenommen Patientenwillen und der klaren Erkenntnis des Betroffenen, dass eine Wiederbelebung bzw. ein Intensivaufenthalt quoad vitam keinen Sinn machen. Denkbar ist somit, dass sich Behandler und/oder Angehörige bei der Einschätzung des Patientenwillens täuschen und somit dem Patienten den Zugang zu einem (medizintechnischen) Verfahren sinnvoll, jedoch unrechtmäßig verwehren. An dieser Stelle wären auch Allokationsprobleme medizintechnischer Leistungen anzuführen, sofern diese lebensnotwendig sind und nur begrenzt zur Verfügung stehen. Derartige Szenarien sind in unserer Zeit und in der westlichen Welt kaum vorstellbar, sofern es sich nicht um Krisensituationen wie Großkatastrophen handelt33. In der Regel können Patienten in umliegende Krankenhäuser verlegt werden und limitierte Ressourcen (wie beispielsweise Erythrozytenkonzentrate mit seltener Blutgruppe) von extern angefordert werden. Dennoch gibt es auch in unserem klinischen Alltag Situationen, in denen mehrere Patienten um eine Ressource ringen. Zählt man Organtransplantationen im weitesten Sinne zu den medizinischtechnischen Verfahren, so ist auch hier (exemplarisch für die Nierentransplantation) festgelegt, dass Patienten mit z. B. unkontrolliertem Malignom, HIV-Positivität, aktiven systemischen Infektionen und/oder einer Lebenserwartung kleiner zwei Jahre kein Organ erhalten können (absolute Kontraindikation). Nach stattgehabten und behandelten Tumoren wird je nach Tumor eine Wartezeit von ein bis fünf Jahren empfohlen. Erst hiernach sollen oder dürfen die Patienten einer Organtransplantation zugeführt werden.34 Auch im täglichen klinischen Alltag finden sich Situationen, in denen Patienten der Zugang zur Medizintechnik (zumindest temporär) verwehrt wird. Häufigste Ursache dürfte die limitierte OP-Kapazität sein. Durch Priorisierung nach Dringlichkeit (z. B. malignancy first) müssen zahlreiche Patienten trotz Behandlungsbedürftigkeit ihren Anspruch auf medizintechnische Leistung zurückstellen. Sicherlich stünde diesen Patienten offen, sich an eine andere Klinik zu wenden. Nicht zuletzt der ökonomische Aspekt lässt uns jedoch erfinderisch werden, diese Patienten an der eigenen Klinik zu halten. Beispielsweise könnte die Erkrankung zwischenzeitlich noch mit weiteren medizintechnischen Verfahren abgeklärt werden.
33 34
vgl. Bschleipfer, a. a. O., 2007; sowie: Bschleipfer, Kornwachs, a. a. O., 2010. s. European Renal Association – European Dialysis and Transplant Association. Evaluation, selection and preparation of the potential transplant recipient. Nephrology Dialysis Transplantation, 2000; 15 [Suppl. 7]: pp. 3–38.
190
Thomas Bschleipfer
MEDIZINTECHNIK UND ETHIK: VIER FRAGEN Die ethischen Aspekte zum Thema „Medizintechnik“ umfassen deutlich mehr als die alleinige Betrachtung von deren Verfügbarkeit und Zugänglichkeit. Im Folgenden werfe ich vier Fragen auf, über die es sich kritisch nachzudenken lohnt: • Machen wir mehr, als wir können sollten? Eine Frage nach der Anwendung von Medizintechnik über das Notwendige hinaus im Spannungsfeld Medizin versus Ökonomie. • Wir machen, was wir können, aber können wir auch, was wir machen? Eine Frage nach der Qualität und den Limitationen in Medizin und Medizintechnik. • Müssen wir machen, was wir können? Brauchen wir all die Medizintechnik, die wir haben? Die Frage nach der Notwendigkeit der zur Verfügung stehenden Medizintechnik und ihres Mehrwerts für Patienten, Gesundheitssystem und Industrie • Müssen wir immer mehr machen? Die Frage nach dem Leistungsprinzip in der Marktwirtschaft, Stichwort „Zum Wachstum und technischen Fortschritt verdammt“.
Warum Medizintechnik nicht für alle da sein kann
191
LITERATUR Albers, P.; Albrecht, W.; Algaba, F.; Bokemeyer, C.; Cohn-Cedermark, G., Fizazi, K.; Horwich, A.; Laguna, M. P.; Nicolai, N.; Oldenburg, J.: EAU Guidelines on Testicular Cancer. European Association of Urology, 2016; S. 1–48. Albrecht, Walter: Vortrag „Hodenkarzinom: Neues in der Leitlinienorientierten Therapie“. 11. Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kelheim, 11.–12.11.2016. Artikel „Medizintechnik“. In Wikipedia, https://de.wikipedia.org/w/index.php?title=Medizintechnik &oldid=158229517 (Zugriff am: 8.11.2016). Artikel „Wearable Computing“. In: Wikipedia, https://de.wikipedia.org/w/index.php?title=Wearable_ Computing&oldid=154601583 (Zugriff am: 14.11.2016). Bschleipfer, Thomas: Ethik einer Krisenmedizin. Kritische Analyse bereichsspezifischer Dilemmata: Ressourcenallokation, Instrumentalisierung und Doppelloyalität. BTU Cottbus, 25.10.2007, https://opus4.kobv.de/opus4-btu/frontdoor/index/index/docId/346 (Zugriff am: 16.11.2016). Bschleipfer, Thomas; Kornwachs, Klaus: Militärische Einsatzmedizin – Ethische Dilemmata. In: Deutsches Ärzteblatt 2010; 107(30): S. 1448–1450. Deutscher Bundestag: Gesetz zur Verbesserung der Rechte von Patientinnen und Patienten vom 20. Februar 2013. Bundesgesetzblatt, Jahrgang 2013, Teil I, Nr. 9, ausgegeben zu Bonn am 25. Februar 2013. http://www.bundesaerztekammer.de/fileadmin/user_upload/downloads/ Patientenrechtegesetz_BGBl.pdf Deutscher Bundestag – 15. Wahlperiode: Entwurf eines Gesetzes zur Modernisierung der gesetzlichen Krankenversicherung (GKV-Modernisierungsgesetz – GMG). Drucksache 15/1525, 8.9.2003, http://dipbt.bundestag.de/doc/btd/15/015/1501525.pdf. dpa / aerzteblatt.de: Niedersachsen: Techniker Krankenkasse will Zentralisierung von Krankenhäusern. Veröffentlichung: 29.10.2014, http://www.aerzteblatt.de/nachrichten/60667 (Zugriff am: 15.11.2016). European Renal Association – European Dialysis and Transplant Association. Evaluation, selection and preparation of the potential transplant recipient. Nephrology Dialysis Transplantation, 2000; 15 [Suppl. 7]: pp. 3–38. EZSurgical, Clinical Intro: Risks of Trendelenburg Position in Surgery. Veröffentlichung: 2016. http://www.ezsurgical.com/Files/Trendelenburg%20Risks_Short%20Intro.pdf. Fink, Hans-Juergen: Roboter im Einsatz: Da Vinci operiert in 3-D. Hamburger Abendblatt, 19.4.2011, http://www.abendblatt.de/ratgeber/gesundheit/article108002567/Roboter-im-Einsatz-Da-Vincioperiert-in-3-D.html (Zugriff am: 19.11.2016). Gilfrich, Christian; Brookman-May, Sabine; May, Matthias; Lebentrau, Steffen: Die roboterassistierte radikale Prostatektomie. Urologie Scan 2014; 1: S. 49–68. Hentschel, Klaus: Kostenfalle Apparatemedizin. In: Die freie Welt, 6.8.2014, http://www.freiewelt. net/blog/kostenfalle-apparatemedizin-10038603/ (Zugriff am: 16.11.2016). Imec, Jan Provoost: Wearables für die Gesundheit. In: Medizin und Technik, 8.6.2015, http:// medizin-und-technik.industrie.de/allgemein/wearables-fuer-die-gesundheit/ (Zugriff am: 14.11.2016). Kaye, Alan D.; Vadivelu, Nalini; Ahuja, Nitin; Mitra, Sukanya; Silasi, Dan; Urman, Richard D.: Anesthetic considerations in robotic-assisted gynecologic surgery. The Ochsner Journal 2013; 13, pp. 517–524. Klinik für Strahlentherapie und Radioonkologie, Universitätsklinikum Leipzig: Zervixkarzinom. Veröffentlichung: 2.5.2016. http://radioonkologie.uniklinikum-leipzig.de/radioonko.site,postext, therapiekonzepte,a_id,1043.html (Zugriff am: 18.11.2016). Kornwachs, Klaus: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000. S. 47 ff. u. S. 60 ff. Krüger-Brand, Heike E.: Medizintechnik: „Made in Germany“ ist gefragt. In: Deutsches Ärzteblatt 2007; 104(45): S. 10
192
Thomas Bschleipfer
Medtronic. Tiefe Hirnstimulation. Veröffentlichung: 26.03.2013, http://www.medtronic.de/fachkreise/ produkte-therapien/neurologie-schmerztherapie/therapien/tiefe-hirnstimulation/nachsorge/ index.htm (Zugriff am: 19.11.2016). National Human Genome Research Institute. DNA Sequencing Costs: Data. Veröffentlichung: 24.5.2016, http://www.vis.uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung. pdf (Zugriff am: 16.11.2016). Pachner, A.: Bildgebende Verfahren in der Medizin. Veröffentlichung: 22.4.2004, http://www.vis. uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung.pdf (Zugriff am: 16.11.2016). PET-CT Zentrum Hamburg. Wer übernimmt die Kosten einer PET/CT-Untersuchung? Veröffentlichung: 2009, http://www.petct-zentrum-hamburg.de/patienteninformationen_05.php (Zugriff am: 20.11.2016). Prostatakrebs – Diskussionsforum. PET/CT Kostenübernahme Techniker Kasse. Veröffentlichung: 29.–30.8.2008, http://forum.prostatakrebs-bps.de/showthread.php?3847-PET-CT-Kosten%FC bernahme-Techniker-Kasse (Zugriff am: 20.11.2016). Rosenblum, Nirit: Robotic approaches to prolapse surgery. Current Opinion in Urology: July 2012, 22, 4, pp. 292–296. Schlomm, Thorsten: Vortrag „Welche Bedeutung hat die Genetik bei urologischen Tumoren, Schwerpunkt PCa“. 11. Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kelheim, 11.–12.11.2016. Sener, Alp; Chew, Ben H.; Duvdevani; Mordechai; Brock, Gerald B.; Vilos, George A.; Pautler: Stephen E.: Combined transurethral and laparoscopic partial cystectomy and robot-assisted bladder repair for the treatment of bladder endometrioma. Journal of Minimally Invasive Gynecology, June 2006; 13, 3, pp. 245–248. Su, Danial; Faiena, Izak; Tokarz, Robert; Bramwit, Mark; Weiss, Robert E.: Comparative analysis of the risk of radiation exposure and cost of reduced imaging intensity for surveillance of earlystage nonseminomatous germ cell tumors. Urology 2015; 85, 1: pp. 141–146. Sullivan, C. J.; Murphy, K. P.; McLaughlin, P. D.; Twomey, M.; O’Regan, K. N.; Power, D. G.; Maher, M. M.; O’Connor, O. J.: Radiation exposure from diagnostic imaging in young patients with testicular cancer. European Radiology, April 2015; 25, 4, pp. 1005–1013. Tomescu, Dana Rodica; Popescu, Mihai; Dima, Simona Olimpia; Bacalbașa, Nicolae; BubenekTurconi, Șerban: Obesity is associated with decreased lung compliance and hypercapnia during robotic assisted surgery. J Clin Monit Comput (2017) 31: pp. 85–92. DOI 10.1007/s10877-0169831-y. Trumpf, Steffen: Ärzte streiten über Verbot von Online-Diagnosen. Spiegel online, 12.11.2013, http://www.spiegel.de/gesundheit/diagnose/telemedizin-aerzte-streiten-ueber-verbot-vononline-diagnosen-a-933059.html (Zugriff am: 14.11.2016). Wallenfels Matthias: Medizintechnik – Große Exportchancen in Asien. In: Ärzte Zeitung, 5.8.2014, http://www.aerztezeitung.de/praxis_wirtschaft/medizintechnik/article/866174/medizintechnikgrosse-exportchancen-asien.html (Zugriff am: 14.11.2016). Werner, Markus: Planwirtschaft auf die Spitze getrieben. In: eigentümlich frei, 6.3.2015, http:// ef-magazin.de/2015/03/06/6525-versorgungsstaerkungsgesetz-im-gesundheitsbereichplanwirtschaft-auf-die-spitze-getrieben (Zugriff am: 15.11.2016). Xia, Shu; Kohli, Manish; Du, Meijun; Dittmar, Rachel L.; Lee, Adam; Nandy, Debashis; Yuan, Tiezheng; Guo, Yongchen; Wang, Yuan; Tschannen, Michael R.; Worthey, Elizabeth; Jacob, Howard; See, William; Kilari, Deepak; Wang, Xuexia; Hovey, Raymond L.; Huang, Chiang Ching; Wang, Liang: Plasma genetic and genomic abnormalities predict treatment response and clinical outcome in advanced prostate cancer. Oncotarget 2015; 6: pp. 16411–16421. Zentrum für Krebsregisterdaten, Robert Koch Institut: Hodenkrebs (Hodenkarzinom), 17.12.2015, http://www.krebsdaten.de/Krebs/DE/Content/Krebsarten/Hodenkrebs/hodenkrebs_node.html (Zugriff am: 29.11.2016).
SOZIOTECHNISCHER SYSTEMANSATZ IN DER ATOMAUFSICHT Walter Glöckle Die Habilitationsschrift „Offene Systeme und die Frage nach der Information“ von Klaus Kornwachs befasst sich mit dem Systembegriff, der Beschreibung von Systemen und dem Zusammenhang von System und Information. Zum Systembegriff wird dort einleitend ausgeführt: „Zunächst ist festzuhalten, daß das ‚System‘ kein Gegenstand der Erfahrung ist, sondern eine Konstruktion, und zwar in der Form einer Beschreibung, deren Regeln im allgemeinen stark mathematisiert sind. Das System besteht in der Systematisierung bestimmter Sachverhalte, darunter fallen auch Eigenschaften von Gegenständen, im Rahmen einer dem Gegenstandsbereich adäquaten Theorie angesichts bestimmter Probleme und Interessen. Daraus folgen zwei wichtige Unterscheidungen. Erstens: Die Beschreibung eines Problems im Rahmen der Systemtheorie ersetzt weder das empirische Wissen um, noch die Theorie über den Gegenstandsbereich. Zweitens: Was noch zum System gehört und was nicht, d. h. die Abgrenzung zwischen ‚Umwelt‘ und ‚System‘, ist nicht theorieimmanent ableitbar, sondern ausschließlich an das Erkenntnis- und Verwertungsinteresse des Systemdefinierers gebunden.“1 In Vorträgen und Vorlesungen zur allgemeinen Systemtheorie hat Klaus Kornwachs die beiden Grundsätze oftmals folgendermaßen prägnant ausgedrückt: 1. Die Systemtheorie erfindet nichts, sie plaudert nur aus. 2. Jedes System hat einen Autor. Dieser Beitrag hat den soziotechnischen Systemansatz in der atomrechtlichen Aufsicht, d. h. bei der staatlichen Überwachung der Atomkraftwerke und anderen kerntechnischen Anlagen, zum Thema. Dabei wird besonders auf die Intension (Was will der Autor bezwecken? Warum wird der Systemansatz gewählt?) und den Nutzen (Was wird deutlich? Was „plaudert“ der Systemansatz aus?) eingegangen. SOZIOTECHNISCHES SYSTEM Studien des Londoner Travistock Institute befassten sich Anfang der 1960er Jahre mit technischen und arbeitsorganisatorischen Verbesserungen im britischen Kohlebergbau. Sie analysierten, warum Verbesserungen nicht die erwarteten Wirkungen erzielten.2 So nahm trotz verbesserter Technologie die Produktivität ab. Die Ursache 1 2
Kornwachs, Klaus: Offene Systeme und die Frage nach der Information. Stuttgart 1987. S. 17. Trist, Eric; Bamforth, Ken: Some Social and Psychological Consequences of the Longwall Method of Coal-Getting. An Examination of the Psychological Situation and Defences of a
194
Walter Glöckle
hierfür sahen die Autoren darin, dass bei der technischen Verbesserung die sozialen Aspekte nicht beachtet worden waren, beispielsweise wie die Bergleute in Gruppen zusammenarbeiten, wie Verantwortung wahrgenommen wird oder wie die Arbeit von der Gruppe selbst organisiert wird. Die Autoren prägten den Begriff „soziotechnisches System“, um deutlich zu machen, dass die Interaktionen zwischen Personen und Technik an Arbeitsplätzen eine entscheidende Rolle spielen. Die grundlegende Erkenntnis war: Eine Anpassung im Sinne einer Optimierung der Mensch-MaschineSchnittstelle ist in komplexen Organisationen unzureichend. Vielmehr ist die wechselseitige Abhängigkeit von sozialen und technischen Aspekten zu beachten. In der Kerntechnik wurden seit der Errichtung von kommerziellen Atomkraftwerken Anforderungen an die Technik (mehrfache Barrieren, spezielle mehrfach vorhandene Sicherheitssysteme zur Störfallbeherrschung u. a.), an die Beschäftigten (Fachkunde, Zuverlässigkeit u. a.) und an die Organisation (Betriebsvorschriften, Verantwortlichkeiten u. a.) zur Gewährleistung einer hohen Sicherheit gestellt. Die Teil-Systeme Mensch, Technik und Organisation wurden jedoch relativ unabhängig voneinander betrachtet. Erst der katastrophale Unfall im Atomkraftwerk Tschernobyl 1986 hat bewirkt, dass ein Atomkraftwerk als soziotechnisches System verstanden wurde – ein soziotechnisches System, das als „offenes System“ in Wechselwirkung mit dem politischen, wirtschaftlichen und gesellschaftlichen Umfeld steht. Die vertiefte Analyse auch kleinerer Vorfälle gewann in der Folgezeit zunehmend an Bedeutung. In diesen Ereignisanalysen werden das Zusammenwirken von Technik, Individuum, Gruppe, Organisation und Organisationsumfeld detailliert untersucht und Verbesserungen abgeleitet.3 Nach dem Reaktorunfall in Tschernobyl hat sich der Begriff „Sicherheitskultur“ eingebürgert. Dieser Begriff erlaubte zunächst die dort zutage getretenen Schwächen wie mangelnde hinterfragende Grundhaltung und mangelndes sicherheitsgerichtetes Vorgehen mit einem Schlagwort zu versehen. Später verdeutlichte die Verbindung der Sicherheitskultur mit der Organisationskultur, dass über die personell-organisatorischen Vorkehrungen hinaus Werte und Grundeinstellungen eine Organisation und das Verhalten der Personen in ihr prägen.4 Im Hinblick auf die personell-organisatorischen Vorkehrungen und Maßnahmen sind die regulatorischen Anforderungen in Deutschland schrittweise ausgebaut worden. Ursprüngliche Anforderungen an die Qualitätssicherung wurden durch Anforderungen an ein Qualitätsmanagementsystem ersetzt. Später traten Anforderungen an ein Sicherheitsmanagementsystem hinzu. Mit der Regel 1402 sind im Jahr 2012 schließlich Anforderungen an ein prozessorientiertes integriertes Managementsystem im Regelwerk des Kerntechnischen Ausschusses (KTA)5 festgelegt worden. Das Wechselspiel zwischen Managementsystem, das eine ausgeprägte Sicherheitskultur
3 4 5
Work Group in Relation to the Social Structure and Technological Content of the Work System. In: Human Relations,1951 (4), S. 3. Fahlbruch, Babette; Miller, Rainer; Wilpert, Bernhard: Sicherheit durch organisationales Lernen. Das Lernen aus Ereignissen und Beinahe-Ereignissen. In: atw, Internationale Zeitschrift für Kernenergie, 43. Jg., November 1998, S. 699. vgl. Schein, Edgar H.: Organizational culture and leadership. New York 2004(3). Kerntechnischer Ausschuss: Bekanntmachung von sicherheitstechnischen Regeln des Kern-
Soziotechnischer Systemansatz in der Atomaufsicht
195
unterstützen soll, und Sicherheitskultur, die das Managementsystem mit Leben füllt, ist Gegenstand aktueller wissenschaftlicher Arbeiten und Fachdiskussionen.6 ATOMAUFSICHT Die Bedeutung des Zusammenwirkens von sozialem und technischem System für die Sicherheit einer kerntechnischen Anlage muss sich auch in der Überwachung dieser Anlagen widerspiegeln. Die atomrechtliche Aufsichtsbehörde in Baden-Württemberg hat mit der in den Jahren 1997 und 1998 entwickelten Aufsichtskonzeption den soziotechnischen Systemansatz konsequent in ihre Aufsicht einbezogen.7 Die Aufsichtskonzeption legt dar, wie und in welchen Feldern sich die Untersysteme „Mensch“, „Technik“ und „Organisation“ im Hinblick auf die Sicherheit gegenseitig beeinflussen und wie die Aufsichtsbehörde das Zusammenwirken und die Schnittstellen angemessen überwachen kann. Sie lenkt zudem den Blick auf die äußeren Einflüsse, die auf das soziotechnische System „Atomkraftwerk“ einwirken. Neben dem Mutterkonzern, Lieferanten, Politik und Öffentlichkeit ist die Atomaufsicht selbst ein wichtiger Einflussfaktor. Dieses Einflusses sollte sich die Aufsichtsbehörde bewusst sein. Sie sollte bei ihrem Handeln darauf zu achten, dass sie ihren Einfluss soweit wie möglich zur Aufrechterhaltung und weiteren Verbesserung der Sicherheit einsetzt. Aufbauend auf der Aufsichtskonzeption hat die Aufsichtsbehörde die verschiedenen bereits praktizierten Kontroll- und Prüfverfahren überarbeitet. Sie wurden dahingehend erweitert, dass die Schnittstellen zwischen den Untersystemen angemessen einbezogen sind. Vor allem bei den stärker technisch orientierten Kontrollen, sei es im Bereich des Strahlenschutzes oder der Anlagentechnik, hat die Aufsichtsbehörde die organisatorischen Regelungen sowie das Personalverhalten bei Bedienung, Instandhaltung oder Überwachung in die Kontrollen integriert. Darüber hinaus hat sie ergänzende Prüfverfahren entwickelt und implementiert, die sich beispielsweise mit der Ereignisanalyse, der Personalausstattung, der Personalplanung und dem Managementsystem befassen. Die Reflexion des behördlichen Einflusses auf den Anlagenbetreiber wurde als ein Inhalt des Prüfverfahrens „Gespräche auf Führungsebene“ und somit als behördliche Aufgabe verankert. Auch die Sicherheitskultur wurde ausdrücklich als Gegenstand der behördlichen Aufsicht festgelegt. Mit verschiedenen Methoden achtet die Aufsichtsbehörde seitdem auf Erkenntnisse und Eindrücke, die als Indizien für eine nachlassende Sicherheitskultur gewertet werden können, und gibt Impulse zur Weiterentwicklung und Stärkung der Sicherheitskultur.8
6 7
8
technischen Ausschusses – Integriertes Managementsystem zum sicheren Betrieb von Kernkraftwerken (KTA 1402). In: Bundesanzeiger Amtlicher Teil, 23.1.2013, B5, S. 1. vgl. Ritz, Frank: Betriebliches Sicherheitsmanagement. Aufbau und Entwicklung widerstandsfähiger Arbeitssysteme. Stuttgart 2015. s. Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg: Konzeption für die staatliche Aufsicht über die baden-württembergischen Kernkraftwerke. URL: http://um. baden-wuerttemberg.de/fileadmin/redaktion/m-um/intern/Dateien/Dokumente/3_Umwelt/ Kernenergie/Managementsystem_Abteilung/Konzeption_f%C3%BCr_die_staatliche_ Aufsicht_%C3%BCber_die_ba-w%C3%BC_KKW.pdf (Zugriff am: 28.1.2017). Keil, Dietmar; Glöckle, Walter: Sicherheitskultur im Wettbewerb – Erwartungen der Aufsichts-
196
Walter Glöckle
Eine zusätzliche Vertiefung hat die Aufsicht über die Sicherheitskultur beim AKW-Betreiber durch die Einführung des in der baden-württembergischen Aufsichtsbehörde entwickelten „Katalogs zur Erfassung organisationaler und menschlicher Faktoren bei der Aufsicht vor Ort“ (KOMFORT) im Jahr 2005 erfahren.9 Mit diesem Tool sammelt die Behörde während ihrer Aufsichtstätigkeiten in den Atomkraftwerken „nebenbei“ Eindrücke zu verschiedenen Aspekten der Sicherheitskultur wie „Befolgen von Vorschriften“, „Sauberkeit, Ordnung und Pflege der Anlage“, „Kenntnisse und Kompetenzen“, „Arbeitsbelastung“, „Wahrnehmen von Führungsaufgaben“, „Umgang mit der Behörde“, „Betriebsklima“ u. a. Die Eindrücke werden in einer vierstufigen Skala („vorbildlich“, „in Ordnung“, „nicht in Ordnung“, „mangelhaft“) bewertet. Da Einzelwahrnehmungen keine Rückschlüsse auf die Sicherheitskultur als Ganzes erlauben, erfolgt eine jährliche Auswertung der vielen, über das Jahr hinweg vorgenommenen Bewertungen: Lassen sich Häufungen erkennen, die eine gemeinsame Ursache haben können? Gibt es über mehrere Jahre betrachtet Trends, die auf eine Veränderung der „Kultur“ hindeuten? Solche übergeordnete Feststellungen oder Hinweise greift die Aufsichtsbehörde auf, indem sie ihre Erkenntnisse und Bewertungen den Verantwortlichen auf der Betreiberseite „zurückspiegelt“, mit deren Erkenntnissen und Bewertungen vergleicht und ggf. Maßnahmen einfordert. Die rechtliche Grundlage für eine verstärkte Aufsicht im personell-organisatorischen Bereich bilden in Baden-Württemberg nachträgliche Auflagen, die im Jahr 2003 erlassenen wurden. Diese legen Pflichten des Genehmigungsinhabers im Hinblick auf die Einführung und Weiterentwicklung eines Sicherheitsmanagementsystems, die Förderung und Selbstbewertung der Sicherheitskultur, die Berichterstattung zur Personalausstattung und Personalplanung sowie die Anforderungen an Organisationsänderungen fest. In der Folge wurden mit der Regel 1402 des KTA derartige Anforderungen an den Betrieb von Atomkraftwerken bundesweit detailliert festgeschrieben. Damit wurden zugleich eine Basis und ein Bewertungsmaßstab für die behördlichen Kontrollen des soziotechnischen Systems „Atomkraftwerk“ geschaffen. ZIELSETZUNG Die einer Systembeschreibung zugrundeliegende Intension lässt sich mit den Verben „betrachten“, „prognostizieren“ und „steuern“ umschreiben. Mit dem soziotechnischen Systemansatz in der Atomaufsicht legt die Behörde das Aufsichtsobjekt „Atomkraftwerk“ fest. Sie definiert, was der atomrechtlichen Aufsicht unterliegt und was nicht. Nicht alles, was sich auf dem Betriebsgelände befindet oder dort stattfindet, ist sicherheitsrelevant. Daher sind z. B. der Betrieb einer Kantine oder eines Infozentrums, aber auch Systeme wie der Kühlturm nicht in das Aufsichtsprogramm aufgenommen. Umgekehrt wird die Aufteilung von Aufgaben und Verantwortlichkeiten in verschiedene Organisationseinheiten inzwischen als sicherheits9
behörde. In: atw Internationale Zeitschrift für Kernenergie, 45. Jg., Oktober 2000, S. 588. Stammsen, Sebastian; Glöckle, Walter: Erfassen von Sicherheitskultur bei Anlageninspektionen. Das KOMFORT-Aufsichtsinstrument der baden-württembergischen atomrechtlichen Aufsichtsbehörde. In: atw Internationale Zeitschrift für Kernenergie, 52. Jg., November 2007, S. 731.
Soziotechnischer Systemansatz in der Atomaufsicht
197
und damit als aufsichtsrelevant angesehen, was noch vor 20 Jahren als der Organisationsfreiheit des Unternehmens vorbehalten betrachtet wurde. Die Aufbauorganisation unterliegt inzwischen der Atomaufsicht, wodurch der Organisationsfreiheit des Betreibers gewisse Schranken gesetzt sind. Die Einflüsse des Mutterkonzerns und der Öffentlichkeit liegen außerhalb des Zugriffs durch die Aufsichtsbehörde, so dass nicht diese Einflüsse selbst, sondern der Umgang des Genehmigungsinhabers mit ihnen der atomrechtlichen Kontrolle unterliegt. Die präzise Umschreibung des Aufsichtsgegenstandes dient der Transparenz des Behördenhandelns und ist zudem eine Grundvoraussetzung für die erwünschte weitreichende Öffentlichkeitsbeteiligung in atomrechtlichen Verfahren. Neben der Definition der Systemgrenzen nimmt die Aufsichtsbehörde mit der Systembeschreibung auch eine Gliederung des Systems in Subsysteme, Sub-Subsysteme usw. vor. Darüber hinaus betrachtet sie auch die Schnittstellen zwischen den verschiedenen Untersystemen und deren Zusammenwirken. Mit dem „Verstehen des Systemaufbaus“ bezweckt sie eine Systematisierung der behördlichen Kontrolle. Diese soll möglichst passgenau die sicherheitsrelevanten Objektbereiche (Systemelemente) abdecken und „blinde Flecken“ vermeiden. Zugleich soll bei aller Differenzierung das Ganze nicht aus dem Blick geraten und eine ganzheitliche Sichtweise zum Tragen kommen. Die Aufsicht über ein Atomkraftwerk darf sich nicht darauf beschränken, Abweichungen von Anforderungen, die in der Genehmigung oder in technischen Regelwerken festgelegt sind, zu identifizieren. Vielmehr ist ein fachkundiges Bewerten von festgestellten Sachverhalten nötig. Bedeutsam sind dabei insbesondere das Prognostizieren des Systemverhaltens und das „Verstehen der Systemdynamik“. Welche Konsequenzen für die Sicherheit ergeben sich, wenn der Betreiber ein Beinahe-Ereignis nicht genügend tief analysiert, wenn er bei einer technischen Änderung die Rückwirkung auf eine bestehende Komponente nicht ausreichend betrachtet oder wenn er seine Betriebsvorschriften nicht an die in einer anderen Anlage gewonnenen Erkenntnisse anpasst? Das fachkundige („prognostizierende“) Verstehen erlaubt zudem, die beschränkten Ressourcen der staatlichen Aufsicht so einzusetzen, dass sie möglichst wirkungsvoll sind. Die dritte Stufe, das „Steuern“, kommt dann zum Tragen, wenn behördliches Eingreifen erforderlich ist. Die behördlichen Maßnahmen sollen entweder im Sinne von Gefahrenabwehr unterbinden, dass Zustände mit erhöhter Gefährdung eintreten, oder im Sinne der weiteren Erhöhung der Sicherheit dazu beitragen, dass Verbesserungen vorgenommen werden. Wie das oben angeführte Beispiel aus dem britischen Kohlebergbau zeigt, ist dabei das gesamte soziotechnische System zu beachten. Sehr leicht können sich punktuelle Verbesserungen im Gesamtsystem als „kontraproduktiv“ herausstellen. Zum Betrachten, Prognostizieren und Steuern des soziotechnischen Systems „Atomkraftwerk“ sind Fachkompetenzen nötig, die über ingenieur-technische Kenntnisse hinausgehen. Mit ihren Bediensteten und Sachverständigen muss die Aufsichtsbehörde auch arbeitswissenschaftliche, organisationswissenschaftliche, juristische, psychologische und soziologische Themenfelder und speziell deren Schnittstellen zu technischen Gegebenheiten kompetent abdecken. Das erfordert entsprechend ausgebildetes Fachpersonal. Das bedingt aber auch, dass Fachleute verschiedener Disziplinen eng zusammenarbeiten, offen sind für die Themen und
198
Walter Glöckle
Ansatzpunkte der anderen Fachbereiche und sich Kompetenzen über ihr eigenes Spezialgebiet hinaus aneignen. Insofern zielt der soziotechnische Systemansatz auch auf eine multidisziplinäre Aufsicht mit entsprechend kompetentem Personal. Zusammenfassend liegt die Intension des „System-Autors“ darin, die Atomaufsicht zu stärken. Die mit dem soziotechnischen Systemansatz verbundene Systematisierung und Neuausrichtung gab und gibt der Aufsichtsbehörde entscheidende Impulse zur Erhöhung der Transparenz, Intensivierung der Wachsamkeit, Steigerung der Durchsetzungsfähigkeit und Erweiterung der Kompetenz. NUTZEN Was „plaudert“ der Systemansatz aus? Allem voran steht die Grundaussage: Ein Atomkraftwerk ist keine Maschine – auch nicht eine sehr große. Die Anlagentechnik allein wird dem komplexen System nicht gerecht. Ein Atomkraftwerk ist vielmehr ein komplexes Gebilde, bei dem Mensch, Technik und Organisation zusammenwirken. Dementsprechend ist bei der Sicherheitsüberwachung eine ganzheitliche Betrachtung unerlässlich. Eine Aufsichtsbehörde und ihre Sachverständigenorganisationen müssen sich mit technischen, psychologischen, arbeits- und organisationswissenschaftlichen Gesichtspunkten befassen. Sie brauchen ingenieurtechnisches Personal, das die verschiedenen Schnittstellen bei der Aufsicht abdeckt. Sie benötigen ebenso kompetentes nicht-technisches Personal, das keine Berührungsängste mit der Technik hat und sich der technischen Spezifika, insbesondere des hohen Gefährdungspotenzials, bewusst ist. Eine zweite zentrale Aussage ist: Wie jedes komplexe System zeigt ein Atomkraftwerk Selbstorganisation und Autonomie. Lineare Reiz-Reaktion-Schemata reichen nicht aus, um das Verhalten gegenüber äußeren Einflüssen zu verstehen. Das System reagiert nicht bloß auf seine Umwelt, vielmehr besitzt es viele innere Freiheitsgrade. Will die Aufsichtsbehörde Sicherheitsverbesserungen erreichen, tut sie gut daran, die internen Potenziale und Kräfte des Systems zu nutzen. Anstatt konkrete Maßnahmen zu fordern, sollte sie Ziele vorgeben und die Betreiberorganisation selbst die Verbesserungsmaßnahmen entwickeln lassen. Damit wird der größere Wissenspool des Betreiberpersonals genutzt. Zudem sind die Widerstände, die sich jeder Neuerung entgegenstellen, geringer, wenn möglichst viele Beteiligte bei der Entwicklung der Neuerung einbezogen sind. Gezielt lässt sich das Potenzial der Betreiberorganisation nutzen, indem die Aufsicht die betreiberinternen Prozesse der Eigenüberwachung, Selbstüberprüfung und Verbesserung nutzt. Die Kontrolle der Strahlenschutz-Organisation im Atomkraftwerk ist effektiver als die Kontrolle einzelner Strahlenschutzmaßnahmen. Die behördliche Vergewisserung über die Wirksamkeit des internen Auditsystems erlaubt eine breitere Kontrolle als punktuelle behördeneigene Audits. Eine behördliche Fachdiskussion beispielsweise mit dem Verantwortlichen für die Reaktorphysik kann bereits dadurch Sicherheitsverbesserungen auslösen, dass die Position dieser Person mit seinen eigenen Verbesserungsvorschlägen innerhalb des Betreiberunternehmens gestärkt wird. Das soziotechnisches System „Atomkraftwerk“ ist, wie schon mehrfach betont, ein offenes System. Es steht im Austausch mit seiner Umwelt, mehr noch – und das
Soziotechnischer Systemansatz in der Atomaufsicht
199
ist die dritte zentrale Aussage – es passt sich dieser Umwelt an. Die politisch-gesellschaftliche Diskussion um die Atomenergie beispielsweise geht nicht spurlos an den Beschäftigten vorbei. Je mehr die Beschäftigten den Eindruck gewinnen, dass sich diese Diskussion von einer rationalen Argumentation entfernt oder ihre Argumente kein Gehör finden, umso mehr besteht die Gefahr des Rückzugs in internes Gruppendenken. Abgrenzung und Feindbilder sind Folgen eines solchen Rückzugs. Vergleichbares gilt in Bezug auf Strategien der Mutterkonzerne, denen zufolge die Atomsparte als „schlechtes“ Geschäftsfeld ausgegliedert werden soll. Auch dies kann von den Beschäftigten als Stigmatisierung empfunden werden und sich auf deren Motivation und Arbeitsverhalten auswirken. Eine andere Form der Adaption an die Umwelt kann die nur oberflächliche Erfüllung einer Erwartungshaltung sein. Davor ist auch das Aufsichtsverhältnis nicht gefeit. Eine Aufsichtsbehörde, die die Einhaltung von Vorschriften ins Zentrum ihres Handelns stellt, muss damit rechnen, dass der Beaufsichtigte darauf angepasst reagiert. Er wird bei seinen Informationen jeweils die Sachverhalte in Verbindung mit den einzuhaltenden Vorschriften bringen. Über seine Beurteilung der Sachverhalte erfährt die Behörde dadurch wenig. Ein Streben nach Exzellenz, ein Streben, welches über die Erfüllung der Anforderungen hinausgeht, wird damit nicht gefördert. Die Aufsichtsbehörde kann das Sich-Einstellen des Systems auf die behördlichen Anforderungen jedoch auch so gestalten, dass es der Sicherheitsverbesserung dient, z. B. indem sie die Aufmerksamkeit auf entsprechende Fragestellungen lenkt oder bestimmte Entwicklungen unterstützt. Zu solchen wünschenswerten Entwicklungen gehört auch die Ausbildung und Aufrechterhaltung einer ausgeprägten Sicherheitskultur. Komplexe Systeme zeigen Emergenzen. Die Organisationskultur, und als Spezialfall davon die Sicherheitskultur, ist eine emergente Qualität eines soziotechnischen Systems. Dieser weiteren Grundaussage entsprechend lässt sich die Organisationskultur nicht an einzelnen Bestandteilen des Systems, seien es Einzelpersonen oder Gruppen, ablesen. Sie lässt sich schwer aus isolierten Beobachtungen, Aussagen, Unterlagen etc. erschließen. Zudem ist Vorsicht geboten, wenn aus einzelnen negativen Befunden auf Sicherheitskultur-Probleme geschlossen werden soll. Dasselbe gilt auch für die umgekehrte Richtung: nicht jede Beseitigung einer organisatorischen Schwäche ist zugleich eine Stärkung der Sicherheitskultur. Wesentliche Änderungen einer Organisationskultur geschehen nicht von heute auf morgen. Sie erfordern einen Zeitraum von Jahren, wenn nicht Jahrzehnten. Die Entwicklung einer Kultur, in der wichtige Informationen und insbesondere Sicherheitsbedenken offen kommuniziert werden, die Fehler und Fehlleistungen als Chance für Verbesserungen sieht und die die eigene Betriebserfahrung wie auch Erkenntnisse aus anderen Anlagen und Industrien für Optimierungen nutzt, ist für das System „Atomkraftwerk“ nicht zum Nulltarif zu haben. Nicht selten ist eine Krise, die bisherige, nicht mehr hinterfragte Auffassungen, Normen, Vorgehensweisen u. a. in Frage stellt, zugleich eine Chance für eine Kulturänderung. Auf jeden Fall sind Anstrengungen zur Entwicklung einer ausgeprägten Sicherheitskultur nötig, die nicht nachlassen dürfen. Die jahrzehntelange Befassung hat in den deutschen Atomkraftwerken zu einer Sicherheitskultur geführt, zu der andere soziotechnische Systeme, beispielsweise im Gesundheitswesen, erst allmählich aufschließen.
200
Walter Glöckle
Als abschließende wichtige Aussage der Systemtheorie über das soziotechnische System „Atomkraftwerk“ sei nochmals ein wesentlicher Gedanke aus Kornwachs’ Arbeiten zur Systemtheorie aufgegriffen: die Komplementaritäten bzw. Unschärferelationen in nicht klassischen Systemen. Eine solche Komplementarität besteht zwischen Struktur und Verhalten des Systems. Je detaillierter die Beschreibung in Subsysteme und Sub-Subsysteme erfolgt, umso weniger lässt sich damit über das Systemverhalten, d. h. die zeitliche Entwicklung des Systems, erfahren. Umgekehrt lässt sich aus einer Beschreibung des Systemverhaltens nur begrenzt auf die Beiträge von Subsystemen zu diesem Verhalten schließen. Übertragen auf die Atomaufsicht heißt das: je stärker diese sich auf technische Komponenten, Anlagenteile, Regelungen und andere Strukturen konzentriert, umso weniger kann sie über die „Performance“ des Systems aussagen. Und je mehr sie die Entwicklung von Performance-Indikatoren in den Blick nimmt, umso weniger vermag sie die strukturellen Gründe für diese Entwicklungen zu benennen. Zur Wirklichkeit des soziotechnischen Systems gehören beide Seiten der Medaille – Struktur und Verhalten. Mit beidem muss sich die Atomaufsicht befassen. Dabei ist konkretes Wissen um den Gegenstandsbereich nötig. Der soziotechnische Ansatz in der Atomaufsicht, d. h. die systemtheoretische Betrachtung, kann solches Wissen nicht ersetzen. Er plaudert es nur aus.
Soziotechnischer Systemansatz in der Atomaufsicht
201
LITERATUR Fahlbruch, Babette; Miller, Rainer; Wilpert, Bernhard: Sicherheit durch organisationales Lernen. Das Lernen aus Ereignissen und Beinahe-Ereignissen. In: atw, Internationale Zeitschrift für Kernenergie, 43. Jg., November 1998. Keil, Dietmar; Glöckle, Walter: Sicherheitskultur im Wettbewerb – Erwartungen der Aufsichtsbehörde. In: atw Internationale Zeitschrift für Kernenergie, 45. Jg., Oktober 2000. Kerntechnischer Ausschuss: Bekanntmachung von sicherheitstechnischen Regeln des Kerntechnischen Ausschusses – Integriertes Managementsystem zum sicheren Betrieb von Kernkraftwerken (KTA 1402). In: Bundesanzeiger Amtlicher Teil, 23.1.2013. Kornwachs, Klaus: Offene Systeme und die Frage nach der Information. Stuttgart 1987. Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg: Konzeption für die staatliche Aufsicht über die baden-württembergischen Kernkraftwerke. URL: http://um.badenwuerttemberg.de/fileadmin/redaktion/m-um/intern/Dateien/Dokumente/3_Umwelt/Kernenergie/ Managementsystem_Abteilung/Konzeption_f%C3%BCr_die_staatliche_Aufsicht_%C3%BC ber_die_ba-w%C3%BC_KKW.pdf (Stand: 28.1.2017). Ritz, Frank: Betriebliches Sicherheitsmanagement. Aufbau und Entwicklung widerstandsfähiger Arbeitssysteme. Stuttgart 2015. Schein, Edgar H.: Organizational culture and leadership. New York 2004(3). Stammsen, Sebastian; Glöckle, Walter: Erfassen von Sicherheitskultur bei Anlageninspektionen. Das KOMFORT-Aufsichtsinstrument der baden-württembergischen atomrechtlichen Aufsichtsbehörde. In: atw Internationale Zeitschrift für Kernenergie, 52. Jg., November 2007. Trist, Eric; Bamforth, Ken: Some Social and Psychological Consequences of the Longwall Method of Coal-Getting. An Examination of the Psychological Situation and Defences of a Work Group in Relation to the Social Structure and Technological Content of the Work System. In: Human Relations,1951 (4).
VERANTWORTLICH FÜR DAS WISSEN Ernst Peter Fischer „Es gibt eine moralische Einsicht, der ich mich nicht habe entziehen können“, verkündete der Physiker und Philosoph Carl Friedrich von Weizsäcker 1980 in einem Vortrag, mit dem er „Rechenschaft über die eigene Rolle“ abgeben wollte, die er bei der Entwicklung sowohl der Kernphysik als auch der Atombombe gespielt hatte. Er betonte, nur um dieser moralischen Einsicht wegen „halte ich die heutige Rede. Sie heißt in einem Satz zusammengedrängt: Die Wissenschaft ist für ihre Folgen verantwortlich.“1 Ich vermute, dass dieser Satz die allgemeine Zustimmung des damaligen Publikums gefunden hat und dass er auch an dieser Stelle von vielen Lesern bereitwillig und ohne Zögern akzeptiert wird. Mir erscheint die Formulierung trotzdem fragwürdig, und ich stehe ihrer unverbindlichen Allgemeinheit eher skeptisch gegenüber. Auf der einen Seite ist der Satz trivial. Denn wenn die Folgen der Wissenschaft Luxus und Wohlergehen sind, wird niemand nach der Verantwortung fragen. Und wenn die Folgen der Forschung Schäden und Probleme mit sich bringen, wie kann eine Gesellschaft dann anders als mit wissenschaftlichen Mitteln darauf reagieren? Zur Wissenschaft gibt es – in abendländischen oder europäischen Kulturkreis jedenfalls – keine Alternative, und wenn überhaupt, dann kann man nur aus ihren Reihen auf eine Antwort rechnen und damit von Verantwortung reden. Auf der anderen Seite ist von Weizsäckers Formulierung genau genommen unzutreffend. Denn „die Wissenschaft“ – das ist keine Person, und nur Menschen können moralische Verantwortung übernehmen. Sie tun dies – allgemein ausgedrückt –, wenn sie erstens so gut wie möglich beurteilen, was die Konsequenzen ihrer Handlungen sind, und wenn sie zweitens nach den dabei gewonnenen Einsichten handeln. Da aber alle Wissenschaftler, die diesen Namen verdienen und keine Verbrechen im Sinn haben, wenigstens im Prinzip so vorgehen, wird von Weizsäckers moralisch wirkender Satz wieder völlig selbstverständlich, und das eigentliche Problem, die Bewertung der konkreten wissenschaftlichen Befunde und der daraus sich ergebende Entschluss zum Handeln, kommt gar nicht erst in den Sinn. Es bleibt zudem unklar, was „die Folgen“ sein sollen, für die „die Wissenschaft“ zuständig sein soll. Die Folgen der Tatsache, dass eine christlich-abendländische Gesellschaft sich seit Hunderten von Jahren bei ihrem wirtschaftlichen Schaffen auf die Wissenschaft verlässt, die spätestens im 19. Jahrhundert für Millionen Menschen zum Beruf geworden ist, zeigen sich in den Möglichkeiten, die auf diese Weise in die Welt gesetzt und dort kräftig umgesetzt werden. Bäcker liefern Brötchen, und Wissenschaftler liefern Möglichkeiten, deren Nutzung weitgehende 1
Weizsäcker, Carl Friedrich von: Wahrnehmung der Neuzeit. München 1983.
204
Ernst Peter Fischer
Veränderungen nach sich ziehen, und zwar Veränderungen der Bedingungen, unter denen Menschen in Gesellschaften leben, wie sie etwa in der europäischen Welt zu finden sind, in der die moderne Wissenschaft im frühen 17. Jahrhundert geboren wurde. Mit anderen Worten, die Folgen der Wissenschaft zeigen sich in der Geschichte, und für die sind alle Menschen gemeinsam verantwortlich, auch wenn sich viele Politiker und Ethiker an diesen Gedanken erst noch gewöhnen müssen Dabei ist diese Einsicht nicht neu und spätestens seit dem Beginn des 19. Jahrhunderts bekannt, als verstanden wurde, dass Geschichte nicht etwas ist, das Menschen zustößt, sondern etwas, das sie zustande bringen. Wer bedenkt, dass im Jahre 1800 die erste Batterie Strom lieferte und 100 Jahre später die Haushalte elektrifiziert wurden, erkennt leicht, wie sehr die Folgen der Wissenschaft zum Leben der Menschen gehören und es beeinflussen. Dieses Wissen gehört aber nicht zur Bildung im Lande der Dichter und Denker, im dem viele Intellektuelle nur dann von Technik und Naturwissenschaft reden, wenn sie davor warnen dürfen – entweder im Fernsehen oder auf ihrem Laptop, die sie beide ebenso wenig wie die Drucktechnik und das Papier hätten, wenn Ingenieure oder andere wissenschaftlich tätige Menschen sie nicht ersonnen und angefertigt hätten. Dass Disziplinen wie Physik, Chemie und Biologie etwas mit der Geschichte der menschlichen Gesellschaft zu tun haben, wirkt bis heute für viele Historiker verstörend oder fremd. Sie kümmern sich lieber um militärische Aktionen oder geopolitische Strategien, lassen den wissenschaftlichen Hintergrund unbeachtet und kommen gar nicht auf die Idee zu fragen, warum man im 19. Jahrhundert damit begonnen hat, nach Öl zu bohren und warum seitdem so viel von Energie die Rede ist. Tatsächlich wird in den Geschichtsbüchern so getan, als ob die moderne Welt sowohl ohne die Fächer auskommt, für die Nobelpreise vergeben werden – warum eigentlich dafür? –, als auch ohne ihre Mitwirkung so geworden ist, wie wir sie erleben. Mir scheint hier ein doppeltes Ungleichgewicht nach Ausgleich zu verlangen. Geschichte kann man nicht ohne Beitrag der Wissenschaft verstehen, und die Wissenschaft kann viele ihrer Fragestellungen nicht in Angriff nehmen, wenn sie die Geschichte ihrer Gegenstände nicht zur Kenntnis nimmt. Die Geschichte formt die Wissenschaft, und die Wissenschaft formt die Geschichte. Solch eine doppelte Sicht ist charakteristisch für die Epoche, die Fachleute mit dem verlockenden Wort „Romantik“ bezeichnen und in der auch der Philosoph Georg Wilhelm Friedrich Hegel lebte, der in der Geschichte mehr als eine Folge von Ereignissen sah, die in Chroniken festgehalten werden. Geschichte findet nicht statt, Geschichte wird gemacht, und zwar in Europa mit den Mittel der Wissenschaft, für die dann alle Menschen zusammen verantwortlich sind, und nicht nur ein Teil von ihnen. Indem von Weizsäcker die Gruppe der Forscher unter allen heraushebt, um ihnen die Schuld an Fehlentwicklungen aufladen zu können, fällt er erstens hinter die Romantik zurück und entbindet er zweitens die Nicht-Wissenschaftler – die Öffentlichkeit und die Medien – von jeder Verantwortung. Er erteilt dem Publikum und seinen Berichterstattern die Absolution. Das Ozonloch, das Wald- und Artensterben, der saure Regen, der Unfall im Atomkraftwerk, die übereilten Versuche bei der Gentherapie – dafür ist nun allein „die Wissenschaft“ verantwortlich. Die Öffentlichkeit kann sich beruhigt zurücklehnen und mit dem Finger auf die Verantwortlichen zeigen, ohne
Verantwortlich für das Wissen
205
zu merken, dass drei Finger der ausgestreckten Hand auf sie selbst zurückweisen. Man hat trotzdem nichts mit dem Klimawandel zu tun. Den machen die anderen in Fabriken oder fernen Ländern. Man fühlt sich wohl bei dem Gedanken und applaudiert dem populistischen Satz des populären Philosophen, der den Menschen die Verantwortung für das Wissen abnimmt und sie einer ungeliebten und schwer verständlichen Instanz aufbürdet. EINZELNE WISSENSCHAFTLER Carl Friedrich von Weizsäcker hätte seinen gefährlich einlullenden Satz anders fassen und sagen können: „Die Wissenschaftler sind für die Folgen ihres Tuns verantwortlich.“ Dann hätte sich am Einverständnis seiner Zuhörer nichts geändert. Aber hätte die Behauptung damit mehr Bedeutung bekommen? Was ist im Einzelfall gemeint, wenn gesagt wird, Forscher sind für die Folgen ihrer Entdeckung verantwortlich? Wofür soll zum Beispiel ein Astronom, der Sterne beobachtet und Himmelskarten anfertigt, verantwortlich sein, außer für die Zuverlässigkeit und Vollständigkeit seiner Protokolle? Und wieviel mehr Verantwortung übernimmt demgegenüber eine Genetikerin, die nach einer Genvariante sucht, die für ihre Trägerin mit großer Wahrscheinlichkeit Brustkrebs zur Folge hat? Ist sie zugleich auch für die Hilflosigkeit verantwortlich, mit der die Öffentlichkeit auf das dann mögliche Angebot reagiert, einen prädiktiven Gentest für Brustkrebs durchzuführen? Bleibt ihr überhaupt eine Wahl? Lädt sie nicht mehr Verantwortung auf sich, wenn sie sich entschließt, die Suche nach dem Brustkrebsgen einzustellen, weil sie meint, die Gesellschaft könne mit diesem Wissen noch nicht umgehen? War zum Beispiel Albert Einstein für seine weltberühmte Formel E = mc2 verantwortlich, die preisgab, wieviel Energie in der Materie steckt? Die Gültigkeit von Einsteins Formel wurde unübersehbar, als die erste Atombombe zündete. War Einstein dafür verantwortlich? Immerhin hat er dem amerikanischen Präsidenten Roosevelt geraten, sie zu bauen, bevor es die Deutschen für Hitler tun. Oder ist vielmehr die westliche Gesellschaft für die Bombe verantwortlich, denn es waren schließlich demokratisch gewählte Regierungen, die sie in Auftrag gegeben haben, und es waren Angehörige der amerikanischen Armee, die das ganze Geschehen organisiert und überwacht haben. Die von Einstein abgeleitete Beziehung zwischen Masse und Energie war die Folge seines Handelns, das ein Nachdenken über die Frage war, wie der Energiegehalt eines Körpers von seiner Trägheit abhängt. Es waren weltferne Fragen, mit deren Hilfe Einstein seine berühmte Formel nicht gesucht, wohl aber gefunden hat, und zwar zu einer Zeit, als er 26 Jahre alt und Angestellter an einem Patentamt war. Niemand wird einen heutigen oder künftigen Einstein daran hindern können, über esoterisch anmutende und meilenweit von jeder Anwendung entfernt scheinende Fragestellungen nachzudenken, und niemand kann garantieren, dass dabei nicht ähnlich tiefgreifende Zusammenhänge erkennbar werden, die neben ihren großen Einsichten auch große Risiken mit sich bringen. Als jüngstes Beispiel aus dem 21. Jahrhundert kann die Arbeit zweier Genetikerinnen – Jennifer Doudna und
206
Ernst Peter Fischer
Emmanuelle Charpentier – erwähnt werden, die eigentlich untersuchen wollten, wie man Joghurt haltbarer macht, und dabei auf eine Fähigkeit von Bakterien stießen, das Erbmaterial ihrer biologischen Gegner, der Viren, zu manipulieren. Wie sich herausstellte, kann der dazugehörige molekulare Mechanismus nicht nur bei Viren, sondern bei allen möglichen Kreaturen eingesetzt werden, und inzwischen sprechen die Biologen davon, damit „Human Editing“ betreiben zu können, also in der Lage zu sein, das menschliche Genom so zu edieren und einzurichten, wie es einem Auftraggeber gefällt. Diese Möglichkeit konnte erstens niemand voraussehen, als es um Joghurt ging, und kann zweitens niemand unterdrücken, wenn es um die Zukunft von Menschen geht. Tief in der Natur von Homo sapiens – nicht unbedingt in seinen Genen – steckt sein Wunsch, wissen zu wollen. Selbst Sokrates hat gewusst, dass er wissen wollte, nämlich was hinter dem Horizont des Nichtwissens liegt. „Der wissenschaftliche Mensch ist (…) eine ganz unvermeidlich Tatsache“, wie es in Robert Musils Roman „Mann ohne Eigenschaften“ heißt: „ Man kann nicht nicht wissen wollen.“ Man kann nur nicht sagen, was dabei letztlich herauskommt, selbst wenn man anfänglich nur an Joghurt interessiert ist oder den Zusammenhang von Energie und Trägheit verstehen möchte. DAS BÖSE UND DIE BOMBE Die Entwicklung der Atombombe gehört zu den maßgeblichen Erfahrungen der modernen Welt, in deren Verlauf die Menschheit aus einem alten Traum aufgewacht ist. Sie hatte sich so schön vorgestellt, dass die Welt mit zunehmender Rationalität nur besser und das Böse nur weniger werden kann. Mit der Atombombe war das anders geworden, und seit dieser Zeit werden mindestens zwei Fragen gestellt, die in diesem Zusammenhang erwähnt werden sollen. Auf der einen Seite versucht der Blick auf die Geschichte zu erkunden, ob es eine Stelle gegeben hat, an der die Entfesselung der atomaren Energien hätte gestoppt oder an der die Entwicklung in eine andere Richtung hätte umgeleitet werden können. Auf der anderen Seite fragt die philosophische Analyse, über welche Fähigkeiten oder Instanzen die Menschen verfügen, um einen Missbrauch der Mittel zu verhindern, die der Sachverstand produziert. Die Antwort auf die historische Frage ist schöner, weshalb mit ihr begonnen werden soll. Sie stammt nämlich von einem Dichter, der die historischen Voraussetzungen genau studiert hat. Sie lassen sich rasch rekapitulieren: Um eine Atombombe bauen zu können, muss zum einen die Relation zwischen Energie und Masse gegeben sein, die Einstein 1905 als Nebenprodukt seiner Bemühungen um die Relativitätstheorie gefunden hatte. Weiter muss es die theoretische Physik der Atome geben, die unter der Bezeichnung „Quantentheorie“ in den zwanziger Jahren aufgestellt werden konnte. Darüber hinaus muss man wissen, dass es neben den Elektronen und Protonen noch eine dritte Sorte von Kernteilchen gab, die Neutronen heißen, weil sie elektrisch neutral sind. Diese Qualität erlaubt es, mit ihnen auf Atomkerne zu schießen und sie auch zu treffen. Dies wurde in der Mitte
Verantwortlich für das Wissen
207
der dreißiger Jahre gemacht, wobei als Ziel vor allem Uran diente. Die Physiker hofften dabei, die Neutronen würden eingefangen und auf diese Weise Elemente herstellen, die größer als Uran waren („Transurane“). Sie wollten sehen, ob solche künstlichen Produkte stabil bleiben. Es waren dann Chemiker wie Otto Hahn, die zur allgemeinen Verblüffung feststellten, dass eher das Gegenteil passierte: Die Neutronen zerteilten das Uran. Die Kernspaltung war entdeckt, und es war Lise Meitner, die als erste verstand, woher die Energie kam, die für diesen Vorgang nötig war, nämlich aus der Materie selbst, wie Einstein ganz zu Beginn und ganz ohne Absicht gefunden hatte. Die Geschichte wird jetzt schneller und gezielter entwickelt, vor allem, weil inzwischen Krieg herrscht – wofür ganz sicher kein Naturwissenschaftler verantwortlich ist. Wo könnte nun eine Stelle stecken, an der die skizzierte Entwicklung hätte abbrechen können? Oder lässt sich nur sagen, wodurch sich das Böse endgültig durchsetzte? Ich denke, dass die Antwort in dem Gedicht von Eugen Roth zu finden ist, das die Überschrift „Das Böse“ trägt und zum Beispiel in der Sammlung zu finden ist, in der all seine Verse enthalten sind, die erzählen, was „Ein Mensch“ macht: Ein Mensch – was noch ganz ungefährlich – Erklärt die Quanten (schwer erklärlich). Ein zweiter, der das All durchspäht, Erforscht die Relativität. Ein dritter nimmt, noch harmlos, an, Geheimnis stecke im Uran. Ein vierter ist nicht fernzuhalten, von dem Gedanken, kernzuspalten. Ein fünfter – reine Wissenschaft! – Entfesselt der Atome Kraft. Ein sechster, auch noch bonafidlich, Will sie verwerten, doch nur friedlich. Unschuldig wirken sie zusammen: Wen dürfen, einzeln, wir verdammen? Ist’s nicht der siebte oder achte, Der Bomben dachte und dann machte? Ist’s nicht der Böseste der Bösen, Der’s dann gewagt, sie auszulösen? Den Teufel wird man nie erwischen: Er steckt von Anfang an dazwischen.
Es ist schwierig, etwas Gescheites über den Teufel zu sagen, und es ist erst recht schwierig, etwas Vernünftiges über ihn zu schreiben. Zu groß sind die entsprechenden Figuren, die uns in der Literatur entgegentreten, bei Thomas Mann etwa oder bei Goethe. Sein Teufel aus dem „Faust“ mit Namen Mephistopheles wird uns in Kürze begegnen, und dabei wird auffallen, was ihn und seine Anhänger in den Texten auszeichnet, nämlich der hohe Grad von Rationalität. Teufel besitzen offenbar eine Menge Verstand, und dieser Hinweis bringt die philosophische Frage wieder
208
Ernst Peter Fischer
auf den Tisch, die wissen will, wie die Menschen die Hervorbringungen ihrer rationalen Fähigkeiten – also ihre teuflischen Seiten – unter Kontrolle bekommen? Was ist das Gegengewicht der Intelligenz, die in der Entwicklung von Wissenschaft und Technik waltet? Die bekannteste Antwort hat der Philosoph Karl Jaspers in seinem Buch „Die Atombombe und die Zukunft des Menschen“ versucht, dessen erste Auflage 1958 erschienen ist. Er setzt voll und ganz auf die Vernunft: „An ihr hängt die Rettung“, schreibt er, um hinzuzufügen, „ist die Vernunft im ganzen unwirksam und versagt ihre Durchschlagskraft, dann scheint heute der Untergang die Folge“.2 Die meisten Menschen haben Jaspers damals Beifall gespendet, und die meisten Menschen werden heute genau so handeln. Wir müssen wohl auf die Vernunft setzen, obwohl wir oft und wiederholt von ihr enttäuscht worden sind. Aber ist dies wirklich die einzige Instanz, die den Menschen bleibt? Oder hat jemand einen anderen Vorschlag gemacht? Die Antwort heißt „Ja“, auch wenn sie kaum zur Kenntnis genommen worden ist. Sie stammt von dem Physiker Wolfgang Pauli, der zwar 1945 mit dem Nobelpreis für seine Disziplin ausgezeichnet worden, der aber außerhalb seiner Wissenschaft bis heute ein Unbekannter geblieben ist. Dabei hat Pauli als einziger der großen Physiker seiner Zeit die Mitwirkung am Bau der Atombombe verweigert, und zwar mit dem Hinweis auf die Rationalität des Bösen, die dabei praktiziert wird. Pauli hat schon früh auf die Tatsache hinzuweisen versucht, dass es mindestens zwei Motive für den Wissenschaftler gibt. Es geht nicht nur um die Ausnutzung oder Ausbeutung von Natur – nach dem bekannten Motto „Wissen ist Macht“. Es geht auch – und wahrscheinlich sogar vor allem – um eine Erfüllung im Denken und Fühlen. (Es geht um Bildung, wie in diesem Zusammenhang auch gesagt werden kann.) Erfüllung erlaubt – wörtlich genommen – keine Einseitigkeit, weder die des Verstandes noch die der Vernunft. Wenn die Rationalität erst einmal eine Schieflage produziert hat – damals die Bombe, heute die Umweltzerstörung und die Genmanipulationen –, kann ich das Gleichgewicht nur dadurch herstellen, dass ich etwa Ergänzendes einsetze, etwas Komplementäres in dem eingeführten Sinne des Wortes. In Paulis Worten: „Wenn die Rationalität Schiffbruch erleidet, hilft nicht der Rückgriff auf Vernunft, sondern die Besinnung auf komplementäre Gegensatzpaare. Die in Frage kommenden komplementäre Gegensatzpaare sind für mich: Bewusstsein – Unbewußtes, Denken – Fühlen, Vernunft – Instinkt, Logos – Eros.“3 Pauli vermutet, dass „nur eine chthonische, instinktive Weisheit (…) die Menschheit vor den Gefahren der Atombombe retten“ kann, und ich vermute, dass er da sehr recht hat, selbst wenn dies bislang allzu wenige bemerkt haben. An dieser Stelle zeigt sich besonders deutlich der Schaden, den ein Mangel an naturwissenschaftlicher Bildung mit sich bringen kann. Zwar kennt hierzulande nahezu jeder den Namen Jaspers, aber wer wüßte etwas über Pauli zu sagen, der doch ähnlich viel – und vielleicht in dem konkreten Fall sogar viel mehr – zu sagen hat? Es nützt nichts, in weihevollen Tönen Vernunft und Humanität zu preisen, wenn man die 2 3
Jaspers, Karl: Die Atombombe und die Zukunft des Menschen. München 1982. S. 554. zitiert nach: Fischer, Ernst Peter: An den Grenzen des Denkens – Wolfgang Pauli und die Nachtseite der Physik. Freiburg im Breisgau 2000.
Verantwortlich für das Wissen
209
teuflische Seite menschlichen Handelns übersieht, die Mark Twain durch „the dark side of the moon“ angesprochen hat. Es gehört doch zur Idee der humanistischen Bildung, die im 14. Jahrhundert aufgekommen ist, sich vom feierlichen Ton des Mittelalters abzusetzen und auch die Tiefen der menschlichen Seele zu berücksichtigen. Diesen Schritt gilt es immer noch zu vollziehen. Pauli, ein Naturwissenschaftler, hat dazu aufgerufen und geraten, das vom Christentum als ungeistig geächtete Materielle mit einem positiven Wertvorzeichen zu versehen. Wie lange noch wird die Philosophie diesen nötigen Schritt erschweren? EIN HIPPOKRATISCHER EID FÜR DIE WISSENSCHAFT? Als die Wissenschaftler vor rund 400 Jahren laufen lernten, indem sie anfingen, ihre Tätigkeit zu organisieren und für die menschliche Gesellschaft nutzbar zu machen, da taten sie dies aus einem einsichtigen und nachvollziehbaren Grund heraus. Wahrscheinlich am schönsten und einprägsamsten formuliert hat ihn Bertolt Brecht in seinem Drama, mit dem er das „Leben des Galilei“ auf die Bühne gebracht hat. Brecht legt Galilei die Worte in den Mund, die im 17. Jahrhundert den Ausschlag für die wissenschaftlichen Bemühungen der Menschen waren: „Ich halte dafür, dass das einzige Ziel der Wissenschaft darin besteht, die Mühseligkeit der menschlichen Existenz zu erleichtern.“ Man sollte das Attribut vor dem Ziel, das Wort „einzige“, nicht überlesen, sondern ernst nehmen. Wissenschaft ist tatsächlich allein mit diesem Anspruch angetreten, und dieser Gedanke trägt bis heute, denn genau dafür werden sie verantwortlich gemacht. Natürlich lassen sich im Laufe der Geschichte unterschiedliche und verschieden anspruchsvolle Ansichten zu der Frage finden, was als letzte Wertmaxime der Verantwortung anzusehen ist, wie es unter Philosophen heißt: Für Immanuel Kant etwa ist es der Mensch als Zweck an sich; für Albert Schweitzer ist es die Ehrfurcht vor dem Leben; für Hans Jonas ist es die Bewahrung des Seins; und für den politisch erfahrenen Naturphilosophen Klaus Michael Meyer-Abich ist es der Frieden mit der Natur. Aber vermutlich wird niemand widersprechen, wenn gedanklich der Anschluß an Brechts Galilei gesucht und die Ansicht vertreten wird, auch heute noch sei der Blick auf Nützlichkeit geboten, und es komme auf „das gute Leben aller“ an. Vor diesem Hintergrund müssen die vielen Vorschläge gesehen werden, die seit 1945 gemacht worden sind, um einen hippokratischen Eid für Naturwissenschaftler zu formulieren. Als Ziel solcher Initiativen, die zum ersten Mal im Angesicht von explodierenden Atombomben gestartet worden sind und bis heute fortgeführt werden, schwebte den Autoren die Stärkung der Verantwortung vor Augen, die Forscher nach außen haben. Die Naturwissenschaftler sollten verpflichtet werden, ihr Wissen und Können einzusetzen „zum Besten der Menschheit“ (1946), „für die Wohlfahrt der Menschheit“ (1956), „zum Wohl der gesamten Menschheit“ (1976), „für das Wohlergehen der Menschheit“ (1988), und immer so weiter mit immer neuen und alten Variationen. Abgesehen davon, dass Vorschläge dieser Art erstens eher nett und betulich klingen und zweitens zumeist unverbindlich – und damit un-
210
Ernst Peter Fischer
wirksam – bleiben, scheitert die Idee, eine hippokratische Eidesformel für Wissenschaftler nach dem medizinischen Vorbild zu entwickeln, vor allem an einem Punkt Während Hippokrates eine wohldefinierte und unumstrittene Größe in den Mittelpunkt seiner Festlegung der Verantwortlichkeit stellen konnte – nämlich das Leben des Patienten, das es unter allen Umständen zu erhalten galt und gilt –, gibt es nichts Vergleichbares für Physiker, Chemiker, Biologen und andere Naturforscher. Denn was ist damit gemeint, sich für das Wohl der Menschheit einzusetzen? Wie kann man sicher sein, so zu handeln, wenn man einem Einzelnen hilft? Hat Einstein der Menschheit gedient, als er den Bau der Atombombe empfahl? Haben die Physiker zum Wohl der Menschheit beigetragen, die nach dem Zweiten Weltkrieg die Atomforschung verlassen und die Molekularbiologie entwickelt haben, die uns dann die Gentechnik beschert hat? Und warum muss es immer die „gesamte Menschheit“ sein? Ist ein Wissenschaftler nicht vor allem einzelnen Personen gegenüber verpflichtet, deren Leiden oder Leben er vor Augen hat? Überhaupt: Lässt sich eindeutig definieren, was das Wohl bzw. was das Gute ist? Wie kann ich sicher sein, dass meine Handlungen zum Guten führen? Kann ich dies überhaupt wissen? Die Antwort lautet „Nein“, und eigentlich müßte sie, so laut es geht, verkündet werden. Sie stammt von dem Teufel, der von Anfang an zwischen uns steht, wenn wir agieren. Sie stammt genauer von Mephistopheles, den Goethe in seinem „Faust“ vom Himmel fallen lässt und der dem Gelehrten zu Diensten sein will. Als sich Faust und Mephisto zum ersten Mal begegnen, führt sich der Teufel mit einem seltsamen Satz ein. Auf die Frage, „Wer bist denn du?“, kommt die berühmte Antwort: „Ich bin ein Teil von jener Kraft, die stets das Böse will, und stets das Gute schafft.“
Goethe lässt durch den Teufel ausdrücken, was im Grund jeder weiß, was mittlerweile durch die Chaosforschung theoretisch sanktioniert und wissenschaftlich aufgewertet und abgesegnet ist und was jede vorgelegte Eidesformel schlicht bedeutungslos macht: Die Welt, in der wir leben, ist nicht linear und gradlinig, sondern komplex und vernetzt, und zwar so, dass die einzige gültige Logik in ihr die des Misslingens ist. Es gibt keine Handlung – und erst recht keine Entdeckung –, deren Folgen umfassend vorhersagbar sind und nur Gutes bewirken. Selbst das beste Gute hat seine Schattenseiten, und selbst das schlimmste Böse hat sein Gutes. Betrachten wir dazu einige Beispiele. Als unbedingt gut würde man die Verbesserung der hygienischen Verhältnisse betrachten, wie die nach dem Zweiten Weltkrieg etwa in deutschen Haushalten möglich geworden ist. Welche Nachteile können sich dabei bemerkbar machen? Die Antwort auf dies Frage liefern die PolioViren, die zwar offensichtlich immer vorhanden und in unserer inneren und äußeren Umwelt präsent waren, die aber solange harmlos blieben, solange Kinder früh genug mit ihnen in Berührung kamen und infiziert wurden. „Früh genug“ heißt in einem Alter, in dem das Nervensystem noch nicht differenziert genug war, um vom Virus befallen, beschädigt und teilweise lahmgelegt zu werden. Diese Möglichkeit bestand für den Eindringling erst, als dank der verbesserten Hygiene die Kinder das Virus aufnahmen, als sie älter waren und ihr Nervensystem Platz für ihn bot.
Verantwortlich für das Wissen
211
Als unbedingt schlecht kann man (im Rückblick) die Absicht von Francis Galton (1822–1911) bezeichnen, der als Begründer der Eugenik – Erbverbesserung – gilt und sie politisch verstand. Er entwickelte sehr früh Pläne, die englische Rasse mit wissenschaftlichen Mitteln auf einer hohen Stufe von Reinheit zu halten und vor fremden Einflüssen zu bewahren. Zu diesem fragwürdigen, wenn nicht gar verwerflichen Zweck ersann Galton – ein Cousin des großen Charles Darwin – eine statistische Technik, die heute als Regressionsanalyse bekannt und zum festen Bestandteil der Naturwissenschaften gehört.4 Als unbedingt schlecht und böse kann man zudem viele der Aufgaben betrachten, die im militärischen Sektor an Wissenschaftler vergeben und von ihnen bearbeitet werden – die Entwicklung von Waffen oder Kampfstoffen etwa, die von den atomaren über die chemischen bis hin zu den biologischen reichen, oder die Konstruktion von Geräten, mit denen feindliche Maschinen (und ihre Piloten) zuverlässig abgeschossen werden können. Diese Sicht trifft aber zum einen nur in Friedenszeiten zu, und auch wer den Satz des vorsokratischen Philosophen Heraklit nicht mehr hören kann, dass die Krieg der Vater aller Dinge ist, wird sicher wissen, wieviel technische Entwicklungen – vom Radar bis zur Urform des Internet – im Auftrag militärischer Dienststellen entstanden sind. Mit anderen Worten, der Einsatz von Wissenschaft und die Entscheidung für ein Leben auf wissenschaftlicher Grundlage ist mit einem Risiko verbunden, das außerhalb der individuell tragbaren Verantwortung liegt. Sie fängt an, wenn Gefahren erkennbar auftreten und es möglich ist, sie klein zu halten. Und sie setzt sich in der Aufgabe fort, die Öffentlichkeit über die unvermeidlichen Risiken zu informieren, die eine wissenschaftliche Entwicklung mit sich bringt VERANTWORTUNG FÜR DIE ZUKUNFT Der israelische Historiker Yuval Harari hat 2013 „Eine kurze Geschichte des Menschen“ vorgelegt, die auf Englisch 2011 erschienen ist und kürzer „Sapiens“ heißt.5 Harari fängt beim Urknall an, er stellt einige Revolutionen vor – eine kognitive, eine landwirtschaftliche und eine wissenschaftliche –, und er macht sich im letzten Kapitel Gedanken über „Das Ende des Homo sapiens“, das ihm unter anderem dank der Pläne von Genetikern unausweichlich erscheint, den Neandertaler wieder auferstehen zu lassen. Außerdem denkt er auch an das Vorhaben der Neurologen und Kognitionsforscher, mehrere Gehirne miteinander zu vernetzen. Wenn dies gelingt, entsteht ein Wesen mit einem kollektiven Gedächtnis, dem sich plötzlich die Möglichkeit bietet, sich an die Erinnerungen von anderen Menschen zu erinnern. Wenn ich mein Erinnern bin, wie die Philosophie weiß, dann bin ich jetzt ein anderer. Ich bin dann vermutlich ein anderer Mensch, und dann sind alle vernetzten Menschen andere Menschen, und vielleicht kommt auf diese Weise das Ende des Menschseins herbei. Natürlich kann niemand sagen, was dabei genau passiert und 4 5
s. Weber, Thomas P.: Darwin und die Anstifter. Köln 2000. S. 33. Harari, Yuval: Eine kurze Geschichte der Menschheit. München 2013.
212
Ernst Peter Fischer
was aus den Kollektivwesen entstehen kann, aber klar ist, dass aus den Menschen, die einmal Tiere waren, so etwas wie Götter geworden sind, die das Leben bestimmen und neu entwerfen. Sie haben dabei mindestens ein Problem. Sie wissen nicht, was und wohin sie wollen. Sie haben immer noch keine Theorie des Lebens, wie ganz zu Beginn angemerkt wurde. Und so wendet sich Harari am Ende seines Buches an seine Leser mit einer Frage, über die nachzudenken sich ungemein lohnt: „Gibt es etwas Gefährlicheres als unzufriedene Götter, die nicht wissen, was sie wollen?“ Vielleicht kann man sie überzeugen, vorsichtig zu Werke zu geben, ihre Verantwortung anzunehmen und damit das zu werden, was sie sein wollen, nämlich zufrieden mit sich und den Menschen. Die moralische Einsicht, der sich Menschen nicht entziehen sollten, heißt, dass sie alle für die Folgen des erworbenen Wissens verantwortlich. Es lebt sich besser damit.
Verantwortlich für das Wissen
213
LITERATUR Fischer, Ernst Peter: An den Grenzen des Denkens – Wolfgang Pauli und die Nachtseite der Physik. Freiburg im Breisgau 2000. Harari, Yuval: Eine kurze Geschichte der Menschheit. München 2013. Jaspers, Karl: Die Atombombe und die Zukunft des Menschen. München 1982. Weber, Thomas P.: Darwin und die Anstifter. Köln 2000. Weizsäcker, Carl Friedrich von: Wahrnehmung der Neuzeit. München 1983.
IV. SPRACHE DER TECHNIK: KÖNNEN WIR SAGEN, WAS WIR TUN?
TECHNISCHES WISSEN, TECHNISCHE SPRACHE, TECHNISCHE BILDER Hans Poser 1 TECHNISCHES WISSEN Fragt man einen Philosophen, was Wissen sei, so wird er mit der einen oder anderen Ergänzung auf Platon verweisen, der Wissen als wahre Auffassung mit Begründung bestimmt hatte („Theaitetos“, 201d–206b). Das wird einem Techniker oder Technikwissenschaftler wenig helfen, denn was ist eine Auffassung und wann und wie ist sie zu begründen – das bleibt ja offen. Fragt man dagegen einen Soziologen, selbst wenn er Bücher über die Wissensgesellschaft geschrieben hat, so findet sich keine Klärung, sondern eine Verschiebung: Die faktische gegenwärtige Übereinstimmung als handlungsleitender Bestand in einem Kulturkreis, also eine communis opinio, wird für Wissen gehalten, denn hierauf stützt sich das gesellschaftliche Geschehen; doch in „postfaktischen“ Zeiten mit Berufung auf das „Bauchgefühl“ oder der freien Erfindung „alternativer Fakten“ dürfte eine solche Sicht zu Ideologien führen. Der Techniker wird deshalb darauf beharren, dass es sich beim technischen Wissen um eine bewährte Auffassung handelt, also um Inhalte, die zwar kein Wahrheitskriterium erfüllen, sich jedoch im praktischen Umgang mit der Welt als tauglich erwiesen haben. Damit wird ein Absolutheitsanspruch vermieden, sodass unter technischem Wissen viel vorsichtiger methodisch begründete Aussagen von Hypothesenstatus zu verstehen sind, die unter veränderten Bedingungen eine Anpassung erlauben. Nun ist solches technisches und technologisches Wissen sehr unterschiedlicher Gestalt1, nämlich: TW1 TW2
ein Sachverhaltswissen, ein Wissen um Mittel für einen Zweck im Sinne einer Funktionserfüllung (theoretisches Handlungswissen), TW3 ein Wissen, wie solche Mittel zu gewinnen und anzuwenden sind (praktisches Handlungswissen, know how), TW4a ein Wissen um Werte, die hinter den Bedürfnissen stehen (normatives Handlungswissen), TW4b ein Wissen über die Modifikation von Zielen im Lichte der Werte, falls dies erforderlich ist (praktisches und theoretisches normatives Wissen), TW5 Problemlösungswissen (Form eines Nichtwissens, das eine Auflösung erfordert). 1
Poser, Hans: Homo creator. Technik als philosophische Herausforderung. Wiesbaden 2016. S. 119–132 u. S. 255–293.
218
Hans Poser
Das Sachverhaltswissen TW1 stützt sich zwar in Teilen auf die empirischen Aussagen der Erfahrungswissenschaften, aber es wäre verfehlt, dabei stehen zu bleiben, denn es kann im Blick auf die zu verfolgenden Zwecke (TW2) nicht um den Idealfall experimentell gefundener Größen einer Einzelwissenschaft gehen, sondern um die Zusammenführung von disziplinär geschiedenen Sachverhalten von der Physik über die Biowissenschaften bis in die Sozialwissenschaften. Dabei sind wiederum nicht Idealdaten von Interesse, sondern gerade das Wissen um jene in der praktischen Gemengelage bedeutsamen Sachverhalte: Das technologisch konzipierte Artefakt kann ja keinen idealen Carnot-Prozess verwirklichen oder auf Bedürfnisse einer idealen Gesellschaftsstruktur abzielen. Scheinbar einfacher liegen die Verhältnisse bei der Funktionserfüllung TW2 – scheinbar, weil diese vielleicht für jedes Einzelelement eines Artefakts prüfbar sein mag, doch deren Zusammengehen über Fachgrenzen hinweg dadurch noch keineswegs gewährleistet ist. Dennoch liegt an dieser Stelle mit der Bindung an die Funktionserfüllung der alles entscheidende Unterschied zwischen bloßer Theorie und erfolgreicher Technikwissenschaft. Das ist nicht als Abwertung der Theorie zu verstehen, wie sie Alois Riedler gegenüber seinem Kollegen Franz Reuleaux um 1900 an der TH Berlin betrieb2, sondern als Notwendigkeit einer Synthese beider Seiten, wie Leibniz sie als theoria cum praxi gefordert hatte: Technikwissenschaften gründen sich nicht auf Naturgesetze, sondern auf effektive Regeln als Typen von Handlungsanweisungen. Dabei werden Mittel auf Zwecke bezogen, wobei es zu einem Zweck gleich welcher Art zahlreiche Mittel geben wird. Doch mehr noch – mit diesem Begriffspaar wird die Empirie im strikten Sinne des Vorfindlichen verlassen: Zwecke als Ziele sind Ausdruck eines teleologisches Moments und einer Wertsetzung! So wird Technologie zu einer Auch-Wertwissenschaft. Zugleich bezeichnet das Mittel-Ziel-Verhältnis einen teleologischen Zusammenhang, zu dem eine kausale Verknüpfung als Funktionserfüllung herangezogen wird. Damit erweist sich die werthaft-teleologische Sicht als die bestimmende Seite technischen und technologischen Wissens. Das theoretische Handlungswissen bedarf des Zusammengehens mit dem praktischen Handlungswissen TW3. Dabei geht es im einfachsten Fall um eine Ansammlung von erfolgreichen Mittel-Zweck-Verknüpfungen, heute oft als „know how“ bezeichnet oder in „tacit knowledge“ gesehen, doch viel weiter ausgreifend um ein Wissen, das Nebenbedingungen wie Verfügbarkeit, Finanzierbarkeit, Verwirklichbarkeitsbedingungen einschließt, sodass eine Auswahl unter TW2-Lösungsangeboten im Blick auf die Sachverhaltslage TW1 möglich wird. Auch wenn aufgrund der in TW2 angesprochenen Finalität deutlich geworden ist, dass Technik und Technologie durch Werte gekennzeichnet sind, bedarf dieses einer weiteren Differenzierung in Gestalt des TW4-Wertewissens. Dieses hat zwei Elemente – das eine baut auf gesellschaftlich tradierte, zu berücksichtigende oder zu erfüllende Werte, das zweite verlangt beim Entwerfen einen Umgang mit der Modifikation von Mitteln und gegebenenfalls auch von Zwecken unter Bezug auf 2
König, Wolfgang: Der Gelehrte und der Manager. Franz Reuleaux (1829–1905) und Alois Riedler (1850–1936) in Technik, Wissenschaft und Gesellschaft. Stuttgart 2014.
Technisches Wissen, technische Sprache, technische Bilder
219
höherrangige Werte. Diese sind in aller Allgemeinheit im VDI-Werteoktogon festgehalten3, verlangen aber in jedem Einzelfall eine konkrete Umsetzung: Die KZVerbrennungsöfen wie der Pinto-Skandal haben gezeigt, dass kein Techniker sich allein auf ein Funktionieren im engen Sinne beziehen kann, sondern dank seines Wertewissens zu einer differenzierten Betrachtung befähigt sein muss. Das Problemwissen TW5 stellt eine besondere Form des technisch-technologischen Wissens dar, denn es verlangt, in einer Situation, in der zu einem gegebenen Problem keine Musterlösungen (etwa in Regelform) vorliegen, im Wissen um das eigene Nichtwissen eine Fragestellung und einen Suchhorizont zu bestimmen, um kreativ eine neue Lösung zu entwickeln: Hier wird vorhandenes Wissen herangezogen, um Neues zu erdenken: Diese Struktur des Nichtwissens wird damit zum Antrieb, der ganze Kulturen von der Steinzeit über die Bronze- und Eisenzeit zur industriellen Revolutionen geführt hat. Nun stellt sich die Frage, wie solche Wissensformen sich zueinander verhalten und wie sie zu einer Einheit technischen Wissens verschmolzen werden können. Formal lassen sie sich einander gegenüberstellen4, inhaltlich kommen sie in jedem technischen Artefakt von der Maschine bis zum Computerprogramm zusammen; eine Wissenschaftstheorie der Technikwissenschaften ist auf der Suche nach der Antwort5. 2 TECHNISCHE SPRACHE Die eben unterschiedenen Wissensformen sind (bis auf „tacit knowledge“) sprachlich gefasst. In der Handwerkstradition wurde dies unmittelbar an den Arbeitsvorgang geknüpft und spielte dabei gegenüber der Praxis eine sekundäre Rolle. Das zu ändern berief sich Diderot in seiner „Encyclopédie“ auf Leibniz mit dem Programm, Handwerkstechniken zu beschreiben und überdies in Kupferstichen darzustellen, um dieses Wissen in sprachlicher Form allgemein verfügbar zu machen. Damit gewinnt die Sprache nicht nur an Gewicht, sondern tritt an die Stelle der praktischen Vermittlung. Dies mag wesentlich zur Ausbildung einer nicht mehr lokal begrenzen Fachsprache beigetragen haben, im deutschsprachigen Raum ablesbar etwa an Johann Beckmanns „Anleitung zur Technologie oder zur Kenntniß der Handwerke, Fabriken und Manufacturen“ von 1777. Etwa gleichzeitig kam es in den praxisorientierten fürstlichen Collegia, dann in der Pariser „École polytechnique“ und den nachfolgenden Polytechnischen Lehranstalten zur Ausbildung von bereichsspezifischen technischen Fachsprachen mit Fachbegriffen für Objekte, Methoden, Zwecke. Der damit verbundene Anspruch einer theoretischen Fundierung verlangte deren Verknüpfung nicht nur in der Umgangssprache, sondern in geeig3 4 5
Verein Deutscher Ingenieure: VDI Richtlinie 3780 – Technikbewertung: Begriffe und Grundlagen, Bild 3. Düsseldorf 2000. Kornwachs, Klaus: Logische Strukturen technischen Wissens. In: Klaus Kornwachs (Hg.): Technologisches Wissen. Entstehung, Methoden, Strukturen. Berlin 2010. S. 143. Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. S. 223–278.
220
Hans Poser
neten Formalsprachen, die sich insbesondere mathematischer Elemente bediente, die eine hohe Präzision erlauben. In der Mitte des 19. Jahrhunderts erfährt damit etwa der Maschinenbau eine durchgängige Theorieform, ablesbar beispielsweise 1861 an Franz Reuleaux’ überaus einflussreichem Werk „Der Constructeur. Ein Handbuch zum Gebrauch beim Entwerfen“, sichtbar auch an seiner „Theoretischen Kinematik“ von 1885. Die technische Sprache ist natürlich auch zum Untersuchungsgegenstand der Linguisten geworden, man denke an Zeitschriften oder Reihen wie „Sprache im technischen Zeitalter“ (ab 1961) oder „Studien zu Sprache und Technik“ (ab 1989), die nicht nur die metaphorische Aufnahme technischer Bezeichnungen in die Umgangssprache betrafen („Gib Gas!“ für „Beeile dich!“ oder in umgekehrter Richtung „den Motor abwürgen“), sondern beispielsweise in der Unterscheidung von Fachsprache, Werkstattsprache und Nutzersprache6. Eine sprachliche Sonderform sind Patentschriften. Sie enthalten eine Innovation; doch anders als etwa Lehrbücher stellen sie nicht eine sorgfältige Bauanleitung dar, sondern nur das zu schützende Grundprinzip, damit keine direkte, minimal abweichende und damit ungeschützte Variante verwirklicht werden kann: Mit dem Papier weiß man noch lange nicht, wie’s geht, sagte ein Patentinhaber. Mit der Normung von technischen Begriffen und Verfahren, in Deutschland 1917 beginnend, kommt es mit DIN-Normen zu einer institutionellen Sprachlenkung7, die inzwischen zu den internationalen EN- und ISO-Normen geführt hat. Doch nicht nur die Sprachregelung ist hierbei bedeutsam, sondern – künftig wohl noch bedeutsamer – die inhaltliche Ausweitung: Ging es zu Anfang um Kegelstifte und Papierformate, also um Abmessungen, Materialien, Kenngrößen, so sind mittlerweile Sicherheits- und Umweltstandards hinzugekommen: die Normierung hat also Bereiche eingeschlossen, die ethisch begründet sind. Teile des TW4-Wertewissens sind damit über Sprachnormen inhaltlich festgelegt und standardisiert. Damit wird – kaum beachtet – eine weltweite technikethische Basis in der Hoffnung erzeugt, universell verbindlich zu werden. Seit den 70er Jahren des vergangenen Jahrhunderts sind die Fachsprachen um formalisierte Programmsprachen erweitert. Sie stellen ein Hilfsmittel dar, das insbesondere dann anwendbar ist, wenn es nicht um kreative Neuerungen, sondern um konkrete Dimensionierungen in einem bestimmten, abgegrenzten Bereich geht. Ihre Fortführung haben sie in bildgebenden Verfahren gefunden (s. u.). Vor allem aber wird die Entwicklung solcher Programme zu einer eigenen technologischen Aufgabe, dienen sie doch der Steuerung von technischen Anlagen vom Industrieroboter bis zur ärztlichen Diagnose- und Behandlungsgeräten – vielfach dabei in Verbindung mit bildgebenden Verfahren.
6 7
Jakob, Karlheinz: Maschine, Mentales Modell, Metapher. Studien zur Semantik und Geschichte der Techniksprache. Tübingen 1991. S. 100. s. Ischreyt, Heinz: Studien zum Verhältnis von Sprache und Technik: Institutionelle Sprachlenkung in der Terminologie der Technik. Düsseldorf 1965.
Technisches Wissen, technische Sprache, technische Bilder
221
3 TECHNISCHE BILDER Bilder gehören zu den elementaren menschlichen Kulturformen, sie bestimmen unsere Sicht der Welt, indem sie deutend, reduzierend und konzentrierend Gesehenes und Gedachtes festhalten. So waren Bilddarstellungen für die Technik und ihre Entwicklung immer von allergrößter Bedeutung, seien sie illustrativ, erklärend oder Arbeitsvorlagen. In jüngster Zeit sind deshalb wissenschaftliche und technische Bilddarstellungen zum Gegenstand der Forschung geworden. „Das technische Bild“ hat das Ziel, „Bilder nicht als illustrierende Repräsentation, sondern in ihrer produktiven Kraft als eigenständiges, mehrschichtiges Element der Erkenntnisgewinnung zu begreifen“8. Solche Bildentwicklung sei an einigen dort nicht behandelten Technikbildern verdeutlicht. Vitruvs „De architectura libri decem“, etwa 20 v. Chr. verfasst, muss als frühestes Lehrbuch aller Fragen und Bereiche gesehen werden, die es mit dem Bauwesen bis hin zur Wasserversorgung, dem Uhrenbau und Kriegsmaschinen zu tun haben. Im Zuge der Wiedererweckung der Antike und dem Bedürfnis, ihre Architekturformen aufzunehmen, kam es in der Renaissance zu einer Suche nach überkommenen Manuskripten, 1486 erfolgte in Rom ein erster Druck, ein weiterer 1511 in Venedig. Sie waren nicht bebildert, doch schnell zeigte sich die Notwendigkeit, Vitruvs Angaben bildlich darzustellen: 1521 erschien eine illustrierte italienische Übersetzung, eine deutsche 1548 in Nürnberg, 1575 in Basel nochmals gedruckt; viele weitere sollten folgen. Die für das Werk oder die Übersetzung von 1548 charakteristische Abbildung des ionischen Kapitels (Abb. 1) zeigt genauestens die Formen und Proportionen, die vom Steinmetz einzuhalten sind; es handelt sich um eine Bauanleitung, wie sich aus der freien, zugleich erläuternden und weitere Bezeichnungen einführenden Übersetzung ergibt. Tatsächlich lässt sich bildlich unvergleichlich besser als aus dem Text unmittelbar erkennen, was die wesentlichen Elemente sind. Ganz anders sind die überaus zahlreichen Holzschnitte zu verstehen, die Georg Agricola in seinen „De re metallica liberi XII“ (Basel 1556) und der im Folgejahr erschienenen deutschen Fassung beigibt: Das gesamte Montanwesen kommt in ihnen zur Darstellung. Die ganzseitige Abbildung eines Kehrrades (Abb. 2), das die Umkehr der Drehrichtung des Wasserrades und damit des Kettenzugs ermöglicht, ist geradezu eine Bilderzählung der neuen Technik: Statt Grubenwasser oder Erz mühselig in Eimern auf Leitern heraufzuschaffen, wie links im Bild angedeutet, soll dies mit einer ledernen Ringbulge geschehen, die sich im Schacht selbständig füllt, an einer Eisenkette statt eines Seils heraufgezogen, geleert und wieder hinabgelassen wird; im Schutz einer Schachtnische (links unten angedeutet) sorgt ein Bergmann für den reibungslosen Ablauf untertage. Vermittelt wird im Bild nicht nur eine neue Technik, sondern auch die Arbeitsersparnis, die Reduzierung der erforderlichen Arbeiter und Elemente der Arbeitssicherung. So hat Agricola mit den Holzschnitten zusammen mit dem ausführlichen Text ein Standardwerk geschaffen, das sehr lange den Bergbau bestimmen und modernisieren sollte. 8
Bredekamp, Horst; Schneider, Birgit; Dünkel, Vera (Hg.): Das Technische Bild. Kompendium zu einer Stilgeschichte wissenschaftlicher Bilder. Berlin 2008. S. 8.
222
Hans Poser
Abb. 1: Ionisches Kapitel. In: Vitruvius Teutsch: Nemlichen des aller namhafftigisten vnd hocherfarnesten, Römischen Architecti, und Kunstreichen Werck oder Bawmeisters, Marci Vitruuij Pollionis, Zehen Bücher von der Architectur vnd künstlichem Bawen. Ein Schlüssel vnd einleytung aller Mathematischen und Mechanischen künste. 3. Buch. Nürnberg 1548. S. 126 r.
Mit der Renaissance begegnen wir dreidimensionalen Darstellungen, die wiederum einem anderen Zweck dienen: Kirchen-Modelle, die dem Geldgeber eine Anschauung vermitteln (Abb. 3). Modelle gehören auch heute zu den zentralen Elementen der Technik – nicht nur in der Architektur, sondern ebenso in anderen Bereichen. Dort dienen sie vielfach zu Tests, die anders als naturwissenschaftliche Experimente nicht Hypothesen bestätigen oder widerlegen sollen, sondern die Vereinbarkeit unterschiedlicher, in der Theorie kaum aufeinander beziehbarer Anteile einer konkreten Anforderung prüfen und revidierbar machen sollen. Dies können Modelle für oder von etwas, theoretisch-formalsprachliche oder räumliche Modelle sein, alle heute viefach von Coputersimulationsmodellen abgelöst.9 Wie erwähnt, ergänzte Diderot seine Darstellung der Handwerkstechniken in der „Encyclopédie“ durch Kupferstiche. Diese 3000 detaillierten Abbildungen sollten technisches Wissen vermitteln, um es in aufklärerischer Absicht allenthalben verfügbar zu machen. Der mit großer Genauigkeit perspektivisch beziehungsweise in Aufsicht abgebildete Tuch-Webstuhl (Abb. 4) mit Weberschiffchen, Durchschuss-Anlage und Garnrolle verfolgt dieses, indem er Bau, Elemente und Wirkungsweise wiederzugeben trachtet. 9
Költzsch, Peter: Zum Problem der Modelle aus der Sicht der Technikwissenschaften. In: Bredekamp, Horst u. a.: Modelle des Denkens. Streitgespräch. Berlin-Brandenburgische Akademie der Wissenschaften, Debatte 2. Berlin 2007, S. 81–90.
Technisches Wissen, technische Sprache, technische Bilder
223
Abb. 2: Kehrrad. In: Georg Agricola: Vom Bergkwerck XII Bücher darin alle Empter / Instrument /Gezeuge / unnd alles zu disem handel gehörig / mit schönen figuren vorbiltet / und klärlich beschriben seindt. 6. Buch. Basel 1557. S. 164.
224
Hans Poser
Abb. 3: Pavia, Bischöflicher Palast, Holzmodell des Doms von Pavia, um 1500. In: Malaguzzi-Valeri, Francesco: La Corte di Lodovico il Moro. Bd. II. Mailand 1915. http://www.rdklabor.de/w/images/6/64/01-0919-1.jpg (Stand: 22.01.2017).
Abb. 4: Draperie. In: Diderot: Encyclopédie. Recueil de Planches. Vol. 2b. Paris 1763. S. 268.
Technisches Wissen, technische Sprache, technische Bilder
225
Abb. 5: Berechnung eines Stirnzapfens. In: Reuleaux, Franz: Der Constructeur. Ein Handbuch zum Gebrauch beim Entwerfen. Braunschweig 1861. S. 77.
Abb. 6: Riedler, Alois: Das Maschinen-Zeichnen. Begründung und Veranschaulichung der sachlich notwendigen zeichnerischen Darstellungen und ihres Zusammenhanges mit der praktischen Ausführung. Berlin 1919(2).
Einem wiederum neuen Abbildungstyp begegnen wir bei Felix Reuleaux. Es geht hier im Zuge der Verwissenschaftlichung der Technik nicht nur um eine BeispielVorlage wie bei Vitruv, sondern recht eigentlich um dreierlei, das an folgendem einfachen Beispiel deutlich wird: Abzubilden sind in einer Systemzeichnung alle Typen von „Zapfen“ zusammen mit Angaben über die Form- und Maßverhältnisse, ausgedrückt in einer Formel (Abb. 5), und schließlich ergänzt um eine theoriegeleitete Begründung der Formel – im Falle des Stirnzapfens von über einer Seite. Nun war Reuleaux gegen Ende seines Wirkens in Alois Riedler ein Widersacher erwachsen, der Reuleaux’ vielgeschätzte Zeichnungen als „unbrauchbar“ oder „unrichtig“ verwarf und ihnen eigene Zeichnungen entgegenstellte (Abb. 6). Riedler verfolgte dabei zwei neue Ziele, zum einen, Zeichnungen nicht auf Theorie, sondern auf praktische Erfahrungen in von ihm entwickelten „Ingenieurlaboratoren“ zu gründen. Zum anderen geht auf ihn das technische Zeichnen zurück, das später in DIN-Normen gefasst wurde. So war eine Systematisierung und Standardisierung der Wiedergabe von Technik auf allen technischen Bereichen erzielt: Damit waren auch alle Interpretationsebenen einer technischen Zeichnung eindeutig fixiert.
226
Hans Poser
4 DIE NEUE SYNTHESE Eine grundsätzliche Veränderung erfuhr das technische Bild in den bildgebenden Verfahren wie CAD, CAAD, CAM etc., die an die Stelle des Zeichenbretts den Plotter treten ließen. Die Entwurfstätigkeit erfolgt am Computer, der je nach Programm bereits Elemente von TW1 als Materialgrößen, Regelstrukturen gemäß TW2, EN-Normen im Sinne von TW4, zu verändernde Grundfigurationen und damit Lösungsvorschläge etc. entsprechend TW5 einschließt: Die Entwurfspraxis führt am Ende nicht nur zu einer Fertigungszeichnung, sondern auch zu Stücklisten mit allen erforderlichen Maßen. Im weiteren Schritt wird das Bild mit 3-D-CAD perspektivisch, es kann gedreht und umgeformt werden (Abb. 7) – damit liegt eine bahnbrechende Zusammenführung von Wissen, Anschauung, Systemvorgabe und Konstruktionszeichnung vor. Wird nun gar ein 3-D-Drucker angeschlossen, so ist jedenfalls in einfachen Fällen das Werkstück direkt verwirklichbar. Die universelle Lösung der Synthese von technischem Wissen, technischer Sprache und technischer Zeichnung scheint gegeben. Die Vorteile solchen rechnergestützten Konstruierens sind geläufig: Das Konstruieren geht schneller, die Angaben sind genauer, nicht nur die Entwürfe sind energie- und materialsparender, sondern auch die Konstruktionen, wenn sie im Hinblick hierauf optimiert worden sind; sie sind also billiger. Aber sind sie auch besser in einem normativen Sinne? Alle alten Probleme des Konstruierens kehren wieder: Die Ausklammerung der Reflexion auf Wertrationalität bezüglich des Produktes seitens des Konstrukteurs, was nur aufgefangen werden kann, wenn wertrationale Prinzipien in die Programm-Gestaltung eingehen, also außer ökonomischen auch rechtliche und ethische, ökologische und soziale Werte. Weiter muss dem Vertrauen des Benutzers eine Verantwortung des Programmierenden korrespondieren.
Abb. 7: „Neuentwicklungen von Ventilgehäusen werden ausschließlich im 3-D-CAD konstruiert.“ Foto: Fa. Hora. http://www.hora.de/flow-control/kompetenzen/3d-cad/ (Stand: 22.1.2016).
Technisches Wissen, technische Sprache, technische Bilder
227
Neue Probleme treten hinzu. Da die Computerlösungen hochkomplex sein können, entsteht die Frage deren Überprüfbarkeit. Noch sehr viel tieferliegend ist die Überprüfung hinsichtlich der vorausgesetzten Werte, weil das Problem einer bloß instrumentellen Vernunft unmittelbar auf der Hand liegt: Der Computer ist auf eine begrenzte Zahl von Möglichkeiten beschränkt, von denen her die angebotene Lösungsmannigfaltigkeit bestimmt ist; juristische, moralische, ökologische und soziale Werte treten deshalb überhaupt nur in Erscheinung, soweit sie auf die analytisch als Elemente ausgezeichneten Möglichkeiten bezogen werden können! Die grundsätzliche Schwierigkeit aber besteht darin, dass der Rechner auf eine kombinatorische Heuristik beschränkt bleiben muss, weil er stets nur eine vorgegebene endliche Zahl von Möglichkeiten zu kombinieren vermag: Lösungen eines TW5-Problems sind ihm verschlossen, weil dem rechnergestützten Konstruieren eine intentionale Heuristik grundsätzlich nicht verfügbar ist. Damit ergibt sich die Gefahr einer Sterilität, weil der Rechner im Grundsatz programmierte Lösungen reproduziert, und der Gedanke ist irreführend, der Konstrukteur werde durch den Gebrauch des Rechners zu eigener kreativer Leistung frei – und dies aus folgendem Grund: Konstruktionen zielen auf Möglichkeiten ab; Möglichkeitsräume sind jedoch nicht von sich aus strukturiert, sondern erfahren ihre Strukturierungen durch uns. Wir aber können uns Möglichkeiten nur soweit vorstellen, als wir mit ihnen umgehen und sie wenigstens zum Teil verwirklichen. Darum wird sich Technik und Technologie weiter um neue Formen des Wissens, um deren sprachliche und formale Darstellung und Umsetzung bemühen und sich der Bereicherung durch Bilder bedienen.
228
Hans Poser
LITERATUR Bredekamp, Horst; Schneider, Birgit; Dünkel, Vera (Hg.): Das Technische Bild. Kompendium zu einer Stilgeschichte wissenschaftlicher Bilder. Berlin 2008. Ischreyt, Heinz: Studien zum Verhältnis von Sprache und Technik: Institutionelle Sprachlenkung in der Terminologie der Technik. Düsseldorf 1965. Jakob, Karlheinz: Maschine, Mentales Modell, Metapher. Studien zur Semantik und Geschichte der Techniksprache. Tübingen 1991. Költzsch, Peter: Zum Problem der Modelle aus der Sicht der Technikwissenschaften. In: Bredekamp, Horst u. a.: Modelle des Denkens. Streitgespräch. Berlin-Brandenburgische Akademie der Wissenschaften, Debatte 2. Berlin 2007, S. 81–90. https://edoc.bbaw.de/solrsearch/index/ search/searchtype/collection/id/16301. Kornwachs, Klaus: Logische Strukturen technischen Wissens. In: Klaus Kornwachs (Hg.): Technologisches Wissen. Entstehung, Methoden, Strukturen. Berlin 2010. S. 137–157. ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der Technik. Berlin 2012. König, Wolfgang: Der Gelehrte und der Manager. Franz Reuleaux (1829–1905) und Alois Riedler (1850–1936) in Technik, Wissenschaft und Gesellschaft. Stuttgart 2014. Poser, Hans: Computergestütztes Konstruieren in philosophischer Perspektive. In: Banse, Gerhard; Friedrich, Käthe (Hrsg.): Konstruieren zwischen Kunst und Wissenschaft. Idee – Entwurf – Gestaltung. Berlin 2000. S. 275–287. ders.: Homo creator. Technik als philosophische Herausforderung. Wiesbaden 2016.
TOO TIGHTLY-CUT NEW CLOTHES FOR THE “EMPEROR”? Imre Hronszky INTRODUCTION Institutionalised technology assessment (TA) was born from the emerging resistance to polluting technologies as Technikfolgenabschätzung, as assessing (quantitative) risks (realising caution) around 50 years ago. It was introduced to extend deterministic planning. Paradoxical as it may seem, one of the most important recognitions of this period was that of the essentially limited capability of calculating risks. That is because of the unavoidable presence of complexity and that way, of the Knightian, the “genuine uncertainty”. Precaution appeared as the appropriate behaviour to meet it. TA went through profound development but it preserved at least one of its basic characteristics: TA is technology specific, concentrating on particular technologies and is more product than process oriented. Contrarily, responsible research and innovation (RRI) aims at inquiring into and supporting science-technology-innovation as part of a prospective comprehensive social-economic endeavour. As its main intention, in the frame of supporting this endeavour, RRI aspires to realise a collective, shared responsibility of all participants both for the purposes and the possible negative effects, in an overarching societal process where the participants become mutually responsive to each other. The vision of RRI very quickly became widely accepted as an ethics based undertaking. But there was an immediate turn, better to say a bifurcation, around 2010 in interpreting RRI. Responsibility for RI was originally considered to fit the requirements for precaution in the history of TA as its central critical attitude. For numerous, by far not only intellectual reasons, another interpretation was made central around 2010 in assessing RI: instead of preventing the negative consequences, the adverse effects of RI, as its primary task, supporting RI as a “positive” endeavour came to the limelight. The interpretation of RRI quickly generated countless ramifications in the relevant discourses. But the term itself remained a formal anchoring point, in the hope of developing it into a comprehensive key concept. There has been extensive academic discourses and, as in any real world story, we find enduring pressure and multiple and repeated authority interventions that have essential effects in creating some sorts of closure on the term by now. Shortly after, the RRI vision received a quick institutionalisation as the common commitment to develop RRI as a collective task for all partners in RI to accelerate responsible RI as far as possible in a process of becoming mutually responsible to each other. This RRI should overcome the decades long “divide” in interpreting and doing RI. RRI, in this sense should be a cross-cutting, transversal
230
Imre Hronszky
issue for policy making, for any type of research and innovation to be funded by the European Commission. There was a quick and obvious success in some sense by 2016 that induced a widespread enthusiasm around it. However, only, Arie Rip raised a basic critical question to all this. As he says metaphorically, the “emperor” (RRI) has been gradually developing his own existence in a peculiar dynamic.1 Intended to be an umbrella term, RRI actually started as a blank metaphor. But after some years, it is still a non-existing “emperor”, just it has been getting rather different and contingent interpretations, versions of RRI “clothes”. RRI even involved topics, like gender equality, the so called “keys”, where it is not fully clear how they belong to the responsible RI issue. But this way, RRI, the “emperor”, became more and more real in the process of repeatedly trying on different “new clothes”. Unfortunately, all this makes it impossible to work out that very basic task of RRI, that is to give coherent advices for the application of RRI, an inherently cross-cutting issue present in all innovation efforts. Savienne de Saille persuasively details how two different dynamics characterised the ten years before the term RRI was coined, and the roughly four years of introducing of the institutionalised RRI until 2013.2 The period started with a step made by the EU as a value community. It was the promising declaration of the precautionary approach as the official viewpoint of the EU. But the period had two, an economic and a social-critical dynamic, contradictory intentions in the innovation policy of the EC. She rightfully concludes that forces concentrating on the overcome of the economic crisis by accelerating economic growth (to which, we can say, a special sort of responsibility may be attached), took the decisive position in determining what institutionalised RRI should look like. Institutionalised RRI should help in reaching higher economic growth, as the materials that define the “Horizon 2020” programme and RRI prescribe, instead of giving a primary place to precaution in any sense. For social-critical forces this result is an essential distortion of the original aim, and, is an unrightful expropriation of the term. This way, not only has there not been any important innovation of innovation policy, but, as she concludes, old positions got reinforced. The question emerges if the change is perhaps more than this, in one respect. This change seems to be, among other things, an important one, but perhaps an, in the long run, misleading renewal of the old positions concentrating on economic growth. Collective, shared responsibility of all participants in RI can be realised in two, completely different approaches. These approaches essentially differ in three key areas: how they relate to the role science, technology and innovation has and should have in society, how they think about genuine uncertainty and reponsibility for adverse effects, and what they want to realise with the public-, citizen-, and user-participation in societal, economic, and innovation issues. It is most important to 1 2
Rip, Arie: The clothes of the emperor. An essay on RRI in and around Brussels. Journal of Responsible Innovation, vol. 3, 2016: 21.11.2016, http://dx.doi.org/10.1080/23299460.2016. 1255701. de Saille, Stevienna: Innovating for Innovation Policy: The Emergence of “Responsible Research and Innovation”. Journal of Responsible Innovation, July 2015. pp. 152–168.
Too tightly-cut new clothes for the “emperor”?
231
recognise that choosing between them can not be an “objective” process in which the simply “unbiased conclusion” is made on either side, based solely on “the facts and the logic” but choosing is, in a definitely uncertain world, necessarily a value-laden one based on a commitment to a value-laden fact-base made by either of them. (Choosing between them will lead to different results even in those disputes when the same fact-base is accepted.) Choosing between them is choosing between two, complex, irreducible mixes, “compounds” of values and facts. On the one hand science, technology and innovation (innovation in a comprehensive meaning) can be seen as ambivalent issues by definition: they do not only have positive potential for societal progress, but just the opposite, too. Further, one can start from a basic position concerning the most defining characteristics of the complex issues surrounding us. This is understanding genuine (non-calculable) uncertainty as their non-removable essential characteristic. This way, among other things, one can attribute highest importance to try to prevent the emergence of the “adverse” effects by taking a precautionary approach. The problem of “sacrificing” in innovation brings the ethical primacy of precaution to the foreground in the governance of innovation. If “sacrificing” is not definitive, recovery actions have their economic costs. This preventive approach is not incompatible with looking at innovation as an essential element of human progress. In this approach, this means conditional acceptance of RI as a means in solving societal challenges – among other means such as innovations in social cooperation. One can further accept that, in a participative democracy, the public and the citizens should be able to make inquiries about innovation primarily based on their “civic epistemologies”3 in a “two-way communication”. In this case a critical-positive relation can be set, in which trying “early warning” and action based on the warning is the morally justifiable unavoidable first step in the progress of integrating innovation into human activity. “Precautionary foresight” can be a term for this kind of deliberative, two-sided commitment in progress.4 On the other hand, one can move in a reductive way and identify RI as the most appropriate issues to solve societal (and environmental) problems. By taking this approach, enthusiasm is the most appropriate emotional mediator, a kind of rational religion in turning to them. In this view, the publics have to and can acquire this enthusiasm. They can rationally understand the reasons in the degree in which they acquire the related knowledge of experts. Public confidence in science-technology-innovation is the most important, and the critical attitude properly should be subordinated to such engagement. This approach is the only way to overcome the “divide” in assessing innovation. With this, the dominant mistrust in RI cultivated by some extreme groups, finds its abstract counterpart in the enthusiastic, unquestionable acceptance of RI. Those who have made the decisions over the recent institutionalised RRI have been reacting by a reflex, based on their, immediate perception: critical movements 3 4
Jasanoff, Sheila: Designs on Nature. Science and Democracy in Europe and the United States. Princeton 2005. Stirling, Andy: Democratising innovation. SPRU. Sussex 2014.
232
Imre Hronszky
divide society and slow down technological innovation as the only real alternative for economic competition, and solving social problems, this way. In this respect, their possibly the most successful elimination is of highest importance, a precondition for a successful innovation policy. Institutionalised RRI funding cuts them out of support, just as it cuts the defenders of “precautionary foresight”, by setting the strongly reductive frame for funding RRI: precautionary behaviour should not be or only as topic of minor importance included in RRI, and the public, without scientific knowledge is identified as, in itself simply an ignorant “participant”. This purified RRI deals then in the collaboration of all remaining parties in working out collective responsibility for each other, but also for the naive public in a dynamic facilitating the advancement of RI. It is some sort of tragedy, that the ideal to achieve collaborative work between all parties on shared responsibility, this most important issue, that is put in centre by the institutionalised RRI, is to be realised in a space preformed for the institutionalised RRI by a decision based on a starting exclusion. The question of cui prodest of such setting of the discourse arena rightfully arises. The recent institutionalised RRI is an accomodation of the EU innovation policy authorities to the vision the EU authorities fixed in the Europe 2020, as Flagship Initiative Innovation Union as their expectation of what innovation can do for the economy to overcome the economic crisis.5 This is to strategically turn to a “social economy” which aims “to refocus R&D and innovation policy on the challenges facing our society.” One essential task of the recent institutionalised RRI is justification, legitimation of RI as integrated into a modified economic growth. RI in the future should concentrate on the solution of the Grand Challenges, the challenges that appear as European or global social and environmental problems. Institutionalised RRI promises to confirm and consolidate the needed “positive engagement” in science, technology and innovation. (One can just remember how quickly and warmly the Competition Council reacted to the Rome Declaration on RRI as legitimating issue in 2014.) But this is one of its possible roles from an economic growth perspective. The other role is to adjust funding to a new innovation policy that fits in the efforts to renew the economic competition, that remains based on economic growth and efficiency, but strategically turns to exploit the Grand Challenges to find the best direction to the economic growth based economic competition. In this way, the renewing economic competition consciously turns to partly overcome its neo-liberal limits. The toward solution of Grand Challenges directed market economy starts to realise some overarching direction shift in the direction of economic growth and competition. This is a very strong step from the viewpoint of economy, integration of something, and a way of increasing the profit, that, as yet, mainly has been a cost increasing issue. But this is only the half-way point. (It is also worth noting here that one expert report that was asked to suggest, in 2013, what institutionalised RRI and its funding should be, suggested exploiting the precautionary approach as 5
European Commission: Europe 2020 – A strategy for smart, sustainable and inclusive growth. Brussels, 3.3.2010, COM(2010) 2020 final.
Too tightly-cut new clothes for the “emperor”?
233
source of economic value. It urged to take “late lessons from early warnings” really seriously and urged to make economic profit from “early warning”.) Science has already been profoundly transforming in the last 40 years. It has reached a rapidly growing capability to offer strategic potentials for the market and, also to contribute to solving societal problems this way. But the situation seems to be different with the recent, “coming” “industrial revolution”, that would be based on convergence of technologies and the all pervading role of digital transformation of which a rather certain forecast can be made. But the raising role of complexity and interconnectedness can also be expected in an earlier never experienced quality and measure. With this, the high risk/high opportunity character of any action dramatically increases. This way, multiplication of the possibility of quite new types of progress by innovation and its “adverse effects”, dramatically increases. Any deliberate vision has to take into account this: aligning for the best possible utilising of the coming innovation potential must be framed by an overall persuasion that appropriate approach to complexity must have primacy. Highest authorities in the EU or G7, having the decision capacity in innovation policy making, identify a never before seen challenge for advancement.6 They urge enthusiasm for exploiting the dawning new possibilities for economic competitiveness, and also solving social problems this way. Persuasion of citizens by the visions of the researchers who have to advise them is put by them into the centre. Unfortunately, urging for enthusiasm is scarcely connected to the need to realise highest precaution as an overall accompanying effort, even when reaching the “positive” ends is also essentially object of the complexity challenge. It seems steady acceleration of economic growth and efficiency concentrating on exploring and exploiting the “positive” side of innovation remains unquestionable determining requirement in the dawning integration of the economic and the social in reality. This position has, at least two main consequences. First, in the systemic interaction in the dynamism, this has a decisive feed-back effect even on what will be accepted as a Grand Challenge – acceptable for the economy in its given state: economic growth not any Grand Challenge is the decisive selection factor in the cooperation. Second, everything that slows down the growth is to be played down. To “liberate” the path also for this special sort of socio-economic innovation, any serious precautionary approach must be confined. An ideological preparatory effort, a “demistification” of the precationary approach helps in this issue. According to this, importance of uncertainty is overdramatised. There is a downplaying of the Rio Declaration, and a view that “diminishes” the qualitative difference between uncertainty and risk, by identifying them as only gradual differences. Furthermore, according to the “demistification”, potential of high tech for solving societal problems is dangerously underestimated by its critics and any public criticism and fear is mostly based on ignorance. The new approach needs expertise of all sorts and all new sorts more then ever. This approach brings the danger of realising an, in many respects, economistic, expertocratic, and technocratic result of social problems which also incorporates 6
G7 Science ministers’ communiqué, Turin, 27–28. September. 28th September 2017.
234
Imre Hronszky
works of experts from social sciences. But strategic support by the public must also to be assured. Enthusiastic citizens should be a secure essential base for the new system. To the redirection of economic growth, a special type of unavoidable (re) education of the citizens is needed. Public involvement should be essentially based on different sorts of their scarcely questionable supportive potentials, not on a deliberative attitude. Doing “citizen science”, even when it is a bit opaque what it can mean, belong to these potentials. A FEW ASTOUNDING ILLUSTRATIVE EXAMPLES I fully abandon the critical interpretation of all tender calls in any detail in this short article. Instead of that, I bring more in foreground some preparatory materials, some early showcases and the standpoint of the recently responsible commissionaire. RRI Tools is a project that already gained funding in the 7th Framework Programme from 2013.7 It has also been offering showcases with the task of facilitating practical realization of RRI by providing a guide to application to the different points of the RRI funding announcements and a collection of best practices. This is a funny mixture, to say the least. As any other part of the RRI funding system, the RRI Tools realises an immense amount of work. That is most important in many respects, you have just to look at their efforts to help develop a community of practice for realising RRI. Thus, it is even more depressing that RRI Tools seems to suffer from most of the same illnesses as institutionalised RRI itself as a whole. I limit myself to some examples in the “Key Lessons from RRI Tools”. They stand together with very good examples in this material. Ethics only concentrates on the professional ethics and exemplifies it with a code from 1992. Considerations on and examples of, how ethics for all the participants should look like, what accompanying ethical evaluation should be and how ethics should work from within even when its leeway is reduced to supporting RI are missing. Citizens are called when this is identified as important by other actors. The otherwise practically very important differentiation of “technical issues”, to be dealt with by experts, helps to avoid public participation in a strange way. For example, RRI Tools repeatedly refers to the practice of Vinnova, the Swedish innovation funding organisation. The turning in the development of Vinnova’s practice from 2012 is certainly an important showcase for overcoming the “disciplinary ghetto” of research (the term is from Vinnova) to “challenge-driven innovation”, but it is an anti-showcase for demonstrating essential public participation. E.g., in a project funded by Vinnova, a Swedish language teaching software was developed for young refugees, a very important issue, to help them gain access to higher education. Having identified this as a “technical task”, the language tool was developed without any two-way interaction with the intended users in the process of development. Further, you find
7
RRI Toolkit. Fostering Responsible Research and Innovation. http://www.rritools.eu (Stand: 10.4.2017).
Too tightly-cut new clothes for the “emperor”?
235
a “Green urban system solutions” project funded, made by experts, but you rightly miss any essential citizen participation. There is an awarding system, EFARRI, to support RRI in ERA. An, in its dimensions and wide expert and stakeholder base very impressive Italian-Vietnamese project, IMMR, winner in 2016 (Report on it is enclosed to RRI Tools), worked out an “integrated and sustainable watermanagement of the Vietnamese Red-Thai Bin River System in a changing climate”. When it will be realised it will have a strong effect on the life of about 26 million inhabitants around Hanoi and the issue is full of contradictory interests. But inhabitants and their possible organized groups (if they existed at all) were only represented by local authorities in the project worked out in “a participatory process involving the main institutional stakeholders”. A quasi standardised model is offered to realise by the cooperation. It could be named customization through local authorities. The offered solution seems to strengthen the way of life in an autoritarian word, technically managed by the bureaucracy. I can only very shortly reflect on one expert report for instutionalising RRI funding. “Science education for responsive innovation” is a high-level expert group report immediately addressed to the EC.8 The report is praised by the recent commissionaire Moedas in the foreword as follows: “This publication offers a 21st century vision for science and society (RRI).” He correctly emphasises: to align research and innovation to the values, needs and expectations of society “we must engage all of society in research and innovation processes.” But as he stresses, this is to be realised by specifically relying on science. “We need science to inform policy, objectively. We need science to inform citizens and politicians in a trustworthy and accessible way. We need to make decisions together–rather than from polarised positions–and to take responsibility for those decisions, based on sound science evidence.” As he concludes, the education report demonstrates “how best to equip citizens with the skills they need for active participation in the processes that will shape everyone”s lives.” This is praising the deficit model and the decision making to be made together with appropriately (re)educated citizens. The expert report outlines what the public needs to acquire to get enlightened. This is the necessary knowledge of and about science to be able to participate actively and responsibly. As the report claimes “science learning helps to (…) put uncertainty into perspective, to guide technological development and innovation and to forecast and plan for the future.” Education materials suggested by the expert material refer to hundreds of schools in most different countries where the deficit model is very consciously being taught. We can see even through the few examples chosen that the official type of RRI “as a means to bring science closer to the people” not only is essentially a reductive approach but, on a layer deeper, it also often lags behind its own requirements.
8
European Commission: Science Education for Responsible Citizenship. Report to the European Commission. Brussels 2015.
236
Imre Hronszky
CONCLUSION The, on the EC level recently institutionalised RRI follows an innovation policy approach of a Janus face. This way it is an essential modification of the old framework, based solely on economic competitiveness and autonomy of science for RI funding. It has four pillars. First, it puts in its core a strategic alliance between innovation and the Grand Challenges to give a global strategic orientation for RI in terms of global societal (and environmental) needs, meanwhile keeping the leading role for serving the needs of economic growth. Second, it deprives the precautionary approach of its essential role (this does not differentiate it from the earlier variant). Third it aims at and is on the way to realising a one-sided public participation. It promotes “constructing” or at least selecting citizens who look at RI through the lens of science (and technology), find their jobs based on their science (and technological) education, and are positively biased towards partaking in the exploration and exploitation of something probably partly becoming a new, a global technological fix as the overall engine for their good life, that is essentially conceptualised in consumption of newer and newer technological achievements, also of those which repair the adverse effects of previous technologies. Fourth, institutionalised RRI and its funding intends to receive public legimation this way. To reach these goals “smoothly”, institutionalised RRI plays down the importance of precaution and the two-way communication. In its recent form, institutionalised RRI and its funding is not an agent for a participative democratic transformation of RI, politics and society but for renewing a technocratic, expertocratic perspective, even when perhaps masses of citizens enthusiastically participate in different sorts of “citizen science”. Institutionalised RRI gears the innovation process to societal needs in a special way that fits in the Europe 2020 strategy.
Too tightly-cut new clothes for the “emperor”?
237
LITERATURE European Commission: Europe 2020 – A strategy for smart, sustainable and inclusive growth. Brussels, 3.3.2010, COM(2010) 2020 final. http://eur-lex.europa.eu/LexUriServ/LexUriServ. do?uri=COM:2010:2020:FIN:EN:PDF (Stand: 10.4.2017). European Commission: Science Education for Responsible Citizenship. Report to the European Commission. Brussels 2015. http://ec.europa.eu/research/swafs/pdf/pub_science_education/ KI-NA-26-893-EN-N.pdf (Stand: 10.4.2017). G7 Science ministers’ communiqué, Turin, 27–28. September. 28th September 2017. http://www.g7italy. it/sites/default/files/documents/G7%20Science%20Communiqu%C3%A9.pdf (Stand: 30.9.2017). Jasanoff, Sheila: Designs on Nature. Science and Democracy in Europe and the United States. Princeton 2005. Rip, Arie: The clothes of the emperor. An essay on RRI in and around Brussels. Journal of Responsible Innovation, vol. 3, 2016: 21.11.2016, http://dx.doi.org/10.1080/23299460.2016.1255701. RRI Toolkit. Fostering Responsible Research and Innovation. http://www.rritools.eu (Stand: 10.4.2017). de Saille, Stevienna: Innovating for Innovation Policy: The Emergence of “Responsible Research and Innovation”. Journal of Responsible Innovation, July 2015. pp. 152–168. Stirling, Andy: Democratising innovation. SPRU. Sussex 2014.
„BREAKING NEWS“ – ODER WIE MODERNE TECHNIK JOURNALISMUS INHALTLICH VERÄNDERT Harald Kirchner In Zeiten von „Fake News“ ist die Glaubwürdigkeit des Journalismus wieder stärker in die Diskussion geraten. Gibt es eine von unbekannten Mächten gesteuerte Mainstream-Presse? Kann man Journalisten noch trauen? Insbesondere von Populisten wird die Glaubwürdigkeit des Journalismus insgesamt angezweifelt – eine vielleicht durchsichtige Strategie, um Kritiker ins Abseits zu stellen und die eigenen Echoräume gegen Argumente zu immunisieren. Optimisten hoffen jedoch, dass gerade durch krude Falschbehauptungen, zum Beispiel der Administration des amerikanischen Präsidenten Donald Trump (wie mit der Zahl der Besucher der Inauguration des Präsidenten), die Aufmerksamkeit für kritischen Journalismus wieder steigen könnte. Abgesehen von dieser großen und wichtigen Diskussion über den Umgang mit Wahrheit in der Gesellschaft gibt es allerdings auch technisch-gesellschaftliche Faktoren, die den Journalismus und damit auch die allgemeine Wahrnehmung politischer und gesellschaftlicher Prozesse beeinflussen, die nicht so deutlich im Fokus der Diskussion stehen – wahrscheinlich, weil sie sich hauptsächlich nur den Medienschaffenden selbst in aller Deutlichkeit zeigen. Gemeint ist die technische Möglichkeit, immer schneller Nachrichten in den verschiedensten Medien zu publizieren, und die daraus folgende immer größere Arbeitsteilung. Ein Zeitungsredakteur ist heute auch Online-Journalist, bisweilen sogar in Personalunion Radio- und Fernsehmacher, Fernsehjournalisten produzieren inzwischen auch Radio- und Online-Beiträge oder liefern Teile zu für den jeweils anderen „Ausspielweg“, wie die verschiedenen Medien innerhalb eines Medienhauses (zum Beispiel eines öffentlich-rechtlichen Senders) inzwischen genannt werden. Der Nachrichtenjournalismus nähert sich durch die Faktoren Geschwindigkeit und Arbeitsteilung ein Stück weit der industriellen Produktion von Nachrichten an. In Deutschland ist das Fernsehen zwar immer noch die Nachrichtenquelle Nummer eins, doch der Trend geht eindeutig Richtung Online-Nachrichten mit dem Schwerpunkt auf mobile Endgeräte.1 Matthias Streitz, Geschäftsführer von „Spiegel Online“ wird mit dem Satz zitiert: „Die mobilen Endgeräte und Apps spielen bei uns eine stark wachsende Rolle, zusammengenommen sogar fast die wichtigste (…).“2 1 2
vgl. Reuters Institute Digital News Survey 2016, Oxford. In: Media Perspektiven, Frankfurt am Main, 1.11.2016, S. 534 ff. Bayerischen Landeszentrale für neue Medien (Hg.): Tendenz – das Magazin der Bayerischen Landeszentrale für neue Medien, München, 1.4.2016, S. 17.
240
Harald Kirchner
Die Reuters-Studie hat auch ergeben, dass für immer mehr Nutzer von OnlineMedien die Geschwindigkeit, in der Nachrichten publiziert werden, zum Kriterium für die Beurteilung eines Medium geworden ist – ein Trend, dem zahlreiche Medien Rechnung tragen, indem sie Nachrichten-Apps anbieten, die selbsttätig auf sich aufmerksam machen, sobald es Neuigkeiten gibt. Wer mehrere Apps mit „PushNachrichten“ auf seinem Smartphone installiert hat, bei dem fiept, klingelt und surrt es innerhalb von Sekunden mehrfach, wenn ein wichtiges Wahlergebnis vorliegt, sich ein Anschlag ereignet hat oder ein Fußballspiel entschieden worden ist. Inzwischen werden sogar Inhalte den Vorgaben technischer Geräte wie die „AppleWatch“ angepasst: Weil das Display der Uhr so klein ist, müssen Inhalte entsprechend dargestellt, sprich verkürzt werden.3 Die zweite große Veränderung, die sich für den Journalismus ergeben hat, ist ebenfalls auf technische Entwicklungen wie das Internet und die immer höheren Raten bei der Datenübermittlung zurückzuführen. Denn nicht allein die Geschwindigkeit der Nachrichtenübermittlung hat sich erhöht, durch die allgemeine Zugänglichkeit von Übertragungs- und Publikationswegen ist neben den professionellen Medien eine neue mediale Öffentlichkeit entstanden. Vor allem soziale Medien beeinflussen inzwischen die Arbeit von Journalisten, insbesondere derer, die tagesaktuell für elektronische, wie auch für Printmedien Beiträge erstellen. Im Folgenden sollen diese Veränderungen und vor allem das Zusammenspiel von etablierten, presserechtlich verfassten Medien und sozialen Medien aus praktischer Sicht beleuchtet werden. 1 VERÄNDERUNGEN JOURNALISTISCHER ARBEIT „Genaues lässt sich noch nicht sagen“, sagt ein Reporter ins Mikrophon und gibt damit die zuverlässigste Beschreibung eines Ereignisses, das seit kaum einer Stunde München, ja, die ganze Republik in Atem hält. Es sind nur Minuten vergangen, seit ein Notruf bei der Polizei eingegangen ist, und doch läuft bereits eine Maschinerie auf Hochtouren. Und noch nicht einmal eine Stunde ist vergangen, seitdem die Nachricht von Schüssen beim Olympiaeinkaufszentrum in der Welt ist, da gibt es die ersten Live-Berichte per Telefon im Fernsehen, kurz darauf stehen auch schon Übertragungswagen bereit, die in bester Bildqualität frisch ins Geschehen geworfene Reporter zeigen, die nur Spärliches berichten können. Printmedien haben auf ihren Internetseiten „Liveblogs“ gestartet – doch der Maschinerie der etablierten Medien steht auch eine Maschinerie der sozialen Medien gegenüber, die noch aufgeregter und scheinbar schrankenlos kommunizieren kann.4 Am Beispiel des Amoklaufs in München am 22. Juli 2016 lässt sich nicht nur zeigen, wie eng verwoben soziale Medien und etablierte Medien bereits sind, sondern dass zwei Entwicklungen die Medien derzeit prägen: Beschleunigung und das Verschwinden des Autors. 3 4
ebd. Eine genaue Dokumentation über die mediale Chronik des Münchner Amoklaufs hat die „Süddeutsche Zeitung“ erstellt, abrufbar unter: http://gfx.sueddeutsche.de/apps/57eba578910a46f716 ca829d/www/ (Zugriff am: 20.5.2017).
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert
241
1.1 Beschleunigung Wie sich an der Berichterstattung über den Amoklauf von München zeigen lässt, ist die Beschleunigung einer der entscheidenden Faktoren im Journalismus und einer, der im wesentlichen durch technische Entwicklungen geprägt ist. War bis vor kurzem ein Übertragungswagen mit Satellitentechnik und einer mehrköpfigen Bedienungsmannschaft für die Übertragung von Live-Bildern notwendig, reicht heute ein kleiner Rucksack mit einer Apparatur, in der mehrere Telefon-Sim-Karten stecken, um Bilder live in guter Sendequalität zu übertragen. Ganz abgesehen davon bieten Internetdienste wie „Periscope“ die Möglichkeit, live vom Smartphone aus Bilder zu senden (wenn auch nicht in Fernsehqualität). Sowohl die technische Entwicklung im Profi-Bereich als auch die im Consumer-Bereich haben die Medienlandschaft verändert. Die Schwelle für eine Live-Berichterstattung hat sich dadurch extrem gesenkt, und dies hat auch Folgen für das, was inhaltlich berichtet wird. Der Grundsatz „Sorgfalt vor Schnelligkeit“ ist deutlich aufgeweicht worden – obwohl dies von Rundfunkverantwortlichen sicherlich vehement bestritten werden würde. Um die Bedeutung dieser Veränderung wirklich deutlich machen zu können, möchte ich die konkreten Abläufe journalistischen Arbeitens vor allem im Bereich der elektronischen Medien beleuchten. Dazu sind zwei Fragestellungen besonders wichtig: A: Was sind die Kriterien für eine Berichterstattung und, vor allem, was sind die Kriterien für Art und Zeitpunkt der Berichterstattung, also auch für eine Live-Berichterstattung ad hoc? Die Relevanz eines Sachverhalts für die Zielgruppe eines Mediums ist das generelle Kriterium für Berichterstattung. Dass die Wahl Angela Merkels 2013 im Bundestag zur Kanzlerin eine Nachricht von allgemeiner Relevanz ist, dürfte unbestritten sein, allerdings fragt sich, ob der Geschwindigkeitswettbewerb der Nachrichtenagenturen bei der Verbreitung der Nachricht sinnvoll ist. Denn nur Sekunden nach der Verkündung des Ergebnisses (das man ohnehin live im Internet wie auch im Fernsehen (Phönix) verfolgen konnte), versuchen sich die Agenturen darin zu überbieten, schneller zu sein als die Konkurrenz. Kaum anderthalb Minuten nach der Zeile „Angela Merkel zur Bundeskanzlerin gewählt“, kommen bereits die Agenturen mit dem genauen Abstimmungsergebnis. Wozu also der Überbietungswettbewerb für die erste, nicht sonderlich überraschende Meldung angesichts einer aufgrund einer großen Koalition zu erwartenden überwältigenden Mehrheit? Relevanter als das reine Faktum, dass Merkel die Wahl gewonnen hat, ist das konkrete Ergebnis, weil dies politische Interpretationen zulässt – warum also nicht zwei Minuten länger auf eine sinnvolle Meldung warten? Es ist der mittlerweile leider überstrapazierte Begriff „breaking news“, also Nachrichten die den normalen Lauf der Dinge verändern, der fast nur noch dafür herhält, dass sich Medien als besonders schnell und damit auch kompetent profilieren können. Genau hier entsteht ein Problem: Schnelligkeit kann ein Ausweis von Kompetenz sein, denn sie kann anzeigen, dass ein Medium einen Reporter vor Ort hat, der selbst berichtet und nicht auf eine Agentur, also auf eine Nachricht
242
Harald Kirchner
aus zweiter Hand, warten muss. Wenn ein Reporter jedoch damit beschäftigt ist, einen hohen aktuellen „Output“ zu generieren, dann hat er weniger Zeit für eine hintergründige Analyse. Üblicherweise sind die Rollen derer, die aktuell arbeiten, und derjenigen, die die Analyse liefern, auf verschiedene Personen verteilt, doch inzwischen wird der Kostendruck in allen Medien immer größer, weshalb hier Abstriche gemacht werden. Wenn also der Geschwindigkeit immer höhere Priorität eingeräumt wird, führt das bei begrenzten Ressourcen zwangsläufig zu Abstrichen bei der analytischen Berichterstattung. Dass der Amoklauf in München höchste Priorität in der Berichterstattung hatte, ist naheliegend, die Frage ist, ob zu einem Zeitpunkt, zu dem es nur spärliche gesicherte Informationen, dafür um so mehr Gerüchte gab, eine Dauerberichterstattung zwingend ist, die sich – mangels neuer realer Nachrichten – eben auch mit der Diskussion von Gerüchten beschäftigen muss. Die großen Sender hatten sich dafür entschieden, das Regelprogramm zu unterbrechen und ausschließlich über die Geschehnisse in München zu berichten. Als es 2009 zu einem Amoklauf an einer Schule in Winnenden gekommen ist, wurde der Südwestrundfunk sowohl dafür kritisiert, dass er das Programm nicht unterbrochen hat, als auch dafür, dass er zu viel über ein Ereignis berichtet habe, über das noch wenige Fakten vorgelegen haben – die medienkritische Empörungslage war damals bereits diffus. 2016 wurde schon nicht mehr so sehr über das Ob einer ununterbrochenen Berichterstattung diskutiert, sondern eher über das Wie. Das heißt, die Frage nach einem Innehalten und Warten auf gesicherte Informationen wurde kaum mehr gestellt. Tatsächlich stellt sich diese Frage heute auch nicht mehr, denn der Taktgeber für die mediale Begleitung von Ereignissen sind nicht mehr die herkömmlichen Medien, sondern die sozialen Medien. B: Wie beeinflussen sich soziale Medien und presserechtlich verfasste Medien gegenseitig? Sowohl in den herkömmlichen Medien als auch in den sozialen Medien setzte die Berichterstattung wenige Minuten nach Beginn des Amoklaufs in München ein. Wenn ein wichtiges Ereignis bereits in der Öffentlichkeit dargestellt wird, dann können dies Journalisten, egal welchen Mediums, heute nicht mehr ignorieren – einerseits weil aktuelle Medien ihrem eigenen Anspruch, schnell zu reagieren, gerecht werden wollen, andererseits, weil die Erwartungshaltung bei Zuschauern, Hörern, Lesern inzwischen so groß ist, dass schon eine verzögerte Berichterstattung selbst zum Thema insbesondere in den sozialen Medien werden kann und sogar Anlass zu Verschwörungstheorien geben mag. Mit die ersten Bilder vom Amoklauf, genauer gesagt, Bilder, die in der Nähe des Tatortes nach dem Amoklauf vom Polizeieinsatz gemacht wurden, waren von einem Passanten mittels des Internetdienstes „Periscope“ live online gestellt worden. Mittlerweile sind auch die Mitarbeiter von Sendern und Zeitungen angehalten, sofort wenn sie Zeuge eines berichtenswerten Ereignisses werden, Bilder und Videos an die Redaktionen zu übermitteln; es geht darum, schnell so viel wie möglich verwertbares Material zu generieren. Es gibt also auch einen Wettlauf um die ersten Bilder – wichtiger aber ist, dass man mit Informationen umzugehen hat, die zwar
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert
243
nicht bestätigt, aber in der Welt sind. So ist die Fehlinformation, dass es auch am Münchner Stachus zu einer Schießerei gekommen sei, lange Thema. Selbst die Polizei war sich geraume Zeit nicht darüber im Klaren, ob es nun eine weitere Schießerei gegeben hat oder nicht. Die Frage, die den ganzen Abend über im Raum stand war, ob es sich um einen Terroranschlag oder um einen Amoklauf handelte. Die Tatsache, dass es weit verbreitete Meldungen über mehrere Schießereien und über mehrere Täter gab, war für viele Anlass, von einem Terrorakt zu sprechen, auch die Behörden waren sich dessen geraume Zeit nicht sicher. Die „Twitter“-Nachrichten von Privatpersonen über einen Terroranschlag schwollen gewaltig an, während die „Tweets“ über einen Amoklauf vergleichsweise überschaubar blieben. Die Lage war zunächst tatsächlich unklar, allerdings verschob sich nicht zuletzt durch die sozialen Medien die Gewichtung zugunsten der Annahme eines Terroranschlags. Das erklärt sich freilich nicht nur aus den realen Geschehnissen am Tag des Amoklaufs, sondern aus dem nachrichtlichen Umfeld, denn zuvor gab es in Frankreich und Deutschland einige Terroranschläge – eine Fehleinschätzung lag also nahe. Für das, was berichtet wird, ist nicht nur die tatsächliche Faktenlage von Bedeutung, sondern auch der Erfahrungshorizont, von dem aus sie betrachtet wird. Das gilt umso mehr für diejenigen, die als Nicht-Profis berichten, ihnen fehlt schlicht das journalistische Handwerkszeug, um eine saubere Einordnung der einströmenden Informationen zu gewährleisten. Allerdings konnten sich auch die professionellen Medien dem nicht entziehen, sie mussten auch die durch Fehlinformationen entstandene Panik mit einbeziehen – die unübersichtliche Nachrichtenlage, wurde damit selbst zum Gegenstand der Berichterstattung, die wiederum auf das Geschehen Einfluss genommen hat.5 1.2 Verschwinden des Autors 1.2.1 Verschwinden des Autors in den professionellen Medien Das Idealbild eines Reporters ist der Mensch, der mit Block und Stift einem Ereignis beiwohnt und dann darüber berichtet. Theoretisch gilt dies auch heute noch, doch schon immer war Journalismus ein arbeitsteiliges Geschäft, besonders in der aktuellen Berichterstattung. Zeitungen wie auch Hörfunk und Fernsehen haben schnelle, kurze Informationen stets über Nachrichtenagenturen bezogen. Besonders Hörfunknachrichten basieren meist auf Agenturen. Dies ist ein eingespielter Weg: Ein Agentur-Journalist vor Ort gibt kurze Meldungen an seine Zentrale, die gibt sie in den „Dienst“, der Redakteur des Hörfunks zum Beispiel nimmt diese Meldung, vergleicht sie meist mit weiteren Agenturen zum selben Thema und verwendet sie für die Sendung – das alles geschieht oft in Minuten. Der Redakteur, der eine Meldung aus verschiedenen Texten verschiedener Agenturen schreibt, kennt die Autoren dieser Texte nicht, es handelt sich letztendlich um ein anonymes Produkt. Das ist nicht unbedingt ein Nachteil, denn die Arbeitsabläufe sind erprobt, es gelten 5
s. die Dokumentation der „Süddeutschen Zeitung“, a. a. O.
244
Harald Kirchner
für alle Beteiligten die gleichen professionellen Standards. Es gilt das Vertrauen in lange tradierte professionelle Informationsketten. Allerdings verändert sich auch hier die Medienwelt, einerseits durch die Beschleunigung der Informationsverwertung, andererseits durch die Art der Verwendung der generierten Inhalte. Insbesondere für elektronische Medien ist letzterer Prozess von besonderer Bedeutung, denn sie arbeiten Multimedial – ein so genannter „O-Ton“ zum Beispiel (ein Original-Ton, also die Aussage eines am Geschehen Beteiligten) wird nicht nur im Fernsehen, sondern auch im Hörfunk und Online verarbeitet. Das heißt, die Distributionskette wird nicht nur immer länger, es verändert sich vor allem ihr Charakter. Ging es bisher um die Verbreitung rein nachrichtlichen Inhalts („Der Bundestag hat beschlossen, dass …“; „Es gab beim Unfall drei Tote und zwei Verletzte …“ usw.) so werden jetzt selbst längere analytische Beiträge aus einzelnen Versatzstücken zusammengesetzt, ohne dass die jeweiligen Autoren voneinander wissen. Es war zwar schon lange Praxis, sich „O-Töne“ von Kollegen zuliefern zu lassen, dem ging allerdings stets eine Absprache über Themen und Fragen mit dem ausführenden Kollegen voraus, das heißt es gab einen klar formulierten Auftrag für einen bestimmten Beitrag. Inzwischen werden geführte Interviews, aber auch recherchierte Inhalte schriftlich, in Massenspeicher gestellt, auf die sämtliche Redaktionen zugreifen können.– Interviews, recherchierte Fakten, alles wird zum „Material“, das verwertet werden kann. Ein Thema wird für verschiedene Sendungen, Wellen, Online, also für verschiedene Ausspielwege gesetzt, und völlig unabhängig voneinander arbeitende Redakteure bedienen sich aus dem angelieferten Material. Das klingt zunächst unproblematisch, doch die jeweiligen Redakteure kennen oft nicht den Kontext, in dem ein kurzes Statement geholt wurde. Vor allem aber: Bevor eine Kamera läuft, führt der Reporter noch ein Gespräch, erfährt also weitere Hintergründe und kann so das Gesagte deutlich besser einordnen – gerade wenn, wie es die normale Praxis ist, ein nur 20 Sekunden langer Satz in einen Beitrag wandert, ist es um so wichtiger, mehr zu wissen als nur das, was in den Massenspeicher gelangt. Genau diese Entwicklung macht die Situation auch für den Gesprächspartner des Reporters immer unklarer, denn wenn der Interviewte nicht weiß, wer seine Aussage wie verwenden wird, belastet das auch das Vertrauensverhältnis zwischen Journalisten und Gesprächspartner. So lange zum Beispiel ein Politiker einen Journalisten kennt und weiß, dass verantwortungsvoll mit seinen Aussagen umgegangen wird, dann erhält der Journalist offenere Aussagen. Nur wenn ein Gesprächspartner sich darauf verlassen kann, dass nicht etwa durch die Art des Schnitts seine Aussagen Fehlinterpretationen ausgesetzt sein werden, kann er sich auch öffnen. Die Angst gerade von Politikern, in einer bestimmten, von ihnen nicht intendierten Weise interpretiert zu werden, hat nicht zuletzt dazu geführt, dass immer mehr als reine Sprechblasen empfundene Aussagen in die Welt gesetzt werden. Diese Angst ist nicht unbegründet, denn tatsächlich werden Aussagen oftmals möglichst weitgehend ausgelegt, um zu einer spektakulären Schlagzeile zu kommen. Das angesprochene Problem der ausgeweiteten Distributionskette ist jedoch subtiler, denn es muss nicht die Gier nach der Sensation sein, die zu Problemen führt. Wenn es immer weniger Journalisten gibt, die sich vor Ort informieren,
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert
245
Gespräche führen, „O-Töne“ holen, dafür immer mehr Redakteure, die das angelieferte „Material“ für verschiedenste Kanäle weiterverarbeiten, tritt schlicht das Problem der „stillen Post“ in den Vordergrund – es passieren häufiger Fehler oder es verschiebt sich vielleicht sogar der Tenor einer Aussage. Der Stellenwert des einzelnen Autors, der nicht nur für die Richtigkeit des Berichteten bürgt, sondern auch eine Einschätzung aufgrund langer Erfahrung in einem Thema besteuern kann, geht immer weiter zurück. Ausdruck dafür sind auch Funktionsbezeichnungen wie „Content-Manager“, „Distributoren“ – es geht immer mehr darum, möglichst effizient „Content“ für verschiedenste „Ausspielwege“ nutzbar zu machen. Das bedingt, dass sich immer mehr Redakteure, die sich mit einem Thema nicht näher beschäftigt haben, über genau dieses Thema berichten müssen. Wie gesagt – aktueller Journalismus war immer arbeitsteilig, daher ist die Tatsache, dass es Distributionsketten gibt, kein prinzipielles Problem, doch es besteht zunehmend die Gefahr der Überdehnung dieser Ketten. Die Beschleunigung des Nachrichtengeschäfts und die Vermehrung der „Ausspielwege“ gerade bei den elektronischen Medien (Online, Hörfunk, Fernsehen) führen daher zu einer Ausweitung des Journalismus aus zweiter Hand. 1.2.2 Verschwinden des Autors in sozialen Medien Einen „Verantwortlichen im Sinne des Presserechts“ (V. i. S. d. P.) gibt es in den sozialen Medien selbstverständlich nicht – ihn gibt es nur bei professionellen Medien (die Angabe des presserechtlich Verantwortlichen ist gesetzlich vorgeschrieben) und das nicht nur aus juristischen, sondern auch aus handwerklichen Gründen. Für Profis gilt stets das Vier-Augen-Prinzip: Nichts wird (oder nichts sollte zumindest) publiziert werden, ohne dass ein Kollege zuvor den Text, den Film vorher gesehen hat. In sozialen Medien allerdings treten Autoren oft unter Pseudonym auf, bei aller Offenheit des Netzes gibt es kaum etwas Intransparenteres als die vielfach geteilten, „geretweeteten“ Nachrichten von unbekannten Privatpersonen (selbst wenn sie mit realen Namen arbeiten, bleiben sie für ein breites Publikum anonym). Das heißt, ein ganz entscheidendes Element journalistischen Arbeitens fehlt völlig: die Kenntnis der Quelle einer Information. Betrachtet man das Beispiel des Amoklaufs in München, dann ist festzustellen, dass nicht verifizierbare „Postings“ von zahlreichen Privatpersonen, nicht nur die Journalisten, sondern auch die Behörden verwirrt haben. So wurde die Zahl der Orte, an denen es zu Schießereien gekommen sein soll, immer höher, ohne dass diese Falschmeldungen entsprechend schnell hätten korrigiert werden können. Die Folge davon war eine massive Verunsicherung in der Bevölkerung. Problematisch dabei war, dass durch wenige Falschmeldungen innerhalb von Minuten aufgrund von Weiterleitungen immer neue Falschmeldungen entstanden sind. Allein die Tatsache, dass der Strom der Meldungen anschwoll, erzeugte auch bei professionellen Journalisten, wie auch bei Behörden den Eindruck, dass es sich um mehr als Gerüchte handeln könnte. Also wurden auch über eigentlich professionell arbeitenden Medien unbestätigte Meldungen in Umlauf gebracht, zwar wurde meist der
246
Harald Kirchner
Hinweis gegeben, dass es sich um unbestätigte Meldungen handelte, der Effekt allerdings war derselbe, Journalisten gerieten hier schlicht unter Zugzwang: Wenn etwas so große Wellen schlägt, kann man daran nicht einfach vorbeigehen. Es entstand ein Zirkel sich gegenseitig beeinflussender Nachrichten – es entwickelte sich eine mediale Realität neben der tatsächlichen. Wie die Dokumentation der „Süddeutschen Zeitung“6 zeigt, war für die Einschätzung der Lage nicht allein das konkret Beobachtbare entscheidend, sondern auch der Erfahrungshorizont der Beobachter. Die Zahl der „Twitter“-Nachrichten, die über einen Amoklauf berichteten, war weit geringer, als die, die von einen Terroranschlag sprachen. Vor dem Münchner Amoklauf hatte es einige Terroranschläge gegeben, weshalb viele davon ausgingen, dass es sich auch hier um einen Terroranschlag handeln müsse. Dazu beigetragen haben die Falschmeldungen über mehrere Tatorte, denn ein einzelner Amokläufer kann natürlich nicht an mehreren Tatorten gleichzeitig zuschlagen. Wenn Meldungen aus schwer überprüfbaren Quellen die Nachrichtenlage bestimmen, dann geraten Grundsätze des Journalismus ins Wanken. 2 FUNKTION DES JOURNALISMUS Die Funktion des Journalismus, insbesondere des aktuellen Nachrichtenjournalismus ist nicht allein, über Dinge zu berichten, sondern sie auch nach Relevanz einzuordnen und in den entsprechenden Kontext zu stellen. Die Auswahl von Nachrichten basiert daher theoretisch auf den Kriterien, die im Journalismus erarbeitet worden sind. Sender und Zeitungen machen dem Zuschauer, Hörer, Leser also ein Angebot. Der Rücktritt eines Ministers oder größere Änderungen bei der Erbschaftssteuer gelten zum Beispiel als wichtig und werden deshalb prominent publiziert – unabhängig davon, ob sich ein Großteil des Publikums dafür interessiert oder nicht. Bei klassischen Nachrichten galt bisher das Credo: Inhalt vor Quote. Zwar hatte der Publikumsgeschmack immer auch eine Auswirkung auf das was publiziert wurde, doch die Dimensionen haben sich verändert. Wenn Menschen sich zunehmend über weitergeleitete und „gelikte“ Nachrichten informieren, gibt es die ordnende Hand der professionellen Redaktion nicht mehr. Nur die Informationen, die von einer Gruppe als relevant erachtet werden, dringen damit überhaupt noch zur jeweiligen Gruppe vor. Die Zumutung der für einen selbst vielleicht uninteressanten Nachricht fällt weg. Es entsteht der viel beschworene „Echoraum“. Inzwischen arbeiten allerdings auch professionelle Medien mit den Mitteln, die Echoräume entstehen lassen. Klickzahlen entscheiden über die Positionierung eines Artikels und letztendlich auch darüber, ob manche Themen überhaupt noch bearbeitet werden. Selbst eine neu entwickelte Nachrichten-„App“ des öffentlich rechtlichen Südwestrundfunks verwendet Algorithmen, die das Nutzungsverhalten des Konsumenten in die Nachrichten-Auswahl mit einbezieht, allerdings mit Ein6
a. a. O.
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert
247
schränkungen, denn die Hoheit darüber, was an erster Stelle für alle Nutzer sichtbar sein soll, wollen die Nachrichtenmacher nicht ganz abgeben. Die Algorithmen für die Themenauswahl, sollen sich auf „weiche“ Stoffe beschränken. An dieser Stelle wird ein Kompromiss zwischen dem ureigenstem journalistischem Selbstverständnis – die Wichtigkeit einer Nachricht einzuordnen – und dem persönlichen Geschmack des Nutzers gemacht. 3 KONSEQUENZEN Die technische Entwicklung hat wie geschildert einen erheblichen Einfluss nicht nur auf die Geschwindigkeit, in der Journalismus betrieben wird, auch die Inhalte werden durch das Wechselspiel von Beschleunigung und einer neuen Öffentlichkeit durch die sozialen Medien mitbestimmt. Daraus ergibt sich die Frage, ob sich die etablierten professionellen Medien einem Prozess entziehen können, der in den bestehenden Strukturen fast zwangsläufig zu einer qualitativen Verschlechterung des Journalismus führen muss. Hinzu kommt, dass der Journalismus sich zunehmend mit bewusst in Umlauf gebrachten falschen Informationen auseinandersetzten muss – wenn sogar eine Mitarbeiterin des US-Präsidenten Trump von „alternative facts“ spricht, dann wird die Arbeit noch schwieriger. Qualität müsste angesichts dessen einen immer höheren Stellenwert bekommen. Die Auflagen der Zeitungen sinken, die Quoten der Qualitätsprogramme werden nicht besser, was zu einem Spardruck führt, gleichzeitig steigen durch die Beschleunigung des Nachrichtengeschäfts und eine auch durch Populismus beeinflusste Netzöffentlichkeit die Ansprüche an den Qualitätsjournalismus. Bedeutet das Aufkommen des „Postfaktischen“ nicht schon ein Versagen der Informationskultur einer Gesellschaft? Der Journalismus steckt sicherlich in einem Dilemma, allerdings ist zweifelhaft, ob allein mehr Personal bei Zeitungen und Sendern dieses auflösen könnte, denn es bedarf nicht nur aus ökonomischen Gründen eines entsprechend großen Publikums, das gewillt ist, sich mit Qualitätsjournalismus zu beschäftigen. Dieser Qualitätsjournalismus ist durchaus auch eine Zumutung, sie besteht darin, sich regelmäßig die Zeit zu nehmen, auch Artikel zu lesen, die einen selbst nicht unbedingt interessieren, die den Leser aber zu einem informierten Bürger machen könnten. Eine Demokratie kann nur dann funktionieren, wenn Wähler ihre Entscheidung auch mit vernünftigen Argumenten begründen können. Dass dies zwar immer mehr ein Anspruch als eine Realität war, ist eine Binsenweisheit, doch es scheinen sich die Gewichte zwischen bloßer Meinung und begründetem Argument zu verschieben. Angebote sich qualitativ hochwertig zu informieren, gibt es derzeit noch genug, doch um den gesellschaftlichen Auftrag des Journalismus erfüllen zu können, bedarf es auch der Leser, Hörer, Zuschauer, die solche Angebote wahrnehmen.
248
Harald Kirchner
LITERATUR Backes, Thierry; Jaschensky, Wolfgang; Langhans, Katrin; Munzinger, Hannes; Witzenberger, Benedict; Wormer, Vanessa: Timeline der Panik. Ein Täter, ein Tatort – und eine Stadt in Angst: Wie aus dem Münchner Amoklauf ein Terroranschlag mit 67 Zielen wurde. Eine Rekonstruktion. Süddeutsche Zeitung, 2016, http://gfx.sueddeutsche.de/apps/57eba578910a46f716ca829d/ www/ (Zugriff am: 20.5.2017). Hölig, Sascha; Hasebrink, Uwe: Reuters Institute Digital News Survey 2016 – Ergebnisse für Deutschland. Arbeitspapiere des Hans-Bredow-Instituts, Nr. 38, Hamburg, Juni 2016. https:// www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media/3ea6d4fed04865d10a d27b3f98c326d3a0ae6c29.pdf (Zugriff am: 20.5.2017).
ZUR RHETORIK DER TECHNIK Aufriss eines Forschungsgebietes Volker Friedrich „Haben wir die Technik, die wir brauchen, und brauchen wir die Technik, die wir haben?“ Mit diesen Fragen umreißt Klaus Kornwachs zentrale Aspekte der Technikphilosophie.1 Aus der Sicht eines Rhetorikers könnte eine Anschlussfrage gestellt werden: Haben wir das Wissen über eine Rhetorik der Technik, das uns dabei unterstützte, die Antworten auf diese Fragen zu formulieren? In dieser Anschlussfrage wäre eingeschlossen, dass es so etwas wie eine „Rhetorik der Technik“ gäbe oder man sie bearbeiten könnte. Der Beobachtung des Autors dieser Zeilen nach wird im deutschsprachigen Raum einer Rhetorik der Technik nur eingeschränkt nachgegangen. Sicher gibt es aus der Technikphilosophie heraus bereits eine Beschäftigung mit dem Verhältnis der Sprache zur Technik. Gleichwohl sei die Frage aufgeworfen, wie aus der spezifischen Warte der Rhetorik dazu ein Beitrag geleistet werden kann und somit Berührpunkte zwischen Rhetorik und Technikphilosophie behandelt werden könnten. Ließe sich in solch einem Forschungsgebiet eine Zusammenarbeit zwischen Philosophen, Rhetorikern, Technikern, Ingenieuren und Naturwissenschaftlern auf den Weg bringen? Dieses Forschungsgebiet wird in folgendem Aufriss bruchstückhaft skizziert. Mittels Technik organisiert der Mensch die Wirklichkeit, und er schafft mittels neuer Technik neue Wirklichkeiten. Dadurch, dass er darüber spricht (und schreibt), organisiert er die Vermittlung der technisch geprägten Wirklichkeiten. Dies wiederum wirkt letztlich auch zurück auf Technik selbst. Technik und Rhetorik der Technik stehen in einer Wechselwirkung, die zu betrachten einer der Gegenstände einer Rhetorik der Technik wäre: Technik artikuliert sich, und Technik wird artikuliert. Wie spricht Technik zu uns, wie sprechen die Techniker über Technik, wie die Nichttechniker? Können wir Technik – nicht allein, aber eben auch – als rhetorisches Phänomen, als Rhetorik begreifen? Können wir Rhetorik nutzen, um Technik zu begreifen? Technikphilosophen greifen Fragen nach der Wechselwirkung von Sprache und Technik durchaus auf, manche sehen Technik selbst als Medium an.2 In dieser
1
2
So etwa zu finden in seiner Einführung in die Philosophie der Technik (Kornwachs, Klaus: Philosophie der Technik. Eine Einführung. München 2013. S. 121.) oder in den Geleitworten zu der von ihm herausgegebenen Reihe „Technikphilosophie“ (exemplarisch sei der erste Band dieser Reihe angeführt: Kornwachs, Klaus: Geleitwort des Herausgebers. In: ders.: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000. S. V.). vgl. Hubig, Christoph: Technik als Medium. In: Grunwald, Armin (Hg.): Handbuch Technikethik. Darmstadt 2013. S. 118–123.
250
Volker Friedrich
Skizze soll es um einen ergänzenden Aspekt gehen, nämlich den Diskurs, den die Rhetorik dazu beisteuern könnte. Einen Eintrag zu den Begriffen „Technik“ oder „Technikrhetorik“ sucht man im begriffsgeschichtlichen Standardwerk „Historisches Wörterbuch der Rhetorik“ vergeblich; zu finden ist allerdings eine Definition des Stichwortes „Wissenschaftsrhetorik“: „Der Ausdruck ‚W.‘ bezeichnet: (1) die bewusste kommunikative Vermittlung wissenschaftlichen Wissens, und zwar sowohl (1a) innerhalb der scientific community als auch (1b) nach außen, in popularisierender Form auf ein wissenschaftlich nicht vorgebildetes Publikum abzielend; (2) die wissenschaftliche Untersuchung und Thematisierung der rhetorischen Vermittlung von Wissen auf einer Metaebene. Zwei Leitfragen dienen deshalb im Folgenden zur Orientierung – ‚Wie wurde und wird Wissen rhetorisch vermittelt?‘ (Wissenschaft als Rhetorik) und ‚Wie wurde und wird die rhetorische Vermittlung von Wissen theoretisch erschlossen und dargestellt?‘ (Rhetorik als Wissenschaft).“3 Nach einer Analogiebildung, die in der obigen Definition „Wissen“ durch „Technik“, „wissenschaftlich“ durch „technisch“ ersetzte, bezeichnete der Begriff „Technikrhetorik“: (1) die bewusste kommunikative Vermittlung technischen Wissens, und zwar sowohl (1a) innerhalb der Gemeinschaft der Techniker, Ingenieure, Naturwissenschaftler etc. als auch (1b) nach außen, in popularisierender Form auf ein technisch nicht vorgebildetes Publikum abzielend; (2) die wissenschaftliche Untersuchung und Thematisierung der rhetorischen Vermittlung von Technik auf einer Metaebene. Orientierung wäre demzufolge für die Technikrhetorik zu gewinnen mit Fragen wie: Wie wurde und wird Technik rhetorisch vermittelt? Wie wurde und wird eine rhetorische Vermittlung von Technik theoretisch erschlossen und dargestellt?4 Dass man zu den Begriffen „Technik“ oder „Technikrhetorik“ vergeblich Einträge im begriffsgeschichtlichen Standardwerk „Historisches Wörterbuch der Rhetorik“ sucht, dürfte nicht als eine Art einmaliger „Betriebsunfall“ der deutschsprachigen Rhetorikforschung zu werten sein, sondern auf eine deutliche Differenz der Diskussionen im deutschsprachigen zu denen im angelsächsischen Raum verweisen; dort wird zur Technikrhetorik intensiv und seit längerem gearbeitet. Exemplarisch sei auf die Arbeiten von Alan G. Gross verwiesen. Er hat mehrere Bücher verfasst, mitverfasst und herausgegeben, die sich mit Fragen der Wissenschafts- und Technikvermittlung, der Rhetorizität und den Persuasionsstrategien von Wissenschaft und Technik befassen und sie historisch, hermeneutisch und kritisch untersuchen.5 Seit 2009 gibt Gross die Buchreihe „Rhetoric of Science and Technology“ heraus.6 3 4
5 6
Klüsener, Bea; Grzega, Joachim: Wissenschaftsrhetorik. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik, Bd. 10: Nachträge. Tübingen 2012. Sp. 1486. Die beim Begriff „Wissenschaftsrhetorik“ vorgenommene Unterscheidung zwischen „Wissenschaft als Rhetorik“ und „Rhetorik als Wissenschaft“ lässt sich für „Technikrhetorik“ nicht sinnvoll übertragen; „Rhetorik als Technik“ hätte den Bezug zum griechischen „rhetorike techne“, also der ursprünglich aristotelischen Bezeichnung für Rhetorik als eine lehrbare Disziplin (vgl. Kalivoda, Gregor; Zinsmaier, Thomas: Rhetorik. In: Ueding, a. a. O., Bd. 7, Sp. 1423.). s. u. „Literatur“. Zu den Themen der Reihe, die in vielem meine unten ausgeführte Liste abdecken und ergänzen,
Zur Rhetorik der Technik
251
Amerikanische Autoren behandeln Wissenschafts- und Technikrhetorik oft gemeinsam.7 Mit dem englischen „technology“ werden angewandte Wissenschaften verknüpft, insofern ist „technology“ auch einbezogen in eine Reflexion der Wissenschaft. Neben solchen begrifflichen Aspekten dürfte ein Grund aber in den an amerikanischen Universitäten verbreiteten Studien zu „Science, Technology, and Society“ zu finden sein, den sogenannten „STS programs“, die sich den Wechselwirkungen zwischen Wissenschaft, Technik und Gesellschaft zuwenden.8 Vereinzelt wird aber auch in der deutschsprachigen Literatur auf eine Verbindung von Rhetorik und Technik abgehoben. Norbert Bolz hat in seinem Buch „Das Gestell“ ein Kapitel mit „Die Rhetorik der Technik“ überschrieben9, auf dessen fünf Seiten er sich allerdings eher in kulturphilosophischen Vorbetrachtungen ergeht, denn eine detaillierte Technikrhetorik zu entwickeln. Bolz schließt an Hans Blumenbergs Diktum über die „‚Sprachlosigkeit‘ der Technik“ an, die dazu geführt habe, „daß die Leute, die das Gesicht unserer Welt am stärksten bestimmen, am wenigsten wissen und zu sagen wissen, was sie tun“10. Bolz führt dazu aus: „Wenn die Philosophie nicht mehr in der Lage ist, unsere Zeit in Gedanken zu fassen, dann müssen wir auf die Rhetorik der Technik hören, statt auf die Rhetorik der Diskurse. Das Problem der Technik ist nicht, dass wir nicht wissen, was wir tun, sondern
7
8
9 10
hält der Verlag fest: „Although the point has already been made that science and technology are in some sense rhetorical, the field remains open to new topics and innovative approaches. The Rhetoric of Science and Technology series of Parlor Press will publish works that address these and related topics: 1. The history of science and technology approached from a rhetorical perspective 2. Science and technology policy from a rhetorical point of view 3. The role of photographs, graphs, diagrams, and equations in the communication of science and technology 4. The role of schemes and tropes in the communication of science and technology 5. The methods used in rhetorical studies of science and technology, especially the predominance of case studies 6. The popularization of science by scientists and non-scientists 7. The effect of the Internet on communication in science and technology 8. The pedagogy of communicating science and technology to popular audiences and audiences of scientists and engineers 9. The inclusion of science and technology in rhetoric and composition courses.“ (http://www. parlorpress.com/science; Zugriff am: 1.8.2017.) vgl. Ceccarelli, Leah: Rhetoric of Science and Technology. In: Mitcham, Carl (Hg.): Encyclopedia of Science, Technology, and Ethics. Bd. 3. Detroit 2015. S. 1625–1629. Die einschlägige wissenschaftliche Gesellschaft, die „Association for the Rhetoric of Science, Technology, and Medicine (ARSTM)“, nimmt die Medizin noch hinzu: http://www.arstmonline.org (Zugriff am: 1.8.2017). vgl. Cutcliffe, Stephen H.: Science, Technology, and Society Studies. In: Mitcham, Carl (Hg.): Encyclopedia of Science, Technology, and Ethics. Band 4. Detroit 2015. S. 1723–1726. Studienprogramme dieser Art sind im deutschsprachigen Raum rar, Klaus Kornwachs hat an der Brandenburgischen Technischen Universität Cottbus mit den Bachelor- und Masterstudiengängen „Kultur und Technik“ Vergleichbares aufgebaut. Bolz, Norbert: Das Gestell. München 2012. S. 9–13. Blumenberg, Hans: Ästhetische und metaphorologische Schriften. Frankfurt am Main 2014(4). S. 14.
252
Volker Friedrich
dass wir nicht zu sagen wissen, was wir tun.“11 Rhetorik der Technik hätte also mit Technikvermittlung auf einer grundsätzlichen Ebene zu tun. Bolz befasst sich an anderen Stellen mit dem Verhältnis von Design, Rhetorik und Technik, das als Benutzerfreundlichkeit der Computer des Nutzers tiefes Nichtverstehen der Technik maskiert: „Die Intelligenz der Produkte besteht gerade darin, den Abgrund des Nichtverstehens zu verdecken. So löst sich das Gebrauchen vom Verstehen ab. Wer heute von intelligentem Design spricht, meint, daß der Gebrauch des Geräts selbsterklärend ist. Doch diese Erklärung führt nicht zum Verständnis, sondern zum reibungslosen Funktionieren. Man könnte deshalb formelhaft sagen: Benutzerfreundlichkeit ist die Rhetorik der Technik, die unsere Ignoranz heiligt. Und diese designspezifische Rhetorik, die sich eben nicht in Diskursen, sondern in der Technik des Interface Design ausprägt, verschafft uns heute die Benutzerillusion der Welt.“12 Bolz hebt hier insbesondere auf Computer- und Medientechnik ab, also genau den Bereich der Technikrhetorik, der in der deutschsprachigen Literatur am häufigsten diskutiert wird. Auf ebensolche medienrhetorischen Aspekte, die sich mit technikrhetorischen zumindest in Teilen überschneiden, geht substantiell Francesca Vidal ein in ihrer „Rhetorik des Virtuellen“13 und mit dem von ihr herausgegebenen „Handbuch Medienrhetorik“14. Zu Fragen der Medien-, Bild-, Film-, Design- oder visuellen Rhetorik u. Ä. sind auch im deutschsprachigen Raum über die letzten Jahre eine Reihe von Monografien, Sammelbände und auch Periodika erschienen, „Technikrhetorik“ oder „Rhetorik der Technik“ spielen jedoch eine nachgeordnete Rolle, zuweilen mutet es so an, als sähen die Autoren Medien nicht als einen Teil der Technik, sondern als eine eigenständige Sphäre … Dazu beitragen dürfte die geringe Rolle, die Rhetorik als akademische Disziplin in Deutschland spielt.15 Eine Ursache dafür, dass Rhetorik in anderen Sprachräumen an den Universitäten stärker vertreten ist als in Deutschland, dürfte mehrere Ursachen haben: Platons Herabsetzung der Rhetorik im „Gorgias“ hat hierzulande womöglich stärker gewirkt16, da auch Kant sich nicht gerade schmeichelhaft über Rhetorik äußerte 17 – zwei Großdenker reden klein, das wirkt. Eine weitere Ursache für den schweren Stand der Rhetorik in Deutschland wird darin zu sehen sein, dass
11 12 13 14 15 16
17
Bolz, a. a. O., S. 11. Bolz, Norbert: Die Wirtschaft des Unsichtbaren. Spiritualität – Kommunikation – Design – Wissen: Die Produktivkräfte des 21. Jahrhunderts. München 1999. S. 114. Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in der Kultur der konkreten Virtualität. Mössingen-Talheim 2010. Scheuermann, Arne; Vidal, Francesca (Hg.): Handbuch Medienrhetorik. Berlin, Boston 2016. Als Fach lässt sich Rhetorik bis dato nur an der Universität Tübingen studieren, nur eine Handvoll Professuren führen „Rhetorik“ in ihrer Betitelung. Sokrates kritisiert die Rhetorik, sie sei keine Kunst oder Wissenschaft, sondern nur Erfahrung und Übung und ziele nicht auf das Gute, sondern lediglich auf das Angenehme (vgl. Stroh, Wilfried: Die Macht der Rede. Eine kleine Geschichte der Rhetorik im alten Griechenland und Rom. Berlin 2011. S. 144–163, insbesondere S. 151 ff.). Er spricht von der Beredsamkeit als „Kunst zu überreden, d. i. durch den schönen Schein zu hintergehen“ (Kant, Immanuel: Kritik der Urteilskraft. Werkausgabe, Bd. 10. Frankfurt am Main: Suhrkamp Verlag, 1981(5). § 53, S. 266.).
Zur Rhetorik der Technik
253
Rhetorik durch den Geniekult in der deutschen Klassik eine Herabsetzung erfuhr18, eine weitere darin, dass Rhetorik wegen ihres Missbrauchs durch die Nationalsozialisten in Verruf geraten ist und als propagandistische Manipulation gilt. In diesem Essay jedenfalls wird Rhetorik als der Teil der Philosophie angesehen, der sich mit der Theorie und Praxis menschlicher Kommunikation und Argumentation befasst, die persuasiven Wirkungen kommunikativer Akte untersucht und nach der Möglichkeit eines rationalen Diskurses von Argumentationen fragt, wenn nicht primär über Wahrheiten, sondern über Wahrscheinliches gestritten wird. Wird Rhetorik in diesem Sinne als ein Teil der Philosophie betrachtet, so kann eine Rhetorik der Technik als Teil der Technikphilosophie gesehen werden, zumindest aber als ein Beitrag zur Technikphilosophie. Was gehörte zu den Forschungsgegenständen einer Rhetorik der Technik? Zur Antwort sei eine unvollständige Liste, die keine Rangfolge bedeutet, angeführt: a) die Untersuchung der Sprache der Technik; b) die Untersuchung der Sprache, mit der über Technik und eine technisierte Welt gesprochen und geschrieben wird; c) die Untersuchung der Sprache und der Argumente, mit der Persuasion für oder gegen Technik herbeigeführt wird; d) die Untersuchung der Metapherologie der Technik; e) die Rhetorizität der Technik; f) eine Narratologie der Technik; g) die Geschichte der Rhetorik der Technik; h) die Wechselwirkungen zwischen Technik und Rhetorik der Technik. Im Folgenden sollen diese Punkte umrissen werden, mehr als eine Skizze kommt dabei nicht zustande, zu umfangreich sind diese Gebiete. a) die Untersuchung der Sprache der Technik Mit dem Ausdruck „Sprache der Technik“ sind sowohl verbale wie visuelle Sprache angeschnitten. Dazu zählen beispielsweise Technolekte, die für den technischen Diskurs ausgeformt werden, es kann untersucht werden, wie Technik sich äußert, sich selbst darstellt und vermittelt und wie sie beschrieben wird, z. B. in Textsorten, Bedienungsanleitungen oder Gebrauchsanweisungen, in Formeln ebenso wie in Darstellungen wie technischen Zeichnungen und Entwürfen. Spätestens dann, wenn Natur-, Ingenieur- oder Technikwissenschaftler sich anderen vermitteln möchten, gar Fachfremden, und ihnen Technolekte und technische Zeichnungen und Formeln nicht mehr weiterhelfen, müssen sie sich der Normalsprache bedienen, auf Fachsprache verzichten, sich vermitteln – in Worten, die eine andere Form der Präzision eröffnen, als sich das mit Formeln und Zeichnungen erreichen lässt. Sind diese Wissenschaftler darauf vorbereitet? Vor welchen Problemen stehen sie? Vorbereitet werden sie auf diese originär rhetorische Aufgabe selten durch ihr Studium. Es dürfte sich zeigen lassen, dass Na18
Die Kunst, mit Worten Wirkung zu entfalten, wurde als nicht lehr- oder erlernbar angesehen – man hat’s oder hat’s nicht.
254
Volker Friedrich
tur-, Ingenieur- und Technikwissenschaften oft einen nahezu naiven Umgang mit Sprache pflegen, dass sie von den Schwierigkeiten, sich mit der Normalsprache zu vermitteln, wenig wissen und sich dieses Wissen aus einem interdisziplinären Diskurs mit den Geisteswissenschaften nicht holen. Rhetorik könnte dabei weiterhelfen – zum Beispiel mit ihrem Wissen über Stilqualitäten wie Verständlichkeit, Klarheit und Angemessenheit. Ein tieferes Verständnis für die Wirkungen technischer Bilder und Visualisierungen in der Wissenschaft ließe sich durch eine Auseinandersetzungen mit visueller Rhetorik gewinnen. Ansätze der visuellen Rhetorik werden hierzulande auch in den Forschungen kaum aufgegriffen, die sich – wie das Exzellenzcluster „Bild Wissen Gestaltung“19 – mit ebensolchen Phänomenen befassen, ähnliches gilt für viele Teile der aktuellen bildwissenschaftlichen Diskussionen.20 b) die Untersuchung der Sprache, mit der über Technik und eine technisierte Welt gesprochen und geschrieben wird In seinem letzten Buch „Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert“ reihte der Medienwissenschaftler Neil Postman im dritten, mit „Technologie“ überschriebenen Kapitel eine Reihe von kritischen Fragen auf, die an neue Technologien21 gestellt werden können. Die erste Frage beispielsweise lautet: „Was ist das Problem, für das diese Technologie die Lösung bietet?“22 Die von Postman in der Folge angeführten Fragen seien zu stellen, wenn auf diese erste Frage keine befriedigende Antwort gefunden werden könnte. Die sechste von Postmans Fragen an neue Technik lautet: „Welche sprachlichen Veränderungen werden durch neue Technologien erzwungen und was wird durch derlei Veränderungen gewonnen und was verloren?“23 Postman interessierte sich stets für die gesellschaftlichen und kulturellen Auswirkungen von Technik, und er sah, wie stark gesellschaftliche und sprachliche, kommunikative Entwicklungen ineinander verwoben sind. In dieser Perspektive verändert Technik also die Kommunikation in einer Gesellschaft. Dies gilt nicht allein auf einer technischen Ebene, indem Technik neue Kommunikationsmedien entwickelt, sondern Technik und, als ihr Teil, auch Kommunikationsmedien wirken auf die Sprache zurück, mit der über Technik und eine technisierte Welt gesprochen und geschrieben 19 20
21 22 23
s. https://www.interdisciplinary-laboratory.hu-berlin.de/de/bwg/ (Zugriff am: 1.8.2017). Dieser Mangel ist nicht oder nicht allein denen vorzuwerfen, die die guten Impulse nicht aufgreifen, sondern verweist eben auf die stiefmütterliche Behandlung der Rhetorik im akademischen Betrieb in Deutschland und darauf, dass denjenigen, die sich für eine Veränderung dieser Situation einsetzen, noch viel Arbeit dräut auf einem langen Weg. Bedenkt man, dass mit dem von Gert Ueding herausgegebenen „Historischen Wörterbuch der Rhetorik“ eine publizistische Großtat vorliegt, nämlich ein 12 Folianten umfassendes Standardwerk, das die Rhetorik in ihren weitläufigen Verästelungen, Vertiefungen und Vernetzungen wissenschaftlich zugänglich macht, so ist umso erstaunlicher, dass so viele Disziplinen ihre Anschlussmöglichkeiten an diese Diskurse nicht oder nur mäßig nutzen. Unterscheidet man begrifflich zwischen Technik und Technologie (i. S. von „Lehre von …“, „Wissen über …“), dann wäre der von Postman verwendetete Begriff „technology“ wohl besser mit „Technik“ übersetzt worden. Postman, Neil: Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert. Berlin 2001. S. 55. a. a. O., S. 67.
Zur Rhetorik der Technik
255
wird. Damit ist nicht allein gemeint, das Technik gleichsam „Sprechanlässe“ schafft und Gegenstand kommunikativer Betrachtungen wäre; es geht vielmehr um eine Beobachtung und Analyse der Sprache, die wir nutzen, um Technik und über Technik zu kommunizieren. Dieses Gebiet der Rhetorik der Technik könnte uns darüber Auskunft geben, wie unser Verständnis technischer Zusammenhänge geleitet wird von der Sprache, die wir zur Kommunikation von Technik nutzen. Mit welcher Rhetorik wird Technik vermittelt? Welche Rolle spielt die Stilistik in der Technikrhetorik? Gibt es eine spezifische latinitas (Sprachrichtigkeit) für die Technikkommunikation, zudem spezielle Ausprägungen der perspicuitas (Klarheit, Verständlichkeit)? Gibt es ein spezifisches aptum (Angemessenheit) in der Kommunikation über Technik? Die Vermutung liegt nahe, dass eine Parallele zur Wissenschaftsrhetorik zu konstatieren wäre: Dort hat sich im 17. Jahrhundert eine Art „AntiRhetorik“, ein „stilloser Stil“ etabliert24 – der klassischen rhetorischen Stilqualität der Angemessenheit wird die nüchtern-sachliche Darstellung zugewiesen. c) die Untersuchung der Sprache und der Argumente, mit der Persuasion für oder gegen Technik herbeigeführt wird Technisches Schreiben als Instruktionstext wird selbstverständlich von Linguisten untersucht25, für die Rhetoriker gäbe es Arbeit zu leisten bei der Untersuchung der persuasiven Elemente und Funktionen solcher Texte. Mit Präsentationen und Konzepten beispielsweise werden technische Ideen, Lösungsvorschläge, Prototypen, Umsetzungen vorgestellt. Damit sollen Zuhörer, Zuschauer oder Leser überzeugt werden, sei es, dass die Vorstandsetage eines Unternehmens von den Ideen der Forschungs- und Entwicklungsabteilung, oder sei es, dass ein politisches Gremium von einer technischen Lösung überzeugt werden soll. In diesen Themenbereich fallen auch Untersuchungen zur Rhetorik von Technikbewertung und Technikfolgenabschätzung, die gemeinhin deliberative Aufgaben erfüllen, also wiederum originär rhetorisch sind. Verschiedene Werke über Technikfolgenabschätzung haben sich dieser Fragen auf der Basis habermasscher Überlegungen zur Diskursethik angenommen26; aus rhetorischer Warte lohnte es sich, beispielsweise auf der Rhetorik fußende argumentationstheoretische Arbeiten auf diese Diskussion hin zu prüfen, beispielsweise „Klassiker des 20. Jahrhunderts“ wie die Arbeiten von Perelman27 oder Toulmin28.
24 25 26 27 28
vgl. Klüsener; Grzega, Wissenschaftsrhetorik, a. a. O., Sp. 1489. vgl. in diesem Band den Essay „Technisches Wissen, technische Sprache, technische Bilder“ von Hans Poser. vgl. in diesem Band den Essay „Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft“ von Ortwin Renn. vgl. vor allem: Perelman, Chaïm; Olbrechts-Tyteca, Lucie: Die neue Rhetorik. 2 Bde. Stuttgart 2004. grundlegend: Toulmin, Stephen Edelston: Der Gebrauch von Argumenten. Kronberg im Taunus 1975.
256
Volker Friedrich
d) die Untersuchung der Metapherologie der Technik Mit welchen Metaphern wird Technik belegt, in welchen ausgedrückt? Im philosophischen Diskurs suchte man Antworten auf ähnliche Fragen wohl bei Hans Blumenberg. Dessen Ansatz begreift Rüdiger Campe so: „Es geht darum, die Implikation der Technik und ihrer Theorie im metaphorologischen Verfahren zu erkennen.“29 Auch aus rhetorischer Warte wäre zu untersuchen: Mit welchen sprachlichen Bildern reden wir über Technik und die von ihr geschaffene und organisierte Welt? Einerseits lässt sich, wie in b) dargelegt, konstatieren: Es hat sich ein „stilloser Stil“ etabliert, die nüchtern-sachliche Darstellung. Anderseits ist das Sprechen und Schreiben über Technik eben häufig gekennzeichnet von einer ausgeprägten Metaphorik. Wir sprechen vom „Internet der Dinge“ oder von „künstlicher Intelligenz“, oft ohne uns des metaphorischen Gehalts solcher Wendungen bewusst zu sein. Technische Metaphern scheinen schnell zu erstarren, also nicht mehr als Metaphern wahrgenommen zu werden. Unsere Sprache ist voll von erstarrten Metaphern wie das „Tischbein“ oder der „Flaschenhals“, die wir als Metaphern nicht mehr wahrnehmen. Im Sprechen über Technik scheint das Erstarren von Metaphern schnell zu gehen, wir benötigen die Metaphern für das sonst Unsagbare offenbar so sehr, dass wir ihnen das Irritierende nehmen, das ihnen beim ersten Hören oder Lesen innewohnt. „Die prominenteste Metapher aus der Rhetorik des Cyberspace ist zweifellos das Surfen.“30 An diesem Beispiel lässt sich der Übergang einer frischen zu einer toten Metapher beobachten, „Surfen“ ist inzwischen das „Tischbein“ des „Internets“. e) die Rhetorizität der Technik Was lässt Technik selbst rhetorisch sein, was macht ihre Rhetorizität31 aus? Betrachtet werden kann dabei, wie Technik als Technik, wie sie technisch kommuniziert und mit sich technisch kommunizieren lässt und so Persuasionsstrategien verfolgt. Bolz lässt, wie oben dargelegt, anklingen, dass Gestaltung, Formgebung, Design32 gleichsam als Rhetorik der Technik angesehen werden können. In ihrer Gestaltung lädt Technik zu einem intuitiven Umgang mit sich ein und macht so ihren technischen Charakter vergessen. Sie appelliert an den Pathos, stellt einen affektiven Umgang gegen ihren technisch-nüchternen Logos. Zu untersuchen wäre 29 30 31
32
Campe, Rüdiger: Von der Theorie der Technik zur Technik der Metapher. Blumenbergs systematische Eröffnung: In: Haverkamp, Anselm; Mende, Dirk (Hg.): Metaphorologie. Zur Praxis von Theorie. Frankfurt am Main 2009. S. 285. Bolz, Die Wirtschaft des Unsichtbaren, a. a. O., S. 116. „Mit ‚Rhetorizität‘ wird allgemein das ‚Rhetorisch-sein‘ von Kommunikation zum Ausdruck gebracht, also dass ein kommunikativer Akt sich rhetorischer Mittel bedienen kann, um die angestrebte Persuasion und Wirkung zu erzielen.“ Friedrich, Volker: Wörterbuch – Begriffe für die Form und für die Gestalter. In: ders. (Hg.): Sprache für die Form – Forum für Design und Rhetorik. http://www.designrhetorik.de/?page_id=1149 (Permalink). „Die ‚Rhetorizität der Gestaltung‘ sieht in Wirkungsintentionalität, -steuerung und -erzielung die Schlüssel zum Verständnis der Persuasion von Gestaltung. Dabei spielt der Begriff der Angemessenheit (aptum, decorum) eine zentrale Rolle. Zum Verständnis der Rhetorizität von Gestaltung kann die Rhetorik dem Design an die Seite treten und ihm einen Begriffsapparat liefern, mit dem gestalterische Zusammenhänge erfasst, benannt und differenziert werden können.“ ders., ebd.
Zur Rhetorik der Technik
257
beispielsweise die Rhetorik technischer Gesten. Der Erfolg moderner Produkte der Kommunikationstechnik, die durch gleichsam natürliche Fingergesten gesteuert werden, wird gern mit ihrer intuitiven Selbstverständlichkeit erklärt; dabei wird übersehen, dass genau darin ein rhetorisches Konzept liegt, eine persuasive Strategie, eine Überzeugungstechnik der Technik. Wie entsteht Persuasion durch Technik? Aus rhetorischer Warte selbstverständlich wie jede Persuasion: durch Appelle an Logos, Ethos und Pathos. Zu untersuchen wäre, wie diese Appelle von, durch, mit Technik im Detail hervorgerufen werden. Zu Persuasionsstrategien gehören Appelle an den Logos, was Fragen aufwirft: Wie entwickeln Technik und Technikrhetorik Argumentationen? Wie wird Technikrhetorik als Mittel der Persuasion eingesetzt, wie entwickelt sie technikspezifisch Persuasion und kommunikative Wirkung? Wie werden aus kommunikativen Angeboten, die technikimmanent sind, technischen Artefakten innewohnen, persuasive Strategien und Argumentationen abgeleitet, wie verbalisiert, wie wirkungsvoll kommuniziert? Sodann: Wie wird mittels der Bezugnahme auf Technik versucht, Argumentationen aufzubauen, zu stützen oder zu widerlegen? Wie Technik beschrieben wird, lenkt, wie Technik genutzt, verstanden, akzeptiert wird. Für Technik einzunehmen, sei es den Nutzer oder die Gesellschaft, ist ein Akt der Persuasion, also ein rhetorischer Akt – der ein weites Feld rhetorischer Forschung eröffnet. f) eine Narratologie der Technik In Homers „Odyssee“ findet sich eine frühe Darstellung des Baus eines Segelschiffes33, die keiner Bauanleitung entspricht, rhetorisch aber die Faszination und Ästhetik des technischen Schaffens einfängt. Odysseus wird immer wieder als der „erfindungsreiche“ Odysseus apostrophiert, ein früher Ingenieur, der alle Prüfungen nicht nur wegen seiner Tugenden, sondern wegen der Beherrschung elaborierter Technik besteht. Die Geschichte des Erzählens hat sich also schon in ihren frühen Zeugnissen der Technik zugewandt, sie zum Gegenstand des Erzählens gemacht und für ihre Erzählstrategien genutzt. Darin hat sich bis heute nichts geändert. Die Science-Fiction-Literatur entwirft Zukunftsvisionen von Technik, manchmal dürften sie Utopie bleiben, manchmal werden sie erstaunlich schnell Realität. Das findet sich bereits im ersten deutschen Science-Fiction-Roman, Kurd Laßwitz’ „Auf zwei Planeten“, der 1897 erschien.34 Technisch (und sittlich) den Menschen hoch überlegene Marsmenschen kommen auf die Erde, um in den großen Wüsten Sonnenkraftwerke zu errichten, denn ihre High-Tech-Kultur ist energiehungrig – eine Idee, die rund 100 Jahre später aufgegriffen wurde. Technik spielt nicht allein in literarischen Gattungen, sondern natürlich auch in anderen Erzählmedien – Theater, Hörspiel, Oper, Film – eine Rolle, im Film oft sogar als treibende Kraft der Erzählung. Spielfilme nehmen häufig vorweg, was die Technik später zum Standard macht. So zeigten Filme Gestensteuerung von Benutzeroberflächen, die nach nicht allzu langer Zeit in realen Produkten genutzt wurde; 33 34
Homer: Odyssee. 5,243–5,261. In: ders: Ilias. Odyssee. München 1982(2). S. 508 f. Laßwitz, Kurd. Auf zwei Planeten. Frankfurt am Main 1984(2).
258
Volker Friedrich
Entwickler von Militärtechnik ließen sich durch Filme inspirieren, sich selbststeuernde Kampfroboter sollen nun Soldaten ersetzen.35 Gerade Hollywood kann als visionäre Ideenschmiede technischer Entwicklung angesehen werden. Eine Narratologie der Technik nähme Fragen auf wie: Welche Geschichte(n) erzählt Technik? Wie wird Technik in Geschichten vermittelt? Wie wird sie in Geschichten entworfen? Welche Erzähltechniken werden eingesetzt, wenn Technik erzählt wird? g) die Geschichte der Rhetorik der Technik Welche Geschichte hat die Rhetorik der Technik? In welcher Wechselwirkung steht sie zur Technikgeschichte? Derlei Fragen ginge eine Geschichtsschreibung der Rhetorik der Technik nach. Eine diachronische Betrachtung der Rhetorik der Technik dürfte interessante Ergänzungen zur Technikgeschichte anbieten. Ein Ausgangsvermutung wäre, dass Technik erst dann, wenn sie wirkungsvoll zur Sprache kam, eine gesellschaftliche Akzeptanz erzielte. Ein weiterer Ansatz läge in einer synchronischen Betrachtung der Technikrhetorik in bestimmten Phasen technischer Entwicklungen: Ist in unterschiedlichen technikrhetorischen Persuasionsstrategien ein Grund dafür zu finden, dass eine oder dass keine breite gesellschaftliche Akzeptanz für bestimmte technische Neuerungen zu erzielen war und ist? h) die Wechselwirkungen zwischen Technik und Rhetorik der Technik Wie beziehen sich Technik und Sprechen über Technik aufeinander, wie treten sie in eine Wechselwirkung? Verändern sich technische Entwicklung und Nutzung durch die Rhetorik, mit der sie vermittelt werden? Dieser Punkt h) wie auch der vorherige g) eröffnen einen Meta-Diskurs der Technikrhetorik. Aber vor dem Meta-Diskurs müsste wohl erst ein Anfang gemacht werden. Die obige Liste ist dafür selbstredend nur Fragment – und böte gern eine Anregung, nicht allein, doch eben auch für einen Technikphilosophen wie Klaus Kornwachs.
35
Von solchen Elementen leben viele der Verfilmungen der Marvel-Comics, z. B. die „IronMan“-Reihe.
Zur Rhetorik der Technik
259
LITERATUR Blumenberg, Hans: Ästhetische und metaphorologische Schriften. Frankfurt am Main 2014(4). Bolz, Norbert: Das Gestell. München 2012. Bolz, Norbert: Die Wirtschaft des Unsichtbaren. Spiritualität – Kommunikation – Design – Wissen: Die Produktivkräfte des 21. Jahrhunderts. München 1999. Campe, Rüdiger: Von der Theorie der Technik zur Technik der Metapher. Blumenbergs systematische Eröffnung: In: Haverkamp, Anselm; Mende, Dirk (Hg.): Metaphorologie. Zur Praxis von Theorie. Frankfurt am Main 2009. Ceccarelli, Leah: Rhetoric of Science and Technology. In: Mitcham, Carl (Hg.): Encyclopedia of Science, Technology, and Ethics. Bd. 3. Detroit 2015. S. 1625–1629. Cutcliffe, Stephen H.: Science, Technology, and Society Studies. In: Mitcham, Carl (Hg.): Encyclopedia of Science, Technology, and Ethics. Band 4. Detroit 2015. S. 1723–1726. Gross, Alan G.: The Rhetoric of Science. Cambridge, Massachusetts; London 1996(2). Gross, Alan G.; Harmon, Joseph E.: Science from Sight to Insight. How Scientists Illustrate Meaning. Chicago 2014. Gross, Alan G.; Harmon, Joseph E.; Reidy, Michael S.: Communicating Science: The Scientific Article from the 17th Century to the Present. West Lafayette 2002. Gross, Alan G.; Keith, William M. (Hg.): Rhetorical Hermeneutics: Invention and Interpretation in the Age of Science. Albany 1997. Gross, Alan G.; Gurak, Laura J. (Hg.): The State of Rhetoric of Science and Technology. Technical Communication Quarterly. Special Issue. Volume 14. Number 3. Summer 2005. Gross, Alan G.: Starring the text. The place of rhetoric in science studies. Carbondale 2006. Harmon, Joseph E.; Gross; Alan G.: The craft of scientific communication. Chicago 2010. Homer: Ilias. Odyssee. München 1982(2). Hubig, Christoph: Technik als Medium. In: Grunwald, Armin (Hg.): Handbuch Technikethik. Darmstadt 2013. S. 118–123. Kalivoda, Gregor; Zinsmaier, Thomas: Rhetorik. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik, Bd. 7. Tübingen 2005. Sp. 1423–1429 (gesamter Eintrag: Sp. 1423–1740). Kant, Immanuel: Kritik der Urteilskraft. Werkausgabe, Bd. 10. Frankfurt am Main: Suhrkamp Verlag, 1981(5). Klüsener, Bea; Grzega, Joachim: Wissenschaftsrhetorik. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik, Bd. 10: Nachträge. Tübingen 2012. Sp. 1486–1508. Kornwachs, Klaus: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000. ders.: Philosophie der Technik. Eine Einführung. München 2013. Laßwitz, Kurd. Auf zwei Planeten. Frankfurt am Main 1984(2). Perelman, Chaïm; Olbrechts-Tyteca, Lucie: Die neue Rhetorik. 2 Bde. Stuttgart 2004. Postman, Neil: Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert. Berlin 2001. Scheuermann, Arne; Vidal, Francesca (Hg.): Handbuch Medienrhetorik. Berlin, Boston 2016. Stroh, Wilfried: Die Macht der Rede. Eine kleine Geschichte der Rhetorik im alten Griechenland und Rom. Berlin 2011. Toulmin, Stephen Edelston: Der Gebrauch von Argumenten. Kronberg im Taunus 1975. Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in der Kultur der konkreten Virtualität. Mössingen-Talheim 2010.
V. KULTUR DER TECHNIK: KÖNNEN WIR LEBEN, WAS WIR TUN?
TECHNIK ALS ERKENNTNIS- UND FORMPROZESS Steffen W. Groß „Wir suchen also in der Technik eine Idee.“1
GEMACHT – UND MACHTVOLL Begriffsverwirrungen, Ubiquitäten und Zwiespältigkeiten „Technik“ ist einer jener Groß-Begriffe, den jeder von uns beinahe täglich in irgendeiner Gesprächssituation verwendet, liest oder hört. Und wie bei nahezu allen so häufig gebrauchten Wörtern scheint es auch hier klar und selbstverständlich zu sein, was unter „Technik“ zu verstehen ist. Bilder und Vorstellungen erscheinen im Nu vor unserem geistigen Auge. Das Wort „Technik“ ist auch deshalb allgegenwärtig, weil es seit längerem geübte Praxis ist, alle möglichen Phänomene der Alltagskultur mittels den technischen Diskursen entlehnten Metaphern auszudrücken und zu kommunizieren. Man denke beispielsweise an die gängige Beschreibung ökonomischer Vorgänge und Probleme mit Begriffen, die vorzugsweise der Automobiltechnik entnommen werden. So entsteht ein Bild der Volkswirtschaft, das dem eines komplizierten technischen Apparates sehr ähnelt und in der Öffentlichkeit verbreitet sich die Auffassung, Volkswirte und Wirtschaftspolitiker seien eine Unterart des Kraftfahrzeug-Ingenieurs, die mit der Aufgabe betraut ist, den „Motor“ der Wirtschaft am Laufen zu halten und dafür zu sorgen, dass die Konjunktur „anspringt“ und alsbald „Fahrt aufnimmt“. „Technik“ ist schon aufgrund der vielen möglichen Kopplungen in andere Bereiche kulturellen Gestaltens hinein von besonderer Dominanz und wohl daher auch mit besonderen Erwartungen ausgestattet. Das Wort „Technik“ vermag sodann heftige Emotionen auszulösen. Es kann verheißend klingen, aber auch ängstigend und Unbehagen erzeugend. Für letzteres steht aktuell die sehr emotional geführte Debatte um die „Digitalisierung der Volkswirtschaften“, die von nicht wenigen als eine große Gefahr angesehen und mit dem Szenario rasch steigender Arbeitslosigkeit aufgrund der Befürchtung, dass ganze Berufszweige verschwinden bzw. eine radikale Entwertung von Qualifikationen und individuellen Lebensleistungen eintritt, verbunden wird. „Technik“, so scheint es, teilt sich den von ihr in irgendeiner Weise Beeinflussten oder Betroffenen als ein fremder Sachzwang mit2. Technik erscheint als fremde Macht, in der der Mensch sich selbst fremd zu werden scheint, 1 2
Zschimmer, Eberhard: Philosophie der Technik. Vom Sinn der Technik und Kritik des Unsinns über die Technik. Jena 1914. S. 28. s. Recki, Birgit: Technik als Kultur. Plessner, Husserl, Blumenberg, Cassirer. In: Zeitschrift für Kulturphilosophie, 2013/2, S. 289–303, hier bes. S. 300.
264
Steffen W. Groß
als Schöpfer von Werken, die ein Eigenleben beginnen, eine Eigenlogik etablieren, Werke und Wirkungen, die er nicht ganz versteht. Georg Simmel hat unter anderem darin, im nicht entscheidbaren Konflikt von subjektivem und objektivem Geist, den Grund der „Tragödie der Kultur“3 gesehen; und eine nach wie vor eindringlichbeeindruckende Verarbeitung der Ambivalenz menschlicher Gestaltungsmacht mit künstlerischen Mitteln hat Johann Wolfgang Goethe 1797 mit seinem Gedicht „Der Zauberlehrling“4 und der Beschreibung von dessen verzweifelten Versuchen des Fassen-Wollens aber nicht Fassen-Könnens versucht. Die Einführung und schnell massenhafte Verbreitung bestimmter Technologien, deren Integration in den Alltag, verändern seit Beginn des 19. Jahrhunderts beschleunigt und nachhaltig die Wahrnehmung der natürlichen wie der sozialen Umwelten sowie die Perspektiven auf den Menschen selbst. So bringt der Bau und die Nutzung von Eisenbahnen, die damit einhergehende Möglichkeit von Massenmobilität, eine Veränderung der Raum-Zeit-Wahrnehmung mit sich, die in zeitgenössischen Berichten oft als eine durchaus ambivalente Erfahrung beschrieben wird. Die Erfindung und die Verbreitung der Fotografie verändern die Wahrnehmung von Landschaften und von Menschen – gerade auch dies führt zu neuen, anderen Selbst-Wahrnehmungen durch die zwischengesetzte Technik. Gegenbewegungen unter dem Motto „Zurück zur Natur“ wirken bald hilflos verloren und werden schnell belächelt. In dieser Hinsicht kann das 19. als ein Schlüsseljahrhundert gelten und Jürgen Osterhammel hat nur zu Recht von der „Verwandlung der Welt“5 gesprochen, die sich im Zuge der Industrialisierung des Wirtschaftens, der Technisierung des Alltags und der globalen Verbreitung von Technik vollzieht und die sich als unumkehrbar erweist. Es sind, bei näherer Betrachtung nur wenig verwunderlich, die Kunst und die Künstler, die sehr sensibel auf die Frag-Würdigkeit von Technik und ihrer Verbreitung reagieren und sie verarbeitend zu verstehen suchen. Die folgende Passage aus dem Aufsatz Technik und konstruktivistische Kunst des Kunstkritikers und -publizisten Ernst Kállai aus dem Jahr 1922 liefert zum einen eine bemerkenswerte Bestimmung des Begriffs der Technik und zum anderen beschreibt sie eindrucksvoll das Changieren zwischen Faszination an der Technik und den sich aus ihr speisenden neuen Möglichkeiten gerade für Kunst und Künstler einerseits und dem Unbehagen an sich zeigenden neuen Zwängen, Beschränkungen und dem Standardisierungsdruck andererseits: „Die Technik selbst ist ein vom Menschen geschaffenes 3
4 5
„Das große Unternehmen des Geistes, das Objekt als solches dadurch zu überwinden, daß er sich selbst als Objekt schafft, und mit der Bereicherung durch diese Schöpfung zu sich selbst zurückzukehren, gelingt unzählige Male; aber er muss diese Selbstvollendung mit der tragischen Chance bezahlen, in der sie bedingenden Eigengesetzlichkeit der von ihm selbst geschaffenen Welt eine Logik und Dynamik sich erzeugen zu sehen, die die Inhalte der Kultur mit immer gesteigerter Beschleunigung umd immer weiterem Abstand von dem Zwecke der Kultur abführt.“ Simmel, Georg: Der Begriff und die Tragödie der Kultur. In: ders.: Philosophische Kultur. Gesammelte Essais. Leipzig 1911. S. 277. Goethe, Johann Wolfgang: Der Zauberlehrling. In: Erich Trunz (Hg.): Goethes Werke. Hamburger Ausgabe. Bd. I. München 1998. S. 276–279. Osterhammel, Jürgen: Die Verwandlung der Welt. Eine Geschichte des 19. Jahrhunderts. München 2016(2).
Technik als Erkenntnis- und Formprozess
265
Werk, aus einer logisch beherrschten Schicht des Bewusstseins in den Kreis roher oder vorbereiteter natürlicher Energien und Materialien projiziert. Die einfachen und streng gesetzmäßigen Bezüge ihrer Raumformen schaffen ein System, das gänzlich auf sich selbst beruht, eine reine Selbstbeherrschung ist und sein Wesen an allen Punkten zu überschauen vermag. Dieser typisierte Gehalt steht über allen Labyrinthen subjektiver Gefühle und Instinkte, über Tragödien und pathetischen Anstrengungen. Er duldet keinerlei individuelle Ausschweifungen, bietet der isolierten Einsamkeit von Stimmungen keinen Raum. Dies sind enorme Antriebe für einen Geist, der sich (…) sein eigenes Gerüst als das Skelett der neuen, von tragischen Lasten befreiten Lebensordnung und -gemeinschaft schaffen will.“6 In den Diskursen unseres Alltags dominiert ein vordergründig ingenieur-technischer Begriff von Technik. Wenn wir das Wort „Technik“ hören, dann denken wir beinahe unweigerlich an – eben technische – Geräte aller Art, Maschinen, Werkzeuge, Computer, Verkehrsmittel usw. Ich nenne dies den apparatenhaften Alltagsbegriff von Technik. Überdies ist dieser Technik-Begriff stark von ökonomisch eingefärbten Vorstellungen von „Nützlichkeit“ durchwaltet: Technik soll uns „das Leben leichter“ machen und es nach Möglichkeit verlängern, sie soll uns die Mühsal körperlich schwerer und/oder geistig stupider Arbeiten abnehmen, neue Möglichkeiten eröffnen, die möglichst ohne negative Nebenfolgen bleiben, forcierter Technikeinsatz soll sich (in welcher Form auch immer) „auszahlen“ – „Technik“ und (zu realisierende) „Utopie“ sind verschwistert und stehen unter der Vorherrschaft instrumenteller Imperative. Womöglich zeichnet sich hier ein schwerwiegendes Problem ab, das maßgeblich zu Begriffsverwirrungen von „Technik“ und gesellschaftlichen wie auch individuellen Zwiespältigkeiten in der Haltung zu Technik beiträgt: Wir gehen vorschnell vom fertigen technischen Produkt der Technik aus. Technik wird zuvorderst, wie schon die gerade zitierte Stelle aus dem Aufsatz von Ernst Kállai aufweist, als Werk wahrgenommen. Das Wirken bekommt hingegen weit weniger Aufmerksamkeit und Interesse. Wir neigen dazu, den immer in der Zeit verlaufenden kreativen Prozess der Technikentwicklung zu ignorieren, wir nehmen Technik erst zur Kenntnis und betrachten sie durchaus kritisch, nachdem der sich der aufgewirbelte Staub gelegt hat, wenn sie „fertig“ vor uns steht. Dies befeuert nur die Illusion, dass es sich bei Technik um etwas Objektives und Rationales im strengsten Sinne handeln würde. Technik scheint in der als weitgehend entzaubert geltenden Welt als weiteres „stahlhartes Gehäuse“ neben die von Max Weber so gekennzeichnete Bürokratie zu treten. Diese Wahrnehmungsweise ist es auch, die schließlich zur Grundlage des Hauptstromes der westlichen Technikkritik seit dem Ende des 19. Jahrhunderts geworden ist. Eine avanciertere und nach wie vor durchaus bedenkenswerte Kritik legt den Finger dabei auf eine weitere wunde Stelle: Der amerikanische Philosoph und Kulturkritiker Charles Frankel wies in seiner kulturkritischen Schrift „The Case of Modern Man“ 1955 darauf hin, dass bei aller Technikbegeisterung (oder eben auch -verdammung) ein wichtiger Aspekt aus dem Blick zu geraten droht: Die 6
Kállai, Ernst: Technik und konstruktivistische Kunst [1922]. In: ders.: Vision und Formgesetz. Aufsätze über Kunst und Künstler 1921–1933. Leipzig und Weimar 1986. S. 13 (Hervorhebungen im Original).
266
Steffen W. Groß
Entscheidung für die Verwendung und massenhafte Verbreitung einer neuartigen Technologie (Frankel selbst nimmt insbesondere das damals – 1955 – in den USA gerade zum technischen Massenmedium aufgestiegene Fernsehen als Beispiel) ist eine soziale Entscheidung mit sozialen Konsequenzen: “The decision as to when, where, and how to introduce a technological change is a social decision, affecting an extraordinary variety of values. And yet these decisions are made in something very close to a social vacuum. Technological innovations are regularly introduced for the sake of technological convenience, and without established mechanisms for appraising or controlling or even cushioning their consequences.”7 Darin liegt für Frankel nichts weniger als die Gefahr des Zerreißens von für die Kultur insgesamt unverzichtbarer, weil lebensnotwendiger Wirkungszusammenhänge. Als weiteres Problem in diesem Kontext identifiziert Frankel die Gespaltenheit der öffentlichen Wahrnehmung, die, durchaus aktuell, dem Ingenieur, seinen Leistungen, den MINT-Fächern in Schule und Universität eine unbedingte Vorrangstellung einräumen und auf der Skala gesellschaftlicher Wichtigkeit in den oberen Bereich platzieren – und damit ein weiteres Mal Spannungszusammenhänge in der komplexen Kultur zugunsten einer Seite entscheiden: „The engineers, we say with pride, are the true revolutionaries. We forget to add that if they came dressed as social planners many of us would regard them as tyrants. (…) The problem cannot be met by reminding engineers of their social responsibilities, or by calling conferences to discuss the human use of human inventions. The problem is institutional.“8 „Institutional“ ist der interessante Begriff in diesem Zusammenhang, dem etwas mehr Aufmerksamkeit geschenkt werden sollte. Ich verstehe ihn hier in sehr grundsätzlicher Weise, d. h. in Begriffen sehe ich zentrale Institutionen unseres Wahrnehmens, Denkens, Be-Greifens. Um das von Frankel identifizierte „institutional problem“ zu verstehen und aufzuschließen, bedarf es daher zuvor einer Tieferlegung auf der institutionellen Ebene der Begrifflichkeiten. Mithin geht es darum, auf die notwendige harte Arbeit am Begriff zu verweisen. Und hier ist es erforderlich, einen engeren von einem weiteren Begriff von „Technik“ zu unterscheiden: „Technik“ erschöpft sich eben nicht in ihrem Dasein als „Werk“, in ihren konkreten Hervorbringungen als Apparate. In Spannung dazu steht eine zweite Seite des Technik-Begriffes, der die prozessuale Dimension des Technischen betont und beschreibt. Dieser ist schließlich auch in den Diskursen des Alltags immer wieder präsent, wenn auch zumeist in anderen Kontexten: Etwa dann, wenn wir von den sogenannten „Kulturtechniken“ sprechen und damit grundlegende Verfahren des Sich-Bildens und der Wissensgewinnung meinen. Hierin wird Technik ausdrücklich nicht als fertiges Produkt, als Ergebnis menschlicher Leistungen verstanden, sondern im Gegenteil als erst Möglichkeiten bedingende, hervorbringende und aufschließende Voraussetzung von menschlichen Leistungen. Technik erscheint hier geradezu als Bedingung der Möglichkeit zu etwas.
7 8
Frankel, Charles: The Case for Modern Man. New York 1955. S. 198. ebd.
Technik als Erkenntnis- und Formprozess
267
„TECHNIK“: ENERGIE DES GEISTES UND UNABSCHLIESSBARER PROZESS ZUR FORM Daher möchte ich die Aufmerksamkeit stärker auf diesen dynamischen, prozesshaften, Formen bildenden Aspekt der Technik (oder vielleicht besser: des Technischen) lenken. Mein Gewährsmann dabei ist Ernst Cassirer, der es als einer der ersten unternahm, nicht das Werk, sondern ausdrücklich das Wirken der Technik im und für den Aufbau der Kultur umfassend verstehbar werden zu lassen. Und dieses Wirken findet immer in der Zeit statt. Damit stellen sich uns Technik – wie Kultur insgesamt – als geschichtliche Welten dar. Ein Verständnis von – und für – Technik als Wirken und nicht als Werk wird möglich vor dem Hintergrund des differenzierten Form-Begriffs, mit dem Cassirer arbeitet, d. h. Kulturphänomene und -leistungen zu erfassen und zu begreifen sucht. In seinem Aufsatz „Form und Technik“9 (1930), den ich als eine Erweiterung der „Philosophie der symbolischen Formen“ um eben die symbolische Form der Technik sehe, wendet Cassirer einen differenzierenden Form-Begriff an. Da ist die forma formata als das fertig Geformte, zu seiner Form Gekommene, das Werk. Und in Spannung dazu steht die forma formans, die Formung, das zur Form Kommende und zugleich sich der abschließenden Form Entziehende, das Wirken. Es gibt keinen Zweifel daran, welchem der beiden Form-Begriffe das Hauptinteresse Cassirers gilt. Das „Sein“ von Schöpfungen der Kultur soll als Prozess, als Tätigkeit, als Formgebung wahrgenommen und konzeptionalisiert werden. So geht mit der Formgebung immer eine Sinngebung einher. Die erkenntniskritische Voraussetzung dafür hatte Cassirer mit seinem bereits 1910 erschienen Buch „Substanzbegriff und Funktionsbegriff“10 gelegt. Um kulturelle Leistungen zu begreifen, müssen wir ihre Funktionen konzeptionalisieren. Substanzbegriffe helfen uns in diesem Bemühen kaum weiter. Geistige Leistungen und ihre Ergebnisse sind keine vor uns liegenden Dinge, die distanziert betrachtet werden können. Vielmehr entspringt ihr Sinn für uns aus ihrem Funktionieren, das zudem in vielfachen Verweisungszusammenhängen steht, diese erst schafft und fortwährend um-schafft. Damit aber wird das Betrachten selbst zum Tun und zum Erleben, nicht zuletzt als sich-selbst-Erleben im Tun. Im Aufsatz „Form und Technik“ wendet Cassirer diesen Ansatz konkret auf das Kulturphänomen der Technik und des technischen Gestaltens an. Und so kann es nur als konsequent gelten, wenn er dort schreibt: „Denn das ‚Sein‘ der Technik lässt sich selbst nicht anders als in der Tätigkeit erfassen und darstellen. Es tritt nur in ihrer Funktion hervor; es besteht nicht in dem, als was sie nach außen hin erscheint und als was sie sich nach außen gibt, sondern in der Art und Richtung der Äußerung selbst: in dem Gestaltungsdrang und Gestaltungsprozess, von dem diese Äußerung 9 10
Cassirer, Ernst: Form und Technik. In: Kestenberg, Leo (Hg.): Kunst und Technik. Berlin 1930. S. 15–62; zudem in: Birgit Recki (Hg.): Ernst Cassirer Gesammelte Werke (ECW). Bd. 17: Aufsätze und Kleine Schriften 1927–1931. Hamburg 2004. S. 139–183. ders: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntniskritik [1910], ECW, Bd. 6. Hamburg 2000.
268
Steffen W. Groß
Kunde gibt. So kann das Sein hier nicht anders als im Werden, das Werk nicht anders als in der Energie sichtbar werden.“11 Allerdings bezeichnet Cassirer diese Situation als ein „neues Dilemma“12. Ein Dilemma verweist auf auf eine schwierige Entscheidungssituation zwischen zwei oder mehreren gleichermaßen wenig angenehmen Alternativen und treibt in die Suche nach einem Ausweg, nach einem sicheren Standort. Der darin liegende Antrieb jedoch ist in vorzüglicher Weise Weg-weisend, treibt aus dem Gewohnten und aus den attraktiven, weil bequemen, Scheinplausibilitäten heraus. In Dilemmata liegen somit Entwicklungschancen, die es zu ergreifen gilt. Und so wird bald sichtbar, dass sich Technik keineswegs im statischen Werk, im Erzeugten, erschöpft, sondern als eine dynamische „Weise und Grundrichtung des Erzeugens“13, der zu folgen wäre, erfasst werden soll. Und geht man dieser „Grundrichtung des Erzeugens“ nach, dann zeigt sich, dass Technik durchaus die Funktionen einer „symbolischen Form“14 erfüllt: Technik schafft und erschließt – wie bzw. neben der Sprache, dem Mythos, der Wissenschaft, der Religion und der Kunst – eine eigenständige Wirklichkeit. Und gerade diese Eigenständigkeit der technischen Wirklichkeit ist es wohl, die uns nicht selten Unbehagen bereitet. Symbolische Formen aber sind Energien des Geistes. Und in der Technik drückt sich ein weiteres Mal diese Energie aus wie sie zugleich im Durchgang und mittels der geschaffenen technischen Werke Wirklichkeiten erschließt und, in ihrer utopischen Funktion, neue Möglichkeiten aufscheinen lässt. Energien des Geistes sind poietischer Natur – mit offenem Ausgang. Im Falle der Technik nun erweisen sie sich als dialektische Verschränkung von Grenzenlosigkeit und Begrenztheit. Einen Hinweis darauf lieferte Max Eyth, der 1904 für einen Vortrag schon titelgebend Poiesis und Technik in einen Formen bildenden Zusammenhang bringt: „Technik ist alles, was dem menschlichen Wollen eine körperliche Form gibt. Und da das menschliche Wollen mit dem menschlichen Geist fast zusammenfällt, und dieser eine Unendlichkeit von Lebensäußerungen und Lebensmöglichkeiten einschließt, so hat auch die Technik, trotz ihres Gebundenseins an die stoffliche Welt, etwas von der Grenzenlosigkeit des reinen Geisteslebens überkommen.“15 In gewisser Weise 11 12 13 14
15
ders., Form und Technik, ECW, Band 17, S. 147. ebd. ebd., S. 148. Die wohl beste Bestimmung des Konzepts der „symbolischen Form“, die durch die Betonung des unauflösbaren Spannungsbogens aus passivem Aufnehmen und aktiver Ausdrucksleistung besticht, leistet Cassirer in seinem Aufsatz „Der Begriff der symbolischen Form im Aufbau der Geisteswissenschaften“ von 1923. Dort heißt es: „Unter einer ‚symbolischen Form‘ soll jede Energie des Geistes verstanden werden, durch welche ein geistiger Bedeutungsgehalt an ein konkretes sinnliches Zeichen geknüpft und diesem Zeichen innerlich zugeeignet wird. In diesem Sinne tritt uns die Sprache, tritt uns die mythisch-religiöse Welt und die Kunst als je eine besondere symbolische Form entgegen. Denn in ihnen allen prägt sich das Grundphänomen aus, daß unser Bewusstsein sich nicht damit begnügt, den Eindruck des Äußeren zu empfangen, sondern daß es jeden Eindruck mit einer freien Tätigkeit des Ausdrucks verknüpft und durchdringt.“ ders.: Der Begriff der symbolischen Form im Aufbau der Geisteswissenschaften [1923], ECW, Bd. 16, S. 79. Eyth, Max: Poesie und Technik. In: ders.: Lebendige Kräfte. Sieben Vorträge aus dem Gebiet der Technik. Berlin 1924(4). S. 1 f.
Technik als Erkenntnis- und Formprozess
269
verweist diese Passage auf die den symbolischen Formen innewohnende Dialektik, einerseits immer kulturelle Leistungen und insofern Ergebnis menschlichen Wollens und Handelns zu sein, und zugleich andererseits Erschließungsweisen von Wirklichkeiten und damit wiederum Voraussetzung und Möglichkeitsbedingung von weiteren kulturellen Leistungen. Mit den Artefakten der Technik wird Physisches gestaltet, was die Energien des Geistes fürderhin kanalisiert, ihnen Richtung gibt und Form verleiht. Ganz im Sinne dieser Dialektik verstehe ich Cassirers Vorschlag, in der Technik schließlich eine „Bezwingerin der chaotischen Kräfte im Menschen selbst“16 zu sehen. Damit wird Technik, in gewisser Weise Kállais These von der „reinen Selbstbeherrschung“ und dem „typisierten Gehalt“ verstärkend, zur Bedingung der Möglichkeit von Freiheit, einer Freiheit, die ohne Begrenzungen keine sein kann. Womöglich kommt dies der gesuchten „Idee in der Technik“ ein wenig näher. Es ist die Idee der Freiheit, die wir in der Technik als einem schöpferischen Bilden und Wirken suchen und in konkreten Formen begreifen können.
16
Cassirer, Form und Technik, a. a. O., S. 183.
270
Steffen W. Groß
LITERATUR Cassirer, Ernst: Der Begriff der symbolischen Form im Aufbau der Geisteswissenschaften. In: Birgit Recki (Hg.): Ernst Cassirer Gesammelte Werke (ECW). Bd. 16: Aufsätze und Kleine Schriften 1922–1926. Hamburg 2003. S. 75–104. ders.: Freiheit und Form [1930]. In: ECW. Bd. 17: Aufsätze und Kleine Schriften 1927–1931. Hamburg 2004. S. 139–183. ders.: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntniskritik [1910]. In: ECW. Bd. 6. Hamburg 2000. Eyth, Max: Poesie und Technik. In: ders.: Lebendige Kräfte. Sieben Vorträge aus dem Gebiet der Technik. Berlin 1924(4). S. 1–22. Frankel, Charles: The Case for Modern Man. New York 1955. Goethe, Johann Wolfgang: Der Zauberlehrling. In: Erich Trunz (Hg.): Goethes Werke. Hamburger Ausgabe. Bd. I. München 1998. S. 276–279. Kállai, Ernst: Technik und konstruktivistische Kunst [1922]. In: ders.: Vision und Formgesetz. Aufsätze über Kunst und Künstler 1921–1933. Leipzig und Weimar 1986. S. 11–16. Osterhammel, Jürgen: Die Verwandlung der Welt. Eine Geschichte des 19. Jahrhunderts. München 2016(2). Recki, Birgit: Technik als Kultur. Plessner, Husserl, Blumenberg, Cassirer. In: Zeitschrift für Kulturphilosophie, 2013/2, S. 289–303. Simmel, Georg: Der Begriff und die Tragödie der Kultur. In: ders.: Philosophische Kultur. Gesammelte Essais. Leipzig 1911. S. 245–277. Zschimmer, Eberhard: Philosophie der Technik. Vom Sinn der Technik und Kritik des Unsinns über die Technik. Jena 1914.
TECHNISCHES SPIEL OHNE GRENZEN?
Ethische und sicherheitstechnische Fragen beim Spiel mit Technik Stefan Poser Tollkühn stürzen sich Teilnehmer eines spielerisch-sportlichen Wettbewerbs mit selbstgebauten Fluggeräten von einem Sprungturm ins Wasser, andere imitieren mit umgebauten „Bobby Cars“ Autorennen, die nächsten fahren immer wieder Achterbahn, um möglichst oft einen mit Schwindel verbundenen Rauschzustand zu genießen, den Roger Caillois als ilinx in die Theorie des Spiels eingeführt hat.1 Wieder andere sitzen Stunden um Stunden vor dem Computer. Der virtuelle Raum ermöglicht ihnen, eine Vielzahl menschlicher Handlungen als Rollenspiel zu imitieren. Technik eignet sich nicht nur hervorragend zum Spielen, sondern hat die Variationsbreite von Spielen seit der Industrialisierung beachtlich erweitert und ihnen mit einer jeweils zeittypischen Ausgestaltung zu ihrer Historizität verholfen.2 Doch wo sind die Grenzen, in welchem Maß darf man mit Technik spielen? Im Spiel – hier eingeschränkt auf das Spiel, das durch Technik ermöglicht wird – gelten offensichtlich andere ethische Regeln als außerhalb des Spiels, weil Handeln im Spiel anderen Zielsetzungen folgt als im Alltag und im Beruf. Um ein plakatives Beispiel zu wählen: ein Mord kann im Spiel (wie auch in der Literatur und im Film) eine Bereicherung oder gar zentraler Inhalt sein; außerhalb des Spiels ist er eindeutig inakzeptabel. Die Zielsetzungen im Spiel sind nach Caillois mit dem Wettkampf agon, dem Glücksspiel alea, dem Rollenspiel mimikry und dem Rausch ilinx verbunden. Charakteristisch und von den Spielenden angestrebt ist in der Regel eine positive, mitunter gelöste und vergnügliche Grundstimmung. Deshalb sind es nicht die Ziele, die als verwerflich erscheinen, sondern eine Reihe von Auswirkungen, die über das Spiel hinausgehend von gesellschaftlicher Relevanz sind. Dieser Beitrag zielt darauf, aus technikhistorischer Perspektive Grenzen des Akzeptablen für verschiedene Formen des Spiels auszuloten; dabei wird sich zeigen, dass die damit verbundene Technikethik zeit- und gesellschaftsabhängig variiert. Beispiele beziehen sich auf das Jahrmarktsvergnügen, den Sport, Computerspiele und „intelligentes“ Spielzeug sowie das freie Spiel. Im Folgenden wird von einem Technikbegriff ausgegangen, der in Anlehnung an Günter Ropohl Artefakte, Sachsysteme und Handlung umfasst3, aber auf die Zweckrationalität als Krite1 2 3
Caillois, Roger: Les jeux et les hommes. Le masque et le vertige (1958); engl.: Man, Play and Games. New York 1961; dt.: Die Spiele und die Menschen. Maske und Rausch. Stuttgart 1960 (zitierte Ausgabe: Frankfurt am Main 1982). S. 32 f., S. 151 f. s. Poser, Stefan: Glücksmaschinen und Maschinenglück. Grundlagen einer Technik- und Kulturgeschichte des technisierten Spiels. Bielefeld 2016. Ropohl, Günter: Zur Technisierung der Gesellschaft. In: Bungard, Walter; Lenk, Hans (Hg.):
272
Stefan Poser
rium für Technik verzichtet und damit einen begrifflichen Freiraum für die spielerische Nutzung und Gestaltung von Technik herstellt4. Zugrunde liegt außerdem ein umfassender Spielbegriff, der Spiel und Vergnügen miteinander verbindet, und Spielresultate zulässt, die über das Spiel hinaus bestehen, sodass Sport, Jahrmarktsvergnügen und Basteln gleichermaßen zum Spiel zählen.5 Er orientiert sich an Ansätzen Johan Huizingas, Roger Caillois’ und Brian Sutton-Smith’ zum Spiel sowie Mihaly Csikszentmihalyis zum flow-Erlebnis, wobei Caillois’ Kategorisierung von Spielen als Leitfaden genutzt wird.6 Um das Spiel mit Technik ethisch vertretbar zu gestalten, muss das Kriterium der Zweckfreiheit und damit der Folgenlosigkeit – so das Eingangspostulat dieses Beitrags – für solche Spiele uneingeschränkt gelten, deren Inhalte und Folgen außerhalb der Spielwelt nicht akzeptabel wären. Allerdings stößt sich die Forderung der Zweckfreiheit an der Realität: Wären Spiele eindeutig zweckfrei und hätten keine Auswirkungen auf das tägliche Leben der Spielenden, so wären Diskurse über die gesellschaftliche Bedeutung von Spielen und wiederkehrende Spielverbote unnötig. JAHRMARKTSVERGNÜGEN Beim Spiel werden regelmäßig Grenzen erreicht und in einigen Fällen sogar überschritten, die in anderen Lebensbereichen gelten. Ein Stück weit „lebt“ das Spiel davon, das Grenzen erreicht, in einigen Fällen sogar verschoben werden: Das Fahrvergnügen bei Achterbahnen basiert darauf, dass an die physische Belastungsgrenze der Fahrgäste herankonstruiert wird, sie Beschleunigungen ausgesetzt sind, die mit großer Wahrscheinlichkeit Schwindel- und Rauschzustände hervorrufen. Wird diese Grenze überschritten, äußert sich das in Übelkeit und Rückenschäden. Solchermaßen traktierte Jahrmarktsbesucher taten sich in den 1950er Jahren zusammen, gründeten einen „Verein der Loopinggeschädigten“ und setzten sich erfolgreich für ein 4
5 6
Technikbewertung. Frankfurt am Main 1988. S. 83. Dieser Ansatz ist auf Definitionen Dessauers und MacKenzie/Wajcmans sowie auf das Konzept der Large Technological Systems von Hughes bezogen, der „even play“ berücksichtigt: Dessauer, Friedrich: Streit um die Technik. Frankfurt am Main 1956(3). S. 234; MacKenzie, Donald; Wajcman, Judy: Introduction Essay. In: dies. (Hg.): The Social Shaping of Technology. How the Refrigerator Got its Hum. Milton Keynes u. a. 1985. S. 3 f.; sowie: Hughes, Thomas P.: The Evolution of Large Technological Systems. In: Bijker, Wiebe E.; Hughes, Thomas P.; Pinch, Trevor J. (Hg.): The Social Construction of Technological Systems. New directions in the sociology and history of technology. Cambridge, London 1987. S. 53. Avedon, Elliott M.; Sutton-Smith, Brian: Introduction. In: dies. (Hg.): The Study of Games. New York u. a. 1971. S. 7; sowie: Salen, Katie; Zimmerman, Eric: Rules of Play – Game Design Fundamentals. London 2004. S. 80. Huizinga, Johan: Homo ludens. Proeve eener bepaling van het spel-element der cultuur. Haarlem 1938/1958, engl.: Homo ludens. A study of the play-element in culture. London 1949, dt: Homo ludens. Vom Ursprung der Kultur im Spiel. Reinbek 1956, 2001(18); sowie: Sutton-Smith, Brian: The Ambiguity of Play. Cambridge, MA, u. a. 1997; sowie: Csikszentmihalyi, Mihaly: Beyond boredom and anxiety (1975); dt.: Das flow-Erlebnis. Jenseits von Angst und Langeweile: im Tun aufgehen. Stuttgart 1985. Siehe dazu: Poser, Glücksmaschinen, a. a. O., S. 39 ff.
Technisches Spiel ohne Grenzen?
273
Betriebsverbot der betreffenden Anlage ein.7 Beides markiert, dass hier beim Technikeinsatz zu Spielzwecken nicht nur körperliche Grenzen, sondern auch Grenzen des gesellschaftlich Akzeptierten, des ethisch Verantwortbaren überschritten wurden. Diese Akzeptanz variiert allerdings in unterschiedlichen Gesellschaften beziehungsweise Gesellschaftsschichten und veränderte sich im Laufe der Zeit. Eine völlig andere Risikoeinschätzung geht beispielsweise aus einem Zeitungsbericht über eine Loopingbahn in San Francisco hervor, dessen Autor sich 1863 dem tatsächlichen Risiko und dem öffentlichen Interesse an riskanten Vorführungen widmet: Unfälle geschähen bei Loopingbahnen, die es in Europa schon seit zwanzig Jahren gebe, hin und wieder. Tatsächlich sei das Unfallrisiko vermutlich nicht höher als bei einer Reise mit dem Zug oder einem Binnenschiff. Aber „the chief charm of these exhibitions … lies simply and purely in the danger they involve. … Sporting men will always bet you odds that the performer of these difficult feats will break his neck within a certain length of time“8. Am amerikanischen Beispiel wird eine erheblich höhere Akzeptanz von technischen Risiken deutlich als ein Jahrhundert später in Deutschland. Um sicherzustellen, dass das Jahrmarktsvergnügen und die damit verbundenen Spiele keine Gesundheitsgefährdung bedeuteten – also diesseits einer ethisch vertretbaren Grenze blieben – waren Fahrgeschäfte als „Fliegende Bauten“ schon frühzeitig einer baupolizeilichen Genehmigung unterworfen, seit den 1930er sind darüber hinaus in Deutschland Untersuchungen des TÜV vorgeschrieben. Schon zu Beginn des 20. Jahrhunderts wurde beim Achterbahnbau klar, dass Fahrvergnügen und Sicherheitsmaßnahmen miteinander verbunden sein müssen, um die Entwicklung gesundheitsverträglich und damit ethisch akzeptabel zu gestalten. So führt Andy Brown, der Chefkonstrukteur des von 1891 bis 1941 tätigen amerikanischen Achterbahndesigners John Miller, dessen Erfolg auf Sicherheitstechnik zurück: Millers „designs were always more thrilling than others because the safety devices he invented allowed them to be more severe“9. Miller entwickelte beispielsweise einen Rückrollschutz, Bremssysteme sowie – dies dürfte seine wichtigste sicherheitstechnische Entwicklung sein – ein Gegenrad, das von unten an die Schienen greift, um den Wagen in allen Positionen vor dem Entgleisen zu bewahren; letzteres ermöglicht den Passagieren später in Kombination mit Schutzbügeln Erlebnisse annähernder Schwerelosigkeit, die zu einem besonderen Merkmal von Achterbahnen wurden und außerhalb des Jahrmarkts kaum zu finden sind. Schon in der Patentschrift von 1919 heißt es entsprechend, die Erfindung „will make riding more sensational but … at the same time will make such riding entirely safe“10. „People thought he [Miller] was going beyond what the body could stand“, 7 8 9
10
Schützmannsky, Klaus: Roller Coaster. Der Achterbahn-Designer Werner Stengel [Begleitbuch der gleichnamigen Ausstellung im Münchner Stadtmuseum]. Heidelberg 2001. S. 48. Centrifugal Railways. In: Daily Evening Bulletin (San Francisco), 23.7.1863; online verfügbar unter http://www.personal.psu.edu/faculty/v/a/vac3/centrifugal.html (Zugriff am: 20.5.2013). Aufzeichnung eines Interviews mit Andy Brown 1973, zitiert nach: Cartmell, Robert: The Incredible Scream Machine. A History of the Roller Coaster. Bowling Green 1987. S. 117. Zu John Miller s. ausführlich Cartmell, a. a. O., S. 117 ff., sowie: Mohun, Arwen P.: Risk. Negotiating Safety in American Society. Baltimore 2013. S. 222 f. Das Millersche Under Friction Wheel wurde 1919 patentiert: Pleasure Railway Structure, John A. Miller. United States Patent Office, Patent 1.319.888, Oct. 28, 1919. Zu Millers Sicherheits-
274
Stefan Poser
erinnert sich Brown.11 Dank Sicherheitstechnik hätten Millers Achterbahnen auf die doppelte Höhe üblicher Bahnen ausgelegt werden können. Sie ermöglichten entsprechend höhere Geschwindigkeiten und Fliehkräfte. Die Optimierung der Sicherheitstechnik wurde hier zu einem Weg, das Fahrerlebnis zu intensivieren und gleichzeitig die Grenzen des ethisch Akzeptablen einzuhalten. Am Beispiel von Millers Konstruktionen wird deutlich, dass für Achterbahnen und ähnliche Jahrmarktsfahrgeschäfte, sogenannte Thrill rides, ein Zusammenhang von technischer und sicherheitstechnischer Entwicklung mit einer Attraktivitätssteigerung der Geschäfte charakteristisch ist, der in ganz ähnlicher Form aus der industriellen Techniknutzung und aus der Mobilitätstechnik bekannt ist: Sicherheitseinrichtungen machen zwar eine vorhandene Technik sicherer, ermöglichen aber gleichzeitig einen nächsten Schritt des Technikeinsatzes. Es entsteht eine Wachstumsspirale von Technikeinsatz und Sicherheitsmaßnahmen, bei der – selbst wenn die Wahrscheinlichkeit eines Unfalls sinkt – das Gefahrenpotential wächst.12 Diese Entwicklung hat bei Thrill rides dazu geführt, dass Fahrgäste während der „Reise“ weitgehend fixiert werden müssen. Zugunsten der „Verabreichung“ eines Rausches ilinx und um ihre Sicherheit zu gewährleisten, müssen sie auf weitere Spielmöglichkeiten während der Fahrt verzichten. Das ethische Motiv, Unfälle zu verhindern, steht hier der Freiheit des Spiels entgegen. In Anbetracht von Höchstgeschwindigkeiten über 150 km/h, Beschleunigungen von fast 5 g (fünffacher Erdbeschleunigung) und Streckenabschnitten, die nahezu im freien Fall zurückgelegt werden, fragt sich allerdings, ob diese Entwicklungsrichtung zur Bereicherung des Spiels noch wünschenswert ist und ob sie weiterhin ethisch vertretbar bleibt, zumal die hohen Geschwindigkeiten und Beschleunigungswerte enorme Energiemengen benötigen und mit entsprechenden Fußabdrücken in der Umweltbilanz verbunden sind. Hierin ähneln Großmaschinen auf dem Jahrmarkt solchen in der Industrie. SPORT Bei einigen Sportarten, die sich durch monotone Bewegungsabläufe wie beim Rudern oder Fahrradfahren auszeichnen, kommt es durch die außerordentliche Anstrengung der Sporttreibenden zu flow-Erlebnissen, sogar zu Rauschzuständen.13
11 12
13
technik-Patenten s. Cartmell, a. a. O., S. 117. Solche Räder wurden in Verbindung mit Seitenrädern zum Standard von Achterbahnfahrzeugen; s. Schützmannsky, a. a. O., S. 97 ff., der eine Skizze eines modernen Fahrzeugs liefert. Interview mit Andy Brown 1973, zitiert nach Cartmell, ebd. Diese Spirale hat überhaupt erst Großanlagen wie Atomkraftwerke mit ihren mehrstufigen Kontrollsystemen oder Hochgeschwindigkeitszüge mit ihrem elektronischen Fahrtüberwachungssystem ermöglicht. Zur Wachstumsspirale im Falle „ernsthafter“ Technikanwendung s. Poser, Stefan: Museum der Gefahren. Die gesellschaftliche Bedeutung der Sicherheitstechnik. Hygiene-Ausstellungen und Museen für Arbeitsschutz in Wien, Berlin und Dresden um die Jahrhundertwende. Cottbuser Studien zur Geschichte von Technik, Arbeit und Umwelt, 3. Münster u. a. 1998. S. 211. Der Lehrer und Ruderlehrer Goldbeck beschreibt das flow-Erlebnis lange vor der zugehörigen Theoriebildung: Goldbeck, Ernst: Unsere Jungen beim Rudersport. Psychologische Analysen
Technisches Spiel ohne Grenzen?
275
Was Achterbahnfahrende binnen Minuten erreichen, bedarf beim Sporttreiben langanhaltender körperlicher Belastung. Diese Belastung ist allerdings so hoch und anhaltend, dass Leistungssportler mit vorzeitigen körperlichen Gebrechen zu rechnen haben. Hier werden ebenfalls physische Grenzen überschritten, zwar nur geringfügig, dafür aber dauerhaft. Da die gesundheitlichen Folgen eigentlich ethisch nicht vertretbar sind, kommt es zu einer Kompensationslösung: Vergleichbar der Handhabung bei riskanten oder gesundheitsgefährdenden Berufen werden bei Profisportlern die gesundheitlichen Folgen durch einen sehr hohen Verdienst scheinbar kompensiert. Ähnlich einer Versicherung mildert dies zwar die Folgen wie Berufsunfähigkeit, ist aber keine echte Problemlösung. Verschiedene Maßnahmen tragen dazu bei, dass die gesundheitlichen Belastungen geringer bleiben als sie sein könnten: So wird durch Dopingkontrollen nicht nur (wenn auch vorrangig) für eine Vergleichbarkeit der Wettkampfergebnisse gesorgt, sondern auch die langfristige körperliche Schädigung der Athleten reduziert. Während bei motorbasierten Sportarten in der Anfangszeit das Hauptaugenmerk auf der Geschwindigkeit sowie der Zuverlässigkeit dieser Fahr- und Flugzeuge lag und es für die Fahrer darum ging, den Umgang mit vorhandener Technik im Sinne „tollkühner Kisten“ zu bewältigen, gewannen in der Nachkriegszeit des Zweiten Weltkriegs Sicherheitseinrichtungen an Bedeutung.14 So gehörten bald im Kunstflug Schleudersitze dazu, bei Rennwagen die stabile Zelle für den Fahrer, und bei Rennmotorrädern etablieren sich in jüngster Zeit Antiblockiersysteme (ABS). Dabei sind es jeweils die Bedingungen zur Wettkampfzulassung der nationalen und internationalen Sportverbände, über die (auch) ethisch motivierte Normierungen in den Bau der Sportgeräte und deren Nutzung eingehen. Analog zu sicherheitstechnischen Entwicklungen für Achterbahnen wirken sich einige Sicherheitssysteme auf die mit den Geräten erreichbaren sportlichen Leistungen und das Fahrgefühl aus. So wurde beispielsweise bei Sportmotorrädern diskutiert, unter welchen Prämissen ABS im Rennen Vorteile bringe.15 Nicht umsonst beschreibt eine Zeitung Sicherheitseinrichtungen für Motorräder unter der Überschrift „Elektronische Stützräder“16. Für des Erlebniswertes einer Körperübung. Leipzig 1929. S. 28 f.; s. auch: Csikszentmihalyi, Mihaly; Schiefele, Ulrich: Die Qualität des Erlebens und der Prozeß des Lernens. In: Zeitschrift für Pädagogik, 39 (1993) 2, S. 215. Im Internet verfügbar als: Postprints der Universität Potsdam. Humanwissenschaftliche Reihe, 57, urn:nbn:de:kobv:517-opus-33578. 14 s. beispielsweise Kehrt, Christian: „Das Fliegen ist noch immer ein gefährliches Spiel“ – Risiko und Kontrolle der Flugzeugtechnik von 1908 bis 1914. In: Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kalkuliertes Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main, New York 2006. S. 199–224; sowie: Kinney, Jeremy R.: Racing on Runways: The Strategic Air Command and Sports Car Racing in the 1950s. In: Braun, Hans-Joachim; Poser, Stefan (GastHg.): Playing with Technology: Sports and Leisure. Special Issue of ICON. Journal of the International Committee of the History of Technology, 19 (2013), S. 193–215. 15 So wurde beispielsweise bei Sportmotorrädern diskutiert, unter welchen Prämissen ABS im Rennen Vorteile bringe. R.R.: Motorrad-ABS im Rennsport. Richtig verzögern unter Rennbedingungen. In: Motorrad online, 24.11.2011, http://www.motorradonline.de/news/abs-imrennsport.396973.html (Zugriff am: 23.3.2017). 16 Elektronische Stützräder fürs Bike. Assistenzsysteme für Motorradfahrer. In: Der Tagesspiegel, 2.4.2015, http://www.tagesspiegel.de/mobil/motorrad/assistenzsysteme-fuer-motorradfahrerelektronische-stuetzraeder-fuers-bike/11592658.html (Zugriff am: 29.3.2017). Zum Motorrad-
276
Stefan Poser
die Fahrer ergibt sich jeweils die Frage, inwieweit Sicherheitstechnik die Fahrfreude beeinflusst, mit ihrem Selbstverständnis als Meister des Umgang mit riskanten Technologien vereinbar und tatsächlich hilfreich ist. COMPUTERSPIELE UND „INTELLIGENTES“ SPIELZEUG Bei Rollenspielen mimicry oder Wettkämpfen agones am Computerbildschirm kann hingegen auf die Berücksichtigung physischer und physikalischer Grenzen völlig verzichtet werden: Einzelne Spiele ermöglichen das Überspringen von Tälern beim virtuellen Snowboardfahrten ebenso wie das digitale Konstruieren unglaublich verwundener Achterbahntrassen oder die Vermeidung von Flugzeugabstürzen unter Bedingungen, die in der Realität unbedingt zu einem Crash führen würden. Auch Computerspiele können einen Rausch ilinx auslösen. Je enger die Spielgestaltung dabei an der realen Welt orientiert ist, desto besser eignen sich die Spiele zum Austesten verschiedener Handlungsoptionen, zur Entwicklung von mehr oder minder spielerischen Lösungsansätzen für die betreffenden Aufgaben.17 Ist nur die Darstellung realitätsnah, der Spielinhalt jedoch nicht, so stellt sich die Frage, inwieweit die betreffenden Spiele dazu führen, dass die Spielenden virtuelle und reale Handlungsebenen miteinander vermischen und die Folgen ihres Handelns in der realen Welt falsch einschätzen oder durch intensive Gewaltspiele gar verrohen.18 Gerade die vehemente Diskussion um Gewaltspiele macht dabei noch einmal deutlich, dass ethisch bestimmte Grenzen im Spiel anders gelagert sind, als außerhalb der Spielwelt – ist doch keine der Gewalt-Spielhandlungen außerhalb des Spiels ethisch legitimierbar, während um ihre Bewertung als Spielhandlung gerungen wird. Je nachdem, wie die Fragen nach der Wirkung von Computerspielinhalten beurteilt werden, bedarf es unterschiedlicher Grenzen für Spielverbote oder Altersbeschränkungen, wie sie in Deutschland die Freiwillige Selbstkontrolle Unterhaltungssoftware GmbH, USK, ausspricht.19 In letzter Zeit ist „intelligentes“, computergestützt interaktives Spielzeug auf den Markt gekommen. In erster Linie handelt es sich dabei um zoomorphe und anthropomorphe Puppen, die auf ihr Gegenüber reagieren und für Rollenspiele nutzbar sind. Zum Teil sind sie mit einer Spracherkennung ausgestattet und haben
17 18
19
fahren siehe aus soziologischer Perspektive: Alkemeyer, Thomas: Mensch-Maschinen mit zwei Rädern – Überlegungen zur riskanten Aussöhnung von Körper, Technik und Umgebung. In: Gebauer, Poser; Kalkuliertes Risiko, a. a. O. S. 225–249. Ein Beispiel zur spielerischen Einbindung von Jugendlichen in die architektonische Gestaltung eines städtischen Platzes gibt: Lauwaert, Maaike: The Place of Play. Toys and Digital Cultures. Amsterdam 2009. S. 111 ff. s. beispielsweise Petermann, Franz; Koglin, Ute: Aggression und Gewalt von Kindern und Jugendlichen. Hintergründe und Praxis. Berlin, Heidelberg 2013. S. 89 ff.; sowie: Kunczik, Michael: Wirkungen gewalthaltiger Computerspiele auf Jugendliche. In: Freiwillige Selbstkontrolle Fernsehen (FSF) e. V. (Hg.): tv diskurs, 62 (2012) 4, S. 72–77 und 63 (2013) 1, S. 60–65. Pilarczyk, Ulrike: Von der Faszination der 3-D-Action-Spiele. In: Poser, Stefan; Hoppe, Joseph; Lüke, Bernd (Hg.): Spiel mit Technik. Katalog zur Ausstellung im Deutschen Technikmuseum Berlin. Leipzig 2006. S. 127.
Technisches Spiel ohne Grenzen?
277
eine internetbasierte Antwortfunktion. Eine Puppe geriet in die Schlagzeilen, weil sie direkt mit Computersystemen des Herstellers verbunden ist und ermöglicht, die Kommunikation der Kinder mit ihren Puppen aufzuzeichnen und auszuwerten, mit anderen Worten, die spielenden Kinder und ihre Familien auszuspionieren. Mit diesem technischen Spielzeug kann zwar gespielt werden, und das Spiel als solches ist nicht verwerflich, es macht aber die Spielenden und ihre Familien aufgrund einer bestimmten technischen Lösung der interaktiven Spielfunktion zu Opfern des Herstellers: Vermutlich wird aus kommerziellen Interessen ihre Persönlichkeitssphäre verletzt. Entsprechend wurde der Verkauf dieser Puppen von der Bundesnetzagentur untersagt.20 Solcherlei „intelligentes“ Spielzeug scheint „am Erwachsenwerden“ zu sein: Pflegeroboter, Fahrzeugassistenzsysteme und „Social Bots“ bergen erhebliches Veränderungspotential, werden zum Teil spielähnlich präsentiert und sind in ihrer technischen Entwicklung so weit gediehen, dass sie neue Fragen nach einer gesellschaftsadäquaten Technikgestaltung aufwerfen. FREIES SPIEL Im freien Spiel können technische Artefakte unterschiedlichster Art zum Spielmittel werden. Sie vermitteln häufig Spielideen; dennoch ist ihre spielerische Nutzung nicht an die ursprüngliche Funktion gebunden. So vermag ein Korkenzieher mit Hebelmechanismus im Spiel ebenso zur Maschine zu mutieren wie zu einem Flugzeug oder einem Insekt. Ein Beispiel einer phantasievollen spielerisch-künstlerischen Umnutzung von Technik sind die Maschinenskulpturen Jean Tinguelys.21 Verschiedene Artefakte sind zwar der Ausgangspunkt seines Gestaltungsprozesses, werden aber losgelöst von ihrer ursprünglichen Funktion zu Maschinen mit völlig neuen Bewegungsabfolgen und Zwecken zusammengesetzt.22 Eine Grenze solcher Spiele bei denen vorgefundene Technik zu Spielinhalten anregt, markiert zweifelsohne die Gefährdung der Handelnden und ihrer Umgebung; ein Beispiel hierfür bieten Pistolen im Kaiserreich: Vergleichbar heutigen Smartphones wurden sie zum Statussymbol männlicher Jugendlicher, das in Anbetracht von verbesserter Fertigungspräzision wie Durchschlagkraft zunehmend gefährlicher wurde und zu Todesfällen führte.23 In den Spielvarianten freier, ähnlich weit verbreitet und ebenfalls ausgesprochen gefährlich war nach dem Zweiten 20 21 22 23
Burger, Claudia: Spionin im Kinderzimmer zerstören. In: VDI Nachrichten, 23.2.2017, http:// www.vdi-nachrichten.com/Gesellschaft/Spionin-im-Kinderzimmer-zerstoeren (Zugriff am: 27.3.2017). Zentral ist natürlich die künstlerische Aussage Tinguelys; spielerisches Handeln ist eher ein Mittel des Schaffensprozesses. Zu Tinguelys Werken siehe das Museum Tinguely in Basel. Beispiele der Umnutzung technischer Artefakte zu Spielzwecken gibt auch: Maines, Rachel: Hedonizing Technologies. Paths to Pleasure in Hobby and Leisure. Baltimore 2009. S. 124. Zu einem Waffengesetz (und einem Verbot) kam es vor Beginn des Ersten Weltkriegs nicht mehr. Ellerbrock, Dagmar: Waffenkultur in Deutschland. In: Aus Politik und Zeitgeschichte, 35–37/2014, 18.8.2014, http://www.bpb.de/apuz/190119/waffenkultur-in-deutschland?p=2 (Zugriff am: 22.1.2015).
278
Stefan Poser
Weltkrieg das Spiel in Ruinen und mit Überresten von Kriegsgerät. Ein Gefahrenpotenzial geht insbesondere von leistungsstarker Technik aus – und vom Spiel von Erwachsenen, die über solche Technik leichter Verfügungsgewalt erhalten als Kinder und Jugendliche. Steigern lässt sich dies noch, wenn es zu einer Verkehrung der Zweck-Mittel-Relation kommt und solche Technologien allein deshalb eingesetzt werden, weil sie zur Verfügung stehen.24 TECHNISCHES SPIEL OHNE GRENZEN? Versucht man eine Gesamtschau auf die hier skizzierten Bereiche des Spiels, so ergeben sich zur Frage, unter welchen Bedingungen Spiele noch statthaft sind, unterschiedliche Grenzziehungen. Gemeinsam ist zahlreichen Formen des Spiels jedoch, dass für zu Spielzwecken entwickelte Technik technische Normierungen eingeführt wurden, die nicht nur Praktikabilitätsüberlegungen (wie die Normung von Gewinden) entsprechen, sondern ethischen Prinzipien entspringen – von der Bauaufsicht über TÜV-Kontrollen bis zu Sicherheitsnormen, die mit jeder neuen Spieltechnik erweitert werden. Für das Jahrmarktsvergnügen und im Sport sind Grenzen der physischen Belastbarkeit des Menschen gegeben, die wegen Gesundheitsschäden bei deren Überschreitung gleichzeitig medizinische und ethische Grenzen sind. Entsprechend gelten für die Belastungsgrenzen und die Überprüfung der Fahrgeschäfte DIN bzw. EURO-Normen, die im Grunde ethische Wurzeln haben. Während bei Thrill rides an diese Grenzen herankonstruiert wird und die zunehmend schwierigere Aufgabe darin besteht, die Voraussetzungen für das Erlebnis immer neuer Körpersensationen innerhalb dieser Grenzen zu schaffen, wird im Sport bewusst versucht, jene Grenzen als individuelle Leistungsgrenzen hinauszuschieben. Dies kann im Sinne Caillois’ als ludus gedeutet werden, als ein Spiel, in dem selbst gesetzte Ziele erreicht werden sollen. Im Sinne der antikapitalistischen Sportkritik der 1970er und 1980er Jahre verkommen Spitzensportler dabei zu „leistungsfähige[n] Muskelmaschinen (…) zu maschinellen Medaillenproduzenten“25. Im Zusammenhang mit finanziellen Kompensationsleistungen für Profis, dem Ausbau von Kontrollsystemen, die gravierende Gesundheitsschäden in der Regel reduzieren, und der gesellschaftlichen Wende zu neoliberalem Gedankengut in den 1990er Jahren sind diese Argumentationen, die den Leistungssport gänzlich in Frage stellen, unabhängig von ihrer Berechtigung in den Hintergrund getreten. Die Frage ethischer Grenzen bedarf im Sport also einer Neubewertung. Beim freien Spiel mit Technik gibt es systembedingt weder Regeln noch Kontrollinstanzen. Ethische Grenzen sind auf jeden Fall da gegeben, wo Persönlichkeitsrechte verletzt oder Menschen und Umwelt gefährdet werden. Dasselbe muss für Spiele im virtuellen Raum gelten; allerdings ist der Bezug von virtuellem Spiel24 25
Kornwachs, Klaus: Das Spiel mit der Technik und seine Folgen. In: Gebauer, Poser; Kalkuliertes Risiko, a. a. O., S. 73 f. Bremer Beschlüsse der „Jusos“ von 1971, zitiert nach: Krockow, Christian Graf von: Sport. Eine Soziologie und Philosophie des Leistungsprinzips. Hamburg 1974. S. 11.
Technisches Spiel ohne Grenzen?
279
handeln und Handlungen in der realen Welt nach wie vor unklar. Folglich ist die Bewertung von Computerspielen – insbesondere Gewaltspielen – nach wie vor in Anbetracht von Katharsisthese sowie Habitualisierungs- und Destabilisierungthese oder gar der Kultivierungsthese im Fall von Problemgruppen – offen und schwer allgemein klärbar, weil die Psyche der einzelnen Spielenden einbezogen werden muss.26 So bleiben die entsprechenden Kontrollinstanzen letztlich zahnlos. Hier besteht also trotz umfangreicher Literatur Forschungsbedarf. Ähnliches gilt für computerbasiertes Spielzeug und verschiedene Assistenzsysteme, bei denen anzunehmen ist, dass ein durch Spiel verbrämtes Erscheinungsbild in Kombination mit anthropomorphen Zügen zur Verharmlosung von Technik beitragen kann.
26
Während bei der Katharsisthese letztlich von einer positiven Rückwirkung auf die Spielenden ausgegangen wird, ergeben sich gemäß den weiteren genannten Thesen negative Folgen. Kunczik, Computerspiele, Teil II. In: tv diskurs, 63 (2013) 1, S. 60 f.
280
Stefan Poser
LITERATUR Alkemeyer, Thomas: Mensch-Maschinen mit zwei Rädern – Überlegungen zur riskanten Aussöhnung von Körper, Technik und Umgebung. In: Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kalkuliertes Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main, New York 2006. S. 225–249. Avedon, Elliott M.; Sutton-Smith, Brian: Introduction. In: dies. (Hg.): The Study of Games. New York u. a. 1971. S. 1–8, S. 7. Burger, Claudia: Spionin im Kinderzimmer zerstören. In: VDI Nachrichten, 23.2.2017, http:// www.vdi-nachrichten.com/Gesellschaft/Spionin-im-Kinderzimmer-zerstoeren (Zugriff am: 27.3.2017). Caillois, Roger: Les jeux et les hommes. Le masque et le vertige (1958); engl.: Man, Play and Games. New York 1961; dt.: Die Spiele und die Menschen. Maske und Rausch. Stuttgart 1960 (zitierte Ausgabe: Frankfurt am Main 1982). S. 32 f., S. 151 f. Cartmell, Robert: The Incredible Scream Machine. A History of the Roller Coaster. Bowling Green 1987. Csikszentmihalyi, Mihaly: Beyond boredom and anxiety (1975); dt.: Das flow-Erlebnis. Jenseits von Angst und Langeweile: im Tun aufgehen. Stuttgart 1985. Csikszentmihalyi, Mihaly; Schiefele, Ulrich: Die Qualität des Erlebens und der Prozeß des Lernens. In: Zeitschrift für Pädagogik, 39 (1993) 2, S. 207–221. Dessauer, Friedrich: Streit um die Technik. Frankfurt am Main 1956(3). Ellerbrock, Dagmar: Waffenkultur in Deutschland. In: Aus Politik und Zeitgeschichte, 35–37/2014, 18.8.2014, http://www.bpb.de/apuz/190119/waffenkultur-in-deutschland?p=2 (Zugriff am: 22.1.2015). Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kalkuliertes Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main, New York 2006. Goldbeck, Ernst: Unsere Jungen beim Rudersport. Psychologische Analysen des Erlebniswertes einer Körperübung. Leipzig 1929. Hughes, Thomas P.: The Evolution of Large Technological Systems. In: Bijker, Wiebe E.; Hughes, Thomas P.; Pinch, Trevor J. (Hg.): The Social Construction of Technological Systems. New directions in the sociology and history of technology. Cambridge, London 1987. S. 51–82. Huizinga, Johan: Homo ludens. Proeve eener bepaling van het spel-element der cultuur. Haarlem 1938/1958, engl.: Homo ludens. A study of the play-element in culture. London 1949, dt: Homo ludens. Vom Ursprung der Kultur im Spiel. Reinbek 1956, 2001(18). Kehrt, Christian: „Das Fliegen ist noch immer ein gefährliches Spiel“ – Risiko und Kontrolle der Flugzeugtechnik von 1908 bis 1914. In: Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kalkuliertes Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main, New York 2006. S. 199– 224. Kinney, Jeremy R.: Racing on Runways: The Strategic Air Command and Sports Car Racing in the 1950s. In: Braun, Hans-Joachim; Poser, Stefan (Gast-Hg.): Playing with Technology: Sports and Leisure. Special Issue of ICON. Journal of the International Committee of the History of Technology, 19 (2013), S. 193–215. Kornwachs, Klaus: Das Spiel mit der Technik und seine Folgen. In: Gebauer, Poser; Kalkuliertes Risiko, a. a. O., S. 51–77. Krockow, Christian Graf von: Sport. Eine Soziologie und Philosophie des Leistungsprinzips. Hamburg 1974. Kunczik, Michael: Wirkungen gewalthaltiger Computerspiele auf Jugendliche. In: Freiwillige Selbstkontrolle Fernsehen (FSF) e. V. (Hg.): tv diskurs, 62 (2012) 4, S. 72–77 und 63 (2013) 1, S. 60–65. Lauwaert, Maaike: The Place of Play. Toys and Digital Cultures. Amsterdam 2009. S. 111 ff. MacKenzie, Donald; Wajcman, Judy: Introduction Essay. In: dies. (Hg.): The Social Shaping of Technology. How the Refrigerator Got its Hum. Milton Keynes u. a. 1985. S. 2–25.
Technisches Spiel ohne Grenzen?
281
Maines, Rachel: Hedonizing Technologies. Paths to Pleasure in Hobby and Leisure. Baltimore 2009. Mohun, Arwen P.: Risk. Negotiating Safety in American Society. Baltimore 2013. Petermann, Franz; Koglin, Ute: Aggression und Gewalt von Kindern und Jugendlichen. Hintergründe und Praxis. Berlin, Heidelberg 2013. S. 89 ff. Pilarczyk, Ulrike: Von der Faszination der 3-D-Action-Spiele. In: Poser, Stefan; Hoppe, Joseph; Lüke, Bernd (Hg.): Spiel mit Technik. Katalog zur Ausstellung im Deutschen Technikmuseum Berlin. Leipzig 2006. S. 127–133. Salen, Katie; Zimmerman, Eric: Rules of Play – Game Design Fundamentals. London 2004. Poser, Stefan: Glücksmaschinen und Maschinenglück. Grundlagen einer Technik- und Kulturgeschichte des technisierten Spiels. Bielefeld 2016. ders: Museum der Gefahren. Die gesellschaftliche Bedeutung der Sicherheitstechnik. Hygiene-Ausstellungen und Museen für Arbeitsschutz in Wien, Berlin und Dresden um die Jahrhundertwende. Cottbuser Studien zur Geschichte von Technik, Arbeit und Umwelt, 3. Münster u. a. 1998. S. 211. Ropohl, Günter: Zur Technisierung der Gesellschaft. In: Bungard, Walter; Lenk, Hans (Hg.): Technikbewertung. Frankfurt am Main 1988. S. 79–97. Schützmannsky, Klaus: Roller Coaster. Der Achterbahn-Designer Werner Stengel [Begleitbuch der gleichnamigen Ausstellung im Münchner Stadtmuseum]. Heidelberg 2001. Sutton-Smith, Brian: The Ambiguity of Play. Cambridge, MA, u. a. 1997.
RHETORISCHE GESTALTUNGSFÄHIGKEIT IN VIRTUELLEN ARBEITSWELTEN Francesca Vidal 1 ARBEITSWELT Schon in den achtziger Jahren des letzten Jahrhunderts war vielfach zu hören, dass die dritte industrielle Revolution, sprich: der Einzug einer digitalen Technik in Arbeitsprozesse, zu einem grundlegenden Wandel der Arbeitswelt führen würde. Befürchtet wurde eine steigende strukturelle Arbeitslosigkeit, weshalb sich die Diskussion um den Wandel auf die Formen der Erwerbsarbeit konzentrierte. Ausgedrückt wurden die Ängste durch Parolen wie die vom „Ende der Arbeitsgesellschaft“ oder von der „Gesellschaft, der die Arbeit ausginge“. Berechtigt Angst machte als Folge von Automatisierung die Unternehmenspolitik der „Freisetzung“, also der Verlust der Lebensgrundlagen.1 Der Sozialwissenschaftler Wolfram Burisch widersprach der Einseitigkeit der Prognosen mit dem Hinweis, dass nicht die Arbeit abhandengekommen sei, sondern ein „Begriff von Arbeit selbst als Tätigkeit des selbständigen Subjekts“2. Ihn irritierte, wenn allein der Zugang zur Arbeitswelt diskutiert, diese in ihren Strukturen jedoch immer weniger hinterfragt wurde. Er sah in einer solchen Verengung der Sichtweise die Gefahr, dass kaum noch von den Gestaltungsmöglichkeiten des Subjekts die Rede sei. Selbstverständliche Grundlage des damaligen Diskurses war die Interpretation der Gesellschaft als „Arbeitsgesellschaft“: Industriell-technisch fortgeschrittene Gesellschaften seien solche, „die ihre Reichtümer und den Grad der erreichten Naturbeherrschung vor allem der Arbeit verdanken; sie bedienen sich aber andererseits in zunehmenden Maße einer Technik, die menschliche Arbeit fortwährend ersetzt (…)“3. Tatsächlich veränderte der Fortschritt dieser Technik die Strukturen der Arbeitswelt, was dann direkte Auswirkungen auf die sozialen Strukturen hatte. Es hat sich jedoch bis heute nichts daran geändert, dass die personale Identitätsbildung mit der Rolle verbunden ist, die der Mensch in der Arbeitswelt einnimmt. Damals versuchte man die neue Form der Arbeit als Zukunft der Roboter oder der automatisierten Arbeit zu beschreiben. Auch heute leben wir in Arbeitsgesellschaften, diese wurden jedoch in zunehmenden Maßen informatisiert und virtualisiert. Digitalisierung, Immaterialisierung und Virtualisierung haben den Charakter 1 2 3
vgl. exemplarisch Benseler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit. Hamburg 1982. Burisch, Wolfram: „Das Leben ist Freizeit“. Über die Diskriminierung emanzipatorischer Arbeit. http://www.bloch-akademie.de/txt/t4_07.htm (Zugriff am: 17.9.2017) Guggenberger, Bernd: Am Ende der Arbeitsgesellschaft – Arbeitsgesellschaft ohne Ende? In: Benseler u. a., a. a. O., S. 64.
284
Francesca Vidal
von Arbeit grundlegend verändert. Freilich leben wir noch nicht in einer Welt, in der alles vollständig virtualisiert ist – das mag nur für die IT-Branche selbst gelten – sondern in einer, in der die Veränderungen langsam greifen. Trotzdem bestimmt die „virtualisierte Arbeitswelt“ unser politisch-soziales Leben in steigenden Maße.4 Damit kommt der Kritik von Burisch eine neue Brisanz zu, bleibt doch die Frage offen, ob es allein um die Sicherung von Arbeitsplätzen geht. Viel entscheidender ist doch, ob die neuen technischen Möglichkeiten auch als eine Chance zum selbstbestimmten Handeln zu begreifen sind und, falls sie ein solches Potential enthalten, wie der arbeitende Mensch sich dieses zunutze machen kann und welche Voraussetzungen er hierfür braucht. Die Arbeitsgruppe um den Soziologen Rudi Schmiede hat sehr früh gezeigt, dass die Abhängigkeit der Unternehmen vom globalen Kapitalismus zu einer Orientierung an netzwerkförmige Organisationsmuster führt, die durch die neuen Technologien möglich geworden sind, da „Netzwerkstrukturen in der Ökonomie einerseits Direktheit der ökonomischen Einflüsse, andererseits Unbestimmtheit des individuellen Handelns zulassen, wie sie für ein Wirtschaften, das sich zunehmend nicht mehr am Vollzug, sondern am Ergebnis orientiert, erforderlich sind.“5 Ausführlich beschreiben sie die Folgen eines solchen Wandels auf die Lebenswelt. Konzentriert man sich darauf, dass die neuen Technologien die Generierung von Informationen erlauben, weil diese in virtuellen Welten modellierbar, simulierbar und kalkulierbar geworden sind, um dann wieder für Innovationsprozesse genutzt zu werden, wird deutlich, dass Information allein vom Verwertungsinteresse aus gesehen als Ware fungiert. Aber erst wenn sie als Grundlage von Gestaltungsprozessen gesehen wird, wird auch ihre Geltung als soziale Kategorie einsichtig. Eine solche Deutung ist schon in der lateinischen Wortform informare enthalten, da sich diese auch mit „formen“, „gestalten“ übersetzen lässt. Sie kreativ zu nutzen, heißt demnach, sie nicht auf den Charakter des Tauschobjektes zu reduzieren. Weit mehr als um maschinell berechenbare Symbole, also in Bitmuster zerlegte Informationen, geht es dann um den Inhalt. Erst ein technisch-funktionales Denken setzt Information und Kommunikation in eins, macht aus Kommunikation Datenaustausch und formalisiert selbst das Denken.6 Handelnde Subjekte könnten aber durchaus der Selbstorganisation des technischen Systems durch beständige Korrektur entgegentreten, denn immer noch bedarf es des denkenden Menschen, der die zur Verfügung stehenden Wissensbestände auch produktiv umsetzt. Es kommt demnach darauf an, herauszufinden, ob 4
5 6
vgl. zur Virtualisierung der Welt und ihre Auswirkung auf die Gestaltungsmöglichkeiten der Subjekte: Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in der Kultur der konkreten Virtualität. Mössingen 2010. Die folgenden Ausführungen basieren zum großen Teil auf dieser Studie. In der Studie werden auch die Ergebnisse der Arbeitsgruppe Schmiede detailliert wiedergegeben. Schmiede, Rudi: Wissen, Arbeit und Subjekt im „Informational Capitalism“. In: Dunkel, Wolfgang; Sauer, Dieter (Hg.): Von der Allgegenwart der verschwindenden Arbeit. Neue Herausforderungen für die Arbeitsforschung. Berlin 2006. S. 48. vgl. Wenzel, Harald: Die Technisierung des Subjekts. Zum Verhältnis von Individuum, Arbeit und Gesellschaft heute. In: Schmiede, Rudi (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion und Subjekt in der „Informationsgesellschaft“. Berlin 1996. S. 182.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten
285
die gesellschaftlich Handelnden als Subjekte anerkannt oder als Objekte verächtlich gemacht werden. Informatisierung verändert in entscheidenden Maßen die Kommunikationsstrukturen innerhalb der Arbeitswelt. Dies geschieht u. a. dadurch, dass Menschen unabhängig von Raum und Zeit tätig werden können, freilich auch müssen. Es geschieht aber auch, wenn mit Hilfe der Technik die Möglichkeit des asynchronen Arbeitens geschaffen oder die Chance geboten wird, sogenannte nebenläufige Tätigkeiten dem System zu überlassen. Neben den eröffneten Chancen hat dies immer auch zur Folge, dass Arbeitende zukünftig vor neuen Anforderungen zur Bewältigung der Aufgaben stehen werden. Die technischen Errungenschaften verlangen immer mehr die Fähigkeit zum selbstgesteuerten Handeln und vor allem zur Übernahme von Verantwortung. Mit dem Begriff der Virtualisierung lässt sich der Weg von materialen Orientierungen hin zu virtuell erzeugten beschreiben, die es ermöglichen, dass konkrete Erfahrungen sowohl in einer materiellen als auch einer virtuellen Welt möglich sind. Dabei ist der Zugriff auf die Datenwelt nicht mehr an bestimmte Orte, sondern an das Vorhandensein einer bestimmten Technik und der entsprechenden Kommunikationsinfrastruktur gebunden. Virtualisierung der Arbeitswelt wird eingeleitet durch die Übergabe von Arbeitsschritten und Arbeitsprozessen in virtuelle Umgebungen und damit dem voranschreitenden Verdrängen materieller Arbeit. Zunehmend findet Arbeit zusätzlich oder auch ausschließlich im virtuellen workspace statt. Insofern lässt sich dann sagen, dass die Zukunft der Arbeit „im Netz“ entschieden wird, es also verstärkt darauf ankommt, hier eine solche Präsenz zu erhalten, dass an der Schaffung der Rahmenbedingungen mitgewirkt werden kann.7 Die neuen Technologien lassen sich demnach als Informations- und Kommunikationsmedien kennzeichnen, mit deren Hilfe sich globale Infrastrukturen etablierten, die immer mehr medialen Gesetzmäßigkeiten folgen. Um in solchen Strukturen zu handeln, bedarf es rhetorischer Fähigkeiten. Reduziert man Rhetorik nicht auf die Funktion eines Instruments der strategischen Kommunikation, sondern versteht sie als ein kulturschöpferisches Potenzial, dann ermöglicht ihre Kenntnis ein Eingreifen in die medialen Prozesse, und sie wird zum Weg des selbstbestimmten Handelns. Freilich lässt sich nicht unterschlagen, dass es die strukturellen Figurationen sind, die das Handeln der Menschen bestimmen. Entscheidend ist aber genauso, ob die Menschen sich auf die Rolle des Konsumenten der Technik reduzieren lassen oder ob sie die neu entstehenden Netzwelten kultivieren wollen. Möglich wird Kultivierung, weil die neu entstehenden Räume Ergebnis von Kommunikationsprozessen sind, demnach die Fähigkeit zur Kommunikation erst Partizipation und Persuasion ermöglicht. Wie selbstverständlich geht der Mensch heute von der Macht der Kommunikationstechnik aus, die sein Leben in nahezu allen Bereichen bestimmt. Eine derartige Entwicklung jedoch nur aus ökonomischen Gesichtspunkten zu betrachten, führt 7
vgl. Schröter, Welf: Electronic Mobility – wenn Arbeit losgelöst vom Menschen mobil wird. Auf dem Weg zu „New Blended Working“. In: Baacke, Eugen; Scherer, Irene; Schröter, Welf (Hg.): Electronic Mobility in der Wissensgesellschaft. Wege in die Virtualität. Mössingen 2007. S. 9–28.
286
Francesca Vidal
unweigerlich dazu, die Entwicklung des öffentlichen Raumes allein aus ökonomischen Verwertungsinteressen heraus zu beurteilen. Daraus folgt dann unweigerlich die Gefahr, dass die Gesellschaft nur noch an den optimal den wirtschaftlichen Interessen entsprechend Geschulten interessiert ist. Zum einen wird der Katalog der Anforderungen höher etwa in Bezug auf Flexibilität oder Fertigkeiten, zum anderen bedeutet es aber auch ein Zurückschrauben der Bildungsanforderungen. Je weiter die technische Entwicklung voranschreitet kann es passieren, dass sogenannte „skills“ verlangt werden, nicht aber Kreativität im Sinne des Selbstschöpferischen, mithin Bildung. Beschäftigungsfähigkeit meint vor allem ein sich einfügen können in bestehende Strukturen und setzt nicht auf den gestaltungswilligen Akteur, welcher diese Strukturen evtl. auch ändern könnte. Insofern lässt sich an die Befürchtung anknüpfen, dass Automatisierung nicht zwangsläufig zur ersehnten Freiheit führt. Schon Hannah Arendt warnte in ihrem Werk „Vita activa“, dass der Mensch an den Rand gedrängt werde: „Denn es ist ja eine Arbeitsgesellschaft, die von den Fesseln der Arbeit befreit werden soll, und diese Gesellschaft kennt kaum noch vom Hörensagen die höheren und sinnvolleren Tätigkeiten, um derentwillen die Befreiung sich lohnen würde …“8 Schon hier wird das Problem deutlich: Es geht um die Erkenntnis, dass die Teilhabe am gesellschaftlichen Geschehen sich durch die Formen der Kommunikation, des Miteinander-Redens, erst konstituiert.9 Dies gilt freilich immer noch, auch wenn die Etablierung der neuen Informations- und Kommunikationstechnologien zu veränderten Interaktionsformen geführt hat. 2 RHETORIK Der Gedanke, dass eine Orientierung am Wohl der Gesellschaft erst durch Bindungen als Folge von Kommunikation geschaffen wird, mithin durch Persuasion, ist genuin einer der Rhetorik. Was also meint Kommunikation in einer virtualisierten Arbeitswelt, wenn darunter nicht der Austausch von Informationen, sondern die Möglichkeit gemeinsamer Gestaltung verstanden wird? Die rhetorische Theorie reflektiert die Notwendigkeit, rhetorisch handeln zu können, immer dann, wenn Räume selbstbestimmt und im Miteinander gestaltet werden sollen. Sie will wissen, wann der Einzelne in einer kommunikativen Gemeinschaft hervortreten und Impulse für Veränderungen geben kann, die, wenn sein persuasives Handeln „erfolgreich“ ist, eben zu diesen Veränderungen führen. Daher geht es auch um die Frage, welcher Spielraum zum gesellschaftspolitischen Handeln dem Subjekt gegeben wird. Dies ist nur als Wechselverhältnis zu verstehen, denn welche Möglichkeiten der Einzelne hat, auf die Strukturen der Arbeitswelt einzuwirken, ist unter anderem auch abhängig von den demokratischen Strukturen der Gesellschaft und vom gesellschaftlichen Bewusstsein. Wie aber Strukturen und Bewusstsein sich entwickeln, ist entscheidend im Zusammenhang mit der Gestal8 9
Arendt, Hannah: Vita activa oder vom tätigen Leben (1958). München, Zürich 2007. S. 13. vgl. dies.: Was ist Politik? Fragmente aus dem Nachlass. München, Zürich 1993.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten
287
tung der Arbeitswelt zu sehen. Welche Bedeutung der Arbeit für das gesellschaftliche Leben der Einzelnen und darüber hinaus für die Zukunft der Gesellschaft als solcher zugesprochen wird, hängt im entscheidenden Maß davon ab, welche Auswirkungen die Etablierung der neuen Informations- und Kommunikationsmedien auf das Handeln der Akteure haben wird. Die Frage lautet also nicht, wie der Mensch die Technik nutzt, sondern ob und wie er zum Gestalter werden kann. Der Mensch ist angewiesen auf die Fähigkeit, mit kommunikativen Mitteln intervenierend zu handeln. Seine Ziele kann er nur erfolgreich umsetzen, wenn er sich auf Situation und Adressaten einstellen kann und wenn er eine Vorstellung von den Zielen hat, die es umzusetzen gilt. Selbstverständlich will ein Unternehmen, dass die Ziele der Arbeitenden im Interesse der Unternehmen sind. Das heißt für den rhetorisch Gebildeten, dass er es verstehen muss, dieses Interesse mit seinen und dem gesellschaftlichen in Einklang zu bringen. Dabei kann nicht unterschlagen werden, dass der Zielhorizont rhetorischer Theorie im Bereich des Kulturschöpferischen liegt, die Möglichkeit rhetorischen Handelns also daran gebunden ist, ob eine Gesellschaft überhaupt auf das politisch handelnde Subjekt setzt. Denn auch wenn, mit Marx gesprochen, das Potential der Befreiung von entfremdeter Arbeit in der Produktivkraft liegt, hier also die Möglichkeit zur mündigen Gestaltung ergriffen werden muss, bleibt genau dieses Ergreifen von Möglichkeit abhängig vom politischen Willen der Bürger. Ob Arbeitende durch Kommunikation zur Kooperation gelangen, wird immer entscheidender für den Erfolg der Arbeitsprozesse, da Kommunikation wichtiger Bestandteil der Arbeit ist. Soll bei der Darlegung des gegenwärtigen Wandels hin zur Virtualisierung der handelnde Mensch in den sich wandelnden Arbeitsabläufen, Arbeits- und Sozialverhältnissen im Blickpunkt des Interesses bleiben, dann darf der Wandel nicht als rein materieller Prozess interpretiert werden, sondern als Veränderung eines sozialen Systems. Das Interesse richtet sich demnach einerseits auf die Handlungsakteure, die in ihrer Arbeit Sinn und Anerkennung suchen, und andererseits auf die Arbeitswelt mit ihren Kommunikations- und Beziehungsgeflechten. Vorausgesetzt, dass es ein berechtigtes gesellschaftliches Interesse gibt, die Bedeutung demokratischer Werte wie Selbstbestimmung und Selbstverwirklichung für eine humane Arbeitswelt immer wieder herauszustellen, müssen die Plausibilitäten besonders hervorgehoben werden. Als Subjekt in einer virtualisierten Arbeitswelt zu handeln, ist nur im Miteinander des gesellschaftlichen Beziehungsgeflechts möglich. Welche Formen will der heutige Mensch wählen? Was macht er, um den Anforderungen des Marktes zu entsprechen? Auch wenn gefragt wird, wie er rhetorisch handeln kann, müssen die Bedingungen für dieses Handeln in den Blick kommen. Die Anforderungen der Arbeitswelt verändern das Leben im Ganzen, haben Einfluss auf Familienstrukturen, soziale Kontakte, Wohnortwahl und vieles mehr. In solchen Strukturen selbstbestimmt zu handeln, ist nur möglich, wenn die Menschen bereit sind, die in diesen Strukturen enthaltenen Widersprüche zu erkennen und als Potential für Veränderung zu begreifen. Wenn dem Subjekt mit seinen Handlungs- und Reflexionsvermögen nicht die Verantwortung abgesprochen wird, dann kann er kulturschöpferisch handeln. Mit Hilfe der Rhetorik kann er in Spannungsverhältnissen auf Grund seiner argumen-
288
Francesca Vidal
tativ dargelegten Kompetenz Entscheidungen herbeiführen. Nur dort, wo Subjekte handeln, kann Persuasion angesiedelt werden, nur dort, wo Zeichen und Texte Bedeutung zugestanden wird, kann der Mensch rhetorisch handeln. Persuasion ist das Ziel rhetorischer Handlungen, hierauf richtet sich der Versuch, durch strategisch-kommunikatives Handeln, mithin durch den Umgang mit den sich solchen Handlungen entgegenstellenden Widerständen das Entscheidungshandeln anderer zu beeinflussen. Solche Versuche sind Teil des Lebensalltags und entfalten sich aus der Lebenswelt der Menschen heraus, da Entscheidungen sich nicht zwangsläufig ergeben, sondern Ergebnis von Deutung und Diskussion der Beteiligten sind. So gesehen dient die persuasive Handlung der Orientierung der Akteure, denn gelungene persuasive Handlungen führen zu einer Entscheidungsgewissheit, kurzfristig als Meinung, längerfristig als Einstellung. Selbstverständlich leugnet dies nicht, dass das Alltagsleben gleichermaßen von nicht persuasiv angelegter Kommunikation geprägt ist. Gerade in der Arbeitswelt richtet sich Kommunikation auf kooperatives Handeln aller an der Kommunikation Beteiligten und es gibt immer Informationsvermittlungen ohne jegliche rhetorische Handlung zu evozieren. Joachim Knape10 zufolge liegt eine persuasive Situation nur vor, wenn ein Kommunikationsteilnehmer eine Handlung auslöst, nachdem er für sich die Richtigkeit seines Zieles geklärt hat und deshalb dem strategischen Kalkül entsprechend rhetorisch handelt. Diese Handlung gilt als geglückt, wenn sie beim Rezipienten einen mentalen Wechsel auslöst. Sie unterscheidet sich von Zwang oder Nötigung, da zum einen kommunikative Mittel eingesetzt werden, die vom gesellschaftlichen Konsens getragen sind, und zum anderen demjenigen, der überzeugt werden soll, immer das Recht zur eigenständigen Reaktion eingeräumt wird. Freilich kann der Übergang zu manipulierenden Wegen fließend sein, da es immer auf die regulierenden Kräfte der Gesellschaft ankommt. Die Gesellschaft muss die demokratische Basis bieten und dabei vom mündigen Bürger, der immer erst einer werden soll, doch schon ausgehen. Das heißt nicht, dass sich überzeugende Rede auf Argumentation zu begrenzen hätte, persuasiv wird die Rede erst durch die verschiedenen Wirkungsfunktionen11, also durch Belehrung (docere), mithin das Ansprechen der intellektuellen Fähigkeiten der Hörenden, durch Unterhaltung, das Ansprechen der emotionalen Aspekte (delectare) und durch Erregung der Leidenschaft (movere). Der Persuasionsprozess ist nicht auf einzelne Kommunikationssituationen zu begrenzen, sondern kann auch längerfristig angelegt sein, gerade durch den Einsatz interaktiver Medien, wenn durch ständige Wechselseitigkeit längerfristig geltende Einstellungen bewirkt werden sollen. Dabei tritt laut Knape das Paradox auf, dass nicht der mentale Wechsel zum Ziel der Persuasion wird, sondern Bindung, was 10
11
Knape, Joachim: Persuasion. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik. Bd. 6. Tübingen 2003. Sp. 874–907. Dass eine Bewusstseinsänderung eintritt, ist immer Folge der Leistung des Rezipienten, da dieser die Botschaft in seinem Bewusstsein konstruieren muss. vgl. zur Betonung der Wirkungsweisen als Bestandteile der Persuasion: Ueding, Gert: Was ist Rhetorik? In: Soudry, Rouven (Hg.): Rhetorik. Eine interdisziplinäre Einführung in die rhetorische Praxis. Heidelberg 2006. S. 13–23.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten
289
aber nicht zum Widerspruch der Definition von Persuasion führen muss, denn in solchen Fällen dienen rhetorische Handlungen dazu, aufkommende Ungewissheiten oder Zweifel in Gewissheiten übergehen zu lassen. Nur wer erkennt, dass ein einmal erreichtes Ziel auch wieder in Frage gestellt werden kann und eine erneute Überzeugungsarbeit erfordert, kann Bindungen stabil halten.12 Gerade hier wird Persuasion zum kulturschöpferischen Akt, der dann zum Tragen kommt, wenn gesellschaftlich auf die Fähigkeiten des Subjekts gesetzt wird. Daraus lässt sich die Feststellung ableiten, dass das Subjekt dann an der Gestaltung der Rahmenbedingungen mitwirkt, wenn die Betonung des Subjekts zugleich als Aufforderung verstanden wird, auf sein rhetorisches Arbeitsvermögen zu setzen. 3 RHETORISCHES ARBEITSVERMÖGEN Gerade weil in der Arbeitswelt kommunikative und interaktive Tätigkeiten durch die Zunahme vernetzter Produktions- und Organisationszusammenhänge eine größere Relevanz entfalten, erhalten die individuellen Fähigkeiten des Beschäftigten eine immer größere Bedeutung.13 Dem Einzelnen wird mehr Verantwortung zugestanden, seine Kreativität, seine Motivation, seine sozialen und kommunikativen Kompetenzen werden in Unternehmen als diesem nutzbringende Ressource geschätzt, weshalb seine Handlungs- und Entscheidungsräume ausgedehnt werden. Für das Unternehmen bringt dies den Vorteil, die Unbestimmtheit des Marktes direkt an den Beschäftigten weitergeben zu können. Der Beschäftigte steht dann in der Verantwortung, diese Unbestimmtheit zu bewältigen. So erlaubt das Setzen auf die Fähigkeiten des Subjekts eine Veränderung der Steuerung betriebswirtschaftlicher Maßnahmen. Externe Anforderungen können an Beschäftigte weitergegeben werden, ohne dass sie erst zentrale Rationalisierungsstäbe durchlaufen müssen. Dadurch wird Steuerung nicht etwa abgeschafft, sie wirkt nur indirekter und wird durch die Bestimmung des Kontextes, der Festlegung von Rahmenbedingungen und Zielvorgaben unmittelbarer. Allerdings ist diese Herangehensweise auch abhängig von der Kooperation der Individuen, kann nur mit ihnen und mit ihrem Einverständnis durchgesetzt werden. „Hochkomplexe Produktions- und Organisationsprozesse sind äußerst störungsempfindlich und bedürfen deswegen der engagierten und motivierten Beteiligung der in ihnen Arbeitenden; die weiter anwachsende Bedeutung von Informationsund Kommunikationsvorgängen erfordert das denkende, sprechende und handelnde Subjekt als zentralen Akteur. Die auf dem Spiel stehenden Kapitalsummen drängen zur optimalen Einbeziehung kooperativer Subjektivität, also dazu, die ja immer und prinzipiell eigenständige Subjektivität zur Kooperation zu locken oder zu zwingen.“14 12 13 14
Knape, a. a. O. Schmiede, Rudi: Informatisierung und Subjektivität. In: Konrad, Wilfried; Schumm, Wilhelm (Hg.): Wissen und Arbeit. Neue Konturen von Wissensarbeit. Münster 1999. S. 134–151. a. a. O., S. 10. Schmiede unterstützt diese These mit den Ergebnissen industriesoziologischer Forschung über die Bedeutung informeller Gruppen und der Kooperationsbeziehungen sowie
290
Francesca Vidal
Die aktive Beteiligung des Beschäftigten, die gerade der höher Qualifizierte durchaus positiv wahrnimmt, wird für die Unternehmen zum Rationalisierungspotential. Seine ihm eigenen Kompetenzen werden in allen Bereichen zur Ressource des Unternehmens. Die Anforderungen an Selbstorganisation und Selbststeuerung steigen in zunehmendem Maße, auch darauf bezogen, dass jeder selbst dafür verantwortlich ist, sich das geforderte Potential in Formen des lebenslangen Lernens anzueignen. Gerade weil die geforderten Fähigkeiten über fachliche Kompetenzen hinausgehen, sowohl soziale als auch methodische einschließen und dieses Bündel der stetigen Veränderung unterliegt, wird der Einzelne einem kontinuierlichen Prozess ausgesetzt, für den er sich immer wieder neu qualifizieren und in dem er seine Qualifikationen immer wieder neu unter Beweis stellen muss. Die Fähigkeiten, die ein Mensch im Laufe seines Lebens durch Bildung, Praxis, Erfahrung und Erlebnisse im beruflichen wie im privaten Leben erwirbt, sind Teil seines Arbeitsvermögens, das die Warenform der Arbeit erst möglich macht. Dieses Vermögen geht aber weit über das hinaus, was der Arbeitende in seinem Berufsleben tatsächlich einbringen kann. Mit dem Begriff des „Arbeitsvermögens“ schließt Sabine Pfeiffer „an den von Negt/Kluge (1993) aufgedeckten Gegensatz von subjektiver Produktion der Arbeitskraft einerseits und deren Objektivierung als Funktion des Lohnarbeitsprozesses an und begreift konsequent ersteres als Arbeitsvermögen und letzteres als Arbeitskraft“.15 Beides sei nur in seiner dialektischen Beziehung zueinander zu erfassen, um sowohl auf der Ebene der Kritik und der Utopie gesellschaftliche Entwicklungen zu analysieren. Das Arbeitsvermögen sieht sie sowohl in seinem Prozesscharakter als auch als außerhalb des Subjekts zur Form gekommenes Produkt. „Arbeitsvermögen und Arbeitskraft sind zwei grundsätzliche, sich geschichtlich bedingt jeweils verändernde und in einem je dialektischen Verhältnis sich zueinander verhaltende Aspekte, die lediglich analytisch klar in ihre quantitativen und qualitativen Anteile zu trennen sind.“16 Es geht um das Mehr des Arbeitsvermögens, um derart emanzipatorische Potentiale offenzulegen, was nur möglich ist, wenn Arbeitsvermögen und Arbeitskraft in ihrem dialektischen Verhältnis im Zusammenhang der gesellschaftlichen Formen der Arbeitsorganisation gesehen werden. So kann eine kritische Sicht auf die sich vollziehende Subjektivierung entwickelt werden, weil zu zeigen ist, in welcher Weise das Arbeitsvermögen einerseits stärker genutzt wird, sich aber andererseits in diesem Prozess auch neu bildet und so tatsächlich als Potential verstanden wer-
15
16
mit praktischen Hinweisen, wie Unternehmen versuchen den Einzelnen stärker einzubeziehen etwa durch die sogenannten Kommunikationstrainingsprogramme. Pfeiffer, Sabine: Informatisierung, Arbeitsvermögen und Subjekt – konzeptuelle Überlegungen zu einer emanzipationsorientierten Analyse von (informatisierter) Arbeit. In: Schönberger, Klaus; Springer, Stefanie (Hg.): Subjektivierte Arbeit. Mensch – Technik – Organisation in einer entgrenzten Arbeitswelt. Frankfurt am Main, New York 2003. S. 191. Oskar Negt und Alexander Kluge beschäftigen sich mit den Prozessen, die sich innerhalb des Subjekts aufgrund des Verkaufs der Ware Arbeitskraft vollziehen. Vgl. Negt, Oskar; Kluge, Alexander: Geschichte und Eigensinn. Bd.1: Entstehung der industriellen Disziplin aus Trennung und Enteignung. Frankfurt am Main 1993. Pfeiffer, S.: a. a. O. S. 193.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten
291
den kann. Mit dieser Konzentration auf die qualitativen Momente lassen sich die Fähigkeiten erfassen, die das Subjekt braucht, um sich die Welt anzueignen und die es während dieser Aneignung in allen Lebensbereichen bildet und verausgabt. Sieht man also mit Pfeiffer das Arbeitsvermögen als Produkt der menschlichen Lebenstätigkeit, lässt sich im Sinne der Arbeitssoziologie fokussieren, welcher Teil ökonomisch angeeignet wird und welcher aufgrund der Verwirklichungsbedingungen ruht und darin die Kritik der Verwertungsinteressen ableiten. Es geht dann auch um die rhetorischen Fähigkeiten, die das Subjekt zugleich braucht und die doch in weiten Teilen ungenutzt bleiben, weil die Bedingungen es nicht anders zulassen, und damit zugleich immer auch um die Frage, ob dies die Fähigkeiten sind, die es ihm erlauben würden, diese Bedingungen zu verändern. Mit Rekurs auf den Begriff des Arbeitsvermögens kann der Rahmen der Anforderungen des Marktes bezogen auf die Erwerbstätigkeit gesprengt werden, da die Qualitäten des Subjekts ganzheitlich in den Blick genommen werden, es also auch um die Fähigkeiten des Subjekts geht, „die jenseits seiner warenförmigen Repräsentation, der Arbeitskraft, liegen“17. Das Arbeitsvermögen ist zum einen abhängig von der individuellen Geschichte des Einzelnen, hinsichtlich der kommunikativen Fähigkeiten von der Kommunikationsbiografie, und zum anderen von den gesellschaftlichen Repräsentationen. Es wird durch den Bezug des Einzelnen zur Welt angeeignet und bildet derart sein durchaus auch utopisch zu bestimmendes Potential. D. h., zum Potential des Subjekts gehören neben den formalen Qualifikationen unabdingbar auch die individuellen Wissensformen, die auf der Basis von Erfahrung angeeigneten Handlungsmodi, die sich eben sowohl im Bereich von Bildung und Arbeit als auch im lebensweltlichen Alltag bilden. Das Subjekt wird derart verstanden als durch die Gesellschaft situiert und sich entwickelnd durch die kulturelle Vermittlung. Aufgrund der Lebensbiografie muss jeder individuell gemachte Erfahrungen und Widerstände in Handeln umsetzen. Das sich so bildende Arbeitsvermögen wird aus der Perspektive der Verwertungsinteressen des Marktes immer nur in Splittern wahrgenommen. Dass die Transformation der Erfahrungen in Handlungswissen in Abhängigkeit zur eingenommenen Perspektive und zum jeweiligen Diskurs geschieht, eröffnet aber auch die Chance, den Rahmen der Marktinteressen zu verändern. Wenn es darauf ankommt, das Erfahrungswissen der Subjekte zu transformieren, eignet sich die Rhetorik im besonderem Maße, da Rhetorik eine Erfahrungswissenschaft ist: Sie gewinnt ihre Erkenntnisse aufgrund empirisch nachweisbarer Beobachtung und Analyse von Erfahrungen im Bereich des rhetorischen Handelns und zieht daraus Schlussfolgerungen für die Theorie dieses Handelns. Derart erforscht sie die Struktur des gesellschaftlichen Lebens, um zu erörtern, wie der Mensch zum rhetorisch Handelnden werden kann. In der Rede sieht sie den Orientierungs- und Erfahrungsrahmen, um zu Entscheidungen zu gelangen. Ihre Orientierung entnimmt sie der geschichtlichen Perspektive, d. h., um rhetorikrelevante Probleme zu erörtern, bezieht sie sich auf ihre historischen Dimensionen. In den 17
Pfeiffer, Sabine: Arbeitsvermögen. Ein Schlüssel zur Analyse (reflexiver) Informatisierung. Wiesbaden 2004. S. 141.
292
Francesca Vidal
Worten Gert Uedings: „Die Rhetorik ist eine Erfahrungswissenschaft, denn, so erläutert Aristoteles, ‚man kann die Ursache untersuchen, weshalb die einen Erfolg erzielen aufgrund der Gewohnheit, die andern durch Zufall; alle möchten aber wohl zugeben, dass etwas Derartiges bereits Aufgabe einer Theorie ist‘ (Rhet., 1354a: 1.1.2). Sie bedient sich der kontrollierten und empirisch nachweisbaren Beobachtung rhetorischer Sprechakte und versucht die Geltung der aus ihr gewonnenen Erkenntnisse durch historische Rekonstruktion und die Bildung von Hypothesen über die Systematik und die Regeln rhetorischen Sprechens zu sichern, was wir Allgemeine Rhetorik nennen.“18
18
Ueding, Was ist Rhetorik?, a. a. O., S. 15.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten
293
LITERATUR Arendt, Hannah: Vita activa oder vom tätigen Leben (1958). München, Zürich 2007. dies.: Was ist Politik? Fragmente aus dem Nachlass. München, Zürich 1993. Benseler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit. Hamburg 1982. Burisch, Wolfram: „Das Leben ist Freizeit“. Über die Diskriminierung emanzipatorischer Arbeit. http://www.bloch-akademie.de/txt/t4_07.htm (Zugriff am: 17.9.2017) Guggenberger, Bernd: Am Ende der Arbeitsgesellschaft – Arbeitsgesellschaft ohne Ende? In: Benseler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit. Hamburg 1982. S. 63–83. Knape, Joachim: Persuasion. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik. Bd. 6. Tübingen 2003. Negt, Oskar; Kluge, Alexander: Geschichte und Eigensinn. Bd.1: Entstehung der industriellen Disziplin aus Trennung und Enteignung. Frankfurt am Main 1993. Pfeiffer, Sabine: Arbeitsvermögen. Ein Schlüssel zur Analyse (reflexiver) Informatisierung. Wiesbaden 2004. S. 141. dies.: Informatisierung, Arbeitsvermögen und Subjekt – konzeptuelle Überlegungen zu einer emanzipationsorientierten Analyse von (informatisierter) Arbeit. In: Schönberger, Klaus; Springer, Stefanie (Hg.): Subjektivierte Arbeit. Mensch – Technik – Organisation in einer entgrenzten Arbeitswelt. Frankfurt am Main, New York 2003. S. 182–210. Schmiede, Rudi: Informatisierung und Subjektivität. In: Konrad, Wilfried; Schumm, Wilhelm (Hg.): Wissen und Arbeit. Neue Konturen von Wissensarbeit. Münster 1999. S. 134–151. ders.: Wissen, Arbeit und Subjekt im „Informational Capitalism“. In: Dunkel, Wolfgang; Sauer, Dieter (Hg.): Von der Allgegenwart der verschwindenden Arbeit. Neue Herausforderungen für die Arbeitsforschung. Berlin 2006. Schröter, Welf: Electronic Mobility – wenn Arbeit losgelöst vom Menschen mobil wird. Auf dem Weg zu „New Blended Working“. In: Baacke, Eugen; Scherer, Irene; Schröter, Welf (Hg.): Electronic Mobility in der Wissensgesellschaft. Wege in die Virtualität. Mössingen 2007. Ueding, Gert: Was ist Rhetorik? In: Soudry, Rouven (Hg.): Rhetorik. Eine interdisziplinäre Einführung in die rhetorische Praxis. Heidelberg 2006. S. 13–23. Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in der Kultur der konkreten Virtualität. Mössingen 2010. Wenzel, Harald: Die Technisierung des Subjekts. Zum Verhältnis von Individuum, Arbeit und Gesellschaft heute. In: Schmiede, Rudi (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion und Subjekt in der „Informationsgesellschaft‘. Berlin 1996.
GIBT ES EINE KULTUR DER VERNETZTEN WELT?
Wie Informatik eine globale und nachhaltige Informationsgesellschaft ermöglicht Wolfgang Hofkirchner Die Geschichte wiederholt sich nicht. Sie ist ein praktisch im Detail nicht reproduzierbarer, ontisch der Richtung nach nicht umkehrbarer und auf einzelne Bestimmungsgrößen nicht zurückführbarer, offener und epistemisch nicht vollständig vorhersagbarer oder erklärbarer Prozess der Entwicklung der soziokulturellen Organisation eines biologischen Wesens, dessen Erscheinen auf dem Planeten Erde diesem einen Stempel aufdrückt. Was sich wiederholt, sind Konstellationen, die zu früheren Zeitpunkten so oder ähnlich schon aufgetreten sind, sich aber zum Zeitpunkt der Wiederholung in einem anderen Umfeld ereignen. Gegenwärtig scheint die Menschheit einem weltweiten Wiederholungszwang zum Nationalismus, Populismus und Rechtsruck zu unterliegen, der im letzten Jahrhundert in die Katastrophe des Zweiten Weltkriegs gemündet ist – eine Katastrophe, die groß genug gewesen ist, um ein Bewusstsein zu schaffen, dass eine solche Katastrophe nie wieder zugelassen werden dürfe, aber eben ein Ereignis, das sich nicht ohne Hegemonie bewusster Kräfte in Institutionen niederschlagen kann, die ein nochmaliges Eintreten dauerhaft verhindern würden. Allerdings ist das Umfeld heute ein anderes, und eine Wiederholung könnte die ultimative Katastrophe heraufbeschwören. War der Zweite Weltkrieg noch ein Hinweis darauf, dass es möglich ist, im industriellen Stil Massenvernichtung zu betreiben, war sein Ende bereits das Aufblitzen eines neuen Zeitalters, in dem neue Technik die Auslöschung der gesamten Menschheit zur Folge haben kann. Seit dem Ende des Zweiten Weltkriegs steht die Menschheit unwiderruflich im Kontext des globalen Zeitalters, des Zeitalters der globalen Probleme. Diese wurden, angestoßen durch gesellschaftskritische Reflexionen, von sozialen Bewegungen auf den Punkt gebracht. 1955 wurde das Einstein-Russell-Manifest für den Verzicht militärischer Mittel in den internationalen Beziehungen unterzeichnet, das als Gründungsdokument der Pugwash-Bewegung gilt und eine internationale Friedensbewegung inspirierte, die in die Breite wuchs. 1962 erschien Rachel Carsons Buch „Silent Spring“1, das am Beispiel der Handhabung der Pestizide in den USA für einen sorgsamen Umgang mit der Natur plädierte und zum Startschuss einer weltweiten Umweltbewegung wurde. Und schließlich entstanden in den Metropolen Bewegungen, die sich mit den antikolonialen Befreiungsbewegungen solidarisierten, die, von Frantz Fanons „Les damnés de la terre“2 vorweggenommen, den Kampf für sozioökono1 2
Carson, Rachel: Silent spring. Boston 1962. Carson starb 1964. Fanon, Frantz: Les damnés de la terre. Paris 1961. Dieses Werk, auf das sich heute die sogenannten „Postcolonial Studies“ beziehen, erschien mit einem Vorwort von Jean-Paul Sartre 1961 – ein Jahr, das der Autor nicht mehr überleben sollte.
296
Wolfgang Hofkirchner
mische Gleichstellung aufgenommen hatten. Kirchen erkannten diesen Anliegen unter dem Titel des Friedens, der Bewahrung der Schöpfung und der Gerechtigkeit im ökumenischen Prozess entscheidende Bedeutung zu. Glichen diese Bewegungen anfangs noch sogenannten Ein-Punkt-Bewegungen, so kamen sich deren Vertreterinnen immer näher und ließen die Ziele der Bewegungen miteinander verschmelzen. Die Einsicht, die immer mehr um sich greift, ist die, dass es letztlich um die Commons geht, die für das commune bonum stehen, das allgemeine Gut, um dessentwillen sich die Mitglieder einer Gesellschaft organisieren, an dessen Produktion sie durch gemeinsame Kraftanstrengung teilhaben und dessen Fruchtgenuss sie untereinander teilen3. Verwerfungen in diesem gesellschaftlichen Verhältnis sind es, die als globale Probleme in Erscheinung treten und sich als Krisen zuspitzen. Erheischt wird eine Reorganisation der gesellschaftlichen Verhältnisse im Weltmaßstab. Diese Einsicht der neuen sozialen Bewegungen, die für eine andere Globalisierung eintreten, ist der Keim einer neuen Weltkultur, die sich der informationstechnischen Vernetzung bedienen, um eine andere Vernetzung der Menschen einzufordern. Die weltgeschichtliche Situation der Menschheit kann aus einer Perspektive der Evolution selbstorganisierender Systeme als Entwicklungskrise bestimmt werden, in der die angelegte Chance, „erwachsen“ zu werden, Reife zu zeigen und die gesellschaftlichen Verhältnisse auf dem Globus in Ordnung zu bringen, d. h., auf eine höhere Stufe der Organisation zu heben, mit dem Risiko des Omnizids behaftet ist. Systemtheoretisch gesehen, bewegen sich Systeme im Zuge ihrer Evolution hin auf Trajektorien, die Bifurkationen beinhalten. Bifurkationen kommen mit einer Vielzahl möglicher zukünftiger Trajektorien einher. Es kann der Fall eintreten, dass Systeme nicht in der Lage sind, Devolution, also ihre „Abwicklung“, abzuwenden und auf einen Pfad gelangen, der zum Zusammenbruch des Systems führt. Es kann aber auch vorkommen – und das war der Fall bei allen Systemen, die wir gegenwärtig beobachten können –, dass sie den Durchbruch auf eine höhere Komplexitätsstufe, zu einem höheren Organisationsgrad, auf eine Trajektorie schaffen, die im Rahmen einer Mega-Evolution die Fortsetzung ihrer Entwicklung erlaubt, die auf der bisherigen Trajektorie, auf der sie sich in einem Gleichgewichtszustand befunden haben, nicht mehr möglich ist. Zunehmende Fluktuationen, Abweichungen von diesem Gleichgewichtszustand, verweisen auf ein Manko in ihrer Organisation, in der Meisterung der Komplexität, und sind Anzeichen für das Erreichen von Unterbrechungen der „normalen“ Evolution. Wichtig ist, festzuhalten, dass der Übergang des Systems auf eine neue Trajektorie zwar objektiv möglich, aber im Einzelnen nicht notwendig bestimmt, sondern kontingent ist, also emergiert, und die Evolution keinen a priori gegebenen Pfaden folgt. Soziale Systeme bilden keine Ausnahme. Die gesellschaftliche Entwicklung heute zeigt Krisen zwischen supranationalen Gebilden, nationalstaatlich verfassten Gesellschaften und als Teilstaaten verfassten Gemeinwesen in allen gesellschaftlichen Subsystemen, ihren kulturellen, politischen, wirtschaftlichen, ökologischen 3
vgl. Hofkirchner, Wolfgang: Relationality in social Systems. In: Li, Wenchao (Hg.): „Für unser Glück oder das Glück anderer.“ Vorträge des X. Internationalen Leibniz-Kongresses. Hildesheim u. a. 2016. S. 235–243; sowie: ders.: The commons from a critical social systems perspective. In: Recerca, Ausgabe 14, 2014, S. 73–91.
Gibt es eine Kultur der vernetzten Welt?
297
und technologischen Subsystemen, Krisen, die zustande kommen durch Mängel in der Organisierung des Gemeinwohls und sich zu globalen Problemen ausgewachsen haben, die alle betreffen und nur mehr von allen gemeinsam gelöst werden können. Der Umkipppunkt erfordert die Transition in einen anderen Zustand. Entweder scheitern die immer stärker voneinander abhängig gewordenen sozialen Systeme an einer Neuordnung ihrer Beziehungen, die dem Komplexitätsgrad der Probleme gerecht wird, die sie selber hervorgerufen haben, weil die bisherige Ordnung ihrer eigenen Angelegenheiten nicht mehr im Stande ist, als Muster für eine über ihre Systeme hinaus verallgemeinerte gerechte Teilhabe aller am allgemeinen Gut weltweit zu dienen, und schlittern auf Abwege der endgültigen Desintegration und des Auseinanderbrechens der menschlichen Zivilisation zu, oder sie einigen sich auf den Weg in die Integration in einer globalen nachhaltigen Informationsgesellschaft. Dies wäre ein Wandel sondergleichen. Es liegt an den sozialen Systemen samt ihren sozialen Akteuren, die Wahl zu treffen. Das ist die große Bifurkation. Die Vision einer globalen nachhaltigen Informationsgesellschaft zeichnet sich durch drei Imperative aus, denen gefolgt werden muss, soll eine Kultur der vernetzten Welt Wirklichkeit werden: einen, der Globalität betrifft, einen, der die Nachhaltigkeit betrifft, und einen, der die Informiertheit betrifft4. Der erste ist der globale Imperativ. Die Evolution komplexer Systeme kann dazu führen, dass ursprünglich unabhängige Systeme voneinander abhängig werden und dass sie diese Interdependenz dazu nutzen, als Ko-Systeme miteinander zu kooperieren und sich als Elemente in ein von ihnen geschaffenes Meta- oder Suprasystem zu integrieren. Dies ist der Weg der Steigerung der Komplexität. Ein neues System entsteht und mit ihm Hierarchie, indem das integrierende System die anderen in sich einbettet. Die heutige gesellschaftliche Entwicklung steht an diesem Punkt: Die Gliederungen der Menschheit können nicht überleben und kein gutes Leben führen, solange nicht alle von ihnen an einer echten Weltgesellschaft partizipieren. Nach dem Nomadentum der Horden von Jägern und Sammlerinnen bis zum Beginn der neolithischen Revolution entwickelten sich auf Grund der Sesshaftigkeit immer größere Agglomerationen, die einem Territorialprinzip folgten. Diese könnte heute wiederum, angestoßen durch neue Migrationen5 und gefördert von den neuen Informations- und Kommunikationstechnologien, in einem Weltsystem aufgehoben werden, in dem einer Dialektik von Globalem und Lokalem (Glokalität6) gefolgt wird. Der zweite Imperativ ist der der Nachhaltigkeit. Dabei muss Nachhaltigkeit in einem systemischen Sinn erweitert definiert werden. Sobald die neue Struktur, die 4 5 6
s. ders.: Information for a global sustainable information society. In: Hofkirchner, Wolfgang, Burgin, Mark (Hg.): The future information society. Social and technological problems. Singapore u. a. 2017. S. 11–33. Der französische „Philosoph des Internets“, Pierre Lévy, sprach in den 90ern vom neuen Nomadentum (s. Lévy, Pierre: L’intelligence collective. Pour une anthropologie du cyberespace. Paris 1994). Den Terminus „Glocalization“ führte Roland Robertson Ende der 90er Jahre in den wissenschaftlichen Diskurs ein (s. Robertson, Roland: Globalization. London 1992).
298
Wolfgang Hofkirchner
organisatorischen Beziehungen des Meta-/Suprasystems, das nun ein System causa sui darstellt, in Kraft tritt und als Formursache den Aktionsspielraum der Agenten, der neuen Elemente, im Falle des Meta-/Suprasystems der zu Ko-Systemen gewordenen ursprünglichen Systeme, formt, d. h. beschränkt, aber gleichzeitig neue Aktionen, Interaktionen und Ko-Aktionen ermöglicht, die Synergie hervorbringen, kann der Verbund der Systeme eine stabile Entwicklung einleiten, eine, die Synergieeffekte garantiert, eine, die Einheit durch Vielfalt verwirklicht, d. h. gerade so wenig Integration wie nötig und so viel Differenzierung wie möglich. Was bei Systemen Stabilität heißt, heißt bei sozialen Systemen Nachhaltigkeit. Diese bezieht sich nicht nur auf das Verhältnis der Menschen zur Natur, sondern auch auf das Verhältnis der Menschen zueinander bzw. der Menschen zur Gesellschaft sowie auf das Verhältnis der Menschen zur Technik. Heute können weder eine Weltgesellschaft noch deren Teile als zukunftsfähig gelten, solange keine Strategie existiert, die darauf abzielt, die bestehenden anthropogenen Dysfunktionen im Funktionieren der sozialen Systeme zu beseitigen und in der Zukunft möglichen Dysfunktionen vorzubauen. Auch hier lässt sich ein Dreischritt ins Treffen führen. Die in den Urgesellschaften herrschende weitgehend undifferenzierte Gemeinschaft, in der die einzelnen Mitglieder Inkarnationen eines mystisch verstandenen „Wir“ waren, wurden von produzierenden Gesellschaften abgelöst, die Mehrwert erzeugen, welcher durch private Aneignung Klassenspaltungen, Ausbeutung und Unterdrückung erlaubt, welche eine Diversität von Identitäten zur Folge haben, die einander entweder antagonistisch gegenüberstehen, d. h. in Konflikten eingebunden sind, in denen der Vorteil der einen auf Kosten der anderen erreicht wird, oder agonistisch miteinander wetteifern, d. h. Konflikte austragen, in welchen die Gegensätze koexistieren, miteinander kompossibel7 sind. Heute wäre es an der Zeit, eine Synergie der Unterschiede, eine unitas multiplex8 zu etablieren, in der die Vielfalt sich gegenseitig stützt, in einer Komposition aller Unterschiede – eine weise Gesellschaft, wie das vor 20 Jahren die Europäische Kommission sich vorzustellen getraute. Der dritte Imperativ ist der informationelle Imperativ. Wenn die Komplexität der Herausforderungen an ein System die Komplexität des Systems selber übersteigt, dann ist frei nach William Ross Ashbys Gesetz der erforderlichen Vielfalt9 die Komplexitätserhöhung des Systems das Mittel der Wahl. Diese Komplexitätserhöhung des selbstorganisierenden Systems geschieht durch Generierung entsprechender Information durch das System selber. Intelligenz kann dann nämlich als die Fähigkeit des Systems definiert werden, diejenige Information zu generieren, die gebraucht wird, um die Probleme zu entschärfen, die die Leistung des Systems oder dessen Aufrechterhaltung beeinträchtigen. Kollektive Intelligenz ist eine emergente 7 8 9
Der Begriff „Agonismus“ geht auf Chantal Mouffe zurück (siehe z. B.: Mouffe, Chantal: Agonistics. Thinking the world politically. London 2013). „Kompossibilität“ ist eine von Leibniz verwendete Kategorie. Morin, Edgar: Seven complex lessons in education for the future. http://unesdoc.unesco.org/ images/0011/001177/117740eo.pdf, S. 25 (Zugriff am: 1.4.2017). vgl. Ashby, William Ross: An introduction to cybernetics. New York 1956.
Gibt es eine Kultur der vernetzten Welt?
299
Erscheinung, die auf der Ebene des Suprasystems angesiedelt ist und die einzelnen Intelligenzen von Ko-Systemen übertreffen kann. Kollektive Intelligenz ist heute das, was auf der Ebene der gesamtgesellschaftlichen Entwicklung gebraucht wird. Den anthropogenen Dysfunktionen kann nicht gegengesteuert, die sozialen Systeme können nicht auf einen nachhaltigen Pfad gebracht werden, solange nicht die dazu erforderlichen Informationen (Daten, Wissen, Weisheit) generiert werden, solange nicht eine Bewusstheit hegemonisch wird, die ein gutes Leben und das Überleben der Menschheit intendiert, und solange nicht die Informations- und Kommunikationstechnologien diese Prozesse unterstützen, statt sie im Interesse der Aufrechterhaltung des status quo zu hintertreiben. Dieser Imperativ legt einen möglichen dritten Sprung der Menschwerdung nahe. Einen ersten Sprung von unseren tierischen Vorfahren zum homo sapiens als animal sociale bildete der Übergang zum Frühmenschen. Dieser Frühmensch war fähig, bei direkt miteinander verbundenen Akteuren gemeinsame Intentionen zu erzeugen, gemeinsame Ziele, gemeinsame Aufmerksamkeit in der gemeinsamen Handlung, was kulturelle Faktoren in die biologische Evolution einführte. Ein zweiter Sprung der Anthroposoziogenese führte zwar zu einer kollektiven Intentionalität in der gesellschaftlichen Gruppe, die ein und dieselbe Kultur teilte, als die sozial-kulturelle Entwicklung die biologische Entwicklung der Frühmenschen zu dominieren begann. Aber die kollektive Intentionalität wurde nachgerade in Jahrtausenden zur instrumentellen Vernunft pervertiert, in der homo idioticus10 für seine privaten Zwecke andere Mitglieder der Gesellschaft instrumentalisiert und seine eigene Handlungsfähigkeit dadurch beschränkt, dass er die anderen in der Arbeit für das Gemeinwohl und in dessen Nutznießung nicht als gleichwertig erachtet. Das Entstehen meta-reflexiver Akteure11, deren Wissen und Gewissen die Sorge um das allgemeine Gute rehabilitiert und zu verallgemeinerten Handlungen auf unserem Planeten fähig sind, würde die Menschwerdung zu einem echten homo socialis12 „vervollkommen“. Wenn wir danach fragen, welche Rolle der Information in diesem Transformationsprozess zukommt, dann ist die Antwort, dass Information die Voraussetzung dafür darstellt, dass die gestiegene Komplexität der Interaktion der voneinander abhängig gewordenen sozialen Systeme in Sicht genommen und wieder in den Griff bekommen werden kann. Information kommt in allen selbstorganisierenden Systemen in drei Varianten vor: Systeme erkennen andere Systeme in ihrer Umwelt (kognitive Variante), als kogni10
11
12
Ich habe mir erlaubt, den Begriff des homo oeconomicus zu verallgemeinern. Dabei beziehe ich mich auf die antike Bedeutung von idiotes zur Bezeichnung derjenigen Personen, die sich nicht an der res publica beteiligten, sondern Ressourcen der Allgemeinheit zum privaten Gebrauch entzogen (vgl. Curtis, Neil: Idiotism. Capitalism and the privatisation of life. London 2013. S. 12). „Metareflexivität“ ist nach der Soziologin Margaret Archer die Fähigkeit von Personen, nicht nur den unmittelbaren sozialen Kontext zu reflektieren, sondern auch das Wohl der Gemeinschaft zum Anliegen zu machen (Archer, Margaret: Making our way through the world. Human reflexivity and social mobility. Cambridge 2007; s. auch: Donati, Pierpaolo, Archer, Margaret: The relational subject. Cambridge 2015). Gintis, Herbert, Helbing, Dirk: Homo socialis. An analytical core for sociological theory. In: Review of Behavioral Economics, Ausgabe 2, 2015, S. 1–59.
300
Wolfgang Hofkirchner
tive Systeme koppeln sie sich mit Ko-Systemen (kommunikative Variante), und als kommunikative Systeme verschränken sie sich miteinander über die organisatorischen Beziehungen des Meta-/Suprasystems, an dem sie teilhaben (kooperative Variante)13. Soziale Systeme zeigen soziales Informationsgeschehen: Die soziale Kognition befähigt Akteure zur Reflexion ihres Selbst im Gesamtzusammenhang, die soziale Kommunikation befähigt zur Reflexion der Intention der anderen, und die soziale Kooperation befähigt zur Reflexion der Intention, die im sozialen System, in das sie eingebettet sind, geteilt wird. Soziale Kognition ist konzeptuell, d. h., sie verläuft über die Bildung von Begriffen14, die verallgemeinern – sie sind damit inhärent emergente Produkte, weil sie über das in der Erfahrung Gegebene hinausgehen. Soziale Kommunikation ist konsilient15, das heißt, sie verläuft über die Abstimmung der eingebrachten Standpunkte, in der über die Nützlichkeit und Wahrheitstreue der kognitiven Informationen befunden wird – ebenfalls ein emergenter Prozess, bei dem nicht festgelegt ist, was herauskommt. Soziale Kooperation ist kollektiv intentional16, das heißt, sie verläuft über die auf der Basis der kommunikativen Informationen erreichte Übereinstimmung bei der Zielsetzung, der Analyse des Hier und Jetzt als Ausgangspunkt und der Planung von Maßnahmen zur Verwirklichung der Ziele – diese Entscheidungsfindung und -umsetzung ist wiederum emergent, da im Detail unvorhersehbar und nicht vorbestimmt. Die sozialen Informationstypen bilden eine Hierarchie: Die kooperative Information hat in sozialen Systemen eine konsensuale Funktion (sie regelt die Bestimmung der gemeinsamen Vorhaben), die kommunikative eine kollaborative (sie regelt das Zusammenwirken für die Umsetzung der gemeinsam bestimmten Vorhaben) und die kognitive eine koordinative (sie regelt das Verstehen des Zusammenwirkens für die Umsetzung der gemeinsam bestimmten Vorhaben). Im Zeitalter der globalen Probleme ist die Informationsgesellschaft herausgefordert, die Funktionsweisen der Varianten der sozialen Information auf eine bestimmte Art zu verändern und mit neuem Inhalt zu füllen, und das ist möglich. Die konsensuale, kollektive Objektivität der Kooperation kann und muss auf das Überleben der Menschheit und am guten Leben orientiert werden; es geht um die Veränderung der Verhältnisse, die Herstellung und (Ver-)Teilung des gemeinsamen Guts betreffen. Die kollaborative, konsiliente Intersubjektivität der Kommunikation kann und muss die gesamte Menschheit einbeziehen; es geht darum, dass eine globale Konversation im Prinzip keinen Akteur von vornherein ausschließen darf. Die koordinative, konzeptuelle Subjektivität der Kognition kann und muss die eigene Handlungsfähigkeit 13 14 15
16
vgl. Hofkirchner, Wolfgang: Emergent information. A unified theory of information framework. Singapore u. a. 2013. S. 184–195. vgl. Logan, Robert: The extended mind. The emergence of language, the human mind and culture. Toronto 2007. „Consilience“ wurde vom Soziobiologen Edward O. Wilson in den Fokus gerückt (s. Wilson, Edward O.: Consilience. The unity of knowledge. London 1998). Der Begriff wird von mir im Sinne von Ludwig von Bertalanffys Gedanken der Deanthropomorphisierung und Objektivierung wissenschaftlichen Wissens verwendet (vgl. Bertalanffy, Ludwig von: General System Theory. New York 2015. S. 247–248). vgl. Tomasello, Michael: A natural history of human thinking. Cambridge 2014; sowie: ders.: A natural history of human morality. Cambridge 2016.
Gibt es eine Kultur der vernetzten Welt?
301
global erweitern; es geht darum, die Begrenzungen auf die eigenen Interessen hinter sich zu lassen und zu erkennen, dass die Verfolgung legitimer Eigeninteressen die Förderung des planetaren Allgemeinwohls voraussetzt. Das hat Konsequenzen für die Gestaltung der Informationstechnologie. Die Informatik müsste demnach so gestaltet werden, dass Anwendungen die Generierung solcher Information (Daten, Wissen, Weisheit) erleichtern und befördern, die zur Transformation in eine globale nachhaltige Informationsgesellschaft erforderlich ist. Die Informations- und Kommunikationstechnologien befördern nicht automatisch eine Qualität der sozialen Informationsprozesse, die der Herausforderung durch die globalen Probleme gerecht wird. Sie sind vielmehr auch Teil des Problems. Denn die Informatisierung – der Prozess der Verbreitung jener Techniken, welche die Gesellschaft immer empfänglicher für Information machen – ist ambivalent. Sie bereitet nicht nur den Boden für informiertes Welt-Netzbürgertum, sondern konfrontiert uns auch im Bereich der Kultur mit Informationsflut und Gehirnwäsche, im Bereich der Politik mit der Verletzung des informationellen Selbstbestimmungsrechts durch Überwachung oder Informationskriege, im Bereich der Wirtschaft mit der Proprietarisierung intellektueller Güter und Dienste durch Kommodifizierung und Kommerzialisierung, im Bereich der Umwelt mit computergestützter Übernutzung und Verschmutzung der äußeren wie der inneren Natur und nicht zuletzt im Bereich der Technik selber mit der durch die Computerisierung gesteigerten Verletzlichkeit der Informationsgesellschaft. Der Informatisierung wohnt zwar ein Potenzial zur Verminderung von Reibungsverlusten im Funktionieren der Herstellung und Nutzung der Synergieeffekte der Commons inne. Andererseits kann sie aber auch Zwecken dienen, die der Wiedergewinnung der Commons zuwiderlaufen: Sie kann bestehende Ungleichheiten quantitativ verstärken oder qualitativ neue Ungleichheiten erzeugen. Dies ist empirisch vorfindliche Realität. Da Informatisierung beides kann – und auch tut –, bedürfen die Informationsund Kommunikationstechnologien einer bewussten Gestaltung, so dass sie die Problemlösungsfähigkeit der (Welt-)Gesellschaft in einem Ausmaß steigern, welches die Dysfunktionen, die mit den gesellschaftlichen Verhältnissen einhergehen (können), erfolgreich unterhalb der Schwelle der Selbstgefährdung der sozialen Systeme hält. Diese Aufgabe der Informatisierung – die technische Unterstützung derjenigen sozialen Informationsprozesse, die dazu beitragen, dass der Komplexitätsgrad der sozialen Systeme erhöht wird, damit ein nachhaltiger Pfad der gesellschaftlichen Entwicklung eingeschlagen werden kann – mag „Informationalisierung“ genannt werden. Informatisierung ist kein Selbstzweck, sondern kann und muss der Informationalisierung dienen. Die Informatisierung muss zum Werkzeug der Informationalisierung gemacht werden. Aus diesem Grund ist die Informations- und Computerethik ein Muss für die Informatik. Eine globale nachhaltige Informationsgesellschaft braucht eine verantwortungsbewusste Informatik. Eine verantwortungsbewusste Informatik muss die Informations- und Kommunikationstechnologien ethisch reflektiert gestalten. Technik muss einen Sinn machen, der erstens darin besteht, dass Technikfolgenabschätzung und Technikgestaltung den erwarteten und tatsächlichen Nutzen der Technik im Hinblick auf die soziale Nützlichkeit einer steten Überprüfung unterzieht. Diese
302
Wolfgang Hofkirchner
Überprüfung darf nicht nur die Zweckmäßigkeit der Technik für die Erfüllung des sozialen Zwecks befragen, sondern muss auch den Zweck selber hinterfragen. Dieser Zweck kann im Zeitalter der globalen Probleme nur in der Erlangung, im Ausbau, in der Aufrechterhaltung und im verbesserten Einsatz der Verfügungsgewalt über das weltweite Gemeingut der Gesellschaften seine Rechtfertigung finden. Zweitens besteht der Sinn der Technik darin, dass die von der Technik Betroffenen an diesem Prozess der Technikfolgenabschätzung und Technikgestaltung teilhaben können und in die Lage versetzt werden, durch die Bestimmung geeigneter Formen der Technik die gesellschaftliche Entwicklung mit Bewusstheit zu vollziehen. Eine ethikbasierte Informatik unterscheidet sich vom business as usual, wo keine mögliche Anwendung, kein Gegenstandsbereich und keine Methode ausgeschlossen werden, solange sie Profit versprechen, darin, dass sie, unter Einbeziehung der Betroffenen, zur Entwicklung technischer Lösungen für die Wiedergewinnung der Commons und die Fortsetzung der Zivilisation auf der Grundlage von Erkenntnissen über diejenigen Faktoren in Technik, Umwelt, Wirtschaft, Politik oder Kultur, die solche Lösungen anregen oder hemmen, durch eine auf die Ziele abgestimmte und den Gegenstandsbereich transdisziplinär umfassende Methodik beiträgt. Das ist eine Informatik für eine globale nachhaltige Informationsgesellschaft. Erst eine solche Informatik wird den Anforderungen unserer Zeit gerecht und leistet einen Beitrag zu einer sozialverträglichen Weltkultur, Weltpolitik und Weltwirtschaft, zur Umweltverträglichkeit und Technikverträglichkeit des Weltsystems, das sich in statu nascendi befindet und einem dritten Sprung in der Menschwerdung gleichkommt. Der Ausgang der großen Bifurkation ist allerdings ungewiss. DANKSAGUNG Dieser Text, der eine Antwort auf drängende Fragen unserer Zeit zu geben versucht, ist aus einer wissenschaftlichen Perspektive geschrieben, an deren Herausbildung Klaus Kornwachs entscheidenden Anteil hatte. Als ich ihn in den frühen 90er Jahren kennenlernte, bestärkte er mich darin, dem Zusammenhang von System und Information nachzugehen, Informationsgeschehen also systemtheoretisch in Sicht zu nehmen17. Als mich mein Weg zur Ausweitung der Überlegungen auf die Informationsgesellschaft führte, war die Begegnung im Rahmen meiner Habilitation im Fach „Technology Assessment“ an der TU Wien zur Jahrtausendwende ein wichtiger Kreuzungspunkt meiner akademischen Laufbahn.18 Als ich 2004 führend daran beteiligt war, eine außeruniversitäre Forschungseinrichtung zu gründen, die sich mit systemtheoretischen Fragestellungen beschäftigt (nämlich das Bertalanffy Center for the Study of Systems Science), war Klaus als einer der ersten, der bereit war, Mitglied im Wissenschaftsbeirat zu werden. Dieser unserer Zusammenarbeit sind wir bis heute treu geblieben. 17 18
vgl. Kornwachs, Klaus; Jacoby, Konstantin (Hg.): Information. New questions to a multidisciplinary concept. Berlin 1996. Hofkirchner, Wolfgang: Projekt Eine Welt. Kognition – Kommunikation – Kooperation. Versuch über die Selbstorganisation der Informationsgesellschaft. Münster 2002.
Gibt es eine Kultur der vernetzten Welt?
303
LITERATUR Archer, Margaret: Making our way through the world. Human reflexivity and social mobility. Cambridge 2007. Ashby, William Ross: An introduction to cybernetics. New York 1956. Bertalanffy, Ludwig von: General System Theory. New York 2015. Carson, Rachel: Silent spring. Boston 1962. Curtis, Neil: Idiotism. Capitalism and the privatisation of life. London 2013. Donati, Pierpaolo, Archer, Margaret: The relational subject. Cambridge 2015. Fanon, Frantz: Les damnés de la terre. Paris 1961. Gintis, Herbert, Helbing, Dirk: Homo socialis. An analytical core for sociological theory. In: Review of Behavioral Economics, Ausgabe 2, 2015, S. 1–59. Hofkirchner, Wolfgang: Projekt Eine Welt. Kognition – Kommunikation – Kooperation. Versuch über die Selbstorganisation der Informationsgesellschaft. Münster 2002. ders.: Emergent information. A unified theory of information framework. Singapore u. a. 2013. ders.: The commons from a critical social systems perspective. In: Recerca, Ausgabe 14, 2014, S. 73–91. ders.: Relationality in social Systems. In: Li, Wenchao (Hg.): „Für unser Glück oder das Glück anderer.“ Vorträge des X. Internationalen Leibniz-Kongresses. Hildesheim u. a. 2016. S. 235–243. ders.: Information for a global sustainable information society. In: Hofkirchner, Wolfgang, Burgin, Mark (Hg.): The future information society. Social and technological problems. Singapore u. a. 2017. S. 11–33. Kornwachs, Klaus; Jacoby, Konstantin (Hg.): Information. New questions to a multidisciplinary concept. Berlin 1996. Lévy, Pierre: L’intelligence collective. Pour une anthropologie du cyberespace. Paris 1994. Logan, Robert: The extended mind. The emergence of language, the human mind and culture. Toronto 2007. Morin, Edgar: Seven complex lessons in education for the future. http://unesdoc.unesco.org/ images/0011/001177/117740eo.pdf (Zugriff am: 1.4.2017). Mouffe, Chantal: Agonistics. Thinking the world politically. London 2013. Robertson, Roland: Globalization. London 1992. Tomasello, Michael: A natural history of human thinking. Cambridge 2014. ders.: A natural history of human morality. Cambridge 2016. Wilson, Edward O.: Consilience. The unity of knowledge. London 1998.
SCHEITERN VON INNOVATIONEN
Überlegungen zur techniktheoretischen Bedeutung eines innovativen Forschungsfelds Wolfgang König In den letzten Jahrzehnten hat man der Technikgeschichtsschreibung häufiger den Vorwurf gemacht, ein problematisches Bild der technischen Entwicklung zu vermitteln. Sie konzentriere sich auf erfolgreiche Innovationen und klammere gescheiterte Innovationen aus.1 Sie schaffe damit eine „Technikgeschichte der Sieger“2 und perpetuiere die damnatio memoriae der Verlierer durch die Zeitgenossen. Damit spielt man darauf an, dass die Zeitgenossen, Innovatoren, Manager und Unternehmer, begreiflicherweise lieber auf ihre Erfolge verweisen als auf ihre Misserfolge. Stellt man sich auf den Standpunkt, dass Geschichtsschreibung über Geschehenes berichten solle, dann hat die Konzentration auf die „Technikgeschichte der Sieger“ durchaus etwas für sich. Gescheiterte Innovationen gehören zwar auch zum historischen Geschehen, aber sie besitzen in aller Regel eine viel geringere Wirkmächtigkeit als erfolgreiche. Die Innovationsaktivitäten werden im Allgemeinen früher abgebrochen. Sie zeitigen eher indirekte Wirkungen, indem sie dokumentieren, dass bestimmte Optionen der technischen Entwicklung nur schwer oder gar nicht gangbar sind. Und sie verbrauchen Ressourcen, die für andere Entwicklungsarbeiten nicht mehr zur Verfügung stehen. Macht man sich bewusst, dass jegliche Technikgeschichtsschreibung eine rigide Auswahl unter dem Berichtenswerten vornehmen muss, dann ergibt es Sinn, sich auf das historisch Wirkmächtigere zu konzentrieren, eben die „Technikgeschichte der Sieger“, und das weniger Wirkmächtige, die gescheiterten Innovationen, auszuklammern. In analoger Weise findet sich dieses Phänomen der Ausklammerung gescheiterter Innovationen in der ökonomischen Innovationstheorie, und dies seit Joseph Schumpeter.3 Unter Berufung auf Schumpeter wird einem öfter entgegengehalten, 1
2 3
vgl. zur Beschäftigung der Technikgeschichte mit gescheiterten Innovationen: Bauer, Reinhold: Gescheiterte Innovationen. Fehlschläge und technologischer Wandel. Frankfurt, New York 2006; sowie: ders.: Failed Innovations. Five Decades of Failure. In: ICON. Journal of the International Committee for the History of Technology, 20 (2014), S. 33 ff.; sowie: Braun, Hans-Joachim (Hg.): Failed Innovations (Social Studies of Science 22,2). London, New Delhi 1992; sowie: Gooday, Graeme: Rewriting the ‘Book of Blots’. Critical Reflections on Histories of Technological ‘Failure’. In: History and Technology, 14 (1998), S. 265–291. vgl. Braun, Failed Innovations, a. a. O., S. 213; König, Wolfgang: Technikgeschichte. Eine Einführung in ihre Konzepte und Forschungsergebnisse. Stuttgart 2009. S 243–257. s. Schumpeter, Joseph: Konjunkturzyklen. Eine theoretische, historische und statistische Analyse des kapitalistischen Prozesses. 2 Bd. Göttingen 1961; sowie: Huisinga, Richard: Theorien und gesellschaftliche Praxis technischer Entwicklung. Soziale Verschränkungen in modernen
306
Wolfgang König
dass es gescheiterte Innovationen überhaupt nicht gibt. Der rationale Kern dieser Aussage besteht darin, dass sich Schumpeter für Innovationen nur im Kontext seiner konjunkturtheoretischen Überlegungen interessierte. Gescheiterte Innovationen besitzen aber keine konjunkturelle Wirkungen – es sei denn indirekte und marginale als ergebnisloser Ressourceneinsatz. Man kann dem Einwand terminologisch leicht gerecht werden, indem man in diesen Fällen nicht von Innovationen, sondern von Innovationsversuchen spricht. Sowohl die „Technikgeschichte der Sieger“ wie die Schumpetersche Konjunkturtheorie besitzen also eine Berechtigung. Allerdings leisten beide keinen relevanten Beitrag für eine reflektierte Innovationstheorie. Die „Technikgeschichte der Sieger“ wird sofort problematisch, wenn sie sich nicht darauf beschränkt, über den Gang der Technik zu berichten, sondern der stattgefundenen technischen Entwicklung die Vorstellung einer Gesetzmäßigkeit, Notwendigkeit oder Logik unterstellt. Dies würde einen Technikdeterminismus implizieren und eine Ignorierung historischer Kontingenz. Bei Schumpeter ist es – entgegen der landläufigen Meinung – offensichtlich, dass er sich für Innovationen wenig interessiert, sondern nur für die Wirkung von Innovationen auf das wirtschaftliche Geschehen. So geht er von einem dauernden Überschuss an Inventionen aus und entzieht sich damit der Notwendigkeit, auf die Erfindungstätigkeit näher einzugehen. Und Schumpeters Erklärung von Innovationszyklen durch sich verändernde Mentalitäten der Unternehmer und Manager ist in ihrer empirischen und theoretischen Dürftigkeit kaum zu überbieten. In der Technikgeschichte setzt die verstärkte Beschäftigung mit gescheiterten Innovationen in den späten 1950er Jahren ein,4 seit etwa zwei Jahrzehnten hat sich auch die sozial- und wirtschaftswissenschaftliche Innovationstheorie des Themas angenommen; in der Mainstream-Ökonomie spielt es weiterhin kaum eine Rolle. Das Ergebnis dieses neuen Forschungsparadigmas besteht in zahlreichen Fallstudien und einer Reihe grundlegender Reflexionen. Dabei geht es der Technikgeschichtsschreibung darum, durch die Betrachtung gescheiterter Innovationen „eine andere Perspektive auf den Prozess des technischen Wandels zu entwickeln“5. Aus der Betriebswirtschaftslehre kommende Innovationsforscher erheben darüber hinaus den Anspruch, das Scheitern in Lernprozessen zu verarbeiten und dadurch den Erfolg zu steigern. Oder sie propagieren zumindest einen angemesseneren Umgang mit dem Scheitern – dies häufig unter dem Schlagwort einer „neuen Kultur des Scheiterns“. Zu den Ergebnissen dieser Diskussion gehört die Betonung der Relativität und Perspektivität des Scheiterns.6 Vielfach besteht weder bei den Zeitgenossen noch bei den rückblickenden Forschern Übereinstimmung, in welchen Fällen und wann
4 5 6
Technisierungsprozessen. Amsterdam 1996. S. 107–118; sowie: Brodbeck, Karl-Heinz: Scheitern. Eine Kritik an der traditionellen Ökonomie. In: Pechlahner, Harald u. a. (Hg.): Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbsterneuerung. Berlin 2010. S. 52 f. vgl. den Abriss der Forschungsgeschichte bei Bauer, Failed Innovations, a. a. O., S. 33 ff. Bauer, Reinhold: Scheitern als Chance. Historische Fehlschlagforschung. In: Die Produktivität des Scheiterns. Dokumentation des 11. Innovationsforums der Daimler und Benz Stiftung. Berlin 2014. S. 4. vgl. hierzu Brodbeck, a. a. O., 57 f.; sowie: Gooday, a. a. O.; sowie: Bauer, Gescheiterte Innovationen, a. a. O., S. 11 ff.; sowie: Bauer, Reinhold: Von Wasserwerfern und Mikrowellen. Über-
Scheitern von Innovationen
307
von gescheiterten Innovationen die Rede sein kann. Den involvierten Zeitgenossen fällt es naheliegenderweise schwer, das eigene Handeln als erfolglos zu charakterisieren. Eine verbreitete Legitimationsstrategie räumt zwar ein, dass die anfänglich formulierten Ziele nicht erreicht wurden, betont aber die mit den Fehlschlägen verbundenen Lernfortschritte, welche in andere Bereiche der technischen Entwicklung transferiert werden könnten. Die Schwierigkeiten einer „wissenschaftlichen“ Explikation des innovatorischen Scheiterns sind nicht geringer. Dies beginnt mit der Interpretation des Innovationsbegriffs, der mehr wissensbezogen, technisch, betriebswirtschaftlich, volkswirtschaftlich oder gesellschaftlich gefasst werden kann. An Innovationen sind immer viele Menschen und Gruppen beteiligt, deren Erwartungen an die Innovation differieren. Erfolg und Scheitern sind schließlich raumzeitliche Phänomene. Das heißt, gescheiterte Innovationen können in späterer Zeit oder an einem anderen Ort zu einem Erfolg werden. Und auch erfolgreiche Innovationen durchlaufen häufig eine Phase, in der man von temporärem Scheitern sprechen könnte. Scheitern – so könnte man zusammenfassen – ist also ein fragiles Interpretationskonstrukt. Bei allen diesen Schwierigkeiten einer Bestimmung des Scheiterns kann es nicht Wunder nehmen, dass genaue quantitative Angaben zur Quote des Scheiterns nicht möglich sind. Immerhin sind sich die meisten Innovationsforscher einig, dass die Zahl der gescheiterten Innovationen die der erfolgreichen deutlich übertrifft. Vielfach wird dabei die Metapher Bernard Réals zitiert: „Der Friedhof gescheiterter Innovationen ist zum Bersten voll.“7 Andere Autoren nennen Prozentsätze für gescheiterte Innovationen, die sich zwischen 60 und 90 % bewegen und bei denen es sich nicht übersehen lässt, dass die empirischen Grundlagen für die Zahlenangaben dürftig sind.8 Allerdings entbehren sie nicht jeglicher Plausibilität. So könnte man darauf verweisen, dass nur ein sehr kleiner Bruchteil der Patentanmeldungen in Form von Innovationen realisiert wird. Jedenfalls gibt es bei den gescheiterten Innovationen einen ausgesprochen großen – sowohl quantitativen wie qualitativen – Forschungsbedarf. In manchen Branchen wird das Scheitern von vornherein eingeplant und eingepreist, wie in der pharmazeutischen Industrie. So schätzt der Geschäftsführer von „Sanofi Deutschland“, dass von 10 000 in der frühen Forschung synthetisierten Molekülen nur eines letztlich den Markt erreicht.9 Es ist sehr fraglich, ob die zitierten Schätzungen zu den gescheiterten Innovationen solche Spezifika von Branchen berücksichtigt haben. Damit ist die Frage nach quantitativen und qualitativen Besonderheiten einzelner Branchen gestellt. Gibt es grundsätzliche Unterschiede zwischen Investiti-
7 8
9
legungen zu einer Typologie innovatorischen Scheiterns. In: Prokla. Zeitschrift für kritische Sozialwissenschaft, 36 (2016), S. 550 f. Réal, Bernard: La puce et le chomage. Essai sur la relation entre le progrès technique, la croissance et l’emploi. Paris 1990. S. 26. z. B. Braun, a. a. O., S. 215; sowie: Reith, Reinhold: Einleitung. Innovationsforschung und Innovationskultur. In: Reith, Reinhold u. a. (Hg.): Innovationskultur in historischer und ökonomischer Perspektive. Modelle, Indikatoren und regionale Entwicklungslinien. Innsbruck u. a. 2006. S. 20; Bauer, Scheitern, a. a. O., S. 4. Der Tagesspiegel, 3.8.2015.
308
Wolfgang König
onsgütern, Konsumgütern und Dienstleistungen? Man könnte vermuten, dass das Phänomen des Scheitern bei Investitionsgütern in geringerem Umfang auftritt als bei Konsumgütern, weil die Kommunikation zwischen Herstellern und Kunden ausgeprägter ist. Eine weitere Frage bezieht sich auf die generelle historische Entwicklungstendenz von erfolgreichen und gescheiterten Innovationen. Es liegt nahe, dass – wenn man sich auf die Nachfrageseite konzentriert – Innovationen es in Mangelgesellschaften leichter haben als in teilweise saturierten Wohlstandsgesellschaften. Dies könnte bedeuten, dass die Quote des Scheiterns mit dem sozioökonomischen Entwicklungsniveau zunimmt. Inwiefern leistet die Betrachtung gescheiterter Innovationen einen Beitrag zu einer Theorie des technischen Wandels? Zunächst sind gescheiterte Innovationen überwältigende Belege dafür, dass es sich bei der technischen Entwicklung um Auswahlprozesse handelt, bei denen aus dem großen Reich des technisch Möglichen der kleine Bereich des technisch Wirklichen entsteht.10 Die technische Wahl oder Auswahl erfolgt dabei in allen Stadien des Entwicklungsprozesses: bei der Erfindungstätigkeit, bei der Ausarbeitung von Erfindungen zur Marktreife, bei der Vermarktung von Techniken, bei der Aneignung von Techniken durch die Konsumenten usw. Überall auf diesem Weg bleiben technische Innovationen auf der Strecke und werden auf dem Friedhof gescheiterter Innovationen bestattet. Eine derart realistische Betrachtung des Innovationsgeschehens führt eine Reihe technikphilosophischer Konzepte ad absurdum. Hierzu gehört der „technologische Imperativ“, dem in der einschlägigen Literatur mit der Formulierung widersprochen wird, man solle nicht alles machen, wozu man technisch in der Lage ist.11 Die Forderung suggeriert, dass man in der Vergangenheit alles technisch Mögliche realisiert hat, eine im Lichte des Scheiterns von Innovationen absurde Behauptung. Vielfach wird wohl gemeint sein, dass man besser auf bestimmte technische Innovationen verzichtet hätte oder verzichten würde. Eine solche Position lässt sich durchaus vertreten und begründen, hat aber mit einem „technologischen Imperativ“ wenig zu tun. Vielmehr geht es darum, frühere technische Wahlentscheidungen kritisch zu betrachten bzw. auf anstehende Einfluss zu nehmen. Des Weiteren verweisen gescheiterte Innovationen auf den Stellenwert von Akteuren und Strukturen für die technische Entwicklung.12 In der Regel konkurrieren alternative technische Lösungen und ihre Protagonisten miteinander, wobei manche erfolgreich sind, andere scheitern. Es fällt aber auch nicht schwer, Fallbeispiele zu 10
11
12
Dies wird z. B. in der VDI-Richtlinie 3780 formuliert; vgl. zum Konzept der technologischen Wahl z. B.: Lemonnier, Pierre (Hg.): Technological Choices. Transformation in Material Cultures Since the Neolithic. London, New York 2002. In Christoph Hubigs Technikphilosophie besitzt der Begriff der „Möglichkeit“ einen zentralen Stellenwert (Hubig, Christoph: Die Kunst des Möglichen. Grundlinien einer dialektischen Philosophie der Technik. 2 Bd. Bielefeld 2006–2007). Entsprechende Formulierungen finden sich bei zahlreichen Techniktheoretikern, unter anderem bei: Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main 1979; vgl. die kritischen Bemerkungen bei: Ropohl, Günter: Allgemeine Technologie. Eine Systemtheorie der Technik. München, Wien 1999(2). S. 156 u. 287 f. vgl. hierzu König, Technikgeschichte, a. a. O., S. 94–100; sowie: Bauer, Gescheiterte Innovationen, a. a. O., S. 46 f.
Scheitern von Innovationen
309
nennen, bei denen alle oder fast alle Akteure eine technische Innovation verfolgten und förderten, welche aber letztlich doch scheiterte. Daraus lässt sich schließen, dass die alleinige Betrachtung von Akteuren zur Erklärung des technischen Geschehens nicht ausreicht. Es ist vorgeschlagen worden, zusätzlich Strukturen in Anschlag zu bringen, wie der Stand des technischen Wissens und Könnens, die Wirtschaftsverfassung oder Wertsysteme. Diese Strukturen sind in früheren Zeiten zwar ebenfalls aufgrund des Handelns von Akteuren entstanden, haben aber mittlerweile festere Institutionalisierungen gefunden und wirken gewissermaßen als anonyme soziokulturelle Kräfte. Während sich das Handeln der Akteure durch die Zeitgenossen noch einigermaßen erfassen lässt, fällt es schwer, die Wirkungen der anonymen Strukturen zu antizipieren. Wenn es – wie oben ausgeführt – schwer ist, das Scheitern zu bestimmen, so muss es erst recht schwer ein, die Gründe für das Scheitern zu benennen. Dessen ungeachtet, kann man sich bei Fallstudien dieser Aufgabe kaum entziehen und ist die Chance, zu plausiblen Antworten zu gelangen, am größten. Wesentlich größere Schwierigkeiten bereiten Generalisierungen im Sinne einer Theorie des Scheiterns. Bisherige technikgeschichtliche Ansätze leiten aus Fallstudien Gründe für das Scheitern ab und fassen sie zu Listen zusammen.13 Dabei bleibt aber die Frage ungeklärt, welche Relevanz solche Listen besitzen. Erheben sie den Anspruch, tatsächlich die wichtigsten Gründe für das Scheitern zu benennen, oder lassen sie sich beliebig erweitern und verlieren damit an Aussagekraft über die behandelten Fälle hinaus. Meine These lautet, dass (1) Gründe für das Scheitern von Innovationen nur auf einer sehr allgemeinen theoretischen Ebene angegeben werden können. Diese sind dann aber nicht hinreichend, um zu für Einzelfälle relevanten Erklärungen zu gelangen. (2) Auf der anderen Seite lassen sich Erklärungen von Einzelfällen nicht zu einer Theorie verdichten. Vielmehr sind die Erklärungsmöglichkeiten – wie auch für andere Bereiche der historischen Entwicklung – grenzenlos. Dies heißt nichts anderes, dass es für jede Erzählung des Scheiterns von Innovationen Gegenerzählungen gibt, deren Plausibilität im historischen Diskurs einer Überprüfung unterzogen werden kann. Zu den mehr auf der theoretischen Ebene angesiedelten Gründen für das Scheitern von Innovationen: Diese lassen sich aus innovationstheoretischen Überlegungen deduzieren. Eine Möglichkeit ist bereits angesprochen worden: Man kann das Scheitern mehr auf der Akteursebene oder mehr auf der Strukturebene ansiedeln. Letztlich führt die getroffene Vorentscheidung zu unterschiedlichen Erzählungen. Eine andere Möglichkeit lässt sich aus der gesellschaftlichen Arbeitsteilung ableiten. Gründe für das Scheitern lassen sich eher bei den Produzenten (und eventuell den Mediatoren) oder mehr bei den Konsumenten finden. So kann man auf der Produzentenseite auf die Unternehmen, ihre Marktstellung, Organisation, Humanund sonstigen Ressourcen, verweisen, bei den Konsumenten auf deren Kaufkraft, Lebensgewohnheiten und Wünsche. Beide Gruppen unterliegen politischen und rechtlichen Rahmenbedingungen, welche sich fördernd oder hemmend auswirken. Innovation ließe sich auf diese Weise auch als Kommunikationsprozess zwischen Produzenten und Konsumenten beschreiben. 13
so Bauer, a. a. O., S. 32–36 u. S. 289–310. Dabei hält es Bauer für möglich, „Muster des Misslingens“ herauszuarbeiten, verneint aber die Möglichkeit einer „Theorie des Scheiterns“ (s. S. 311–318).
310
Wolfgang König
Die hier formulierten relativierenden Bemerkungen über die Möglichkeiten einer Theorie des innovatorischen Scheiterns implizieren auch eine Skepsis gegenüber der Suche nach Erfolgs- bzw. Misserfolgsfaktoren, wie sie in der betriebswirtschaftlichen Innovationsforschung verbreitet ist.14 Das Problem entsprechender Arbeiten besteht darin, dass sie von einer Stabilität der Bedingungen ausgehen müssen. Dies gilt für Zeit, Ort, Branche, Unternehmen, Art der Innovation usw. Diese Stabilität der Verhältnisse ist aber im Allgemeinen nicht gegeben. Die Formulierung von Erfolgsund Misserfolgsfaktoren müsste also eigentlich viel differenzierter erfolgen, als dies üblicherweise der Fall ist, und ständig an Veränderungen angepasst werden – ganz zu schweigen vom weiten Spektrum möglicher Perspektiven und Interpretationen. Die Herausarbeitung von Misserfolgsfaktoren zielt natürlich darauf, aus gescheiterten Innovationen zu lernen. Damit greift man auf einen weit verbreiteten Topos zurück: „Aus Schaden wird man klug!“, heißt es im Volksmund. Und die technische und wirtschaftliche Literatur vom späten 19. Jahrhundert bis zur Gegenwart durchziehen Aussagen, dass man aus Fehlern und Misserfolgen besser denn aus Erfolgen lernen könne.15 Bei diesen Postulaten handelt es sich letzten Ende um eine Variante der Frage, ob man aus der Geschichte lernen könne.16 Allerdings bemüht sich kaum jemand, die verbreiteten positiven Antworten hinsichtlich der gescheiterten Innovationen zu operationalisieren oder zu plausibilisieren. Dies beginnt schon bei dem sehr unscharfen Begriff des „Lernens“. „Lernen“ kann hier nämlich (mindestens) zweierlei heißen.17 (1) Lernen kann heißen, seine Überzeugungen und Vorstellungen zu entwickeln. In diesem Sinne lernt man immer und alles aus der persönlichen und kollektiven Geschichte, denn eine andere Lerninstanz steht schlicht nicht zur Verfügung. (2) Lernen kann aber auch meinen, nicht mehr das Falsche, sondern das Richtige zu tun. In diesem Sinne wären gescheiterte Innovationen das Ergebnis falscher Handlungen, erfolgreiche Innovationen das Ergebnis richtiger Handlungen. Ein solches Verständnis von Lernen als Vermeiden falscher Innovationshandlungen widerspricht aber zahlreichen der bereits vorgetragenen Überlegungen. So ist darauf hingewiesen worden, dass Innovationen nicht nur aufgrund von Handlungen scheitern, sondern aufgrund struktureller Gegebenheiten, welche die Zeit14 15
16 17
vgl. Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktinnovationen. In: Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Führung – Technologie – Schnittstellen. Wiesbaden 1994. S. 131–150. vgl. Gooday, Rewriting, a. a. O., S. 266; sowie: Kuckertz, Andreas u. a.: Gute Fehler, schlechte Fehler. Wie tolerant ist Deutschland im Umgang mit gescheiterten Unternehmern? Stuttgart 2015. S. 5; sowie: Minx, Eckard; Roehl, Heiko: Organversagen. Warum Organisationen untergehen. In: Organisations-Entwicklung 2014, Nr. 2, S. 49; sowie: John, René; Langhof, Antonia: Einsichten ins Scheitern als Motor des Erfolgs. In: diess. (Hg.): Scheitern. Ein Desiderat der Moderne? Wiesbaden 2014. S. 331. vgl. zur Geschichte des Topos „aus der Geschichte lernen“: Koselleck, Reinhart: Historia Magistra Vitae. In: ders.: Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt am Main 1979. S. 38–66. vgl. König, Wolfgang: Ist Rückblick Ausblick? Vom Nutzen der Technikgeschichte für die aktuelle Technikentwicklung. In: Niemann, Harry; Hermann, Armin (Hg.): 100 Jahre LKW. Geschichte und Zukunft des Nutzfahrzeuges. Stuttgart 1997. S. 9–15.; sowie: ders., Technikgeschichte, a. a. O., S. 216 ff.
Scheitern von Innovationen
311
genossen – und auch die Nachgeborenen – nur bedingt überblicken. Die Ableitung von Handlungen aus dem komplexen Geflecht von Strukturen würde ein umfassendes Wissen über die Strukturen und deren Beziehungen voraussetzen, das es nicht geben kann. Ein zweites Problem besteht darin, dass die Konstellation des Misslingens sich nicht wiederholt. Eine Innovation scheitert aus bestimmten Gründen, eine andere Innovation scheitert aus anderen Gründen. Ein Lernen aus dem einen für das andere Innovationsgeschehen ist deshalb kaum möglich. Günstiger sind die Bedingungen, wenn innerhalb eines Innovationsgeschehens gelernt wird, was auf eine Korrektur des Innovationsprozesses hinausläuft. Dabei ändern sich die meisten Innovationsbedingungen nicht, sondern in der Regel wird ein Faktor variiert. Auch dabei ist das Ergebnis offen, aber die Auswirkungen der veränderten Innovationshandlung lassen sich einfacher abschätzen. Darüber hinaus wäre es eher zu erwarten, dass man aus erfolgreichen Innovationen lernt. Eine erfolgreiche Innovation stellt ein Muster bereit, welches erneut angewendet werden kann. Dies ist allerdings nur dann vielversprechend, wenn die Abweichungen von dem Muster gering sind und sich die Innovationsbedingungen nicht wesentlich geändert haben, was nur sehr begrenzt der Fall sein wird. Die spärliche empirische Forschung über gescheiterte Innovationen ist jedenfalls geeignet, die hier vorgetragenen Zweifel am Lernen aus gescheiterten Innovationen zu bekräftigen. So hält ein Innovationsforscher allgemein den nachweisbaren Zusammenhang zwischen Lernen und Erfolg eines Unternehmens für gering.18 Und ein anderer weist darauf hin, dass gescheiterte Unternehmer auch später meist erfolglos bleiben.19 Viel spricht dafür, dass sich die Gründe für das Scheitern spiegelbildlich zu den Gründen für den Erfolg verhalten. Dies heißt, dass sie äußerst vielfältig sein können. So wenig es eine Blaupause für erfolgreiche Innovationen gibt, so wenig existiert eine Blaupause für das Scheitern. Aus gescheiterten Innovationen lernen könnte aber auch meinen, zu einem angemesseneren Umgang mit dem Scheitern zu gelangen. Hierzu gehört, dass man das Scheitern von Innovationen als unumgängliches Element des Innovationsprozesses begreift. Dies bedeutet, dass – jedenfalls gesamtgesellschaftlich gesehen – erfolgreiche Innovationen ohne gescheiterte nicht zu haben sind. Die Konsequenz aus dieser Einsicht liegt darin, das Scheitern zu enttabuisieren und zu akzeptieren. Die Gesellschaft, die Unternehmen und die Innovatoren sollten sich von vornherein auf das Scheitern einstellen. Hierzu gehört, sich Kriterien und ein Procedere für den Abbruch von Projekten zu überlegen, die zu scheitern drohen. Bemühungen, das Scheitern grundsätzlich zu vermeiden, sind zum Scheitern verurteilt. Die Beschäftigung mit dem Scheitern mündet also nicht in Fehlerfreiheit, sondern in eine gesteigerte Reflexivität (mindful organization) beim Umgang mit dem Scheitern.20 18 19 20
vgl. Denrell, Jerker; Fang, Christina: Predicting the Next Big Thing. Success as a Signal of Poor Judgment. In: Management Science 56 (2010), S. 1653–1667. Gompers, Paul u. a.: Performance Persistence in Entrepreneurship. Harvard Business School, Working Paper 09–028. Cambridge 2008. vgl. z. B. Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktinnovationen. In: Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Führung – Technologie – Schnittstellen. Wiesbaden 1994. S. 137; sowie: Kucklick, Christoph:
312
Wolfgang König
Die Beschäftigung mit gescheiterten Innovationen trägt also vor allem in dreierlei Hinsicht zu einer Theorie des technischen Wandels bei: (1) Gescheiterte Innovationen demonstrieren, dass die technische Entwicklung mit Auswahlprozessen verbunden ist; bei der Gegenrede des „technologischen Imperativs“ handelt es sich um einen abstrusen Mythos. (2) Das Phänomen der gescheiterten Innovationen stärkt das Konzept, technische Entwicklung unter Rückgriff auf Akteure und Strukturen zu modellieren. (3) Die Gründe für das Scheitern sind ebenso vielfältig wie für den Erfolg; zu Lernprozessen im Sinne erfolgreichen Handelns lässt sich das Scheitern kaum verarbeiten.
Schluss mit dem Scheitern! In: Zeit-Magazin, 27.1.2014, S. 14–22; sowie: Stechhammer, Brigitte: Unternehmen brauchen eine Kultur des Scheiterns. In: Pechlaner, Harald u. a. (Hg.): Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbsterneuerung. Berlin 2010. S. 194 ff.
Scheitern von Innovationen
313
LITERATUR Bauer, Reinhold: Failed Innovations. Five Decades of Failure. In: ICON. Journal of the International Committee for the History of Technology, 20 (2014), S. 33–40. ders.: Gescheiterte Innovationen. Fehlschläge und technologischer Wandel. Frankfurt, New York 2006. ders.: Scheitern als Chance. Historische Fehlschlagforschung. In: Die Produktivität des Scheiterns. Dokumentation des 11. Innovationsforums der Daimler und Benz Stiftung. Berlin 2014. S. 4–11. ders.: Von Wasserwerfern und Mikrowellen. Überlegungen zu einer Typologie innovatorischen Scheiterns. In: Prokla. Zeitschrift für kritische Sozialwissenschaft, 36 (2016), S. 549–562. Braun, Hans-Joachim (Hg.): Failed Innovations (Social Studies of Science 22,2). London, New Delhi 1992. Brodbeck, Karl-Heinz: Scheitern. Eine Kritik an der traditionellen Ökonomie. In: Pechlahner, Harald u. a. (Hg.): Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbsterneuerung. Berlin 2010. S. 51–70. Denrell, Jerker; Fang, Christina: Predicting the Next Big Thing. Success as a Signal of Poor Judgment. In: Management Science 56 (2010), S. 1653–1667. Gompers, Paul u. a.: Performance Persistence in Entrepreneurship. Harvard Business School, Working Paper 09–028. Cambridge 2008. Gooday, Graeme: Rewriting the ‘Book of Blots’. Critical Reflections on Histories of Technological ‘Failure’. In: History and Technology, 14 (1998), S. 265–291. Hubig, Christoph: Die Kunst des Möglichen. Grundlinien einer dialektischen Philosophie der Technik. 2 Bd. Bielefeld 2006–2007. Huisinga, Richard: Theorien und gesellschaftliche Praxis technischer Entwicklung. Soziale Verschränkungen in modernen Technisierungsprozessen. Amsterdam 1996. John, René; Langhof, Antonia: Einsichten ins Scheitern als Motor des Erfolgs. In: diess. (Hg.): Scheitern. Ein Desiderat der Moderne? Wiesbaden 2014. S. 323–338. Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main 1979. König, Wolfgang: Ist Rückblick Ausblick? Vom Nutzen der Technikgeschichte für die aktuelle Technikentwicklung. In: Niemann, Harry; Hermann, Armin (Hg.): 100 Jahre LKW. Geschichte und Zukunft des Nutzfahrzeuges. Stuttgart 1997. S. 9–15. ders.: Technikgeschichte. Eine Einführung in ihre Konzepte und Forschungsergebnisse. Stuttgart 2009. Koselleck, Reinhart: Historia Magistra Vitae. In: ders.: Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt am Main 1979. S. 38–66. Kuckertz, Andreas u. a.: Gute Fehler, schlechte Fehler. Wie tolerant ist Deutschland im Umgang mit gescheiterten Unternehmern? Stuttgart 2015. Kucklick, Christoph: Schluss mit dem Scheitern! In: Zeit-Magazin, 27.1.2014, S. 14–22. Lemonnier, Pierre (Hg.): Technological Choices. Transformation in Material Cultures Since the Neolithic. London, New York 2002 (zuerst 1993). Minx, Eckard; Roehl, Heiko: Organversagen. Warum Organisationen untergehen. In: OrganisationsEntwicklung 2014, Nr. 2, S. 49–51. Réal, Bernard: La puce et le chomage. Essai sur la relation entre le progrès technique, la croissance et l’emploi. Paris 1990. Reith, Reinhold: Einleitung. Innovationsforschung und Innovationskultur. In: Reith, Reinhold u. a. (Hg.): Innovationskultur in historischer und ökonomischer Perspektive. Modelle, Indikatoren und regionale Entwicklungslinien. Innsbruck u. a. 2006. S. 11–20. Ropohl, Günter: Allgemeine Technologie. Eine Systemtheorie der Technik. München, Wien 1999(2). Schumpeter, Joseph: Konjunkturzyklen. Eine theoretische, historische und statistische Analyse des kapitalistischen Prozesses. 2 Bd. Göttingen 1961 (zuerst 1939).
314
Wolfgang König
Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktinnovationen. In: Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Führung – Technologie – Schnittstellen. Wiesbaden 1994. S. 131–150. Stechhammer, Brigitte: Unternehmen brauchen eine Kultur des Scheiterns. In: Pechlaner, Harald u. a. (Hg.): Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbsterneuerung. Berlin 2010. S. 193–206. Verein Deutscher Ingenieure: VDI 3780: Technikbewertung. Begriffe und Grundlagen. Düsseldorf 1991.
VI. PROF. DR. PHIL. HABIL. DIPL.-PHYS. KLAUS KORNWACHS – ZUR PERSON LEBENSDATEN 12.2.1947 in Engen, Kreis Konstanz, geboren. 1966 bis 1973 Studium der Mathematik, Physik und Philosophie an den Universitäten Tübingen, Freiburg und Kaiserslautern. Diplom in Physik zu einem Thema in der Molekülspektroskopie. 1975 war er Visiting Fellow an der University of Massachussetts in Amherst, USA. 1976 Promotion zum Dr. phil mit einem Thema zur analytischen Sprachphilosophie. 1977 bis 1978 wissenschaftlicher Mitarbeiter am Institut für Grenzgebiete der Psychologie in Freiburg. 1979 bis 1981 wissenschaftlicher Mitarbeiter beim Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA), Stuttgart. 1982 bis 1992 wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO), Stuttgart, zuletzt als Leiter der Abteilung für Qualifikationsforschung und Technikfolgenabschätzung. 1974 bis 1987 Lehraufträge für Kybernetik, Simulationstechnik, Modellbildung, seit 1983 auch für Philosophie an den Universitäten Freiburg, Stuttgart und Ulm. 1987 habilitierte Klaus Kornwachs an der Universität Stuttgart für das Fach Philosophie über den Zusammenhang von Information und offenen Systemen. 1988 Gründung der Deutschen Gesellschaft für Systemforschung e. V. 1990 Honorarprofessor für Philosophie am Humboldt-Zentrum der Universität Ulm ernannt. 1991 SEL-Forschungspreis „Technische Kommunikation“ der SEL-Stiftung. 1992 bis 2011 Lehrstuhlinhaber für das Fach „Technikphilosophie“ an der Brandenburgischen Technischen Universität Cottbus. 1997 bis 1998 dort Direktor des Zentrums für Technik und Gesellschaft. 2006 Gründung der Bachelor- und Masterstudiengänge „Kultur und Technik“. 2001 bis 2009 Leitung des Bereiches „Gesellschaft und Technik“ des Vereins der Deutschen Ingenieure (VDI)
316
Klaus Kornwachs – zur Person
2012 Fellow am Internationalen Zentrum für Kultur- und Technikforschung der Universität Stuttgart. 2013 Vortragsreise durch China, Gastprofessur an der TU Dalian. 2013 Ernennung zum Honorary Professor am China Intelligent Urbanization CoCreation Center for High Density Region, Department for Architecture and Urban Planning, Tongji University, Shanghai. Weiterhin lehrt Klaus Kornwachs an der Universität Ulm und ist nach der Gründung seines „Büros für Kultur und Technik“ vorwiegend publizistisch und beratend tätig, auch im Ausland. Er ist Herausgeber und Autor zahlreicher Fachbücher und Veröffentlichungen und gefragter Ansprechpartner für Medien, Gesprächsrunden und Vorträge. Gastprofessuren führten ihn an die Technische Universität Wien, die Budapest University for Technology and Economy sowie an die Dalian University for Technology, China. Er ist ordentliches Mitglied der Deutschen Akademie für Technikwissenschaften (acatech München, Berlin) und weiterer wissenschaftlicher Vereinigungen. ARBEITSGEBIETE Praktische Philosophie: Arbeit, Technik, Natur, Werte in Kultur und Technik, Denken in nicht europäische Kulturen. Bewertungen von Technikentwicklungen und -trends sowie Innovations- und Projektbewertung – Information, Technik, Organisation, Innovation, Akzeptanz. Analytische Philosophie: Wissenschaftstheorie der Technikwissenschaften, Logik. KOMITEES UND GREMIEN Vorsitzender des Themennetzwerks „Technikwissenschaften und Innovation“ der Deutschen Akademie für Technikwissenschaften (acatech München, Berlin), 2006, Leiter des Themennetzwerks „Grundfragen der Technikwissenschaften“, 2007 bis 2012, und aktuell Mitglied zahlreicher Projektgruppen. Vorsitzender der Jury „Punkt“ – Preis für Technikjournalismus der Deutschen Akademie für Technikwissenschaften, acatech (2004 bis 2016). Vorsitzender des Bereichs „Mensch und Technik“ im VDI (seit Januar 2003, ab Januar 2004 „Gesellschaft und Technik“, bis Januar 2009). Enquête-Kommission des Deutschen Bundestages für Technikfolgenabschätzung und Bewertung, beratendes Mitglied (1987 bis 1989). Mitglied des wissenschaftlich-technischen Rates der Fraunhofer-Gesellschaft (1980–1989) und seiner Hauptkommission (1986 bis 1989).
Klaus Kornwachs – zur Person
317
WISSENSCHAFTLICHE GESELLSCHAFTEN Ordentliches Mitglied der Deutschen Akademie für Technikwissenschaften (acatech). Gründer und Vorsitzender der Deutschen Gesellschaft für Systemforschung (1988 bis 2002). Ordentliches Mitglied des Humboldt-Zentrums für Geisteswissenschaften der Universität Ulm (seit 1990). Mitglied der Deutschen Physikalischen Gesellschaft. Mitglied der Allgemeinen Gesellschaft für Philosophie in Deutschland. Außerordentliches Mitglied der Frege-Gesellschaft, Jena. Mitglied der Deutsch-Japanischen Gesellschaft für integrative Wissenschaft, München, Tokyo. BEIRÄTE Mitglied des Beirats „Junges Forum Technik Technikwissenschaften (JF:TEC)“, Helmut-Schmidt-Universität der Bundeswehr, Hamburg (seit 2016). Mitglied des Scientific Council of Bertalanffy Center for the Study of System Science (BCSSS), Wien (seit 2006). Mitglied des Beirats des Instituts für transkulturelle Gesundheitswissenschaften, Viadriana Universität Frankfurt an der Oder (seit 2011). Mitglied des Beirats Projekt „Rakoon“ (Fortschritt durch aktive Kollaboration in offenen Organisationen, BMBF, DLR) TU München-Garching (2014). Mitglied des Beirats „Smart Grids Baden Württemberg e. V., Stuttgart“ (seit 2014). HERAUSGEBERTÄTIGKEIT UND EDITORIAL BOARDS Herausgeber der Reihe „Technikphilosophie“ im Lit-Verlag, Münster Editorial Board of Cognitive Systems Editorial Board of International Journal for General Systems Editorial Board of Intern. Book Series on System Science and Engineering, Kluwer Acad. / Plenum Press, New York wissenschaftlicher Beirat der Zeitschrift „Poiesis und Praxis“ bis 2012 (Europäische Akademie für Technikfolgenabschätzung, Bad Neuenahr)
318
Klaus Kornwachs – zur Person
BUCHVERÖFFENTLICHUNGEN (AUSWAHL) Monographien Kornwachs, Klaus: Staub und Hoffnung. José Majer – ein Leben für den Gran Chaco. Münster, London 2017. ders.: Arbeit – Identität – Netz. Berlin 2017. ders.: Philosophie für Ingenieure. München 2014, 2015(2). ders.: Einführung in die Philosophie der Technik. München 2013. ders.: Strukturen technologischen Wissens. Analytische Studien zur einer Wissenschaftstheorie der Technik. Berlin 2012. Tschinag, Galsan; Kornwachs, Klaus; Kaluza, Maria: Der singende Fels. Schamanentum, Heilkunde, Wissenschaft. Zürich 2009, 2010(2). Kornwachs, Klaus: Zuviel des Guten – von Boni und falschen Belohnungssystemen. Frankfurt am Main 2009. Berndes, Stefan; Kornwachs, Klaus; Lünstroth, Uwe: Software-Entwicklung – Erfahrung und Innovation. Ein Blick auf demographische Veränderungen. Heidelberg 2002. Kornwachs, Klaus: Logik der Zeit – Zeit der Logik. Münster, London 2001. ders.: Das Prinzip der Bedingungserhaltung – eine ethische Studie. Münster 2000. ders.: Kommunikation und Information. Zur menschengerechten Gestaltung von Technik. Berlin 1993. Bullinger, Hans-Jörg; Kornwachs, Klaus: Expertensysteme im Produktionsbetrieb – Anwendungen und Auswirkungen. München, 1990. Herausgeberschaften Kornwachs, Klaus (Hg.): Technisches Wissen: Entstehung – Methoden – Strukturen. Springer, Berlin Heidelberg 2013. ders. (Hg.): Bedingungen und Triebkräfte technologischer Innovationen. Beiträge aus Wissenschaft und Wirtschaft. Berlin, München, Stuttgart 2007. Kornwachs, Klaus; Hronszky, Imre (Hg.): Shaping better Technologies. Münster, London 2006. Kornwachs, Klaus (Hg.): Technik – System – Verantwortung. 2. Cottbuser Konferenz zur Technikphilosophie. Münster, London 2004. ders. (Hg.): Reihe Technikphilosophie. Münster, London 2000 ff., bisher 24 Bände.
Klaus Kornwachs – zur Person
319
Kornwachs, Klaus; Jacoby, Konstantin (Hg.): Information – New Questions to a Multidisciplinary Concept. Berlin 1996. Kornwachs, Klaus (Hg.): Technikfolgenabschätzung – Reichweite und Potential. Ein Symposium im Amerika-Haus. Stuttgart 1991. Shakel, Brian; Bullinger, Hans-Jörg (Hg.); Kornwachs, Klaus (ass. Hg.): HumanComputer-Interaction. Proceedings of the 2nd Human Computer Interaction Conference Interact ’87, Universität Stuttgart. North-Holland, Amsterdam, New York 1987. Gerstenfeld, Arthur; Bullinger, Hans-Jörg; Warnecke, Hans-Jürgen (Hg.), Kornwachs, Klaus (ass. Hg.): Manufacturing Research: Organizational and Institutional Issues. Proceedings of the Conference on Manufacturing Research, Universität Stuttgart 1985. Amsterdam, Tokyo 1986. Bullinger, Hans-Jörg; Warnecke, Hans-Jürgen (Hg.); Kornwachs, Klaus (ass. Hg.): Toward the Factory of the Future. Proceedings of the 8th International Conference on Production Research, Stuttgart 1985. Berlin u. a. 1985. Kornwachs, Klaus (Hg.): Offenheit – Zeitlichkeit – Komplexität. Zur Theorie der Offenen Systeme. Frankfurt am Main, New York 1984.
VII. EINE NICHT NUR PHILOSOPHISCHE ANNÄHERUNG In der zweiten Hälfte der achtziger Jahre konnten Philosophiestudenten an der Universität Stuttgart die Angebote eines neuen Dozenten belegen. Der Mann hieß Klaus Kornwachs, er hielt zum Beispiel Vorlesungen zur „Philosophie der Arbeit“, und am 12. Februar 1988, nach erfolgreichem Habilitationsverfahren, an seinem 41. Geburtstag, seine Antrittsvorlesung. Das Thema lautete: „Zur Automatisierung der Wahrheit.“ Der Philosoph, Physiker und Mathematiker Kornwachs bezog sich dabei auf Georg Büchners Theaterstück „Leonce und Lena“, und wer es bis dahin noch nicht geahnt hatte, dem durfte an dem Abend klar geworden sein: Da reist jemand mit großem Gepäck, in dem es nicht „nur“ Platz gab für die analytische Philosophie, für Systemtheorie und Bezugnahme auf die Naturwissenschaften. Da war einem Mann zu lauschen, der eine Liebe zur Literatur und zum Theater hegte und pflegte, der als Regisseur Sartre auf die Bühne gebracht, der für den Hörfunk gearbeitet hatte und mit Film umzugehen wusste – all das gereicht der Inszenierung von Vorträgen und Vorlesungen nicht zum Nachteil. Da war einem Mann zu lauschen, der sich jung zu entscheiden hatte zwischen einer Musikerlaufbahn oder einer in der Wissenschaft – die Rolle der Musikalität in der Theoriebildung wäre wohl auch ein lohnender Untersuchungsgegenstand. Wer zu schillern weiß, der muss damit rechnen, dass er in der deutschen akademischen Welt, der akademischen Philosophie zumal, irritiert. Aber war das nicht einmal eine Tugend der Philosophen? Klaus Kornwachs ließ es sich jedenfalls schon damals nicht nehmen, seine Themen zu besetzen, in und außerhalb der Philosophie – und so hält er es weiterhin. Der Mann ist angenehm katholisch, was keinesfalls dem Humor schadet, ein Menschenfreund, alte Tugendhaftigkeit in modernem Auftritt – was 68ern alles möglich ist: Da geht Katholizismus mit Jazz, Klassik mit Schamanismus, Gesellschaftskritik im A-capella-Gesang … Eine Schule hat er nicht begründet – warum auch? Ein freier Geist braucht keine Jünger, er schätzt den Widerspruch. Klaus Kornwachs genießt den Widerspruch, den Wettstreit der Argumente, darauf können sich seine Studenten und Kollegen stets verlassen. Reisen führen ihn immer wieder durch Europa, nach Nord- und Südamerika, nach China, berufsgemäß in Hörsäle und Bibliotheken, der unbändigen Erkenntnislust und freudigen Neugier folgend aber auch in Tangobars, zu Candomblé-Riten und ums Kap Horn – kurzum: ins Freie … Da geht einer mit einem gewissen Gottvertrauen durch die Welt und durchs Leben, was einem bekanntermaßen vor Prüfungen nicht feit, aber sie womöglich gelassener auf sich nehmen lässt. Die eine und andere „Prüfung“ legt das Zusammenstellen einer Festschrift ihrem Herausgeber auf … Wie kam ich überhaupt zu dieser Ehre, und warum unternahm ich solch ein altmodisches Unterfangen? Diese Fragen seien mit einer kleinen Geschichte beantwortet. Blenden wir rund 30 Jahre zurück, der Spielort ist die Universität Stuttgart. Dort hatte ich, nach gründlich-gebührlich langer Zeit,
322
Eine nicht nur philosophische Annäherung
alle Scheine für den Magister in Philosophie zusammengetragen. Der kluge Mann schaut nach vorn, den Taxischein hatte ich bereits, aber vielleicht ließ sich der Einstieg in diesen ehrenwerten Beruf noch ein Weilchen herauszögern durch eine Promotion –? Ob es irgendeine Chance gäbe, als Doktorand unterzukommen?, fragte ich am kleinen philosophischen Institut. Zur Antwort bekam ich, es gäbe da einen neuen, einen jungen Dozenten, der sich habilitiere und dann das Promotionsrecht hätte, den könne ich mir ja einmal anschauen. Das tat ich, ich besuchte den Auftakt einer Vorlesung dieses Dozenten, eine Vorlesung zur „Philosophie der Arbeit“, ein so spannendes wie mit Geduld zu bearbeitendes Thema … Am Ende der Sitzung trat ich vor das Rednerpult und fragte, ob der Dozent irgendwann einmal in diesem Semester eine Sprechstunde halte. Worum es denn gehe? Ich habe gehört, er habilitiere sich, ich hingegen versuchte mich gern an einer Promotion und sei auf der Suche nach einem Betreuer. Wenn es eine Sprechstunde gäbe, dann sofort, ließ der energische Dozent mich wissen und schleppte mich in sein nahegelegenes Büro. Dort examinierte er mich zwei, drei Stunden lang strengstens. Bis heute weiß ich nicht recht, was ihn am Ende überzeugt hat, es mit mir zu versuchen, womöglich konnte ich mit einem wenige Wochen zuvor geführten Interview mit Karl Popper punkten. Jedenfalls hatte ich, noch vor dem Magisterabschluss, auf einmal einen Doktorvater. Der versammelte alsbald einen Club um sich, Magisterkandidaten, Doktoranden, Habilitanden, in seinem Oberseminar, das anfänglich wöchentlich, später dann in Blockveranstaltungen abgehalten wurde, an hin und wieder skurrilen Orten: Bauernhöfen, Hütten, Berggasthöfen, zum Beispiel in Laufweite zu Heideggers Hütte. Diese Blockseminare waren nicht nur „bootcamps“ für hoffnungsfrohe oder manchmal melancholische Philosophiejünger, sie waren intensiv in jeder Hinsicht. Man erging sich in den hitzigsten Diskussionen, wetzte die Argumentationsmesser aufs Schärfste und wurde, wenn man es noch nicht war, mit etwas gutem Willen trinkfest. Wer einmal in diesem Club war, der gab die Mitgliedschaft nicht auf, sie hatte was, sie gab uns etwas, sie machte was mit uns, sie veränderte, formte uns, brachte uns voran. Irgendwann wurde uns klar, dass wir nicht in einem üblichen Seminar saßen, in dem ein Dozent Philosophie vermittelte, philosophische Theorien verwaltete, nein, da war jemand, der Philosophie lebte, kein Selbstverberger, sondern ein Selbstdenker, der sich zeigte, nicht in intellektuellem Schick, nicht in Feuilleton-tauglicher Grandezza, aber durchaus schillernd, wildes Denken mit analytischer Präzision verknüpfend, nahbar, als Mensch, als Denker, als leidenschaftlicher Sucher nach der Widerlegung der eigenen Vorurteile, kurzum: Wir hatten es zu tun mit einem Philosophen, einem Mann, der sucht, mit Haltung. Und das noch Erstaunlichere für uns war: Eine philosophische Haltung musste nicht in steife Ehrwürdigkeit verpackt werden, sondern durfte in heiter-lässiger Eleganz, mit Ironie und Selbstironie unter die Leute treten. Festschriften mögen altmodisch sein, manch Philosophie auch, Philosophen sind es nicht. Klaus Kornwachs ist ein Philosoph im sokratischen Alter von 70 Jahren; eine Apologie wird auch nach dem, was noch von ihm zu erwarten ist – das Hauptwerk, so wird gemunkelt, harrt des Schlusspunktes –, nicht vorzutragen sein, es sei denn, einer müsste sich rechtfertigen dafür, etwas zu sagen zu haben … Volker Friedrich
VIII. ÜBER DIE AUTOREN Prof. Dr. Dr.-Ing. Christian Berg ist Physiker, Philosoph und Theologe. Er arbeitet und lehrt zu Fragen der Nachhaltigkeit und dem Schnittfeld von Technik und Gesellschaft an den Universitäten Kiel, Clausthal und Saarbrücken. Prof. Dr. Dr. Thomas Bschleipfer ist Chefarzt der Klinik für Urologie, Andrologie und Kinderurologie am Klinikum Weiden der Kliniken Nordoberpfalz. In der Philosophie befasst er sich vornehmlich mit medizinethischen Fragen. Prof. Dr.-Ing. Hans-Jörg Bullinger, Maschinenbau-Ingenieur, leitete das Fraunhofer-Instituts für Arbeitswirtschaft und Organisation (IAO) und in der Folge bis 2012 als ihr Präsident die Fraunhofer Gesellschaft. Zudem wirkte er als Professor für Arbeitswissenschaft und Technologie-Management an der Universität Stuttgart. Sein Ko-Autor, der Diplom-Ökonom Rainer Nägele, ist am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) tätig. Prof. Dr. Mario Bunge, 1919 in Buenos Aires geboren, Physiker und Philosoph, war Professor für theoretische Physik in Argentinien, später Professor für Logik und Metaphysik in Montreal. Von den über 50 Büchern des Wissenschaftstheoretikers wurde bislang nur ein kleiner Teil ins Deutsche übersetzt. Dr. Klaus Erlach, Philosoph und Maschinenbau-Ingenieur, arbeitet am Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA). Zudem lehrt er an Hochschulen und ist Redakteur des Journals „Der blaue Reiter“. Prof. Dr. Ernst Peter Fischer ist Mathematiker, Physiker, Biologe und Wissenschaftshistoriker. Er lehrt Wissenschaftsgeschichte an der Universität Heidelberg und hat als Publizist zahlreiche Bücher und Artikel verfasst. Prof. Dr. Volker Friedrich, gelernter Redakteur, hat Philosophie, Germanist und Politikwissenschaften studiert. Er lehrt Schreiben und Rhetorik an der Hochschule Konstanz und gibt das E-Journals „Sprache für die Form“ heraus. Dr. Walter Glöckle ist Ministerialrat und Leiter des Referats „Allgemeine Angelegenheiten der Kernenergieüberwachung“ im Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg. Prof. Dr. Steffen W. Groß, habilitierter Philosoph, lehrt Volkswirtschaftslehre, insbesondere Mikroökonomik an der Brandenburgischen Technischen Universität Cottbus.
324
Über die Autoren
Prof. Dr. Armin Grunwald, Physiker und Philosoph, leitet das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe, zudem das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). Prof. Dr. Wolfgang Hofkirchner, Politikwissenschafter und Psychologe, lehrt Technikfolgenabschätzung am Institut für Gestaltungs- und Wirkungsforschung der Technischen Universität Wien. Prof. Dr. Imre Hronszky, Chemiker und Philosoph, lehrte an Budapester Universität für Technik und Wirtschaft, publiziert u. a. über die Geschichte der Chemie, über Wissenschafts- und Technikphilosophie und Fragen der Innovation. Harald Kirchner, M. A. arbeitete als Reporter und Redakteur für die Fernsehnachrichten des Südwestrundfunks mit dem Schwerpunkt „Politik“. Seit Frühjahr 2017 Leiter der Redaktion „Eisenbahn-Romantik“ beim SWR. Prof. Dr. Wolfgang König lehrte Technikgeschichte an der Technischen Universität Berlin. Er ist Mitglied der „acatech“ (Deutschen Akademie der Technikwissenschaften). Spezialgebiete: Geschichte und Theorie der Technik und der Technikwissenschaften. Dr. Dr. Walter von Lucadou, Physiker und Psychologe, leitet die „Parapsychologische Beratungsstelle“ in Freiburg und gibt die „Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie“ und „Cognitive Systems“ mit heraus. Prof. Dr. Klaus Mainzer lehrte Philosophie und Wissenschaftstheorie an der Technischen Universität München, war Gründungsdirektor des Munich Center for Technology in Society (MCTS). Er forscht u. a. über mathematische Grundlagen, Komplexitäts- und Chaostheorie. Prof. Dr. Carl Mitcham lehrt „Humanities, Arts, and Social Sciences“ an der „Colorado School of Mines“. Derzeit ist er auch Professor für Technikphilosophie an der Renmin Universität in China. Er ist Herausgeber der „Encyclopedia of Science, Technology, and Ethics“. Prof. Dr. Heinz-Ulrich Nennen lehrt Philosophie am KIT (Universität Karlsruhe) und betreibt die „Philosophische Ambulanz Münster“. Seine Arbeitsschwerpunkte liegen auf Philosophie und Psychologie, Mythen, Anthropologie und Diskursanalysen. Prof. Dr. Peter Jan Pahl lehrte theoretische Methoden der Bau- und Verkehrstechnik an der Technischen Universität Berlin, wo er das Fachgebiet „Bauinformatik“ aufbaute. Zudem war er als Prüfingenieur für Baustatik im Land Berlin tätig.
Über die Autoren
325
Prof. Dr. Hans Poser, Mathematiker, Physiker, Philosoph, lehrte Philosophie an der Technischen Universität Berlin und war Präsident der Allgemeinen Gesellschaft für Philosophie in Deutschland. Schwerpunkte u. a.: Leibniz, Technikphilosophie, Wissenschaftstheorie. Dr. Stefan Poser lehrt als Technikhistoriker an der Helmut-Schmidt-Universität in Hamburg. Schwerpunkte: die gesellschaftliche Bewältigung technischer Risiken; Spiel und Technik. Prof. Dr. Dr. Franz Josef Radermacher steht dem Forschungsinstitut für anwendungsorientierte Wissensverarbeitung/n (FAW/n) vor und ist Professor für Datenbanken und künstliche Intelligenz an der Universität Ulm. Prof. Dr. Ortwin Renn, Soziologe und Volkswirt, ist wissenschaftlicher Direktor des Potsdamer Institute for Advanced Sustainability Studies (IASS). Arbeitsschwerpunkte u. a.: Risikogesellschaft, Nachhaltigkeit. Welf Schröter leitet das „Forum Soziale Technikgestaltung“ beim Deutschen Gewerkschaftsbund, Bezirk Baden-Württemberg, moderiert den Blog „Zukunft der Arbeit“ der IG Metall und ist Geschäftsführer des Talheimer Verlages. Prof. Dr. Francesca Vidal ist wissenschaftliche Leiterin des Schwerpunktes „Rhetorik“ an der Universität Koblenz-Landau, Mitherausgeberin des „Jahrbuches der Rhetorik“ und Präsidentin der Ernst-Bloch-Gesellschaft. Prof. Dr. Klaus Wiegerling, Philosoph, Komparatist und Volkskundler, arbeitet am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe und lehrt an der Technischen Universität Kaiserslautern. Prof. Dr. Walther Ch. Zimmerli hatte mehrere Philosophie-Lehrstühle inne, wirkte als Rektor der Universitäten Witten/Herdecke und Cottbus und ist nunmehr SeniorFellow am „Collegium Helveticum“, das von der ETH Zürich, der Universität Zürich und der Zürcher Hochschule der Künste getragen wird.
Technischer Wandel in hoher Geschwindigkeit kennzeichnet unsere Zeit. Dieser Wandel wirft grundsätzliche Fragen auf: Können wir begreifen, was wir tun? Können wir abschätzen, was wir tun? Können wir wollen, was wir tun? Können wir sagen, was wir tun? Können wir leben, was wir tun? Mit Fragen wie diesen hat sich der Philosoph Klaus Kornwachs immer wieder auseinandergesetzt. Ihm zu Ehren
widmen sich die Autorinnen und Autoren in ihren Essays der Philosophie der Technik, der Technikfolgenabschätzung sowie der Ethik, Sprache und Kultur der Technik. Neben Philosophen kommen auch Vertreter der Soziologie, Medizin, Technik- und Wirtschaftsgeschichte, Psychologie, Physik, Theologie, Ingenieurswissenschaft, Ökonomie, Politologie und Rhetorik zu Wort. So entsteht – ganz im Sinne Klaus Kornwachs’ – ein breites Spektrum von Ein- und Ansichten.
www.steiner-verlag.de Franz Steiner Verlag
ISBN 978-3-515-12039-5
9
7835 1 5 1 20395