Leben zwischen Natur und Kultur: Zur Neuaushandlung von Natur und Kultur in den Technik- und Lebenswissenschaften [1. Aufl.] 9783839420096

Welche Konsequenzen hat die Schaffung künstlicher Intelligenz und genetisch manipulierten Lebens für das Verhältnis von

346 77 1MB

German Pages 272 Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Prolog
Das Rohe, das Gekochte und Rocky Balboas Eier als zeitweilige Referenz
Technik- und Lebenswissenschaften: Grenzverschiebungen / Neuorientierungen
Die kontrollierte Simulation der Unkontrollierbarkeit. Kontroll- und Wissensformen in der Technowissenschaftskultur
Natur in der Krise. Die Technisierung der Lebenswelt und die Antiquiertheit biokonservativer Technikkritik
Zur Funktion des ‚nackten Lebens‘ als Außenseite des Sozialen für die Herstellung eines Akteurmodells für Cyborgs. Oder: Die kulturelle Leistung einer Naturalisierung sozialer Akteure als Menschen
Technikwissenschaften: Nanotechnologie und synthetische Biologie
Posthumanismus und Menschenwürde
Natürlich Nano. Die argumentative Kraft von Naturkonzepten in Laiendiskussionen zu Nanotechnologie
Die Nanotechnologie findet nicht statt
Lebenswissenschaften: Medizin und Genetik
Das Primat der ‚Natur‘ im Gegensatz zur ‚Künstlichkeit‘ in der Medizin der Aufklärung
Kulturelle Monster beherrschen. Erkundungen zur Einführung prädiktiver Gentests
Umweltkonzepte in der Epigenetik
Autorinnen und Autoren
Recommend Papers

Leben zwischen Natur und Kultur: Zur Neuaushandlung von Natur und Kultur in den Technik- und Lebenswissenschaften [1. Aufl.]
 9783839420096

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Diego Compagna (Hg.) Leben zwischen Natur und Kultur

Diego Compagna (Hg.)

Leben zwischen Natur und Kultur Zur Neuaushandlung von Natur und Kultur in den Technik- und Lebenswissenschaften

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2015 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Printed in Germany Print-ISBN 978-3-8376-2009-2 PDF-ISBN 978-3-8394-2009-6 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

P ROLOG Das Rohe, das Gekochte und Rocky Balboas Eier als zeitweilige Referenz

Diego Compagna | 9

TECHNIK - UND LEBENSWISSENSCHAFTEN: G RENZVERSCHIEBUNGEN / NEUORIENTIERUNGEN Die kontrollierte Simulation der Unkontrollierbarkeit Kontroll- und Wissensformen in der Technowissenschaftskultur

Jutta Weber | 23 Natur in der Krise Die Technisierung der Lebenswelt und die Antiquiertheit biokonservativer Technikkritik

Sascha Dickel | 45 Zur Funktion des ‚nackten Lebens‘ als Außenseite des Sozialen für die Herstellung eines Akteurmodells für Cyborgs Oder: Die kulturelle Leistung einer Naturalisierung sozialer Akteure als Menschen

Diego Compagna | 73

TECHNIKWISSENSCHAFTEN: NANOTECHNOLOGIE UND SYNTHETISCHE BIOLOGIE Posthumanismus und Menschenwürde Zu den ethischen Problemen der Enhancement-Debatte

Martin G. Weiß | 123

Natürlich Nano Die argumentative Kraft von Naturkonzepten in Laiendiskussionen zu Nanotechnologie

Simone Schumann und Claudia G. Schwarz | 147 Die Nanotechnologie findet nicht statt

Mario Kaiser | 177

LEBENSWISSENSCHAFTEN: MEDIZIN UND GENETIK Das Primat der ‚Natur‘ im Gegensatz zur ‚Künstlichkeit‘ in der Medizin der Aufklärung

Andrea zur Nieden | 213 Kulturelle Monster b eherrschen Erkundungen zur Einführung prädiktiver Gentests

Eduardo A. Rueda | 229 Umweltkonzepte in der Epigenetik

Ute Kalender | 251

Autorinnen und Autoren | 267

Prolog

Das Rohe, das Gekochte und Rocky Balboas Eier als zeitweilige Referenz D IEGO C OMPAGNA

Im Diskurs über die Grunddifferenz zwischen Natur und Kultur war das Erscheinen von Claude Lévi-Strauss‘ Werk „Mythologica I: Das Rohe und das Gekochte“ (2009) wegweisend. Darin legt Lévi-Strauss dar, dass die Opposition zwischen Natur und Kultur eine der grundlegendsten überhaupt ist, insbesondere für den Aufbau geistiger Fähigkeiten und kognitiver Fertigkeiten der Welterschließung. Er stellt fest, dass sich der Übergang von Natur zu Kultur besonders gut an der Art und Weise der Essenszubereitung feststellen lässt, denn erst durch kulturelle Prozesse werden aus dem rohen Urzustand der Nahrung (Natur) gekochte Nahrungsmittel (Kultur). Der Reiz einer solchen Grundlegung liegt in der schlichten Einfachheit eines (sozialen) Wirklichkeitsverständnisses begründet, das auf ahistorische, feststehende Differenzen zurückgeführt werden kann.1 So vermag es Mary Douglas in „How Institutions Think“ (1986: 63f) die folgenreiche Kopplung basaler, wirklichkeitskonstituierender Kategorien mit dem vermeintlich ‚biologischen (also: natürlichen) Geschlecht‘ plausibel darzustellen, indem sie auf Lévi-Strauss rekurriert und hierbei vor allem auf eben jene Grunddifferenz von ‚Natur vs.

1

Dass gerade die Formulierung ‚kosmologischer Standards‘ empirisch schnell widerlegt werden kann, hat besonders eindrucksvoll Edmund Leach (1961; 1970) gezeigt, der zugleich einer der luzidesten Interpreten von Lévi-Strauss Werk gewesen ist – kaum einer hat es verstanden Lévi-Strauss so verständlich wie niveauvoll wiederzugeben.

10 | DIEGO COMPAGNA

Kultur‘ aufbaut, die in der Gegenüberstellung des Rohen und des Gekochten ihren empirischen Ausdruck findet (vgl. Gildemeister/Wetterer 1992: 242). Lévi-Strauss ging es vor allem darum, elementare Differenzen als Grundstruktur darauf aufbauender Klassifikationen und Kategorisierungen bzw. Muster sozialer Ordnung auszuweisen. Insbesondere in der Dichotomie von Natur vs. Kultur bzw. deren anschaulich-praktischer Manifestationen in der Zuführung lebensnotwendiger Energie durch rohe vs. gekochte bzw. zubereitete2 Nahrungsmittel, glaubte er die Grundstruktur des ‚menschlichen Geistes‘ entdeckt zu haben. Auf eine mindestens genauso grundsätzliche Weise entwickelt er in den „Elementaren Strukturen der Verwandschaft“ die These, dass im Inzesttabu der Ursprung der Kultur liege, die er wiederum einerseits von der Natur scharf abgrenzt sowie andererseits kunstvoll verschlungen mit ihr vermengt (Lévi-Strauss 2009: 45ff, 57ff). Was prima facie inkonsistent anmutet ist Ausdruck einer scharfsinnigen Analyse, die sich nicht in die Verlegenheit bringen lässt, jeden Widerspruch auflösen zu müssen. Die tiefe und unauflösliche Ambivalenz des Wortes Tabu, dessen Bedeutung insbesondere im Phänomen des sozial geregelten Inzestverbots zum Vorschein kommt, hatte Jahre zuvor Sigmund Freud im zweiten Aufsatz seiner sozial- und kulturhistorisch einflussreichen Aufsatzsammlung „Totem und Tabu“ (2000: 357) bereits eindringlich diskutiert. Genauso wie es kein Rollendifferential und somit keine Möglichkeit der Ansprache und Interaktion schlechthin geben kann, wenn nicht an irgendeiner Stelle zwischen all diesen sich ähnlich sehenden und einander somatisch zugeneigten Wesen ein Unterschied markiert wird (Inzesttabu), genauso gibt es keine Handhabe über das ‚Reich der Dinge‘, wenn keine Unterscheidung eingeführt wird, die in der Lage ist, jene Umwelt zu zergliedern und zu ordnen, die für eine ausreichende Energiezufuhr verantwortlich ist. Der „Stoffwechsel zwischen Mensch und Natur“ (Marx 1962: 192; vgl. Gebauer 1996:

2

Die englische („The raw and the cooked“) – und in deren direkter Entsprechung auch deutsche – Übersetzung des französischen Originaltitels („Le cru et le cuit“) ist zwar nicht falsch, aber nichtsdestotrotz insofern irreführend, als das französische Wort ‚cuit‘ nicht nur ‚gekocht‘, sondern eben auch ‚zubereitet‘ – im Sinne von: ‚es ist fertig(gestellt)‘ (eng.: ‚done‘ oder ‚prepared‘) – ausdrückt, dem nicht notwendigerweise ein Kochvorgang im herkömmlichen Sinne vorangegangen sein muss.

D AS R OHE,

DAS

G EKOCHTE UND ROCKY B ALBOAS E IER | 11

34; Fromm 1977: 32ff) wird ‚runtergekocht‘ auf die Umwandlung des Verzehrbaren in mehr oder weniger aufwendige, naturferne Darreichungsformen. Lévi-Strauss unterscheidet hierbei bekanntermaßen zwischen verschiedenen Arten der Zubereitung in grundsätzlicher Hinsicht. So stellt bspw. das Braten eines Lebensmittels, im Gegensatz zum Kochen oder gar Räuchern, eine ‚höhere‘ Stufe der naturfernen (also: kulturreichen) Transformation dar. Michel Foucault und Roland Barthes – gemeinhin neben Jacques Derrida als einflussreichste Vertreter des so genannten ‚Poststrukturalismus‘ wahrgenommen und dargestellt (vgl. Münker/Roesler 2000) – unterwandern die Eindeutigkeit einer grundlegenden Differenz sowohl in historischer (Foucault) als auch kulturell-kontextueller bzw. situativer (Barthes) Hinsicht. Besonders offenkundig tun sie dies in ihren Werken „Die Ordnung der Dinge“ (Foucault 1995) und „Das Reich der Zeichen“ (Barthes 1993), deren Titel im Hinblick auf den soeben genannten Zusammenhang geradezu emblematisch anmuten. Ohne Zweifel ist die schillernde und zugleich heimtückische Einfachheit von Lévi-Strauss’ Argumentationsweisen immer dann besonders reizvoll, wenn es gilt, komplizierte Sachverhalte in ihrer sozialen ‚Gemachtheit‘ bloßzustellen und die nicht selten recht verschlungenen Implikationen und zirkulär-rückgekoppelten Auswirkungen einer bestimmten Strukturkategorie auf das Soziale in Augenschein zu nehmen.3 Als Ankerund Ausgangspunkt eignet sich Lévi-Strauss’ Grundlegung einer strukturalistischen Weltdeutung allemal…

3

Philippe Descola (bspw. 2014: 36f) hat sehr plausibel aufgezeigt, dass gerade die Natur/Kultur Differenz erst seit dem letzten Drittel des 19. Jahrhunderts eine geistesgeschichtliche Durschlagskraft erfahren hat und in dieser Hinsicht durchweg als ein Produkt der Moderne aufgefasst werden kann. Mittelbar inszeniert er damit seinen Lehrer, Claude Lévi-Strauss, als einen der ganz besonders wirkmächtigen Architekten dieser – letztlich, wie sich gerade hierin zeigt, in vielerlei Hinsicht immer noch andauernden – Epoche, der auf der Grundlage dieser Differenz ideengeschichtliche Wirklichkeit geschaffen hat, die die einander gegenüberliegenden Pole der Differenz fortwährend reifiziert als würde es sich hierbei um ‚Naturgesetze‘ handeln.

12 | DIEGO COMPAGNA

V ON S ALMONELLEN , T OXOPLASMOSE UND R OCKY B ALBOAS E IERN …in der Schwangerschaft gilt nur der Verzehr hart gekochter Eier als bedenkenlos, da nach dem derzeitigen Stand medizinisch-epidemiologischer Aufklärung rohe oder weich gekochte Eier Salmonellen enthalten könnten. Häufig allerdings kann in diesem Zusammenhang die Tendenz beobachtet werden, dass grundsätzlich alles Essbare gut gekocht und ‚schön durch‘ sein sollte, um die Gefahr einer Toxoplasmose und Listeriose abzuwehren. Was die Salmonellen betrifft, sollten freilich auch diejenigen, die nicht schwanger sind, aufpassen – wohingegen die Gefahr der Toxoplasmose bzw. Listeriose nur für Schwangere relevant ist. Hierbei handelt es sich um eine Infektionskrankheit, die von einem Parasiten im Organismus der Wirte ausgelöst wird, wobei der Mensch lediglich als Zwischenwirt fungiert. Schweren Schaden nehmen kann in der Regel nur das Ungeborene, wohingegen für Erwachsene die Episode meistens symptomfrei verläuft. Rocky Balboa hat Unmengen an rohen Eiern zu sich genommen, um sein hartes Training zu überstehen und den erhofften Muskelaufbau mit der Zufuhr entsprechender Proteine zu unterstützen (vgl. Rocky I 1976: 01:07:5001:09:10). Dass es unbedingt gleich fünf rohe Eier – getrunken aus einem großen Glas – sein mussten (ebd.), ist vermutlich auch ein symbolisches Stilmittel, das der Klarstellung dient, mit wem wir es hier zu tun haben bzw. vielmehr hatten: Einem echten Underdog, dessen Eiweißquelle aus einem leicht verfügbaren und besonders günstigen Lebensmittel stammt. Rocky steht zugleich für die Unbekümmertheit und Sorglosigkeit der Arbeiterklasse hinsichtlich ihrer Ernährung. Ein gewisser Charme von ‚Ursprünglichkeit‘ schwingt im Zuge dieser Stilisierung auch deutlich mit, da Rocky über keine ausgefeilten Trainingsgeräte verfügt. Rocky trainiert sich zu großen Teilen selbst und zwar mit Hilfe der einfachsten Werkzeuge: Springseil, Laufschuhe, Sweatshirt mit Kapuze, Sandsack.4 Dies wird im vierten Teil der

4

Ein ganz und gar emblematisches Signum dieser Stilisierung, auf die mich der freischaffende Philosoph Alexander Wiehart (http://wiehart.wordpress.com) aufmerksam gemacht hat, wird in der Erzählstruktur des Films überraschend kunstvoll in Szene gesetzt: Rocky trainiert in der Kühlhalle des Schlachthofes in dem sein Schwager in spe Paulie Pennino (Adrians Bruder) arbeitet, indem er die bereits geköpften und gehäuteten Rinderhälften als Sandsäcke ‚nutzt‘ (Rocky I

D AS R OHE,

DAS

G EKOCHTE UND ROCKY B ALBOAS E IER | 13

Saga besonders stark in den Vordergrund gestellt (Rocky IV 1985: 00:53:3000:56:20, 00:57:30-01:01:20); dies ist allerdings kein Novum, sondern ein Motiv, das alle Rockyfilme prägt. Die Trainings-Montage, die in allen Teilen der Saga vorkommt, unterstreicht stets die ‚Schlichtheit‘ von Rockys körperlicher Trainingsarbeit vor seinen finalen Kämpfen (Rocky II 1979: 01:02:1501:03:00, 01:20:50-01:23:10; Rocky III 1982: 01:00:00-01:01:40). Genauso wie Rockys Eier ‚die Seiten gewechselt haben‘ (dazu später mehr), ist auch seine Trainingskluft – das etwas ausgeleierte, auf jeden Fall schon viel benutzte Heather-Gray Kapuzen-Sweatshirt – zu einer Ikone des ‚beiläufigernsthaft‘ Fitness treibenden Großstädters (bzw. Hipsters) geworden. Diese eigenartige Stilisierung einer ‚Ursprünglichkeit‘, die eigentlich die Arbeiterklasse prädiziert, haben sich die ‚Alternativen‘ (also Kinder gutbürgerlicher Lehrer-, Juristen-, Mediziner-, etc.-familien – insofern passt die Charakterisierung ‚Alternativ‘ in mehrfacher Hinsicht) im Zuge der Bio- und Ökobewegung vereinnahmt. Das bürgerliche Milieu hat Rocky und ‚den Seinen‘ ein weiteres – im Ursprung negativ konnotiertes – Alleinstellungsmerkmal entwendet. Wie dem auch sei, das Spannende an dieser – selbstredend alles andere als akkuraten – Nacherzählung der Ereignisse ist doch, dass die Ursprünglichkeit der Bio- und Ökobewegung der 80er und 90er Jahre einer Umkehrung der von Lévi-Strauss postulierten Vorzeichen des Rohen und des Gekochten gleichkommt. Bemerkenswert ist hierbei also, dass gerade die Bio- und Ökobewegung sich an einer Idee von ‚Ursprünglichkeit‘ orientiert hat, die zunächst im Sinne einer Rebellion gegen die etablierten Fertigsoßen und ‚klümpchenfreien‘ Soßenbinder verwendet worden ist, an der Schwelle zum neuen Jahrtausend aber eine die gesamte Bevölkerung umfassende ‚Sorge-um-Sich‘-Lawine losgetreten hat. So lässt sich der Konsum von Biolebensmitteln in seiner gesamtgesellschaftlichen Ausprägung seit einigen Jahren ganz eindeutig unter dem Diktum der „Körperarbeit“ (Villa 2008) subsumieren (vgl. Dovgonos/Compagna 2011). Von Rocky über die ‚Alternativen‘ bis hin zur gegenwärtigen Omnipräsenz von ‚Bio‘ trifft Lévi-Strauss' Formel des ‚Rohen vs. Gekochten‘ immer weniger zu: Das Rohe bzw. ‚Ursprüngliche‘ und ‚Naturbelassene‘ kann als

1976: 01:16:00-01:17:30). Demgegenüber besteht die ‚Außenhaut‘ von hochwertigen Sandsäcken aus ‚Leder‘, also einer kulturell angereicherten, handwerklich anspruchsvollen Weiterverarbeitung der ‚fehlenden Haut‘ eben jener Rinderhälften, die Rocky als besonders krude Sandsacksurrogate nutzt.

14 | DIEGO COMPAGNA

das Gekochte der Spätmoderne aufgefasst werden – insbesondere dann, wenn der Charakterisierung einer reflexiven Moderne und der damit verknüpften Konzepte spätmoderner Individualisierungsprozesse Glauben geschenkt wird, die eine immer prominentere Bedeutung des Körpers und der diesem gewidmeten ‚Arbeit‘ postulieren (Beck-Gernsheim 2008; Giddens 1991). Diese Überlegungen würden wiederum den Weiterentwicklungen des klassischen Strukturalismus Recht geben: Dabei zeichnet sich eine Verschiebung der Referenz ab, obschon die Relevanz der Struktur für das gesellschaftliche Gefüge, ebenso wie die des Mediums (die (Nicht-)Transformation von Essbarem), ähnlich groß bleibt. Hier wie dort geht es immer auch um die Positionierung im sozialen Raum aufgrund der Verwendung, Zubereitung und des Verzehrs der ‚richtigen‘ Lebensmittel bzw. Speisen: Was der Stammesgesellschaft das aufwendig Gebratene war, ist heute das weitestgehend naturbelassene Produkt aus ökologischer Landwirtschaft mit dreifachem Bio-Siegel.

„…S PIEGELEIER SIND NICHT HART GENUG …“: E IER IN Z EITEN BIOPOLITISCHER F AMILIENPLANUNG Anders verhält es sich allerdings in der Schwangerschaft – es scheint als ob Lévi-Strauss in dieser Hinsicht doch recht behalten würde und zumindest für diesen einen Erfahrungsraum ‚gleichbleibende‘ Wahrheiten formuliert hätte. Von einem Kellner eines Cafés im Norden des Berliner Bezirks Neukölln habe ich zur Brunchzeit die verwundert klingende Klarstellung vernehmen können, dass die Spiegeleier aber doch auch gekocht seien – offensichtlich muss auch er Rocky vor Augen gehabt und genauso wie ich als feste Referenz in Sachen Eier bemüht haben – woraufhin zwei Schwangere im Chor entgegneten: „ja, aber Spiegeleier sind nicht hart genug“. Ich erzähle diese Geschichte nach, weil sie mir schlagartig vor Augen geführt hat, dass der Weg von Rockys rohen Eiern zu den so hart wie möglich gekochten (selbstverständlich in diesem Café ausschließlich:) Bioeiern sehr kurz ist. Innerhalb weniger Jahrzehnte haben sich erhebliche Verschiebungen und Veränderungen auf dem Feld der Lebensmittelerzeugung, -zubereitung und des -konsums zugetragen.

D AS R OHE,

DAS

G EKOCHTE UND ROCKY B ALBOAS E IER | 15

Das Rohe (naturbelassene) und das Gekochte (kulturell manipulierte) spannen immer wieder neue, andersartige und unterschiedliche Bezugnahmen erlaubende (also: sinngebende) Räume auf. Innerhalb dieser können auf je teilweise sehr unterschiedliche Weisen Anschlusspunkte für vermeintlich zwingend logische (naturgegebene – und also gottgewollte? –) Argumentationen und Herleitungen definiert werden. Die Faszination der Natur/Kultur Differenz liegt hierbei gerade in der scheinbar umfassenden, vollumfänglichen Umklammerung des denkbar Möglichen für die es ein Jenseits nicht geben kann. Denn welchen Raum vermag es jenseits der Natur auf der einen und der Kultur auf der anderen Seite geben? Gleichwohl bedingen sich die Konzepte gegenseitig und erfahren ihre Rechtfertigung und Bedeutung immer nur in Differenz zum jeweils anderen Konzept. Vieles spricht dafür, dass diese in ihrer für uns so geläufigen und scheinbar so selbstverständlich-eminenten Tragweite erst seit der Neuzeit auf dem Weg zur Moderne derart bedeutungsvoll geworden sind (vgl. zur Kontingenz dieser typisch eurozentrisch-abendländischen Differenz die umfassende und wegweisende Monographie von Philippe Descola 2013). Buchstäblich ‚konstitutiv‘ für das Weltverständnis sind sie wohl erst im „Zeitalter des Weltbildes“ (Heidegger 1980) geworden. Über die Verschlungenheit dieses Verhältnisses und der insbesondere für die Moderne typischen Voreingenommenheit – und in dieser Hinsicht geradezu paradigmatischen ‚Verblendung‘ derselben – schreibt Bruno Latour in „Wir sind nie modern gewesen“ (2002). Verwunderlich ist der von Latour dort dargestellte ‚Selbstbetrug‘ der Moderne allerdings nicht, insofern gerade die Moderne ihrem Selbstverständnis nach zuallererst gerade das ist, was sich von ‚Natur‘ unterscheidet. Wobei Natur hier (wie vielerorts) ein utopischer Nullpunkt ist, auf den alle Tradition – chronologisch zurückverfolgt – verweist oder vielmehr diesem entspringt (vgl. hierzu insbesondere den Beitrag von Sascha Dickel in diesem Band). Latours Buch legt offen, was zwar in gewisser Weise für alle evident war, aber trotzdem gesagt werden musste: Kein Zeitalter ist so dermaßen mit Natur verbandelt wie dasjenige, das sich am entferntesten von ihr wähnt (Latour 2002). In einigen wenigen Sätzen ist eben diese Einsicht bereits 1919 von Max Weber dargelegt worden – oder anders formuliert: Latours Buch stellt eine sehr lange Fußnote zu Webers Definition von „Entzauberung“ (Weber 1994: 9) dar. Die Naturwissenschaftler_innen und Ingenieur_innen, die die Welt vermessen und die relevanten Wirkmächte identifizieren und bestimmen, um

16 | DIEGO COMPAGNA

sich auf diese Weise ein ‚korrektes‘ Bild der Welt zu machen, tun dies vor dem Hintergrund einer Unterscheidung, die sie zugleich durch ihr Tun herstellen bzw. aufrechterhalten (Heidegger 1980). Überspitzt ausgedrückt – und gleichsam als wirklichkeitskritische Arbeitshypothese formuliert – ist die Natur/Kultur Differenz die Kommunion des „Glauben[s] daran: dass man, wenn man nur wollte […] alle Dinge – im Prinzip – durch Berechnen beherrschen könne.“ (Weber 1994: 9; vgl. sinnverwandt auch Horkheimer/Adorno 1997: 45f) Die Moderne ist wie jedes andere Zeitalter bzw. jede Institution ‚im Kleinen‘ und jedes Subjekt ‚im Kleinsten‘ eine performative Maschine (Braun 2008; Schmidgen 1997): Im Vollzug wird gerade jene Wirklichkeit und Weltauslegung hergestellt vor deren Hintergrund eben jener Vollzug erst möglich wird, für andere ‚soziale Entitäten‘ anschlussfähig ist und zur Sinnproduktion einlädt. In dieser Hinsicht verweist Latour in der Tat auf einen ganz wesentlichen Aspekt: Die Konzepte von Natur und Kultur haben an Bedeutung seit der Renaissance nicht eingebüßt, vielmehr ist die Moderne (inkl. aller Spät-, Post- und sonstigen chronologisch nachgelagerten Ausformungen) ihre Lebensversicherung. Je fragiler und verhandelbarer vermeintliche Selbstverständlichkeiten sind, die den (eurozentrisch ‚anthropologisch‘ präformierten) Menschen in seiner hervorgehobenen Position gefährden, desto wichtiger wird gerade diese Gegenüberstellung. Ein Außen der Natur/Kultur Differenz, das die Behaglichkeit der durch sie geschaffenen Grenzen des Denk- und Verhandelbaren gefährdet, wird allerdings immer dann sichtbar, wenn – wie in diesem Sammelband – gerade diese Differenz hinsichtlich ihrer wirklichkeitskonstituierenden und ungleichheitsfördernden Wirkmächtigkeit thematisiert wird.5 Im Unterschied zu dem nur lose an Issac Asimovs Vorlage „Robot Dreams“ (1986) angelehnten Films „I, Robot“ (2004) stellt sich in der Kurzgeschichte heraus, dass der ‚ungewöhnliche‘ Roboter „LVX-1“ (genannt: „Elvex“ – im Film: „Sonny“) nicht nur in der Lage ist zu träumen, sondern

5

Besonders prägnant hat sich diesbezüglich Philippe Descola hervorgetan, der sich im Rahmen seiner jüngst veröffentlichten Schriften auf eine besonders explizite Weise von seinem ‚Lehrer‘ distanziert (vgl. Descola 2014). Ebenso richtungsweisend (im deutschsprachigen Raum) sind bspw. der Aufsatz von Hans-Jörg Rheinberger (1996) „Jenseits von Natur und Kultur - Anmerkungen zur Medizin im Zeitalter der Molekularbiologie“ und die Monographie von Jutta Weber (2003) „Umkämpfte Bedeutungen - Naturkonzepte im Zeitalter der Technoscience“.

D AS R OHE,

DAS

G EKOCHTE UND ROCKY B ALBOAS E IER | 17

dass er sich selbst im Traum als Menschen sieht. Die Heldin in einer Vielzahl von Asimovs Robotergeschichten, die Robotikerin (genaugenommen: „robotpsychologist“) Susan Calvin, vernichtet den Roboter augenblicklich bzw. unmittelbar im Anschluss an diese verstörende Schilderung des Roboters, wonach er, der Roboter „Elvex“, in Gestalt eines Menschen zu einer großen Ansammlung von Robotern spricht und diesen zuruft „Let my people go!“. Es ist bezeichnend, dass in der massenmedial aufbereiteten Version dieses Motivs im Film „I, Robot“ der Roboter „Sonny“ nicht sich selbst in seinem Traum als Menschen sieht, sondern den menschlichen Hauptdarsteller „Del Spooner“, gespielt von Will Smith (I, Robot 2004: 01:09:00-1:10:20). Es ist insofern bezeichnend und zugleich nicht überraschend, da Asimovs Kurzgeschichte einen sehr luziden Hinweis auf einen äußerst weitreichenden und delikaten Aspekt moderner Wirklichkeitsverhältnisse beinhaltet: Die letzte Bastion des Menschen hinsichtlich einer hervorgehobenen Handlungsträgerschaft für die Herstellung sozialer Wirklichkeit ist sein Antlitz und der Glaube daran, dass irgendetwas an ihm noch 100% Natur ist (vgl. Compagna 2015).

D ANKSAGUNG Danken möchte ich den Beitragenden für ihre Geduld und selbstredend für ihre Beiträge. Lys Hager und Verena Keysers für die redaktionelle Unterstützung und die Übersetzung eines Beitrages aus dem Englischen ins Deutsche. Sophia Kleyboldt, Judith Engelke und Manuela Marquardt für die Umsetzung der verlagsspezifischen Erwartungen an Formatierung und Layout. Außerdem Nina Ogrowsky und (nochmals) Manuela Marquardt für die kritische Durchsicht meiner Textteile im Band. Herzlich bedanken möchte ich mich außerdem bei meinen zwei (inzwischen ehemaligen) Kollegen Stefan Derpmann und Thorsten Helbig sowie den studentischen Hilfskräften Imy Klein, Lena Stansky und David Schulze. Ohne ihre Hilfestellung hätte ich nicht oder nur unter sehr großen Entbehrungen ausreichend Zeit für die notwendigen Vorarbeiten, die zu diesem Band geführt haben, finden können. Mein größter Dank gilt meiner langjährigen Chefin und Mentorin Prof. Karen A. Shire (Ph.D.): Für ihre stetigen Ermunterungen, den eigenen Erkenntnisinteressen nachzugehen und die zeitlichen und geistigen Freiräume, die sie mir über die Jahre hinweg hierfür gewährt hat.

18 | DIEGO COMPAGNA

L ITERATUR Asimov, Isaac (1986): Robot Dreams. In: Ders.: Robot Dreams. Berkley, CA, USA: Berkley Books. Barthes, Roland (1993): Das Reich der Zeichen. [Original: (1970)] Frankfurt a.M.: Suhrkamp. Beck-Gernsheim, Elisabeth (2008): Gesundheit und Verantwortung im Zeitalter der Gentechnologie. [Original: (1994)] S. 316-335 in: Beck, Ulrich/Beck-Gernsheim, Elisabeth (Hrsg.): Riskante Freiheiten. Individualisierung in modernen Gesellschaften. Frankfurt a.M.: Suhrkamp. Braun, Christoph (2008): Die Stellung des Subjekts. Lacans Psychoanalyse. [Original: (2007)] Berlin: Parodos Verl. Compagna, Diego (2015): Postnukleare Handlungstheorie. Ein soziologisches Akteurmodell für Cyborgs. Bielefeld: transcript. Descola, Philippe (2013): Jenseits von Natur und Kultur. [Original: (2005)] Berlin: Suhrkamp. Descola, Philippe (2014): Die Ökologie der Anderen. Die Anthropologie und die Frage der Natur. [Original: (2011)] Berlin: Matthes und Seitz. Douglas, Mary T. (1986): How institutions think. Syracuse, NY: Syracuse Univ. Press. Dovgonos, Anna/Compagna, Diego (2011): Die 'Pflichten gegenüber sich selbst'. Der Konsum von Bio-Lebensmitteln im Kontext gesellschaftlicher Individualisierung. Working Papers kultur- und techniksoziologische Studien WPktS 01/2011. Online verfügbar unter: http://www.unidue.de/wpkts [16.02.2014]. Foucault, Michel (1995): Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften. [Original: (1966)] Frankfurt a.M.: Suhrkamp. Freud, Sigmund (2000): Totem und Tabu. Einige Übereinstimmungen im Seelenleben der Wilden und der Neurotiker. [Original: (1912-1913)] S. 287-444 in: Ders.: Fragen der Gesellschaft. Ursprünge der Religion. Studienausgabe: Band 9. Frankfurt a.M.: Fischer. Fromm, Erich (1977): Das Menschenbild bei Marx. Mit den wichtigsten Teilen der Frühschriften von Karl Marx. [Original: (1963)] Frankfurt a.M.: Europäische Verl.-Anst. Gebauer, Gunter (1996): Das Spiel in der Arbeitsgesellschaft. Über den Wandel des Verhältnisses von Arbeit und Spiel. In: Paragrana 5 (2): 2339.

D AS R OHE,

DAS

G EKOCHTE UND ROCKY B ALBOAS E IER | 19

Giddens, Anthony (1991): Modernity and self-identity. Self and society in the late modern age. Stanford, Calif: Stanford University Press. Gildemeister, Regine/Wetterer, Angelika (1992): Wie Geschlechter gemacht werden. Die soziale Konstruktion der Zwei-Geschlechtlichkeit und ihre Reifizierung in der Frauenforschung. S. 201-254 in: Knapp, GudrunAxeli (Hrsg.): Traditionen Brüche. Entwicklungen feministischer Theorie. Freiburg (Breisgau): Kore. Heidegger, Martin (1980): Die Zeit des Weltbildes. [Original: (1938)] S. 7394 in: Ders.: Holzwege. Frankfurt a.M.: Klostermann. Horkheimer, Max/Adorno, Theodor W. (1997): Dialektik der Aufklärung. Philosophische Fragmente. [Original: (1944)] Frankfurt a.M.: Suhrkamp. Latour, Bruno (2002): Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. [Original: (1991)] Frankfurt a.M.: Fischer-Taschenbuch-Verl. Leach, Edmund (1961): Pul Eliya: A Village in Ceylon. Cambridge: Cambridge University Press. Leach, Edmund (1970): Claude Lévi-Strauss. New York: Viking Press. Lévi-Strauss, Claude (2009): Das Rohe und das Gekochte. [Original: (1964)] Frankfurt a.M.: Suhrkamp. Lévi-Strauss, Claude (2009): Die elementaren Strukturen der Verwandtschaft. [Original: (1949, 1967)] Frankfurt a.M.: Suhrkamp. Marx, Karl (1962): Karl Marx, Friedrich Engels: Werke (MEW, Band 23). Das Kapital. Kritik der Politischen Ökonomie. (Band 1). [Original: (1867)] Berlin: Institut für Marxismus-Leninismus. Münker, Stefan/Roesler, Alexander (2000): Poststrukturalismus. Stuttgart [u.a.]: Metzler. Rheinberger, Hans-Jörg (1996): Jenseits von Natur und Kultur. Anmerkungen zur Medizin im Zeitalter der Molekularbiologie. S. 287-306 in: Borck, Cornelius/DiGiacomo, Susann M. (Hrsg.): Anatomien medizinischen Wissens. Medizin, Macht, Moleküle. Frankfurt a.M.: Fischer Taschenbuch Verl. Schmidgen, Henning (1997): Das Unbewußte der Maschinen. Konzeptionen des Psychischen bei Guattari, Deleuze und Lacan. München: Fink. Villa, Paula-Irene (2008): Habe den Mut, Dich Deines Körpers zu bedienen! Thesen zur Körperarbeit in der Gegenwart zwischen Selbstermächtigung

20 | DIEGO COMPAGNA

und Selbstunterwerfung. S. 245-272 in: Dies. (Hrsg.): Schön normal. Manipulationen am Körper als Technologien des Selbst. Bielefeld: transcript. Weber, Jutta (2003): Umkämpfte Bedeutungen. Naturkonzepte im Zeitalter der Technoscience. Frankfurt a.M. [u.a.]: Campus-Verl. Weber, Max (1994): Wissenschaft als Beruf. [Original: (1919)] S. 1-23 in: Ders.: Wissenschaft als Beruf. Politik als Beruf. Tübingen: Mohr.

F ILME I, Robot (2004): Alex Proyas (Director), Jeff Vintar, Akiva Goldsman (Screenplay), Twentieth Century Fox Film Corporation, et al. (Production Companies) Rocky I (1976): John G. Avildsen (Director), Sylvester Stallone (Screenplay), Chartoff-Winkler Productions, United Artists (Production Companies) Rocky II (1979): Sylvester Stallone (Director), Sylvester Stallone (Screenplay), United Artists (Production Company) Rocky III (1982): Sylvester Stallone (Director), Sylvester Stallone (Screenplay), United Artists (Production Company) Rocky IV (1985): Sylvester Stallone (Director), Sylvester Stallone (Screenplay), United Artists, Metro-Goldwyn-Mayer (Production Companies)

Technik- und Lebenswissenschaften: Grenzverschiebungen / Neuorientierungen

Die kontrollierte Simulation der Unkontrollierbarkeit Kontroll- und Wissensformen in der Technowissenschaftskultur1 J UTTA W EBER

In den letzten Jahrzehnten haben sich Kontroll- und Wissensformen einer neuen Technorationalität herausgebildet, die Automatismen des Werdens, der Unvorhersehbarkeit und einer kontrollierten Unkontrollierbarkeit für sich nutzbar machen. Zugrunde liegen dieser Entwicklung vehemente Verschiebungen nicht nur der Epistemologien und Ontologien heutiger Technowissenschaften, sondern auch aktueller Diskurse in den Geistes- und Sozialwissenschaften (Lafontaine 2007) bzw. generell der Technowissenschaftskultur (Weber 2003). Diese Verschiebungen entfalten ihre Wirksamkeit nicht zuletzt im Kontext aktueller Formen der Biopolitik, der „Politics of Life Itself“ (Franklin 2001) oder auch der „Biopolitics of Security“ (Dillon/LoboGuerrero 2008), die ich am Ende meines Beitrags näher skizzieren werde.2

1

Bei diesem Beitrag handelt es sich um eine leicht überarbeitete Version des bereits in dem Sammelband „Unsichtbare Hände – Automatismen in Medien-, Technik- und Diskursgeschichte“ abgedruckten Textes, das von Hannelore Bublitz, Irina Kaldrack, Theo Röhle und Hartmut Winkler im Jahr 2011 herausgegeben worden und im Verlag Fink (München) erschienen ist.

2

Für anregende Kommentare zum Text möchte ich Irina Kaldrack und Hannelore Bublitz sowie den weiteren Teilnehmerinnen der Tagung „Unsichtbare Hände.

24 | J UTTA W EBER

T ECHNORATIONALITÄT : Ü BER T INKERING , M OLEKULARISIERUNG , M ETAHEURISTIKEN & R E -D ESIGN Zentrales Merkmal neuer Technowissenschaften ist es, dass sie nicht primär auf die Kontrolle der Naturprozesse durch die Erschaffung zweiter (oder dritter) Naturen zielen, sondern dass sie auf Konvertierung, Perfektionierung und letztlich „Optimierung“ der Natur setzen. Im Narrativ der technorationalen Logik am Ende des 20. und zu Beginn des 21. Jahrhunderts wird die Welt als flexibel, dynamisch und offen skizziert. Sie zeichnet sich durch die Möglichkeiten vielfältiger Kombinatorik und des Re-Designs aus, die durch Verfahren des trial and error, des Herum- und Ausprobierens von der Evolution produktiv genutzt werden. Gemäß dieser neuen Ontologie sind Organismen dynamische, evolvierende, parallel verteilte Netzwerke mit der Fähigkeit zur Selbstorganisation und zur ständigen Neuerfindung ihrer selbst (Hayles 1999). Ontologische und epistemologische Grundlage dieser neuen Technorationalität ist die Vorstellung von Natur als in die kleinsten Einzelteile zerlegbar und damit massiv gestaltbar. Diese Logik gibt epistemische Werte wie Objektivität und Reproduzierbarkeit auf und engagiert sich in einer Wissenspraxis, die auf systematisiertes Tinkering, Metaheuristiken, Lernstrategien, Prozesse der Emergenz, und Post-Processing setzt (Weber 2003). Diese Entwicklung möchte ich im Folgenden an zwei Beispielen verdeutlichen. John Holland, genetische Algorithmen und die Lösung unverstandener Probleme 1992 erscheint im Scientific American ein Artikel von John Holland, der sein unglaubliches Versprechen schon im Titel trägt: „Genetic Algorithms Com-

Automatismen in Medien-, Technik-und Diskursgeschichte“ des Graduiertenkollegs Automatismen an der Universität Paderborn danken. Zur Schreibweise im Text ist zu bemerken: In loser Folge wird sowohl das generalisierte Femininum wie Maskulinum gebraucht, um die nicht immer zufriedenstellende Lösung des großen Binnen-„I“s zu vermeiden. D. h., dass mit Nutzern durchaus auch Nutzerinnen und mit Robotikerinnen auch Robotiker gemeint sind.

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 25

puter Programs That ‚Evolve‘ in Ways That Resemble Natural Selection Can Solve Complex Problems Even Their Creators Do Not Fully Understand“ (Holland 1992). John Holland, Erfinder genetischer Algorithmen, verkündet mit diesem Ansatz, es solle mithilfe genetischer Algorithmen eine verallgemeinerbare Lösungsstrategie für unverstandene Probleme gefunden werden. Doch was genau sind genetische Algorithmen? John Holland – einer der Gründerväter der ‚Artificial Life‘-Forschung, die sich durch einen biologisch-inspirierten Ansatz auszeichnet – arbeitet mit Analogien und Metaphern aus der Evolutionstheorie, um Verfahren zu finden, mit denen er hofft, künstliche Systeme effizienter und besser zu machen. Indem Holland Mechanismen der Anpassung, Produktivität und Kreativität, wie er sie in der Mutation und dem ‚Crossover‘ in der heterosexuellen Fortpflanzung und Selektion vorzufinden meint, auf künstliche Systeme übertragen will, beabsichtigt er, optimale, weil lernende Computerprogramme hervorzubringen. Was wie ein gewagter Zaubertrick wirkt, beruht auf einem relativ einfachen Verfahren: Bei einer gegebenen Aufgabe – z.B. dem möglichst effektiven Sortieren einer Zahlenreihe durch einen Algorithmus – werden per Zufallsgenerator Varianten eines vorgegebenen Programms erzeugt und ein ‚Fitnessfaktor‘ bestimmt. Der ‚Fitnessfaktor‘ legt die Kriterien für den Erfolg der jeweiligen Varianten fest. Die Programme werden gestartet und ein zuvor festgelegter Prozentsatz der Computerprogramme, die der vorgegebenen Problemstellung gemäß ‚Fitnessfaktor‘ am nächsten gekommen sind, werden im nächsten Schritt reproduziert, während alle anderen Programme gelöscht werden.3 Diese ‚fitten‘ Programme werden nun miteinander gekreuzt: Dabei werden Teile des digitalen Codes zweier Programme untereinander ausgetauscht. Diese Codeteile werden zufällig gewählt, müssen sich aber bei beiden Programmen an demselben Ort befinden. Dann beginnt das ganze Prozedere von vorn. Man könnte hier von einem klug optimierten und systematisierten Trial-and-Error-Verfahren sprechen, denn das Verfahren wird so lange durchexerziert, bis man eine (möglichst) optimale Lösung für das vorgegebene Problem gefunden hat. Obwohl eine große Anzahl völlig unbrauchbarer Programme generiert wird, entstehen auf diesem Weg auch Lösungen, die einem klassischen, durch einen Programmierer top down entworfenen Computerprogramm durchaus gleichkommen können, wenn

3

Eine andere Variante ist, dass sich die Computerprogramme proportional zu ihrem ‚Fitnessfaktor‘ reproduzieren dürfen (vgl. Weber 2003; Langton 1996)

26 | J UTTA W EBER

man das Programm nur lange genug auf einem leistungsstarken Computer laufen lässt. Es existiert beispielsweise die Mär, dass der erste implementierte genetische Algorithmus zur Sortierung einer Zahlenreihe nach einer Nacht des Rechnens schon die zweitbeste Lösung für die Sortierung einer Reihe von sieben Zahlen gefunden haben soll, an der sich Programmierer seit Jahrzehnten versuchten (Levy 1996). Die Inspiration durch die Verfahren der ‚natürlichen‘ Auswahl ermöglicht offensichtlich ganz neue Programmierungsverfahren, die bottom up operieren, die eine Lösung eher umschreiben, als sie top down auf rational-kognitivem Wege lösen zu wollen. In gewisser Weise sagt man dem Computer also bereits, wonach man sucht, und er arbeitet das Problem entlang der vorgegebenen Parameter ab. Doch letztlich entsteht durch dieses neue Prozedere, zumindest beim uninformierten Zuschauer, der Eindruck, dass dieser neue (Bottom-up-)Ansatz sich die jeweilige Lösung des Problems selbst sucht, da ja nur das Ziel durch die Programmierung festgelegt wurde. Dabei wird nur sehr geschickt ein Suchfeld abgesteckt, innerhalb dessen mit möglichst effizient modellierten Algorithmen nach möglichen Handlungsoptionen gesucht wird. Wird die Frage gut formuliert und hat man leistungsstarke Rechner zur Verfügung, ist es gerade kein Wunderwerk, eine gute Lösung zu bekommen. Ungewöhnlich ist nur der Weg, auf dem man diese Ergebnisse erlangt. Ungewöhnlich an diesem Verfahren ist auch, dass es prinzipiell unabschließbar ist. Denn letztlich könnte man den Rechner immer noch weiter rechnen lassen, um irgendwann eine noch bessere Lösung zu bekommen. Denn ein Verfahren, das mit systematisiertem trial and error arbeitet, kann theoretisch immer noch ein besseres Ergebnis hervorbringen, wenn auch die Wahrscheinlichkeit im Laufe der Zeit abnimmt und man dann die Rechnerkapazität lieber für andere Dinge nutzt. Das Beispiel der verhaltensbasierten Robotik Ein anderes Feld, das Automatismen des Werdens, der Unvorhersehbarkeit und der kontrollierten Unkontrollierbarkeit nutzt, ist die neuere Robotik. ‚Artificial Life‘-Forschung, wie die biologisch inspirierte Robotik, kann man zumindest partiell als Reaktion auf die forschungsstrategische Sackgasse der Künstlichen Intelligenz (Kl) Mitte der 1980er-Jahre verstehen. Der klassische rational-kognitive Ansatz der Kl, der auf Repräsentation und Planung

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 27

baute, sich primär für Kognition im Sinne mentaler Prozesse und Symbolverarbeitung interessierte und völlig von Erfahrung und Körperlichkeit abstrahierte, konnte trotz jahrelanger, intensiver Forschung kaum Fortschritte vorweisen. So zeichnete sich in den 1980er-Jahren auch zunehmend das Scheitern der Expertensysteme ab, in die man seit den 1960er-Jahren sehr viel Arbeit und Hoffnung investiert hatte, die aber einfach nicht befriedigend funktionierten, weil sie zwar gut im Sammeln von Daten waren, aber keinerlei Alltagswissen integrieren konnten (Winkler 1997; Scheuermann 2000). Heute gibt es Expertensysteme nur für Spezialanwendungen. Vor diesem Hintergrund orientierten sich viele Kl-Forscher und Robotikerinnen neu und entdeckten die Biologie, Genetik und die neuere Kognitionswissenschaft als Inspirationsquelle und Ressource für sich. Es werden biologische Konzepte wie Emergenz4 oder Leben in die Forschung einbezogen und alte, etablierte Konzepte wie z.B. Repräsentation oder (quantitativ definierte) Information kritisch hinterfragt. Eine schöne Anekdote über diesen Paradigmenwechsel von der alten, symbolorientierten zur verhaltensbasierten Robotik ist die des Disputs der heute etablierten Robotiker Hans Moravec und Rodney Brooks in ihrer Studienzeit: Rodney Brooks war schon in den 1980er-Jahren ein Kritiker des klassischen Paradigmas der Repräsentation von Welt und des planbasierten Handelns von Robotern (Brooks 1986). Er hielt diesen Ansatz für ineffizient – nicht zuletzt, wenn er dem wackelnden/watschelnden Roboter seines Freundes Hans Moravec dabei zusah, wie er ihr gemeinsames Studentenzimmer zu durchqueren versuchte. Der Roboter brauchte für die Durchquerung – trotz einer für die damalige Zeit enormen Rechenkapazität – Stunden, da er nach jeder einzelnen Aktion wieder eine Repräsentation der Welt erstellen musste, um dann seine nächste Aktion vorauszuplanen. Trat etwas Unvorhergesehenes auf, etwa, dass ein weiterer Mensch das Zimmer betrat, war der Roboter hoffnungslos überfordert und musste von vorn beginnen. Angesichts dieser enormen Schwierigkeiten merkte Rodney Brooks an, dass eine Kakerlake die Aufgabe des Roboters in wenigen Sekunden lösen könne, obwohl sie bei Weitem weniger Rechenkapazität aufweise. Der Fehler im System war Brooks zufolge die Annahme, der Roboter müsse eine Repräsentation der Welt erstellen, um handeln zu können (Hayles 2003).

4

Der Begriff der Emergenz ist trotz seiner zentralen Funktion innerhalb der Kl, Artificial Life Forschung und neuerer Robotik äußerst umstritten (vgl. Langton 1996; Emmeche 1994; Christaller 2001: 72).

28 | J UTTA W EBER

Brooks entwickelte deshalb die bekannt gewordene und wesentlich robustere subsumption architecture (Brooks 1986), in der verschiedene Verhaltensschemata (behaviours) des Roboters als Module bottom up und teilweise unabhängig voneinander implementiert werden. Es gibt gewissermaßen simple Basisverhaltensmuster, auf die der Roboter im Falle der Überforderung immer wieder zurückgreifen kann. Das System ist nicht mehr in der klassischen hierarchischen Top-down-Form modelliert, in der alle Teile zusammenspielen müssen. Sensoren und Motorsignale werden kurzgeschlossen, um ein enges Interagieren von System und Umwelt zu ermöglichen und so das Prozessieren von Symbolen soweit wie möglich zu vermeiden: Fährt der Roboter z.B. gegen eine Wand, versucht er nicht, eine Repräsentation seiner Umwelt zu erstellen, sondern hat ein vorgegebenes Verhaltensmuster, das ihm befiehlt, sich in diesem Fall z.B. um 45 Grad zu drehen. Und zwar so lange, bis er wieder weiterfahren kann. Durch diese enge Kopplung wird dann auch sogenanntes emergentes, weil unvorhergesehenes, aber meiner Meinung nach sehr wohl (rational) erklärbares, Verhalten hervorgebracht. Die neue Schule der Robotik setzt allerdings darauf, dass diese Verfahrensweise eine Basis für die Evolution von unvorhergesehenem, nicht vorprogrammiertem Verhalten – und damit wirklich intelligente Systeme – ermöglicht. Als Surplus der neuen Ansätze und Forschungsstrategien wird oft angepriesen, dass sie die Integration von Spontaneität, Flexibilität und Veränderbarkeit in den Forschungsprozess sowie neue Eigenschaften von biologisch inspirierten Systemen ermöglichen. Unvorhersehbarkeit und Wandelbarkeit werden zu essenziellen Momenten einer neuen Technorationalität, die von der Vision getrieben wird, lernende, evolvierende, adaptionsfähige und womöglich ‚lebendige‘ Maschinen hervorzubringen, die über ihre Programmierung hinauswachsen und ihre eigene Sprache, Kategorien und weitere autonome Fähigkeiten erlernen: autonome Systeme im buchstäblichen Sinne. So entstand etwa auch die Idee einer „Developmental Robotics“ (Kaplan/Oudeyer 2004) – also von entwicklungsfähigen Robotern. Zusammen mit Luc Steels (1999), Rolf Pfeifer (1999), Kerstin Dautenhahn (1995) und anderen begründete Rodney Brooks eine neue, biologisch inspirierte Robotik, die auf System-Umwelt-Kopplung, emergentes Verhalten und eben Bottom-up-Verhalten setzt. Glaubt man der Geschichte, die Brooks in seinem Buch Menschmaschinen (Brooks 2002) erzählt, ließ er sich dabei von dem Kybernetiker, Gehirnforscher und Robotiker William Grey Walter inspirieren, der in den 1940er-

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 29

Jahren kleine, tierähnliche Roboter gebaut hatte, sogenannte „Turtles“, sprich „Schildkröten“, die auf der System-Umwelt-Kopplung basierten und die robust den Raum erkundeten, Lichtquellen suchen und ihre Batterien selbst aufladen konnten. Wesentliche Prinzipien der elektromechanischen Schildkröten waren Autonomie, Selbstregulierung (Feedback) und Spontaneität. Darüber hinaus funktionierten sie ohne zentrale Repräsentation. Konsequenterweise schloss Rodney Brooks (2002) vierzig Jahre später, dass die (reale) Welt selbst ihr bestes Modell sei. Unverstandene Probleme und Mensch-Maschinen-Modelle Diese Entwicklung, auf Automatismen für nicht ganz verstandene Probleme zu setzen, setzt sich auch in der sogenannten sozialen Robotik bzw. der Human-Robot-Interaction (HRI) der 1990er-Jahre fort. Nachdem man die Robotik nicht nur als ein Feld für die Industrie, sondern auch für die Dienstleistungsgesellschaft entdeckt hat (Weber 2008), will man ‚soziale‘ und ‚emotionale‘ Roboter für den alltäglichen Nutzer entwickeln. Sie sollen als Assistent, Unterhalter, Sekretärin, Spielzeug, therapeutische Hilfe oder Liebesobjekt fungieren. Diese Artefakte sollen – anders als ihre eher mechanischen Vorgänger – die Fähigkeit zu sozialem Verhalten, zur Kooperation und Emotionalität besitzen. Man will nun selbstlernende, autonome Roboter entwickeln, die nicht mehr primär als Werkzeug gelten, sondern zum Partner werden – auf der technischen wie auf der emotionalen Ebene. Hintergrund für diese Entwicklung ist eine grundlegende Verschiebung in Informatik, KI und Robotik weg vom rational-kognitiven Ansatz (MasterSlave) hin zum interaktiven, immersiv-emotionalen Ansatz (Wegener 2002). Diesem liegt die Annahme zugrunde, dass die heutigen Maschinen zu komplex sind für die Benutzung durch den normalen Verbraucher, insofern müssten die Mensch-Maschinen-Schnittstellen vereinfacht werden. Man argumentiert, dass kein Expertenwissen für die Steuerung der Maschine gefragt sei, deshalb wolle man auf Tastatur und Icons verzichten. Das neue Paradigma zielt auf eine sogenannte ‚natürliche‘ Interaktion via Sprache, Gesten, Körpersprache etc. zwischen Mensch und Maschine, die angeblich ganz nach dem zwischenmenschlichen Vorbild modelliert sei. Im Zentrum steht nun, dass die Nutzerin eine persönliche Beziehung zu ‚ihrem‘ Roboter aufbauen soll. So hofft man, die (umfassende) Nutzung von Robotern im Alltag zu ermöglichen (Wegener 2002). Während der sogenannte schwache Ansatz der

30 | J UTTA W EBER

sozialen Robotik darauf zielt, dieses Verhalten nur zu simulieren, wollen Vertreter des ‚starken‘ Ansatzes tatsächlich sich anpassende, selbstlernende und autonome Maschinen entwickeln, die sich auch ihre Ziele selbst stecken. Im besten Falle ginge es darum, dass diese Maschinen nicht nur eigene Kategorien bilden können, sondern sogar lernen zu lernen – sprich, dass sie dazu in der Lage sind, ihre eigene Architektur zu verbessern oder gar zu bauen. Auf dem Weg zu solchen Maschinen baut man auf Erkenntnisse aus der Entwicklungspsychologie. Man versucht, Imitation, Gefühle und Lernstrategien einzubauen. Methodisch verwendet man hierfür das altbekannte Tinkering, denn für den neuen Ansatz ist nicht nur die System-Umwelt-Kopplung zentral, in der die Ingenieurin den Roboter mehr oder weniger spielerisch ausprobiert und aus den Fehlern Rückschlüsse zieht. Wesentlich ist auch, dass nicht nur die Ingenieurin, sondern auch die Nutzerin zum „caregiver“ der Maschine wird, die sie eben nicht programmiert, sondern über soziale Interaktion erziehen soll (Wegener 2002). Sieht man sich das Ganze auf der epistemologischen Ebene genauer an, wird schnell deutlich, dass nicht nur die schon erwähnte subsumption architecture autonomer Systeme eine wichtige Rolle spielt, sondern ein systematisiertes Verfahren von trial and error. Die Ingenieurinnen versuchen, ähnlich wie bei den genetischen Algorithmen, durch das Ausnützen von Zufallsprozessen und mithilfe von Suchheuristiken (‚Fitnessfaktor‘), unvorhersehbares Verhalten zu implementieren, das ex post analysiert werden kann. Letztlich ist dann die erfolgreiche Anwendung dieser Trial-and-Error-Prozesse genau das, was manchmal etwas nebulös als emergentes Verhalten der Maschine bezeichnet wird. Durch die zufällige Kombination unterschiedlicher Verhaltensweisen entsteht etwas Neues, das man für die weitere Modellierung des Roboters gebrauchen kann. Weitere neue Phänomene, auf die man setzt, sind Verkörperung und Situiertheit. Im Gegensatz zur alten KI geht man nun davon aus, dass Verkörperung für die Ausbildung von Intelligenz (Pfeifer/Scheier 1999) genauso wie die Verortung in jeweils spezifischen Kontexten – die Situiertheit des Artefakts – unabdingbar sind. Insofern Verkörperung und Situiertheit immer auch Historizität bedeuten, sprechen manche Robotiker auch schon von der Phylo- und Ontogenese des Roboters, seinem Gedächtnis und seiner Biografie. Das Interessante an dieser Entwicklung ist aber, dass mit dem Fokus auf Verkörperung und Situiertheit auch der klassische wissenschaftliche Anspruch auf Universalität und Allgemeingül-

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 31

tigkeit aufgegeben wird. So schreibt Thomas Christaller, einer der bedeutendsten deutschen Robotiker: „Einher gehen diese Überlegungen mit dem bewussten Verzicht darauf, die Welt objektiv, vollständig und widerspruchsfrei zu modellieren“ (Christaller 2001: 72). Gleichzeitig wird auch die klassische Trennung von Subjekt und Objekt, von Forscher und Forschungsobjekt aufgegeben. Wenn die soziale Robotik die Forderung aufstellt, dass man als Ingenieur wie Nutzer ein erzieherisches Verhältnis zur Maschine haben, ihn unterstützen und erziehen solle, gibt sie das klassische Ideal der Distanz des Wissenschaftlers zu seinem Objekt auf. In gewisser Weise wird nun das Technofakt ganz offiziell zum Liebesobjekt. Somit hat sich eine radikale Wendung weg von der rational-kognitiv orientierten klassischen Künstlichen Intelligenz (Becker 1992) ergeben, hin zu einer biologisch und sozial orientierten Robotik, die weniger auf Mathematik und Physik als auf Biologie und Kybernetik, die Theorie dynamischer Systeme und der Chaostheorie oder der Entwicklungspsychologie als Ressourcen der Inspiration und der Problemlösung baut.5

T ECHNOIMAGINATIONEN MASCHINELLER AUTORSCHAFT Diese Rekonfiguration des Mensch-Maschine-Verhältnisses und die damit eng verknüpfte neue Technorationalität spielen gleichzeitig virtuos auf dem Register des Technoimaginären. Neue rhetorische Strategien, (Selbst-) Repräsentationen und Erzählstrategien zirkulieren von der interaktiv-immer-

5

Zu den Parallelen zwischen Kybernetik und der neueren Robotik sagt Andrew Pickering: „My suggestion is that cybernetics grabs onto the world differently from the classical sciences. While the latter seek to pin the world down in timeless representations, cybernetics directly thematises the unpredictable liveliness of the world and processes of open-ended becoming. While classical science has thus been an epistemological project aimed explicitly at knowledge production, cybernetics is an ontological project, aimed variously at displaying, grasping, controlling, exploiting and exploring the liveliness of the world. [...] [I]t is as if the cyberneticians have lived in a different world from the classical scientists“ [Herv. J. W.] (Pickering 2002: 430).

32 | J UTTA W EBER

siven Wende. Geschickt wird das ‚Entstehen‘ wahrhaft emotionaler und autonomer Roboter in Szene gesetzt: Denn folgt man den Gründungsmythen eines John Holland oder der „Developmental Robotics“, sind es nun nicht mehr die Technowissenschaftlerinnen (Informatiker, Programmiererinnen), die als omnipotente, fabelhafte Erfinder neuer Maschinen bzw. als phantasievolle Schöpferinnen vielfältiger Software im Mittelpunkt stehen, sondern die Potenz wird – glaubt man diesen „Heilsgeschichten“ (Haraway 1997) – von den Entwicklern in die Maschinen bzw. die Software hinein verlegt, die nun vermeintlich selbsttätig die Lösung für die unverstandenen Probleme entwickeln. Diese technoimaginäre Verschiebung bringt die Technikforscherin Lucy Suchman sehr schön auf den Punkt: „[C]ontemporary discourses of machine agency simply shift the site of agency from people to their machine progeny. This does not mean that human power is lost. Rather, as in claims for the independent voice of nature in the practice of positivist science, the assertion of autonomy of technology depends upon the obscuring of human authorship [. . .]. [l]t is precisely in the obscuring of authorship, that the power of the technologist is renewed.“ (Suchman 2003)

Dieser Analyse würde ich allerdings hinzufügen, dass sich nicht nur die Autorschaft, sondern auch die Weise der Autorschaft grundlegend geändert hat, insofern sich diese in die Maschine bzw. Software verlagert. Die Autorschaft in den Maschinenpark bzw. in eine autonome Softwareentwicklung zu verlegen, forciert im Übrigen auch eine Renaturalisierung der Technoscience: Letztere gewinnt eine Entlastungsfunktion wie vormals die Natur. Statt dieser ist es nun die Maschine, deren Eigenlogik neue Entwicklungen und Problemlösungsstrategien möglich macht. Auf der einen Seite wird also das Technische selbst unsichtbar gemacht, indem Maschinen als sozial inszeniert werden; auf der anderen Seite wird die Arbeit der Entwicklerinnen unsichtbar gemacht – und damit der Fakt der Modellierung der Mensch-Maschine-Beziehung, der Ausgestaltung der evolutionären Algorithmen etc.6 Interessanterweise unterstützt diese Variante des Technoimagi-

6

Vor diesem Hintergrund bekommt auch die Idee der agency bzw. Eigenaktivität der Maschine, wie sie von der Akteur-Netzwerk-Theorie reklamiert wird, sowohl

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 33

nären gleichzeitig die alte Geschichte von der Potenz der Erfinder, Konstrukteurinnen und Entwickler, die mit wachsenden, selbstlernenden Artefakten nicht nur wirklich intelligente, sondern gewissermaßen auch lebendige Maschinen hervorgebracht haben. Der Glanz der zwar nicht selbstbewegten, aber doch selbstlernenden und -evolvierenden Maschinen, die sich vorn Roboterkind zum intelligenten selbstständigen Gefährten mausern, fällt auf ihre Produzentinnen zurück. Wie geschickt diese Strategie ist, wird einem vor allem deutlich, wenn man sich den Stand der Entwicklung in der Robotik ansieht: Nach wie vor sind differenzierte Objekterkennung oder verlässliche Spracherkennung zumindest in real world, also nicht in einem abgeschirmten, leisen Labor, ungelöste Probleme. Auch verlässliche Navigation erreicht man nur durch instrumentierte Räume, was einen extrem hohen technischen Aufwand bedeuten würde, oder man muss den Robotern Pläne mit signifikanten Objekten zur Verfügung stellen, die dann wiedererkannt werden. Allerdings ist die Objekterkennung weder zuverlässig noch dürfen die zu erkennenden Dinge (partiell) verdeckt werden. Ohne diese Hilfsmittel bewegen sich die meisten Roboter im Nahbereich auf der Basis von trial and error. Ungelöst ist auch das Scaling-up-Problem in der verhaltensbasierten Robotik. Implementiert man nämlich zu viele behaviours nebeneinander in eine subsumption architecture, kann das leicht zum Zusammenbruch des Systems führen statt zum erwünschten emergenten Verhalten: Es ist bis heute nicht möglich, Verhaltenssysteme zu konstruieren, die mehr als maximal hundert derartige Verhaltensweisen enthalten. So fragt Thomas Christaller, wie man von den „heute üblichen 20-40 Verhaltensweisen zu tausend, Millionen und noch mehr Verhaltensweisen [kommt, J. W.]. Dies ist das Scaling-up-Problem, zu dem es von niemandem bislang ein überzeugendes Konzept gibt. Und es ist mehr als blauäugig anzunehmen, dass man von einer Bewegungssteuerung für eine sechsbeinige Laufmaschine [...] oder von Teelichtern einsammelnden Robotergruppen schnurstracks die Komplexität der Gehirne von Primaten erreichen kann.“ (Christaller 2001: 73-74)

Vor diesem Hintergrund ist es natürlich günstig, der Nutzerin zu suggerieren, dass sie für die gelungene Entwicklung ihres Roboters zuständig sei, indem

eine interessante Wendung als auch eine recht konkrete Ausformulierung – konkreter als es ihr vielleicht lieb ist.

34 | J UTTA W EBER

sie ihn möglichst zeitintensiv und gründlich erzieht. Erreicht der Roboter die Lernziele nicht, kann man immer noch die Zieheltern haftbar machen. Gleichzeitig wird es im Rahmen der starken technoimaginären Besetzung dieser neuen Technorationalität des Unvorhersehbaren, der Überraschungen und der unerschöpflichen Lernmöglichkeiten der Maschine möglich, theoretische Rahmungen und ontologische Setzungen zwischen Technowissenschaften und Alltagsleben zu transferieren – und mit ihnen aufgeladene Metaphern und Konzepte wie etwa ‚Sozialität‘ oder ‚Autonomie‘. Modelle von Mensch-Maschine-Interaktion werden durch die Camouflage des Technischen tendenziell unhinterfragbar – was im Übrigen den weiteren Ausbau einer Expertenkultur ermöglicht, die einer „I-Methodology“ (Akrich 1995) frönt, also einer Kultur, in der der Ingenieur im Rahmen des Gestaltungsprozesses primär von seinen eigenen Werten, Interessen und Normen ausgeht und weiterhin Forderungen nach participatory design (Bjerknes/Bratteteig 1995) unter Einschluss der Nutzer ignorieren kann. Denn es sind ja die Maschinen, die evolvieren – ganz ohne Know-how und vorgegebene, klug formulierte Algorithmen des Softwareingenieurs. So jedenfalls wird der neue technorationale Ansatz mit seiner Ausnutzung von trial and error dem User gegenüber häufig inszeniert. Doch die spannende Frage ist: Was bedeutet es, auf systematisiertes Tinkering, Emergenz, Lernprozesse und Post-Processing als Lösungsstrategien für unverstandene Probleme und ungelöste technische Schwierigkeiten zu setzen? Denn natürlich lässt sich das Problem nicht auf die technoimaginäre Ebene reduzieren. Es ist allerdings schwierig, die menschliche Autorschaft eines evolutionären Algorithmus sichtbar zu machen. Darüber hinaus ist es nicht einfach, zu verstehen, wie sehr es der Virtuosität und Fingerfertigkeit der Softwareingenieurin bei der Implementierung bedarf, um die ‚unverstandenen‘ Probleme zu bearbeiten – womöglich sogar für sie selbst. Es bedarf aber auch eines grundlegenden Verständnisses des zu bearbeitenden Problems, um einen ‚problem space‘ und einen ‚Fitnessfaktor‘ festzulegen, auch wenn dieses nicht in der gewohnten rational-kognitiven Top-down-Manier formuliert wird. Letztendlich könnte man einen evolutionären Algorithmus als Metaheuristik verstehen, eine Problemlösung zweiter Ordnung, die das Programmieren auf eine Meta-(Meta-)Ebene hebt: Ohne das Problem genau bestimmen zu können, versucht man sich der Frage mithilfe von Redundanz und leistungsstarken Maschinen anzunähern. In dieser Logik gibt es dann

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 35

auch nicht mehr die Lösung, sondern nur Annäherungen an eine optimale Lösung, die aber nicht schlechter sein müssen als konventionell gewonnene. Es ist die rhetorisch geschicktere, weil suggestive Geschichte, das neue Verfahren nicht als kontrollierte Simulation der Unkontrollierbarkeit zu kennzeichnen, sondern die alte Metapher der unsichtbaren Hand zu bemühen und sie unter die iterativen Prozesse von trial and error zu legen. Bei Adam Smith muss die unsichtbare Hand die kleinen, selbstsüchtigen und chaotischen Handlungen der Menschen in der freien Marktwirtschaft zu einem sinnvollen Ganzen zusammenfügen, um im wild wuchernden Kapitalismus den Sinn und die Produktivität des Systems zu sichern. Nun werden die Emergenz, die Unvorhersehbarkeit und das Tinkering die entscheidenden Modelle, die die vielen, kleinen, dynamischen und unberechenbaren Geschehnisse in ein sinnvolles, kohärentes Muster nach dem Vorbild der Natur zusammenfügen sollen. Eine gewisse Teleologie scheint in diesen Verfahren zu walten, da sich ein ‚gerichtetes‘ Verhalten sonst nicht erklären ließe, wenn die Natur so chaotisch wäre, dass sie nicht mehr berechenbar bzw. probabilistisch einschätzbar wäre. Der Hintergrund für eine solche Idee ist die Vorstellung von Natur als innovative, kreative Bastlerin, die alles durch ihre selbst-organisierenden Muster formt, integriert und komponiert. Und der Mensch rekonstruiert und reproduziert angeblich diese Prozesse nur in künstlichen Medien und setzt die Arbeit der Natur nur mit anderen Mitteln fort.

E PISTEMOLOGIE & B IOPOLITIK Damit diese Idee sich selbst organisierender Systeme aber greifen kann, bedarf es einer Ontologie, die sich nicht mehr für mögliche intrinsische Eigenschaften von Organismen und Systemen interessiert, sondern sich auf das Verhalten, die Organisation und systemische Formierung von biologischen und artifiziellen Systemen konzentriert. Gleichzeitig operiert diese neue Logik auf der Basis einer konstruktivistischen Epistemologie, in der klassische Unterscheidungen von Beobachter und Beobachtetem, Körper und Geist zunehmend an Bedeutung verlieren. Es geht weniger um die Erschaffung zweiter (oder dritter) Naturen als um die ‚Optimierung‘ der Natur, ihre Konvertierung und Perfektionierung mit technowissenschaftlichen Mitteln. In dieser neuen Technorationalität ist die Natur zum Werkzeugkasten geworden und

36 | J UTTA W EBER

die Welt zu einem Ort vielfältiger Kombinatorik und des Re-Designs, in der die Evolution durch Tinkering neue Wege der Entwicklung und Investition auslotet – mit Organismen als evolvierenden, parallel verteilten Netzwerken (Weber 2003; Nordmann 2004). Das Erkenntnisinteresse konzentriert sich immer mehr auf das Engineering der Natur – und nicht auf ihre Repräsentation. Man will nicht die Bewegungsgesetze der toten Materie und einer statischen Natur nachvollziehen, sondern sich des Lebendigen über die Dimensionen des Werdens, des Unvorhersehbaren und potenziell unendliche Möglichkeiten bemächtigen. Lebendiges wird nun nicht mehr als tote Materie abgebildet, sondern als flexibel verstanden und möglichst umfassend optimiert. Die neue Flexibilität des Lebendigen und die damit verbundenen Möglichkeiten umfassender Optimierung sind die Grundlage einer neuen risikopolitisch ausgerichteten Biopolitik. Der Denkfigur der Unbestimmtheit und der vielfältigen Optionen des Werdens ist die Figur der Selbstmodellierung und des Enhancements immanent. Hier entsteht eine posthumanistische Biopolitik, die auf eine vielfältige, unvorhersehbare schöpferische Lebenskraft setzt, die mit dem Surplus, dem Überschuss arbeitet und in der die Politik des Werdens zum Motor des unternehmerischen Selbst wird: „Sobald wir unsere posthumanen Körper und Geister erkennen, [...] müssen wir die vis viva erkunden, die schöpferischen Kräfte, die uns ebenso beseelen wie die gesamte Natur und die unsere Möglichkeiten verwirklichen“, schreiben etwa Michael Hardt und Antonio Negri (2002) in ihrem Buch Empire: Die neue Weltordnung. Mit der Idee einer Natur als technowissenschaftlicher Ingeneurin korrespondiert die von den schöpferischen Kräften posthumaner, modellier- und verbesserbarer Subjekte – und beide nutzen die unvorhersehbaren emergenten Effekte. Der Mensch hilft hier noch ein wenig nach, indem er das in die Natur projizierte Basteln, Rekombinieren und das Verfahren des trial and error systematisiert und automatisiert. Die Rückseite dieser hoffnungsfrohen Biopolitik des Enhancements, der Optimierung und der schöpferischen Kräfte ist eine Biopolitik des Risikound Gesundheitsmanagements, des sozialen Engineering und einer engen Kopplung von Technowissenschaften und Technoökonomie. Der Soziologe Nikolas Rose hat diese Mechanismen als „marketization, autonomization, and responsibilization“ (Rose 2007: 4) beschrieben. Diese Mechanismen würden mit allgemeinen Verschiebungen in der Rationalität und Technik des Regierens einhergehen: „[N]otably the transformations in the provision of security, welfare, and health associated with challenges to the social state in

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 37

Europe and Australasia, and the rise of new ‘advanced liberal’ governmental technologies“ (Rose 2007: 3). Auch Rose spricht die neue Ontologie der Körper im Sinne der Baukastenlogik („molecularization“) und daraus entstehende biopolitische Mechanismen an, wie z.B. die Tendenz zur Optimierung („optimization“) und „subjectivation“ der einzelnen postmodernen Subjekte, deren „somatic expertise“ verpflichtend wird, die anhaltend zur Verbesserung ihrer Körper aufgerufen und letztlich einer „economy of vitality“ (Rose 2007: 5) unterworfen sind. Rose sieht hier grundlegende, wenn nicht gar epochemachende Verschiebungen am Werk im Vergleich zu einer traditionellen Biopolitik, die auf die Optimierung eines Volkskörpers und die Disziplinierung der Individuen, aber nicht auf Selbstverbesserung abzielte: „I am wary of epochal claims, and it is necessary to recognize that none of these mutations marks a fundamental break with the past: each exhibits continuity alongside change. Yet, I suggest, from the point of view of the present, a threshold has been crossed. Something is emerging in the configuration formed by the intertwining of these [...] lines of mutation, and this ‘something’ is of importance for those, like myself who try to write the history of possible future.“ [Herv. J. W.] (Rose 2007: 7)

K ONTROLLGESELLSCHAFT Eine verwandte Diagnose neuer Rationalitäten und Regierungsweisen liefert der französische Philosoph Gilles Deleuze. In seinem „Postskriptum zur Kontrollgesellschaft“ schreibt er: „Die Kontrollgesellschaften sind dabei, die Disziplinargesellschaften abzulösen. ‚Kontrolle‘ ist der Name [...], um das neue Monster zu bezeichnen, in dem Foucault unsere nahe Zukunft erkennt. Auch Paul Virilio analysiert permanent die ultra-schnellen Kontrollformen mit freiheitlichem Aussehen, die die alten – noch innerhalb der Dauer eines geschlossenen Systems operierenden – Disziplinierungen ersetzen. Es ist nicht nötig, die außergewöhnlichen Pharmaerzeugnisse anzuführen, die Nuklearformationen, Genmanipulationen, auch wenn sie dazu bestimmt sind, in den neuen Prozeß einzugreifen. Es ist nicht nötig zu fragen, welches das härtere Regime ist oder das erträglichere, denn in jedem von ihnen stehen Befreiungen und Unterwerfungen einander gegenüber.“ (Deleuze 1993: 255)

38 | J UTTA W EBER

Die neue Kontrolle ist Deleuze zufolge eine der offenen Systeme und arbeitet mit ultraschnellen Formen von flexiblen Kontrollmechanismen, die zwar moduliert werden, aber letztlich in ganz unterschiedlichen gesellschaftlichen Bereichen wirken – wie etwa in der Schule, dem Militär oder der Fabrik, die nun nicht mehr abgeschlossene und voneinander getrennte Bereiche bilden, sondern eine „variable Geometrie“ formen. Er bezieht sich auf Felix Guattaris Beschreibung neuer elektronischer Kontrollmechanismen, die u. a. auf der Grundlage eines Computers, der die Positionen der Individuen bestimmt und nachverfolgt, sowie auf der Grundlage einer elektronischen Karte den Zugang zum eigenen Apartment, zur Straße, zu bestimmten Bereichen der Stadt gewähren oder auch verweigern kann. Und während wir auf der einen Seite dem Regime der Vitalität und der somatischen Erfahrung unterworfen sind, ist auf der anderen Seite ein Regime der Überwachung, des Datenmonitorings, des Risikomanagements und der Verbrechensverhütung ubiquitär geworden, auf der Grundlage einer „New Penology“ (Freely/Simon 1992), die sich nicht für die soziale Integration des Delinquenten interessiert, sondern nur für (mehr oder weniger) gesamtgesellschaftlich relevante Risikoprofile. Dieser neuen Logik der Strafverfolgung und des Strafvollzugs geht es nicht darum, emergentes Verhalten systematisch zu befördern, sondern Risiken und Kosten zu minimieren. Dennoch arbeitet diese neue securitization auf der Basis von Wahrscheinlichkeiten (z.B. bei Abgleich von DNA-Profilen und anderen biometrischen Verfahren), und die Prävention erscheint als Rückseite der Emergenz, die alles Vorstellbare, aber auch Unvorstellbare verhüten will und neue Techniken zur Imagination des Terrors fordert, um diesen vermeiden zu können (de Goede 2008). Der Politikwissenschaftler Michael Dillon hat darauf hingewiesen, dass das neue Verständnis von Leben als emergent, dynamisch und unvorhersehbar die enge Verbindung zwischen Risiko und Biopolitik verstärkt (Dillon 2008). Denn Risiko sei ein Modus, um zu messen, wie stark man Kontingenz ausgesetzt ist. Er schreibt: „[C]ontingency thereby becomes the epistemic object for biopolitics security in the 21st century inasmuch as it characterizes the understanding of human life as an emergent and creative entity to whose promotion and development biopolitics are now committed.“ (Dillon 2008: 314)

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 39

Zu regieren heißt dann, Kontingenz auf der Grundlage risikobasierter Analyse strategisch zu nutzen, mit Risiken zu handeln und das Risikobewusstsein der Bevölkerung zu erhöhen. Damit wird im Zuge des Risikomanagements Kontingenz, das Ausgesetztsein der Einzelnen, zur Ware. In Rückbindung an die Biopolitik lässt sich sehr schön sehen, wie die neuen Mechanismen des Werdens, der Unvorhersehbarkeit, der kontrollierten Simulation der Unkontrollierbarkeit für eine neue Logik des Regierens fruchtbar gemacht werden. Diese Logik des Emergenten, Unvorhersehbaren, des Interesses für das Lebendige korrespondiert mit einer Epistemologie der Wahrscheinlichkeit, des Tinkerings und des trial and error: Diese Logik ist gekennzeichnet von einer Ontologie der Denaturalisierung und De-Essenzialisierung, in der immanente Eigenschaften von Organismen obsolet werden und Molekularisierung und Subjektivierung den Weg zur individualisierten Optimierung öffnen, indem die Einzelne die Verantwortung für ihre Ökonomie der Vitalität übernehmen muss. Das Interesse für das Lebendige und Dynamische, das Aufgeben objektiver Beschreibungen von Welt und die DeEssenzialisierung bilden zugleich auch die Grundlage für eine präventive Risikopolitik auf der Grundlage von Wahrscheinlichkeiten, in der Bürgerrechte zunehmend irrelevant (gemacht) werden. In einer Welt, in der sich die normativen Setzungen weg von der Wahrheit hin zur Machbarkeit verschieben und sich Ontologien verflüssigen, entwickeln sich Bürgerrechte zu Atavismen. Was auf der epistemologischen und ontologischen Ebene bzw. der Ebene der Artefakte als neue Verfahren der Meta-(Meta-)Programmierung und neuer Suchheuristik so verführerisch erscheint und von vielen als Überschreiten der alten Newtonschen Logik und der verkrusteten Mechanismen eines rationalkognitiven Kalküls gefeiert wird (Pickering 2002), ist eng verknüpft mit einer neuen Biopolitik der Kontingenz, die in der Logik von trial and error, der Wahrscheinlichkeiten und des Ausprobierens operiert, in der der Einzelne zum präventiv zu kontrollierenden Risikofaktor wird, der sich zugleich als „unternehmerisches Selbst“ (Bröckling 2004) zur Optimierung seiner selbst aufzurufen hat bzw. schon lange aufruft. Einem solchen Paradigma entspricht die Idee der selbstlernenden, sich selbst optimierenden und zugleich zu erziehenden Maschine, die vom Mensch nicht verstandene Probleme ‚löst‘.

40 | J UTTA W EBER

L ITERATUR Akrich, Madeleine (1995): User Representations: Practices, Methods and Sociology. S. 167-184 in: Arie Rip/Thomas J. Misa/Johan Schot (Hrsg.): Managing Technology in Society: The Approach of Constructive Technology Assessment. London,/New York: Pinter. Becker, Barbara (1992): Künstliche Intelligenz: Konzepte, Systeme, Verheißungen. Frankfurt am Main: Campus. Bjerknes, Gro/Bratteteig, Tone (1995): User Participation and Democracy: A Discussion of Scandinavian Research on System Development. Scandinavian Journal of Information Systems 1 (1): 73-98. Breazeal, Cynthia (2002): Designing Sociable Robots. Cambridge: MIT Press. Bröckling, Ulrich (2004): Unternehmer. S. 271-276 in: Ulrich Bröckling/Susanne Krasmann/Thomas Lemke (Hrsg.): Glossar der Gegenwart. Frankfurt am Main: Suhrkamp. Brooks, Rodney (1986): A Robust Layered Control System for a Mobile Robot. IEEE Journal of Robotics and Automation 2 (1): 14-23. Brooks, Rodney (2002): Menschmaschinen: Wie uns die Zukunftstechnologien erschaffen. Frankfurt am Main/New York: Campus. Bublitz, Hannelore (2003): Diskurs. Bielefeld: transcript. Christaller, Thomas (2001): Robotik: Perspektiven für menschliches Handeln in der zukünftigen Gesellschaft. Berlin: Springer. Dautenhahn, Kerstin (1995): Getting to Know Each Other: Artificial Social Intelligence for Autonomous Robots. Robotics and Autonomous Systems 16: 333-356. Deleuze, Gilles (1993): Postskriptum über die Kontrollgesellschaften. S. 254-260 in: Gilles Deleuze (Hrsg.): Unterhandlungen: 1972-1990, Frankfurt am Main: Suhrkamp. Dillon, Michael (2008): Underwriting Security. Security Dialogue 39 (2-3): 309-332. Dillon, MichaeI/Lobo-Guerrero, Luis (2008): Biopolitics of Security in the 21st Century: An Introduction. Review of International Studies 34: 265292. Emmeche, Claus (1994): Das lebende Spiel. Wie die Natur Formen erzeugt. Reinbek: Rowohlt.

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 41

Feeley, Malcolm M./Simon, Jonathan (1992): The New Penology: Notes on the Emerging Strategy of Corrections and its Implications. Criminology 30: 449-474. Franklin, Sarah (2000): Life Itself: Global Nature and the Genetic Imaginary. S. 188-227 in: Sarah Franklin/Celia Lury/Jackie Stacey (Hrsg.): Global Nature, Global Culture. London: Sage. Goede, Marieke de (2008): Beyond Risk: Premediation and the Post-9/11 Security Imagination. Security Dialogue 39 (2-3): 155-167. Haraway, Donna J. (1997): Modest_Witness@Second_Millenium. FemaleMan@_Meets_OncoMouseTM: Feminism and Technoscience. New York: Routledge. Hardt, Michael/Negri, Antonio (2002): Empire: Die neue Weltordnung. Frankfurt am Main: Campus. Hayles, N. Katherine (1999): How We Became Posthuman. Virtual Bodies in Cybernetics, Literature, and Informatics. Chicago: University of Chicago Press. Hayles, N. Katherine (2003): Computing the Human. S. 99-118 in: Jutta Weber/Corinna Bath (Hrsg.): Turbulente Körper, soziale Maschinen. Feministische Studien zur Technowissenschaftskultur. Opladen: Leske + Budrich. Holland, John H. (1992): Genetic Algorithms: Computer Programs That ‘Evolve’ in Ways That Resemble Natural Selection Can Solve Complex Problems Even Their Creators Do Not Fully Understand. Scientific American 267 (1): 66-72. Kaplan, Frederic/Oudeyer, Pierre-Yves (2004): Maximizing Learning Progress: an Internal Reward System for Development. S. 259-270 in: Fumiya Iida/Rolf Pfeifer/Luc Steels/Yasuo Kuniyoshi (Hrsg.): Embodied Artificial Intelligence. Berlin: Springer. Lafontaine, Celine (2007): The Cybernetic Matrix of French Theory. Theory, Culture and Society 24 (5): 27-46. Langton, Christoper G. (1996): Artificial Life. S. 39-94 in: Margaret A. Boden (Hrsg.): The Philosophy of Artificial Life. Oxford: Oxford Univesity Press. Law, John/Urry, John (2003): Enacting the Social. Online verfügbar unter: http://www.comp.lancs.ac.uk/sociology/papers/Law-Urry-Enacting-theSocial.pdf [01.07.2008].

42 | J UTTA W EBER

Levy, Steven (1996): Künstliches Leben aus dem Computer. München: Droemer Knaur. Nordmann, Alfred (2004): Was ist Techno Wissenschaft: Zum Wandel der Wissenschaftskultur am Beispiel von Nanoforschung und Bionik. S. 209218 in: Torsten Rossmann/Cameron Tropea (Hrsg.): Bionik: Neue Forschungsergebnisse aus Natur-, Ingenieur-und Geisteswissenschaften. Berlin: Springer. Pfeifer, Rolf/Scheier, Christian (1999): Understanding Intelligence. Cambridge: MIT Press. Pickering, Andrew (2002): Cybernetics and the Mangle: Ashby, Beer and Pask. Social Studies of Science 32 (3): 413-437. Rose, Nikolas (2001): The Politics of Life Itself. Theory, Culture and Society 18: 1-30. Rose, Nikolas (2007): Politics of Life Itself: Biomedicine, Power and Subjectivity in the Twenty-First Century. Princeton: Princeton University Press. Scheuermann, Klaus (2000): Menschliche und technische „Agency“: Soziologische Einschätzungen der Möglichkeiten und Grenzen künstlicher Intelligenz im Bereich der Multiagentensysteme. Online verfügbar unter: http://www.ssoar.info/ssoar/files/2008/262/tuts_wp_2_2000.pdf [01.09.2003] Steels, Lue (1999): The Talking Heads Experiment: Vol I: Words and Meanings. Antwerpen: Laboratorium. Suchman, Lucy (2003): Human/Machine Reconsidered. Online verfügbar unter: http://www.comp.lancs.ac.uk/sociology/papers/Suchman-Human -Machine-Reconsidered.pdf [01.02.2004] Weber, Jutta (2003): Umkämpfte Bedeutungen: Naturkonzepte im Zeitalter der Technoscience. Frankfurt am Main: Campus. Weber, Jutta (2008): Human-Robot Interaction. S. 855-863 in: Sigrid Kelsey/Kirk St. Amant (Hrsg.): Handbook of Research on Computer-Mediated Communication. Hershey: Information Science Reference. Weber, Jutta (2010): Making Worlds: Epistemological, Ontological and Political Dimensions of Technoscience. Poiesis and Praxis: International Journal of Ethics of Science and Technology Assessment 7 (1): 17-36. Weber, Jutta (2011): Black-Boxing Organisms, Exploiting the Unpredictable: Control Paradigms in Human-Machine Translations. S. 409-429 in:

DIE KONTROLLIERTE SIMULATION DER UNKONTROLLIERBARKEIT | 43

Martin Carrier/Alfred Nordmann (Hrsg.): Science in the Context of Application. Dordrecht: Springer. Wegener, Peter (1997): Why Interaction is More Powerful Than Algorithms. Communications of the ACM 40 (5): 80-91. Winkler, Hartmut (1997): Docuverse: Zur Medientheorie der Computer. München: Boer.

Natur in der Krise Die Technisierung der Lebenswelt und die Antiquiertheit biokonservativer Technikkritik S ASCHA D ICKEL

Wie wird Technik widernatürlich? Anders gefragt: Wie kommt es, dass Technik und Natur gegeneinander ausgespielt werden angesichts der Tatsache, dass Technik und Moderne unauflöslich miteinander verzahnt sind? Man könnte geradezu meinen, dass in der Moderne nichts natürlicher sein könnte als Technik. Dass im Zuge der Modernisierung eine zunehmende Technisierung der Gesellschaft und ihrer Umwelt beobachtet werden kann, ist schließlich ein soziologischer Gemeinplatz. Die Gesellschaft ist mit Technik so vertraut, dass diese oft vollkommen geräuschlos in soziale Prozesse eingelassen werden kann, ohne Irritationen auszulösen. Der Gebrauch von Technik ist so alltäglich geworden, dass sie nur in Ausnahmefällen problematisiert wird. Sofern Technik funktioniert und die impliziten Erwartungen, die man an sie richtet, erfüllt, ist Technik als Thema gesellschaftlicher Kommunikation kaum interessant. Anders sieht die Lage aus, wenn Technik versagt, unvorhergesehene Resultate hervorruft oder Schwierigkeiten bei ihrer Bedienung provoziert. Dann rückt Technik ins Zentrum des kommunikativen Geschehens. Technik, die sozial zu irritieren vermag, ist im Normalfall nichtfunktionierende Technik. Ausnahmen sind gewiss denkbar, etwa wenn es darum geht, das Funktionieren von Technik eigens herauszustellen, um den Verkauf eines technischen Produkts zu erleichtern oder die Wahrscheinlichkeit der politischen Akzeptanz bestimmter Technologien zu steigern. Man denke hier an den Gebrauchtwarenhändler, der demonstrieren will, dass mit

46 | S ASCHA D ICKEL

einem Wagen alles in Ordnung ist oder an den Politiker, der die Sicherheit eines Kraftwerks herauszustreichen versucht. Aber auch bei diesen Beispielen geht es um die Erwartungserwartung des Nichtfunktionierens: Technik wird Thema, weil (von Seiten des Autohändlers oder Politikers) erwartet wird, dass der Adressat der Kommunikation das Nicht-Funktionieren der Technik erwartet oder zumindest nicht ausschließen wird. Einen weiteren Sonderfall bilden Techniken, deren Verwendung anderen Personen schadet oder schaden könnte: etwa Waffen, welche die Integrität des Körpers verletzen, Medientechniken, denen unterstellt wird, die Psyche zu beeinflussen oder neue Produktionstechniken, die Arbeitsplätze ersetzen und daher gefährden könnten. Wo das Wohlergehen oder gar das nackte Leben von Menschen auf dem Spiel steht, ist mit Widerspruch gegen Technik immer zu rechnen. Ihr Gebrauch im Modus des Funktionierens kann dann als riskant beobachtet werden. Erstaunlicher ist es, wenn sich an funktionierender Technik (oder: der Erwartung einer zukünftig funktionstüchtigen Technik) Kontroversen entzünden, bei denen es nicht – oder zumindest nicht ausschließlich – um Risiken geht, sondern eine Technik als solche auf Ablehnung stößt. Eine solche Kritik kann sich mitunter auf die ‚Widernatürlichkeit‘ oder ‚Monstrosität‘ der Technik beziehen. Sie kann davor warnen, dass die moderne Technowissenschaft schauderhafte Monster gebiert, die auch und gerade in ihrem Funktionieren fragwürdig sind. Zu Beginn dieses Aufsatzes soll zunächst ein Streifzug durch die Monstergalerie der Technowissenschaften unternommen werden (1). Das Ziel des Galeriebesuchs ist jedoch nicht die Suche nach dem Schauder, sondern die Beobachtung des Schauderns anderer Beobachter, welche die Widernatürlichkeit des Betrachteten diagnostizieren und die Galerie so erst als Monstergalerie erscheinen lassen (2). Die anschließenden Ausführungen werden der Frage gewidmet sein, inwiefern sich dieser Schauder als Irritation angesichts des Unvertrauten begreifen lässt (3) und ob eine Ablehnung der entsprechenden Technologien auf der Basis ihrer ‚Widernatürlichkeit‘ als zukunftsfähige Form der Kritik betrachtet werden kann (4).

N ATUR

IN DER

K RISE | 47

1. T ECHNISCHE M ONSTER Als monströs erscheint das, was aus der Form fällt, eine Grenze überschreitet und sie dadurch erst als Grenze offenbart (Gunkel 1997; vgl. auch Haraway 1991: 226). Ein augenfälliges Beispiel für solche Grenzüberschreitungen sind Technologien, die in die menschliche Fortpflanzung eingreifen. So galten Antibabypille und künstliche Befruchtung einst als problematische Techniken, da sie den naturgegebenen Zusammenhang von Sexualität und Fortpflanzung entkoppeln. Vergleichbare Debatten entzünden sich gegenwärtig an der Präimplantationsdiagnostik (PID) oder der Vision des Klonens von Menschen. Bei diesen Technikkonflikten spielen zunächst Risiko- und Schadenserwägungen eine wichtige Rolle. Die Frage, unter welchen Bedingungen (und bei welchen erwarteten Risiken) es ethisch legitim sein kann, im Fall von Embryonen über Leben oder Nicht-Leben zu entscheiden, war und ist gewiss ein zentraler Aspekt der bioethischen Diskussion um die PID. Doch sind in den Kontroversen zur PID eben auch Einwände zu vernehmen, die darauf abstellen, ob es denn überhaupt richtig sein kann, auf diese künstliche Art und Weise in die menschliche Reproduktion einzugreifen. Ähnliches lässt sich bei den Konflikten zur Klonierung beobachten. Freilich geht es hier immer auch um die Risiken der entsprechenden Verfahren: Der gegenwärtige Stand der Technik scheint ein Klonen von Menschen, das zu einem gesunden, überlebensfähigen Embryo führen würde, kaum zu ermöglichen, und allein deshalb können entsprechende Experimente als ethisch indiskutabel betrachtet werden. Aber die Kritik am Klonen entzündet sich eben nicht nur an den gegenwärtigen technischen Unzulänglichkeiten der entsprechenden Technologien, sondern auch und gerade an der Monstrosität ihres womöglich reibungslosen Funktionierens in der Zukunft (Kass 1997). Ein weiterer biowissenschaftlicher Technikkonflikt beginnt sich gegenwärtig bei der Synthetischen Biologie anzubahnen. Dieses noch junge Forschungsfeld vereint bio- und ingenieurwissenschaftliche Methoden, um bislang unbekannte biologische Systeme zu konstruieren. Wissenschaftler schlüpfen hier in die Rolle von Lebensdesignern, deren Ziel es ist, Moleküle, Zellen und Organismen nach Funktionalitätskriterien zu erschaffen. Die Unprognostizierbarkeiten des Biologischen sollen dabei weitestgehend reduziert werden, so dass lebende Systeme sich ebenso einfach und stabil handhaben lassen wie Schraubenschlüssel oder Programmsequenzen. Produkte

48 | S ASCHA D ICKEL

der synthetischen Biologie können – und sollen – daher Eigenschaften aufweisen, die in der Natur selbst nicht vorkommen.1 Biosafety (also das Risiko nicht-intendierter Nebenfolgen synthetisch-biologischer Systeme) und Biosecurity (also das Risiko des intendierten Einsatzes solcher Systeme im Sinne biologischer Waffen) prägen denjenigen Teil der Debatte um das neue Forschungsfeld, der sich im Kontext einer Technikfolgenabschätzung verhandeln lässt (European group on ethics in science and new technologies 2009; Presidential Commission for the Study of Bioethical Issues 2010). Zugleich aber zielt eine wesentlich fundamentalere Kritik an der Synthetischen Biologie auf das Ansinnen dieser Technowissenschaft, Leben nach Maß zu erschaffen und damit „Gott zu spielen“ (Parens et al. 2009). Am klarsten verdeutlich der rezente Konflikt um Human Enhancement, dass sich bestimmte Formen von Technikkritik nur schwer in die Form rationaler Diskurse gießen lassen. Enhancement-Techniken zielen auf eine Optimierung, Erweiterung und Steigerung menschlicher Fähigkeiten mit technischen Mitteln. In beschränktem Maße sind solche Optimierungstechniken schon heute verfügbar. Im Sport ist etwa die medikamentöse Steigerung der körperlichen Möglichkeiten (Stichwort: Doping) schon lange verbreitet und die boomende kosmetische Chirurgie demonstriert, dass der Körper bereits jetzt vielfach zu einem Designobjekt geworden ist, das nach ästhetischen Idealen umgeformt wird. Umstrittener sind Enhancement-Technologien, welche eine pharmakologische Steigerung der kognitiven Kompetenzen oder eine Verbesserung der emotionalen Befindlichkeit zum Ziel haben.2

1

Im Mai 2010 meldeten Craig Venter und seine Mitarbeiter, dass es ihnen gelungen war, ein im Labor synthetisiertes Genom in eine DNA-freie Zelle zu integrieren (Gibson et al. 2010). Dieser Schritt galt als wichtiger Durchbruch für das neue Feld und hat ihm einen enormen Zuwachs an medialer wie politischer Aufmerksamkeit beschert.

2

Zwei Psychopharmaka spielen hierbei eine Vorreiterrolle: Prozak und Ritalin. Die Wirkung des Antidepressivums Prozac geht auf den Wirkstoff Fluoxetin zurück, der den Serotoninspiegel im Gehirn verändert. Das Medikament wird vermehrt von Menschen eingesetzt, die keine pathologisch-psychischen Probleme haben, aber den Wunsch nach einer emotionalen Verbesserung ihres Stimmungspegels und ihres Selbstbewusstseins verspüren (Kramer 1993). Ritalin (Wirkstoff: Methylphenidat) hemmt die Wiederaufnahme von Dopamin. Dies resultiert in einer

N ATUR

IN DER

K RISE | 49

Viele Ideen, die mit Enhancement verbunden werden, beziehen sich auf hypothetische Technologien, deren Umsetzbarkeit strittig ist. Dies gilt etwa für biomedizinische Visionen des genetischen Enhancements. Dessen Protagonisten gehen davon aus, dass PID und Keimbahnmanipulationen einst das Design von genetisch optimierten Wunschkindern ermöglichen werden, die nicht nur von Erbkrankheiten frei sind, sondern auch eine verbesserte psychische und physische Konstitution aufweisen könnten. Man kann mutmaßen, dass sich dadurch langfristig die Maßstäbe von Gesundheit und Krankheit verschieben würden: Personen, die heute als gesund betrachtet werden, könnten nach mehreren Generationen praktizierter genetischer Optimierung als krank und behandlungsbedürftig eingestuft werden (Buchanan et al. 2000; Agar 2004). Die unlängst prognostizierte Konvergenz der Nano-, Bio-, Informationsund Kognitionstechnologien verspricht eine noch umfassendere Verbesserung des Menschen (vgl. Fleischer/Decker 2005). Interventionen in den eigenen Körper und in die natürliche Umwelt sollen zukünftig in einem bisher nicht gekannten Ausmaß Wirklichkeit werden (Roco/Bainbridge 2002). Gehirnimplantate, die unsere kognitiven Fähigkeiten und unsere Sensorik verbessern und eine direkte Gehirn-Maschine-Interaktion ermöglichen sollen, wären hier nur erste Schritte. Weitergehende technowissenschaftliche Verheißungen beziehen sich auf die zunehmende technikvermittelte Kontrolle des eigenen Körpers, womit u.a. die menschliche Lebenszeit um Jahrzehnte verlängert werden soll. Das Ende der technologischen Entwicklung könnte einigen futuristischen Visionen zufolge schlussendlich sogar in einer Überwindung der biologischen Verletzlichkeit des Menschen kulminieren (Kurzweil 2005). Während einige Philosophen und Technikvisionäre die Idee einer technologischen Aufrüstung des Menschen als eine Befreiung aus den Fesseln

stimulierenden Wirkung, welche etwa mit Kokain und Amphetaminen zu vergleichen ist. Ursprünglich wurde Ritalin für die Behandlung von ADHS (Aufmerksamkeits-Defizit/Hyperaktivitäts-Syndrom) eingesetzt. Seit geraumer Zeit wird Ritalin jedoch auch zur Steigerung von Konzentrationsfähigkeit und Erinnerungsvermögen verwendet. Besonders unter Schülern und Studenten scheint diese Form des kognitiven Enhancements eine sich verbreitende Praxis zu werden (Turner und Sahakian 2006).

50 | S ASCHA D ICKEL

der Natur feiern (vgl. Bailey 2005; Hughes 2004; Harris 2007) betonen andere die Gefahren menschlicher Selbstermächtigung. Dabei scheint es für beide Seiten offenbar ausgemacht, dass es hier keineswegs nur um spezielle Fragen der Medizinethik oder unterschiedliche Beurteilungen des Risikopotentials bestimmter Technologien geht. Vielmehr scheint die Natur des Menschen als solche auf dem Spiel zu stehen (Habermas 2005; Fukuyama 2004). Aber auch außerhalb der Biowissenschaften rufen jüngste technische Zukunftsentwürfe Unbehagen hervor, so sie den Eindruck erwecken, dass der Mensch der Natur ‚ins Handwerk pfuscht‘. Wenn sich die technowissenschaftliche Imagination etwa darauf richtet, durch Nanotechnologien die Welt „Atom für Atom“ (National Science and Technology Council 1999) neu zu formen, mittels Geoengineering das Klima zu steuern (Royal Society 2009) oder künstliches Bewusstsein (und nicht nur: intelligente Expertensysteme) zu erschaffen (Kurzweil 1999), gibt es selbstverständlich auch kritische Einwände, die sie sich auf die konkreten Risiken der entsprechenden Techniken richten oder die Machbarkeit solcher Technikvisionen bestreiten oder relativieren. Jedoch muss stets damit gerechnet werden, dass bei solchen und ähnlichen technowissenschaftlichen Entwürfen Kritiker auftreten, die von der diffusen Sorge motiviert sind, „wie weit das alles noch gehen soll“. In ihren Augen erscheinen funktionierende Hochtechnologien, die technikutopische Erwartungen tatsächlich einlösen könnten, als illegitime Grenzüberschreitungen, als Ausdruck einer Hybris, der das rechte Maß abhandengekommen ist (vgl. McKibben 2003). Man muss jedoch nicht erst überschwängliche Visionen betrachten, um auf Spuren einer Haltung zu stoßen, die bestimmten Technologien in ihrem Funktionieren fundamental kritisch gegenübersteht. Eine solche Kritik kann sich auch auf so profane Dinge wie die Umgestaltung eines Waldgebiets oder die Verzerrung menschlicher Kommunikation durch elektronische Medien richten. Stets ist in Technikkonflikten mit einer Form der Kritik zu rechnen, die dem Einsatz oder der (möglichen) Existenz einer Technik als solcher kritisch gegenübersteht – unabhängig davon, ob diese Technik greifbare Risiken in sich birgt oder nicht.

N ATUR

IN DER

K RISE | 51

2. B IOKONSERVATIVE T ECHNIKKRITIK Ein verbreiteter Topos dieser Kritik ist die Berufung auf die Natur.3 Offenbar wird dabei nicht auf einen naturalistischen Naturbegriff abgestellt, wie er die (philosophische Reflexion der) modernen Naturwissenschaften prägt (vgl. Keil/Schnädelbach 2000). Der Begriff der Realität und der Begriff der Natur sind im Naturalismus nämlich nicht zu unterscheiden. Damit werden ‚übernatürliche‘ Phänomene aus dem Reich der Realität exkludiert und der Sphäre des bloß imaginierten oder Wahnhaften überantwortet. Im Naturalismus fallen daher die Unterscheidungen real/irreal und natürlich/übernatürlich zusammen. Somit kennt das Programm des Naturalismus letztlich nur noch die Unterscheidung natürlich/irreal. Jede existierende Technik ist damit immer zugleich Teil der Natur. Ein solcher identitätslogischer Naturbegriff, der die Welt als (natürliche) Einheit denkt, liegt der hier gemeinten Natürlichkeitskritik nicht zugrunde – würde sie ihn akzeptieren, würde sie sich selbst torpedieren. Stattdessen wird der Naturbegriff mit etwas anderem gefüllt, was sich dann von Technik abgrenzen lässt. Die Natur kann so etwa als das Wilde, das Ungezähmte, das Authentische, das Gewachsene, das Unbeeinflusste, das Gegebene, das Organische, das Unverfügbare, das Spontane, das Romantische, das Geborene, das Wesenhafte oder das von Menschenhand Unberührte begriffen werden. Eine so gefasste Natürlichkeit kann als Wert verstanden werden, den es anzustreben, zu pflegen und zu bewahren gilt, oder gar als Norm, aus der sich unmittelbare Handlungsanweisungen, -gebote und -verbote ableiten lassen (Birnbacher 2006). Im Kontext des bioethischen Diskurses hat sich für solche Positionen der Begriff des ‚Biokonservatismus‘ eingebürgert.4

3

Freilich mag es auch andere Kritik-Ressourcen für eine grundsätzliche Technikkritik geben. Diese können im Folgenden jedoch nicht berücksichtigt werden.

4

Dieser wurde ursprünglich als Bezeichnung von Enhancement-Befürwortern für Enhancement-Kritiker eingeführt, wird aber gegenwärtig allgemeiner zur Bezeichnung einer Position etabliert, die sich als Technikkritik in ihrem Kern auf Natürlichkeitsargumente stützt (Birnbacher 2006).

52 | S ASCHA D ICKEL

„The term ‚bioconservative‘ denotes the rhetorical and political gesture of a defense of ‚nature,‘ and especially a defense of a ‚human nature‘ typically identified with certain social norms under conspicuous contest—with ‚nature‘ construed as a moral category. Whatever else is afoot in various bioconservative discourses and movements, whatever their personal or historical idiosyncrasies, the definitive gesture of first a conjuration or outright invention of some expression of ‚nature‘ and then its urgent defense will always be deployed at a key moment in any bioconservative argument, or as the rationale for any bioconservative judgment or action.“ (Carrico 2007).

Entscheidend ist also, dass in einer Technikkritik Natur als moralische Kategorie aufgerufen wird – ansonsten würde es keinen Sinn machen, eine Kritik als biokonservativ zu bezeichnen (außer als ideologiekritische Unterstellung). Biokonservative Kritik muss dennoch nicht isoliert auftreten. Sie kann sich durchaus mit Risikoerwägungen ummanteln. Eine solche Ummantelung ist für die biokonservative Kritik durchaus nicht ungewöhnlich, denn moralisch aufgeladene Natürlichkeitsvorstellungen lassen sich nur schwer in explizerbare Argumente mit Rationalitätsanspruch übersetzen. Das räumen selbst biokonservative Philosophen ein. So schreibt Leon Kass, der ehemalige Vorsitzende des US-amerikanischen Ethikrates zu Enhancement-Techniken: „For even the safe, equally available, noncoerced and non-faddish uses of these technologies for ‚self-improvement‘ raise ethical questions, questions that are at the heart of the matter: the disquiet must have something to do with the essence of the activity itself, the use of technological means to intervene in the human body and mind […]. It is difficult to put this disquiet into words. We are in an area where initial repugnances are hard to translate into sound moral arguments.“ (Kass 2003: 17)5

5

In seiner Verteidigung von „moral disgust“, dem Gefühl also, dass eine bestimmte Praxis schlicht falsch und widerwärtig ist, räumt auch Michael Hauskeller ein: „We can thus define a moral feeling as a feeling part of whose cognitive content is the wrongness of a certain kind of action or practice. […] This, of course, does not settle the question whether those feelings should be endorsed and taken as a guide for action. By accepting a feeling as a moral feeling, we do not commit ourselves to accepting it as the expression of a legitimate moral concern. Instead, we are just recognizing that that feeling has a moral content, whether this is, in a

N ATUR

IN DER

K RISE | 53

Die biokonservative Kritik behilft sich angesichts dessen mitunter mit Verlegenheitssemantiken. Da sich schwer festmachen lässt, worin nun genau der intrinsische Wert der (menschlichen) Natur liegen soll, geht z.B. Francis Fukuyama von einem mysteriösen „Faktor X“ aus, der sich auf die verborgenen Qualitäten des menschlichen Wesens bezieht, die mehr sind als die Summe dessen, was sich empirisch beschreiben lässt (Fukuyama 2004). Wo in Mysterien kommuniziert wird, ist Religion nicht weit. Somit gehen Natürlichkeitsargumente oft mit dem Verweis auf religiöse Gefühle, Werte oder Konzepte Hand in Hand. Zwar müssen religiöse Semantiken in biokonservative Argumente nicht zwingend einfließen, aber dass Religion in diesem Kontext dennoch häufig eine Rolle spielt, ist augenfällig und erklärungsbedürftig. Wir werden darauf zum Ende des Beitrags zurückkommen. Eine weitere Diskursstrategie stellt die Mobilisierung ästhetischer Kategorien dar. So betont Kass, dass die Monstrosität bei bestimmten Technologien (wie dem Klonen) so evident sei, dass der bloße Gedanke an sie einen Reflex des Widerwillens und Ekels auslöse, der als Hinweis auf die Falschheit einer technischen Praxis interpretiert werden könnte (Kass 1997). Dem lässt sich dann selbstredend entgegnen, dass der „Yuck-Faktor, die Berufung auf das Spontane ‚Igitt‘ des Ekelerregenden und Abartigen“ lediglich der Ausdruck eines „ästhetischen Vorbehalts“ ist, nicht aber eine „ethische Kategorie“ (Birnbacher 2006: 92). Natürlichkeitsargumente lassen sich von ihren philosophischen Gegnern recht leichthändig mit dem „knock-down-Argument des ‚naturalistischen Fehlschlusses‘“ (Birnbacher 2006: 47) diskreditieren oder als Ausdruck vormoderner Denkweisen aus dem Feld des Rationalen schlechthin exkludieren. Eine solche, mit rationalistischem Gestus vollführte Exklusion tangiert die biokonservative Kritik jedoch nur peripher, denn der Biokonservatismus versucht sich vorrangig durch den Anschluss an intuitive Alltagsgewissheiten zu plausibilisieren. Gerade weil die Berufung auf die Natur kommunikativ weniger aufwändig und kontraintuitiv erscheint als etwa die Konstruktionen utilitaristischer Ethiker, ist der Biokonservatismus ein relevantes politisches Phänomen. Ein Natürlichkeitsargument mag philosophisch womöglich wenig belastbar sein – politisch wirksam werden kann es nichtsdestotrotz. So schreibt Peter Wehling:

particular case, justified or not” (Hauskeller 2006, S. 577, Hervorhebung im Original).

54 | S ASCHA D ICKEL

„Ohne Zweifel bereitet es wenig Mühe, ein solches [Natürlichkeits-]Argument mit dem Operationsbesteck professioneller Ethik zu sezieren. Man kann erstens deutlich machen, dass es die Natur des Menschen gar nicht gibt, und zweitens einen naturalistischen Fehlschluss diagnostizieren, da die Natur des Menschen, selbst wenn es sie gäbe, nicht per se normativ bedeutsam wäre. Möglicherweise gehen diese (inzwischen selbst rituell gewordenen) Einwände aber am Kern des Natürlichkeits-Arguments vorbei, weil sie ein letztlich politisches Argument als einen Beitrag zur ethischen Fachdebatte missverstehen […] Gerade wenn Menschen, die keine professionellen Ethiker sind, auf die Unnatürlichkeit bestimmter optimierender Interventionen hinweisen, berufen sie sich weniger auf eine vermeintlich invariante, stabile menschliche Natur, sondern auf einen lebensweltlichen, kulturell eingespielten Sinn- und Erfahrungshorizont. Innerhalb dieses Horizonts werden bestimmte Handlungsformen als ›natürlich‹ verstanden, das heißt als mit dem menschlichen Körper, dem menschlichen Leben in Einklang befindlich wahrgenommen und bewertet. Da dieser Sinn-Horizont immer schon normativ interpretiert ist, als Horizont des Angemessenen und Verhältnismäßigen, handelt es sich bei dem Rückgriff auf eine solche Natürlichkeitsvorstellung nicht um einen naturalistischen Fehlschluss vom ‚objektiven‘ Sein zum Sollen“ (Wehling 2011: 249-250, Hervorhebung im Original).

Wenn wir der Argumentation Wehlings folgen, ist biokonservative Kritik demnach Ausdruck einer Irritation des lebensweltlichen Erfahrungsraums, die als Verletzung desselben interpretiert wird.6 In eine ähnliche Richtung argumentiert Ingo Schulz-Schaeffer. Er weist darauf hin, dass mittlerweile das „Attribut ‚natürlich‘ als Gegenbegriff für all das [fungiert], was als verändernder Eingriff in gewohnte und als unproblematisch vorausgesetzte Lebensumstände thematisiert wird. Der Begriff der Natur verschmilzt mit dem Begriff der Tradition“ (Schulz-Schaeffer 2000: 36). Das verwundert kaum, hat doch der Erfolg des naturalistischen Weltbildes, wie oben beschrieben, es eigentlich unmöglich gemacht, natürliche Dinge von anderen Gegenständen der Welt abzugrenzen: Wenn Natur und Realität dasselbe sind, gehört alles Reale zur Natur. Angesichts der zunehmenden Unmöglichkeit, Natur sachlich zu bestimmen und so von einer kulturellen oder technischen Sphäre abzugrenzen, wird Natur immer mehr zu einem zeitlichen Begriff, mit dem die Sphäre des Gewohnten und traditionell Erwarteten bezeichnet wird

6

Vgl. dazu auch den Beitrag von Claudia Schwarz und Simone Schumann in diesem Band.

N ATUR

IN DER

K RISE | 55

(Schulz-Schaeffer 2000: 35-37; vgl. ausführlich Dickel 2014). Wenn also in Technikkonflikten auf Natur verwiesen wird, so ist häufig eigentlich die Vertrautheit der Lebenswelt gemeint.

3. B IOKONSERVATISMUS DER L EBENSWELT

ALS

B EWAHRUNG

Aus phänomenologischer Perspektive gilt die Lebenswelt als unhinterfragter Boden, auf dem Subjekte stehen, um sich in ihrer Umwelt orientieren zu können. Sie ist der vertraute Teil der Welt, der nicht problematisiert wird, sondern fungiert als Set unhinterfragter Hintergrundannahmen, welches es überhaupt erst erlaubt, sich dem Unvertrauten zu nähern – und es gegebenenfalls zu hinterfragen (zur Diskussion vgl. Preyer 2000). Die Lebenswelt kann somit als Verweisungszusammenhang für alle Sinnkondensate bezeichnet werden, die aktuell als vertraut behandelt werden. Im Prozess der Modernisierung wird die Lebenswelt jedoch selbst als kontingent erkenn- und damit problematisierbar. Je weiter nämlich in der Moderne Sinnsphären auseinanderdriften und die eigene Kultur als Kultur unter anderen erfahren werden muss, desto eher wird deutlich, dass die eigenen Vertrautheiten die Unvertrautheiten der Anderen sind – und umgekehrt. Damit wird die Lebenswelt selbst als kontingente Unterscheidung sichtbar, und zwar als Unterscheidung von vertraut und unvertraut (Luhmann 2000). Die Kontingenz der Unterscheidung vertraut/unvertraut ist keine Besonderheit eben dieser Unterscheidung, vielmehr entspricht sie der modernen Erfahrung der Kontingenz jedes Unterscheidungsgebrauchs schlechthin. Diese Kontingenzerfahrung ist ein so prägendes Merkmal moderner Gesellschaften, dass „Kontingenz als Eigenwert der modernen Gesellschaft“ (Luhmann 1992b) begriffen werden kann, der die dynamische Stabilität dieser Gesellschaftsform ausmacht. Die Moderne kann dann nicht zuletzt als diejenige Gesellschaftsform begriffen werden, die Kontingenz selbst zum Strukturaufbau nutzt und sich damit explizit auf das Neue, das Andere, das Innovative und das Zukünftige einstellt – und dabei notwendigerweise die kreative Zerstörung des Gegebenen in Kauf nimmt. Die moderne Einsicht in die prinzipielle Kontingenz von Unterscheidungen bedeutet gleichwohl nicht, dass Unterscheidungen willkürlich gehand-

56 | S ASCHA D ICKEL

habt werden können. Vielmehr erscheinen Handlungen und Kommunikationsereignisse als strukturgeleitet. Sinnstrukturen regulieren, wie welche Unterscheidungen in welchen Kontexten verwendet werden (Luhmann 1984: 377-487). Durch Sinnstrukturen etablieren sich Routinen, die es erlauben, in der Welt zu operieren, ohne dieses Operieren reflexiv beobachten zu müssen. Routinen laufen „unbewusst“ ab, das Wissen, das in ihnen enthalten ist, kann implizit und latent bleiben (vgl. auch Collins 2010). Insofern wirken Routinen enorm komplexitätsreduzierend: Im Prozess des Schnürsenkelbindens müssen die genauen Abläufe der Hand- und Fingerbewegungen nicht mitbeobachtet werden, Praktiken des Ankleidens und des Grüßens vollziehen sich, ohne dass man typischerweise einen Gedanken daran verschwenden muss, institutionalisierte Interaktionsabläufe (etwa in Organisationen, aber auch in Intimbeziehungen oder bei einem Kartenspiel) vollziehen sich unter Verzicht auf Metakommunikation. In allen Fällen, in denen sich Routinen etabliert haben, würde eine bewusste Beobachtung und/oder kommunikative Thematisierung dessen, was geschieht – eine Beobachtung also, die die implizit verwendeten Unterscheidungen offen legt und in ihrer Kontingenz sichtbar werden lässt – eine Krise hervorrufen. Der Begriff der Krise soll hier im Anschluss an die Oevermannsche Strukturtheorie ohne emphatischen Alarmismus verstanden werden, sondern zunächst einfach als ein „Ins-Stolpern-Geraten“ von Routinen. Die meisten Krisen treten demgemäß nur als minimale Verzögerungen auf (das Schnürsenkelbinden dauert länger als gewöhnlich) und münden meist ganz undramatisch in ein Festhalten an der etablierten Routine. Dramatischer sind jedoch Krisen, die die Angemessenheit einer Routine nachhaltig infrage stellen, so dass bis auf weiteres nicht mehr klar ist, wie es weitergehen soll (vgl. Oevermann 2008). Die bisherigen Ausführungen machen deutlich, dass Routinen der Seite der Vertrautheit zuzuordnen sind und Krisen der Seite des Unvertrauten. Jede Routine verweist auf bewältigte Krisen, also auf das Überschreiten der Grenze vertraut/unvertraut, die zu einem Vertrautwerden des zuvor Unvertrauten führte, also zu einer Ausweitung des scheinbar sicheren Bodens lebensweltlicher Gewissheiten. Am gravierendsten sind daher sicher jene Krisen, die nicht nur einzelne Routinen, sondern ein ganzes Ensemble von Routinen destabilisieren, denn solche Krisen können die Lebenswelt insgesamt ins Wanken bringen, indem sie eine Situation schaffen, in der das scheinbar Vertraute in seiner Unvertrautheit zutage tritt, und der Verdacht aufkommt, dass alles was bislang richtig,

N ATUR

IN DER

K RISE | 57

wahr und/oder unproblematisch war, auch ganz anders sein könnte. Fundamentale Krisen machen mithin schmerzhaft deutlich, dass die Lebenswelt nicht die Sicherheit bietet, die man ihr zuvor unterstellt hat, dass sie auch nur eine kontingente Unterscheidung der Welt (eben nach dem Schema vertraut/unvertraut) darstellt und dass diese Unterscheidung abhängig ist von vertrauten Routinen, die womöglich in Zukunft nicht mehr gültig sein werden. Man kann die Sprengkraft dieses Krisentyps mit der Figur des „re-entry“ (Luhmann 1997: 45) – dem Wiedereintritt einer Unterscheidung in sich selbst – beschreiben: Die Unterscheidung vertraut/unvertraut tritt auf der Seite des Vertrauten selbst wieder ein und lässt zuvor etablierte Strukturen routinisierter Praxis fragil werden: Die vertraut geglaubte Welt erscheint dann in ihrer unvertrauten Fremdartigkeit. Krisen sind immer Chance und Risiko zugleich, sie eröffnen die Möglichkeit des Lernens, des Umbaus verkrusteter Strukturen, des Aufbrechens von festgefahrenen Routinen und letztlich der Modifikation von Identitäten (Mölders 2011). Grundsätzlich sind Krisen jedoch auch immer Zumutungen und lästige Irritationen. Das Festhalten an bewährten Schemata kann auch und gerade in der Krise attraktiv sein, um Sinnzusammenbrüche bis auf weiteres aufzuhalten und die Lebenswelt intakt zu lassen. Das Risiko eines solchen, konservativen, Umgangs mit Krisen ist freilich, dass sich die Umwelt ändert, während die Routinen gleich bleiben – die nächste Krisenerfahrung lässt daher womöglich nicht lange auf sich warten. Wer angesichts von Krisen an Routinen festhält, schließt eine implizite Wette auf die Zukunft ab, er wettet darauf, dass sich die Krise tatsächlich nur als vorübergehende Störung erweist und die Welt sich danach wieder in vertrauten Bahnen bewegt. Was aber, wenn man von der Stabilität der Umwelt nicht mehr sicher ausgehen kann aber dennoch am Bewährten festhalten will? Es besteht dann zunächst die Option, für das Vertraute zu werben, es als Wert zu postulieren und seine Attraktivität zu betonen – und das Unvertraute gleichsam in düsteren Farben zu malen und als vermeidenswert erscheinen zu lassen. Wenn ein solches Eintreten für Vertrautes nicht hinreichend gelingt, bleibt darüber hinaus die Möglichkeit, das Vertraute normativ durchzusetzen und sich so einer möglichen Veränderung entgegenzustellen. Die Krise fungiert dann als Motiv für die Verteidigung des Vertrauten gegen das Unvertraute. Damit eine solche Moralisierung gelingen kann, muss das Unvertraute, das sachlich gegeben oder zukünftig erwartet wird, in die Sozialdimension übersetzt werden: Es gilt dann, Verantwortliche auszumachen, welche die Verletzung der

58 | S ASCHA D ICKEL

Lebenswelt (intendiert oder nicht-intendiert) durch ihr Handeln (oder Unterlassen) bewirken. Die Verletzung der Lebenswelt wird also in beiden Fällen weder schlicht ignoriert noch fungiert sie als Anlass zur Modifikation eigener Routinen. Stattdessen wird die Grenze vertraut/unvertraut moralisiert. Beide Motive finden sich in biokonservativer Technikkritik, in denen das Vertraute als Natur reformuliert wird (Birnbacher 2006). Der Biokonservatismus, so können wir nun sagen, ist der Ausdruck der Verteidigung des Vertrauten gegen das technisch Unvertraute, unter Rückgriff auf die Natur als Symbol des Vertrauten. Seine Leitunterscheidung ist die von Natur und Technik, wobei Natur als Präferenzwert fungiert.7 Es stellt sich jedoch die Frage, unter welchen Bedingungen Techniken überhaupt als lebensweltlich problematisch empfunden werden und demgemäß in Krisenerfahrungen münden. Immerhin ist Technik ja zunächst kaum als Fremdkörper menschlicher Praxis zu betrachten. So lässt sich aus anthropologischer Perspektive festhalten, dass der Mensch immer schon auf Technik verwiesen war. Diese Abhängigkeit des Menschen von der Technik kann als Mangel des menschlichen Wesens gedeutet werden. Alternativ dazu kann man jedoch gerade im Verweis der menschlichen Natur auf eine technische Praxis eine besondere Auszeichnung des Menschen sehen. Der Mensch kann nicht nur als Tier betrachtet werden, das auf Technik angewiesen ist, sondern auch und gerade als ein Tier, das auf Technik angelegt ist (Krohn 2002). Sieht man von den divergierenden Bewertungen ab, die solche anthropologischen Beobachtungen mit sich führen, sticht doch deren Konvergenz in einem entscheidenden Punkt in den Blick. Beide Lesarten betonen die enge Verbindung der conditio humana mit dem Technischen. Aus der Perspektive der philosophischen Anthropologie erweitert, ersetzt und ergänzt Technik die menschlichen Organe, sie entlastet den Menschen, überbietet die Fähig-

7

Dabei fungiert „Natur“ als paradoxes Symbol, denn sie kann ja auch das Wilde und Ungezähmte symbolisieren, das seine eigene (natürliche) Unvertrautheit mit sich führt. Gegen die Unkontrollierbarkeit der Natur kann dann Technik als Symbol des Vertrauten in Stellung gebracht werden. Diese Möglichkeit der ambivalenten Verwendung mag als Stärke des symbolischen In-Stellung-Bringens von Natürlichkeit interpretiert werden – vielleicht stellt es aber auch ein Einfallstor für die zunehmende Entleerung der Natursymbolik dar (vgl. Abschnitt 4 dieses Beitrags).

N ATUR

IN DER

K RISE | 59

keiten seines Leibes und eröffnet ihm Wege, seine Abhängigkeit von der Natur zu überwinden (Halfmann 2003: 133-134). Unabhängig davon, wie man das Verhältnis von Mensch und Technik also bewerten will, vermag demnach keine Diagnose zu überzeugen, die auf der Prämisse basiert, dass die Technik dem Menschen an sich äußerlich wäre. Technik erscheint vielmehr als Medium, in dem sich menschliche Praxis vollzieht. Es scheint daher alles andere als naheliegend, Technik als generelles Problem für lebensweltliche Gewissheiten zu deuten. Vielmehr wird Technik dann als fundamental krisenhaft erfahren, wenn sie die vertraute Welt als solche in Frage stellt und einen re-entry der Differenz von vertraut/unvertraut auf der Seite des Vertrauten provoziert – und nur dann ist mit einer biokonservativen Technikkritik zu rechnen, die sich der Bewahrung des Natürlichen verschreibt. Zwei Faktoren scheinen daher eine Kritik zu provozieren, die Technik als Bedrohung der ‚natürlichen‘ Lebenswelt interpretiert: Hier ist zunächst an das Ausmaß der Veränderung dessen, was bislang als stabil und konstant galt, zu denken. Ändert sich durch Technik zu vieles auf einmal, kann die Befürchtung wachgerufen werden, in eine Welt hineinzuschlittern, die man nicht mehr wiedererkennen würde.8 Nicht zuletzt deshalb verunsichern die Utopien der Nanotechnologie, die eine Zukunft entwerfen, in denen die Welt auf der kleinteiligsten Ebene zum Objekt der Gestaltung wird, und die Visionen des Geoengineering, die davon träumen, durch reflektierende Spiegel im Weltraum, oder den massenhaften Ausstoß von Schwefeldioxid in die Stratosphäre, das Sonnenlicht zu reflektieren und so die Erde abzukühlen. Auch das (mögliche) Auftreten völlig neuer Lebensformen, die nicht ‚natürlichen‘ Ursprungs sind (etwa durch Synthetische Biologie oder KIForschung), kann als krisenhaft interpretiert werden, da hier ein qualitativer Wandel der Welt befürchtet wird, der in eine radikal unvertraute Zukunft führt. Selbst alltägliche technische Phänomene, die keine weitreichenden materiellen Transformationen der Umwelt nach sich ziehen, können Unbehagen hervorrufen, insofern sie bislang gültige Gegebenheiten unwiederbringlich

8

Eine erste – freilich populärwissenschaftlich überzeichnete – Beschreibung dessen lieferte bereits Alvin Toffler (1990 [1970]) unter dem Stichwort des „Future Shock“. Zur Destabilisierung vertrauter Erwartungen durch Technik vgl. grundlegend Kaminski 2010.

60 | S ASCHA D ICKEL

zu verändern drohen. So mögen einige Zeitgenossen nur den Kopf schütteln, wenn sie davon hören, wie intensiv Jugendliche Facebook, Twitter und SMS nutzen und wie anders, wie ‚unnatürlich‘, sie dabei kommunizieren. Obgleich sich durch solche neuen Kommunikationstechniken die Lebenswelt gravierend verändert, fällt jedoch auf, dass solche Veränderungen weniger Schauder hervorrufen als Techniken, die sich auf die Veränderung des menschlichen Körpers richten. Eine prägende Rolle für die Fremdheitserfahrung von Technik scheint somit auch die Nähe der technischen Intervention zum Körper zu spielen, gilt der Körper doch als eine der wenigen Konstanten in einer komplexen, sich ständig verändernden Welt (Bette 1989).9 Es verwundert daher nicht, dass Technologien, die auf eine umfassende Transformation des Körpers abzielen (und nicht etwa bloß auf seine Wiederherstellung) in besonderem Maße eine Kritik aufrufen, die sich auf Natürlichkeit beruft. Die Diskussion um Schönheitsoperationen und pharmakologisches Neuro-Enhancement zeigen, wie sensibel unsere Gesellschaft auf Veränderungen reagiert, die den Körper zum Objekt der Gestaltung machen und damit in ein kontingentes Phänomen verwandeln.10 Die obigen Überlegungen lassen sich in folgender These bündeln: Je eher Technologien bislang gültige Sicherheiten in Kontingenzen verwandeln, desto eher werden sie als Verletzungen der Lebenswelt interpretiert und provozieren eine biokonservative Kritik, die sich auf die Seite der Natürlichkeit schlägt.

4. D IE V ERTRAUTHEIT

DES

U NVERTRAUTEN

Wehling weist zu Recht darauf hin, dass eine Technikkritik, die sich auf Natur beruft, von der sozialwissenschaftlichen Analyse bislang stiefmütterlich

9

In dieser Hinsicht stellen die sich abzeichnenden Technisierungskonflikte um „Datenbrillen“ wie Google Glass einen höchst instruktiven Testfall dar, handelt es sich hierbei doch um ein mobiles Endgerät, dass die digitale Sphäre enger an den Körper koppelt als bisherige Technologien, die Netzzugang ermöglichten.

10 Die Konflikte um gentechnisch-veränderte Nahrungsmittel demonstrieren zudem, dass auch Technologien, die in das nichtmenschliche Leben eingreifen, dann als besonders problematisch betrachtet werden, wenn dieses Leben mit dem menschlichen Körper (qua Nahrungsaufnahme) in Austausch steht.

N ATUR

IN DER

K RISE | 61

behandelt wurde. Auf der Basis seiner – in diesem Beitrag geteilten – These, dass Natürlichkeitsargumente auf Verletzungen der Lebenswelt verweisen, vermutet er, dass in den entsprechenden Einwänden relevante „Kritik-Ressourcen angelegt sind“ (Wehling 2011: 250). Doch ist damit freilich noch nicht ausgemacht, ob man zugleich die normativen Setzungen, die sich im Kontext einer lebensweltlich motivierten Kritik Geltung verschaffen wollen, mitvollziehen sollte. In der Tradition wurde diese Frage bejaht: Klassische philosophische Ansätze zur Theorie der Lebenswelt positionieren sich zugleich auf deren Seite, also auf die Seite des Vertrauten. Luhmann hingegen kehrt diese Bewertung um. Sein systemtheoretisch informierter Begriff der Lebenswelt „[…] lässt ein Motiv fallen, das mit ihm seit Husserl verbunden war und das auch Habermas aufgenommen hat: das Motiv der Kritik. Für Husserl war Lebensweltanalyse zugleich radikale Kritik des Unvermögens der modernen Wissenschaften, zu den originär sinnstiftenden Leistungen des Subjekts Zugang zu finden. Für Habermas ist Lebenswelt das leidvolle Opfer moderner Systemtechnik. Schon die Unvereinbarkeit dieser Ansätze läßt die Frage aufkommen, ob es sich bei der Gedankenverbindung von Lebenswelt und Kritik nicht um eine oberflächliche Assoziation, allenfalls um eine tiefsitzende (aber dann erklärungsbedürftige) Zivilisationsneurose handelt.“ (Luhmann 2000: 279f)

Durch seine Diskreditierung lebensweltlich motivierter Kritik als „Zivilisationsneurose“ schlägt sich Luhmann recht deutlich auf die Seite des Unvertrauten, obgleich eine solche Wertung im Begriff der Lebenswelt als Unterscheidung von vertraut/unvertraut selbst nicht zwingend angelegt ist. Die Parteinahme für das Unvertraute könnte immerhin ebenso pathologisch sein, wie die Parteinahme für das Vertraute. Angesichts dessen scheint es geboten, mit dem Pathologieverdacht sparsam umzugehen oder ihn vielleicht besser durch eine Beobachtungsweise zu ersetzen, die eine Pathologisierung beider Seiten vermeidet. Die Frage nach der Pathologie oder Nicht-Pathologie einer Technikkritik, die auf lebensweltliche Verletzungen reagiert, soll daher durch die Frage ersetzt werden, ob der Biokonservatismus zukunftsfähig ist. Der Begriff der Zukunftsfähigkeit bezieht sich auf „die gesellschaftlichen Bedingungen der Möglichkeit evolutionär erfolgreichen Operierens in einer komplexen, durch gesellschaftliche Einflüsse selbst dauernd mit veränderten Umwelt“ (Bora 2009: 59).

62 | S ASCHA D ICKEL

Eine zukunftsfähige Kritik wäre demnach eine Kritik, die langfristig überzeugen kann und eine evaluative bzw. normative Orientierung für künftiges Handeln bietet. Eine Bedingung dafür wäre, dass sie einer dynamischen Umwelt Rechnung tragen würde. Dies kann freilich nicht bedeuten, dass sich evaluative und normative Maßstäbe selbst dauernd wandeln müssten, um zukunftsfähig zu sein. Eine gewisse Invarianz der Maßstäbe ist vielmehr unerlässlich, damit eine zeitstabile Orientierung an ihnen überhaupt denkbar ist. Die Maßstäbe müssten jedoch hinreichend abstrakt gefasst sein, um nicht nur punktuell und partikular plausibel zu wirken. Der biokonservative Rückgriff auf die ‚Natur‘ zur Verteidigung lebensweltlicher Vertrautheiten erscheint so in einem neuen Licht. Die ‚Natur‘ liegt naturgemäß außerhalb der flüchtigen Sozialwelt. Sie bietet einen scheinbar sicheren Standort, von dem aus kritisch über Technisierungen gesprochen werden kann. In einer Gesellschaft, die es sich angewöhnt hat, nach dem sozialen Standort des Kritikers zu fragen und diesen Standort als kontingent und standortgebunden auszuweisen, schafft eine Verortung außerhalb der Gesellschaft eine scheinbar unangreifbare diskursive Position.11 Würde man statt von einer Verletzung der natürlichen Ordnung lediglich von einer Verletzung der Lebenswelt sprechen, würde schnell offensichtlich, dass die Lebenswelt des Kritikers nicht mit der Lebenswelt anderer Beobachter identisch sein muss. Der Rückgriff auf Natürlichkeit verschafft hingegen einen sozial kaum verhandelbaren Maßstab (Dickel 2014). Mit seiner Parteinahme für das Natürliche scheint der Biokonservatismus daher eine gewisse Zeit eine evolutionär erfolgreiche Form der Kritik gewesen zu sein. Ob die Berufung auf die Natur jedoch auch zukünftig überzeugen können wird, ist gleichwohl fraglich. Angesichts der zunehmenden Unmöglichkeit, sachlich plausible Naturbegriffe jenseits des Naturalismus zu formulieren, die sich stabil dauerhaft von einer Welt des Künstlichen, Kulturellen oder eben Technischen abgrenzen ließen, lässt sich die Zukunftsfähigkeit des Biokonservatismus durchaus bezweifeln (vgl. Lau/Keller 2001; Wehling et al. 2005; Wehling et al. 2007). Jedoch könnte es immerhin noch denkbar sein, „Naturfiktionen auf Zeit“ (Lau/Keller 2001: 95, Hervorhebung im Ori-

11 Eine solche Berufung auf die Natur ist nicht nur bei Kritikern, sondern auch bei Befürwortern besonders umstrittener neuer Technologien auszumachen. Hier greifen prinzipiell vergleichbare Diskursmechanismen (vgl. Dickel 2011).

N ATUR

IN DER

K RISE | 63

ginal) zu etablieren, anhand derer dann die Natürlichkeit oder Unnatürlichkeit technischer Interventionen gemessen werden könnten. Die Grundidee ist hier, einstweilen von der Natürlichkeit bestimmter Gegebenheiten auszugehen, um Zeit für normative Urteile und politische Entscheidungen zu gewinnen. Die Zukunftsfähigkeit solcher „Naturfiktionen auf Zeit“ würde natürlich generell davon abhängen, dass die Fiktionen als Fiktionen latent bleiben – sonst würde die Illusion der Natürlichkeit ebenso schnell an Wirkung verlieren wie ein Zaubertrick, dessen Hintergründe man durchschaut hat. Darüber hinaus müssten die Zeiträume, in denen man (noch) von der Natürlichkeit eines Phänomens ausgehen kann, in jedem Fall hinreichend groß sein, damit sie als sozio-kultureller ‚Puffer‘ überhaupt funktionieren können. Es scheint jedoch eher so, dass die Zeithorizonte schrumpfen, in denen die Unnatürlichkeiten von Gestern zu den Natürlichkeiten von morgen werden. So galt die künstliche Befruchtung in den 1960er Jahren weithin noch als Verstoß gegen die natürliche Ordnung – eine Sichtweise, die sich sogar viele Juristen zu Eigen machten. Wilhelm Geiger, der damalige Senatspräsident des Bundesverfassungsgerichts, plädierte auf dieser Grundlage sogar für ein strafrechtliches Verbot der Technologie (Birnbacher 2006: 187f). Mittlerweile ist die künstliche Befruchtung gängige Praxis, und die Vorbehalte gegen sie wirken kaum mehr plausibel. Auch die Selbstverständlichkeit, mit der Kinder und Jugendliche heute das Internet nutzen, war noch vor einigen Jahren schwer vorstellbar (Medienpädagogischer Forschungsverbund Südwest 2011). Das Schlagwort der ‚Digital Natives‘ verweist darauf, dass der Umgang mit den neuen elektronischen Medien für Jugendliche so natürlich ist, dass sie sich kaum vorstellen können, in einer Welt zu existieren, in der Facebook, SMS und Chats kein essentieller Teil des Lebens sind. Was gestern noch als unnatürlich galt (oder gar nicht existent war), wird heute bereits als natürlich empfunden. In einer Gegenwart, in der Technik selbst ein konstitutiver Teil unserer Ökologie geworden ist (Hörl 2011), scheint die Möglichkeit eines evaluativ und normativ plausiblen und einigermaßen zeitstabilen Naturbegriffs, von dem sich zugleich das Unnatürliche abgrenzen ließe, zunehmend illusorisch. Der Prozess des Umschlagens des Unvertrauten ins Vertraute, des Unnatürlichen ins Natürliche, wird in dieser Gegenwart selbst zunehmend reflektiert. Gerade dann, wenn die Anpassung an vormals unvertraute Technologien innerhalb ein und derselben Generation (ggf. mehrfach) registriert wird, ist ein

64 | S ASCHA D ICKEL

Lernprozess zu erwarten, der darauf hinausläuft, dass man mit dem zukünftigen Umschlag des Unnatürlichen ins Natürliche auch dann schon rechnet, wenn eine Technik gegenwärtig noch unvertraut wirkt. Der Trend, mit der Änderung von Erwartungen bereits im Prozess der Erwartungsbildung rechnen zu müssen, wird in den Geistes- und Sozialwissenschaften gegenwärtig als Zeichen einer sozialen Beschleunigung gedeutet.12 Soziale Beschleunigung lässt sich „als Steigerung der Verfallsraten von handlungsorientierenden Erfahrungen und Erwartungen“ definieren (Rosa 2005: 133). In Anknüpfung an Luhmann weist Hartmut Rosa darauf hin, dass sich soziale Beschleunigung vor allem darin ausdrückt, „dass Vergangenheit und Zukunft […] in immer kürzeren Abständen umgeschrieben werden müssen. Dabei ist es […] weniger der tatsächliche soziale Wandel, der in der modernen Gesellschaft zum Problem wird, als vielmehr die durch fortwährende Revision von Erwartungen und rekonstruierten Erfahrungen erzeugte wachsende Instabilität der Zeithorizonte und Selektionsgrundlagen.“ (Rosa 2005: 134) Das Konzept der Beschleunigung gibt der modernen Erfahrung einer zunehmenden Fragilität lebensweltlich fundierter Routinen eine zeitsoziologische Pointe: Die moderne Gesellschaft ist aus beschleunigungstheoretischer Sicht nicht nur von Kontingenz geprägt, sie unterhöhlt zugleich soziale Beobachtungspositionen, die sich auf sicheren, vermeintlich kontingenzfreien Fundamenten wähnen – und zwar einfach dadurch, dass sie vorführt, dass diese scheinbar sicheren Fundamente in wachsendem Maße schmelzen. Damit die biokonservative Positionierung funktioniert, müssen Natürlichkeitserwartungen immerhin so stabil sein, dass deren Modifikation nicht zugleich miterwartet wird – sonst würden die „Naturfiktionen auf Zeit“ als eben sol-

12 Vgl. mit zahlreichen Belegen und Hinweisen Rosa (2005). Inwiefern soziale Beschleunigung tatsächlich, wie Rosa argumentiert, eine fundamentale Krise für die Gesellschaft insgesamt darstellt, die eigentlich einen radikalen Bruch mit der kapitalistischen Moderne erfordern würde, ist gewiss eine offene Frage. Zur Kritik an Rosas gesellschaftskritischen Wendung der Beschleunigungsthese vgl. grundlegend Nassehi (2008: 11-24). Während Rosa eine Kritik an der Beschleunigung formuliert, die sich außerhalb der beschleunigten Gesellschaft verortet, geht es mir darum, die Bedingungen von Kritik im Kontext eben jener Gesellschaft auszuloten, die Rosa als beschleunigt diagnostiziert.

N ATUR

IN DER

K RISE | 65

che erkennbar und damit unwirksam. Angesichts von Kontingenz und Beschleunigung könnte es demnach zunehmend weniger Sinn machen, „Phänomene nach der Unterscheidung Technik/Natur zu ordnen“, da Technik mit der Zeit selbst „naturalisiert“ wird. „Technik wird wieder zur Natur, zur zweiten Natur, weil kaum jemand versteht, wie sie funktioniert, und weil man dieses Verständnis in der Alltagskommunikation auch nicht mehr voraussetzen kann“ (Luhmann 1997: 522f).13 Selbst disruptive Technologien wie die künstliche Befruchtung oder das Internet erscheinen nur für eine gewisse Zeit als künstliche Fremdkörper bis sie schließend schleichend zur zweiten Natur werden. Jede Technik wird früher oder später selbst zur Lebenswelt, sie wird ein Teil der impliziten Hintergrundüberzeugungen und Gegebenheiten, die nicht weiter problematisiert werden – weil sie uns vertraut geworden sind (Schulz-Schaeffer 2000: 37, 43). Die Monster werden scheinbar gezähmt und verwandeln sich in harmlose Mitgeschöpfe. Tatsächlich geschieht etwas anderes: Die Ausweitung der Zone dessen, was vertraut erscheint. Biokonservative Argumente sind somit nur temporär plausibel, und sofern die Beschleunigungsdiagnose stichhaltig ist, schrumpfen die Zeiträume, in denen die Berufung auf Natürlichkeit im gesellschaftlichen Diskurs funktionieren kann. Beobachtungstheoretisch gewendet: Die Erwartung, dass das Unvertraute vertraut werden kann, die Umkehrung des oben skizzierten reentry im Sinne einer Wiederkehr der Unterscheidung vertraut/unvertraut auf der Seite des Unvertrauten, untergräbt Naturfiktionen – und zwar dadurch, dass diese eben als Fiktionen sichtbar und somit entlarvt werden. Eine zukunftsfähige Alternative für den Biokonservatismus mag dann darin liegen, Natur religiös zu codieren. Der Verweis auf Religion entlastet den Biokonservatismus nämlich sowohl von rationalistischen Begründungszwängen als auch vom sachlichen Nachweis von Natürlichkeit. Das Religionssystem hat sich aus dem Umgang mit dem Unvertrauten entwickelt, und

13 Dass ein Naturbegriff, der Technik ein- und nicht ausschließt, nicht nur ein soziologisches Konstrukt, sondern durchaus Teil der gesellschaftlichen Semantik geworden ist, zeigen die Diskurse um eine „nächste Natur“ (vgl. http:// www.nextnature.net) in Wissenschaft und Kunst, in denen Natur nur noch temporal definiert wird, – als das noch Widerständige und Unverfügbare – unabhängig davon, ob es im klassischen Sinne um „Naturphänomene“ geht oder aber um zur Natur gewordene Technik (van Mensvoort 2006).

66 | S ASCHA D ICKEL

ist seit jeher darauf spezialisiert, mit der unangenehmen Tatsache umzugehen, dass jede lebensweltliche Vertrautheit auf neue Unvertrautheiten verweist (Luhmann 1992a). Religion ermöglicht den Umgang mit dem absolut Unvertrauten, all dem, von dem man nichts sicher wissen kann und das demgemäß ein Mysterium bleiben muss. Wenn nun Natur eine religiös begründete Wertigkeit zugesprochen, und diese Wertigkeit gegen deren (potentielle oder bereits vorliegende) technische Verletzung in Stellung gebracht wird, bedeutet dies nicht weniger, als dass die unvertraute Technik aus der Perspektive einer empirisch unzugänglichen Sphäre des Unvertrauten kritisiert wird, die aber – qua Religion – als Vertrautheit behandelt werden kann. Die Expertise der Religion im Umgang mit solchen und ähnlichen Paradoxien lässt sich kaum absprechen, weshalb die Flucht in die Religion für biokonservative Positionen enorm attraktiv ist. Man kann daher die Prognose wagen, dass biokonservative Kritik nicht einfach verschwinden, sondern sich zunehmend religiös positionieren wird – ihr evolutionärer Erfolg steht und fällt dann mit der Stabilität der religiösen Deutung. Demgegenüber wird nicht-religiöse Technikkritik auf normativ aufgeladene Naturbegriffe zunehmend verzichten müssen. So sich eine Technikkritik auf das Feld rationaler Diskurse begibt, wird sie sich vielmehr darauf zu beschränken haben, die Risiken scheinbar ‚monströser‘ Technologien möglichst rational abzuschätzen, statt diese aufgrund ihrer ‚Widernatürlichkeit‘ zu diskreditieren. Es mag dann weiterhin plausibel sein, Irritationen der Lebenswelt zum Anlass zu nehmen, Technologien überhaupt kritisch zu hinterfragen und auf ihre Risiken hin zu prüfen. Wer solcherart irritiert worden ist, kann dann fragen: Wem nützt eine Technik? Wem schadet sie? Welche Nebenfolgen sind zu erwarten? Genügt unser Wissen, um Gefahren abschätzen zu können? Dass solche und ähnliche Fragen weiterhin – und womöglich immer drängender – verhandelt werden müssen, ist unbestritten. Aus der Irritation alleine aber eine Ablehnung oder gar ein Verbot der entsprechenden Technologien abzuleiten, könnte zunehmend antiquiert erscheinen.

L ITERATUR Agar, Nicholas (2004): Liberal Eugenics. In Defence of Human Enhancement. Malden, MA: Blackwell.

N ATUR

IN DER

K RISE | 67

Bailey, Ronald (2005): Liberation Biology. The Scientific and Moral Case for the Biotech Revolution. Amherst, NY: Prometheus Books. Bette, Karl-Heinrich (1989): Körperspuren. Zur Semantik und Paradoxie moderner Körperlichkeit. Berlin: de Gruyter. Birnbacher, Dieter (2006): Natürlichkeit. Berlin: de Gruyter. Bora, A. (2009): Zukunftsfähigkeit und Innovationsverantwortung. Zum gesellschaftlichen Umgang mit komplexer Temporalität. S. 45-67 in: Hoffmann-Riem, W./Eifert, M. (Hrsg.): Innovationsverantwortung. Berlin: Duncker & Humblot. Buchanan, Allen E./Brock, Dan W./Daniels, Norman/Wikler, Daniel (2000): From Chance to Choice. Genetics and Justice. Cambridge: Cambridge University Press. Carrico, Dale (2007): Michael Sandel’s Contribution to the Burgeoning Bioconservative Canon. Institute for Ethics and Emerging Technologies. Online verfügbar unter: http://ieet.org/index.php/IEET/more/1313 [19.08.2014] Collins, Harry (2010): Tacit and explicit knowledge. Chicago: The University of Chicago Press. Dickel, Sascha (2011): Enhancement-Utopien. Soziologische Analysen zur Konstruktion des Neuen Menschen. Baden-Baden: Nomos. Dickel, Sascha (2014): Paradoxe Natur. Plädoyer für eine postromantische Ökologie. TTN edition 1/2014: 4-10. European group on ethics in science and new technologies (2009): Ethics of synthetic biology. Brüssel (Opinion, 25). Online verfügbar unter: http://ec.europa.eu/european_group_ethics/docs/opinion25_en.pdf [09.03.2012] Fleischer, Torsten/Decker, Michael (2005): Converging Technologies. Verbesserung menschlicher Fähigkeiten durch emergente Techniken. S. 121132 in: Bora, A./Decker, M./Grunwald, M./Renn, O. (Hrsg.): Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung. Berlin: Edition Sigma. Fukuyama, Francis (2004): Das Ende des Menschen. München: Deutscher Taschenbuch-Verlag. Gibson, Daniel G./Glass, John I./Lartigue, Carole/Noskov, Vladimir N./Chuang, Ray-Yuan/Algire, Mikkel A. et al. (2010): Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome. Science 329 (5987): 52-56.

68 | S ASCHA D ICKEL

Gunkel, David J. (1997): Scary Monsters. Hegel and the Nature of the Monstrous. International Studies in Philosophy 29 (2): 23-46. Habermas, Jürgen (2005): Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik? Frankfurt am Main: Suhrkamp. Halfmann, Jost (2003): Technik als Medium. Von der anthropologischen zur soziologischen Grundlegung. S. 133-144 in: Fischer, J./Joas, H. (Hrsg.): Kunst, Macht und Institution. Studien zur philosophischen Anthropologie, soziologischen Theorie und Kultursoziologie der Moderne. Festschrift für Karl-Siegbert Rehberg. Frankfurt am Main/New York: Campus. Harris, John (2007): Enhancing Evolution. The Ethical Case for Making Better People. Princeton, NJ/Woodstock: Princeton University Press. Haraway, Donna (1991): Simians, Cyborgs, and Women. The Reinvention of Nature. New York, NY: Routledge. Hauskeller, Michael (2006): Moral Disgust. Ethical Perspectives 13 (4): 571602. Hölscher, Lucian (1982): Der Begriff der Utopie als historische Kategorie. S. 402-418 in: Voßkamp, W. (Hrsg.): Utopieforschung. Interdisziplinäre Studien zur neuzeitlichen Utopie. 3 Bände. Stuttgart: Metzler. Hörl, Erich (Hrsg.) (2011). Die technologische Bedingung: Beiträge zur Beschreibung der technischen Welt. Berlin: Suhrkamp. Hughes, James (2004): Citizen Cyborg. Why Democratic Societies Must Respond to the Redesigned Human of the Future. Cambridge, MA: Westview Press. Kaminski, Andreas (2010): Technik als Erwartung. Grundzüge einer allgemeinen Technikphilosophie. Bielefeld: transcript. Kass, Leon (1997): The Wisdom of Repugnance. The New Republic 216 (22): 17-26. Kass, Leon (2003): Ageless Bodies, Happy Souls. Biotechnology and the Pursuit of Perfection. The New Atlantis 2003 (1): 9-28. Keil, Geert/Schnädelbach, Herbert (2000): Naturalismus. Philosophische Beiträge. Frankfurt am Main: Suhrkamp. Kramer, Peter D. (1993): Listening to Prozac. New York: Viking. Krohn, Wolfgang (2002): Technik als Lebensform. Von der aristotelischen Praxis zur Technisierung der Lebenswelt. S. 193-210 in: Ingensiep, H.W./Eusterschulte, A. (Hrsg.): Philosophie der natürlichen Mitwelt.

N ATUR

IN DER

K RISE | 69

Grundlagen – Probleme – Perspektiven; Festschrift für Klaus Michael Meyer-Abich. Würzburg: Königshausen und Neumann. Kurzweil, Ray (1999): The Age of Spiritual Machines. When Computers Exceed Human Intelligence. New York: Viking. Kurzweil, Ray (2005): The Singularity is Near. When Humans Transcend Biology. New York: Viking. Lau, Christoph/Keller, Reiner (2001): Zur Politisierung gesellschaftlicher Naturabgrenzungen. S. 82-95 in: Beck, U./Bonß, W. (Hrsg.): Die Modernisierung der Moderne. Frankfurt am Main: Suhrkamp. Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main: Suhrkamp. Luhmann, Niklas (1992a): Funktion der Religion. (3. Auflage) Frankfurt am Main: Suhrkamp. Luhmann, Niklas (1992b): Kontingenz als Eigenwert der modernen Gesellschaft. S. 93-128 in: Ders.: Beobachtungen der Moderne. Opladen: Westdeutscher Verlag. Luhmann, Niklas (1997): Die Gesellschaft der Gesellschaft. Frankfurt am Main: Suhrkamp. Luhmann, Niklas (2000): Die Lebenswelt nach Rücksprache mit Phänomenologen. S. 268-289 in: Preyer, G. (Hrsg.): Protosoziologie im Kontext. „Lebenswelt“ und „System“ in Philosophie und Soziologie. Frankfurt am Main: Humanities Online. McKibben, Bill (2003): Enough. Staying human in an engineered age. New York: Times Books. Medienpädagogischer Forschungsverbund Südwest (2011): JIM-Studie 2011. Jugend, Information, (Multi-) Media. Basisuntersuchung zum Medienumgang 12-19-Jähriger. Online verfügbar unter: http:// www.mpfs.de/fileadmin/JIM-pdf11/JIM2011.pdf [19.08.2014]. Mölders, Marc (2011): Die Äquilibration der kommunikativen Strukturen. Ein theoretisches und empirisches Konzept eines soziologischen Lernbegriffs. Weilerswist: Velbrück. Nassehi, Armin (2008): Die Zeit der Gesellschaft. Auf dem Weg zu einer soziologischen Theorie der Zeit. (2. Auflage) Wiesbaden: VS Verl. für Sozialwiss. National Science and Technology Council (1999): Nanotechnology: Shaping Atom By Atom. Online verfügbar unter: http://www.wtec.org/

70 | S ASCHA D ICKEL

loyla/nano/IWGN.Public.Brochure/IWGN.Nanotechnology.Brochure.pdf [19.08.2014]. Oevermann, Ulrich (2008): „Krise und Routine“ als analytisches Paradigma in den Sozialwissenschaften. Abschiedsvorlesung von Ulrich Oevermann. Online verfügbar unter: http://www.ihsk.de/publikationen/UlrichOevermann_Abschiedsvorlesung_Universitaet-Frankfurt.pdf [19.08.2014]. Parens, Erik/Johnston, Josephine/Moses, Jacob (2009): Ethical Issues in Synthetic Biology. An Overview of the Debates. Woodrow Wilson International Center for Scholars. Online verfügbar unter: http:// www.synbioproject.org/process/assets/files/6334/synbio3.pdf [19.08.2014]. Presidential Commission for the Study of Bioethical Issues (2010): New Directions. The Ethics of Synthetic Biology and Emerging Technologies. Online verfügbar unter: http://bioethics.gov/sites/default/files/ PCSBISynthetic-Biology-Report-12.16.10_0.pdf [19.08.2014]. Preyer, Gerhard (Hrsg.) (2000): Protosoziologie im Kontext. „Lebenswelt“ und „System“ in Philosophie und Soziologie. Frankfurt am Main: Humanities Online. Roco, Mihail C./Bainbridge, William S. (2002): Converging Technologies for Improving Human Performance. Nanotechnology, Biotechnology, Information Technology and Cognitive Science. National Science Foundation, Departement of Commerce. Online verfügbar unter: http://www.wtec.org/ConvergingTechnologies/1/NBIC_report.pdf [19.08.2014]. Rosa, Hartmut (2005): Beschleunigung. Die Veränderung der Zeitstrukturen in der Moderne. Frankfurt am Main: Suhrkamp. Royal Society (2009): Geoengineering the Climate. Science, governance and uncertainty, Online verfügbar unter: http://royalsociety.org/upload-Files/ Royal_Society_Content/policy/publications/2009/8693.pdf [19.08.2014]. Schulz-Schaeffer, Ingo (2000): Sozialtheorie der Technik. Frankfurt am Main/New York: Campus. Toffler, Alvin (1990 [1970]): Future shock. New York: Bantam Books. Turner, Danielle/Sahakian, Barbara (2006): The cognition-enhanced classroom. S. 79-85 in: Miller, P./Wilsdon, J. (Hrsg.): Better Humans? The politics of human enhancement and life Extension. London: Demos.

N ATUR

IN DER

K RISE | 71

Van Mensvoort, Koert (2006): Exploring Next Nature. Nature changes along with us. S. 112-121 in: Seltmann, G./Lippert, W. (Hrsg.): Entry paradise. New worlds of design. Basel/Boston, MA: Birkhäuser. Wehling, Peter (2011): Biopolitik in Zeiten des Enhancements. S. 233-250 in: Dickel, S./Franzen, M./Kehl, C. (Hrsg.): Herausforderung Biomedizin. Gesellschaftliche Deutung und soziale Praxis. Bielefeld: transcript. Wehling, Peter/Viehöver, Willy/Keller, Reiner (2005): Wo endet die Natur, wo beginnt die Gesellschaft? Doping, Genfood, Klimawandel und Lebensbeginn: die Entstehung kosmopolitischer Hybride. Soziale Welt 56 (2+3): 137-158. Wehling, Peter/Viehöver, Willy/Keller, Reiner/Lau, Christoph (2007): Zwischen Biologisierung des Sozialen und neuer Biosozialit. Dynamiken der biopolitischen Grenzüberschreitung. Berliner Journal für Soziologie (4): 547-567.

Zur Funktion des ‚nackten Lebens‘ als Außenseite des Sozialen für die Herstellung eines Akteurmodells für Cyborgs1 Oder: Die kulturelle Leistung einer Naturalisierung sozialer Akteure als Menschen D IEGO C OMPAGNA

E IN AKTEURMODELL FÜR C YBORGS ? Es ist in der Tat aufgrund der biomedizinischen Entwicklungen und all den sonstigen Bemühungen, die unter der Überschrift ‚Lebenswissenschaften‘ kursieren, dringend angeraten zwischen ‚Bios‘ und ‚Zoë‘ zu unterscheiden (Weiß 2009a). Der ‚Mensch‘ ist hinsichtlich seiner Bestimmung und Selbstbeschreibung auf der Grundlage seines spezifischen, ihn charakterisierenden organischen Materials zu einem hochproblematischen Konstrukt bzw. epistemischen Objekt geworden (vgl. Lutterer 2004). Aus der Perspektive einer soziologischen Beschäftigung mit dem Körper, mag dies ‚im Prinzip‘ schon immer der Fall gewesen sein (Gugutzer 2004: 49ff), die Besonderheit und

1

Der Beitrag basiert weitestgehend auf ein Kapitel meiner kürzlich veröffentlichten Dissertation „Postnukleare Handlungstheorie – Ein soziologisches Akteurmodell für Cyborgs“ (Compagna 2015).

74 | D IEGO COMPAGNA

das Neue der gegenwärtigen Situation ist jedoch, dass das, was vordem implizit galt und von einem Beobachter zweiter Ordnung dekonstruiert werden konnte, inzwischen auf der Ebene erster Ordnung faktisch verhandelt wird (vgl. Giddens 1991: 218f). List beschreibt unter der Zwischenüberschrift „Der prekäre Ort des Phänotyps ‚Mensch‘ im Szenario der Gentechnologie“ (2001: 127) die Entwicklung und Wandlung des Bildes vom ‚Menschen‘ im Zuge gentechnischer Forschung, das jedoch über die Laboratorien hinaus in den allgemeinen Orientierungen alltäglich gelebter Muster einen nicht unerheblichen Resonanzboden gefunden hat: „Aufgrund der Verfahrensprämissen der modernen Molekulargenetik ist erforschbares Leben das Herstellbare. Überspitzt gesagt: Erst das Phänomen des ‚Artificial Life‘, auch wenn es vorerst hauptsächlich in Computersimulationen existiert, ist der wissenschaftliche Nachweis dafür, was Leben überhaupt ist. In seinen wissenschaftlich erfaßbaren Aspekten unterscheidet sich Leben nicht von anderen Artefakten der Technikwissenschaft. Der ‚wissenschaftliche Blick‘ ist der des Technikers. Die ‚Wissenschaftlichkeit‘, oder, wie man einmal sagte, die ‚Objektivität‘ wissenschaftlichen Umgangs mit dem Lebendigen, mißt sich am Kriterium der Technizität. Die Essenz auch der Gentechnik ist Technik. Sie sieht den Menschen als potentielles technisches Projekt und Artefakt. Die Eugenik – die traditionelle wie die zeitgenössische Neo-Eugenik – ist auf Gentechnik als Instrument angewiesen. […] Der Mensch der modernen Genetik ist nicht – wie es Dawkins etwas kraß formuliert – die Überlebensmaschine seiner Gene. Er oder sie ist eher jemand, der oder die seinen oder ihren Körper als technisch kontrollierbaren und modellierbaren Apparat betrachtet und zum Zweck der Reparatur oder der Verbesserung den Experten überläßt.“ (List 2001: 133; vgl. Weiß 2009b; Rheinberger/Müller-Wille 2009)

Dieser Verschiebung und verloren gegangenen ‚Selbstverständlichkeit‘ ist es hauptsächlich geschuldet, dass hinsichtlich der Entwicklung eines Akteurmodells, das der Artifizialität des Akteurs in besonderem Maße gerecht werden soll, zwischen Bios und Zoë unterschieden werden sollte. „Bios“ (βίος) meint das spezifische Leben einzelner Wesen, wohingegen „Zoë“ (ζωή) auf die bloße bzw. ‚nackte‘ Tatsache des Lebens hinweist (Agamben 2007: 11). Diese auf Aristoteles zurückgehende und gesellschaftswissenschaftlich ursprünglich von Hannah Arendt thematisierte Unterscheidung (Arendt 2010: 101f, 116) wird vorrangig und verstärkt vor dem Hintergrund dieser Entwicklungen diskutiert (vgl. die Beiträge in Weiß 2009a).

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 75

Agamben stellt fest, dass die in Vergessenheit geratene Unterscheidung zwischen Bios und Zoë, die von Arendt bereits 1958 vorgestellt worden ist, „von den Schwierigkeiten und den Widerständen, die das Denken in diesem Bereich zu gewärtigen hatte“ (2007: 13) zeugt. Diese ‚Widerstände‘ haben es Foucault ermöglicht, Ende der 70er Jahre eine scheinbar ‚originäre‘ Gegenwartsdiagnose zu formulieren, wonach sich der Territorialstaat zu einem Bevölkerungsstaat neu ordnet. Arendt hingegen hat „bereits Ende der fünfziger Jahre […] den Prozeß analysiert, der den homo laborans und mit ihm das biologische Leben zunehmend ins Zentrum der politischen Bühne der Moderne rückt. Sogar die Veränderung und den Niedergang des öffentlichen Raumes hat Hannah Arendt auf diesen Vorrang des natürlichen Lebens vor dem politischen Handeln zurückgeführt.“ (Agamben 2007: 13)

Sie hat damit zumindest im Ansatz die zwei Stoßrichtungen vorweggenommen, die sich im Anschluss an Foucaults Begriffe der ‚Biopolitik‘ und ‚Gouvernementalität‘ entwickelt haben: „[A]uf der einen Seite das Studium der politischen Techniken (wie die Polizeiwissenschaft), mit denen der Staat die Sorge um das natürliche Leben der Individuen übernimmt und in sich integriert; auf der anderen Seite das Studium der Technologien des Selbst, mittels deren sich der Subjektivierungsprozeß vollzieht, der die Individuen dazu bringt, sich an die eigene Identität und zugleich an eine äußere Kontrollmacht zu binden. Es ist offensichtlich, daß diese beiden Linien […] sich an mehreren Punkten verknoten und auf ein gemeinsames Zentrum verweisen. In einer seiner letzten Schriften stellt Foucault fest, daß der moderne westliche Staat in einem bislang unerreichten Maß subjektive Techniken der Individualisierung und objektive Prozeduren der Totalisierung integriert hat; er spricht von einem eigentlichen ‚politischen double bind, das die gleichzeitige Individualisierung und Totalisierung der modernen Machtstrukturen bildet‘ […].“ (Agamben 2007: 15)

Agamben möchte das ‚Zentrum‘, auf das die Verknotungspunkte hinweisen – dem sich Foucault nicht explizit gewidmet hat –, in den Blick nehmen und verweist dabei auf das die Polis (πόλις) charakterisierende Verhältnis zwischen dem ‚nackten Leben‘ und dem ‚guten Leben‘ bei Aristoteles. Seine Argumentation erinnert an Blumenbergs Ausführungen zu Hobbes’ Staatstheorie, wonach der Staat „das erste Artefakt [ist], das nicht die Lebenssphäre

76 | D IEGO COMPAGNA

in Richtung auf eine Kulturwelt anreichert, sondern ihren tödlichen Antagonismus beseitigt.“ (Blumenberg 1981: 114f) Es ist insofern nicht verwunderlich, dass Agamben (2007: 9) seinen Ausführungen eine Passage aus Hobbes „Vom Bürger“ (1994: 79f) als Motto voranstellt. Die Parallelen zu Blumenbergs Hobbes Interpretation treten besonders stark im Vergleich zu Agambens allgemeiner Charakterisierung des ‚nackten Lebens‘ als ausgeschlossenes, konstitutives ‚Gegenstück‘ der Polis bzw., allgemeiner gefasst, des ‚Sozialen‘ in den Vordergrund: „Foucaults Feststellung, der Mensch sei Aristoteles zufolge ‚ein lebendes Tier, das auch einer politischen Existenz fähig ist‘, muß konsequent [in sein Denken und damit darüber hinausgehend] integriert werden, und zwar in dem Sinn, daß gerade die Bedeutung dieses ‚auch‘ problematisch ist. Die eigentümliche Formel ‚Entstanden um des Lebens willen, aber bestehend um des guten Lebens willen‘ kann nicht nur als Einbeziehung der Zeugung […] in das Sein […], sondern auch als eine einschließende Ausschließung […] der zoë aus der polis gelesen werden, beinah als ob die Politik der Ort wäre, an dem sich das Leben in gutes Leben verwandeln muß, und als ob das, was politisiert werden muß, immer schon das nackte Leben wäre. Dem nackten Leben kommt in der abendländischen Politik das einzigartige Privileg zu, das zu sein, auf dessen Ausschließung sich das Gemeinwesen der Menschen gründet.“ (Agamben 2007: 17)

D IE

SCHWIERIGE U NTERSCHEIDUNG VON B IOS UND Z OË : D AS ‚ NACKTE L EBEN ‘ ALS N ULLWERT DER A KTEUR -S OZIALES D IFFERENZ ODER ALS G EGENSTAND IM SOZIALEN R AUM ? Agamben buchstabiert Blumenbergs impressionistisch verbleibende Bemerkungen über Hobbes' Menschenbild aus und bringt diese hinsichtlich der Entwicklung eines (soziologischen) Akteurmodells für Cyborgs in eine argumentativ verhandelbare Spur. Wenn die Polis (als Bürgerstaat und in deren Verlängerung der moderne Territorialstaat) den tödlichen Antagonismus beseitigt bzw. die Unmöglichkeit der Überlebensfähigkeit des ‚Menschen als solchen‘, so schlägt Agamben mit Foucault – und freilich über Hobbes hinausgehend – vor, die Paradoxie der natürlichen Unnatürlichkeit aufzulösen,

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 77

indem die (ausgeschlossene) ‚Natur des Menschen‘ im ‚nackten Leben‘ verortet wird. Das heißt, jenseits der Natur des Menschen, die nach ‚Unnatürlichkeit‘ verlangt, lässt sich ein Rest ausmachen, der positiv bezeichnet werden kann, obwohl er faktisch ex negativo wirkt, nämlich das nackte Leben bzw. die bloße Tatsache des Lebens. Anders als Hobbes wird allerdings die ausgeschlossene Seite weder als eine vorhistorische bzw. -soziale Wirklichkeit noch als eine der Theorie zweckdienliche, utopische Ausgangsfolie verstanden. Der ‚Ort‘, an dem der ‚Mensch‘ seinen Akteurstatus verliert und auf die elementare Tatsache seines organischen Daseins ‚reduziert‘ wird, ist eine notwendige Inszenierung der ‚Außenseite‘ dessen, was sich als Effekt dazu herstellt und stabilisiert: ein geordneter sozialer Raum. Die Aussortierung von nacktem Leben ermöglicht die Einrichtung sozialer Ordnung. Nach Agamben tritt in der Moderne die Zoë in ungleich radikaler Weise in den Kernbereich des Sozialen (ehemals: der Polis), nämlich auf der Ebene der Akteure, ein. Als wesentliches Element für die ‚positive‘ Markierung dessen, was ‚gutes Leben‘ bedeutet bzw. für den Akteur im Unterschied zu einer im außersozialen Raum ‚vegetierenden‘ Entität, hat die bloße Tatsache des Lebens allerdings seit jeher – so zumindest nach Agamben – eine (bzw. vielmehr die) konstitutive Rolle zur Herstellung des Sozialen gespielt. Diese Argumentation lässt sich ohne weiteres mit dem klassischen, strukturalistischen Nullwert (Lévi-Strauss 1978: 39ff) verknüpfen, insofern der ‚Ort‘ des ‚nackten Lebens‘ leer ist und lediglich eine Funktion der Stabilisierung von grundlegenden Signifikanten erfüllt: „Die anthropologische Maschine der Alten funktioniert exakt spiegelverkehrt. Wenn die Maschine der Modernen das Außen mittels Ausschließung eines Innen erzeugt, so wird hier das Innen mittels Einschließung eines Außen hervorgebracht, der Nichtmensch mittels Humanisierung eines Tieres: des Menschenaffen, […] aber auch und vor allem des Sklaven, des Barbaren, des Fremden als Figuren des Animalischen mit menschlichen Formen. Beide Maschinen [die ‚der Alten‘ und der ‚Moderne‘] können nur dadurch funktionieren, daß sie in ihrem Innern eine Zone der Ununterschiedenheit einrichten, in der sich – wie ein missing link, das immer fehlt, weil es virtuell schon da ist – die Verbindung zwischen dem Humanen und dem Animalischen, zwischen Mensch und Nicht-Mensch, Sprechendem und Lebendem ereignen muß. In Wahrheit ist diese Zone wie jeder Ausnahmeraum völlig leer, und das wahrhaft Humane, das sich hier ereignen sollte, ist lediglich der Ort einer ständig erneuerten Entscheidung,

78 | D IEGO COMPAGNA

in der die Zäsuren und ihre Zusammenfügung stets von neuem verortet und verschoben werden. Was auf diese Weise erreicht werden sollte, ist jedenfalls weder ein tierisches noch ein menschliches Leben, sondern bloß ein von sich selbst abgetrenntes und ausgeschlossenes Leben – bloß ein nacktes Leben.“ (Agamben 2005: 47f)

Die Zoë nimmt nach Agamben in der Moderne – so ähnlich wie dies bereits Arendt in den 50er Jahren dargestellt hat – eine Schlüsselrolle ein, hinsichtlich der Konstituierung des ‚Menschen‘ als vergesellschaftetes Wesen, da „die Grenze, die einmal zwischen Individuen oder sozialen Gruppen verlief, nun in die individuellen Körper hineingenommen und gewissermaßen ‚verinnerlicht‘ wird.“ (Lemke 2008: 97) Im Unterschied zu vormodernen Epochen konstituiert sich die Bedeutung dessen, was ‚ein Mensch‘ sei ständig über die Differenz zur bloßen Tatsache des Lebens, und zwar ‚im Inneren eines jeden Akteurs‘. Das im Rahmen vormoderner Sozialität zwar ähnlich konstitutive, aber als ausgeschlossenes, von der ‚Normalität‘ des sozialen Raumes abgetrenntes Element wird das ‚nackte Leben‘ nun fortwährend mitgeführt – die Ausnahme wird folglich zur Regel (vgl. Lemke 2008: 89, 96). Wie Lemke feststellt, bleiben Agambens Deutungen in dieser Hinsicht nebulös; was es genau bedeutet, dass nunmehr das „nackte Leben […] nicht mehr an einem besonderen Ort oder in einer definierten Kategorie eingegrenzt [wird], sondern […] den biopolitischen Körper jedes Lebewesens“ (Agamben 2007: 148) bewohnt, lässt sich vielfältig ausdeuten. Im Gegensatz zu Agamben, der diesen Prozess vornehmlich geisteswissenschaftlich und anhand weniger, besonders markanter (bspw. Konzentrationslager) historischer Ereignisse rekonstruiert, ‚operationalisiert‘ Braidotti (2009) diesen Gedankengang, indem sie versucht die konkreten gesellschaftlichen Ursachen und Auswirkungen für diese ‚Verschiebung‘ ausfindig zu machen. Dem ‚Leben‘ eine epistemische Schlüsselrolle innerhalb der Wissenschaften zuzuweisen, die eine Normalisierungs- und Ermöglichungsfunktion für die Konstitution des modernen Subjektes einnimmt, stellt in der historischen Wissenschaftsforschung kein Novum dar (vgl. bspw. Canguilhem 2001a; 2001b; Plessner 1975: 3; List 2001: 19ff; hinsichtlich einer erkenntnistheoretischen Dimension Borsche 1997: 263). Braidotti weist allerdings dem ‚Leben‘ auf der Grundlage einer durch die Unterscheidung zwischen Bios und Zoë ermöglichten Rhetorik einen eindeutigen Platz hinsichtlich der Herstellung gesellschaftlicher Wirklichkeit zu. Diesen richtet sie hauptsächlich an Herrschafts- und Machtstrukturen aus und schießt dabei deutlich über

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 79

das Ziel hinaus, da sie das ‚Subjekt‘ als sozialrelevante Form unbeachtet lässt bzw. als ‚überholt‘ und für eine kritische Auseinandersetzung mit sozialer Wirklichkeit als schlicht unzeitgemäß betrachtet. Die zunehmende Bedeutung des ‚Lebens‘ verortet sie im Wesentlichen als Folge biomedizinischer und technikwissenschaftlicher ‚Fortschritte‘, die sie als die maßgeblichen Faktoren dieser Entwicklungen wahrnimmt. Zugleich koppelt sie ihre Beschreibungen an eine radikale Kritik ökonomischer Verhältnisse globalen Maßstabs, denen hier nur in Ansätzen nachgegangen werden soll. Ähnliche Tendenzen (und teilweise auch Beispiele), wenngleich etwas vorsichtiger formuliert, lassen sich allerdings auch bei Agamben finden: „Angesichts dieser extremsten Figur des Humanen und des Inhumanen geht es nicht so sehr um die Frage, welche der beide Maschinen (oder der beiden Varianten derselben Maschine) die bessere oder wirksamere sei – oder eher die weniger blutige und todbringende –, als vielmehr darum, ihre Funktionsweise zu begreifen, um sie gegebenenfalls zum Stillstand zu bringen.“ (Agamben 2005: 48)

Die von Agamben als ‚Maschine‘ bezeichnete Funktionsweise moderner Subjektivitätskonstitution sollte allerdings nicht zum Stillstand gebracht werden, sondern vielmehr verwendet bzw. zunutze gemacht werden für die Formulierung eines Akteurmodells, das auf hybride Entitäten, die als Cyborg beschrieben werden können, bezogen werden kann. Die Gegenwartsdiagnosen von Agamben, Braidotti und Arendt sollen insofern hauptsächlich genutzt werden, um geistesgeschichtliches und gesellschaftsdiagnostisches ‚Anschauungsmaterial‘ für ein Akteurmodell bereitzustellen, das auf der Differenz von Zoë und Bios beruht, wobei der Bios auf das Subjekt bzw. den Akteur verweist. Es geht hier also nicht darum, ihren Darstellungen im Einzelnen das Wort zu reden oder einzelne, an ihren Theorien angebrachte Kritikpunkte auszuwerten (vgl. Lemke 2008: 93), als vielmehr das Element des ‚Lebens‘, das in dem hier vorgeschlagenen Akteurmodell für Cyborgs eine zentrale Rolle spielt, zu spezifizieren und Hinweise zu sammeln, wieso es Sinn machen könnte, dem ‚Leben‘ im Rahmen eines zeitgemäßen Akteurmodells Rechnung zu tragen. Braidottis Ausführungen werden von der These getragen, dass das „biozentrische Modell des technologisch vermittelten Subjektes der Postmoderne bzw. des Spätkapitalismus […] voll von inneren Widersprüchen“ ist und es

80 | D IEGO COMPAGNA

die Aufgabe der „Critical Theory“ sei, über „diese Buch zu führen“ (Braidotti 2009: 130). Ihr ‚Programm‘ und wesentliche gesellschaftliche Entwicklungen, die es rechtfertigen, beschreibt sie so: „Unter genetischem Biokapitalismus verstehe ich nicht so sehr ein fest umrissenes Konzept als vielmehr ein Netz vielschichtiger, heftig umstrittener Diskurse und sozialer Praktiken, die auf die Regulierung des Lebens und der lebenden Materie abzielen. Bei der gegenwärtigen biopolitischen Wende hin zu einer posthumanen Politik des ‚Lebens‘, verstanden als ‚Bios‘ und ‚Zoë‘, der ich mich im Folgenden zuwenden möchte, spielen vor allem die Genetik und die Biotechnologie in Verbindung mit diversen Informationstechnologien eine zentrale Rolle. Die wachsende gegenseitige Abhängigkeit von Lebewesen und Technologien schafft eine neuartige symbiotische Beziehung zwischen Leben und Technik, die sowohl die humanistische Vorstellung vom Menschen als dem Maß aller Dinge als auch die anthropozentrische Hybris ersetzt, der zufolge das ‚Humanum‘ das Zentrum aller diskursiven und sozialen Praktiken darstellt. Die radikale Kritik am Anthropozentrismus deckt ein Gewirr materieller, biokultureller und symbolischer Kräfte auf, die der Entstehung der modernen Subjektivität und den gegenwärtigen sozialen Praktiken zugrunde liegen. Dieses Gewirr unterschiedlicher ineinander verwobener Kräfte ist es, was ich als ‚Zoë‘ oder als nichtmenschliches Leben bezeichne.“ (Braidotti 2009: 108)

Sie veranschaulicht den ‚genetischen Biokapitalismus‘ anhand verschiedener Beispiele, die obwohl sie plausibel genug erscheinen, um zu rechtfertigen, dass es angemessen erscheint, sich der Differenz von Bios und Zoë verstärkt zu widmen, trotzdem bei Weitem nicht ausreichen, um von einem ‚Paradigmenwechsel‘ sprechen zu können. Diese Feststellung, die ohne Sarkasmus unter Umständen auch als Attitüde umschrieben werden könnte, gehört zum Kanon der Wissenschafts- und Technikforscher, die sich im weitesten Sinne der ‚kritischen Theorie‘ verpflichtet sehen und im Fahrwasser von Nicholas Rose arbeiten (maßgeblich hierbei ist: Rose 2001). Soziologisch nüchtern betrachtet, kann es sich bei ihren Thesen nur um eine Form von Ignoranz oder Selbststilisierung handeln: Es liegt auf der Hand, dass sozialstrukturelle Merkmale, wie ethnische Herkunft, soziale Herkunft, Geschlecht etc. sich weder aufgelöst haben noch es Anzeichen dafür gibt, dass ihre Sozialrelevanz deutlich abnehmen würde. Stattdessen lässt sich gerade im Zusammenhang solcher Entwicklungen das Einflechten in bestehende, Ungleichheit erzeugende Muster und Praxen konstatieren (vgl. bspw. Lemke

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 81

2010; Lemke/Wehling 2009; Wehling 2008). Nichtsdestotrotz gilt es diesem ‚Diskurs‘ Aufmerksamkeit zu schenken, denn die beobachteten und thematisierten Transformationsprozesse lassen sich – zumindest der Tendenz nach – nur unschwer leugnen. Im Rahmen einer kritisch motivierten Beobachtung von Gegenwartsgesellschaften (hier müsste selbstredend auch weiter spezifiziert werden, von welchen ‚Gesellschaften‘ die Rede ist), sollte es stattdessen darum gehen, mit dem ‚Leben‘ (Zoë) verknüpfte Praxen und diskursive Darstellungsweisen von Subjektivität (als Bios) in Strukturierungsmodelle zu integrieren. Um es mit Foucault zu versuchen: Die Episteme ‚Mensch‘ ist noch nicht wie ein Gesicht im Sand, das von einer Welle umspült wird, verschwunden (Foucault 1995: 462). In einigen Hinsichten verändert hat sich allerdings die Art und Weise, wie dieses Gesicht vor der wiederkehrenden Flut ‚geschützt‘ wird. Hierbei lässt sich durchaus eine Verschiebung konstatieren, die es angeraten erscheinen lässt, sich der Bios vs. Zoë-Thematik zu widmen. Es gibt allerdings aus einer soziologischen Perspektive genug ‚gegenstandsbezogene‘ Hinweise, die es angebracht erscheinen lassen, von einer Entität (Akteur) und dem Verhältnis zu seiner Umwelt (Soziales) auszugehen (vgl. in diesem Zusammenhang die alles andere als überraschenden – aber vermutlich umso dringlicher zu konstatierenden – Befunde von Thompson 2009). Insofern dieses Verhältnis als ein interdependentes gedacht wird, erscheint es also weiterhin angebracht zu fragen, inwiefern der Akteur als Entität sich konstituiert, indem er als eine Seite der Gleichung diese derart reflektiert, dass veränderte, wirklichkeitskonstituierende Prozesse sich in ihm widerspiegeln. Anders ausgedrückt: Wenn Agentensysteme als ‚mithandelnd‘ in Erscheinung treten und biomedizinische Erkenntnisse sowie medizinische Eingriffe das organische Material, aus dem Menschen bestehen, manipulierbar und damit beliebig werden lassen, familienpolitische und epidemiologische Maßnahmen die Reproduktion (des Lebens) und den Bestand (des humanen Materials) betreffen, welche Auswirkungen hat das auf die Konstitution von Subjektivität? Und zwar von Subjektivität als einem Modus der (immer noch) wirksamen Inverhältnissetzung von Entitäten (Akteuren) zu ihrer Umwelt. Auch Braidotti schießt allerdings über das Ziel hinaus und sieht bereits die Auflösung basaler sozialstruktureller Wirkmechanismen in greifbare Nähe rücken:

82 | D IEGO COMPAGNA

„Mehr als den Bios, d. h. den politischen Diskurs über das Leben, schätze ich die Zoë, das vitalistische, prehumane und generative Leben. Ich vertrete die These, dass das Aufkommen der Zoë, wie es sich gegenwärtig vor unseren Augen abspielt, einen Paradigmenwechsel in der Biopolitik im Allgemeinen und in der Politik der Differenz im Besonderen erforderlich macht. […] Im Folgenden will ich versuchen, diese These näher zu erläutern. Das Aufkommen einer Politik des Lebens bzw. einer Politik des ‚Lebens selbst‘ untergräbt die Relation zwischen dem Selben und dem Anderen, die freilich bereits in der Postmoderne brüchig geworden war. Die daraus resultierende neue Beziehung zur Frau, zum Eingeborenen, zur Natur (hier Platzhalter einseitig sexualistischer, rassistischer und naturalistischer Sichtweisen) untergräbt die Macht des Einen und damit die Praxis der Wiederholung des Selben. Das ganze Interaktionsgefüge wird durch das Auftauchen der Zoë neu organisiert, so dass nun das ‚Andere‘ des Menschen, Letzterer verstanden als anthropozentrische Vision des leiblich verkörperten Subjekts, zum Thema wird. Das ist das andere Gesicht des Bios, d. h. die Zoë, verstanden als das generative Leben des nicht/oder prehumanen bzw. animalischen Lebens. Diese prehumane Kraft stimmt in überraschender Weise mit zahlreichen Aspekten der nichtmenschlichen Möglichkeiten gegenwärtiger Technologien überein. Denn die nichtmenschliche Kraft des Lebens und die moderne Technologie konvergieren in der Produktion von Diskursen, die das ‚Leben‘ zum Subjekt und nicht mehr nur zum Objekt sozialer und diskursiver Praktiken machen.“ (Braidotti 2009: 113)

Einige Seiten weiter wird schließlich die Zoë als ‚posthumane Kraft‘ dargestellt, die im Begriff ist, alle bisherigen zentralen Differenzen auszuradieren: „Das Leben, das uns bewohnt, ist nicht unseres: wir haben es lediglich eine Weile geliehen bekommen. Das Leben ist halb tierisch, Zoë (Zoologie, Zoophilie, Zoo), und halb diskursiv, Bios (Biologie). Während die Philosophie immer die klassische Unterscheidung hochgehalten hat, die den Bios privilegierte, fordert die gegenwärtige kritische Theorie eine ernsthafte Neufassung dieser Beziehung. Die Zoë ist nicht länger die schwächere Hälfte eines Paares, bei dem der Bios, verstanden als vernünftiges, diskursives Leben, im Vordergrund steht. Der falsche Humanismus jahrhundertelanger christlicher Indoktrinierung über die Zentralität des ‚Menschen‘ verfängt nicht mehr. Der Geist-Körper-Dualismus, dem historisch die Funktion zukam, über die Komplexität der Verhältnisse hinwegzutäuschen, hat an Überzeugungskraft verloren. Die Zoë, verstanden als posthumane Kraft, steht heute im Mittelpunkt. Sie umfasst alle Tiere und anderen Erdbewohner. Früher nannte man das ‚Natur‘ und konstruierte

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 83

es als das konstitutiv Äußere zur menschlichen Polis. Heute aber markiert die Zoë nicht mehr das dem Subjekt Äußere.“ (Braidotti 2009: 125f; vgl. Rose 2001: 21)

Anders als Braidotti, die die Zoë als Quasi-Gegenstand thematisiert sehen möchte, verwendet Agamben die Zoë (zumindest im Rahmen einer theoretischen Darstellung seines Ansatzes) als Chiffre für eine Leerstelle, die dem klassischen Nullwertkonzept im Allgemeinen entspricht. Genauso wie LéviStrauss (1978) im Gegenstand die Notwendigkeit eines Nullwertes im ‚Mana‘ identifiziert, schlägt Agamben (2007) für die Konstituierung des Sozialen die Zoë vor. Das Element bleibt per se unbestimmt, es definiert sich immer nur ex negativo als Opposition zum Sozialen. Die positive Markierung des eingeschlossenen Akteurs wird hergestellt über den drohenden Verlust dieses Status, der sich in der Manifestation einer Rückführung auf den Zustand einer ‚nur noch mit Leben ausgestatteten Entität‘ historisch in den unterschiedlichsten Varianten materialisiert. Dieser Zustand bzw. eine solche Situation findet natürlich weder im Rahmen eines rein imaginierten oder gar ‚vorsozialen‘ Ort statt. „Das ‚nackte Leben‘ verweist daher nicht auf eine ursprüngliche oder überhistorische Blöße, sondern stellt eine zugleich nachträgliche wie verhüllende Nacktheit dar, die künstlich hergestellt wird und die gesellschaftlichen Markierungen und Symbolisierungen verdeckt. Die Differenz zwischen nacktem Leben und rechtlicher Existenz ist also ebenso eine politische Strategie wie der Unterscheidung zwischen Norm und Ausnahme eine normative Entscheidung vorausgeht […].“ (Lemke 2008: 91)

Genauso wie das Subjekt ein Produkt der Neuzeit darstellt, ist auch die Zoë selbstredend kein Element aus dem soziologischen Nirwana (dies anzunehmen, würde einer vormodernen, beobachter_innenunabhängigen Position gleichkommen). Der wesentliche Unterschied zum Subjekt ist einerseits, dass dem Element der ‚Zoë‘ eine deutlich allgemeinere Bedeutung innerhalb der Signifikantenstruktur beigemessen werden kann und andererseits, dass sich unter Umständen im Gegenstand Tendenzen abzeichnen, die es zudem in besonderer Weise angemessen erscheinen lassen, dieses Element als bevorzugten, ‚neuen‘ Nullwert anzunehmen.

84 | D IEGO COMPAGNA

L EBEN ALS N ULLWERT : Z U EINER SOZIOLOGISCHEN E INORDNUNG DER U NTERSCHEIDUNG VON B IOS UND Z OË Das nackte Leben (die Zoë) als Nullpunkt eignet sich besonders gut, um die innerhalb der gegenstandsbezogenen Differenz von Akteur und Sozialem wirkenden Mechanismen in den Blick zu nehmen, die zur Herstellung des ‚Subjektes‘ als eine spezifische Form des modernen Akteurs führen. Agambens Darstellungen der angezeigten Differenz von Bios und Zoë hinsichtlich ihrer für die Moderne ‚neuen‘ bzw. veränderten Bedeutsamkeit (wenngleich im Prinzip hinsichtlich ihrer konstitutiven Bedeutung für das Soziale nicht zugenommenen Tragweite) gehen nicht deutlich umsichtiger mit dem Stellenwert der Zoë um als viele unmittelbar auf die Lebenswissenschaften rekurrierenden Ansätzen. Aufgrund der Herleitung dieses Elementes aus der frühen Entstehungsgeschichte abendländischer Rechtsprechung und nicht zuletzt einer schwammigen Diagnose bezüglich aktueller Tendenzen sind die Spielräume einer daran anknüpfenden Entfaltung des Begriffes allerdings deutlich größer – und ebenso dessen Kritikwürdigkeit (vgl. Lemke 2008: 107ff). Anstatt von einer Reifikation des Elementes auszugehen, so wie Braidotti, Rose und andere es nahe legen, bei denen die Zoë ein positiv identifizierbares Element im Gegenstand darstellt, oder der Darstellung als eine – wie es Lemke (2008: 105) in kritischer Absicht fasst – ontologische Kategorie der Biopolitik bei Agamben, wird hier in der Zoë (im Gegensatz zum Bios) lediglich eine Chiffre gesehen. Denn das unbestimmte Leben kann immer auch nur ein unbezeichenbares Leben bleiben, das höchstens ex negativo gedacht, aber nicht positiv bestimmt werden kann. Schließlich entfernt sich folglich die hier vorgeschlagene Verwendung des Begriffes auch von Agamben. Worauf es hier aber ankommt, ist die Tatsache, dass eine Argumentationslinie entwickelt werden kann, die von Aristoteles über Hobbes in die Gegenwart reicht und die mit dieser Differenz soziale Phänomene zu beschreiben sucht. Zudem lassen es das Vorhandensein konkreter, empirischer Anzeichen angebracht erscheinen, diese Differenz stärker in den Blick zu nehmen. Allerdings, und das ist die Krux bei der Verwendung dieses Begriffes, zeigt sich gerade in der einerseits historisch zu verortenden Bedeutung, die das ‚Leben‘ als den ‚Menschen‘ auszeichnendes Element ausweist, und den

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 85

aktuellen Verwendungsweisen im Zusammenhang mit den Themenfeldern der Biopolitik und Gouvernementalität, dass eine Präzisierung erfolgen muss (vgl. Lemke 2008: 105f). Lemke macht darauf aufmerksam, dass das ‚Leben‘ in der von Agamben auf die Biopolitik bezogenen Verwendungsweise unterschieden werden muss von der Bedeutung, die es in der Antike hatte. Zugleich möchte Agamben gerade in der Kontinuität (deshalb wirft ihm Lemke eine ontologisierende ‚Übertreibung‘ vor) der konstitutiven Bedeutung des Elementes für den Aufbau (im weitesten Sinne) ‚sozialer Ordnung‘ die Tragweite einerseits des Elementes sowie andererseits der gegenwärtigen gesellschaftlichen Lage herausarbeiten. Agamben stellt hierzu also fest, dass die Differenz im und vom ‚Einzelnen‘ ausgetragen wird bzw., sehr grob ausgedrückt, die durch die Ausgrenzung hergestellte Sicherheit des Einschlusses – angeblich – keine dem Akteur äußerliche mehr ist. Die wichtige Kritik gegenüber Agamben hinsichtlich der Nivellierung des ‚Lebens‘ als historisch nicht kontingenter Größe, die stattdessen, im Sinne einer biopolitischen Deutung, unauflöslich und konstitutiv mit der Herstellung einer bestimmten sozialen Wirklichkeit verbunden ist, kommt im folgenden Zitat von Lemke sehr deutlich zum Vorschein: „Agambens Versuch einer expliziten Korrektur Foucaults (vgl. [Agamben 2007: 19]) gibt dessen zentrale Einsicht preis, dass Biopolitik ein historisches Phänomen darstellt, das nicht von der Herausbildung des modernen Staates, der Entstehung der Humanwissenschaften und der Durchsetzung kapitalistischer Produktionsverhältnisse zu trennen ist. Ohne diese notwendige historisch-gesellschaftliche Situierung des biopolitischen Projekts wird das ‚nackte Leben‘ zu einem Abstraktum, dessen komplexe Entstehungsbedingungen ebenso unklar bleiben müssen wie seine politischen Implikationen. […] Agamben neigt dazu, die historische Differenz zwischen Antike und Gegenwart, Mittelalter und Moderne zu verwischen. Er blendet nicht nur die Frage aus, was Biopolitik mit der Produktion ‚lebendiger Arbeit‘ und einer politischen Ökonomie des Lebens zu tun hat, sondern unterschlägt auch die Bedeutung der Geschlechterdimension für seine Problemstellung. Er untersucht nicht, inwieweit die Produktion ‚nackten Lebens‘ auch ein patriarchales Projekt ist, das durch die strikte und dichotomische Aufteilung von Natur und Politik die Geschlechterdifferenz festschreibt.“ (Lemke 2008: 107)

Agamben weitet also einerseits eine moderne Wahrnehmung der Konstitutionslogik von sozialer Wirklichkeit auf die gesamte Ideengeschichte des

86 | D IEGO COMPAGNA

Abendlandes aus und übertreibt andererseits hinsichtlich der zeitgenössischen Diagnose. Wenngleich Lemkes Vorwurf, Agamben würde durch ein ‚modernes‘ Verständnis vom ‚Leben‘ im Zusammenhang mit typisch modernen oder zumindest neuzeitlichen Aspekten der Biopolitik die Relevanz dieses Elementes und bestimmter Praktiken in vormodernen Epochen nicht gerecht werden, liegt zugleich hierin der Hauptgrund für die Möglichkeit einer konsequenten Rückbindung des Elementes an soziale Praxis im Allgemeinen. Nichtsdestotrotz kann Agamben also eine doppelte Übertreibung vorgeworfen werden: die Ausweitung eines biopolitischen Verständnisses vom ‚Leben‘ auf die gesamte Entwicklung politischer (sozialer) Praxis des Abendlandes und eine übertriebene Deutung des Stellenwertes des Lebens (als Zoë) für den aktuellen Aufbau sozialer Wirklichkeit. Für das hier zu entwickelnde Akteurmodell für Cyborgs ist Agambens Rekonstruktion dennoch äußerst wertvoll; allerdings müssen hierfür zunächst diese strittigen Punkte ausgeräumt bzw. entsprechend einer hier vorgeschlagenen Lesart nachjustiert werden. Als heuristischer Exkurs eignet sich Agambens Verweis auf die konstitutive Bedeutung des Lebens für den Aufbau und die Stabilisierung sozialer Wirklichkeit durchaus. Ein zweiter, damit zusammenhängender Aspekt ist zwar auch instruktiv, hier muss allerdings deutlicher nachgebessert werden. Hinsichtlich seiner, wie dargelegt worden ist, ‚illegitimen‘, weil ‚ahistorischen‘ Ausweitung des Elementes der Zoë werden von Agamben in gewisser Weise zwei Formen der politischen Praxis (bzw. sozialen Ordnung) gegenübergestellt. In beiden kommt dem ‚nackten Leben‘ die Bedeutung zu, als das konstitutiv ‚Andere‘ des Sozialen das Diesseitige einzugrenzen und damit zu stabilisieren. Seine Gegenwartsdiagnose sieht die Wirkungsweise dieser Gegenüberstellung im Individuum ‚eingelagert‘. Hier wird – ähnlich der weiter oben vorgenommenen Kritik an Braidotti – dieser Deutung jedoch im Einzelnen nicht entsprochen. Lediglich die Grundfigur einer verstärkt auf der Ebene des Akteurs zu verortenden Austragung und Wirkungsentfaltung der Differenz zwischen Ein- und Ausschluss wird übernommen, sozialtheoretisch allerdings nahezu vollständig um- bzw. überschrieben. Zusammenfassend kann zunächst festgehalten werden, dass Agamben den Ort einer konstitutiven Opposition des Sozialen wesentlich gekennzeichnet sieht durch die Abwesenheit jeglicher positiven, den Akteur auszeichnenden Merkmale hinsichtlich seiner Einflussnahme und Wirksamkeit im so-

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 87

zialen Raum. Die Abwesenheit jeglicher Akteurmerkmale weisen diese Entitäten lediglich als Träger von Leben aus bzw. sie zeichnen sich lediglich dadurch aus, dass sie ‚lebendig‘ sind. Als Charakteristikum der Moderne sieht Agamben eine Verschiebung dieses Mechanismus′ der Abgrenzung und Herstellung eines sozialen Raumes durch die Opposition zu topografierbaren Räumen der Abwesenheit von Akteuren (also der Anwesenheit von Entitäten, die sich lediglich durch die bloße Tatsache des ‚Lebens‘ auszeichnen) ins ‚Innere‘ eines jeden einzelnen Akteurs.

S UBJEKTIVIERUNG , G OUVERNEMENTALITÄT UND B IOPOLITIK : D IE E INORDNUNG DER B IOS VS . Z OË -D IFFERENZ IN DEN AUFBAU SOZIALER W IRKLICHKEIT UND O RDNUNG Entsprechend der in den nächsten Abschnitten vorgenommenen Anbindung des zu entwickelnden Akteurmodells an Gesa Lindemanns Theorem einer „Emergenzfunktion des Dritten“ wird vielmehr davon ausgegangen, dass die Zunahme körperbezogener Praxen der Sicherstellung der Akteurposition als Subjekt geschuldet ist. Die Grundfiguration der im Rahmen von Biopolitik und Gouvernementalität – insbesondere bezüglich Agambens Rekonstruktion – dargestellten Relevanz des Elementes ‚Leben‘ lässt sich dennoch sehr gut übertragen, so dass sich das Modell im Ergebnis für eine Vielzahl von Fragstellungen und Perspektiven nutzen lässt. Für die Bildung eines soziologischen Akteurmodells kann die hier angerissene, prominente Thematisierung der Differenz von Bios und Zoë lediglich instruktiv sein sowie einige Hinweise dazu liefern, dass gegenstandseitig Verschiebungen zu konstatieren sind, die diese Differenz auf den Plan rufen. Im Einzelnen sind allerdings (worauf weiter oben kursorisch hingewiesen worden ist) die Deutungen größtenteils überzogen bzw. soziologisch unaufgeklärt, wobei einerseits soziale Wirklichkeit verharmlost wird, um sie andererseits einseitig zu radikalisieren. Die weiter oben gegen Braidotti gerichtete Kritik trifft im Kern auch auf Agamben zu, da er die äußerst wirksamen Mechanismen einer hierarchischen Ein- und Ausschlussgestaltung, die aktuelle soziale Räume nicht minder strukturieren, konsequent ausblendet.

88 | D IEGO COMPAGNA

„Agambens Beispiele sind neben den Insassen nationalsozialistischer Vernichtungslager, Staatenlose, Flüchtlinge und Komapatienten (man mag aus aktuellem Anlass embryonale Stammzellen und die gefangenen Taliban und Al Qaida-Kämpfer hinzufügen, die im US-amerikanischen Stützpunkt in Guantanamo auf Kuba interniert sind). Diesen scheinbar völlig unzusammenhängenden ‚Fällen‘ ist eines gemeinsam: Obgleich es sich um menschliches Leben handelt, sind die Betroffenen vom Schutz des Gesetzes ausgeschlossen. Sie bleiben entweder auf humanitäre Hilfe angewiesen, ohne einen rechtlichen Anspruch darauf geltend machen zu können oder werden aufgrund wissenschaftlicher Deutungsmacht auf den Status einer ‚Biomasse‘ reduziert. […] Agamben beschränkt sich darauf zu konstatieren, dass alle ausnahmslos von der Reduktion auf den Status ‚nackten Lebens‘ betroffen seien – ohne den Mechanismus der Differenzierung auszuweisen, der zwischen verschiedenen ‚Lebenswertigkeiten‘ unterscheidet und innerhalb der scheinbar egalitären Betroffenheit wiederum Spaltungslinien einführt. Er sieht nicht, dass die Überzeugungskraft seiner These vom ‚Lager als biopolitisches Paradigma der Moderne‘ nicht zuletzt von dem Vermögen zur Unterscheidung abhängt. Daher bleibt unklar, was genau die Komatösen auf den Intensivstationen mit den Insassen von Vernichtungslagern gemeinsam haben; ob die Häftlinge in den Abschiebegefängnissen in dem gleichen Maße ‚nacktes Leben‘ sind wie die Gefangenen der nationalsozialistischen Konzentrationslager […].“ (Lemke 2008: 92, 98)

So lassen sich auch in den befristeten Aufenthaltsduldungen und eingeschränkten Freiräumen, die Asylanten gewährt werden, bis hin zu ethnischen Merkmalen, die ungeachtet der Staatsangehörigkeit zu einer handlungswirksamen Ein- und Zuordnung führen und die faktische Auswirkungen bezüglich eines ungleichen Zugangs zu Ressourcen bedeuten, im Gegenstand wirksame Mechanismen identifizieren, die diesseits des ‚nackten Lebens‘ feingliedrige Schichtungen der Ungleichheit (wieder) herstellen (vgl. hinsichtlich Bildungschancen in Deutschland: Gomolla/Radtke 2009; Müller/Stanat 2006; Segeritz et al. 2010). Genuin soziologisch betrachtet ist der Verweis auf Luhmanns (damals überraschende) Berücksichtigung der Bewohner der Favela an dieser Stelle äußerst wertvoll; diese Bevölkerungsgruppe bildet ein besonders markantes Beispiel für den gegenwärtig hochaktuellen und ‚immer noch‘ wirksamen Mechanismus hinsichtlich der Zu- und Absprache eines vollwertigen Akteurstatus (vgl. Luhmann 2008: 226). Der Unterschied

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 89

zwischen dem Totalausschluss bzw. der totalen Aberkennung des Akteurstatus durch die Rückführung des (nicht mehr) Akteurs auf sein organisches Substrat als dessen einziges definitorisches Merkmal, und der Situation von Asylanten oder gar Kindern mit Migrationshintergrund, die im Vergleich zum Nachwuchs der ‚autochthonen‘ Bevölkerung ungleich schlechtere Zugangschancen zu höheren Bildungsabschlüssen haben, ist natürlich sehr groß wenn nicht gar immens. Dennoch wird hier die These vertreten, dass diese Phänomene auf den gleichen Mechanismus – freilich deutlich schwächer ausgeprägt – zurückgeführt werden können. In den angezeigten Abstufungen stehen am Ende der drohende Verlust jeder Teilhabe, der Verlust des Akteurstatus und der Rückfall auf die Ebene eines rein vegetativen Daseins. Genauso wie bspw. die ‚Besserstellung‘ der Kinder autochthoner Personen nichts weiter darstellt, als ein stabilisierender Effekt der Zugehörigkeit und ‚Garantie auf Akteurstatus‘ aufgrund der Markierung derer, die ‚fremd‘ sind und die, entsprechend der hier vorgeschlagenen Deutung, dem Totalausschluss, also der Rückführung auf ein rein ‚vegetatives Dasein‘ zumindest relativ näher stehen. Worauf es allerdings (soziologisch unbedingt) ankommt, ist die Rückführung solcher Wirkmechanismen auf allgemein-gesellschaftliche und demnach auch beobachtbare Strukturen der (Re-)Produktion sozialer Ordnung. Weiter unten wird auf die Verbindung einer Zunahme körperbezogener Praxen mit den Prozessen, die als ‚Subjektivierung‘ und ‚Individualisierung‘ bezeichnet werden, eingegangen. Hierin eine Dynamik zu vermuten, die einerseits auf körperbezogenen Praxen zurückgeführt werden kann, sowie aktuell eine Zunahme solcher Praxen zu konstatieren, kann mit Agambens Grundüberlegungen verbunden werden. Die Art und Weise der Verschränkung unterscheidet sich allerdings nicht von derjenigen, die in Agambens Argumentationsschema als vormoderne Konstruktion sozialer Ordnung dargestellt wird. Der Akteur stellt sich als Subjekt her, um Akteurstatus zu erlangen bzw. diesen beizubehalten, indem er sich weitestgehend von dem, was an ihm Zoë ist, distanziert. Die Zoë bleibt jedoch als Element – bis auf wenige manifeste Ausnahmen – eine Leerstelle. Anders als in Agambens historischen Beispielen oder in Lindemanns bewusstem Aufsuchen von Grenzzonen des Sozialen, die weiter unten bezüglich des Status von Komapatienten thematisiert werden sollen, bleibt die bloße Tatsache des Lebens innerhalb sozialer Wirklichkeit eine Leerstelle, worauf im Prinzip auch Agamben hinweist (2005: 47f). Die Zoë lässt sich als ein Nullwert beschreiben, der

90 | D IEGO COMPAGNA

sich in besonderer Weise dazu eignet, um die gegenwärtige Verfasstheit sozialer Wirklichkeit zu beschreiben, und wäre demnach für die Moderne das, was den Polynesiern das Mana war (vgl. Lévi-Strauss 1978: 34).

D AS S UBJEKT ALS ‚ RELATIVES ‘ A PRIORI DES S OZIALEN : V ON G ARFINKELS AGNES -S TUDIE ZU L INDEMANNS E MERGENZFUNKTION DES D RITTEN Die in den letzten Abschnitten eingeschlagene Thematisierung einer im Gegenstand sich faktisch abzeichnenden Verschiebung von Subjektivität als Bios, dem die Zoë als Nullwert zugrunde liegt, soll weiter nachgegangen werden. Arendts Wiedergabe von Aristoteles Begriffsbestimmung bringt dieses Verhältnis zum Ausdruck: „Das Hauptmerkmal des menschlichen Lebens, dessen Erscheinen und Verschwinden weltliche Ereignisse sind, besteht darin, dass es selbst aus Ereignissen sich gleichsam zusammensetzt, die am Ende als eine Geschichte erzählt werden können, die Lebensgeschichte, die jedem menschlichen Leben zukommt und die, wenn sie aufgezeichnet, also in eine Biographie verdinglicht wird, als ein Weltding weiter bestehen kann. Von diesem Leben, von dem βίος [Bios] zum Unterschied von ζωή [Zoë], hat Aristoteles gemeint, dass es ‚eine πρᾶξις [Praxis] ist‘.“ (Arendt 2010: 116)

Der Akteur als Bios und damit als tätige, sich durch Tätigkeit hervorbringende Größe, unterscheidet sich vom ‚Leben‘ in zweifacher Hinsicht: Erstens ist es nicht ‚nur‘ organisch und zweitens ist es nicht natürlich. Hierbei wird die These vertreten, dass wenngleich realweltliche Entsprechungen auszumachen sind, diese aufgrund verschiedener sozialer Wirkmechanismen (auf die im Einzelnen nur teilweise und nicht erschöpfend eingegangen wird) dem klassischen Akteurmodell analog sind. Das heißt: Dort, wo ein Akteur als Cyborg beobachtet werden kann, wird realweltlich ein Subjekt konstruiert; dort, wo Subjektivität, also der Aufbau von stabilen und konstanten Grenzen einer verkörperten Entität, im Verhältnis zu ihrer sozialrelevanten Umwelt in Gefahr ist, wird sie wieder hergestellt und sogar in besonderem Maße gestützt und stabilisiert. Unter Subjekt (als Reifikation einer Konstruktionsleistung neuzeitlicher und vor allem moderner gesellschaftlicher Wirklichkeit) und Subjektivität (als der Prozess dieser Herstellung), wird also (im

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 91

Unterschied zum hier entwickelten Akteurmodell) die Identifizierbarkeit einiger struktureller Merkmale, denen offenbar eine besondere Bedeutung hinsichtlich der Rekonstruktion sozialer Wirklichkeit zukommt, verstanden. Was ist damit gemeint? Garfinkel kommt in seiner „Agnes Studie“ (2007: 118ff) unter anderem zu dem Schluss, dass das binäre Geschlechtersystem für das erfolgreiche zustande kommen von Interaktionen den Status einer omnirelevanten Unterscheidung innehat; anders ausgedrückt, wenn das Geschlecht von Alter auf der Grundlage einer bipolaren Zuordnung nicht eindeutig bestimmt werden kann, wird die Interaktion fortwährend irritiert und droht zuweilen erst gar nicht zustande zu kommen, denn das „Phänomen Transsexualität ist ein ohne Zutun der SoziologInnen gleichsam ‚natürlich‘ ablaufendes Krisenexperiment. Im Mittelpunkt stehen dabei zum einen die Verfremdung bezüglich des Darstellens, die Transsexuellen widerfährt, wenn sie sich darum bemühen, sich nicht mehr so zu verhalten, daß sie als das Ausgangsgeschlecht wirken, sondern bewußt versuchen, eine Erscheinung hervorzubringen, die dem neuen Geschlecht entspricht, statt einfach und selbstvergessen in dieser Aktivität engagiert zu sein. Die zweite Verfremdung bezieht sich auf die Wahrnehmungspraxis und macht die Irritationen zum Thema, die sich aus den Schwierigkeiten ergeben, die situativ eventuell changierenden Erscheinungen von Transsexuellen als sinnvolle Vorkommnisse in einer Ordnung zu verstehen, die nur zwei Geschlechter kennt, denen Personen jeweils ein Leben lang angehören.“ (Lindemann 1993: 48; vgl. Villa 2006: 85ff)

Diese Beobachtung – die hier nur als ein prominentes Beispiel dienen soll – ist reichhaltiger als oft dargestellt. In ihr kommt, über die offensichtlich konstatierte Ausrichtung von Erwartungserwartungen auf der Grundlage von Geschlecht hinaus, die Unterscheidung zwischen sozialer Wirklichkeit und sozialer Ordnung zum Ausdruck. Oder anders ausgedrückt: Die vielfältigen kritikwürdigen Folgen von Heteronormativität haben nichts mit der Feststellung zu tun, dass soziale Wirklichkeit als Ordnung, also in Begriffen stabiler Erwartungserwartungen, ausgedrückt werden kann. Darüber hinaus und damit zusammenhängend wird dadurch aber auch ausgesagt, dass es unterhalb der Ebene von Erwartungserwartungen Strukturkategorien gibt, die für das Aufkommen von Erwartungserwartungen notwendig sind. Diese ‚Strukturen‘ befinden sich also in gewisser Weise ‚außerhalb‘ der Sphäre hergestellter sozialer Wirklichkeit und sind vielmehr dafür verantwortlich, dass diese aufgebaut werden kann. Das heißt freilich nicht, dass diese nicht kontingent

92 | D IEGO COMPAGNA

wären oder gar zeitinvariant; natürlich sind auch sie historisch gewachsene Kategorien, sie weisen aber eine andere Qualität auf als übliche institutionalisierte Praxen oder soziale Tatbestände (vgl. zur sozialen Konstruktion des biologischen Geschlechts die – für das Abendland – umfassende historische Rekonstruktion in Voß' Monografie „Making Sex Revisited – Dekonstruktion des Geschlechts aus biologisch-medizinischer Perspektive“ (2010). Auf die grundlagentheoretische Unterscheidung zwischen dem in der Interaktion (re)produzierten Erwartungserwartungsgeflecht auf der einen Seite und den Bedingungen der Möglichkeit für diese (Re)Produktion auf der anderen Seite hat insbesondere Gesa Lindemann in ihren Studien zum Hirntod hingewiesen (Lindemann 2002b: 278ff; 2002a: 90f). Von der Feststellung eines (relativen - sic!) a priori der Konstruktion sozialer Wirklichkeit ist es zur Formulierung einer Soziologie des Dritten nur ein kleiner Schritt, der als logische Konsequenz erscheint (vgl. Lindemann 2006). „Im Rahmen des Theorems der doppelten Kontingenz wird Deuten als kommunikatives Deuten der Äußerungen von Alter aufgefaßt. Die Deutung ist einstufig. Wenn exzentrische Positionalität als das doppelte Kontingenz fundierende Umweltverhältnis verstanden wird, wird ein zweistufiges Deutungsverfahren erforderlich. Denn die kommunikative Deutung setzt eine weitere Deutung voraus, nämlich die praktische Deutung, die entscheidet, ob eine Entität, der Ego begegnet, als ein Alter interpretiert wird oder etwas anderes.“ (Lindemann 1999: 180)

Lindemanns Rekonstruktion von Plessners Theorem ‚exzentrischer Positionalität‘ in Verbindung mit Luhmanns Theorem ‚doppelter Kontingenz‘ führt zu der Annahme, dass die Grenze des Sozialen auf der Grundlage der Unterscheidung ‚Menschen vs. Nicht-Menschen‘ eine kontingente und historisch gewachsene darstellt. Da nicht von vornherein festgelegt werden kann, welcher Entität die Bewältigung des Problems doppelter Kontingenz zugestanden werden kann, aber faktisch wird, muss die Praxis dieses Deutungsvorgangs in den Blick genommen werden. Diese entscheidet letztlich darüber, wie sich der Kreis dessen, was dem Sozialen zugehörig erachtet wird, konstituiert. Die Position des ‚Dritten‘ stellt eine diese Praxis absichernde Instanz dar, die den Kreis derer, ‚die dazugehören‘, rein ‚praktisch‘ abschließt (Lindemann 2006: 90f). In gewisser Weise hat Lindemann das ‚Privatsprachenargument‘ in Wittgensteins Philosophie der normalen Sprache (also die Unmöglichkeit, dass

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 93

es eine rein private Sprache geben könnte, die nur für eine Person bzw. Entität gültig ist und infolge dessen als Sprache ‚funktioniert‘ (Wittgenstein 1990b: § 243, § 258) auf die sozialkonstruktivistische Ebene einer auf den Basisannahmen symbolisch-vermittelter Interaktion aufbauenden Entscheidung darüber, welche Entität zum Kreis derer zählen darf, die das Problem ‚doppelter Kontingenz‘ bewältigen, übertragen und reformuliert. Anders ausgedrückt: Sofern die Entscheidung darüber, welche Entität (Alter) sowohl mit der Fähigkeit ausgestattet ist, die Erwartungen ihres Gegenübers zu erwarten, als auch in der Lage ist, eine Entscheidung darüber fällen zu können, ob dies von ihrem Gegenüber (Ego) wiederum auch gilt, nicht auf bestimmte Entitäten festgelegt ist bzw. sein kann, kann die Regel darüber, wann dies (nicht) gilt, auf der Ebene einer dyadischen Beziehung nicht hinreichend entschieden werden, da das, was zur Debatte steht, grundsätzlich nur in der Form einer dyadischen Beziehung zustande kommen und ausgedrückt werden kann. Die Grundfiguration der Dyade als formales ‚Letztelement‘ für die Entstehung sozialen Sinns entspricht in Wittgensteins Sprachphilosophie die der einzelnen Person als Träger eines monadischen Geistes bzw. Bewusstseins. Die sozialkonstruktivistische Regel, die für die Entscheidung darüber verantwortlich ist, welche Entität als Teil einer Dyade für den Aufbau sozialen Sinns beitragen kann, entspricht also der Ebene ‚außerhalb‘ des solipsistischen Geistes in Wittgensteins sprachphilosophischem Modell. Da sozialer Sinn per se nur auf der Grundlage einer ‚Alter Ego-Interaktion‘ entstehen kann, bedarf es einer weiteren ‚dritten‘ Instanz, die die ‚Richtigkeit‘ der angewandten Regel bei der Ermittlung bzw. dem Aufbau sozialen Sinns hinsichtlich der hierfür zu Recht (oder eben nicht) involvierten Entitäten bestätigt. Wittgenstein definiert die Bedeutung eines Wortes als sein Gebrauch in der Sprache, da es jenseits der Sprache keine hinreichende Begründungslogik für den durch die Sprache hergestellten ‚Weltzugang‘ geben kann (Wittgenstein 1990b: § 43). Da also die Grenzen der intelligiblen Welt die der Sprache sind bzw. mit denen der Sprache ‚zusammenfallen‘, müssen die Regeln, die die Bedeutung eines Wortes bestimmen, im Sprachgebrauch selbst ausfindig gemacht werden (Wittgenstein 1990a: 67). Eine rein private Sprache ist folglich unmöglich, da jeder Versuch der Festlegung einer Wortbedeutung bzw. der Formulierung einer Regel für den ‚richtigen‘ Sprachgebrauch, in einen infiniten Regress münden würde: Wortbedeutung und Regelwissen verweisen aufeinander, ohne einen Halt oder eine Verankerung außerhalb ihrer

94 | D IEGO COMPAGNA

selbst herstellen zu können (Wittgenstein 1990b: § 293). Ein banales Beispiel für diesen Gedankengang kann in der Vergegenwärtigung der Wortdefinitionen in Lexika gefunden werden: Worte werden durch die Verwendung anderer Worte erläutert; ein Lexikon ist ohne eine außerhalb dieses Systems liegenden Verankerung der Bedeutung der erläuternden Worte nichts weiter als ein riesiger Zirkelschluss. Genau genommen würde beispielsweise ein Außerirdischer, der versuchen wollte, allein aus der definitorischen Logik eines Lexikons ein Verständnis für die dort erläuterten Worte aufzubauen, zu dem Schluss kommen, es handele sich um eine recht aufwendige, weil sehr umfangreiche, Tautologie. Die im Lexikon aufgeführten ‚Zeichen‘ blieben alle ohne den Hauch einer Bedeutung. „Stellen wir uns diesen Fall vor. Ich will über das Wiederkehren einer gewissen Empfindung ein Tagebuch führen. Dazu assoziiere ich sie mit dem Zeichen ‚E‘ und schreibe in einem Kalender zu jedem Tag, an dem ich die Empfindung habe, dieses Zeichen. - Ich will zuerst bemerken, daß sich eine Definition des Zeichens nicht aussprechen läßt. - Aber ich kann sie doch mir selbst als eine Art hinweisende Definition geben! - Wie? kann ich auf die Empfindung zeigen? - Nicht im gewöhnlichen Sinne. Aber ich spreche, oder schreibe das Zeichen, und dabei konzentriere ich meine Aufmerksamkeit auf die Empfindung - zeige also gleichsam im Innern auf sie. - Aber wozu diese Zeremonie? denn nur eine solche scheint es zu sein! Eine Definition dient doch dazu, die Bedeutung eines Zeichens festzulegen. - Nun, das geschieht eben durch das Konzentrieren der Aufmerksamkeit; denn dadurch präge ich mir die Verbindung des Zeichens mit der Empfindung ein. - ‚Ich präge sie mir ein‘ kann doch nur heißen: dieser Vorgang bewirkt, daß ich mich in Zukunft richtig an die Verbindung erinnere. Aber in unserm Falle habe ich ja kein Kriterium für die Richtigkeit. Man möchte hier sagen: richtig ist, was immer mir als richtig erscheinen wird. Und das heißt nur, daß hier von ‚richtig‘ nicht geredet werden kann. […] Sind die Regeln der privaten Sprache Eindrücke von Regeln? - Die Waage, auf der man die Eindrücke wägt, ist nicht der Eindruck von einer Waage. […] Man könnte sagen: Wer sich eine private Worterklärung gegeben hat, der muß sich nun im Innern vornehmen, das Wort so und so zu gebrauchen. Und wie nimmt er sich das vor? Soll ich annehmen, daß er die Technik dieser Anwendung erfindet; oder daß er sie schon fertig vorgefunden hat?“ (Wittgenstein 1990b: § 258-259, § 262)

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 95

Wittgensteins Privatsprachenargument verweist also darauf, dass es einer Sprachgemeinschaft bedarf, um den richtigen Gebrauch und damit die Bedeutung eines Wortes ermitteln zu können. Allein in der Praxis der richtigen Wortverwendung kann sich die Bedeutung eines Wortes etablieren. Ohne die Kontrolle der Sprachgemeinschaft wären der Aufbau und die Verwendung der jeweiligen Sprache unmöglich (Wittgenstein 1990b: § 25, 198, 199, 202, 206). Wittgensteins Argumentation bleibt in der Beschreibung bei einer fingierten Dyade stehen, wenngleich im Grunde bereits hier die Funktion des Dritten angelegt ist, aber nicht ausgeführt wird: Die Bedeutung eines Wortes wird geregelt durch die Praxis der Verwendung eines Wortes in der Gemeinschaft; diese kann zwar im Prinzip aus nur zwei Entitäten bestehen, die sich gegenseitig kontrollieren und für die Einhaltung der richtigen Verwendungsweise verantwortlich sind, ausdrücklich wird jedoch auf die Praxis einer die (bzw. eine bestimmte) Sprache verwendenden Gemeinschaft verwiesen, die folglich auf die Einbettung einer Alter Ego-Verständigung auf ein ihnen vorhergehendes und zugleich einfassendes Kollektiv hinweist. Lindemanns Argument lässt sich also hier – vor allem insoweit in Wittgensteins später Sprachphilosophie die Wahlverwandtschaft zum Pragmatismus betont wird (vgl. Wittgenstein 1990b: 580) – wiederfinden, denn die Regel, die darüber entscheidet, ob die den ‚richtigen Gebrauch‘ anzeigende Entität zu dem Kreis derer gehört, die der relevanten Sprachgemeinschaft angehörten, kann auch in Wittgensteins Modell nicht auf der Ebene einer Dyade entschieden werden. Das entspricht aber selbstredend nicht Wittgensteins primärer Zielsetzung. Lindemann erweitert im Unterschied zu Wittgenstein explizit das dyadische Modell einer über den Umweg der Reaktion von Alter sich konstituierenden Bedeutung zu einer triadischen Beziehung, die erst dazu führt, dass sozialer Sinn (bzw. die Wortbedeutung) sich etablieren (bzw. stabilisieren kann), indem der Status von Alter durch einen ‚Dritten‘ festgestellt wird.

96 | D IEGO COMPAGNA

V ON DER SUBJEKTIVIERUNGSTHEORETISCHEN ANNAHME EINER SOMATISCHEN ‚S UBJEKTKONSTITUTION ‘ ZUR V IRULENZ EINER KATEGORIALEN U NTERSCHEIDUNG ZWISCHEN SOZIALER W IRKLICHKEIT UND O RDNUNG Die im letzten Abschnitt angestellten Überlegungen sind hier insofern relevant, als davon ausgegangen werden kann, dass die dritte Instanz im ‚alltäglichen sozialen Raum‘ phänomenologisch hergestellt wird. Oder um es erneut mit Garfinkel zu versuchen: Die Omnirelevanz des Geschlechterdualismus kann als ein Merkmal dieser phänomenologisch im sozialen Raum ausgelagerten Verankerungen des Dritten angenommen werden. Lindemann konstatiert, dass sich „[d]ie dargestellten Probleme […] durch einen deutlichen Unterschied zu alltäglichen Interaktions- bzw. Kommunikationssituationen aus[zeichnen]. In alltäglichen Interaktionen gilt die Frage als geklärt, wer als ein Alter Ego gelten kann. Die fundierende Deutung wird als sicher vollzogen vorausgesetzt. In alltäglichen Interaktionen wird nur noch der Prozess wechselseitiger Interpretation und Reinterpretation sichtbar.“ (Lindemann 2006: 93)

Ihre Empirie entstammt deshalb den „Grenzzonen“ des Sozialen, der neurologischen und neurochirurgischen Intensivmedizin bzw. Frührehabilitation (Lindemann 2006: 88). Es ist dem Verfasser vollkommen klar, dass die hier aufgestellte These zunächst einmal nur den Rang einer Behauptung beanspruchen kann und erst im Zuge einer diese fundierenden empirischen Forschung weiter aufgeklärt werden könnte. Nichtsdestotrotz scheint es gerade angesichts der empirischen Forschung von Lindemann und der von ihr davon ausgehend plausibel dargelegten Schlussfolgerungen angemessen, die These aufzustellen, dass, wenn es gilt, im ‚gewöhnlichen‘ sozialen Raum danach zu fragen, „welche Entitäten in den Kreis der sozialen Akteure gehören und welche nicht“ und wenn dabei, Lindemanns Überlegungen folgend, „auch die Deutungspraxis in den Blick“ gerät, „durch die diejenigen Entitäten, deren Beziehung durch doppelte Kontingenz gekennzeichnet“ sind und folglich „selbst den personalen Seinskreis begrenzen“ (Lindemann 1999: 178), einige anscheinend ‚banale‘ Elemente zum Vorschein kommen würden, die das Subjekt als menschliche, verkörperte Entität auszeichnen. Dazu könnte

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 97

bspw. der in Garfinkels Studie zum Vorschein kommende Sachverhalt gehören, dass Akteure nicht nur ein Geschlecht haben, sondern dieses auch sind – wobei beides als sozial hergestellte Praxen dekonstruiert werden kann. Hier geht es allerdings nicht um die Thematisierung bestimmter Merkmale, sondern lediglich um die – an dieser Stelle als Arbeitshypothese aufgestellte – Feststellung, dass jenseits sozialkonstruktivistischer Annahmen über die Beschaffenheit des Sozialen weitere Basisannahmen in Rechnung gestellt werden müssen, die gegenstandsbezogen im ‚Subjekt‘ münden. Im ‚Subjekt‘ als eine ‚verkörperte Entität‘, die mit dem Menschen gleichgesetzt wird, und von dem angenommen wird, dass gerade dieser Entität die Fähigkeit zur Bewältigung des Problems doppelter Kontingenz zukommt. Das so verstandene ‚Subjekt‘ würde einer Reifizierung des ‚Dritten‘ in Lindemanns Darstellung zukommen: „Die Erweiterung der Dyade um den Dritten hat Auswirkungen auf das Konzept der Erwartungs-Erwartungen. Die Struktur, von der her Sozialität zu denken ist, verkompliziert sich in folgender Weise: Ego erwartet konsistent und dauerhaft Erwartungen auf der Seite einer begegnenden Entität nur dann, wenn Ego die Erwartung eines Dritten antizipiert, dass von dieser Entität Erwartungen zu erwarten sind. Es gibt also nicht einfach den Sachverhalt ‚Erwartungs-Erwartungen‘ wie in der dyadischen Konstellation zwischen Ego und Alter, sondern die dyadische Konstellation entsteht als stabile Konstellation erst dann, wenn es den Sachverhalt gibt, dass Ego von einem Dritten die Erwartung erwartet, dass von der zweiten Entität Erwartungen zu erwarten sind und es sich deshalb bei ihr um ein Alter Ego handeln muss. D. h. der Dritte ist die Bedingung der Existenz stabiler Dyaden. Der Dritte ist die Bedingung eines Zwangs zur Anerkennung. Diejenigen Entitäten, die in dieser Weise anerkannt werden müssen, bezeichne ich als legitime soziale Personen.“ (Lindemann 2006: 94)

Der Nachweis einer historisch kontingenten Festlegung auf bestimmte Entitäten, die zum exklusiven Kreis derer gehören, die am Sozialen teilnehmen ‚dürfen‘ und in den Worten Lindemanns als ‚legitime soziale Personen‘ gelten, ist sozialhistorisch ein offenes Geheimnis (vgl. Lemke 2008: 106). So muss gerade die Eingrenzung auf menschliche Akteure als Ausnahmeerscheinung angesehen werden, die im Wesentlichen die Neuzeit und vor allem Moderne auszeichnet:

98 | D IEGO COMPAGNA

„Note, however, that the idea that only consciousness has access to communication and that therefore only human beings are engaged in society is a restrictive idea entertained only by modern society, which has driven ghosts and devils, spirits and gods, plants and animals out of the realm where partners in communication were to be found. This is the flop side of humanism's venerable attempt to liberate humans from natural and mystical confinement. The world of human beings has been emptied of any other kind of intelligence for listening to and talking with.“ (Baecker 2011: 17)

Lindemanns Beitrag besteht vielmehr in dem grundlagentheoretischen Nachweis einer sozialtheoretisch begründbaren und formulierbaren Formation, die die Notwendigkeit einer handlungspraktischen Strategie der Festlegung aufzeigt und in der Lage ist zu beschreiben, auf welche Weise dies – zumindest im Rahmen der Rekonstruktion grenzwertiger Situationen des Sozialen – vonstattengeht.

AKTEURE ALS C YBORGS : D AS L EBEN ALS Z OË , DER K ÖRPER ALS B IOS UND DIE W IDERSPENSTIGKEIT DES S UBJEKTES Weiter oben steht: ‚Unter Subjekt (als Reifikation einer Konstruktionsleistung neuzeitlicher und vor allem moderner gesellschaftlicher Wirklichkeit) und Subjektivität (als der Prozess dieser Herstellung), wird also (im Unterschied zum hier entwickelten Akteurmodell) die Identifizierbarkeit einiger struktureller Merkmale, denen offenbar eine besondere Bedeutung hinsichtlich der Rekonstruktion sozialer Wirklichkeit zukommt, verstanden.‘ Diese Merkmale weisen – soweit zumindest der im Anschluss an Lindemanns Forschungsergebnissen aufgestellten These folgend – einen omnirelevanten Charakter für die Konstitution sozialer Wirklichkeit auf. An dem Konzept des ‚Subjektes‘ sind also Merkmale geheftet, die zwar einerseits als normativ (und zugleich normierend) beschrieben und mitunter ‚geahndet‘ werden können, die aber andererseits für den Aufbau sozialer Wirklichkeit unabdingbar sind. Wenn die Unterscheidung zwischen basalen Kategorien der Reproduktion sozialer Wirklichkeit und der Kritik sozialer Ordnung, die als Ausdruck einer Reproduktion verschiedener Formen sozialer Ungleichheit auf der Grundlage eben dieser Kategorien dargestellt werden kann, nicht beachtet

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 99

wird, besteht die daraus (notwendigerweise) ableitbare Gefahr der Formulierung performativer Widersprüche erster Güte. So stellt beispielsweise die Monografie von Jungwirth „Zum Identitätsdiskurs in den Sozialwissenschaften – Eine postkolonial und queer informierte Kritik an George H. Mead, Erik H. Erikson und Erving Goffman“ (2007) eine solche ‚problematische‘ Dekonstruktion dar: Wenngleich sie im Einzelnen kaum von den hier angenommenen Zusammenhängen abweicht, besonders hinsichtlich eines intrinsischen Verhältnisses zwischen der Identitätskonstitution, dem Aufbau und der Beschreibung eines ‚autonomen Subjektes‘ und der daran gekoppelten Ausrichtung an Normierungsleistungen, die erst im Zuge eines somatischen Niederschlags (bzw. einer somatischen ‚Verankerung‘) wirklichkeitskonstituierend dominant und handlungswirksam werden, wird jenseits der berechtigten, ‚grundlagenlastigen‘ Kritik nicht danach gefragt, welche Funktion solche Prozesse für den Aufbau sozialer Wirklichkeit in modernen Gesellschaften haben. Es wird folglich eine Kritik formuliert, die im Zuge einer imaginierten Zerschlagung des Kritisierten einen buchstäblich utopischen (also inexistenten) Raum vorfinden würde. Eine Kritik kann jedoch einerseits berechtigt und andererseits trotzdem unmöglich sein. An dieser Stelle kann dieser Argumentationsstrang, der sich zwangsläufig aus der Konstruktionslogik des hier entwickelten Akteurmodells ergibt bzw. geradezu aufdrängt, nicht weiter nachgegangen werden. Es deutet sich jedoch bereits an, in welche Richtung heuristisch weitergefragt werden sollte: Welche Auswirkungen hat es, wenn ein Akteur einer ‚westlichen‘ Gegenwartsgesellschaft sich nicht mehr in Differenz zu einem Tier, zu einer Maschine und einem oder mehreren (aber immer noch distinkten) Geschlecht/ern setzt? Das hier entwickelte Akteurmodell entfaltet unter anderem eine Perspektive ‚soziologischer Aufklärung‘ gerade aus der Annahme heraus, dass seine Anwendung jene Kopplungsstellen in Erscheinung treten lässt, die nicht nur kritikwürdig, weil ungleichheitsfördernd bzw. -stabilisierend, sondern auch – zumindest im Rahmen gegenwärtiger sozialer Wirklichkeitskonstitutionsmechanismen – für das Zustandekommen sozialen Sinns, also von Wirklichkeit schlechthin, unabdingbar sind. Der ‚Tod des Menschen‘, mit dem die ‚Geburt‘ des Poststrukturalismus oft in Zusammenhang gebracht wird, bedeutet schließlich nicht, dass das Subjekt als erkenntnisstiftende und -garantierende Instanz ‚verschwindet‘,

100 | D IEGO COMPAGNA

sondern vielmehr, dass diese ‚Instanz‘ als historisch kontingente‚ dekonstruiert‘ wird (vgl. Münker/Roesler 2000: 34; Derrida 2003: 422ff). Die Wegbereiter, allen voran Nietzsche, einer erkenntnistheoretisch reflexiven Moderne (auf die die ‚Entdeckung‘ der Standortabhängigkeit einer jeden Beobachtung hinweist (vgl. Baecker 1996) haben darauf aufmerksam gemacht, dass eine Umstellung des ‚Erkenntnissubjektes‘ auf das ‚Leben‘ die unweigerliche Folge einer bis zur letzten Konsequenz ausbuchstabierten diesseitigen, also unabschließbaren, Erkenntnisfundierung im ‚Menschen‘ darstellt: „Im Rückblick auf Hegel und Nietzsche erweisen sich sowohl der ursprüngliche Riß in unserem Begriff des Lebens als auch die schon früh vollzogene Erweiterung seiner Bedeutung als philosophisch höchst folgenreich. Sie bereiten eine Situation des Denkens vor, in der es möglich wird und am Ende sogar als notwendig erscheint, den metaphysischen Grundbegriff des Seins durch einen entgrenzten Begriff des Lebens zu ersetzen. Denn durch diesen Schritt und nur durch ihn gelingt es, die metaphysische Kluft zwischen dem wahrhaft Seienden, das Eines und unbegrenzt war, und den veränderlichen Vielen, die auf unerklärliche Weise am Einen teilhaben, es nachahmen sollten und wollten, zu überbrücken und zu schließen.“ (Borsche 1997: 263)

Die Entwicklung dieser ‚Umstellung‘ von den Anfängen des neuzeitlichen Weltbildes in der Renaissance bis zu den ersten deutlichen Erosionserscheinungen des Erkenntnissubjektes als eine sichere, Erkenntnis stiftende Instanz, konnte nicht über Nacht erfolgen, da zunächst die ‚Gewissheit‘ noch über den Umweg einer transzendenten Figur (Gott) hergestellt worden ist; zu dominant und wirklichkeitsstiftend war noch das ‚alte‘, theistische Weltbild (Merton 1985: 78ff). Hierfür gibt allen voran und zugleich das ‚neuzeitliche Weltbild‘ einläutende Gottesbeweis in Descartes' Meditationen ein sehr gutes Beispiel ab (vgl. Descartes 1992). Dieses strahlt allerdings handlungspraktisch und erkenntnispolitisch bis in die Gegenwart hinein, worauf die kritischen Einwände von Ihde und Haraway an der problematischen, erkenntnisstiftenden Position der Akteur-Netzwerk-Theorie hindeuten (Haraway 1988: 583, 581ff; 1997: 125ff; 1996: 358ff; Ihde 2002: 67ff). Borsche erläutert weiter, dass die Transformation einer jenseitig transzendenten Gewissheit und Absicherung der Erkenntnis (samt einer ‚wahren‘ Wirklichkeit und unfehlbaren Kriterien für ‚wahre‘ Erkenntnis, die sich allesamt aus dieser einen bevorzugten Position ableiten lassen) im diesseitigen

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 101

Subjekt theologisch vorbereitet worden sind. Dies ist einerseits nicht verwunderlich, denn ohne eine Weichenstellung, die eine so tief greifende Umstellung vorbereitet, hätte sich das neuzeitliche Weltbild und -verständnis nicht etablieren können. Andererseits scheint die erkenntnisstiftende Leistung des Subjektes so selbstverständlich zu sein, dass es rückblickend gar nicht anders möglich erscheint, dass es auf den Menschen und seine Fähigkeiten ankommen müsse, wenn es gilt, nach einer wahren Erkenntnis zu fragen. Umso wertvoller ist Borsches Erinnerung an die Vorbereitungen eines Weltbildes, das endgültig aus der theistischen Weltauslegung hinaustritt und im neuzeitlichen, von der Aufklärung begründeten Weltbild mündet: „Vor dem […] Hintergrund einer Neuordnung der Grundbegriffe unseres Denkens erscheint auch die Lehre vom absoluten Wert des einzelnen menschlichen Lebens in einem neuen Licht. Sie ist philosophisch nicht begründbar. Und sie wurde, wie sich historisch zeigen läßt, in der Tat ursprünglich auch nur theologisch begründet. […] Schwierigkeiten einer Verbindung der christologischen Lehre von den zwei Naturen Christi mit der schöpfungstheologischen Lehre von der Gottebenbildlichkeit des Menschen führten im 13.Jh. zu einer (Neu )Bestimmung des Begriffs der Person, nach welchem der natürliche Mensch – der Mensch mit Leib und Seele, nicht nur der menschliche Geist (Augustin) – mit göttlicher ‚Würde‘ ausgestattet ist. Denn Gott ist Mensch geworden und hat damit die Würde seiner Person auf die Menschen übertragen, die durch diese Gotteskindschaft zu Personen im theologischen Sinn dieses Wortes geworden sind. Erst auf diesem Weg gewinnt das natürliche Leben der Menschen Anteil am unendlichen Wert oder der Würde der (göttlichen) Persönlichkeit. Aber diese Begründung muß den metaphysischen Seinsbegriff der mittelalterlichen Theologie und in seinem Gefolge auch den Gott der Philosophen oder, wie Nietzsche sagt, den moralischen Gott in Anspruch nehmen.“ (Borsche 1997: 265f)

Dieser Begründungszusammenhang ist zwar beginnend mit dem 19. Jahrhundert verloren gegangen, aber auch wenn eine jenseitige Begründungslogik erkenntnistheoretisch abhanden gekommen ist, da sie sich als historisch gewachsene, sozialkonstruktivistisch oder wissenssoziologisch dekonstruierbar herausgestellt hat, heißt dies nicht im Umkehrschluss, dass die mit dieser verbundenen, wirklichkeitsstabilisierenden Momente aus der Welt sind (vgl. als ein frühes wissenssoziologisches Zeugnis dieser Dekonstruktion Mannheim 1995: 14f). Die Trägheit des theistischen Weltbildes, das die Umstellung eines neuen Weltverständnisses um einige Jahrhunderte überlagert

102 | D IEGO COMPAGNA

hat, mag eine wissenschafts- oder ideengeschichtliche Vorlage, für die Trägheit eines Weltbildes abgeben, das auf das Subjekt und seiner Erkenntnisfähigkeit beruht. Das Modell eines Akteurs, das versucht ohne diesen Subjektbegriff und -status auszukommen, wird also umso beständiger und schärfer Subjektivierungspraxen und -tendenzen abbilden. Das bedeutet im Umkehrschluss schließlich, dass nicht damit behauptet wird, das Konzept ‚Subjekt‘ hätte an Bedeutung eingebüßt, wäre verschwunden oder im Begriff sich aufzulösen. Im Gegenteil: Entgegen des bspw. von Rose (2001), Braidotti (2009) und in jüngeren Arbeiten von Knorr-Cetina (2009) dargestellten Erosionsprozesses basaler Differenzen aufgrund der an Relevanz gewinnenden Praxen und Zuschreibungen, die um das ‚Leben‘ kursieren, treten aufgrund ihrer Disponibilität einige grundlegende, strukturelle Merkmale des Sozialen umso deutlicher in Erscheinung (vgl. bspw. Thompson 2009: 325f). Umso schärfer zeichnet sich auch der Gegensatz zwischen (un)natürlicher und artifizieller ‚Natur‘ des ‚Subjektes‘ ab. Die Invisibilisierung der Artifizialität des Akteurs (als Subjekt) verfängt sich in immer gravierenden Widersprüchen; ein schönheitschirurgischer Eingriff orientiert sich an Idealen, die den ‚Menschen‘ betreffen – im Unterschied zum Nicht-Menschen. Artifizialität orientiert sich also streng genommen an Artifizialität; ein Strudel von Kontingenz entsteht, dessen Taumelbewegung ‚realweltlich‘ im Rahmen ‚gelebter Muster‘ durch die Orientierung an der vermeintlichen Natürlichkeit des ‚Menschen‘ stabilisiert wird.

D AS

SOMATISCHE S UBSTRAT DES ‚S UBJEKTES ‘ ALS HANDLUNGSPRAKTISCHE R EIFIKATION DER E MERGENZFUNKTION DES D RITTEN

Im Zuge einer ersten exemplarischen Anwendung eines Akteurmodells für Cyborgs kommt das spannungsreiche Feld der vorangegangenen Überlegungen zum Vorschein: Das Modell beschreibt soziale Wirklichkeit auf eine Art und Weise, die zugleich die umkämpften Bedeutungen und Struktureigenschaften zum Vorschein bringt, die im Dunstkreis der Themenfelder Biopolitik, Gouvernementalität und Subjektivierung umherschwirren. Die hier vorgeschlagene Lesart deckt sich zwar im Ergebnis weitestgehend mit den zent-

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 103

ralen Aussagen dieser Konzepte, sieht aber die Wurzel einer Bedeutungszunahme des Körpers, die den Ausruf eines „Body Turns“ (Gugutzer 2006a) in der Soziologie rechtfertigen würde, sowohl sozialtheoretisch als auch gegenstandseitig in den oben angerissenen Überlegungen einiger konstitutiver Merkmale des Sozialen begründet. Insofern ist die argumentative Ausrichtung der Begründung einer zunehmenden Thematisierung des Körpers den meisten körpersoziologischen Diagnosen diametral entgegengesetzt, da diese ihre Aussagen auf der Grundlage einer Gegenüberstellung des Körpers und des Sozialen aufbauen. Der Körper wird in der Regel sowohl als Produkt des Sozialen dargestellt als auch hinsichtlich seiner identitätsbildenden Funktion als Identitätsmedium wahrgenommen und dargestellt; er ist insofern dem Sozialen hauptsächlich hinsichtlich einer gegenseitigen Einflussnahme und Interdependenz ‚gegenübergestellt‘ (vgl. Gugutzer 2002: 295ff). Hier wird in gewisser Weise noch unterhalb dieser gegenwartsdiagnostisch konstatierten Zusammenhänge – denen in der Regel nicht widersprochen werden soll – angenommen, dass sowohl die sozialtheoretisch wahrgenommene, zunehmende Relevanz des Körpers als auch die gegenstandseitig konstatierte Bedeutungszunahme eine für den (Wieder)Aufbau sozialer Wirklichkeit konstitutive Bedeutung innehaben: Die Funktion des Dritten wird im Rahmen alltäglich gelebter Muster nicht immer wieder neu ermittelt, sondern auf der Grundlage phänomenologischer Merkmale en passant unhinterfragt ‚angenommen‘. Entitäten, die für den Aufbau sozialer Wirklichkeit verantwortlich sind, sind ‚Menschen‘, die aufgrund ihrer Erscheinung als solche identifiziert wer den. Darüber hinaus können mit dieser somatischen ‚Festlegungsstrategie‘ – hinsichtlich der Entitäten, die allein für die Wirklichkeitskonstitution im sozialen Raum verantwortlich sind – zusammenhängende Merkmale in Erscheinung treten, die den Aufbau einer bestimmten sozialen Wirklichkeit tangieren, die von ungleichen Einflussmöglichkeiten und Relevanzstrukturen gezeichnet sein kann; dafür kann Garfinkels Agnes-Studie einen Hinweis geben. Durch den Körper schlägt sich folglich das Schicksal der Spätmoderne seine Bahn, insofern dieser zutiefst ambivalent geworden ist. Auf der einen Seite wird zunehmend versucht über den Körper Identität und der erlebte Verlust einer ‚eigenen‘ (imaginierten) Subjektposition zu kompensieren, auf der anderen Seite ist jede Arbeit am Körper zugleich Ausdruck einer schon immer das Subjekt als Akteur auszeichnenden Artifizialität und unterwandert

104 | D IEGO COMPAGNA

also das ursprüngliche Ziel eines essenzialistischen (mit Natürlichkeit konnotiertem) Kriteriums, einer exklusiven Teilhabe am Sozialen. Ambivalent wird diese Situation jedoch nur, weil das Subjekt in seiner das Soziale konstituierenden Position bedroht ist. Wenn es stimmt, dass der Aufbau sozialer Wirklichkeit sich nur vor dem Hintergrund einer dritten Figur etablieren kann und die Festlegung dieser Figur realiter an Eindeutigkeit eingebüßt hat, so wird es in einem sehr allgemeinen und grundsätzlichen Sinn umso wichtiger, die ursprünglich mehr oder weniger unproblematisch geltenden Merkmale, die sie in besonderem Maße ausgezeichnet haben, herzustellen. Die manisch anmutende Zunahme der Arbeit am somatischen Substrat (in gewisser Weise so etwas wie ein Surrogat der Emergenzfunktion des Dritten) ist die Folge dieser geradezu existenziellen Verunsicherung. Die Eckpunkte der folgenden Argumentation lassen sich also wie folgt anreißen: Die Verbindung zwischen Körper und Subjektivität ist sehr eng und ko-konstitutiv, zugleich ist Subjektivität ein wesentliches Element moderner Gesellschaften, das die flexible Adressierbarkeit und die vom Akteur zu leistende Verarbeitung der Differenz von Selbst- und Fremdreferenz vereinfacht oder gar erst ermöglicht. Die technologischen Entwicklungen, denen (Teil)Handlungsträgerschaft zugesprochen wird, sowie die biomedizinischen Entwicklungen, die die Grenze zum Artifiziellen bzw. Gemachten und damit Willkürlichen des organischen Substrats offensichtlich aufweichen, gefährden die Konstruktion von Subjektivität und schlagen sich aus unterschiedlichen Richtungen durch den Körper ihre Bahn. Die (Mit)Handlungsträgerschaft von Technik stellt eine Gefährdung von Subjektivität dar, insofern sie zugleich als die fünfte tief greifende Erschütterung bzw. ‚Kränkung‘ (Freud 2007: 283f) menschlicher Hoheitsvorstellungen gelten kann (nach der kopernikanischen Wende, der darwinistischen Evolutionstheorie, der freudschen Entdeckung des Unbewussten (Es) und der Kennzeichnung des Sozialen als eine Wirklichkeit sui generis (vgl. Monod 1991; Greshoff et al. 2003: 9; Mannheim 1995: 26, 38; Rammert/Schulz-Schaeffer 2002: 11f). Die biomedizinischen, aktuell vorhandenen und in Aussicht gestellten Möglichkeiten manipulativer Eingriffe – auf genetischer oder aber auch somatischer Ebene – verschieben den Horizont natürlicher und pathogener Zuschreibungen, indem die ursprünglich mehr oder weniger funktionierende Konstruktion eines ‚natürlich‘ gesunden Körper bzw. einer ‚normalen‘ Psyche umfassend rekonfiguriert werden (vgl. Wehling et al. 2007).

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 105

Die Angriffsflächen und Wirkungsweisen der Technik- und Lebenswissenschaften auf das Subjekt zeichnen sich durch einen direkten und indirekten Körperbezug aus. Da, wo die ‚Bedrohung‘ von Subjektivität durch den Verlust von Handlungsträgerschaft in eine Steigerung der Körperpflege und in körperbezogenen Praxen mündet, katalysiert sie eine körperspezifische Verarbeitung von Selbst- und Fremdreferenz. Im Ergebnis zeigt sich der Körper als Manifestation einer Hybris, die die Rettung von Subjektivität zum Inhalt hat. „The advent of computers, computer networks, artificial intelligence, robots, software agents, and avatars presents the ecological movement with unlikely allies in its attempt to put the idea that only human beings qualify for communication at least in parentheses. All categories privileging human beings for both consciousness and communication are in some sense called into question. At the same time, unique features of human beings such as their bodies and senses, which constitute their ‚wetware‘ and distinguish them for the time being from artificial intelligences, are being rediscovered. Ironically these are the very features held in poor esteem by the same modern philosophy that thought human beings singular. Humans have lost reflexivity as their most distinctive feature and have in some strange kind of deal regained their body only to find it being scrutinized for virtuality, as well (Hayles 1999).“ (Baecker 2011: 17)

Die zunehmende Bedeutung des Körpers vor dem Hintergrund der Destabilisierung einer bevorzugten Position des modernen (also menschlichen) Akteurs (bzw. des Subjektes) kann sozialtheoretisch erst durch eine Verbindung mit Lindemanns Nachweis einer grundlegenden Bedeutung des Dritten befriedigend erörtert und erklärt werden. Das ‚menschliche Antlitz‘ wird in alltäglichen Situationen als hinreichendes Kriterium für die Entscheidung darüber herangezogen, welche Entität in den Kreis des Sozialen eingeschlossen werden kann. Je gefährdeter der bevorzugte Status menschlicher Entitäten wahrgenommen wird, desto wichtiger wird die ‚Pflege‘ und Thematisierung des Körpers. Die ihm zukommende Funktion muss gegenüber ‚konkurrierenden‘ Entitäten verteidigt werden. Wenngleich die Wahrnehmung und erst recht wissenschaftliche Thematisierung des Akteurs von der sozialhistorisch vorgelagerten Herstellung des Subjektes abhängig ist, ist das ‚Subjekt‘ nichts weiter als eine ‚besondere‘

106 | D IEGO COMPAGNA

historische Form des Akteurs. Das Subjekt als Folgeerscheinung des neuzeitlichen Weltbildes ist anders als der Akteur an ein deutlich engeres Korsett stützender Bedingungen geknüpft, die desto stärker in Erscheinung treten, je krisenhafter sie erlebt werden. Wie lässt sich aber davon ausgehend eine wissenschaftliche und vorbehaltlose Perspektive denken, die aus dem sozialen Raum heraus eben diesen in den Blick nimmt, ohne sich selbst im Weg zu stehen und sich die Sicht zu versperren? Eine soziologische Erfassung des Sozialen bedarf (strukturalistisch betrachtet – und dieser Theoriebezug ist in einem solchen Zusammenhang mehr als nur hilfreich) eines Elementes, das es erlaubt, die Differenz von Sozialem und Akteur vorbehaltlos zu verarbeiten. Demgegenüber kann konstatiert werden, dass das Subjekt in neueren sozialtheoretischen Entwürfen auf je sehr unterschiedliche Weise eine äußerst theorierelevante und damit voraussetzungsvolle Rolle spielt. Gleichzeitig gibt es gegenstandseitig durchaus eine frappierende Entsprechung zu den sozialtheoriespezifischen Schwierigkeiten, von dem Konstrukt ‚Subjekt‘, das auf eine menschliche Entität verweist, abzurücken. Diese kommen – ganz allgemein gesprochen – in den vielfältigsten Formen, die die Zunahme körperbezogener Praxen annimmt, zum Vorschein. Lindemanns Theorem einer Emergenzfunktion des Dritten gibt den sozialtheoretischen Bezugsrahmen für diese Entsprechung ab: Das Subjekt als menschliche Entität ist das definitorische Merkmal des Sozialen und des darauf rekurrierenden Wirklichkeitsaufbaus der Neuzeit. Diese hervorgehobene Stellung kommt sowohl innerhalb sozialtheoretischer Entwürfe als auch realweltlicher Praxen zum Vorschein. An dieser Stelle verhakt sich also Theorieproduktion in gegenstandsbezogene Aufklärung, da die Beobachtung dieses Bedingungsverhältnisses die Beobachtung der eigenen beobachtungsleitenden Unterscheidung bedeuten würde; anders ausgedrückt: Die Konstruktions- und Konstitutionsleistungen, die modernen Akteur und Subjekt in eins fallen lassen, liegen genau im blinden Fleck des soziologischen Blicks, da sie eben jene Leistungen darstellen, die ein genuin soziologisches Sehen ermöglichen.

L EBEN ALS N ULLWERT DES S UBJEKTES

UND DIE

W IDERSPENSTIGKEIT

Der Rahmen, in dem der Akteur (bar einer jeglichen Subjektaffizierung, die wiederum auf organisch-natürliches Substrat rekurriert) in Differenz zum

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 107

Sozialen sich als Element (bzw. Effekt) dieser Differenz etablieren kann, ist schwer aufzuspannen. Eine Hauptschwierigkeit liegt in der terminologischen Unschärfe der zentralen Begriffe bzw. Elemente des als differenztheoretische Signifikanten-Struktur dargestellten Verhältnisses. Die vorrangig auf Descartes (1992) zurückgehende Etablierung des Subjektes als ‚Erkenntnissubjekt in Kontrast zu Hobbes (1994; 1990) früher Vorstellung eines artifiziellen Akteurs in seiner absolutistischen Staatstheorie sollte die geistesgeschichtlichen Wurzeln dieser zwei Elemente offenlegen. Die sozialtheoretische Herstellung des Akteurs als Subjekt (und/oder umgekehrt) und die damit vernachlässigte Einsicht, dass ein Akteur – gerade soziologisch betrachtet – sich zuallererst durch Artifizialität auszeichnet, geht auf diese Grundlegung zurück und treibt innerhalb einer idiosynkratischen Problemgenese sozialtheoretischen Schaffens eigenwillige Blüten eines immer tieferreichenden Schismas bzw. Ausschlusses der Inverhältnissetzung dieser zwei zentralen, die Moderne auszeichnenden Elemente. Die Art und Weise, auf welche sich der Akteur als Subjekt ‚faktisch‘ hergestellt hat und zugleich geworden ist, verweist auf eine erhebliche Relevanz der Körper der Akteure zu (vgl. Butler 2003; Treiber/Steinert 1980; Hahn 1982; Warburg 2008: 153ff; Foucault 2002). Die körperbezogene Thematisierung des Selbst, die in vielerlei Hinsicht für die Herstellung von Subjektivität verantwortlich ist, muss mit Descartes ideengeschichtlicher Vorbereitung zusammengedacht werden. Erst die Auftrennung von Geist und Materie ermöglicht eine körperbezogene Selbstthematisierung, die ein ‚Selbst‘ (Subjekt) entstehen lässt, das sich in Differenz zu sich selbst (Körper) setzt. Diese spezifische Form der ‚Selbstproduktion‘ (als Subjekt) kann weitestgehend als Form der ‚Selbst-Unterwerfung‘ beschrieben werden (Butler 2010: 35ff; 2003). Und zwar in einem sehr allgemeinen Sinn, noch weit von den faktisch erforderlichen ‚Anpassungsleistungen‘ entfernt, die für eine angemessene Handlungsträgerschaft und -wirksamkeit in entsprechend gestalteten sozialen Kontexten notwendig sind. Die soziologischen Klassiker (allen voran Max Weber) haben den Akteur (freilich stets in Differenz zu ihrem ‚eigentlichen‘ Gegenstand, dem Sozialen) im Auge gehabt und das Subjekt als Nullwert mitgeführt. Das Erkenntnissubjekt als ‚Produkt‘ der Neuzeit, eines sich von der theistischen Weltauffassung ‚emanzipierenden‘ Weltbildes, wird von den Klassikern stillschweigend als gegebenes ‚Faktum‘ angenommen. Die Postgründergenerationen

108 | D IEGO COMPAGNA

sehen im Unterschied dazu verstärkt das ‚Subjekt‘ als Element ihres Gegenstandes, wofür zwei Hauptgründe ins Feld zu führen sind: Zunächst das Reflexivwerden der Sozialtheorien, das dazu führt, dass es kein ‚Subjekt‘ geben kann, das sich außerhalb des Sozialen (also ihres Gegenstandes) befindet, sowie die ‚Pfadabhängigkeit‘ bestimmter, sozialtheoretisch selbsterzeugter Problemlagen, die dazu führen, dass in der Gegenüberstellung von Sozialem – als Systemebene – und Akteur – als Primärelement der der Systemebene gegenübergestellten Interaktionsebene – ein bevorzugter Problembezug erkannt wird, der diese Dynamik verstärkt, da immer expliziter der Akteur als Subjekt verarbeitet wird. Unter der Hand hat sich damit der von Descartes und Hobbes angelegte Widerspruch einer wesensmäßig mit Vernunft ausgestatteten ‚unteilbaren‘ Entität mit einer wesensmäßig von Artifizialität gekennzeichneten (also hybriden, weil nicht mit sich selbst identischen) Entität zugunsten eines vermeintlich ‚natürlichen‘ Akteur-Substrates aufgelöst (das qua seiner Naturwüchsigkeit das Signum eines unabschließbaren empirischen Faktums erhält). ‚Körpersensible‘ Sozialtheorien zeigen die Unnatürlichkeit des Körpers bzw. seine soziale ‚Determinierung‘ auf (vgl. schulbildend Mauss 1978). Nichtsdestotrotz erfassen körpersoziologische Untersuchungen die zum Vorschein gekommene, elementare Funktion des Körpers für die Konstitution des Sozialen – zumindest in der Regel – nicht hinreichend (vgl. bspw. die Sammelbände Gugutzer 2006b; Schroer 2005; Villa 2008). Die ‚Körperarbeit‘ oder auch allgemeiner die Bedeutungszunahme des Körpers wird hier in der Regel als symptomatischer Effekt sozialer Relevanzstrukturen bearbeitet. Oder es wird der Beitrag des Körpers für den Aufbau sozialer Wirklichkeit thematisiert bzw. die ‚Verkörperung‘ des Sozialen; hier wird also weitestgehend an die Sozialrelevanz des Körpers als Kategorie erinnert. Diesen Einschätzungen und Ausarbeitungen kann durch die (zumindest in Aussicht gestellte) Anwendung eines zu entwickelnden Akteurmodells für Cyborgs eine weitere Dimension hinzugefügt werden, die noch tiefer im Gewebe des Gegenstandes anzusiedeln wäre. Im Rahmen einer Übertragung der auf Lindemann (2006) zurückgehenden These einer Emergenzfunktion des Dritten für die Etablierung sozialer Wirklichkeit ist das ‚Subjekt‘ (im Sinne eines auf den Menschen als ‚organisch-menschliche Entität‘ verweisenden Elementes) als somatische Reifikation des ‚Dritten‘ charakterisiert worden. Der organische Körper des Men-

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 109

schen ist – zunächst nur arbeitshypothetisch – als Basiskategorie des Sozialen dargestellt worden, insofern vieles dafür spricht, dass diesem die Funktion des ‚Dritten‘ in gewöhnlichen sozialen Kontexten zukommt. Der Körper tritt infolge dessen als zutiefst ambivalente Größe des Sozialen in Erscheinung: Er ist offensichtlich sozial überformt, nicht ‚natürlich‘ und offensichtlichstes Zeichen für die Artifizialität des Akteurs und übernimmt zugleich die Funktion den biologischen Organismus ‚Mensch‘ in seiner phänomenologisch-plastischen ‚Erscheinung‘ als sozialrelevante Entität – im Gegensatz zu allen anderen möglichen Entitäten – zu kennzeichnen. Diese Funktion kann nur dann ausreichend erfüllt werden, wenn davon ausgegangen wird, dass der ‚Mensch‘ sich von ‚Natur‘ aus, von seinem ‚Ursprung‘ her, für diese bevorzugte Position auszeichnet. Andernfalls müsste seine hervorgehobene Stellung immer wieder neu ‚verteidigt‘ werden müssen – was offensichtlich, zumindest im Rahmen gelebter Muster, nicht der Fall zu sein scheint. Blumenbergs (1981) eigenwillige Aufhebung von Anthropologie als eine Wissenschaft der Wesensbestimmung des Menschen in seiner Ursprünglichkeit, insofern der Mensch sich gerade dadurch auszeichnet, unnatürlich zu sein, kann in diesem Zusammenhang erste wertvolle Hinweise hinsichtlich der problematischen Transformation des Akteur-Subjekt-Verhältnisses liefern. Das zu entwickelnde Akteurmodell für Cyborgs gründet auf der Konstruktionshypothese, dass die (ehemalige) Position des Subjektes mit der des ‚Lebens‘ ausgetauscht werden sollte. Das ‚nackte Leben‘ kann – unter Rekurs auf die Schilderungen von Agamben (2007) und Arendt (2010) sowie in Anlehnung an Hobbes (1994) und Blumenberg (1981) – als ein Element identifiziert werden, das dem Sozialen in einer äußerst elementaren Weise äußerlich ist und sich zugleich mit diesem in ein Verhältnis ko-konstitutiver Verflechtung auf einer ungleich grundsätzlicheren Weise befindet, als das Subjekt sich je wird befinden können. Nach Agamben ist die bloße Tatsache des Lebens hinsichtlich einer elementarsten Konstitution des politischen (sozialen) Raumes bereits in der Wiege abendländischer Kultur angelegt: „Agambens Ausgangspunkt bildet eine Unterscheidung, die ihm zufolge die westliche politische Tradition seit der griechischen Antike bestimmt. Die Leitdifferenz des Politischen sei nicht jene zwischen Freund und Feind, sondern die Trennung zwischen dem nackten Leben (zoé) und der politischen Existenz (bíos), dem natürlichen Dasein und dem rechtlichen Sein eines Menschen. Seine These ist, dass die Konstitution sou-

110 | D IEGO COMPAGNA

veräner Macht die Produktion eines biopolitischen Körpers voraussetzt. Die Einsetzung des Rechts sei nicht zu trennen von der Aussetzung ‚nackten Lebens‘ […].“ (Lemke 2008: 90)

Diese Charakterisierung weist eine gewisse Parallele zu dem Unbehagen auf, das in Luhmanns Konfrontation mit den ‚vollexkludierten‘ Bewohnern der Favelas zum Vorschein kommt, und der daraus resultierenden Verlegenheit, diese im sozialen Raum nur über ihren Körper markieren zu können (Luhmann 2008: 226ff). Blumenbergs Betonung einer wesensmäßigen Artifizialität des ‚Menschen‘ sowie Hobbes' natürlicher Unnatürlichkeit des Akteurs können in der von Agamben entlehnten Sichtweise einer Opposition von ‚Leben‘ und ‚Akteur‘ bzw. vergesellschafteten ‚Menschen‘ ebenfalls in eine Argumentationslinie überführt werden, die einen ideengeschichtlich relativ weiten anschluss- und verweisreichen Bogen aufspannt (Blumenberg 1981: 114f).

E IN AKTEURMODELL FÜR C YBORGS Ein soziologisches Akteurmodell für Cyborgs muss einerseits die AkteurSoziales-Differenz bearbeiten können sowie andererseits den Akteur als wesensmäßig artifizielle Entität in den Blick nehmen können, die sich in irgendeiner Weise aber grundsätzlich unterscheiden lässt von rein Artifiziellem. Falls diese letzte Bedingung nicht erfüllt ist, fehlt einer soziologischen Sichtweise die Grundlage: Soziologie als Wissenschaft ist weiterhin an ihre Entstehungsbedingungen gebunden (vgl. zum Verweiszusammenhang von Moderne und der Genese der ‚Sozialwissenschaften‘ Pankoke 1977; Nassehi 2000; 2001: 209f; Lepenies 1981: Beiträge in „Teil I“; Koselleck 2006: 264ff; Foucault 1993: 187; Latour 2005: 110 Fn145). Welche Konsequenzen hätte es, wenn nicht mehr eindeutig angegeben werden könnte, welche Entitäten den Gegenstand beobachten und somit an dessen Aufbau wesentlich beteiligt sind? Insofern ist es vermutlich unerlässlich ein der reinen Artifizialität entgegenstehendes Element dem Akteurmodell als Nullwert zugrunde zu legen. Die ‚Zoë‘ eignet sich als Nullwert für einen Akteurbegriff, der den Akteur lediglich als ‚Bios‘ im Sinne Arendts versteht und sich als Differenz zum Sozialen herausschält. Ein Akteurmodell für Cyborgs eignet sich in eher überschaubarem Ausmaß für die Untersuchung enger Mensch-Technik-

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 111

Kopplungen sowie, in einer vermutlich deutlich umfangreicheren Hinsicht, für die Dekonstruktion subjektivierungsvergessener Theoriedispositive, die mit jedem Blick Unterwerfungssubjekte und ungleichheitsstiftende Strukturkategorien nicht nur reproduzieren, sondern auf dem Boden der auf diese Weise gewonnenen Erkenntnisse deren Fortbestand legitimieren. Das hier lediglich vorbereitete Akteurmodell für Cyborgs möchte sowohl eine Ergänzung bestehender Theorieproduktion als auch eine Erweiterung gegenstandsbezogener Erfassung darstellen. In beiden Fällen vermag ein Modell, das das Leben als Nullwert aufweist, der Artifizialität des Akteurs gerecht zu werden. Im Rahmen sozialtheoretischer Weiterentwicklung vermag das Modell die Akteure in einer konstitutiv-interdependenten Differenz zum Sozialen zu erfassen, ohne die sich im Gegenstand abspielende ‚Subjektivierung‘ zugrunde legen zu müssen. Die gegenstandseitige ‚Verkörperung‘ des Akteurs, diesen mit dem ‚Menschen als Lebewesen‘ gleichzusetzen, ist eine historisch kontingente Entwicklung, die auf das Erkenntnissubjekt und dessen theistischen Ursprung zurückgeführt werden kann (vgl. Borsche 1997: 265f). Den Gegenstand adäquat zu erfassen, bedeutet – unabhängig davon, dass es hier hauptsächlich darum gehen soll, die Artifizialität des Akteurs nicht zu unterschlagen – die gesellschaftlichen ‚Erzeugnisse‘ soziologisch als solche in den Blick nehmen zu können. Ein Akteurmodell, das die sich im Gegenstand etablierenden Subjektanteile nicht beinhaltet, vermag es, die zunehmende Körperthematisierung, die gegenstandseitig für eine Rettung des Subjektes als verkörperte Entität gewertet werden kann, zu erfassen. Anders ausgedrückt: Den Akteur als Subjekt wahrzunehmen, gelingt mit einem Modell, das keine Elemente des Subjektes beinhaltet, ungleich besser. Das skizzierte Akteurmodell wird im Rahmen empirischer Forschung zeigen müssen, ob es die – insbesondere von Lindemann (1999; 2002b: 48ff, 425ff; 2006) und Haraway (1995; 1997: 125ff; 2006) – angezeigten Zusammenhänge adäquat erfassen und zugleich gegebenenfalls für Überraschungen sorgen kann. Die zentralen Annahmen gehen dabei, grob zusammengefasst, in diese Richtung: Die Verkörperung des Akteurs als handelnde Entität wird im sozialen Raum beständig gestützt, weil ihr die Funktion des Dritten zukommt. Zugleich werden realiter die Auflösungstendenzen unterwandert und die kontingenten, mit dem Körper und den ‚organischen‘ Körpergrenzen verbundenen bzw. an ihm haftenden Strukturkategorien auf einer wirklichkeitskonstitutiven Ebene mitreproduziert, wobei Merkmale, die auf den Ge-

112 | D IEGO COMPAGNA

schlechterdualismus oder ethnische Zugehörigkeit verweisen, besonders prominente Beispiele hierfür abgeben. Das Modell behält im Kern das kritische Potenzial der Cyborg Metapher bei, insofern es – wenn es ‚funktioniert‘ – die genauso elementaren wie unbemerkt ineinandergreifenden Mechanismen in besonderer Schärfe zum Vorschein bringt, die den Akteur daran hindern, die ihn benachteiligenden, mit seinem ‚Antlitz‘ und als ‚organische Grundausstattung‘ jeweils attribuierten Merkmalen abzuschütteln (Compagna 2013; 2014).

L ITERATUR Agamben, Giorgio (2005): Das Offene. Der Mensch und das Tier. [Original: (2002)] Frankfurt a.M.: Suhrkamp. Agamben, Giorgio (2007): Homo sacer. Die souveräne Macht und das nackte Leben. [Original: (1995)] Frankfurt a.M.: Suhrkamp. Arendt, Hannah (2010): Vita activa oder Vom tätigen Leben. [Original: (1958)] München [u.a.]: Piper. Baecker, Dirk (1996): Kybernetik zweiter Ordnung. [Original: (1993)] S. 1723 in: Foerster, Heinz von (Hrsg.): Wissen und Gewissen. Versuch einer Brücke. Frankfurt a.M.: Suhrkamp. Baecker, Dirk (2011): Who qualifies for communication? A systems perspective on human and other possibly intelligent beings taking part in the next society. Technikfolgenabschätzung – Theorie und Praxis 20 (1): 1726. Blumenberg, Hans (1981): Anthropologische Annäherung an die Aktualität der Rhetorik. [Original: (1971)] S. 104-136 in: Ders.: Wirklichkeiten in denen wir leben. Aufsätze und eine Rede. Stuttgart: Reclam. Borsche, Tilman (1997): Leben des Begriffs nach Hegel und Nietzsches Begriff des Lebens. S. 245-266 in: Simon, Josef (Hrsg.): Orientierung in Zeichen. Zeichen und Interpretation III. Frankfurt a.M.: Suhrkamp. Braidotti, Rosi (2009): Zur Transposition des Lebens im Zeitalter des genetischen Biokapitalismus. S. 108-135 in: Weiß, Martin G. (Hrsg.): Bios und Zoë. Die menschliche Natur im Zeitalter ihrer technischen Reproduzierbarkeit. Frankfurt a.M.: Suhrkamp.

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 113

Butler, Judith (2003): Noch einmal: Körper und Macht. S. 52-67 in: Honneth, Axel/Saar, Martin (Hrsg.): Michel Foucault. Zwischenbilanz einer Rezeption. Frankfurter Foucault-Konferenz 2001. Frankfurt a.M.: Suhrkamp. Butler, Judith (2010): Psyche der Macht. Das Subjekt der Unterwerfung. [Original: (1997)] Frankfurt a.M.: Suhrkamp. Canguilhem, Georges (2001a): Die epistemologische Funktion des „Einzigartigen“ in der Wissenschaft vom Leben. [Original: (1979)] S. 59-74 in: Ders.: Wissenschaftsgeschichte und Epistemologie. Gesammelte Aufsätze. Frankfurt a.M.: Suhrkamp. Canguilhem, Georges (2001b): Die Herausbildung des Konzeptes der biologischen Regulation im 18. und 19. Jahrhundert. [Original: (1979)] S. 89109 in: Ders.: Wissenschaftsgeschichte und Epistemologie. Gesammelte Aufsätze. Frankfurt a.M.: Suhrkamp. Compagna, Diego (2013): Postnukleare Handlungstheorie – Soziale Akteure, moderne Subjekte und Handlungsträgerschaft in digitalen Spielen. S. 109-129 in: Compagna, Diego/Derpmann, Stefan (Hrsg.): Soziologische Perspektiven auf Digitale Spiele. Virtuelle Handlungsräume und neue Formen sozialer Wirklichkeit. Konstanz: UVK Verl. Compagna, Diego (2014): Postnukleare Handlungstheorie. Ein soziologisches Akteurmodell für Cyborgs. Bielefeld: transcript. Derrida, Jacques (2003): Die Schrift und die Differenz. [Original: (1967)] Frankfurt a.M.: Suhrkamp. Descartes, René (1992): Meditationen über die Grundlagen der Philosophie. Meditationes de prima philosophia. [Original: (1641)] Hamburg: Meiner. Foucault, Michel (1993): Die politische Technologie der Individuen. [Original: (1988)] S. 168-187 in: Martin, Luther H./Gutman, Huck/Hutton, Patrick H. (Hrsg.): Technologien des Selbst. Frankfurt a.M.: Fischer. Foucault, Michel (1995): Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften. [Original: (1966)] Frankfurt a.M.: Suhrkamp. Foucault, Michel (2002): Überwachen und Strafen. Die Geburt des Gefängnisses. [Original: (1975)] Frankfurt a.M.: Suhrkamp. Freud, Sigmund (2007): Vorlesungen zur Einführung in die Psychoanalyse. [Original: (1915-1917)] S. 33-445 in: Ders.: Vorlesungen zur Einführung in die Psychoanalyse und Neue Folge. Studienausgabe: Band 1. Frankfurt a.M.: Fischer-Taschenbuch-Verl.

114 | D IEGO COMPAGNA

Garfinkel, Harold (2007): Passing and the managed achievement of sex status in an intersexed person. Part 1. [Original: (1967)] S. 116-185 in: Ders.: Studies in ethnomethodology. Cambridge: Polity Press. Giddens, Anthony (1991): Modernity and self-identity. Self and society in the late modern age. Stanford, Ca: Stanford University Press. Gomolla, Mechthild/Radtke, Frank-Olaf (2009): Institutionelle Diskriminierung. Die Herstellung ethnischer Differenz in der Schule. [Original: (2003)] Wiesbaden: VS, Verl. für Sozialwiss. Greshoff, Rainer/Kneer, Georg/Schimank, Uwe (2003): Einleitung. S. 9-18 in: Dies. (Hrsg.): Die Transintentionalität des Sozialen. Eine vergleichende Betrachtung klassischer und moderner Sozialtheorien. Wiesbaden: Westdt. Verl. Gugutzer, Robert (2002): Leib, Körper und Identität. Eine phänomenologisch-soziologische Untersuchung zur personalen Identität. Wiesbaden: Westdt. Verl. Gugutzer, Robert (2004): Soziologie des Körpers. Bielefeld: transcript. Gugutzer, Robert (2006a): Der body turn in der Soziologie. Eine programmatische Einführung. S. 9-53 in: Ders. (Hrsg.): Body turn. Perspektiven der Soziologie des Körpers und des Sports. Bielefeld: transcript. Gugutzer, Robert (Hrsg.) (2006b): Body turn. Perspektiven der Soziologie des Körpers und des Sports. Bielefeld: transcript. Hahn, Alois (1982): Zur Soziologie der Beichte und anderer Formen institutionalisierter Bekenntnisse. Selbstthematisierung und Zivilisationsprozess. Kölner Zeitschrift Kölner Zeitschrift für Soziologie und Sozialpsychologie 34: 408-434. Haraway, Donna J. (1988): Situated knowledges. The science question in feminism and the privilege of partial perspective. Feminist Studies 14 (3): 575-599. Haraway, Donna J. (1995): Ein Manifest für Cyborgs. Feminismus im Streit mit den Technowissenschaften. [Original: (1984)] S. 33-72 in: Dies.: Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen. Frankfurt [u.a.]: Campus-Verl. Haraway, Donna J. (1997): Modest_Witness@Second_Millennium. FemaleMan_Meets_OncoMouseTM. Feminism and Technoscience. New York [u.a.]: Routledge. Haraway, Donna J. (2006): Das Abnehmespiel. Ein Spiel mit Fäden für Wissenschaft, Kultur und Feminismus. [Original: (1995)] S. 136-148 in:

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 115

Dies.: Monströse Versprechen. Die Gender- und Technologie-Essays. Hamburg [u.a.]: Argument-Verl. Hayles, N. Katherine (1999): How we became posthuman. Virtual bodies in cybernetics, literature and informatics. Chicago [u.a.]: Univ. of Chicago Press. Hobbes, Thomas (1990): Léviathan. [Original: (1651)] Stuttgart: Reclam. Hobbes, Thomas (1994): Vom Bürger. [Original: (1642)] S. 57-327 in: Ders.: Vom Menschen/Vom Bürger. Elemente der Philosophie II/III. Hamburg: Meiner Felix Verlag. Ihde, Don (2002): Bodies in technology. Minneapolis [u.a.]: University of Minnesota Press. Jungwirth, Ingrid (2007): Zum Identitätsdiskurs in den Sozialwissenschaften. Eine postkolonial und queer informierte Kritik an George H. Mead, Erik H. Erikson und Erving Goffman. Bielefeld: transcript. Knorr-Cetina, Karin (2009): Jenseits der Aufklärung. Die Entstehung der Kultur des Lebens. [Original: (2005)] S. 55-71 in: Weiß, Martin G. (Hrsg.): Bios und Zoë. Die menschliche Natur im Zeitalter ihrer technischen Reproduzierbarkeit. Frankfurt a.M.: Suhrkamp. Koselleck, Reinhart (2006): Über die Verfügbarkeit der Geschichte. [Original: (1977)] S. 260-277 in: Ders.: Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt a.M.: Suhrkamp. Latour, Bruno (2005): Reassembling the social. An introduction to ActorNetwork-Theory. Oxford [u.a.]: Oxford Univ. Press. Lemke, Thomas (2008): Gouvernementalität und Biopolitik. [Original: (2007)] Wiesbaden: VS Verl. für Sozialwissenschaften. Lemke, Thomas (2010): Genetische Diskriminierung. Empirische Befunde und konzeptionelle Probleme. S. 323-344 in: Hormel, Ulrike/Scherr, Albert (Hrsg.): Diskriminierung. Grundlagen und Forschungsergebnisse. Wiesbaden: VS, Verl. für Sozialwiss. Lemke, Thomas/Wehling, Peter (2009): Bürgerrechte durch Biologie?. Kritische Anmerkungen zur Konjunktur des Begriffs „biologische Bürgerschaft“. S. 72-107 in: Weiß, Martin G. (Hrsg.): Bios und Zoë. Die menschliche Natur im Zeitalter ihrer technischen Reproduzierbarkeit. Frankfurt a.M.: Suhrkamp. Lepenies, Wolf (Hrsg.) (1981): Geschichte der Soziologie (Band 1). Studien zur kognitiven, sozialen und historischen Identität einer Disziplin. Frankfurt a.M.: Suhrkamp.

116 | D IEGO COMPAGNA

Lindemann, Gesa (1993): Wider die Verdrängung des Leibes aus der Geschlechtskonstruktion. Feministische Studien 11 (2): 44-54. Lindemann, Gesa (1999): Doppelte Kontingenz und reflexive Anthropologie. Zeitschrift für Soziologie 28 (3): 165-181. Lindemann, Gesa (2002a): Person, Bewusstsein, Leben und nur-technische Artefakte. S. 79-100 in: Rammert, Werner/Schulz-Schaeffer, Ingo (Hrsg.): Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt a.M. [u.a.]: Campus-Verl. Lindemann, Gesa (2002b): Die Grenzen des Sozialen. Zur sozio-technischen Konstruktion von Leben und Tod in der Intensivmedizin. München: Fink. Lindemann, Gesa (2006): Die Emergenzfunktion und die konstitutive Funktion des Dritten. Perspektiven einer kritisch-systematischen Theorieentwicklung. Zeitschrift für Soziologie 35 (2): 82-101. List, Elisabeth (2001): Grenzen der Verfügbarkeit. Die Technik, das Subjekt und das Lebendige. Wien: Passagen-Verl. Luhmann, Niklas (2008): Inklusion und Exklusion. [Original: (1994)] S. 226-251 in: Ders.: Die Soziologie und der Mensch. Soziologische Aufklärung 6. Wiesbaden: VS Verl. für Sozialwiss. Lutterer, Wolfram (2004): Meme und egoistische Gene. Zur Evidenz des Lebens in der Soziobiologie. S. 347-358 in: Bröckling, Ulrich/Paul, Axel T./Kaufmann, Stefan (Hrsg.): Vernunft – Entwicklung – Leben. Schlüsselbegriffe der Moderne. Festschrift für Wolfgang Eßbach. München: Fink. Lévi-Strauss, Claude (1978): Einleitung in das Werk von Marcel Mauss. [Original: (1950)] S. 7-41 in: Mauss, Marcel: Soziologie und Anthropologie (Band 1). Theorie der Magie. Soziale Morphologie. Frankfurt a.M. [u.a.]: Ullstein. Mannheim, Karl (1995): Ideologie und Utopie. [Original: (1929)] Frankfurt a.M.: Klostermann. Mauss, Marcel (1978): Die Techniken des Körpers. [Original: (1935)] S. 197-220 in: Ders.: Soziologie und Anthropologie (Band 2). Gabentausch. Soziologie und Psychologie. Todesvorstellung. Körpertechniken. Begriff der Person. Frankfurt a.M. [u.a.]: Ullstein. Merton, Robert K. (1985): Entwicklung und Wandel von Forschungsinteressen. Aufsätze zur Wissenschaftssoziologie. [Original: (1973)] Frankfurt a.M.: Suhrkamp.

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 117

Monod, Jacques (1991): Zufall und Notwendigkeit. Philosophische Fragen der modernen Biologie. [Original: (1970)] München: Dt. TaschenbuchVerl. Müller, Andrea G./Stanat, Petra (2006): Schulischer Erfolg von Schülerinnen und Schülern mit Migrationshintergrund. Analysen zur Situation von Zuwanderern aus der ehemaligen Sowjetunion und aus der Türkei. S. 221255 in: Baumert, Jürgen/Stanat, Petra/Watermann, Rainer (Hrsg.): Herkunftsbedingte Disparitäten im Bildungswesen: Differenzielle Bildungsprozesse und Probleme der Verteilungsgerechtigkeit. Vertiefende Analysen im Rahmen von PISA 2000. Wiesbaden: VS Verl. für Sozialwiss. Münker, Stefan/Roesler, Alexander (2000): Poststrukturalismus. Stuttgart [u.a.]: Metzler. Nassehi, Armin (2000): Die Geburt der Soziologie aus dem Geist der Individualität. S. 45-67 in: Kron, Thomas (Hrsg.): Individualisierung und soziologische Theorie. Opladen: Leske + Budrich. Nassehi, Armin (2001): Moderne Gesellschaft. S. 208-245 in: Kneer, Georg/Nassehi, Armin/Schroer, Markus (Hrsg.): Klassische Gesellschaftsbegriffe der Soziologie. München: Fink. Pankoke, Eckart (1977): Fortschritt und Komplexität. Die Anfänge moderner Sozialwissenschaft in Deutschland. S. 352-374 in: Koselleck, Reinhart (Hrsg.): Studien zum Beginn der modernen Welt. Stuttgart: Klett-Cotta. Plessner, Helmuth (1975): Die Stufen des Organischen und der Mensch. Einleitung in die philosophische Anthropologie. [Original: (1928)] Berlin [u.a.]: de Gruyter. Rammert, Werner/Schulz-Schaeffer, Ingo (2002): Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Abläufe verteilt. S. 11-64 in: Dies. (Hrsg.): Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt a.M. [u.a.]: Campus-Verl. Rheinberger, Hans-Jörg/Müller-Wille, Staffan (2009): Technische Reproduzierbarkeit organischer Natur. Aus der Perspektive einer Geschichte der Molekularbiologie. S. 11-33 in: Weiß, Martin G. (Hrsg.): Bios und Zoë. Die menschliche Natur im Zeitalter ihrer technischen Reproduzierbarkeit. Frankfurt a.M.: Suhrkamp. Rose, Nicholas (2001): The politics of life itself. Theory, Culture & Society 18 (6): 1-30.

118 | D IEGO COMPAGNA

Schroer, Markus (Hrsg.) (2005): Soziologie des Körpers. Frankfurt a.M.: Suhrkamp. Segeritz, Michael/Walter, Oliver/Stanat, Petra (2010): Muster des schulischen Erfolgs von jugendlichen Migranten in Deutschland. Evidenz für segmentierte Assimilation? Kölner Zeitschrift für Soziologie und Sozialpsychologie 62 (1): 113-138. Thompson, Charis (2009): Die Farbe der Haut. Zur Persistenz des biologischen Rassebegriffs in der Reproduktionsmedizin. [Original: (2008)] S. 304-329 in: Weiß, Martin G. (Hrsg.): Bios und Zoë. Die menschliche Natur im Zeitalter ihrer technischen Reproduzierbarkeit. Frankfurt a.M.: Suhrkamp. Treiber, Hubert/Steinert, Heinz (1980): Die Fabrikation des zuverlässigen Menschen. Über die „Wahlverwandschaft“ von Kloster- und Fabrikdisziplin. München: Moos. Villa, Paula-Irene (2006): Sexy Bodies. Eine soziologische Reise durch den Geschlechtskörper. [Original: (1999)] Wiesbaden: VS Verlag für Sozialwissenschaften/GWV Fachverlage GmbH. Villa, Paula-Irene (Hrsg.) (2008): Schön normal. Manipulationen am Körper als Technologien des Selbst. Bielefeld: transcript. Voß, Heinz-Jürgen (2010): Making sex revisited. Dekonstruktion des Geschlechts aus biologisch-medizinischer Perspektive. Bielefeld: transcript. Warburg, Jens (2008): Das Militär und seine Subjekte. Zur Soziologie des Krieges. Bielefeld: transcript. Wehling, Peter (2008): Biomedizinische Optimierung des Körpers. Individuelle Chance oder suggestive soziale Norm? S. 945-960 in: Rehberg, Karl-Siegbert (Hrsg.): Die Natur der Gesellschaft. Verhandlungen des 33. Kongresses der Deutschen Gesellschaft für Soziologie in Kassel 2006. Frankfurt a.M. [u.a.]: Campus-Verl. Wehling, Peter/Viehöver, Willy/Keller, Reiner/Lau, Christoph (2007): Zwischen Biologisierung des Sozialen und neuer Biosozialität. Dynamiken der biopolitischen Grenzüberschreitung. Berliner Journal für Soziologie 17 (4): 547-567. Weiß, Martin G. (Hrsg.) (2009a): Bios und Zoë. Die menschliche Natur im Zeitalter ihrer technischen Reproduzierbarkeit. Frankfurt a.M.: Suhrkamp.

Z UR N ATURALISIERUNG

SOZIALER

A KTEURE ALS M ENSCHEN | 119

Weiß, Martin G. (2009b): Die Auflösung der menschlichen Natur. S. 34-54 in: Ders. (Hrsg.): Bios und Zoë. Die menschliche Natur im Zeitalter ihrer technischen Reproduzierbarkeit. Frankfurt a.M.: Suhrkamp. Wittgenstein, Ludwig (1990a): Logisch-philosophische Abhandlung. Tractatus logico-philosophicus. S. 7-85 in: Ders.: Werkausgabe Band 1. Tractatus logico-philosophicus, Tagebücher 1914-1916, Philosophische Untersuchungen. Frankfurt a.M.: Suhrkamp. Wittgenstein, Ludwig (1990b): Philosophische Untersuchungen. [Original: (1953)] S. 225-580 in: Ders.: Werkausgabe Band 1. Tractatus logico-philosophicus, Tagebücher 1914-1916, Philosophische Untersuchungen. Frankfurt a.M.: Suhrkamp.

Technikwissenschaften: Nanotechnologie und synthetische Biologie

Posthumanismus und Menschenwürde Zu den ethischen Problemen der Enhancement-Debatte M ARTIN G. W EISS

1. E INLEITUNG Der Begriff Post- oder Transhumanismus bezeichnet eine philosophische Position, die sich der theoretischen Analyse und moralphilosophischen Rechtfertigung der bereits praktizierten und in Zukunft möglicherweise verfügbaren technischen „Verbesserung“ (Enhancement) der biologischen Natur des Menschen verschrieben hat. Die (bio)ethischen Diskussionen, die der Trans- oder Posthumanismus provoziert hat, kreisen dabei vornehmlich um die implizite Infragestellung des (normativen) Begriffs vom Menschen und des damit zusammenhängenden Konzepts der Menschenwürde. Während Kritiker der posthumanistischen Verbesserungsphantasien die Meinung vertreten die dafür vorgesehenen technischen Eingriffe in die Natur des Menschen bedeuteten eine Verletzung der Würde des Menschen, kontern die Verteidiger des Posthumanismus mit dem Begriffs der „posthumanen Würde“. Dieser Begriff taucht zum ersten Mal im Artikel In Defense of Posthuman Dignity auf, den Nick Bostrom 2005 in der Zeitschrift Bioethics veröffentlichte. In diesem Artikel betont Bostrom, dass Enhancement-Technologien – weder in Bezug auf die dabei eingesetzten Mittel, noch in Bezug auf die mit ihnen verfolgen Ziele – eine Gefahr für die menschliche Würde und

124 | M ARTIN G. W EISS

die von ihr abgeleiteten fundamentale Menschenrechte darstellten (Bostrom 2005). Da das Konzept der „Menschenwürde“ ebenso wie das der „Verbesserung“ umstritten ist und die Antwort auf die Frage, ob der Versuch den menschlichen Körper mithilfe von Gentechnologie, Prothetik und Pharmakologie zu verbessern die Würde des Menschen verletzt, davon abhängt, wie man beide Begriffe definiert, möchte ich im Folgenden zunächst versuchen diese beiden Schlüsselkonzepte der Enhancement-Debatte zu klären, um abschließend eine Antwort auf die Frage nach ihrem Verhältnis zu wagen.

2. P OST - BZW . T RANSHUMANISMUS In den Worten Nick Bostroms bezeichnet der Begriff „Transhumanismus, eine lose zusammenhängende Bewegung die sich in den letzten zwei Jahrzehnten herausgebildet hat und als Fortführung humanistischer und aufklärerischer Ansätze beschrieben werden kann. Der Transhumanismus vertritt die These, dass die derzeitige Natur des Menschen mithilfe der angewandten Wissenschaften und anderer rationaler Methoden verbessert werden kann, um die menschliche Lebenserwartung zu steigern, unsere intellektuellen und physischen Fähigkeiten auszuweiten und uns mehr Kontrolle über unsere mentalen Zustände und Stimmungen zu ermöglichen“ (Bostrom 2005: 203). Das Kernkonzept des Posthumanismus beruft sich also auf die Ideale des Renaissance-Humanismus und der Aufklärung. Tatsächlich schreibt Pico della Mirandola in seiner 1486 erschienen Oratio de Degnitate Hominis, einer Art Manifest des Humanismus: „So nahm er [Gott] den Menschen als ein Werk unbestimmter Art auf, stellte ihn in die Mitte der Welt und sprach zu ihm wie folgt: ‚Dir, Adam, habe ich keinen bestimmten Ort, kein eigenes Aussehen und keinen besonderen Vorzug verliehen, damit du den Ort, das Aussehen und die Vorzüge, die du dir wünschest, nach eigenem Beschluss und Ratschlag dir erwirbst. Die begrenzte Natur der anderen ist in Gesetzen enthalten, die ich vorgeschrieben habe. Von keinen Schranken eingeengt sollst du deine eigene Natur selbst bestimmen nach deinem Willen, dessen Macht ich dir überlassen habe. Ich stellte dich in die Mitte der Welt, damit du von dort aus alles, was ringsum ist, besser überschaust. Ich erschuf dich weder himmlisch noch irdisch, weder

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 125

sterblich noch unsterblich, damit du als dein eigener, gleichsam freier, unumschränkter Baumeister dich selbst in der von dir gewählten Form aufbaust und gestaltest. Du kannst nach unten in den Tierwesen entarten; du kannst nach oben, deinem eigenen Willen folgend, im Göttlichen neu erstehen.“ (Pico della Mirandola 1983: 65-66)

Dieser „humanistische“ Ansatz definiert den Menschen als „animal rationabile“, wie es bei Kant heißt, also als ein Tier auf dem Weg zur Vernunft, für das das Menschsein lediglich eine Etappe auf dem Weg eines vielleicht endlosen Prozesses darstellt. Dem Humanismus scheint so von Anfang an eine Tendenz zum Posthumanismus innezuwohnen. In den Worten von John Harris: „Es ist sehr unwahrscheinlich, dass es je eine Zeit gab in der wir, Abkömmlinge von Affen, nicht nach Verbesserungen strebten, danach etwas besser zu machen und uns selbst zu verbessern.“ (Harris 2007: 13) Kant begreift die Entwicklung des menschlichen Tieres zum Menschen, also die Geschichte der Zivilisation, als „Emanzipation“ von der Natur. Ihm zufolge besteht die Entwicklung zum Menschen, den er durch Rationalität bestimmt sieht, in der zunehmenden Befreiung von den Fesseln der Natur, die er tendenziell mit Körperlichkeit und Affektivität identifiziert. Trotz aller Versuche den Menschen zu formen, seine Seele zu erziehen und seinen Körper zu disziplinieren, hat allerdings bis vor kurzem niemand wirklich die Beständigkeit der biologischen Basis des Menschen bezweifelt. Vor den rasanten Entwicklungen in Pharmakologie, Genetik und Prothetik wurde die menschliche Natur, d.h. das biologische Substrat des Menschen, als unveränderlich angesehen. Diese letzte Objektivität gibt es nun nicht mehr. Der Mensch hat endgültig den Boden unter den Füßen verloren. Spätestens seit den Arbeiten von Freud wissen wir, dass wir uns auf unsere Seele und Subjektivität nicht mehr verlassen können, dass wir „nicht mehr Herr im eigenen Hause sind“. Durch die überwältigenden Erfolge der Biotechnologie sind wir heute zudem gezwungen zu akzeptieren, dass auch unsere biologische Natur, das was an uns „objektiv“ ist, zunehmenden zur Disposition steht. Es gibt keine biologischen Grenzen dessen mehr, was Menschen sein können, kein intrinsisches Wesen des Menschen, weder in Bezug auf die menschliche Seele noch in Hinblick auf die menschliche Biologie. Damit erfüllt die Biotechnologie den Traum der Renaissance, das menschliche Tier endgültig von allen natürlichen Schranken zu befreien und zum Schöpfer seiner selbst zu machen. Doch in welche Richtung soll die Selbstmanipulation gehen?

126 | M ARTIN G. W EISS

Der Posthumanismus spricht sich für die Verbesserung zumindest dreier Bereiche aus: Erstens für eine Verlängerung der „Lebenserwartung – der Fähigkeit lange völlig gesund, sowohl geistig als auch körperlich aktiv und produktiv zu bleiben“; zweitens für eine Verbesserung der „Kognition – der allgemeinen intellektuelle Fähigkeiten, wie Erinnerung, deduktives und analogisches Denken, Aufmerksamkeit, aber auch besonderer Fähigkeiten wie beispielsweise derjenigen Musik, Humor, Erotik, Literatur, Spiritualität, Mathematik etc. verstehen und schätzen zu können“; drittens für eine Intensivierung unserer „Emotionalität – der Fähigkeit das Leben zu genießen und affektiv angemessen auf Lebenssituationen und andere Menschen reagieren zu können“ (Bostrom 2008: 107). Für Bioethiker mit einer Neigung zu Posthumanismus und Liberalismus sind Verbesserungen dieser zentralen Eigenschaften des Menschen nicht nur unproblematisch, sondern wünschenswert, da diese Fähigkeiten aus ihrer Sicht keine „Luxusgüter“ darstellen – „die ihren Besitzern nur in dem Maße einen Nutzen bringen in dem andere diese nicht besitzen“ (Bostrom/Savulescu 2009b: 11) – sondern Allzweckheilmittel, die unabhängig von persönlichen Vorstellungen darüber, was das gute Leben ist, die Lebensqualität steigern. Während der Nutzen einer verlängerten Lebenserwartung hinreichend klar ist und lediglich die Frage aufwirft, ob wir in einer Welt ohne „Gebürtlichkeit“ (Arendt 1998) und die Frische der Jugend leben wollen – da eine Gesellschaft mit längerer Lebenserwartung sich darauf einigen müsste, die Geburtenrate auf ein Minimum zu beschränken –, scheint es sehr viel schwieriger anzugeben, was es bedeuten würde kognitive und emotionale Fähigkeiten zu „verbessern“ und wie begrüßenswert eine solche Entwicklung wäre. Wollen wir uns wirklich an alles erinnern? Welche Konsequenzen würde ein allgemein erhöhter IQ mit sich bringen? Was für eine Gesellschaft wäre eine Gesellschaft von Mr. Spocks, in der jeder vollständige Kontrolle über seine Affekte und Stimmungen hätte? Und schließlich: Wozu würde eine Steigerung unserer spirituellen Fähigkeiten führen? Können nicht-verbesserte Menschen, also wir, uns überhaupt vorstellen, was all dies bedeuten würde? Und falls nicht, wie sollen wir dann ein Urteil darüber fällen, ob diese Verbesserungen wünschenswert sind, oder nicht? Denn obwohl es für verbesserte Menschen möglicherweise gut sein könnte, verbessert worden zu sein (aber woher wollen wir das wissen?), müssen zunächst wir die Frage

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 127

beantworten, ob es für uns (noch nicht verbesserte Menschen) gut ist, verbessert zu werden. Denn zunächst sind wir es, die für uns entscheiden müssen, ob wir uns „verbessern“ – d.h. in die biologischen Grundlagen unserer gegenwärtigen Existenz eingreifen – wollen, oder nicht. In seinem Artikel Why I want to be a Posthuman When I Grow Up (Bostrom 2008), versucht Bostrom seine Leser davon zu überzeugen, dass es keinen Widerspruch zwischen der Menschenwürde und dem Bestreben nach technologischer Überwindung des Menschen gäbe, da die „Verbesserung“ des gegenwärtigen Menschen der Menschenwürde nicht nur nicht widerspräche, sondern das Prinzip der Menschenwürde die Überwindung des bisherigen Menschen geradezu verlange und wir daher bereits als (noch nicht verbesserte) Menschen eine moralische Verpflichtung hätten uns zu verbessern. Nicht die Versuche die menschliche Biologie zu verbessern, sondern diese Eingriffe zu behindern, verstießen demnach gegen die Würde des Menschen, da der Mensch wesentlich das „nicht festgestellte Tier“ (Nietzsche) sei, ein Freiheitswesen, dessen Wesen darin bestehe sich selbst zu formen. Wenn der Mensch wesentlich frei ist, d.h. die Fähigkeit besitzt sich selbst Zwecke zu setzen – auch in Bezug auf seine biologische Ausstattung – und darin seine unantastbare Würde besteht, dann kommt eine Einschränkung der Möglichkeiten seiner technischen Selbstverbesserung, einer Verletzung seiner Freiheit und damit seiner Würde gleich. Kritiker des Posthumanismus argumentieren nun aber, dass wir die Vorund Nachteile vieler der von den Transhumanisten vorgeschlagenen Verbesserungen nicht einschätzen können, weil wir als Noch-Menschen schlicht nicht in der Lage seien uns vorzustellen, was es bedeuten würde in diesen Belangen verbessert zu sein. Dagegen behauptet Bostrom, dass diese Verbesserungen „veranlagte Güter“ seien, also Güter von denen wir uns sehr wohl vorstellen könnten, dass wir ihren Besitz wertschätzen würden, auch wenn wir jetzt noch keine genaue Kenntnis von ihnen haben: „In Bezug auf die meisten Menschen gibt es mögliche posthumane Existenzformen, die zu werden für diese Menschen gut sein könnte“ (Bostrom 2008: 108). Nicholas Agar verdeutlich dies anhand eines Musikliebhabers, der zwar noch nie Bachs Messe in h-Moll gehört hat, von dem wir aber annehmen dürfen, dass er sie wertschätzen würde, würde er sie zu Gehör bekommen. Obschon der Musikliebhaber Bachs Messe in h-Moll also (noch) nicht genau kennt, stellt sie für ihn bereits etwas dar, dessen Wert er bereits

128 | M ARTIN G. W EISS

bejahen kann, bevor er sie tatsächlich gehört hat. Das Konzept der veranlagten Güter ermöglicht es Bostrom nun zu argumentieren, dass auch posthumane Werte, die zunächst jenseits unserer Vorstellungskraft zu liegen scheinen, dennoch in den Bereich der von uns akzeptierten Güter fallen können (Agar 2007: 15). Wie der Vergleich mit dem Musikliebhaber zeigt, stimmt das allerdings nur für die Fälle, in denen wir bereits eine gewisse Vorstellung davon haben, was das veranlagte Gut sein könnte. Der Musikliebhaber kann sich vorstellen, dass ihm Bachs Messe gefallen wird, weil er weiß was Musik ist und vielleicht auch, dass ihm Barockmusik gefällt. Hätte er noch nie Barockmusik gehört, oder wüsste er nicht was Musik ist, wäre er wahrscheinlich nicht in der Lage das zukünftige Hören von Bachs Messe als erstrebenswertes Gut aufzufassen. Bostroms Argument gilt also nur für die Steigerung von Fähigkeiten, die wir bereits besitzen, also bereits kennen, so dass wir uns vorstellen könne, was ein gesteigerter Besitz für uns bedeuten würde. Völlig neue Fähigkeiten hingegen, können wir kaum als veranlagte Güter auffassen. Tatsächlich geht es dem Posthumanismus allerdings auch nicht um die Erlangung unvorstellbarer Fähigkeiten, sondern um die Steigerung von Fähigkeiten, die wir bereits besitzen. Bostroms Argumentation bleibt dennoch fragwürdig. Denn abgesehen davon, dass wir es bei ethischen Fragestellungen, die darauf abzielen, wie wir handeln sollen, in gewissem Sinneimmer mit Entscheidungen über zukünftige Guter zu tun haben, die wir gegeneinander abwägen müssen, ließe sich gegen Bostroms Konzept einwenden, dass sich veranlagte Güter nach ihrer Realisierung auch als nicht erstrebenswert herausstellen könnten: So besteht durchaus die Möglichkeit, dass der Musikliebhaber aus dem obigen Beispiel nach dem hören von Bachs h-Moll-Messe zu dem Schluss gelangt, diese sei schlecht und gefalle ihm nicht, wodurch sich das angenommene veranlagte Gut, als (für ihn) als Wertlos erwiese. Für die Enhancement-Dabatte folgt hieraus, dass grundsätzlich nur revidierbare Veränderungen menschlicher Fähigkeiten ethisch vertretbar sind. Keimbahninterventionen sind damit von vornherein auszuschließen; auch wenn es sich bei diesen im strengen Sinne gar nicht um Veränderungen an einem Individuum handelt, sondern um ein Individuum mit anderen bzw. gesteigerten Fähigkeiten als gattungsmäßig üblich. Da es hier kein ursprüngliches Individuum gibt, das ein Leben mit „verbesserten“ Fähigkeiten mit einem Leben davor, vergleichen könnte (höchsten indirekt im Blick auf nicht-verbesserte Mitmen-

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 129

schen), wäre diesem nicht nur praktisch, sondern auch theoretisch von vornherein die Möglichkeit genommen das Resultat der „Verbesserung“ zu bewerten und sich gegebenenfalls für eine Rückkehr zum status quo ante zu entscheiden. Ein als Verbesserter Mensch auf die Welt gekommenes Individuum würde sich – ähnlich wie Menschen mit angeborenen Behinderungen – einerseits subjektiv zwar möglicherweise nicht „anders“ fühlen, da sein „verbesserter“ Körper für ihn völlig normal und gewohnt wäre, andererseits aber von den „Normalen“ sehr wohl als „anders“ wahrgenommen und stigmatisiert. Im Falle von „verbessernden“ Keimbahninterventionen oder Eingriffen an ungeborenem Leben wird das Problem der ethischen Bewertung der angestrebten Veränderungen also dadurch erschwert, dass Subjekt und Objekt der Intervention unterschiedliche Personen sind; in der Version liberaler Eugenik, das ungeborene Kind und die dieses „verbessern“ wollenden Eltern. In wie weit es sich bei den Praktiken der liberalen Eugenik, d.h. der Beeinflussung der genetischen Ausstattung eines ungeborenen Kindes durch dessen Eltern, möglicherweise um eine unzulässige Verzweckung einer zukünftigen Person handelt, wie dies Jürgen Habermas vertritt, werde ich weiter unten erörtern. Bei Eingriffen an selbstbestimmten Personen, denen diese ausdrücklich zugestimmt haben, stellt sich in Bezug auf die Frage nach dem Subjekt und Objekt der „Verbesserung“ die Frage, ob solch tiefe Eingriffe in die Persönlichkeit – wie sie die „Verbesserung“ des Erinnerungsvermögens, der kognitiven Fähigkeiten und der Affektivität darstellen –, nicht auf eine Veränderung der Persönlichkeit hinauslaufen, so dass auch hier das Individuum, das über die Durchführung dieser „Verbesserungen“ befindet (d.h. die Person, die sich für eine „Verbesserung“ dieser Fähigkeiten entscheidet) und das Objekt dieses Eingriffes, d.h. das Individuum, das mit diesen „Verbesserungen“ leben muss, bzw. als Resultat dieser Eingriffe entsteht, nicht das selbe wären. Die Frage die hier auftaucht ist die selbe die sich bei der ethischen Bewertung der Zulässigkeit der freiwilligen Einnahme von persönlichkeitsverändernden Psychopharmaka stellt: Darf ein autonomes Individuum sich freiwillig dafür entscheiden, sich gleichsam selbst so stark zu verändern, dass es sich selbst abschafft, d.h. seine Persönlichkeit so verändert, dass es ein anderer wird, der als solcher wahrscheinlich nicht mehr die Möglichkeit hat, diese Veränderung objektiv zu Bewerten und unter Umständen Rückgängig zu machen? Hat der erfolgreiche Familienvater, mit Job, Frau, Haus, Kind Garten und Hund, der plötzlich in eine Midlifecrisis gerät, das Recht sich von seinem

130 | M ARTIN G. W EISS

Psychiater so hohe Dosen an Gemütsaufhellern verschreiben zu lassen, dass er dieses Leben aushält? Ist der Mann, der nun jeden Morgen seine Pillen einwirft und jeden Sonntag glücklich den Rasen mäht und die Hecke trimmt noch derselbe, der verzweifelt zu seinem Psychiater ging? Hat er sich selbst bis zur Unkenntlichkeit „verbessert“ und durfte er das (Bolt 2007)? Entgegen Bostroms Versuch aufzuzeigen, dass die Fähigkeiten, die für „verbesserte“ Menschen wertvoll wären, auch schon von uns als wertvoll erkannt werden können, betont Agar die Wichtigkeit „lokaler Werte“: „Lokale Werte stehen ganz Oben auf der Liste der Dinge, die unserem Leben Bedeutung verleihen. [...] Niemand würde sein eigenes Kind gegen ein anderes austauschen, und zwar auch dann nicht, wenn dieses andere Kind unbezweifelbar klüger und sportlicher wäre. [...] Ich schätze das Menschsein, weil ich Mensch bin. Ich würde mein Menschsein nie gegen ein Postmenschsein eintauschen, selbst dann nicht, wenn ich der Meinung wäre, dass Postmenschen uns objektiv überlegen sind.“ (Agar 2007: 16) Agar zufolge führt die Annahme posthumaner veranlagter Güter, also von Gütern, die zwar erst in Zukunft für uns wertvoll sein werden, deren zukünftigen Wert wir aber schon heute erkennen können, nicht zu einer moralischen Verpflichtung diese zukünftigen Güter auch zu verwirklichen. Während Agar sich damit begnügt gegen die von Bostrom postulierte Verpflichtung zur „Verbesserung“ zu argumentiert, ist George Annas, einer der offensten Gegner des Posthumanismus – berüchtigt für seine Gleichsetzung von Enhancement-Technologien mit „Massenvernichtungswaffen“ (Annas 2000: 773) –, sehr viel kritischer. Denn für ihn stellen die Verbesserungsphantasien der Posthumanisten einen Anschlag auf das Prinzip Menschenwürde selbst dar: „Es gibt Grenzen in Bezug darauf wie weit wir in der Veränderung der menschlichen Natur gehen dürfen, ohne unser Menschsein und unsere grundlegenden menschlichen Werte zu verändern. Denn es ist unser Menschsein (unsere Verschiedenheit von anderen Tieren), die zu den Konzepten der Menschenwürde und der Menschenrechte geführt hat. Wenn wir diese verlören, verlören wir auch unseren Glauben an die Gleichheit der Menschen. [...] Wenn man die bisherige Geschichte der Menschheit als Leitfaden nimmt, dann ist absehbar, dass entweder die normalen Menschen die ‚Verbesserten‘, oder die ‚Verbesserten‘ die ‚Normalen‘ als ‚die Anderen‘ ansehen würden und versuchen würden sie zu beherrschen oder zu vernichten. Ohne einen universellen

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 131

Begriff der Menschenwürde, würden die verbesserten Menschen entweder zu Unterdrückten, oder zu Unterdrückern werden.“ (Annas 2000: 773; vgl. Silver 1997)

3. M ENSCHENWÜRDE Obwohl der Begriff der Menschenwürde und seine genaue Bedeutung nach wie vor umstritten ist (Resnik 2007), kommt ihm auch in Bezug auf den Posthumanismus eine Schlüsselrolle zu. Was aber ist unter der Würde des Menschen zu verstehen? Drei Definitionen der Menschwürde haben sich als besonders wirkmächtig erwiesen: die Kantische, die Naturalistische und die (auf die jüdisch-christliche Tradition zurückgehende) Religiöse. Alle drei Ansätze teilen die Auffassung, dass sich im Begriff der Menschenwürde die Intuition eines außerordentlichen moralischen Wertes des Menschen ausdrücke, der die Grundlage für seine unverletzlichen Rechte bilde: „Der Begriff Menschenwürde impliziert die Überzeugung, das Menschen ein inhärenter moralischer Wert zukommt. [...] Immanuel Kant, der die einflussreichste Theorie der Menschenwürde entwickelt hat, unterscheidet zwei Arten von Dingen: Dinge, die einen Preis haben und Dinge die Würde besitzen. Dinge die Würde besitzen haben einen moralischen Wert, der nicht in Form eines Preises ausgedrückt werden kann. [...] Nach Kant bedingt der Besitz von Würde das Recht auf eine besondere Behandlung: man soll die Menschheit (in einem selbst oder in einer anderen Person) nicht so behandeln, als ob sie nur einen instrumentellen (Markt)Wert habe, sondern immer so, als ob sie einen inhärenten, moralischen Wert besitze. [...] Moralische Pflichten gegenüber Menschen implizieren moralische Rechte: Menschen haben ein Recht auf Leben, Freiheit, Eigentum, einen fairen Prozess etc.“ (Resnik 2007: 215)

3.1 Der Würdebegriff nach Kant Für Kant besteht die Grundlage der Würde des Menschen in dessen „Autonomie“. Allerdings muss betont werden, dass Kant mit Autonomie nicht die Willkür individueller Entscheidungen meint, sondern die Einsicht in die moralische Selbstgesetzgebung der Vernunft. Der Gegenstand der Würde, in Kants Terminologie die „Person“, ist insofern autonom, als sie in sich selbst

132 | M ARTIN G. W EISS

(autos) die Norm (nomos) der Sittlichkeit – d.h. den „kategorischen Imperativ“ – als „Faktum der Vernunft“ vorfindet. Diese Norm lässt sich, zumindest im gegenwärtigen Kontext, am besten durch die zweite Formulierung des kategorischen Imperativs erläutern: „Handle so, dass du die Menschheit sowohl in deiner Person, als in der Person eines jeden anderen jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst." (Kant 1968: 229) Kants Autonomiebegriff ist also etwas anderes als Entscheidungsfreiheit. Allerdings, lässt sich diese indirekt (obgleich nur als regulatives Prinzip) aus dem Autonomiebegriff ableiten, da der im kategorischen Imperativ formulierte Appell nur Sinn macht, wenn das Subjekt, an das dieser Appel ergeht, frei ist ihn zu befolgen, oder zu missachten. Für Kant besitzt allein der Mensch eine zu achtende Würde, da er als Zwecke setzendes Wesen, Zweck in sich ist, d.h. eine Person, während alle anderen Dinge, einschließlich aller anderen Lebewesen, als Mittel gebraucht werden können, oder wie Kant sagt, bloße Sachen sind: „Person ist dasjenige Subjekt, dessen Handlungen einer Zurechnung fähig sind. Die moralische Persönlichkeit ist also nichts anders, als die Freiheit eines vernünftigen Wesens unter moralischen Gesetzen […], woraus dann folgt, daß eine Person keinen anderen Gesetzen, als denen, die sie […] sich selbst gibt, unterworfen ist. Sache ist ein Ding, was keiner Zurechnung fähig ist. Ein jedes Objekt der freien Willkür, welches selbst der Freiheit ermangelt, heißt daher Sache.“ (Kant 1968b: 223) Aus der Würde des Menschen entspringt der Anspruch auf Achtung seiner Selbstzweckhaftigkeit, d.h. das Verbot seiner Verzweckung bzw. Reduzierung auf ein bloßes Mittel: „Ein jeder Mensch hat rechtmäßigen Anspruch auf Achtung von seinen Nebenmenschen, und wechselseitig ist er dazu auch gegen jeden anderen verbunden. Die Menschheit selbst ist eine Würde; denn der Mensch kann von keinem Menschen (weder von anderen noch so gar von sich selbst) bloß als Mittel, sondern muss jederzeit zugleich als Zweck gebraucht werden und darin besteht eben seine Würde (die Persönlichkeit), dadurch er sich über alle andere Weltwesen, die nicht Menschen sind, und doch gebraucht werden können, mithin über alle Sachen erhebt.“ (Kant 1968b: 462)

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 133

3.2 Von Kant zum Präferenz-Utilitarismus Da die zu achtende Würde des Menschen in dessen Selbstzweckhaftigkeit besteht, diese aber nichts anderes besagt, als dessen Fähigkeit sich selbst Zwecke setzen zu können, also Frei zu sein, bedeutet die Pflicht zur Achtung der Würde des Menschen, die Achtung seiner Freiheit. Worin aber drückt sich diese zu achtende Freiheit aus und wie sieht ihre Achtung bzw. Missachtung konkret aus? Strenggenommen besteht die einzige Missachtung der Würde einer Person darin, sie nicht als Selbstzweck, sondern „als Mittel zu gebrauchen“. Konkret vollzieht sich eine solche Missachtung dadurch, dass ich die Person zu Handlungen zwinge, die sie sich nicht selbst gesetzt hat, d.h. wenn ich sie als bloßes Mittel zu meinen Zwecken missbrauche. Die Würde eines vernunftbegabten Wesens äußert sich zunächst in der Selbstbestimmung seines Willens durch das Sittengesetz, dann aber auch in der Setzung und Verfolgung selbstgewählter Zwecken und Zielen, d.h. in der Verfolgung von Interessen. Die Achtung der Würde, sprich Freiheit des Menschen besteht konkret also in der Respektierung seiner Interessen. Daraus ist dann der Schluss gezogen worden, dass ich nur demjenigen Achtung entgegen zu bringen verpflichtet bin, der Interessen verfolgen kann. Was sich hier als Pflicht der Achtung der Interessen von „Personen“ darstellt, ist aus der Perspektive dieser „Personen“ der Anspruch, d.h. das Recht, auf die Respektierung ihrer Interessen. Aus der Einsicht in das Wesen des Menschen als Autonomie, ergibt sich die Pflicht dessen Interessen zu achten, was gleichbedeutend ist mit der Anerkennung des Rechtes eines jeden autonomen Wesens auf die Respektierung seiner Interessen. In Anlehnung an Kants Rückbindung der Würde des Menschen an seine Fähigkeit sich selbst Zwecke setzen zu können, begründet der Posthumanismus die moralische Sonderstellung des Menschen mit dessen „Fähigkeit zu Selbstbewusstsein und Rationalität“ (Savulescu 2009: 215), d.h. mit dessen Personsein: „Michael Tooley und Peter Singer sind die beiden berühmtesten bzw. berüchtigsten Vertreter des Personalismus. Beide vertreten die These, dass das worauf es moralisch ankommt nicht die Zugehörigkeit zur Gattung homo sapiens ist, sondern bestimmte Eigenschaften des Menschen – Rationalität und Selbstbewusstsein – die uns als Personen ausmachen. […] Personen zu töten ist deshalb falsch, weil sie sich eine zukünftige Existenz vorstellen können und an dieser ein Interesse haben. Nicht-Personen haben keine solchen Präferenzen. Was moralisch falsch ist, ist die Frustration dieser

134 | M ARTIN G. W EISS

Präferenzen. Im biologischen Sinne Mensch zu sein bedeutet lediglich mit anderen Menschen fruchtbare Nachfahren zeugen zu können bzw. eine bestimmte Chromosomenstruktur aufzuweisen. Aber diese Tatsachen sind für sich allein genommen von keinerlei moralischer Bedeutung“ (Savulescu 2009: 221).

Allan Buchanan zufolge handelt es sich beim „Personsein“ um einen absoluten Begriff, der eine qualitative Schwelle markiert und keine internen Abstufungen erlaubt: Wenn der homo sapiens einmal die das Personsein ausmachenden Fähigkeiten erlangt hat (d.h. Selbstbewusstsein und Rationalität) dann kann der damit gewonnene moralische Status durch eine „Verbesserung“ dieser Vermögen nicht gesteigert werden. Obwohl „verbesserte“ Personen demnach für sich keinen höheren moralischen Status beanspruchen könnten als nicht-verbesserte, warnt Buchanan vor der Gefahr, dass nichtverbesserte Personen sich ernsthaften Einschränkungen ihrer Rechte gegenübersehen könnten: „In Anbetracht der Geschichte und Gegenwart rassistischer Verhaltensweisen besteht die ernstliche Gefahr, dass die Verbesserten die Nicht-Verbesserten so behandeln würden, als ob sie einen geringeren moralischen Status hätten, selbst wenn dies nicht der Fall ist. Selbst wenn Verbesserungen keine Lebewesen mit einem […] höheren moralischen Status erzeugen würden, würde die bloße Existenz von Verbesserten doch zu einem legitimem Interessenkonflikt zwischen Verbesserten und Nicht-Verbesserten führen, der zu gewissen Einschränkungen der Rechte Nicht-Verbesserter führen könnte“ (Buchanan 2009: 350), so wie auch heute schon die Rechte intellektuell Beeinträchtigter Personen, im Vergleich zu denjenigen „Gesunder“, eingeschränkt werden.

4. D AS

NATURALISTISCHE DER M ENSCHENWÜRDE

M ODELL

Während die Vertreter eines personalistischen Menschenwürdeansatzes „Verbesserungen“ also nicht prinzipiell ausschließen, aber Zweifel hinsichtlich der möglichen rechtlichen Konsequenzen für Nicht-Verbesserte äußern, versuchen die Anhänger des naturalistischen Modells der Menschenwürde das Konzept der menschlichen Natur als eine Art unveränderliche Norm aufrechtzuerhalten; auch wenn sich die vorgebrachten Argumente von Autor zu Autor oft deutlich unterscheiden. Während Francis Fukuyamas Position zum

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 135

Beispiel offen naturalistisch ist, konzentriert sich Jürgen Habermas’ Kritik an den Praktiken der liberalen Eugenik stärker auf die Folgen, die die Manipulation am menschlichen Genom auf sozialer Ebene mit sich bringen könnte. Fukuyamas naturalistischer Ansatz offenbart sich in seiner Definition der menschlichen Natur. In Our Posthuman Future erklärt er lapidar: „Die menschliche Natur besteht in den für die menschliche Gattung typischen Eigenschaften und Verhaltensweisen, die in ihrer Summe eher auf genetische, als auf umweltfaktoren zurückführbar sind.” (Fukuyama 2002: 130) Fukuyama versteht unter menschlicher Natur den in unseren spezifischen genetischen Anlagen vorprogrammierten Umgang mit unserer dinglichen und sozialen Umwelt, speziell unsere emotionalen Reaktionen. Dieses im menschlichen Genom kodierte und von Generation zu Generation weitergegebene emotionale Verhaltensmuster stellt für Fukuyama eine Art Zufluchtsort dar, denn für ihn bilden unsere emotionalen Reaktionen die Basis allen menschlichen Handels, aller sozialer Interaktion und damit des Zusammenlebens überhaupt. Fukuyama zufolge sind es also unsere Gefühle – und nicht etwa die Rationalität – die die Grundlage für soziale Interaktion und Politik bilden. Gefühle, nicht Argumente garantieren das friedliche Miteinander von Menschen, oder zumindest der Mitglieder derselben ethnischen Gruppierung, der man sich instinktiv – „von Natur aus“, wie es bei Fukuyma heißt – zugehörig fühle. Ein Eingriff in dieses relativ gut funktionierende System instinktiven Verhaltens könnte Fukuyma zufolge verheerende Folgen zeitigen und zu einem Ausbruch unkontrollierbarer Gewalt führen. Für Fukuyama birgt der mögliche biotechnologische Triumph des Geistes über den Körper, wie ihn der Posthumanismus erträumt, die Gefahr eines Krieges aller gegen alle in sich, der heute nur durch unsere ererbten Instinkte hintangehalten werde. Auch die Position von Gernot Böhme, lässt sich als Abwehrreaktion gegen eine technische Entsubstantialisierung der menschlichen Natur und ihrer befürchteten Konsequenzen beschreiben, wobei auffällt, dass sie mehr oder weniger offen den überkommenen Begriff der objektiven, natürlichen Natur normativ verwendet; so, wenn Böhme schreibt: „Es geht […] weder um die Gefahren oder Risiken, die sie [die bevorstehenden Technologieentwicklungen] etwa bei der Bekämpfung von Krankheiten darstellen, noch um die sozialen Einstellungen und moralischen und rechtlichen Regelungen, die ihre Entwicklung hindern oder fördern. […] Davon unabhängig […] muß geklärt werden,

136 | M ARTIN G. W EISS

ob die genannten Technologieentwicklungen unser Selbstverständnis als Menschen berühren und ob sie mit bestimmten Möglichkeiten unserem – in Menschen- und Grundrechten kanonisierten – Verständnis von Menschenwürde widerstreiten. Nach unserer bisherigen Analyse ist das der Fall. Es zeigt sich, daß für unser alteuropäisches Menschenbild Natur im Sinne des Gegebenen ein essentieller Topos ist und daß diese Technologien gerade darauf zielen, was Natur am Menschen war, zur Disposition zu stellen, d.h. prinzipiell dem Einzugsbereich des Machbaren zu unterwerfen.“ (Böhme 2002: 238)

Ähnlich argumentiert Jürgen Habermas, wenn er sich in Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik? auf den lebensweltlichen Naturbegriff als normative Instanz beruft und vom „unscheinbare[n] normative[n] Zusammenspiel zwischen der moralisch gebotenen und rechtlich garantierten Unantastbarkeit der Person und der Unverfügbarkeit des naturwüchsigen Modus ihrer leiblichen Verkörperung“ (Habermas 2002: 41) spricht. Böhme und Habermas schreiben hier den überkommenen Naturbegriff als normativ fest. Überhaupt fällt eine gewisse substanzmetaphysische Sehnsucht auf, die oft nicht weit vom naturalistischen Fehlschluss liegt, der aus „Tatsachen“, hier der bisherigen Definition der Natur des Menschen als objektiv gegebener unveränderlicher Vorgabe, die Forderung ableitet, diese nicht zu verändern. Ein Diskurs, dessen Problematizität allerdings bereits in der – auch von Habermas praktizierten – schwierigen Unterscheidung zwischen therapeutischen und eugenischen Eingriffen deutlich wird. Böhme scheint sich allerdings der Schwäche seiner normativen Berufung auf das überkommene Naturverständnis bewusst, wenn er in Bezug auf Gesetze zum Verbot bestimmter technologischer Praktiken bemerkt: „Solche Regelungen […] sind notwendig, gleichwohl sollte man ihnen nicht zuviel zutrauen. Denn einerseits zeigt sich, daß eine Technik auch dann und da wirksam ist, wo sie nicht angewendet wird; und zweitens könnte sich ja aufgrund der neuen Technologien gerade jenes alteuropäische Selbstverständnis des Menschen wandeln, das heute diese Verbote noch trägt.“ (Böhme 2002: 238) Die alleinige Möglichkeit bestimmter Praktiken könnte also schon genügen, die Selbsterfahrung des Menschen so zu verändern, dass eine Berufung auf das alte Menschenbild, das diesen aus Vernunft und unveränderlicher Natur zusammengesetzt sah, nicht mehr funktionieren könnte.

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 137

Ähnlich wie Habermas fürchtet auch Michael Sandel, dass EnhancementTechnologien die Ehrfurcht vor der Naturwüchsigkeit untergraben könnten: „They may cause […] loss of openness to the unbidden“ (Bostrom/Savulescu 2009b: 6). Wie Habermas betont auch Sandel, dass die liberale Eugenik, wie sie Nozick in seinem berühmtem Plädoyer für den „genetischen Supermarkt“ (Nozick 1974) grundgelegt hat, sich nicht wesentlich von der alten staatlich organisierten Eugenik unterscheide: „Worin besteht denn bei Licht besehen der moralische Unterschied zwischen der Manipulation von Kindern gemäß einer explizit eugenischen Zielsetzung und einer Manipulation nach den Vorgaben des Marktes?“ (Sandel 2009: 85). Doch den interessantesten Aspekt an Sandels Kritik posthumanistischer Verbesserungsphantasien stellen seine Ausführungen zu den möglichen sozialpolitischen Folgen liberaler Eugenik dar: „Wenn durch die biotechnologische Ingenieurskunst der Mythos vom ‚Self-made man’ tatsächlich wahr werden sollte, würde es uns schwer fallen unsere Begabungen noch als Geschenke zu betrachten, für die wir uns dankbar und würdig erweisen müssen; vielmehr würden wir unsere Talente wahrscheinlich zunehmend als unsere eigenen Leistungen ansehen, die wir uns selbst verdient haben. Dieser Wechsel im Verständnis unserer Begabungen würde zweifelsohne zu einer Neubewertung einiger unserer bisherigen moralischen Grundbegriffe – wie etwa Bescheidenheit, Verantwortung und Solidarität – führen. […] Nehmen wir an, es wäre möglich mit Hilfe von Gentests die zukünftigen Krankheiten und die wahrscheinliche Lebenserwartung von Menschen zuverlässig vorherzusagen. […] Die Solidarität zwischen Versicherten würde verschwinden, da diejenigen Menschen mit guten Genen aus den Krankenversicherungen fliehen würden, in denen nur mehr diejenigen Menschen mit schlechten Genen versichert wären. […] Ein Gefühl für die Kontingenz dessen, was uns gegeben ist – das Bewusstsein, dass niemand für seinen Erfolg völlig selbstverantwortlich ist – ist das, was eine meritokratische Gesellschaft davor schützt der selbstzufriedenen Ansicht zu verfallen, dass die Reichen deswegen reich sind, weil die den Reichtum mehr verdienen als die Armen.“ (Sandel 2009: 86)

Sandels Sorgen werden von Eric T. Juengst geteilt, der betont, dass die Problematik der vom Posthumanismus geforderten „Verbesserung“ der menschlichen Natur primär in der Gefahr bestehe bereits bestehende sozialer Spaltungen zu naturalisieren: „Was die Missachtung der Menschenrechte anheizt

138 | M ARTIN G. W EISS

ist nicht die tatsächliche biologisch-genetische Differenz zwischen Menschen, sondern die gesellschaftliche Wahrnehmung dieser Differenz. […] In dem Maße in dem der post-genetische Diskurs angebliche genetische Unterschiede zwischen Menschen hervorhebt, die bereits gesellschaftlich sanktioniert sind (etwa die der ‚Rasse‘), befördert dieser Diskurs gesundheitspolitische Übergriffe im Bereich der Reproduktionsfreiheit, der genetischen Identifizierung und der Einspeisung persönlicher Informationen in Biodatenbanken ebenso wie eine neu-eugenische Einwanderungspolitik, ökonomische Diskriminierungen und im Extremfall die Ausarbeitung von Strategien zur biologischen Kriegsführung.“ (Juengst 2009: 56) Autoren wie Habermas, Böhme, Annas, Buchanan, Fukuyama, Sandel und Juengst, die vor allem wegen der möglicherweise zerstörerischen sozialen Folgen möglicher „Verbesserungstechnologien“ beunruhigt sind, treten für ein Verbot von Enhancement-Technologien ein und sprechen sich dafür aus, darauf zu verzichten die menschliche Natur zu verändern. Andere Denker wie Kurt Bayertz und C. Coady machen in diesem Zusammenhang aber darauf aufmerksam, dass wir, sobald wir die Möglichkeit haben in die natürliche Lotterie der Gene einzugreifen, auch die Verantwortung für die Folgen tragen, die ein Verzicht auf diese Möglichkeit mit sich bringt. Denn auch wenn wir uns dagegen entscheiden unsere biologische Natur zu manipulieren, sind wir für diese Entscheidung und ihre Folgen verantwortlich (Bayertz 1994). Wenn die Technologie uns mit der Möglichkeit konfrontiert unsere biologischen Eigenschaften zu „verbessern“, haben wir so oder so unsere Unschuld verloren, denn wir sind ebenso Verantwortlich für unser Handeln, wie für unser Nicht-Handeln: „Wäre es nicht denkbar, dass ein Kind Interesse an einer Musikerkarriere anmeldet, aber feststellen muss, dass es dafür keine natürliche Begabung besitzt und seinen Eltern vorhält, dass sie seine Begabung nicht künstlich gefördert haben? Der Natur ihren Lauf zu lassen, ist keine wertneutrale Option mehr.“ (Coady 2009: 175)

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 139

5. M ENSCHENWÜRDE

ALS

G OTTESEBENBILDLICHKEIT

In Übereinstimmung mit Kurt Bayertz (1994) weist Gregory Stock darauf hin, dass die naturalistische Vorstellung einer gewissermaßen naturgegebenen Natur (des Menschen), die ihre eignen Gesetze habe in die der Mensch nicht willkürlich eingreifen dürfe, recht problematisch ist, da sie auf der Annahme basiert, dass der Mensch (zumindest sein „Geist“) selbst nicht Teil der Natur ist. Diese Unterscheidung zwischen einem Reich der Natur (Physis), wo die Dinge sich von selbst entwickeln, und einem Reich der menschlichen Artefakte (Techne), geht auf Aristoteles zurück. Als „Natur“ bezeichnet Aristoteles den Bereich des Lebendigen, also desjenigen, was das Prinzip der Bewegung (der Ortsbewegung, des Entstehens und Vergehens) in sich selbst hat. Das Christentum greift die Aristotelische Unterscheidung zwischen Physis und Techne auf, mit dem Unterschied, dass die „Natur“ nun als Schöpfung Gottes gedacht wird die ihrerseits dem Menschen und seinen Erzeugnissen gegenübergestellt wird, da der Mensch mit dem Sündenfall gewissermaßen aus der erschaffenen Natur herausgefallen ist und außerhalb der Schöpfung steht. In dieser Hinsicht ist das naturrechtliche Verbot einer technisch vermittelten menschlichen Einmischung in die Natur als unzulässiger Eingriff von Außen wohl erst ein Produkt der christlichen Anthropologie und Naturphilosophie. Die Idee, nach Gottes Bild erschaffen worden zu sein ist in der Regel mit der Vorstellung verbunden, der Mensch teile mit Gott die Merkmale des Personseins und der Freiheit, welche wiederum zentral für die Menschenwürde sind. Doch der Mensch, der nach Gottes Bild erschaffen ist hat nicht nur ein Verhältnis zum Göttlichen, sondern auch zur Schöpfung. In der Geschichte der drei großen monotheistischen Traditionen (Judentum, Christentum und Islam) nimmt das Verhältnis von Mensch und Natur vornehmlich drei Formen an: Herrschaft, Verwaltung und Mit-Schöpfung (Coady 2009), wobei letztere für unsere Fragestellung von besonderem Interesse ist. Denn das Konzept der Mit-Schöpfung (Rahner 1970) betont dass der Mensch und seine (technischen) Eingriffe in die Natur wesentlicher Teil der Schöpfung sind. Doch wenn der Mensch Teil der Natur ist, so sind es auch seine Erzeugnisse: „Nach dem was im Buch Genesis steht und mir scheint das gilt auch für das Judentum im allgemeinen, besteht unsere Aufgabe nicht nur darin für die Schöpfung dankbar zu

140 | M ARTIN G. W EISS

sein und uns daran zu erinnern, das sie nicht von uns erschaffen wurde, sondern auch darin unsere Kreativität dafür zu verwenden uns und die Welt zum Besseren zu verändern. Meiner Ansicht nach sind wir im Judentum nicht dazu aufgerufen uns zwischen Dankbarkeit und Kreativität zu entscheiden.“ (Parens 2009: 189)

Das Konzept der Mit-Schöpfung auf den Bereich der Enhancement technologien ausweitend, erklärt Rabbi Barry Freundel, einer der Mitglieder der United States Presidential Commission on Cloning: „Wenn Gott die Möglichkeit der Genmanipulation in die Natur eingeschaffen hat, dann hat er sich dafür entschieden uns diese Möglichkeit zugänglich zu machen und unsere Aufgabe besteht nun darin, diese Möglichkeit sinnvoll zu nutzen.“ (Freundel 2000: 119) Aus der Idee der Ebenbildlichkeit Gottes, des freien Schöpfers der Natur, wird hier die menschliche Rolle als Mitgestalter der Schöpfung abgeleitet. (Prainsack 2006)

6. S CHLUSS Verletzt die – mithilfe genetischer, prothetischer und pharmakologischer Eingriffe – verwirklichte Verlängerung der Lebenserwartung des Menschen und die „Verbesserung“ seiner kognitiven und emotionalen Fähigkeiten, wie sie der Posthumanismus anstrebt, die Würde des Menschen? Obschon die drei konkurrierenden Menschenwürdetheorien – die naturalistische, die religiöse und die kantische – bezüglich der Begründungen des moralischen Sonderstatus des Menschen variieren, teilen sie doch die inhaltliche Grundbestimmung der Menschlichen Würde, die von allen drei Theorien im Recht auf Freiheit, d.h. im Recht auf ein individuell selbstbestimmtes Leben gesehen wird. Während die naturalistische Würdetheorie die Würde des Menschen, also dessen Status als zu respektierendes Freiheitswesen in dessen unverfügbarer Naturwüchsigkeit gründet, und der religiöse Ansatz die zu achtende Menschliche Freiheit (seine Würde) in der Gottesebenbildlichkeit des Menschen verortet, begründet der kantische Ansatz das Anrecht des Menschen darauf nicht verzweckt zu werden in dessen natürlicher Einsicht in die Autonomie des Sittengesetzes (kategorischer Imperativ), aus dessen Appellcharakter die tatsächliche Freiheit des Menschen ableitbar ist (zumindest als regulatives Prinzip).

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 141

In Bezug auf die vom Posthumanismus geforderten Eingriffe in die biologische Ausstattung des Menschen mit dem Ziel diese in wesentlichen Aspekten zu „verbessern“ stellt sich die Frage, ob diese „Verbesserungen“ die Würde des Menschen, d.h. sein Recht auf ein Selbstbestimmtes Leben, verletzen. Dabei ist wichtig vorab festzuhalten, dass in seiner Würde nur verletzt werden kann, wer diese Würde besitzt. Der Besitz der Menschwürde ist die Bedingung für ihre Verletzung, was auch bedeutet, dass derjenige, dessen Würde verletzt wird, nicht aufhört diese zu besitzen: Entscheiden sich Eltern dafür mit Hilfe von Invitrofertilisationstechniken ein Kind mit ganz bestimmten genetischen Eigenschaften zu bekommen, um mit dessen Stammzellen ihr erkranktes Erstgeborenes zu therapieren, so handelt es sich dabei zwar wahrscheinlich um eine die Würde des Zweitgeborenen verletzende Verzweckung, die aber nichts an dessen fortbestehendem Personsein ändert. Es geht also nicht darum, ob „verbesserte“ Menschen Menschenwürde besitzen – das tun sie solange sie die Fähigkeit besitzen sich selbstbestimmt Zwecke zu setzen – sondern darum, ob die „Verbesserungen“ eine Verletzung der menschlichen Freiheit bedeuten. Allerdings ergibt sich hieraus das Problem wie die Erzeugung von vornherein unselbständiger Wesen zu beurteilen wäre, die als solche keine Würde im strengen Sinne des Wortes besitzen, deren Selbstzweckhaftigkeit daher auch nicht verletzt werden könnte; ähnlich jener angeblichen „Sklaven von Natur aus“, deren Fremdbestimmung Aristoteles zufolge, keinerlei Problem darstelle, da sie gar nicht zu selbstbestimmten Leben fähig sind. Begreift man mit dem Präferenz-Utilitarismus die seine Würde begründende Freiheit des Menschen als die Tatsache Interessen haben zu können, ergibt sich die Möglichkeit Menschenwürde nicht mehr als absoluten, sondern als relativen Begriff zu fassen, so dass es zwischen dem Besitz und dem Fehlen von Würde unzählige Zwischenstufen gäbe, die sich nach der Menge und Intensität der verfolgten Interessen richtete (auch wenn das Problem ihrer Messbar- und Vergleichbarkeit kaum lösbar scheint). Dieses präferenz-utilitaristische Modell der Würde hätte den Vorteil, dass es ermöglichte unterschiedliche Grade an Würde zu bestimmen, so dass auch ein nicht zu Selbstbestimmung (bzw. Selbstbewusstsein) fähiges Wesen, wie Aristoteles’ „Sklaven von Natur aus“, oder „verbesserte“ Menschen, die sich nicht mehr als Autoren ihrer Handlungen begreifen, dennoch Würde besäßen, insofern sie Interessen hätten, die es zu respektieren gälte. Da „Verbesserte“ Wesen Interessen besä-

142 | M ARTIN G. W EISS

ßen, besäßen sie sicherlich auch Würde im soeben skizzierten Sinn. In welchem Verhältnis stünden nun aber die Interessen der „Verbesserten“ zu denen der „Normalen“? Wiegen die Interessen der „Verbesserte“ mehr als die Interessen der „Normalen“, so dass es doch die von Bostrom vertreten Pflicht zur „Verbesserung“ gäbe? Von einer Pflicht der „Normalen“ sich zu „Verbessern“, bzw. „Verbesserte“ zu erzeugen kann allerdings auch im präferenzutilitaristischen Modell nicht die Rede sein. Denn erstens können die zukünftigen Interessen noch nicht existierender „Verbesserter“ nicht gegen die aktuellen Interessen der existierenden „Normalen“ ins Feld geführt werden werden und zweitens gelingt es, wie wir anhand der Diskussion um „Verbesserungen“ als „veranlagte Güter“ gesehen haben nicht schlüssig zu begründen, wie die zukünftige „Verbesserung“ als (handlungsleitendes) Interesse der Noch-nicht-Verbesserten konzipiert werden könnte. Festzuhalten bleibt somit, dass „Verbesserte“, so lange sie über Interessen verfügten, Würde besäßen. Eine Einschränkung ihrer Fähigkeit sich selbst Zwecke zu setzen, d.h. Interessen zu entwickeln, käme allerdings einer Verletzung ihrer Würde gleich. Da Interessen von noch nicht existierenden Personen (den „Verbesserten“) die Interessen von Existierenden Personen (den „Normalen“) nicht berühren, könnte sich eine Verpflichtung zur „Verbesserung“ nur daraus ergeben, das die „Normalen“ ihre mögliche „Verbesserung“ als aktuelles Interesse definierten, d.h. als „veranlagtes Gut“, dessen Realisierung aber nur unter der Bedingung ihrer Revidierbarkeit vertretbar wäre, da sich das veranlagte Gut jederzeit als nicht erstrebenswert herausstellen könnte. Da die vom Posthumanismus propagierten „Verbesserungen“ mit aller Wahrscheinlichkeit aber nicht revidierbare Folgen zeitigen würde, scheint dessen Programm vor dem Hintergrund der Würdebegriffs ethisch nicht vertretbar.

L ITERATUR Adorno, Theodor W./Horkheimer, Max (2002): Dialectic of Enlightenment. Stanford: Stanford University Press. Agar, Nicholas (2007): Whereto Transhumanism? The Literature Reaches a Critical Mass. The Hastings Center Report 37 (3): 12-17.

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 143

Annas, George (2000): The man on the moon, immortality and other millennial myths: the prospects and perils of human genetic engineering. Emory Law Journal 49 (3): 753-82. Arendt, Hannah (1998): The Human Condition. Chicago: University of Chicago Press. Bayertz, Kurt (1994): GenEthics. Technological Intervention in Human Reproduction as a Philosophical Problem. Cambridge: Cambridge University Press. Böhme, Gernot (2002): Über die Natur des Menschen. S. 233-247 in: Barkhaus, Anette/Fleig, Anne: Grenzverläufe. Der Körper als Schnittstelle. München: Wilhelm Fink Verlag. Bostrom, Nick (2005) In Defense of Posthuman Dignity. Bioethics 19 (3): 202-214. Bostrom, Nick (2008): Why I Want to be a Posthuman When I Grow Up. S. 107-137 in: Gordijn, Bert/Chadwick, Ruth (Hrsg.): Medical Enhancement and Posthumanity. Dordrecht: Springer. Bostrom, Nick/Savulescu, Julian (Hrsg.) (2009a): Human Enhancement. Oxford: Oxford University Press. Bostrom, Nick/Savulescu, Julian (2009b): Human Enhancement Ethics: The State of the Debate. S. 1-22 in: Bostrom, Nick/Savulescu, Julian (Hrsg.): Human Enhancement. Oxford: Oxford University Press. Bolt, L.L.E. (2007): True to oneself? Broad and narrow ideas of authenticity in the enhancement debate. Theoretical Medicine and Bioethics 28 (4): 285-300. Buchanan, Allen (2009): Moral Status and Human Enhancement. Philosophy and Public Affairs 37 (4): 346-381. Coady, C.A.J. (2009): Playing God. S. 155-181 in: Bostrom, Nick/ Savulescu, Julian (Hrsg.): Human Enhancement. Oxford: Oxford University Press. Freundel, B. (2000): Gene Modification Technology. S. 119-122 in: Stock, Gregory/Campbell, John H. (Hrsg.): Engineering the Human Germline: An Exploration of the Science and Ethics of Altering the Genes We Pass to Our Children. Oxford: Oxford University Press. Fukuyama, Francis (2002). Our Posthuman Future: Consequences of the Biotechnological Revolution. New York: Picado. Gordijn, Bert/Chadwick, Ruth (Hrsg.) (2008): Medical Enhancement and Posthumanity. New York: Springer.

144 | M ARTIN G. W EISS

Habermas, Jürgen (2002): Die Zukunft der Menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik? Frankfurt am Main: Suhrkamp. Harris, John (2007): Enhancing Evolution: The Ethical Case for Making Better People. Princeton: Princeton University Press. Jonas, Hans (1984): The Imperative of Responsibility: In Search of an Ethics for the Technological Age. Chicago: University of Chicago Press. Jonas, Hans (1985a): Technik, Medizin und Ethik. Frankfurt am Main: Suhrkamp. Jonas, Hans (1985b): Lasst uns einen Menschen klonieren. S. 162-203 in: Ders. (Hrsg.): Technik, Medizin und Ethik. Frankfurt am Main: Suhrkamp. Juengst, Eric T. (2009): What's Taxonomy Got to Do with It? Species Integrity, Human Rights, and Science Policy. S.43-58 in: Bostrom, Nick/Savulescu, Julian (Hrsg.): Human Enhancement. Oxford: Oxford University Press. Kant, Immanuel (1968): Grundlegung zur Metaphysik der Sitten. AkademieAusgabe Kant Werke IV. Berlin: Walter de Gruyter. Kant, Immanuel (1968b): Die Metaphysik der Sitten. Akademie-Ausgabe Kant Werke VI. Berlin: Walter de Gruyter. Nozick, Robert (1974): Anarchy, state, an utopia. New York: Basic Books. Parens, Erik (2009): Toward a More Fruitful Debate About Enhancement. S. 181-198 in: Bostrom, Nick/Savulescu, Julian (Hrsg.): Human Enhancement. Oxford: Oxford University Press. Pico della Mirandola, Giovanni (1983): De hominis dignitate: Über die Würde des Menschen. S. 62-105 in: Baker, Dora (Hrsg.): Giovanni Pico della Mirandola 1463-1494. Dornach: Gotheanum. Prainsack, Barbara (2006): Negotiating Life: The Regulation of Human Cloning and Embryonic Stem Cell Research in Israel. Social Studies of Science 36 (2): 173-205. Rahner, Karl (1970): Zum Problem der genetischen Manipulation aus der Sicht des Theologen. S. 135-166 in: Wagner, Friedrich (Hrsg.): Menschenzüchtung: Das Problem der genetischen Manipulierung des Menschen. München: C. H. Beck. Resnik, David B. (2007): Embryonic Stem Cell Patens and Human Dignity. Health Care Anal 15: 211-222. Sandel, Michael J. (2009): The Case Against Perfection: What's Wrong with Designer Children, Bionic Athlets, and Genetic Engineering. S. 71-90 in:

P OSTHUMANISMUS UND M ENSCHENWÜRDE | 145

Bostrom, Nick/Savulescu, Julian (Hrsg.): Human Enhancement. Oxford: Oxford University Press. Savulescu, Julian (2009): The Human Prejudice and the Moral Status of Enhanced Beings: What Do We Owe the Gods? S. 211-250 in: Bostrom, Nick/Savulescu, Julian (Hrsg.): Human Enhancement. Oxford: Oxford University Press. Silver, Lee M. (1997): Remaking Eden Cloning and Beyond in a Brave New World. New York: Avon Books. Stock, Gregory (Hrsg.) (2000): Engineering the Human Germline: An Exploration of the Science and Ethics of Altering the Genes We Pass to Our Children. Oxford: Oxford University Press. Stock, Gregory (2003): Redesigning Humans: Choosing our genes, changing our future. New York: Mariner Books. Wagner, Friedrich (Hrsg.) (1970): Menschenzüchtung: Das Problem der genetischen Manipulierung des Menschen. München: C. H. Beck.

Natürlich Nano Die argumentative Kraft von Naturkonzepten in Laiendiskussionen zu Nanotechnologie S IMONE S CHUMANN UND C LAUDIA G. S CHWARZ

Naturbezüge und Kategorisierungen entlang der Unterscheidung natürlich/unnatürlich sind in westlichen Gesellschaften allgegenwärtig. Im Bereich von Marketing und Werbung etwa scheint die Zuschreibung ‚natürlich‘ oft in Verbindung mit dem Etikett ‚biologisch‘ auf: beide Bezeichnungen übertragen positive Konnotationen auf Produkte und können den KonsumentInnen gleichzeitig als Entscheidungsgrundlage dienen. In Debatten um neue Technologien (z.B. Reproduktionsmedizin, Gentechnik) werden Bezüge zu Natur und Natürlichkeit wiederum bemüht, um schlagkräftige Argumente zu bauen und Standpunkte gezielt zu untermauern, da sie über ein hohes Maß an moralischer und damit auch legitimierender Kraft verfügen. Natürlichkeit als moralisch-normative Argumentationsressource einzusetzen, birgt allerdings auch das Risiko sich leicht angreifbar zu machen, wie sich in philosophisch-ethischen Debatten um diese Begrifflichkeit zeigt. Naturargumente werden in diesen akademischen Diskursen als „naturalistische Fehlschlüsse“ bezeichnet, die das Sollen fälschlicherweise aus einem Sein ableiten. Daher finden sich vermehrt Appelle, Diskussionen über neue Technologien gänzlich ohne Bezüge zu Natur zu führen (Buchanan 2011) oder diese zumindest ausreichend zu reflektieren (Birnbacher 2006). Doch die Gruppe derjenigen, die über die potentiellen Konsequenzen technowissenschaftlicher Entwicklungen diskutiert, hat sich in den letzten Jahren über den engen Kreis der EthikerInnen und naturwissenschaftlichen

148 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

ExpertInnen hinaus erweitert. Politisch initiierte Debatten zu neuen Technologien werden zunehmend unter Einbezug einer breiteren Öffentlichkeit geführt. Mit dieser gestiegenen Laienpartizipation wächst auch das Interesse, mehr über die Ausgestaltung von Laienethik und die spezifischen Argumentationsmuster und -ressourcen von BürgerInnen zu erfahren (Macnaghten/Davies 2010; Strassnig 2008). Sozialpsychologische Studien (z.B. Schlag 2005; Sjöberg 2000), die sich mit neuen Technologien wie der Gentechnik und der Wahrnehmung ihrer Risiken von Seiten der Bevölkerung beschäftigen, zeigen, dass Vorstellungen von Natur oder Natürlichkeit eine zentrale Ressource in Meinungsbildungsprozessen darstellen; sie gehen deren Rolle aber meist nicht tiefer auf den Grund. Wenn wir der Annahme folgen, dass „der Unterscheidung zwischen Natürlich und Künstlich im alltagsmoralischen Denken bedeutend mehr legitimierende Kraft zugestanden wird als in der akademischen Ethik“ (Birnbacher 2006: 21), stellt sich die Frage nach der spezifischen Bedeutung und Anwendung dieser Unterscheidung in partizipativen Kontexten, in denen Laien bzw. BürgerInnen über neue technowissenschaftliche Entwicklungen diskutieren. In dieser Hinsicht sind Nanowissenschaften und -technologien (in der Folge kurz Nano) – die sich mit der Erforschung und Manipulation von Strukturen im Nanometerbereich beschäftigen – ein besonders interessanter Fall. Erstens wird Nano von seinen AdvokatInnen oft mit natürlichen Prozessen in Verbindung gebracht, wenn beispielsweise nanobeschichtete Oberflächen mit dem Lotuseffekt beworben werden oder darauf hingewiesen wird, dass Nanopartikel auch in der Natur vorkommen. Zweitens werden gerade zu dieser – sich noch in einem relativ frühen Entwicklungsstadium befindenden – Technologie vielfältige, zum Teil politisch initiierte, partizipative Initiativen und sozialwissenschaftliche Forschungsprojekte durchgeführt (für einen Überblick siehe Delgado et al. 2011). Diese verfolgen das Ziel, BürgerInnen zu ermöglichen ihre Visionen oder Bedenken auszudrücken, werden aber auch oft von der Hoffnung begleitet, durch frühzeitige Partizipation eine ähnliche Ablehnung wie im Fall der grünen Gentechnik zu verhindern (Wynne 2006). Dabei hat sich gezeigt, dass Nano – jenseits von Unsicherheiten, was potentielle gesundheitliche Risiken betrifft – auch vielfältige sozio-politische und ethische Fragen aufwirft (Macnaghten et al. 2005). Das liegt unter anderem daran, dass Nanoanwendungen in Bereiche ‚eindringen‘, die oftmals der Natur zugerechnet werden – wie Lebensmittel,

N ATÜRLICH N ANO | 149

die Umwelt oder der Mensch selbst – und die dort jeweils etablierten kulturellen Ordnungen und Kategorisierungen herausfordern. So könnten beispielsweise spezifische nanotechnologische Anwendungen, wie Chipimplantate im Gehirn oder nanotechnologisch veränderte Nahrungsmittel, als Natur-Technologie-Hybride oder als Verschiebung, Verwischung und Überschreitung ‚natürlicher‘ Grenzen wahrgenommen werden. Wie bereits einige Studien gezeigt haben, spielen Naturkonzeptionen in der Bewertung von Nano eine zentrale Rolle. In Schweizer Paneldiskussionen mit BürgerInnen zu Nano (Burri 2009) stellten Referenzen zu einer Natur, die als rein und harmlos konzipiert wurde, eine bedeutende interpretative und diskursive Ressource dar. Auch im europäischen DEEPEN Projekt wurde herausgearbeitet, dass ein zentrales Schlüsselnarrativ mit dem Nano begegnet wird, die Warnung beinhaltet nicht mit der Natur herumzuspielen („don’t mess with nature“), da ein technologischer Eingriff in gegebene und stabile Ordnungen gefährlich sein könnte (Davies et al. 2009). Eine kulturvergleichende Arbeit zu den unterschiedlichen Haltungen gegenüber Nano in Großbritannien und Brasilien verdeutlicht darüber hinaus deren engen Zusammenhang mit den im jeweiligen nationalen Kontext dominanten Naturkonzepten (Macnaghten/Guivant 2011). Diese Studien lenken die notwendige Aufmerksamkeit auf die konstitutive Verbindung von Naturkonzepten und Positionen zu Nano sowie deren sozio-kulturelle Verwurzelung; sie sind aber gleichzeitig reduktionistisch in der Annahme bzw. Analyse homogener Konzeptionen innerhalb eines nationalen Kontextes. Unser Zugang fokussiert im Gegensatz dazu auf heterogene, widerstreitende Verwendungsweisen von Natur und Natürlichkeit innerhalb einer Kultur bzw. Nation (in unserem Fall Österreich), die wir anhand von Diskussionsgruppen mit BürgerInnen herausarbeiten wollen. Hierfür werden wir analysieren, welche spezifischen Vorstellungen von Natur/Natürlichkeit für die Formation bzw. Argumentation von Positionen zu Nanotechnologie in verschiedenen Anwendungsbereichen herangezogen bzw. entwickelt und in welche größeren Narrative diese integriert werden. Basierend auf einem ethnomethodologisch informierten, diskursanalytischen Zugang tun wir dies mit einem besonderen Blick auf die argumentative Funktion unterschiedlicher Naturkonzepte im kollektiven Aushandlungsprozess. Diese Vorgehensweise ermöglicht zu untersuchen, wie Begrifflichkeiten von Natur/Natürlichkeit eingesetzt werden, um einem unvertrauten Phänomen Bedeutung zuzuschreiben und es einzu-

150 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

ordnen, aber auch wann und wie bestimmte Naturkonzepte diskursiv verhandelt (z.B. akzeptiert, ignoriert oder angefochten) werden. Ziel einer solchen pragmatisch-funktionellen Analyse ist es, Aussagen über den kommunikativ-argumentativen Wert von Natur/Natürlichkeit als Ressource in Laiendiskursen um neue Technologien machen zu können. Im Anschluss werden wir kurz auf unser Analysematerial eingehen und darlegen durch welche Methode es generiert und wie es analysiert wurde. Darauf folgen konzeptuelle Gedanken zum Naturbegriff, die unseren empirischen Blick auf das Material schärfen, bevor wir zum Hauptteil dieses Beitrags kommen, in dem wir exemplarische Sequenzen aus Diskussionsrunden und deren Interpretation präsentieren. Abschließend werden wir die empirischen Ergebnisse gesammelt diskutieren und Schlussfolgerungen daraus ziehen.

M ATERIAL

UND

M ETHODE

Unsere qualitative Analyse basiert auf vier Gruppendiskussionen zum Thema Nanotechnologie mit österreichischen BürgerInnen, die im Rahmen eines Grundlagenforschungsprojektes1 durchgeführt wurden. Ziel dieser Diskussionsrunden war es einen kommunikativen Raum zu schaffen, in dem die TeilnehmerInnen eine neue Technologie diskutieren und ihre Positionen dazu entwickeln können. Ausgehend von der Annahme, dass die potentiellen TeilnehmerInnen wenig konkrete Vorstellungen zu Nano mitbringen, da es zu diesem Zeitpunkt in Österreich keine breite öffentliche Diskussion dazu gab, entschieden wir uns diskussionsanregende Materialien bereitzustellen. Inspiriert von dem partizipativen Verfahren PlayDecide2 entwickelten wir ein Diskussionsverfahren mit dem Namen IMAGINE, das sich durch die Verwendung von Karten und einer bestimmten Choreographie auszeichnet.

1

Dabei handelt es sich um das vom FWF geförderte Forschungsprojekt „Making Futures Present: On the Co-Production of Nano and Society in the Austrian Context“ (P20819), in dem die Autorinnen als wissenschaftliche Projektmitarbeiterinnen beschäftigt waren. Das Projekt wurde am Institut für Wissenschafts- und Technikforschung der Universität Wien unter der Leitung von Prof. Ulrike Felt durchgeführt.

2

www.playdecide.eu (letzter Zugriff am 10. August 2014)

N ATÜRLICH N ANO | 151

Der Inhalt der Karten basiert auf einer vorangehenden Analyse von gegenwärtigen Positionen, Debatten und Erwartungen um Nano, welche in Interviews mit WissenschaftlerInnen und Akteuren aus Wissenschafts- und Technologiepolitik sowie Medienartikeln und Policyberichten zum Ausdruck gebracht wurden (mehr zur Methode siehe Felt et al. 2014). Im Zeitraum von November 2009 bis Januar 2010 wurden insgesamt vier IMAGINE Diskussionsrunden mit österreichischen BürgerInnen durchgeführt. Jede Diskussionsrunde dauerte vier Stunden und umfasste sechs TeilnehmerInnen, unterstützt von einer Moderatorin. Die Gruppen stellten „minipublics” (Goodin/Dryzek, 2006) dar, in denen größtmögliche Heterogenität in Hinblick auf Interessen, sozialen Hintergrund, Geschlecht, Alter und Bildungsstand sichergestellt wurde. Jede Diskussion bezog sich auf ein anderes nanotechnologisches Anwendungsgebiet (Medizin, Lebensmittel, Informations- und Kommunikationstechnologien und alltägliche Konsumprodukte), für welches die Karten jeweils adaptiert wurden. Die gesonderte Diskussion unterschiedlicher Anwendungsbereiche basierte auf der Annahme, dass diese mit unterschiedlichen kulturell verwurzelten sozio -technischen Rahmungen verknüpft sind und daher beeinflussen wie Nano allgemein wahrgenommen und verhandelt wird. Unser Forschungsansatz situiert sich innerhalb qualitativ-empirischer Studien, die auf dynamische Prozesse der Sinnzuschreibung in Gruppensettings fokussieren und erforschen, wie Laien kollektiv technowissenschaftliche Innovationen fassen können (Felt et al. 2009; Horlick-Jones et al. 2007; Davies 2011). Methodologisch teilen wir die Annahme diskursanalytischer und rhetorischer Ansätze (Billig 1989; Myers 2004), dass Einstellungen nicht stabil und an das Individuum gebunden sind, sondern erst durch Argumentation und Debatte generiert und verhandelt werden – weshalb sie auch nicht isoliert von ihrem interaktiven Kontext behandelt werden sollten. Um diese Herangehensweise nachvollziehbar zu machen, stehen im Zentrum des empirischen Teils Gesprächssequenzen und ihre detaillierte Rekonstruktion und Interpretation. Ein spezifischer Fokus der Analyse liegt hierbei auf der argumentativen Funktion von bestimmten Äußerungen in der Interaktion. Dafür eignen sich besonders kontroverse oder dichte Sequenzen, in denen unterschiedliche Naturkonzepte aufeinanderprallen und diskutiert werden. Aber auch geteilte und stärker implizite Naturverständnisse verfügen über das analytische Potential, auf soziokulturell etablierte und unhinterfragte diskursive

152 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

Ressourcen hinzuweisen, wobei hier gleichzeitig auch Naturkonzepte, die in der Diskussion nicht anschlussfähig waren, miteinbezogen werden.

N ATUR

ALS

K ONSTRUKT

DER

K ULTUR

Bevor wir zur Analyse unterschiedlicher Naturkonzepte in den Diskussionsrunden übergehen, wollen wir uns in diesem Abschnitt auf theoretische Weise den Begrifflichkeiten Natur/Natürlichkeit nähern und im Zuge dessen unseren Analysefokus schärfen. Wenn wir uns mit diesen Begriffen beschäftigen, müssen wir uns zuerst bewusst machen, dass es sich dabei um mehrdeutige, paradoxe, flexible und stark umkämpfte Konzepte handelt. In der empirischen Analyse ist es daher zentral in einem ersten Schritt immer zu klären, von welcher Natur und Natürlichkeit eigentlich gesprochen wird. Grundsätzlich nähern wir uns Naturkonzepten aus einer sozialkonstruktivistischen Perspektive, die Natur nicht als etwas Feststehendes oder einfach Gegebenes, sondern eben als soziokulturelle Konstruktion versteht. „Nature is what man has not made, though if he made it long enough ago – a hedgerow or a desert – it will usually be included as natural“ (Williams 1976: 188): Dieses Zitat verweist auf diesen Konstruktionsaspekt, indem es die Veränderbarkeit der Zuschreibungen und Grenzen zwischen dem, was als natürlich und unnatürlich/künstlich wahrgenommen wird, betont. Gerade die Unterscheidung zwischen dem Natürlichen und Unnatürlichen, bzw. dem Gewordenen und Gemachten, dient oftmals dazu Phänomene in Kategorien einzuordnen, um sich in der Welt zu orientieren und sich gegenüber Neuem zu positionieren (Birnbacher 2006). Wie die Autorinnen in einer anderen Arbeit (Felt et al., im Erscheinen) zeigen, erhält der Differenzbegriff Natur seine spezifische Bedeutung meist erst in „diskursiven Assemblagen“, in denen er mit Begriffen wie Kultur, Künstlichkeit oder Technik/Technologie in eine wechselseitige Beziehung gebracht wird. Die Konstruiertheit des Naturbegriffs bedingt, dass es eine Vielzahl von Naturen geben muss, die miteinander verhandelt werden, und dass Naturkonzepte folglich räumlich, zeitlich sowie sozio-kulturell verschieden ausgeprägt sind (Macnaghten/Urry 1998). Je nach Kontext sind Naturvorstellungen daher mit ganz spezifischen kulturell fundierten Assoziationen verknüpft. Wenn wir von einer solch engen Verzahnung von Naturkonzepten

N ATÜRLICH N ANO | 153

mit spezifischen sozio-kulturellen Zuschreibungen und Konstellationen ausgehen, heißt dies auch, dass kulturelle und technologische Transformationen mit Veränderungen der Grenzziehungen zwischen Natur und Kultur einhergehen können (Bien 1994). Besonders interessant wird es aus sozialwissenschaftlicher Perspektive daher immer dann, wenn unterschiedliche Naturvorstellungen aufeinander treffen und sich in einen Kampf um kulturelle Vorherrschaft begeben. Wenn wir in diesem Sinne Kultur nicht nur als „a whole way of life“ (Williams 1958) sondern auch als „a whole way of struggle“ (Thompson 1961) sehen, muss es gleichfalls Ziel der Analyse sein, herauszuarbeiten, welche Naturvorstellungen miteinander in Konflikt treten und wie Bedeutungskämpfe – und damit gleichzeitig auch Machtkämpfe – um das Konzept Natur ausgetragen werden. Empirisch heißt dies zu rekonstruieren, welche Naturkonzepte in den Diskussionsrunden dominant bzw. randständig sind, welche sich durchsetzen, als unhinterfragbar angenommen werden oder auf Widerstand stoßen. Naturkonzepte und Natürlichkeitszuschreibungen dienen in solchen Kontexten oft als moralische Ressourcen, um bestimmte politische oder sozio-kulturelle Ordnungen festzulegen oder zu reproduzieren (Bensaude-Vincent/Newman 2007). Insbesondere in seiner Eigenschaftsform wird der Naturbegriff oft synonym für das was als normal oder der Norm entsprechend angesehen wird verwendet. ‚Natürlich‘ ist dann ein Indikator für das Unhinterfragbare und allgemein Akzeptierte; Natur wird zum Platzhalter für Kultur, im Sinne von Tradition, Werten und Normen. Referenzen auf etwas Unnatürliches dienen somit dazu bestimmte kulturelle Werte und Normen zu bestätigen. Ein gutes Beispiel hierfür ist sicherlich die noch immer anhaltende Charakterisierung von Homosexualität als ‚unnatürlich‘. Dies, so eine unserer zentralen Annahmen, prädestiniert Naturkonzepte dazu in Debatten um neue Technologien und den mit ihnen einhergehenden Veränderungen als Abgrenzungs- und Schließungsmechanismus eingesetzt zu werden (Yearley 2008; Radkau 1994). In diesem Sinne gilt es zu verstehen, welche Aspekte von Gesellschaft/Kultur und ihrer Ordnung durch Rekurse auf Natur bzw. Natürlichkeit reproduziert, legitimiert oder auch kritisiert werden. Gerade wenn durch den Einsatz neuer Technologien zunehmend Natur-KulturHybride entstehen, die nicht einfach nur die klare Trennung zwischen Natur und Kultur, sondern auch die damit einhergehenden sozio-politischen Ordnungen aufzubrechen und zu destabilisieren drohen, geht die Reinhaltung der

154 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

Begrifflichkeiten mit Stabilisierungsbemühungen von sozio-politischer Ordnung einher (Latour 1993; Haraway 1991). Wenn Nano – wie wir annehmen – auch zur Entstehung solcher Hybride beiträgt, ist es interessant zu beobachten, wie auf diese reagiert wird.

E MPIRISCHE ANALYSE Der empirische Teil dieses Beitrags ist in drei Abschnitte gegliedert, in denen Naturkonzepte unterschiedlichster Art in einer Vielzahl kommunikativer und thematischer Zusammenhänge verhandelt werden. Den Anfang macht dabei die Analyse von Stabilisierungsbemühungen der TeilnehmerInnen, die Grenzen von Natürlichkeit und Künstlichkeit aufrecht zu erhalten und Hybride ‚reinzuwaschen‘. Diese zeigen sich am stärksten, wenn Nano in bestimmte Anwendungsbereiche, wie Lebensmittel oder Kleidung, einzudringen scheint. Natürlichkeit kommt aber auch als Zuschreibung für bestimmte Formen der Lebensführung große Bedeutung zu, wie der zweite empirische Abschnitt zeigt. So werden bestimmte Nahrungsmittel und Ernährungsgewohnheiten näher an der Natur verortet und dadurch aufgewertet. Aber auch in der starken Betonung von Naturschutz und nachhaltigem Handeln drücken sich gesellschaftliche Wertvorstellungen aus, die sich in den Diskussionen um Nano auf eine spezifische Art und Weise artikulieren. Der dritte Teil untersucht schließlich, wie die menschliche Natur als Begründungsformel eines spezifischen Modells von Technologieentwicklung, das menschliche Handlungsmacht in Form von politischen Gestaltungsprozessen vernachlässigt, verwendet wird. 1. Achtung Grenze! Der folgende Abschnitt widmet sich dem Thema Grenzen auf zwei Weisen. In einem ersten Schritt untersuchen wir wie Grenzen gezogen werden, um bestehende und soziokulturell etablierte Kategorien von Natürlichkeit und Künstlichkeit rein zu halten, und so ein Gefühl von Sicherheit herzustellen. Der zweite Teil beschäftigt sich dann mit der Vorstellung von körperlichen (natürlichen) Limits, durch die technologische Eingriffe und die damit einhergehenden soziokulturellen Entwicklungen begrenzt werden.

N ATÜRLICH N ANO | 155

Reinhalten des Natürlichen Ein prominentes argumentatives Motiv, besonders in der Diskussion um Nano-Lebensmittel, ist jenes des Reinhaltens. In dieser Vorstellung wird von einer perfekten Natur ausgegangen, die von Menschenhand bzw. durch technologische Eingriffe nur verschlechtert und nicht verbessert werden kann. Das folgende Zitat von Doris3, einer Ernährungsberaterin, ist einer von vielen Versuchen die Verletzung dieses als natürlich empfundenen Zustands und deren Konsequenzen auszudrücken: Doris: Ich hab eine Freundin, die ist ziemlich stark übergewichtig und vor drei Jahren hab ich dann gemerkt, sie verwendet diese Fastenmilch und da sind künstliche Ballaststoffe zugesetzt, also total indiskutabel, und was sie mit mir gestritten hat, ich soll sie in Ruh lassen, das ist ihre Entscheidung, die ist fettarm und sie braucht kein Fett, weil sie ist eh schon so fett und so irgendwie. Heute, kommt sie zu mir, kannst du mir helfen beim Abnehmen, ich hab wirklich zwei Monate gebraucht, um ihr die Sache mit dem Fett klar zu machen. (1004-9)

Durch die Erzählung einer persönlichen Geschichte wird verdeutlicht, dass Lebensmittel wie Milch in ihrer als natürlich dargestellten reinen Form am effizientesten sind. Somit wird beides, der künstliche Entzug von Bestandteilen (Fett) als auch der Zusatz von Stoffen (künstliche Ballaststoffe), als Entwertung betrachtet. Was die Trennung in künstlich und natürlich betrifft, weisen mehrfache Äußerungen in allen Diskussionsrunden darauf hin, dass die meisten TeilnehmerInnnen Nano als etwas Künstliches, als Eindringling in natürliche Entitäten wahrnehmen und darauf mit Reinhaltungsbemühungen reagieren. Ein interessanter Aspekt des Reinhaltens eines natürlichen Zustandes ist jener der Grenzziehung, oder die Frage danach, was eigentlich als natürlicher Zustand gilt und unter welchen Umständen dieser verletzt wird. Die folgende Sequenz illustriert dies besonders deutlich: Doris: Mich hat das Brot erschüttert [...] Omega-3-Fettsäuren sind in erster Linie in Fisch drinnen, in pflanzlichen Ölen und solchen Dingen auch, kann man wun-

3

Die Namen der TeilnehmerInnen wurden von den Autorinnen geändert.

156 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

derbar dem Körper zuführen, aber wenn der Fischgeruch und der Fischgeschmack verhindert werden sollen, na dann bleibt der Genuss voll auf der Strecke. Mod.: Ja im Brot wollen Sie ihn ja vielleicht nicht haben, den Fischgeschmack? Doris: Ja, nein. Ich meine die Brotsorte mit dem Fischöl. Rosa:

Das Brot ist ja sowieso gesund.

Doris: Ein Fischöl gehört nicht ins Brot, dort fängt’s schon einmal an. (718-32)

Doris reagiert hier auf eine australische Brotsorte, in die mit Hilfe von Nanokapseln ‚herzfreundliches‘, geruch- und geschmackloses Fischöl eingebracht wird. Die Sequenz illustriert ihr starkes Bemühen, die Grenzen zwischen unterschiedlichen kulturellen Kategorien aufzuzeigen und so Ordnung herzustellen. Die im Fischöl enthaltenen Omega-3-Fettsäuren werden nur dann positiv bewertet, wenn sie auf althergebrachtem Wege – durch den Genuss von Fisch – aufgenommen werden. Was im ersten Abschnitt nur angedeutet wird, formuliert Doris in Reaktion auf Unklarheiten und Unterbrechungen als moralisches Totschlagargument ‚das sich etwas einfach nicht gehört‘. Verkapseltes Fischöl fungiert hier als Stellvertreter für Technologie, denn nur durch nanotechnologische Methoden ist es möglich, Omega-3-Fettsäuren ohne Geruch in das Brot einzuschleusen. Somit wird über die Kritik der Vermischung von Fischöl und Brot auch die Verletzung einer natürlichen Grenze durch neue technologische Möglichkeiten angesprochen. Der Rekurs auf eine natürliche Ordnung, in der eine Vermischung der Kategorien als unnatürlich angesehen wird, dient hier als Quelle für moralische Orientierung und drückt sich in einem normativen Argument aus, dass in der Folge auch die Debatte um dieses Thema vorerst schließt. Eine ähnliche Vorstellung findet sich auch in der Diskussionsrunde zu Nanotechnologie in alltäglichen Konsumprodukten, und zwar in der Debatte um Socken mit Bambusholzkohle-Nanopartikeln, die durch ihre antibakteriellen Eigenschaften Fußgeruch verhindern sollen. Die Nano-Bambus-Socken repräsentieren ein Hybrid, in dem sich für die DiskussionsteilnehmerInnen zwei einander ausschließende Konzeptionen – Natürlich- und Künstlichkeit – vermischen. Ausgelöst durch die Konfrontation mit diesem Hybrid können wir in der folgenden Sequenz beobachten, wie mit der Unsicherheit, die mit dem Verschwimmen klarer kultureller Ordnungskategorien einhergehen, umgegangen wird. Wir sehen zuerst, dass Bambus sofort mit biologi-

N ATÜRLICH N ANO | 157

schen und natürlichen Fasern assoziiert wird, die wiederum mit Nachhaltigkeit in Bezug auf die Umwelt und Unbedenklichkeit für den menschlichen Körper verbunden werden: Karin: Das klingt so biomäßig. [Lachen] Na ich hab das sogar ganz anders gedacht. Ich hab gedacht, die sind besonders umweltschonend jetzt und das ist eine super Naturfaser. Also war jetzt meine Interpretation bei Bambusfaser, ja? Maria: Ja, so hab ich das eigentlich auch gedacht. (872-85)

Auch in dieser Diskussionsrunde wurde Nano als unnatürlich und künstlich wahrgenommen, wie sich explizit im Eingangsstatement eines Diskussionsteilnehmers ausdrückt, der Nano mit Plastik gleichsetzt und damit seine Ablehnung gegenüber Nano begründet (27-9). Die oben angesprochene Unsicherheit durch die Vermischung kultureller Kategorien führt zu Bestrebungen eine klare Grenzlinie zwischen ‚natürlich‘ und ‚unnatürlich‘ zu ziehen und die Natürlichkeitskategorie durch sofortigen Ausschluss des Hybrids zu bereinigen. Die Kennzeichnung von nanotechnologisch veränderten Produkten stellt eine kulturell verankerte Form der Sichtbarmachung und Stabilisierung der Unterscheidung natürlich/technologisch dar, die es den KonsumentInnen ermöglicht, aufgrund individueller Präferenzen zu entscheiden, aber auch kollektive Handlungsmacht auszuüben: Karin: Ich mein ich schau schon, dass das Naturfasern sind, ja? Und achte drauf. Aber wenn ich nicht weiß, dass das jetzt irgendwie verändert ist oder eben Nanotechnologie drinnen ist, dann hab ich ja keine Entscheidung. Gerd:

Da wär der Gesetzesgeber gefordert, zumindest die Kennzeichnungspflicht einzuführen. (1218-23)

Da derzeit unklar ist, ob Nanopartikel neben ihren antibakteriellen Eigenschaften auch negative Effekte auslösen können, wird ihrem Einsatz in Textilien skeptisch begegnet. Gerade im Sockenbeispiel werden sie als potentiell bedrohlich für den menschlichen Körper wahrgenommen. Zusammenfassend kann festgestellt werden, dass die Praxis des Reinhaltens eine Strategie ist, dem potentiellen Risiko, das eine Hybridisierung in gewissen Bereichen mit sich bringt, auszuweichen. Reinhalten dient hier auch dazu fest verankerte kulturelle Ordnungen und Kategorien aufrechtzu-

158 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

erhalten, die damit weiterhin Struktur und Orientierung in einer immer komplexer werdenden Welt bereitstellen. Die Anthropologin Mary Douglas (1966) hat dieses Phänomen in traditionellen Kulturen untersucht und gezeigt, dass dieses Motiv immer auf eine symbolische Ordnung referiert und dann entsteht, wenn etwas nicht in etablierte kulturelle Kategorien passt. Nano bringt etablierte Ordnungssysteme ins Wanken und stellt damit gewohnte Sicherheiten in Frage. Wie sich in den analysierten Sequenzen zeigt, sind diese kulturellen Kategorien gleichzeitig moralische Kategorien und haben daher auch im Diskurs eine normative Bedeutung und Funktion. Natürliche Grenzen Eine andere Art der Grenzziehung findet sich im Material in der Vorstellung, dass sich Natur in Form des menschlichen Körpers technologischen Eingriffen widersetzt. Diese wurde besonders deutlich in der Diskussion rund um das Thema Verbesserung und Steigerung der menschlichen Leistungsfähigkeit zum Ausdruck gebracht. Die Debatte fand ihren Ausgangspunkt in der Anwendungskarte mit dem Titel „Neuro-elektronische Schnittstellen zum Gehirn“, welche die Möglichkeit beschreibt, mit Nanochips nicht nur Nervenkrankheiten wie Parkinson zu bekämpfen, sondern auch geistige Leistungen im Arbeitsleben oder beim Sport zu verbessern oder im militärischen Bereich Gefühle wie Angst oder Aggression zu kontrollieren. In der Diskussionsgruppe zu Nanotechnologie in der Medizin finden wir einen Austausch über technologische Möglichkeiten der Lebensverlängerung. Hier wurde die Idee von Körpern entwickelt, die sich gegen eine technologisch ermöglichte Ausbeutung ihrer Arbeitskraft wehren. Natur tritt dabei in Form von Körpern als unüberwindbare Materie auf, die technologischen Eingriffen Grenzen setzt: „[die Körper] klappen dann irgendwann zusammen, vielleicht altern die Leuten dann nimmer so und klappen einfach irgendwann zusammen. Bis zum Schluss können sie arbeiten“ (1318-20). Auch in der Diskussionsrunde zu Nano im Bereich von Informations- und Kommunikationstechnologien dient der Rekurs auf den Körper als eigensinnige Natur dazu, der ambivalent betrachteten Technologieanwendung zu Enhancement-Zwecken Grenzen zu setzen. Christa: Wie lange kann man dann diese Spirale nach oben drehen, ohne zu, weiß ich nicht, jetzt sehr überspitzt formuliert, den geistigen Horizont dann irgendwie

N ATÜRLICH N ANO | 159

zu (.) zerplatzen oder ich weiß nicht was. [Lachen] das über Gebühr beansprucht wird. [...] Daniel: Da fragst dich, ob das Gehirn mitspielt. (681-94)

Ähnlich wie im Beispiel aus der Diskussionsgruppe zu Medizin wird auch hier davon ausgegangen, dass es ein natürliches Limit gibt, das auch neue Technologien nicht überschreiten oder ausdehnen können. Christas Kommentar drückt die Angst aus, durch die Ausdehnung der menschlichen Fähigkeiten eine Grenze zu erreichten, die zu einem vollständigen Zusammenbruch führt. Die verwendete Metapher „zerplatzen“ verdeutlicht die Wahrnehmung des menschlichen Gehirns als analog zu einem Luftballon, der – um ihn größer zu machen – mit immer mehr Luft gefüllt wird, dadurch allerdings zu zerplatzen droht. Auch Daniel zweifelt an der Umsetzbarkeit von solcherlei Enhancement-Bestrebungen, die er ebenfalls aus deren Unvereinbarkeit mit dem Körper herleitet, was sich an einer späteren Stelle im Transkript zeigt: Daniel: In der Science Fiction wird auch oft in Büchern von [ ]-Schulung gesprochen. Dass du einfach diesen Helm aufsetzt und dann geht’s ‚ssssst‘ und dann, eine halbe Stunde später hast du das ganze Wissen, für das du eigentlich fünf Jahre in der Uni gebraucht hast und hast gleich alles intus. Da ist auch die Frage: ist Wissen gleich Wissen? Weil man lernt doch besser durch Praxis als durch nur durch Theorie. Das heißt, man hat Theorie drinnen, aber letztendlich hast es eigentlich selber noch nie gemacht. (772-78)

Daniel greift auf sein Wissen aus Science Fiction Büchern zurück, um die Vision einer Art Lexikonchip in breitere Vorstellungen von einem schnellen Lern- und Wissensgewinn durch eine technologische Anwendung einzuordnen. Für ihn stellt sich hierbei die grundsätzliche Frage, ob das auf diesem Weg erhaltene Wissen vom Gehirn genauso integriert werden kann wie Wissen, welches über langwierige Lernprozesse („durch Praxis“) erworben wurde. Das technisch vermittelte Wissen nimmt dabei den Stellenwert von Theorie ein, die nicht mit inkorporiertem Wissen bzw. Erfahrungswissen gleichgesetzt werden kann. Auch hier entzieht sich der Körper durch seine spezifische Art der Wissensverarbeitung einem technologischen Zugriff. Natur wird als eine Konstante anerkannt, die das technologisch Machbare begrenzt.

160 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

In der Diskussionsrunde zu Nanotechnologie im Lebensmittelbereich werden, wie im folgenden Zitat ersichtlich, negative körperliche Reaktionen, die durch neue Technologien verursacht werden, dazu verwendet eine als falsch wahrgenommene kulturelle Entwicklung in ihre Schranken zu weisen: Doris: Na weil die Leute einfach aufgrund von diversen Krankheiten oder Unwohlsein oder was auch immer, einfach draufkommen werden, dass die Natur noch immer das Bessere ist. Als wie dieses Junkfood und, und, und Funktionelle und Zugesetzte, Künstliche. Also ich glaub schon, dass mit der Zeit die Leute munter werden. [...] ich mein, dass [Nano in Lebensmitteln] verschwinden wird. (2579-92)

Hier wird eine klare Präferenz von „natürlichen“ Lebensmitteln mit einem dystopischen Szenario, in dem „künstliche“ Nahrungsmittel Krankheiten hervorrufen, legitimiert. Jene, die die negativen Seiten von technologisierten Lebensmitteln nicht erkennen, werden wie in den obigen Beispielen durch die Grenzen ihres Körpers darauf hingewiesen, woraufhin ein Erwachenserlebnis („munter werden“) stattfindet. Am Ende dieser Vorstellung steht die Hoffnung auf eine Welt ohne Nano in Lebensmitteln, was durch gesellschaftliches Umdenken erreicht wird. Auch in diesem Beispiel tritt Natur als Verbündete auf, die helfen soll noch nicht Bekehrte zu überzeugen und damit eine negative kulturelle Entwicklung zu korrigieren. 2. Natur als Orientierungsrahmen für Lebens- und Handlungsweisen Naturkonzepte werden auch als Bewertungs- und Orientierungsrahmen für bestimmte Lebens- und Handlungsweisen herangezogen, die mit spezifischen Haltungen gegenüber Nano verbunden sind. Im ersten Abschnitt betrachten wir die kulturkritische Position eines Teilnehmers näher, für den Nano-Lebensmitteln eine unnatürliche Lebensweise weiter verstärken. Im zweiten Abschnitt rekonstruieren wir dann wie Natur als Umwelt in den Diskussionen – vermittelt durch Diskurse zu Nachhaltigkeit und Umweltschutz – auftritt und als kulturelle Ressource für moralisches Handeln dient. Die Rolle von Nano in Bezug auf die Umwelt wird hier durchaus ambivalent gesehen: In die Technologie wird einerseits die Hoffnung gesetzt Umweltprobleme zu beheben, anderseits hat sie auch das Potential solche zu generieren.

N ATÜRLICH N ANO | 161

(Un)natürliche Lebensweise Eine in der Diskussion über Nanotechnologien im Lebensmittelbereich auftauchende Begriffsfigur ist jene der „natürlichen Lebensweise“. Sie verweist auf eine spezifische Ausformung von Kultur, die vom Sprechenden als ‚normal‘, erhaltens- oder erstrebenswert angesehen wird und reflektiert damit persönliche und gesellschaftliche Wert- und Moralvorstellungen. In der Diskussion werden mit ihrem Gegenteil, der „unnatürlichen Lebensweise“, unerwünschte oder problematische sozio-kulturelle Entwicklungen kritisiert, die durch Technologie entstehen bzw. durch sie fortgesetzt oder verstärkt werden. Diese Unterscheidung wird von Robert, einem Biologen und BioImker, als Reaktion auf die Position von Rosa, einer ehemaligen Kindergärtnerin, entwickelt. Rosa befürwortet die Idee, Lebensmittel mit Vitaminen, eingeschlossen in Nanotransportern, anzureichern und in der Ernährung von Kindern einzusetzen, wenn diese eine billigere Alternative zu „natürlichen“ vitaminreichen Lebensmitteln wie Gemüse oder Obst darstellen. Bestimmte Lebensmittel werden von Rosa folglich als mangelhaft konzeptualisiert, die aber unter Zuhilfenahme von Technologie verbessert werden könnten. Demgemäß vertritt sie an dieser Stelle einen eher pragmatischen Standpunkt: Technologie stellt für sie ein Mittel dar um einen unzureichenden Zustand, wie die Unterversorgung von Kindern mit Vitaminen, zu kompensieren. Robert widerspricht dem sofort, indem er „große Zweifel“ äußert, „ob man Vitamine, die in einer ausgewogenen Ernährung fehlen, künstlich durch Nanotechnologie wieder zuführen kann.“ (260f.). Im folgenden Zitat bettet er Ernährungsverhalten in den Kontext einer gesamten Lebensweise ein: Robert: Im Grunde geht’s ja darum, dass man eine relativ unnatürliche Lebensweise, also zum Beispiel wenn man zehn Stunden hinterm Computer sitzt und sich nicht mehr bewegt, mit dem Auto zum Computer fahrt, zehn Stunden sitzt und zurück, dann braucht man natürlich die zwei Stunden am Hometrainer nachher um überhaupt noch zu überleben. Bei einer ausgewogenen Lebensweise, wo man vielleicht noch mehr Bewegung auch im Alltag hätte, wäre das gar nicht notwendig. (274-79)

Eine unnatürliche Lebensweise wird hier mit wenig körperlicher Bewegung gleichgesetzt und problematisiert. Der Hometrainer repräsentiert in Roberts Schilderung beispielhaft die technologische Antwort auf das Problem Bewe-

162 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

gungsarmut, das im Rahmen einer „ausgewogenen“ – nicht einseitigen – Lebens- und Arbeitsweise erst gar nicht entstehen würde. Wenn wir in diesem Zusammenhang Kultur im Sinne Raymond Williams als ganze Lebensweise verstehen, werden hier zwei gegensätzliche Ess- und Lebenskulturen entworfen und durch die Bezeichnung als „unnatürlich“ bzw. „ausgewogen“ bewertet. Die unnatürliche Lebensweise wird als nicht dem Menschen entsprechend konstruiert, wohingegen die ausgewogene Lebensweise einen idealen, harmonischen Zustand beschreibt, in dem der Mensch im Einklang mit seiner/der Natur lebt. Robert hat auch eine präzise Vorstellung davon, wie sein Ideal erreicht werden könnte, nämlich durch kulturellen Wandel, der bei den Kindern als RepräsentantInnen der Zukunft ansetzt: Robert: Ob das natürlich die angestrebte Zukunft für die Ernährung der Kinder ist, das bezweifle ich stark. Da wäre es besser sie zurück zu führen, wie es ja auch bei vielen Schulen, Projekten, Kindergärten läuft, ganz bewusst jetzt Arbeit zu machen und sagen, was ist eine gesunde Ernährung und was beinhaltet das und was ist das Wichtige daran und nicht zu versuchen, okay, kriegen sie halt ihren Grießbrei und ihre Milchschnitten, ihren Zucker und Zucker und Zucker in allen Dingen und denaturalisiert, also Mehl ohne Vollwert und dafür hinten nach dann die Vitaminpillen oder die Nanotechnologie [...] ich glaub das funktioniert nicht. (281-9)

In seiner Forderung, die Kinder „zurück zu führen“ offenbart sich die Vorstellung von einer natürlicheren, gesünderen Ernährungsweise in der Vergangenheit, die auch von Doris, mit folgender Aussage geteilt wird: „die Leute vor 50 Jahren haben es [Hipp-Gläser mit Konservierungsmitteln] auch nicht gehabt und sind gesünder gewesen als die heutigen Kinder“ (316f.). In dieser Forderung nach einer kulturellen Neuorientierung in Richtung einer vergangenen Esskultur drückt sich in erster Linie Skepsis gegenüber gegenwärtigen Ernährungsgewohnheiten aus. Diese werden in eine unnatürliche Lebensweise eingeordnet und dadurch als sozio-kulturelles Problem gerahmt, weshalb deren Lösung auch auf dieser Ebene ansetzt. Robert wendet sich explizit gegen Positionen wie jene Rosas, die an die technische Behebung bestimmter Mängel glauben. Für ihn sind diese Mängel unter anderem durch „denaturalisierte“ Lebensmittel kulturell hergestellt: Technologische Prozesse, die Lebensmitteln wie Mehl und Zucker ihre „natürlichen“ Be-

N ATÜRLICH N ANO | 163

standteile entziehen, werden als problematisch wahrgenommen. Die Adjektive „gesund“, „ausgewogen“ und „natürlich“ werden in Roberts Argumentation nahezu synonym und immer positiv verwendet, wohingegen er seine Kritik auf negative Naturbezüge wie „unnatürlich“ (zur Beschreibung einer Lebensweise) und „denaturalisiert“ (bezogen auf die Beschaffenheit von Lebensmitteln) stützt. Diese Naturreferenzen funktionieren im Diskurs um Nano-Lebensmittel als machtvolle Stellvertreterargumente um Präferenzen für oder gegen bestimmte Lebensweisen zu legitimieren und auf – mit spezifischen Lebensweisen einhergehende – problematische Begleiterscheinungen wie Nährstoff- und Bewegungsmangel hinzuweisen. Wie sich an späteren Stellen in der Diskussion zeigt, werden sie jedoch nicht dazu verwendet eine prinzipielle Ablehnung von Technologie auszudrücken. Naturschutz und nachhaltiges Handeln Eine andere handlungsleitende Funktion nimmt der Begriff Natur in den Diskussionsrunden dann ein, wenn er im Sinne von Umwelt verwendet wird. Naturschutz und Nachhaltigkeit repräsentieren zentrale Werte, die an vielen Stellen im Material auftauchen und niemals explizit in Frage gestellt werden. Der Technologie kommt in diesem Zusammenhang eine ambivalente Rolle zu, wie sich an einem Beispiel aus der Diskussionsrunde zu Nano im Medizinbereich zeigt: Christian artikuliert darin die dystopische Vorstellung von zerstörerischen technologischen Eingriffen in die Umwelt, die er durch Nanotechnologie fortgesetzt sieht: „Der Kreislauf ist eh schon viel zu zerstört, der natürliche Kreislauf der Dinge. Dieser weitere Eingriff in die Natur wird glaub ich noch viel katastrophalere Folgen haben als die Genmanipulation jetzt schon hat.“ (3228f.). Natur wird hier als verletzliches, zusammenhängendes Kreislaufsystem skizziert, dessen Funktion durch technologische Interventionen gestört wird. Dies ist mit der Vorstellung von Natur als schützenwert verbunden, was die Forderung nach einem vorsichtigen Einsatz von Technologien impliziert. Allerdings, so zeigt sich nur ein paar Momente später, geht eine solche Position nicht unbedingt mit einer kategorischen Ablehnung von Nanotechnologie einher. Ähnlich wie im Beispiel aus dem Essensbereich werden nicht Technologien an sich sondern spezifische Anwendungsweisen kritisiert. Die Möglichkeit, Nanotechnologie zu Zwecken des Naturschutzes oder zur Lösung von Umweltproblemen einzusetzen, wird von Christian sogar sehr begrüßt:

164 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

Christian: Eine mögliche Chance ist, dass man – aber dazu kenn ich mich wirklich zu wenig aus – aber wir stehen vor einem Haufen Problemen, was die Natur angeht, dass man versucht mit Hilfe dieser Technologie, die entstandenen Schäden, die bis jetzt an Mutter Erde verursacht wurden, zu heilen. Sprich: vielleicht gibt’s irgendwelche Nanopartikel, die einen Ölfilm auf dem Meer zerstören können. Monika: Binden hoffentlich. Christian: Na nicht nur binden, sondern ihn unschädlich machen. Monika: Achso, okay. Christian: Und dass man sich aber schon anschaut, was danach passiert mit diesen Dingen. Weil vielleicht führt das wieder zu einer noch viel größeren Katastrophe. Monika: Genau. Also das muss eine verträgliche Lösung sein, die letztlich positiv zu bewerten ist. (3251-65)

Für Christian könnte der Einsatz von Nanotechnologie als Mittel gegen Umweltverschmutzung eine Art Wiedergutmachung an der Natur darstellen. Mit der Bezeichnung „Mutter Erde“ erklärt er die Natur zum lebensspendenden Wesen; es findet sich darin außerdem ein Verständnis der Erde als Körper und Patient, das sich in den Metaphern des „heilens“ und „unschädlich machens“ ausdrückt. Der Mensch hat in Christians Narrativ die Erde/Natur durch technologische Eingriffe beschädigt, daher kommt ihm auch die moralische Verpflichtung zu, Technologie einzusetzen, um diese Schäden so gut wie möglich zu beheben. Technologie tritt also in zwei gegensätzlichen Rollen, als Zerstörer und Heilmittel, auf. Die beiden DiskutantInnen artikulieren eine geteilte Hoffnung auf die technologische Lösung von Umweltproblemen, sind sich aber gleichzeitig bewusst, dass durch technologische Formen der Schadensbegrenzung noch viel größere Schäden entstehen könnten. Monika plädiert für eine „verträgliche Lösung“, worin sich erneut der Wunsch nach Lösungen, die die Umwelt nicht zusätzlich belasten, ausdrückt. Diese Beschreibung bleibt auch in der metaphorischen Rahmung der Umwelt als belasteter Körper, dem nur mehr eine leicht verdauliche („verträgliche“) Kost zugeführt werden sollte. Dies ist auch mit Christians Kreislauf-Argument kongruent, das den Blick auf die Abfall- oder Nebenprodukte von nanotechnologischen Lösungen und deren möglicherweise negative Wirkung auf das Ökosystem lenkt. In der Sequenz drückt sich das moralische Di-

N ATÜRLICH N ANO | 165

lemma aus, an einem Punkt angekommen zu sein, an dem menschengemachte Umweltprobleme ohne technologische Lösungen nicht mehr bewältigbar sind. Naturschutz scheint gegenwärtig ein so dominanter kultureller Wert zu sein, der auch die Anwendung technologischer Mittel heiligt und Ängste um deren Risiken teilweise überlagert. Die kulturelle Orientierung am Naturschutz wird in den Diskussionsrunden auch durch die Praxis nachhaltiger Lebensführung als moralische Pflicht ausgedrückt. In der Diskussionsrunde zu Nanotechnologien in alltäglichen Konsumprodukten wurde die Diskussion über nachhaltiges Handeln von einer anderen, im Diskurs eher marginalen Naturvorstellung eingeleitet. In der folgenden Sequenz präsentiert Ernst natürliche Abläufe als ressourcenschonend und damit als Modell für technologische Innovation: Ernst: Vielleicht sogar der Nachhaltigkeitsgedanke [lacht] neuerdings wieder. Weil Nachhaltigkeit ist was sehr positives. Und nachhaltig bedeutet ja auch, dass ich wenige Ressourcen verbrauche. Das heißt, wenn ich mit den Ressourcen sehr genau umgehe und die Natur geht auch mit Ressourcen sehr genau um. Wir sind ja eigentlich Nanomaschinen. Also die Biologie besteht aus Nanomaschinen. Funktioniert nur im Nanobereich [...]. Quantenphysikalisch funktionieren wir wie Maschinen, Maschinen im Molekularmaßstab. Das ist der Mensch. Eine Maschine im Molekularmaßstab. Wir verstehen uns selbst kaum, versuchen aber jetzt Nanomaschinen herzustellen, die naturkonform funktionieren. (1313-34)

Im ersten Teil seiner Aussage sieht Ernst das Nachhaltigkeitsprinzip in der technologischen Imitation von natürlichen Prozessen umgesetzt. Im zweiten Teil setzt er dann die Natur und ihre Funktionsweise mit Technologie gleich, wobei Nano dadurch als natürlich angesehen wird und die Natur, symbolisiert durch den Menschen und die Biologie, als eine Art Maschine. Seine Vorstellung des Menschen als Maschine verweist auf ein mechanistisches Konzept des menschlichen Körpers, umgekehrt funktionieren Nanomaschinen seiner Meinung nach wie die Natur. Diese Analogie bricht die Unterscheidung zwischen Nanotechnologie und Natur auf, wodurch Versuche, natürliche Prozesse durch Nanotechnologie zu imitieren, machbar und unproblematisch erscheinen. Durch die Beschreibung als natürlich, wird Nano in eine kulturell etablierte positive Sichtweise von Natur als harmlos und nach-

166 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

haltig integriert. Die Vorstellung, dass nanotechnologische Innovationen natürliche Prozesse nachahmen ist eine gebräuchliche Legitimationsstrategie ihrer AdvokatInnen (vgl. Wickson et al. 2010) und kann auch hier, mit dem Wissen über Ernsts beruflichen Hintergrund als Naturwissenschaftler, als eine solche gedeutet werden. Eine andere Diskussionsteilnehmerin reagiert auf Ernst mit folgender Aussage: Karin: Ja, also ich möchte jetzt noch einmal darauf eingehen, was du gesagt hast, die Nachhaltigkeit. Also ich kauf mir einmal ein gescheites und kauf mir nicht 5 halbe und produzier damit weniger Dinge. Oder ich denk mir, naja, dieses Waschmittel ist ergiebiger, oder dieses Putzmittel, da hau ich halt ein, nicht 2 Kapperl in einen großen Putzkübel rein, sondern nur einen halben und das passt genau so, und ich hab das Gefühl, boa, jetzt hab ich was total Gutes gemacht, ja? Was Nachhaltiges, ja? [...] ich kann ja immer nur im Kleinen agieren und versuch das auch wirklich zu tun. Und da denkt man halt yeah jetzt hab ich da ein super Putzmittel, das so gut reinigt, mit so wenig – ich mach was richtig Gutes. (1338-55)

Das Zitat zeigt, dass Karin hier an den kulturell geteilten Nachhaltigkeitsdiskurs anschließen kann, den restlichen Sinngehalt von Ernsts Aussage allerdings ignoriert. Im Gegensatz zu Ernst, der Technologie zur Umsetzung des Nachhaltigkeitsprinzips heranzieht, versucht Karin diesem durch ressourcenschonende Konsum- und Gebrauchsakte zu entsprechen. Damit wird ihr Tun zu moralischem Handeln („etwas Gutes tun“). Nachhaltigkeit fungiert in ihrer Erzählung als moralisch aufgeladener, kultureller Diskurs, der auf das Individuum normativ wirkt und bei Entsprechung ein gutes Gefühl erzeugt, was durch die Ausrufe „boah“ und „yeah“ noch unterstrichen wird. Es zeigt sich also, dass obwohl Nachhaltigkeit einen geteilten Wert unter den DiskutantInnen darstellt, ihre praktische Umsetzung je nach individueller Orientierung unterschiedlich ausfällt: Während Ernst Technologie als nachhaltig konzipiert, weil sie natürliche Prozesse imitieren kann, sieht Karin die KonsumentInnen als diejenigen die für Nachhaltigkeit Sorge tragen sollten.

N ATÜRLICH N ANO | 167

3. Naturalisierung von Technologieentwicklung In den vier Diskussionsrunden finden sich viele Hinweise darauf, wie BürgerInnen Technologieentwicklung betrachten und welchen Gestaltungsspielraum sie in diesem Zusammenhang für sich selbst und die ganze Gesellschaft sehen. Am dominantesten ist dabei die Vorstellung von Technologieentwicklung als unausweichlicher „natürlicher“ Prozess, der einer inhärenten Logik folgt. Sich dem technologischen Fortschritt entgegenzustellen und damit auch Nano abzulehnen, erscheint vor diesem Hintergrund undenkbar. Referenzen auf die menschliche Natur und natürliche Prozesse dienen in diesem Zusammenhang dazu ein Fortschreiten technowissenschaftlicher Innovationen zu begründen, was wir im Folgenden durch ausgewählte Sequenzen näher rekonstruieren. Relativ zu Beginn des Workshops zu Nanotechnologie im Anwendungsbereich der Informations- und Kommunikationstechnologie (IKT) argumentiert Anna, eine Unternehmensberaterin, ihren Standpunkt, dass sich Überwachungstechnologien auch zukünftig durchsetzen werden, folgendermaßen: Anna: Ich glaube, dass wenn eine technologische Entwicklung mal angebrochen ist, dann wird man nicht so schnell davon lassen. Also das wird sich ganz sicher entwickeln. Schon aus dem Grund, dass der Mensch von Natur aus sehr neugierig ist. Und [lacht] das wird eine Fortsetzung finden. Also früher wie man das Video erfunden hat, da hat man bestimmt auch diskutiert, wollen wir das jetzt haben oder nicht? Sollen wir das für die Überwachung einsetzen oder nicht? Aber es hat sich durchgesetzt, und das wird wahrscheinlich mit der Nanotechnologie auch so sein, also diese technologische Entwicklung wird passieren. (382-90)

Technologieentwicklung wird in dieser Aussage als von menschlicher Neugierde getrieben konzipiert. Indem Neugierde als angeborene, unveränderliche Grundausstattung des Menschen betrachtet wird, erscheint technologischer Fortschritt als unabwendbar. Wer sich gegen Technologieentwicklung stellt, so die logische Konsequenz, arbeitet gegen die menschliche Natur. Anna exemplifiziert diese Theorie anhand der Videotechnologie, in der sie bereits dieselbe Problematik angelegt sieht, die nun in der Diskussion um

168 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

nanotechnologisch ermöglichte Überwachung erneut auftaucht. Da Videoüberwachung seit Jahrzehnten praktiziert wird, kommt sie zum Schluss, dass auch Nanotechnologie zu Überwachungszwecken eingesetzt werden wird. Zwar nimmt in der darauf folgenden Diskussion niemand der anderen DiskutantInnen auf ihr Naturargument Bezug, jedoch sieht Daniel an einer späteren Stelle (1795-1802) kulturell-technologischen Wandel ebenfalls natürlichen Prozessen unterworfen. Er setzt Technologieentwicklung mit kulturellen Moden gleich, die von der jüngeren Generation aufgebracht werden, aber gleichzeitig immer auf Proteste der älteren Generation stoßen. Innovation wird in Daniels Modell durch den natürlichen Generationenwechsel sichergestellt. Technologiekritische Positionen sind in diesem Narrativ im wahrsten Sinne des Wortes zum Sterben verurteilt. Diese beiden Beispiele verdeutlichen, wie der Rekurs auf die menschliche Natur und auf natürliche Prozesse ein Ende von Technologieentwicklung und technologischem Fortschritt undenkbar erscheinen lässt; was sich auch darin ausdrückt, dass die anderen DiskutantInnen dieser Auffassung nie direkt widersprechen. Nur relativ am Schluss der IKT-Diskussionsrunde wird von einem Teilnehmer ein möglicher Endpunkt technologischen Fortschritts imaginiert, worauf eine Sequenz folgt, in der menschliche Natur auf ganz unterschiedliche Weise mobilisiert wird, um zu klären was die Grenzen des Fortschritts bestimmt: Bernd: Für mich stellt sich schon die Frage, und das ist vielleicht eher so auch prozessmäßig zu sehen, jetzt sind wir in einer Phase wo Technologie neu entwickelt wird und alle pushen immer weiter und es wird neu geforscht. [...] Also so im Sinne von, jetzt beschleunigt sich das Ganze, und irgendwann kommt es wieder zum Stillstand sozusagen. Weil nicht mehr der Zwang da ist, sich weiter zu entwickeln. Christa: Liegt das nicht in der Natur des Menschen? Bernd: In der Natur des Menschen glaub ich liegt’s nicht. Aber sozusagen ob Technologie dann eine Rolle spielt, so im Sinne von, so, jetzt haben wir alles unter Kontrolle und so lassen wir das. [...] Daniel: Ja, da müsste man die Grenze erreichen. Wo es nicht mehr weiter geht. Da wir so evolutionsgesteuert sind, versuchen wir immer weiter, weiter, weiter, weiter. Das Ganze noch mehr zu toppen. Dann muss irgendwo Stopp sein, dass wir nicht mehr weiter kommen, jetzt haben wir die Grenze erreicht. (3117-38)

N ATÜRLICH N ANO | 169

Bernd formuliert ein Modell von Technologieentwicklung, in dem technologischer Stillstand nicht durch die menschliche oder eine externe Natur vorgegeben wird, sondern von der Wahrnehmung eines „Zwangs“ zur Weiterentwicklung abhängt. Im Gegensatz dazu erscheint in den Argumentationen von Christa und Daniel der Mensch einem natürlichen Prinzip unterworfen, das einem Stillstand entgegenwirkt und zu fortwährender Entwicklung anregt. Einzig natürliche Grenzen werden, wie sich in Daniels Äußerung ausdrückt, als den technischen Fortschritt einschränkend akzeptiert. In der Konzeption von Christa und Daniel wird dem Menschen eine passive Rolle zugeschrieben, da er entweder seiner eigenen Natur oder externen natürlichen Grenzen unterworfen ist. Naturargumente dieser Art erkennen dem Menschen Handlungs- und Gestaltungsmacht ab und übertragen die Verantwortung, was Entscheidungen in Bezug auf Technologieentwicklung angeht, auf natürliche Prozesse oder Entitäten. Eine weiterführende Frage wäre, ob diese Argumente Erklärungsmuster für einen als fehlend wahrgenommenen Handlungsspielraum darstellen und ihn so gleichzeitig stabilisieren. In der Diskussionsrunde konnte sich Bernds alternative Vorstellung, die dem Menschen deutlich mehr Entscheidungsmacht zuschreibt, jedenfalls nicht durchsetzten – was zeigt, welch enorme argumentative Kraft der Natur, als einfache Erklärungsformel für technologischen Fortschritt, innewohnt. Auf den ersten Blick mag es paradox erscheinen, wenn gerade jene DiskussionsteilnehmerInnen, die mit Bezug auf die menschlichen Natur unaufhaltsamen technologischen Fortschritt erklären, diesen gleichzeitig in Frage stellen, wie sich in folgendem Beispiel zeigt: Anna: Für mich stellt sich die Frage eher nach der Ethik in Bezug auf den Eingriff in die Schöpfung. Sowohl Nanotechnologie oder Gentechnologie, das ist glaub ich ziemlich gleich. Also inwiefern dürfen wir uns oder können wir uns verbessern als Menschen? Oder ist der Mensch selbst Veränderung. Ja? (1777-81)

In Annas Aussage drückt sich Unsicherheit darüber aus, in wieweit ein Naturzustand – hier als Schöpfung mit einer religiösen Konnotation – durch Technologien wie Nano oder Gentechnik, verändert werden darf und kann. Indem sie allerdings anschließend fragt, ob der Mensch selbst nicht per se für Veränderung steht – in anderen Worten, ob nicht Veränderung integraler Bestandteil der menschlichen Natur wäre –, bringt sie die menschliche Natur

170 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

erneut als Legitimationsinstanz für technologische Eingriffe in die Diskussion ein. Anna artikuliert damit ein Dilemma: Auf der einen Seite wird Nanotechnologie, wenn sie dazu verwendet wird Menschen z.B. durch Chipimplantate zu verbessern, aufgrund ethischer Aspekte kritisch betrachtet. Gerade im Begriff „Schöpfung“ schwingt eine Sehnsucht nach einer moralischen Instanz wie der Kirche mit, die ethisch-moralische Grenzen setzt und Orientierung bietet. Auf der anderen Seite legt das Narrativ Stetige Entwicklung als angelegt in der menschlichen Natur, das für Anna – wie wir zuvor gesehen haben – eine zentrale Orientierungsfunktion einnimmt, nahe, Veränderungen zu akzeptieren und keine einschränkenden Grenzen anzuerkennen. Annas Äußerung kann als Ausdruck einer fundamentalen Verunsicherung, die sich aus diesem Dilemma ergibt, gelesen werden. Bernd reagiert auf den ersten Teil von Annas Aussage mit einem spezifischen Narrativ, das wir als nicht zurück in die Steinzeit bezeichnen, und welches auch in anderen Diskussionsgruppen verwendet wurde um kulturelltechnologischen Fortschritt zu rechtfertigen bzw. sich als nicht fortschrittsfeindlich zu präsentieren. Die Steinzeit konstituiert darin jenen symbolisch aufgeladenen Punkt, an dem sich der Mensch durch die Entwicklung von Technologien über natürliche Restriktionen hinweggesetzt und begonnen hat sich und seine Umwelt aktiv zu gestalten. Bernd: Da hab ich eine blöde Frage. (.) Okay. Wenn ich jetzt in der Steinzeit bin, das erste was der Mensch gemacht hat, ist, er zieht sich mal irgendwie ein warmes Fell an, damit ihm nicht kalt ist. [kollektives Lachen] Ist das nicht auch schon eine Veränderung des Menschen? [kollektives Lachen] Und jetzt einen Nanochip irgendwo, das ist halt 100 Mal stärker, aber die gleiche Idee eigentlich. (.) Ist eine provokante Frage – Tschuldigung. (1783-87)

Bernd stellt die „provokante“ These auf, dass bereits die Verwendung von Fellen als Kälteschutz in der Steinzeit als „Veränderung des Menschen“ gewertet werden könnte. Damit beantwortet er Annas Frage, ob der Mensch nicht prinzipiell für Veränderung steht, indirekt mit „ja“. Der Mensch erscheint somit von Beginn an als ein Kulturwesen; eine Perspektive mit logischen Folgen: „Wenn der Mensch von Natur aus ein Kulturwesen ist, dann besteht die Natur des Menschen im umfassenden Sinn u.a. darin, seine biologische Natur fortwährend zu verändern“ (Birnbacher 2006: 180). In dieser

N ATÜRLICH N ANO | 171

Argumentationslogik stellen neue Technologien wie Nano dann lediglich effizientere Mittel zur Verfügung, um die im Menschen angelegte Tendenz, sich und sein Umfeld zu modifizieren, zu verwirklichen. Dieser Schluss wird auch von Bernd abgeleitet, indem er keinen qualitativen sondern „nur“ einen quantitativen Unterschied zwischen dem Kleidungsstück Fell und dem Nanochip konstatiert. Der Vergleich des Chips mit einem Kleidungsstück legt hier nahe, Nanotechnologie genauso wie Kleidung zu akzeptieren. Darin verdeutlicht sich erneut die Macht, die solche – wenn auch implizite – Bezüge auf die menschliche Natur im Diskurs haben können: Sie können dazu genutzt werden, die Diskussion weg von spezifischen technologischen Anwendungen und ihren ethischen, sozialen und politischen Implikationen zu führen, hin zu grundsätzlicheren und eher philosophischen Fragen, die meist nicht im Kontext von Laiendiskussionen geklärt werden können.

D ISKUSSION

UND

S CHLUSSFOLGERUNGEN

Wenn wir nun die drei dominanten Verwendungsweisen von Naturkonzepten in Laiendiskussionen vergleichen und miteinander in Bezug setzen, kann auf den ersten Blick ein paradoxes Bild entstehen: Obwohl der Drang zu Forschung und Entwicklung als natürliche, dem Menschen zugehörige Eigenschaft gedacht wird und damit technologischer Fortschritt Legitimation erhält, wird in den Diskussionsrunden – oftmals sogar von den selben Personen – erklärt, dass die menschliche Natur durch körperliche Grenzen genau diesen Fortschritt beschränken kann. Eine ‚naturwüchsige‘ Fortschrittsdynamik wird also durch die körperliche Konstitution des Menschen selbst wiederum auf ‚natürlichem‘ Wege begrenzt. Diese Argumentation wird meist dann gebraucht, wenn eine spezifische technologische Innovation ungewollte soziale Veränderungen zu induzieren oder aufrechterhaltenswürdige Grenzen zu überschreiten droht. Referenzen auf natürliche Grenzen stellen dann Versuche dar mit der gesellschaftlich geteilten Grundannahme, dass ein Stopp technologischen Fortschritts nicht vorstellbar ist, umzugehen und jene technowissenschaftlichen Entwicklungen, die aus verschiedensten Gründen als negativ betrachtet werden, zu problematisieren. Der vermeintliche Widerspruch zwischen Vorstellungen von körperlichen bzw. natürlichen Grenzen und der naturalisierten Technologieentwicklung löst sich zudem auf, wenn

172 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

wir beide als unterschiedliche Ausformungen derselben Wahrnehmung deuten: nämlich einer fehlenden Entscheidungs- und Handlungsmacht in Bezug auf technowissenschaftliche Entwicklungen. Anstatt allerdings gegenwärtige sozio-kulturelle Konstellationen zu hinterfragen, die zu dieser Wahrnehmung führen, wird durch die Heraufbeschwörung der Natur von einem unausweichlichen Zustand, auf den der Mensch keinen Einfluss hat, ausgegangen. Naturargumente dienen dann dazu eine nähere Diskussion der ethischen, sozialen oder politischen Implikationen von technologischen Möglichkeiten sowie eine generelle Diskussionen über politische Kontexte zu umschiffen. Wie sich allerdings im zweiten empirischen Abschnitt gezeigt hat, können Naturargumente die sich auf Lebens- und Handlungsweisen beziehen, sehr wohl über eine kulturkritische Funktion verfügen, indem sie alternative Modelle zu als problematisch wahrgenommenen Aspekten der Gegenwartskultur bereitstellen. Der Bezug auf einen Naturzustand zeigt dann die Kontingenz einer spezifischen kulturellen Ausformung auf und kann so den Blick für alternative Lebensformen öffnen. In solchen Zusammenhängen kann die Natur zum mächtigen Instrument werden und Reflexionen über die Gegenwart aber auch zukünftige Gestaltungsmöglichkeiten anstoßen. Wenn Natur jedoch in der Form von Umwelt auftritt, treten gesellschaftlich geteilte Werte, wenn nicht sogar Normen wie Umweltschutz und nachhaltiges Handeln in den Vordergrund, die zumindest in dem von uns untersuchten nationalen Kontext nicht herausgefordert werden. Ein weiterer Punkt den die Analyse verdeutlicht ist, dass Naturargumente zwar in den verschiedensten Einsatzgebieten der Nanotechnologie eine Rolle spielen; wie und welche Form von Natur mobilisiert wird, variiert allerdings von Anwendungsbereich zu Anwendungsbereich. So wurde etwa das Narrativ der naturalisierten Technologieentwicklung am stärksten in der Diskussionsrunde zu Nano in IKTs artikuliert. Dies deutet darauf hin, dass sich vorangegangene Erfahrungen mit bestimmten technologischen Feldern auf die generelle Einschätzung von technologischem Fortschritt und auch nanotechnologischen Entwicklungen im Speziellen auswirken. In der IKT-Runde wurde beispielsweise betont, dass man Kommunikations- und Informationstechnologien (insb. Computer, Mobiltelefonie) nicht ablehnen könne, da man sonst drohe zum gesellschaftlichen Außenseiter zu werden. In Bereichen wie Lebensmittel oder Kleidung wird im Gegensatz dazu die Ablehnung bestimmter technologischer Eingriffe in einen ‚Naturzustand‘ eher als möglich

N ATÜRLICH N ANO | 173

erachtet – eine Einschätzung, die sich wohl aus der erfolgreichen nationalen Positionierung gegen gentechnologisch verändertes Saatgut und den Einsatz von Gentechnik in Lebensmitteln speisen dürfte. Auch was die Funktion von Naturargumenten im Diskurs angeht, lassen sich aus den empirischen Analysen einige zentrale Schlüsse ableiten. Obgleich im philosophischen Diskurs die Annahme vorherrscht, dass Naturbezüge dann angreifbar werden, wenn sie als Argument dienen um generelle Normen aufzustellen, denen sich andere oder gar ganze Gesellschaften unterordnen sollten, zeigt sich im Laiendiskurs eher der gegenteilige Effekt. Hier verfügen normative Statements, die auf Naturkonzepte Bezug nehmen, eher über einen diskussionsschließenden Charakter und können als ‚Totschlagargumente‘ bezeichnet werden. Generell kann festgehalten werden, dass Naturkonzepte in den Diskussionen um neue Technowissenschaften wie Nano als wichtige Ordnungskategorie fungieren, denn gerade bei wenig öffentlich diskutierten und unvertrauten Phänomenen wird zuerst auf altbekannte Narrative und Kategorien zurückgegriffen. Etwas als natürlich oder unnatürlich zu bezeichnen stellt damit einen sozio-kulturell etablierten Weg dar, um die Grenzen, zwischen dem was als normal und abnormal, rein und verschmutzt, sicher und gefährlich, akzeptabel und nicht-akzeptabel gilt, zu ziehen. Trotzdem wollen wir nicht den falschen Eindruck erwecken, als würden Referenzen zu Natur/Natürlichkeit in Laiendiskussionen um Nanotechnologie die tragende Rolle spielen. Natur und Natürlichkeit sind Kategorien und Referenzrahmen unter vielen anderen, die herangezogen werden, um sich dem Phänomen Nano zu nähern und sich ihm gegenüber zu positionieren. Sie treten oftmals in wichtigen Nebenrollen auf, ihnen die Hauptrolle zuzuweisen, würde ihre Bedeutung allerdings überschätzen.4

4

Fragen zur Bedeutung des Naturbegriffs in Debatten über neue Technologien haben uns im Projekt „Making Futures Present: On The Co-Production of Nano and Society in the Austrian Context“ (gefördert vom FWF, P20819) von Beginn an begleitet und mündeten in gemeinsamen Konferenzbeiträgen und Publikationen (siehe beispielsweise Felt et al., im Erscheinen). Wir bedanken uns daher beim Fördergeber und insbesondere bei der Projektleiterin Ulrike Felt und unserem Kollegen Michael Strassnig für zahlreiche anregenden Diskussionen zu diesem Thema. Unser Dank geht ebenso an Diego Compagna, Andrea zur Nieden und den TeilnehmerInnen des Symposiums „The Struggle for Meaning – Nature &

174 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

L ITERATUR Bensaude-Vincent, B./Newman, W. R. (2007): Introduction: The Artificial and the Natural: State of the Problem. S. 1-19 in: Bensaude-Vincent, B./Newman, W. R. (Hrsg.): The Artificial and the Natural. An Evolving Polarity. Cambridge/London: MIT Press. Bien, G. (1994): Was heißt denn widernatürlich? Natur als soziale und moralische Norm. S. 141-169 in: Wilke, J. (Hrsg.): Zum Naturbegriff der Gegenwart. Kongreßdokumentation zum Projekt „Natur im Kopf“. Stuttgart: Friedrich Frommann Verlag. Billig, M. (1989): Arguing and Thinking: A Rhetorical Approach to Social Psychology. Cambridge: Cambridge University Press. Birnbacher, D. (2006): Natürlichkeit. Berlin/New York: Walter de Gruyter. Buchanan, A. (2011): Beyond Humanity? The Ethics of Bioethical Enhancemetn. Oxford: University Press. Burri, R. V. (2009): Coping with Uncertainty: Assessing Nanotechnologies in a Citizen Panel in Switzerland. Public Understanding of Science 18: 498-511. Davies, S. R./Macnaghten, P./Kearnes, M. (Hrsg.) (2009): Reconfiguring Responsibility: Lessons for Public Policy (Part 1 of the Report on Deepening Debate on Nanotechnology). Durham: Durham University. Davies, S. R. (2011): How We Talk When We Talk About Nano: The Future in Laypeople’s Talk. Futures 43: 317-326. Delgado, A./Kjølberg, K. L./Wickson, F. (2011): Public Engagement Coming of Age: From Theory to Practice in STS Encounters with Nanotechnology. Public Understanding of Science 20: 826-845. Douglas, M. (1966): Purity and Danger: An Analysis of the Concepts of Pollution and Taboo. London/New York: Routledge. Felt, U./Fochler, M./Müller, A./Strassnig, M. (2009): Unruly Ethics: On the Difficulties of a Bottom-up Approach to Ethics in the Field of Genomics. Public Understanding of Science 18: 354-371. Felt, U./Schumann, S./Schwarz, C. G./Strassnig, M. (2014): Technology of Imagination: A Card-based Public Engagement Method for Debating Emerging Technologies. Qualitative Research 14: 233-251.

Culture in Techno- & Life Sciences“ (Essen, 2010) für nützliche Hinweise zu früheren Fassungen dieses Beitrags.

N ATÜRLICH N ANO | 175

Felt, U./Schumann, S./Schwarz, C. G. (2015 im Erscheinen): (Re)assembling Natures, Cultures and (Nano)technologies in Public Engagement. Science as Culture. Goodin, R. E./Dryzek, J. S. (2006): Deliberative Impacts: The Macro-Political Uptake of Mini-Publics. Politics & Society 34: 219-244. Haraway, D. (1991): Simians, Cyborgs and Women: The Reinvention of Nature. New York: Routledge. Horlick-Jones, T./Walls, J./Kitzinger, J. (2007): Bricolage in Action: Learning About, Making Sense of, and Discussing Issues About Genetically Modified Crops and Food. Health, Risk & Society 9: 83-103. Latour, B. (1993): We Have Never Been Modern. Cambridge: Harvard University Press. Macnaghten, P./Davies, S. R. (2010): Narratives of Mastery and Reistance: Lay Ethics of Nanotechnology. Nanoethics 4: 141-151. Macnaghten, P./Guivant, J. S. (2011): Converging Citizens? Nanotechnology and the Political Imaginary of Public Engagment in Brazil and the United Kingdom. Public Understanding of Science 20: 207-220. Macnaghten, P./Kearnes, M. B./Wynne, B. (2005): Nanotechnology, Governance, and Public Deliberation: What Role for the Social Sciences? Science Communication 27: 268-291. Macnaghten, P./Urry, J. (1998): Contested Natures. London: Sage. Myers, G. (2004): Matters of Opinion: Talking About Public Issues. Cambridge: Cambridge University Press. Radkau, J. (1994): Natur als Fata Morgana? Naturideale in der Technikgeschichte. S. 281-310 in: Wilke, J. (Hrsg.) Zum Naturbegriff der Gegenwart. Kongreßdokumentation zum Projekt „Natur im Kopf“. Stuttgart: Friedrich Frommann Verlag. Schlag, A. K. (2005): Going Back to our Roots: The Role of Nature in Risk Perception of GM Foods. S. 495-501 in: Bora, A./Decker, M./Grunwald, A./Renn, O. (Hrsg.): Technik in einer fragilen Welt. Berlin: Edition Sigma. Sjöberg, L. (2000): Perceived Risk and Tampering with Nature. Journal of Risk Research 3: 353-367. Strassnig, M. (2008): Ethics Is Like a Book That One Reads When One Has Time: Exploring Lay „Ethical“ Knowledge in a Public Engagement Setting. Wien: Universität Wien.

176 | S IMONE SCHUMANN UND CLAUDIA G. S CHWARZ

Thompson, E. P. (1961): Review of The Long Revolution. New Left Review I (9): 24-33. Wickson, F./Grieger, K./Baun, A. (2010): Nature and Nanotechnology: Science, Ideology and Policy. International Journal of Emerging Technologies and Society 8: 5-23. Williams, R. (1958): Culture and Society 1780-1950. Harmondsworth: Penguin Books. Williams, R. (1976): Keywords: A Vocabulary of Culture and Society. London: Fontana. Wynne, B. (2006): Public Engagement as a Means of Restoring Public Trust in Science: Hitting the Notes, but Missing the Music? Community Genetics 9: 211-220. Yearley, S. (2008): Nature and the Environment in Science and Technology Studies. S. 921-947 in: Hackett, E. J./Amsterdamska, O./Lynch, M./Wajcman, J. (Hrsg.): The Handbook of Science and Technology Studies. Cambridge/London: MIT Press.

Die Nanotechnologie findet nicht statt1 M ARIO K AISER

1. E INLEITUNG Ziel dieses Beitrages ist, die im Titel angekündigte Behauptung zu plausibilisieren. Auf den ersten Blick mag ein solches Vorhaben hoffnungslos naiv anmuten, zieht man all die vernichtenden Einwände jetzt schon in Betracht.2 Ihnen kann auch nichts entgegen gesetzt werden, außer: eine Sensibilisierung gegenüber einer Wirklichkeit, die aufgrund der Fokussierung auf diese Technologie droht, übersehen oder verkannt zu werden und dies, obwohl sie aus

1

Der Beitrag basiert auf dem ersten Kapitel der noch unveröffentlichten Dissertation desselben Autors.

2

Mögliche Einwände in einer sachlichen, zeitlichen und sozialen Dimension: A)Die Nanotechnologie gibt es sehr wohl! Nanoröhrchen, Buckyballs, Titandioxidpigmente in Sonnencremes oder Rasterkraftmikroskope sind der beste Beweis für die Existenz dieser Technologie. B) Der Titel stellt eine assertorische Aussage dar, deren Wahrheitsbedingungen derzeit unmöglich überprüft werden können. Es mag ja sein, dass die Nanotechnologie ihr ganzes Potential noch nicht erreicht hat. Heute aber schon zu behaupten, sie finde nicht statt, würde ja heißen, ihre Zukunft zu kennen! C) Wer verfügt überhaupt über die Kompetenz, eine solche Aussage zu treffen? Ob es die Nanotechnologie gibt oder ob sie stattfindet, diese Frage kann, wenn überhaupt, nur von Nanotechnologen selbst beantwortet werden!

178 | M ARIO K AISER

einer geistes- und sozialwissenschaftlichen Sicht mindestens so real wie die Nanotechnologie ist. In Blick genommen werden soll die Realität sogenannter Abschätzungsregime (Kaiser et al. 2010): Im Falle der Nanotechnologie hat sich seit der Jahrtausendwende ein Ensemble aus Organisationen, Diskursen, Akteuren und einem Heer von Texten gebildet, das sich der frühzeitigen Abschätzung der Nanotechnologie und, mehr noch, ihren künftigen Folgen verschrieben hat. Allerdings betrifft diese Abschätzung die Nanotechnologie nicht allein. Gerade in wissenschafts- und techniknahen Diskursen kommt den intendierten, und in einem immer größeren Maße den nicht-intendierten Auswirkungen von möglichen Innovationen eine so große Bedeutung zu, dass diese immer systematischer und intensiver erforscht und abgeschätzt werden. Institutionen der Technikfolgenabschätzung, akademische Disziplinen wie die Angewandte Ethik, Rückversicherungen und Think Tanks – sie alle warten mit Prognosen, Szenarien, Reflexionen, Risikokalkulationen, Ein- und Abschätzungen von etwas auf, das noch nicht existiert und, sofern es um nicht-intendierte Folgen geht, auch nie existieren sollte. Für die Frage, ob die Nanotechnologie stattfindet oder nicht, ist die Existenz eines solchen Regimes, wie es sich im Falle der Nanotechnologie herauskristallisiert hat, nicht unerheblich: Mit Hunderten von Texten, mit Dutzenden von Partizipations- und Dialogübungen, mit einer Vielzahl an Steuerungs- und Regulierungsvorschlägen sowie mit der Verabschiedung zahlreicher Gesetze hat dieses Regime die Gesellschaft derart umfassend auf die Zu- und Ankunft der Nanotechnologie vorbereitet, dass diese Technologie hinter ihren längst bekannten Folgen fast zum Verschwinden gebracht wurde. Im Folgenden wird argumentiert, dass die systematische Erforschung der Zukunft bzw. die umfassende Abschätzung künftiger Nebenfolgen für das Verhältnis von Gegenwart und Zukunft nicht folgenlos bleibt. So kontraintuitiv es auf den ersten Blick auch scheinen mag, doch die Aktivitäten von Abschätzungsregimen priorisieren die Zukunft in einer kognitiven und politischen Hinsicht: Zum einen ist über die Zukunft der Nanotechnologie mehr bekannt als über deren Gegenwart (vgl. Kapitel 2). Zur Stützung dieser ersten These wird zunächst eine soziologische Rahmung von Nicht-Wissen angezweifelt, die a priori davon ausgeht, dass Aussagen über die Zukunft mit Nicht-Wissen behaftet sind. Philosophisch mag das korrekt sein, doch soziologisch lässt sich

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 179

kein Kriterium anführen, das eine solche intrinsische Verbindung von Zukunft und Nicht-Wissen stützt. Mehr noch: Sie verstellt gerade den Blick darauf, dass solche Abschätzungsregime deutlich mehr Wissen in Form von Texten über die künftigen Folgen einer Technologie als über deren gegenwärtige Ursachen produzieren. Eine Diagnose von Jean Baudrillard wird dabei behilflich sein, genau dies auf den Punkt zu bringen. Zum anderen – und dies ist der politische Aspekt der Priorität der Zukunft gegenüber der Gegenwart – zwingen die bekannt gemachten Zukünfte zu einer fortwährenden Anpassung und Korrektur der Gegenwart durch immer neue Reform- bzw. Governancevorschläge (vgl. Kapitel 3). Ausblickartig wird argumentiert, dass im Zuge dieser „chronopolitischen“ Invertierung präventive Maßnahmen, die gleichsam gegen die Zukunft ankämpfen, zunehmend durch präemptive Manöver verdrängt werden, die aus der Zukunft heraus die Gegenwart zu reformieren suchen (vgl. hierzu ausführlicher: Kaiser 2014).

2. B EKANNTE Z UKÜNFTE , UNBEKANNTE G EGENWARTEN Schon 1986 warnte Eric Drexler vor den Folgen der Nanotechnologie. In seinem Werk Engines of Creation (Drexler 1986) beschrieb der „godfather of nanotechnology“, wie er von Wired (Regis 2004) genannt wurde, eine Welt im Überfluss – eine Welt, die jegliche Wachstumsgrenzen hinter sich gelassen hat. Laut Drexler wird diese goldene Ära genau dann anbrechen, wenn es die Menschheit schafft, wenigstens einen Assembler anzufertigen. Gemeint ist ein Nanoroboter, der imstande ist, Atom für Atom so zusammenzufügen, dass daraus supramolekulare Gegenstände gebaut werden können: angefangen von kleinen Schaltkreisen bis hin zum Einfamilienhaus. Damit die Arbeit des Assemblers schneller vonstattengeht, ist er außerdem in der Lage, Kopien von sich selbst zu fabrizieren, so dass Milliarden und Abermilliarden kleiner Roboter am Aufbau der neuen Welt beteiligt werden können. Allerdings wirft Drexler zufolge das mögliche Szenario eines gray goo schon jetzt seinen Schatten auf das kommende Paradies. Gelingt es den Menschen nicht, die Assembler an einer unkontrollierten Vermehrung ihrer selbst zu hindern, ist zu befürchten, dass sich die Assembler daran machen, die gesamten atomaren Ressourcen der Erde, inklusive der ‚Kohlenstoffeinheiten‘

180 | M ARIO K AISER

vom Typ Mensch für ihre Reproduktion aufzubrauchen. In diesem Fall würde die Erde von einem grauen Schleim selbstreplizierender Nanoroboter überzogen und darunter allmählich verdaut werden. Nachdem Futuristen, Transhumanisten und Feuilletonisten ihre Öffentlichkeiten auf diese Nanotechnologie, d.h. auf Drexlers molecular manufacturing vorbereitet hatten, hat sich spätestens ab dem Jahre 2003 eine zunächst heterogen anmutende Ansammlung von Akteuren mit Hilfe von Artikeln, Berichten, White Papers, Konferenzen und Bürgerdialogen daran gemacht, uns auf weitere Nanotechnologien und deren mögliche Folgen einzustellen. Artikel der Angewandten Ethik, zuweilen auch ganze Bücher widmeten sich der Antizipation einer militärischen Nanotechnologie (Altmann/Gubrud 2004; Altmann 2006), den ethischen Problemen der Nanomedizin (Lenk/Biller-Andorno 2006) oder jenen der Nanobiotechnologie (Ach/Lüttenberg 2008; Allhoff u. a. 2007). Berichte von Rückversicherungen hingegen identifizierten die Nanotechnologie weitgehend mit künstlich hergestellten Nanopartikeln und erwogen durch Vergleiche mit Asbestfasern die Risiken des Risikogeschäfts (Munich Re 2002; Swiss Re 2004). Die Nichtregierungsorganisation ETC (Action Group on Erosion, Technology and Concentration) forderte ein Moratorium der Nanotechnologie, da sie einen green goo, eine unkontrollierte Vermehrung von nanotechnolgisch generierten Organismen, für wahrscheinlicher als einen grey goo hielt (ETC Group 2003). Der in Genf ansässige Think Tank International Risk Governance Council entwarf verschiedene Risk Governance Frames, um mit künftigen Generationen der Nanotechnologie zu Rande zu kommen (Renn/Roco 2006). Nationale Institutionen der Technikfolgenabschätzung legten ebenfalls ihre Berichte zu ethischen, rechtlichen, gesellschaftlichen und gesundheitlichen Implikationen der Nanotechnologie vor (für Deutschland: Paschen et al. 2003; für Großbritannien: RS & RAE 2004; für Österreich: ITA 2006). Zeitgleich schätzten verschiedene Marktanalysten die ökonomischen Potentiale der Nanotechnologie ein und veranschlagten etwa den Umsatz von nanotechnologischen Produkten im Jahre 2014 auf 2.6 Billionen Dollar (Lux Research 2004). Kurzum, es hat sich binnen kurzer Zeit eine Abschätzungsformation der Nanotechnologie herausgebildet, die im Gegensatz zu den fast verträumt anmutenden Spekulationen über gray goos nun harte Fakten über eine Technologie und deren Folgen präsentierte und zugleich nicht müde wurde zu betonen, wie wichtig es sei,

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 181

„doing things right the first time“ (Project on Emerging Nanotechnologies 2008), „[to] avoid repeating past mistakes“ (UK Parliamentary Office of Science and Technology 2009), „[to] establish a framework for the safe, secure, and responsible use of nanotechnology worldwide“ (US National Nanotechnology Initiative 2008). Es ging also darum, die Nanotechnologie frühzeitig abzuschätzen und heute schon regierbar zu machen. Doch um welche Nanotechnologie ging es dabei genau? Um eine new emergent science and technology (NEST), wie sie die EU bezeichnet, um eine Nanotechnologie in Form von emerging fields of nanoscience and nanoengineering, wie es die US-amerikanische Nanotechnologieinitiative gerne hätte? Oder um eine Nanotechnologie, wie sie der Nobelpreisträger Richard Feynman in seiner Rede „There is Plenty of Room at the Bottom“ im Jahre 1959 angeblich vorausgesehen hat?3 Nicht nur kritische Beobachter drohten, ob so viel Nanotechnologie und deren möglichen Folgen den Verstand zu verlieren und deshalb einem allzu spekulativen Räsonieren den Kampf anzusagen (Nordmann 2007; Nordmann/Rip 2009; Grunwald 2006; Saage 2006). Auch Wissenschaftler, die sich selbst als Nanoforscher sahen, waren verwirrt. Im Wissenschaftsjournal Nature Materials wurde deshalb an prominenter Stelle die Frage schlechthin gestellt: To be nano or not to be nano? „Nanomaterials, nanostructures, nanostructured materials, nanoimprint, nanobiotechnology, nanophysics, nanochemistry, radical nanotechnology, nanosciences, nanooptics, nanoelectronics, nanorobotics, nanosoldiers, nanomedecine, nanoeconomy, nanobusiness, nanolawyer, nanoethics to name a few of the nanos. We need a clear definition of all these burgeoning fields for the sake of the grant attribution, for the

3

Feynmans Rede spielt für die Nanotechnologie die Rolle eines Gründungsmythos. Nachdem Eric Drexler den Vortrag aus dem Jahre 1959 als Vision für seine Nanotechnologie wiederentdeckt hat, tradierte sich der historische Verweis auf Feynman als dem Urgroßvater der Nanotechnologie in fast jedes beliebige Dokument über Nanotechnologie.

182 | M ARIO K AISER

sake of research program definition, and to avoid everyone being lost in so many nanos.“ (Joachim 2005: 107)

Being lost in so many nanos – deutlicher kann eine Diagnose nano-technologischer Orientierungslosigkeit kaum ausfallen. Doch selbst auf diese Folge hat man sich bei der Europäischen Akademie zur Erforschung von Folgen wissenschaftlich-technischer Entwicklungen zwei Jahre zuvor schon vorbereitet und das Dilemma erkannt. Denn einerseits würde die Nanotechnologie als Schlüsseltechnologie des nächsten Jahrhunderts mit einem revolutionären Einfluss auf unser tägliches Leben gepriesen; andererseits gäbe es keine Übereinkunft, geschweige denn eine gemeinsame Definition davon, was Nanotechnologie eigentlich sei (Schmid et al. 2003: Vorwort). Aus den Bemühungen, dieses Dilemma zu lösen, ist schließlich erneut ein umfangreiches Schreiben hervorgegangen, das auf knapp 100 Seiten eine Definition der Nanotechnologie ausbreitet. 2003 veröffentlichte zudem der Economic and Social Research Council, der von der britischen Regierung finanziert wird, einen Bericht zu den ökonomischen und sozialen Herausforderungen der Nanotechnologie (Wood et al. 2003). Das summary des Dokuments erwähnt die Nanotechnologie gleich mit dem ersten Wort, definiert sie jedoch nicht selbst, sondern beruft sich in einer reflexiv anmutenden Wendung auf Stimmen, die in der Nanotechnologie dies oder jenes sehen: „Die Nanotechnologie wird gepriesen [is being heralded] als eine neue technologische Revolution, die so tiefgreifend ist, dass sie jeden Aspekt der menschlichen Gesellschaft betreffen wird.“ (Wood et al. 2003: 1)

Die Zusammenfassung lässt zudem nicht unerwähnt, wie umstritten und unklar der Begriff der Nanotechnologie ist: „Conceptions of nanotechnology are not always clear or indeed agreed upon“ (Wood et al. 2003). Diese Vorsichtsmaßnahme, mit der sich der Bericht der Nanotechnologie nähert, hindert ihn allerdings nicht daran, gleich im Anschluss daran zu behaupten: „Nanotechnology will produce economic and social impacts on three broad timescales“ (Wood et al. 2003). Damit nicht genug. Gerade den Sozialwissenschaften wird im Bericht aufgetragen, das gesellschaftliche Bewusstsein und die Akzeptanz gegenüber der Nanotechnologie zu fördern, um eine öffentliche Gegenreaktion [public

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 183

backlash] auf die Technologie wie bei der Gentechnik zu verhindern. Dieser backlash wiederum muss als mögliche Folge der divergierenden Ansichten über die Folgen der Nanotechnologie befürchtet werden. Mit anderen Worten: Wenn auch nicht die Nanotechnologie, so nehmen immerhin die Folgen der Folgen der Nanotechnologie allmählich Gestalt an – so viel Gestalt zumindest, dass die Gesellschaft darauf vorbereitet werden muss, damit sie, wie in diesem Fall, ein gesellschaftliches Bewusstsein und eine Akzeptanz gegenüber dieser Technologie entwickeln kann. All dies legt die These nahe: Der Begriff der Nanotechnologie löste sich in den künftigen Nebenfolgen und den Bemühungen, diese Technologie in den Griff zu bekommen, gleichsam selbst auf. Die unzähligen Anstrengungen, die An- und Zukunft der Nanotechnologie für die Wirtschaft so profitabel, für die Gesellschaft so verträglich, für das Wohl und die Gesundheit jedes Einzelnen so umsichtig und für die Natur so nachhaltig wie möglich zu gestalten, haben den Gegenstand, die Nanotechnologie, derart überdeterminiert, dass er seiner ‚Ereignishaftigkeit‘ oder ‚Wirklichkeit‘ verlustig ging. Damit erinnert die Nanotechnologie an ein Ereignis, das Jean Baudrillard fünfzehn Jahre vor dessen Eintreffen beschrieben und das sowohl stattgefunden als auch nicht stattgefunden hat. Die Rede ist von: „Das Jahr 2000 findet nicht statt“ (Baudrillard 1990b).4 Doch bevor diese Analogie ernsthaft diskutiert werden kann, muss sichergestellt werden, dass ein nahe liegender Ansatz diesem Phänomen nicht gerecht zu werden vermag.

4

Der Aufsatz, der aus einem Vortrag an der Freien Universität Berlin hervorging, erschien 1985 in der französischen Zeitschrift Traverses. 1990 wurde er ins Deutsche übersetzt. Obgleich auch bei Baudrillard die Rede von einer Posthistoire ist, hat sie nur wenig gemein mit der Diagnose eines Endes der Geschichte im Sinne Fukuyamas (1992). Während letzterer das Ende mithilfe von Hegels Geschichtsphilosophie als das Ende globaler Widersprüche deutet, das sich nach dem Zusammenbruch des Sozialismus ereignet hat, sieht Baudrillard die Geschichte in der Simulation oder Antizipation der Geschichte verschwinden.

184 | M ARIO K AISER

2.1 Epistemologische Probleme in der ‚Reflexiven Modernisierung‘ Auf der Suche nach einer philosophischen oder sozialwissenschaftlichen Deutung, die ein Licht auf den Effekt einer zunehmenden Wirklichkeit zukünftiger Folgen (und eines damit steigenden Handlungsbedarfs) bei gleichzeitig abnehmender Wirklichkeit ihrer gegenwärtigen Ursachen werfen könnte, wird man zunächst beim Theorem der Reflexiven Modernisierung fündig, das jedoch zu sehr auf einen realistischen Wissensbegriff abstellt, um die Dominanz der Folgen gegenüber der angeblichen Ursache, d.h. der Nanotechnologie sinnvoll interpretieren zu können. Allerdings vermag erst eine kritische Auseinandersetzung mit den Voraussetzungen dieser Gegenwartdiagnose die Annahmebereitschaft für eine gewagte Hypothese von Jean Baudrillard zu erhöhen, derzufolge die Folgen eines Ereignisses sich schon heute als gesellschaftliche Realität manifestieren, obwohl das relevante Ereignis erst morgen oder überhaupt nicht eintritt. Mit dem besonders von Ulrich Beck geprägten Begriff der Reflexiven Modernisierung wird ein gesellschaftlicher Lernprozesses angesprochen, der durch eine Steigerung von Modernisierungsprozessen eingeleitet wird. Die Industriegesellschaft wird dabei nicht von einer anderen Gesellschaft abgelöst, sondern durch die Konfrontation mit sich selbst: Es kommt zu einer „Veränderung des industriegesellschaftlichen Rahmens von Modernisierung durch Modernisierung“ (Beck 1997: 63). Im Zuge dieser Selbstkonfrontation der modernen Gesellschaft mit sich selbst kommt jenem Wissen zunehmend gesellschaftliche Bedeutung zu, das mögliche Gefährdungslagen der Gesellschaft durch ihre eigenen industriellen Operationen thematisiert. Die Gesellschaft beginnt, auf die Nebenfolgen von neuen Technologien, aber auch auf soziale Phänomene wie Arbeitslosigkeit aufmerksam zu werden und diese Nebenfolgen politisch und wissenschaftlich zu verarbeiten. Dieser Lernprozess lässt sich beispielhaft mithilfe eines Stufenmodells (Gill 1999) verdeutlichen, in dem sich zu Beginn des 20. Jahrhunderts spezifische Nahfolgen wie Dampfkesselexplosionen ins kollektive Bewusstsein einschrieben – ein Bewusstsein, das dann ab den 1970er Jahren gelernt hat, sich auf definierte Fernfolgen, wie sie etwa von FCKW-Emissionen zu erwarten waren, einzustellen. Schließlich findet in einer „Risikogesellschaft“ (Beck 1986) in jüngster Zeit besonders auch Nichtwissen Berücksichtigung,

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 185

das früher noch als Restrisiko firmierte.5 Eine Gesellschaft, die sich zunehmend ihres Nichtwissens in der radikalen Form eines Nicht-Wissen-Könnens etwa hinsichtlich der Folgen neuer Technologien gewahr wird, sieht sich gezwungen, dieses Nichtwissen zunehmend normativ, aber eben nicht mehr kognitiv zu verarbeiten (Böschen/Lau 2003). Sie greift hierzu auf Werte und Normen oder aber auf politische Strategien zurück, mit denen das Nichtwissen wenigstens temporär ‚gemanagt‘ und in einer „Regierung der Nebenfolge“ (Beck 1997: 13) befriedet werden kann. Das hier thematisierte Abschätzungsregime kann vor dem Hintergrund des Theorems der reflexiven Modernisierung als der wohl rezenteste gesellschaftliche Effekt auf diese Nichwissensproblematik gedeutet werden – insofern nämlich, als dass das Regime sich das ‚gesellschaftliche‘ Mandat erteilt, trotz Nichtwissen „doing things right the first time“ (Project on Emerging Nanotechnologies 2008), „[to] avoid repeating past mistakes“ (UK Parliamentary Office of Science and Technology 2009), „[to] establish a framework for the safe, secure, and responsible use of nanotechnology worldwide“ (US National Nanotechnology Initiative 2008). Anhand dieser normativen Aufrufe zu einem verantwortungsvollen und lernwilligen Umgang mit der Nanotechnologie kann der Befund einer Reflexiven Modernisierung nochmals bekräftigt werden: Mit Nichtwissen wird nicht kognitiv, sondern normativ, in einer ‚Regierung der Nebenfolge‘ umgegangen. Angesichts der massiven Abschätzung von Folgen aber, an der sich die Wissenschaft genauso beteiligt wie an Forschungen zu schwarzen Löchern,

5

Der Begriff des Nichtwissens, der im Anschluss an die These der Reflexiven Modernisierung u. a. von Böschen und Wehling (2004) weiter bearbeitet wurde und zur Diagnose einer Nicht-Wissensgesellschaft (Böschen und Lau 2003: 227) Anlass gegeben hat, gewinnt seine Konturen gegenüber dem Begriff eines spezifizierten Nichtwissens [known unknowns] oder eines Noch-Nicht-Wissens dadurch, dass Nichtwissen vielmehr das Nicht-Wissen-Können [unknown unknowns] betont.

186 | M ARIO K AISER

greift die Diagnose zu kurz. Während diese davon ausgeht, dass über die Fernfolgen einer noch wenig bekannten Technologie prinzipiell nichts gewusst werden kann, demonstrieren die zahlreichen Texte, mit denen künftige Folgen abgeschätzt, evaluiert und regierbar gemacht werden, dass mögliche Folgen kognitiv verarbeitet werden. Mit anderen Worten: Nichtwissen wird nicht als Hindernis, d.h. als Nicht-Wissen-Können, sondern geradezu als Einladung aufgefasst, normativ und kognitiv aktiv zu werden. Für die These einer Nichtwissensgesellschaft, die der Diagnose einer reflexiven Modernisierung auf dem Fuß folgt, hat dies die Konsequenz, dass die Unterscheidung zwischen Wissen und Nichtwissen sich kaum aufrechterhalten lässt. Häufiger Bezugspunkt in den Debatten um Nichtwissen und reflexive Modernisierung stellt das von David Collingridge (1982) exponierte Kontroll- bzw. Informationsdilemma bezüglich neuer Technologien dar. Diesem zufolge ist zu einem frühen Zeitpunkt der Technologieentwicklung zwar eine Kontrolle der fraglichen Technologie noch möglich, doch reichen die Informationen dazu kaum aus. Zu einem späteren Zeitpunkt der Entwicklung liegen zwar genügend Informationen vor, doch eine Kontrolle scheint zunehmend aussichtslos. Problematisch an diesem Dilemma einerseits und der daran orientierten Bestimmung des Nicht-Wissen-Könnens andererseits sind besonders zwei Annahmen, die getroffen werden müssen, damit das Dilemma seinen logisch richtigen Gang geht: Die erste Annahme besteht in einem chronologischen Determinismus der Technologieentwicklung, die sich von einem Früher zu einem Später zieht – früher Zeitpunkt: wenig entwickelt, wenig Informationen verfügbar; später Zeitpunkt: mehr entwickelt, mehr Informationen verfügbar. Am Fall der Nanotechnologie lässt sich jedoch unmöglich bestimmen, an welchem Zeitpunkt der Entwicklung sie sich befindet und ob hier überhaupt von einer Entwicklung gesprochen werden kann. Zwar wird die Nanotechnologie wissenschaftspolitisch gesehen ihr volles Potential als „Eintrittskarte[…] in die Zukunft“ (Annette Schavan, in BMBF 2006) auch erst in der Zukunft ausspielen, hingegen betonen Kristallographen (Kehrt/Schüssler 2010), Materialwissenschaftler, Physiker und Chemiker (Bensaude-Vincent 2004), dass sie schon immer Nanotechnologie gemacht haben. Eine Entwicklung der Nanotechnologie lässt sich derzeit allenfalls an semantischen Veränderungen des Signifikanten ‚Nanotechnologie‘ ablesen, kaum aber an den zahlreichen Wissenschaftszweigen, die zwar im Namen der Nanotechnologie gefördert

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 187

werden, doch höchst unterschiedliche Eigenzeiten (oder Entwicklungszeiten) aufweisen. Die zweite Annahme besteht in einem epistemologischen Determinismus. Das Dilemma unterstellt, dass zu einem frühen Zeitpunkt der Technologieentwicklung kaum Informationen und somit auch kein Wissen über diese Technologie vorliegen können. Für dieses Argument muss jedoch ein realistischer Wissensbegriff in Anspruch genommen werden, der das Wissen bzw. Nichtwissen abhängig vom Zustand der fraglichen Technologie macht, indem die Technologie als Ursache für Wissen verstanden wird. So paradox es auch anmuten mag, der Fall der Abschätzung der Nanotechnologie verdeutlicht, dass sie durchaus in der Lage ist, die Folgen der Nanotechnologie zu spezifizieren und somit ein Wissen zu kondensieren, das in Berichten, wissenschaftlichen Artikeln, zuweilen in Dialogstrukturen Gestalt annimmt. Dieses Wissen richtet sich zwar auf die Nanotechnologie als Objekt, verlangt aber von diesem Objekt nicht, dass es auch als Ursache oder Quelle dieses Wissens fungiert. Das Collingridge-Dilemma impliziert einen epistemologischen Determinismus deshalb, da es die Quelle von technologischem Folgewissen ausschließlich der Technologie als kausalem Agens zuschreibt. Angesichts dieser Relativierungen des Collingridge-Dilemmas fällt es leicht, die Unterscheidung von Wissen und Nichtwissen, wie sie soziologisch in Diagnosen einer Reflexiven Modernisierung oder einer Nichtwissensgesellschaft essentialisiert wird, ihrerseits zu relativieren, da sie selbst einen chronologischen und epistemologischen Determinismus impliziert. Damit die Unterscheidung funktioniert, muss erstens eine bestimmte Entwicklungslinie – z.B. eine technologische Entwicklung – hypostasiert werden, die sich in ein Früher und ein Später einteilen lässt. Zweitens muss unterstellt werden, dass das Wissen über diese Entwicklung kausal von der Entwicklung selbst abhängt. Als man in den 1930er Jahren Fluorkohlenwasserstoffe im großen Stil industriell zu produzieren begann, konnte wahrlich niemand wissen, dass diese die Ozonschicht möglicherweise schädigen könnten. Doch das NichtWissen-Können der 1930er Jahre lässt sich nur aus der Gegenwart diagnostizieren, da heute auch gewusst wird, was damals über FCKWs nicht gewusst werden konnte. In diesem Beispiel klappt die Unterscheidung von Wissen und Nichtwissen aufgrund einer durchgängigen Existenz der FCKWs bis in die Gegenwart, an die sich früher noch wenig Wissen, später dann mehr Wissen heftete – ein Wissen, das das frühe Wissen um ein Nicht-Wissen-Können ergänzt.

188 | M ARIO K AISER

Zugleich funktioniert die Unterscheidung aufgrund der soziologischen Verwendung eines realistischen Wissensbegriffs, der fordert, dass das Wissen über FCKW kausal von diesen abhängig ist und nicht etwa einem mehr oder weniger geschlossenen Diskurs entspringt, der sich ‚ein Bild‘ von FCKW macht. Doch gerade dieser Wissensbegriff wurde spätestens seit Bertrand Russells Unterscheidung zwischen einer kausalen knowledge by acquaintance und einer sozial oder sprachlich vermittelten knowledge by description (Russell 1910) von einer Menge von Wissensbegriffen konkurriert, die die kausale Rolle dessen, worüber etwas gewusst wird, zugunsten anderer Kriterien – u.a. Kohärenz, Fallibilität, Intersubjektivität – minimiert haben (Steup/Sosa 2005) Abbildung 1: Versuch der Visualisierung des Verhältnisses von Wissen und Nichtwissen in kausaler Abhängigkeit der Technologieentwicklung (aus Sicht der Diagnose ‚Nicht-Wissensgesellschaft‘)

Die Abschätzungsbemühungen im Kontext der Nanotechnologie lassen sich mithilfe der Unterscheidung von Wissen und Nichtwissen deshalb nicht sinnvoll erfassen, weil erstens eine Entwicklung der Nanotechnologie aufgrund eines Mangels an Kriterien nicht nachgewiesen werden kann und weil zweitens die Nanotechnologie als Technologie keinen oder nur einen geringen

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 189

kausalen Einfluss auf das Wissen über die Folgen dieser Technologie ausübt.6 Die theoretische Zumutung, die die Folgen der Nanotechnologie einer geistes- und sozialwissenschaftlichen Deutung auferlegt, besteht somit nach wie vor in dem Phänomen, dass die Folgen dieser Technologie der Technologie vorauslaufen. In epistemischen Begrifflichkeiten formuliert, lautet der Befund, dass über die Folgen der Nanotechnologie mehr gewusst wird als über die Nanotechnologie selbst. 2.2 Folgen zuerst, Ursachen danach Die gesellschaftlich bedingte kognitive Priorisierung von künftigen Folgen gegenüber ihren gegenwärtigen Ursachen lässt sich nur mithilfe einer Interpretation erfassen, die drei Elemente zu unterscheiden und neu zu relationieren weiß: das wahre Ereignis bzw. die wahre Ursache – hier: die ‚wahre‘ Nanotechnologie, das antizipierte oder simulierte Ereignis bzw. die Ursache – hier: die Ankunft der Nanotechnologie, die Folgen und Wirkungen eines Ereignisses – hier: die Implikationen oder Folgen der Nanotechnologie. Es ist die Leistung von Baudrillards Text „Das Jahr 2000 findet nicht statt“ diese Elemente so ins Verhältnis gesetzt zu haben, dass das ‚wahre‘ Ereignis (das Jahr 2000) keine kausale Rolle für die Wirkungen, die das antizipierte Jahr 2000 ausgelöst hat, spielt. Infolgedessen kommt der Text bereits 1985 zum Schluss, dass die Millenniumswende schon längst stattgefunden hat und nicht mehr wirklich stattfinden kann.

6

Diese Gründe bewegen dazu, diese Unterscheidung von Wissen und Nichtwissen höchstens in einer konstruktivistischen Version zuzulassen, wenn es im Besonderen darum geht zu beobachten, wie diese Unterscheidung von den zahlreichen Abschätzungsbemühungen selbst getroffen wird und: wenn registriert wird, wie Unsicherheiten, Nichtwissen, Ahnungen geradezu als Aufforderung verstanden werden, eine Flut von Folgen und Nebenfolgen zu spezifizieren sowie Kontrollund Steuerungsideen zu implementieren.

190 | M ARIO K AISER

Ausgangspunkt dieser Überlegungen ist ein Aphorismus von Elias Canetti, der als eine „peinigende Vorstellung“ den Gedanken einführte, „dass von einem bestimmten Zeitpunkt ab die Geschichte nicht mehr wirklich war. Ohne es zu merken, hätte die Menschheit insgesamt die Wirklichkeit plötzlich verlassen; alles, was seitdem geschehen sei, wäre gar nicht wahr; wir könnten es aber nicht merken.“ (Canetti, zitiert in: Baudrillard 1990b: 7)

Mithilfe einer waghalsigen Hypothese7 sucht Baudrillard sich diesem Aphorismus zu nähern, um aus ihm einen Beleg für das Ende der Geschichte aufgrund ihrer Antizipation und Simulation zu gewinnen. Gerade der Einzug von teuren high fidelity-Geräten in die bürgerlichen Haushalte der 1980er Jahre bringt Baudrillard auf die Frage, wann hifi endlich so „high“ ist, dass die Musik in der Perfektion ihrer Widergabe selbst zum Verschwinden gebracht wird. Dieses „Verschwinden der Musik“ wird analogisiert mit dem Verschwinden der Geschichte. Denn sie „wird nicht verschwinden, weil es zu wenig Musik gibt, sie wird verschwinden in der Perfektion ihrer eigenen Materialität, in ihrem Dolby-Effekt“ (Baudrillard 1990b: 16).

7

‚Waghalsig‘ trifft als Prädikat nicht nur auf diese, sondern auf fast alle Hypothesen von Baudrillard zu, da sie sich – wie von Rezipienten des Werkes von Baudrillard oft bemängelt – kaum an Kriterien von akademischer Redlichkeit, Konsistenz und Kohärenz der Theorie und eines nicht-metaphorischen Sprechens orientieren. In einer ironischen Entgegnung hat sich Baudrillard dieser und weiterer Unzulänglichkeiten gleich selbst bezichtigt. Seine „delirierende Selbstkritik“ beschuldigt ihn nicht nur aufgrund der „Unterschlagung der Referenzen“, sondern bezichtigt ihn auch der Sünde, „seine Phantasmen heimlich der Realität untergeschoben zu haben“ sowie dem Vergehen, „systematisch die Gegenposition zu den evidentesten und bestfundiertesten Begriffen eingenommen zu haben“ (Baudrillard 1989: 45f.). Hinzu kommt, dass Baudrillard sein späteres Denken selbst als eine Theoriefiktion deklariert hat, in der die Theorie selbst zur Simulation dessen wird, was sie als Simulation zu beschreiben sucht. Obwohl die Theorie hiermit an „Zusammenhalt“ gewinne, indem sie sich dem System angleicht, das sie umgibt, verliere sie, in Baudrillards eigenen Worten, jede „objektive Gültigkeit“, nicht zuletzt aufgrund eines Mangels an aristokratischer Distanz zu den Dingen, die sie untersucht (Baudrillard 1990: 10).

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 191

Da sich die westlichen Gesellschaften angesichts des drohenden fin de siècle schon mehr als ein Jahrzehnt zuvor daran gemacht hatten, „in einer paranoischen Hast“ alles aufzuarbeiten, alles zu überprüfen, alles wiedergutzumachen, um am Ende eine „tadellose Buchführung“ vorlegen zu können (Baudrillard 1990a: 43f.), hatte das Ende des Jahrhunderts schon im Jahre 1985 stattgefunden. Die verbleibenden Jahre können laut Baudrillard nur noch die Form einer „Hysterese des Milleniums“ (Baudrillard 1990a: 46) annehmen – eines Zustandes also, in dem die retrograden Wirkungen und Effekte des Jahres 2000 noch anhalten, die Ursache dieser Effekte in Gestalt des vorweggenommenen Ereignisses des Jahres 2000 aber schon längst vergangen ist. Kurzum, das von den Kalendern verbürgte und somit echte Jahr 2000 kann höchstens noch in Form von ein paar bunten Feuerwerken stattfinden, die die Vanitas dieses Ereignis eher verdeutlichen als leugnen – ein Ereignis, das schon stattgefunden hat, als man es antizipierte. Das Phänomen lässt sich anhand von Baudrillards verwendeten Begriff der Hysterese noch genauer fassen. Dieser Begriff, der seit Mitte des 19. Jahrhunderts aus der Physik in verschiedene Wissenschaftszweige diffundiert ist, bezeichnet allgemein einen Zustand, der fortdauert, sich bisweilen sogar verstärkt, selbst wenn die Ursache oder der Reiz dafür längst abgeklungen ist. In den Wirtschaftswissenschaften etwa wird Hysterese bei der Analyse von Massenarbeitslosigkeit ins Spiel gebracht, die auch dann nicht zurückgeht oder sich gar noch verstärkt, wenn die externe Ursache bzw. der exogene Schock (z.B. Ölpreisschock) schon vorüber ist (Wohltmann 2010). Baudrillards Verwendung des Begriffs radikalisiert das entsprechende Konzept dahingehend, dass für die Initiierung eines Zustands der Hysterese die Ursache selbst nicht zu existieren braucht – es reicht aus, dass die Ursache, etwa das Jahr 2000 oder der Ölpreisschock, antizipiert wird. Infolgedessen sieht sich Baudrillard veranlasst, den Canetti-Punkt, an dem die Menschheit angeblich die Wirklichkeit plötzlich verlassen hat, zu widerrufen, da sich dieser Punkt nachträglich, d.h. im Leben mit den Folgen der entschwundenen Wirklichkeit, nicht mehr identifizieren lässt: „Der vanishing point, der Punkt, vor dem es Geschichte und Musik gab, einen Sinn der Ereignisse, des Sozialen und der Sexualität gab […], dieser vanishing point ist definitionsgemäß nicht feststellbar. […] Was Musik vor dem Stereo war, können wir nicht mehr hören (es sei denn durch eine spezielle Mono-Simulation), was Geschichte

192 | M ARIO K AISER

vor Nachrichten und Medien war, können wir uns nicht mehr vorstellen“ (Baudrillard 1990b: 17f.).

Mit den Wirkungen, sprich: den intendierten oder nicht-intendierten Folgen der Nanotechnologie verhält es sich ähnlich. Die westlichen und inzwischen auch östlichen Industriestaaten sind von einer Flut von Texten, Dialogen, Informationsveranstaltungen, Radio- und Fernsehsendungen derart umfassend auf die An- und Zukunft sowie auf die möglichen Folgen dieser technologischen Revolution vorbereitet worden, dass es hierzu der ‚eigentlichen‘ Ursache dieser Wirkungen gar nicht mehr bedarf. Versucht man vor diesem Hintergrund, Baudrillards abgeklärte Sicht auf das zu Tode simulierte Ereignis für eine nüchterne Analytik zu nutzen, lassen sich für die Nanotechnologie zwei Parallelen zum Jahr 2000 herausarbeiten. Erstens mit Blick auf die Hysterese, zweitens mit Blick auf das antizipierte Ereignis. Hysterese: Die Nanotechnologie wurde als die nächste industrielle Revolution um die Jahrtausendewende mithilfe von wissenschaftspolitischen Initiativen in verschiedenen Industrienationen angekündigt. Diese Benachrichtigungen über etwas, das erst kommen wird, sind inzwischen passé. Die Wirkungen, die sie hervorgerufen haben, dauern indes immer noch an. Einerseits versuchen verschiedene Wissenschaftsdisziplinen dieser Ankündigung, diesem zukünftigen Ereignis gerecht zu werden, indem sie ihre Forschungen als einen entscheidenden Schritt zu der angekündigten Nanotechnologie ausgeben oder sich selbst mit Nanotechnologie in Form einer Identitätsarbeit auseinandersetzen, um so die Chancen und Risiken ihrer Neuformierung als Nanochemie, Nanophysik oder Nanobiotechnologie eruieren zu können. Damit wird keineswegs die Existenz von Forschungsbemühungen auf der Nanoskala in Abrede gestellt. Buckminsterfullerene [bucky balls], Kohlenstoffnanoröhrchen [carbon nanotubes] oder Quantenpunkte [quantum dots] existieren als Forschungsgegenstände genauso wie die für ihren Realismus gerühmten Tische und Stühle.8 Nähert man sich diesen Forschungsbemühungen jedoch mit Hilfe einer wissenschaftssoziologischen

8

Bei den Buckyballs handelt es sich um sogenannte Fullerene, um sphärische Moleküle aus Kohlenstoffatomen. Das bekannteste unter ihnen, das sogenannte Buckminster Fulleren (kurz: ‚bucky ball‘), weist die Summenformel C60 auf und erhielt zu Ehren des Architekten Richard Buckminster Fuller, bekannt für seine

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 193

Perspektive, stellt man bei den Akteuren überraschenderweise ein reflexives Verhältnis zur Nanotechnologie fest. Dementsprechend geht es nicht darum, Nanotechnologie zu machen, sondern um die Frage, ob man sich mit der Nanotechnologie identifizieren will, da sich diese immer noch als nicht einlösbares Versprechen herausstellen könnte.9 Es geht bei vielen der möglichen Nanodisziplinen nicht darum, sich mit einer konkreten Technologie zu befassen, sondern in Form einer Identitätsarbeit sich zu einem künftigen Ereignis, der Ankunft der Nanotechnologie und besonders: deren Folgen, ins Verhältnis zu setzen. Dies geschieht vor dem Hintergrund, schon heute abzu-

Konstruktion von geodätischen Kuppeln, seinen Namen. Da das bucky ball dieselbe Symmetrie wie ein Fußball aufweist, wird es auch ‚Fussballmolekül’ genannt. Die Besonderheit der Fullerene besteht neben ihren bemerkenswerten chemischen Eigenschaften in der Tatsache, dass sie die beiden bekannten Kohlenstoffkonfigurationen, Graphit und Diamant, um weitere stabile Ar-chitekturen bereichert haben. Die Buckminster Fullerene wurden 1985 von Robert F. Curl jr. (USA), Sir Harold W. Kroto (England) und Richard E. Smalley (USA) in Nature beschrieben. Die Autoren erhielten 1986 den Nobelpreis. Kohlenstoffnanoröhrchen sind ebenfalls Fullerene, die jedoch zylindrisch aufgebaut sind und prinzipiell beliebige Längen annehmen können. Sie weisen außerordentliche physikalische Stärke, einzigartige elektrische und thermische Eigenschaften auf. Quantenpunkte hingegen sind eine nanoskopische Materialstruktur, in der einzelne Ladungsträger etwa Elektronen so gefangen werden können, dass ihre Energien nicht mehr kontinuierliche, sondern nur noch diskrete Werte (Quanten) annehmen. Aufgrund dieser Eigenschaft könnten sich Quantenpunkte dereinst als fundamentale Bausteine für das Quantencomputing erweisen. 9

Erhellend ist diesbezüglich etwa eine Studie, die anhand der Forschungsgemeinschaft der Kristallographen eine überaus defensive Aneignungsweise von ‚Nano’ rekonstruiert hat, die eher schon an Nano-Ablehnung erinnert. Das Ergebnis erstaunt insofern, als dass die Kristallographie aufgrund ihrer Untersuchungsgegenstände und Instrumente geradezu als eine Nanowissenschaft par excellence gelten müsste, das Nano-Label jedoch aufgrund der Wahrnehmung eines übertriebenen hypes ablehnt (Kehrt und Schüssler 2010). Nano-williger hingegen hat sich die Toxikologie erwiesen, die im Rahmen des Nanodiskurses sogar Anstalten machte, sich von einer klassischen Prüfungswissenschaft in eine Grundlagenwissenschaft zu transformieren (Kurath und Maasen 2006; Kurath 2010).

194 | M ARIO K AISER

schätzen, was dieses Ereignis, falls es denn eintrifft, für Vorteile oder Nachteile mit sich bringt. Selbst die Nanotechnologie, so scheint es, schätzt ab, ob sie stattfinden soll oder nicht. Andererseits – und wichtiger noch – hat sich ein Ensemble von Diskursen, Organisationen und Institutionen daran gemacht, die Folgen dieser kommenden Nanotechnologie bereits heute auszuloten und, wenn möglich, die Gesellschaft auf diese vorzubereiten. Da diese Bemühungen inzwischen mehr als eine Dekade andauern, handelt es sich hier ebenfalls um eine Form der Hysterese einer einstmals angekündigten Nanotechnologie. Das antizipierte Ereignis: Die Nanotechnologie muss nicht stattgefunden haben, damit deren Effekte und Folgen heute schon zu spüren sind. Wie im Fall des Jahres 2000 hat es offensichtlich gereicht, die Ankunft des fraglichen Ereignisses so vorweg zu nehmen, dass damit genügend Handlungsbedarf entstehen konnte, sich auf die möglichen Folgen dieser Technologie vorzubereiten. Die Antizipation einer neuen industriellen Revolution, einer enabling technology oder einer Querschnittstechnologie initiierte die Schaffung einer gesellschaftlichen Realität, für die das Vorbereitet-Sein auf diese Technologie derart prägend geworden ist, dass die Technologie hingegen an Wirklichkeit eingebüßt hat – präziser: dass sie gar nicht mehr anhand ihrer Wirklichkeit eingeschätzt werden kann. Ob die Nanotechnologie bereits stattgefunden hat, ob sie je stattfinden wird oder nur ein Effekt wissenschaftspolitischer Initiativen ist, diese Frage lässt sich nicht mehr beantworten, da kein Standpunkt mehr verfügbar ist, der es erlauben würde, zwischen den künftigen Folgen der Nanotechnologie und der Nanotechnologie zu differenzieren. Folglich ist der Punkt, vor dem es die Nanotechnologie gab, „definitionsgemäß nicht feststellbar“ (Baudrillard 1990b: 18). Was die Nanotechnologie vor der Vorwegnahme und Erforschung ihrer Folgen war, können wir uns kaum mehr vorstellen. Was beide Analogien – Hysterese einerseits, das antizipierte Ereignis andererseits – eint, ist eine Invertierung des Ursache-Wirkungs-Verhält-nisses, das noch die Konzeptualisierung der Unterscheidung von Wissen und Nichtwissen im Rahmen der Debatte um eine Reflexive Modernisierung anleitete: Ursachen können gewusst werden, Folgen noch nicht oder überhaupt nicht. Baudrillards Text legt jedoch eine auf die Nanotechnologie übertragbare Lesart vor, die der sozialen Realität der zig hundert Folgenabschätzungen eher gerecht wird: Folgen können gewusst werden, Ursachen noch nicht oder überhaupt nicht. Epistemologisch liegt hier nur dann ein Paradox vor, wenn

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 195

erwartet wird, dass die Ursache der Folgen einen kausalen Einfluss auf das Wissen über die Folgen ausübt. Vieles deutet darauf hin, dass sich das Wissen über die Folgen der Nanotechnologie gerade nicht oder nur zu einem verschwindend kleinen Teil aus der Nanotechnologie selbst speist (Kaiser 2010).10 Diese empirischen und theoretischen Hinweise legen es nahe, einen Verlust der Differenz zwischen der Nanotechnologie und der Antizipation und Simulation ihrer Folgen zu konstatieren. Wesentlichen Anteil an dieser Freisetzung der Nanotechnologie aus einer noch von der Wissenschaft verbürgten Umgebung hatten, wie bereits erwähnt, die massenhaften Abschätzungen der Nanotechnologie hinsichtlich ihrer ökonomischen, gesellschaftlichen, ethischen, gesundheitlichen, sicherheitsrelevanten und umweltbezogenen Auswirkungen. Da diese Abschätzungen außerdem im Nanoförderpaket unter der Rubrik einer responsible development of nanotechnology enthalten waren, haben sich die antizipierten und simulierten Folgen der Nanotechnologie als konstitutive Ingredienzien in den Begriff der Nanotechnologie von Anfang an eingeschrieben – mit dem paradoxen Effekt, dass die Nanotechnologie kaum je ‚sich selbst‘, sondern immer schon ihre intendierten und nicht-intendierten Folgen in der Zukunft war.

3. Z UKÜNFTE UND DIE K ORREKTUR DER G EGENWART Die Nanotechnologie findet nicht statt. Diese Aussage bedeutet ‚nur‘, dass die Wahrscheinlichkeit, dass die Nanotechnologie, was auch immer sie sein mag, je ‚wirklicher‘ sein wird als das, was aufgrund der antizipierten Folgen

10 Verbleichbar ist dieses Folgen-Ursachen-Verhältnis mit der rhetorischen Figur des Hysteron-Proteron, die entgegen der logischen Reihenfolge syntaktisch das Später vor dem Früher erwähnt. Im locus classicus, in Vergils Aeneis heisst es: „Lasst uns sterben und uns in die Feinde stürzen!“. Insofern diese Figur das Früher der Ursachen gegenüber dem Später der Folgen invertiert, empfiehlt sie sich geradezu zur Charakterisierung der ge-genwärtigen Bemühungen, die Folgen einer unbekannten Technologie abzuschätzen: „Lasst uns die Folgen überlegen und uns in die Ursachen stürzen“.

196 | M ARIO K AISER

über sie schon längst bekannt und erforscht ist, gering ist. Für das epistemologische Verhältnis von Gegenwart und Zukunft lässt sich angesichts der Präsenz von künftigen Folgen konstatieren, dass die Zukunft schon heute wesentlich besser erforscht und wesentlich differenzierter beschrieben worden ist als die Gegenwart der Nanotechnologie – mit der Konsequenz, dass die bekannten Folgen ihre Ursachen nicht mehr benötigen und sie obsolet machen. Die Behauptung, dass die Nanotechnologie aufgrund des Wissens um ihre Folgen nicht mehr stattfinden kann, sollte nicht dazu verleiten, die Wirklichkeit ihrer Folgen zu unterschätzen – denn diese machen sich in drei Dimensionen bemerkbar: Erstens hat sich in den letzten Jahren eine Formation bzw. ein Regime aus Rückversicherungen, Think Tanks, akademischen Diskursen, Nichtregierungsorganisationen und staatlichen Behörden gebildet, das gerade deshalb existiert, weil es sich der Abschätzung von möglichen Folgen von noch wenig bekannten Technologien verschrieben hat und weil diese Abschätzung gesellschaftlich erwartet wird. Genauso wie diese Organisationen und Diskurse existieren zweitens auch die Operationen oder Instrumente, mit denen mögliche Folgen beobachtet, abgeschätzt oder regierbar gemacht werden. In seinem Werk Die Gesellschaft der Gesellschaft hat Niklas Luhmann mehrfach darauf hingewiesen, dass selbst so ephemer wirkende Prozesse wie Beobachtungen reale Ereignisse sind: „Auch Beobachtungen sind durchaus reale Ereignisse, also Operationen“ (Luhmann 2001: 538). Das Medium, in dem sich Beobachtungen und Abschätzungen der Zukunft und der Öffentlichkeit ereignen, besteht neben Bildern und Dialogen in erster Linie aus Texten. Und deren der Präsenz unterstreicht die Materialität und sinnhafte Wirklichkeit der künftigen Folgen zusätzlich. Am deutlichsten aber machen sich drittens die zukünftigen Folgen in der Gegenwart bemerkbar. Kaum eine der mit Texten spezifizierten Folgen lässt es sich nehmen, Handlungsbedarf anzumelden oder gar konkrete Vorschläge zu unterbreiten, wie angesichts möglicher Schäden von morgen heute schon die Gegenwart so anzupassen ist, damit diesen Folgen begegnet werden kann. Tatsächlich findet sich der Verweis auf Zeit im Allgemeinen, auf Zukunft im Besonderen in einer Reihe von programmatischen Papieren bereits im Titel: angefangen beim Vorschlag für ein Real-Time Technology Assessment (Guston/Sarewitz 2002; Sarewitz/Guston 2004) über eine Sustainable

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 197

Governance (Vollenbroek 2002) und ein Vision Assessment (Grin/ Grunwald 2000) bis hin zu einer Anticipatory Governance of Nanotechnology (Barben et al. 2008). Will man in Erfahrung bringen, wie letztere sich selbst versteht, erfährt man interessante Details über die Differenz von Zukunft und Gegenwart: „Anticipatory governance comprises the ability of lay and expert stakeholders, both individually and through an array of feedback mechanisms, to collectively imagine, critique, and thereby shape the issues presented by emerging technologies before they become reified in particular ways.“ (Barben et al. 2008, 992f.)

Shaping issues, before they become reified – dieses Motto versetzt den Interpreten in die anspruchsvolle Position einer vollendeten Zukunft bzw. ins Futurum II, in der die Gefahr besteht, dass sich bereits ‚issues‘ reifiziert haben werden. Freilich ist die Nanotechnologie nicht der einzige Gegenstand, der über die Antizipation von Zukünften gesteuert und reguliert wird. Im deutschsprachigen Raum vernimmt man mit zunehmender Häufigkeit die Aufforderung, ‚zukunftsfähig‘ zu werden. Stiftungen wie FuturZwei, Zukunftsfähigkeit oder das Institut für demographische Zukunftsfähigkeit widmen ihre Tätigkeiten ganz dem Anliegen, die Gesellschaft auf die Zukunft vorzubereiten, um so „ökologische Tragfähigkeit, ökonomische Effizienz und soziale Gerechtigkeit“ (Stiftung Zukunfsfähigkeit) zu gewährleisten. Verbunden sind diese Aufforderungen mit dem Imperativ, sich möglichst rasch und zeitnah zukunftsfähig zu machen, ja selbst eine Evangelische Akademie regt in einem Papier mit dem Titel „Visionen zu einer zukunftsfähigen Kirche“ an, „möglichst schnell einen Übergang in eine ökologische Zukunft“ (Kraus 2011) zu schaffen. Diese und andere Fälle scheinen auf eine Konfiguration von Zeit und Politik hinzuweisen, die sich mit dem Begriff der Präemption fassen und von Prävention unterscheiden lässt – eine Konfiguration überdies, die sich mit Hilfe eines Weberschen Idealtyps illustrieren lässt. 3.1 Jack Bauer als Idealtyp Schon kurz nach den Anschlägen vom 11. September 2001 strahlte der USamerikanische Sender Fox die Fernsehserie 24 aus, was die New York Times zum Anlass nahm, angesichts des real und fiktional geführten Kampfs gegen

198 | M ARIO K AISER

den Terrorismus von einer „tödlichen Konvergenz zwischen dem wahren Leben und Hollywood-Fantasien“ (Salamon 2001) zu sprechen. Freilich mussten auch in Zeiten des Kalten Krieges Helden wie James Bond gegen Terroristen ausrücken, doch dafür blieb ihnen genügend Zeit, sich mit Martinis und schönen Frauen zu vergnügen. Genau diese Zeit aber fehlt Jack Bauer, dem Protagonisten aus 24, da ihm weniger als 24 Stunden verbleiben, um einen bevorstehenden Terroranschlag zu verhindern. Und dafür muss alles geopfert werden: die Gesundheit, seine Familie, sein Ruf, seine Freiheit und Prinzipien. In einem Kommentar im Guardian machte Slavoj Žižek auf zwei zentrale Aspekte dieser Serie aufmerksam: einerseits auf einen „sense of urgency“ (Žižek 2006), der aus der Knappheit der Ressource Zeit herrührt, andererseits auf die fragwürdige Identifikation mit einem Helden, der ‚für uns‘ politisch mehr als bedenklich handelt. Tatsächlich legte es kaum ein Film oder eine Fernsehserie zuvor darauf an, die knappe Zeit so handlungswirksam zu inszenieren: In den ersten Sekunden einer Folge wird dem Zuschauer klargemacht, dass die folgenden Ereignisse in Echtzeit stattfinden und eine Stunde im Leben Jack Bauers dokumentieren. Da eine Folge jedoch nur 40 Minuten Nettolaufzeit besitzt, spinnt sich die Handlung auch während den Werbeunterbrechungen weiter, sodass der Zuschauer ‚zwangsläufig‘ ein paar Minuten der Handlung verpasst. Sämtliche 24 Folgen einer Staffel decken wiederum den Zeitraum von 24 Stunden Echtzeithandlung und damit den „längsten Tag meines Lebens“ (Jack Bauer). Dieser Zeitkampf bildet den chrono- bzw. dromologischen Hintergrund, vor dem der zweite Aspekt relevant wird. Denn um an zeitkritische Informationen zu gelangen, ist Jack Bauer gezwungen, seine möglichen Widersacher zu quälen und zu foltern.11 Laut Žižek verbirgt sich gerade in diesem double bind die ideologische Lüge der Serie, da Jack Bauer dem Zuschauer so präsentiert wird, als ob er unter der Pflicht, die Verfassung ausgerechnet mit Taten zu schützen, die außerhalb der Verfassung stehen, fast zusammenbricht. Die offene Identifikation mit jemandem, der ‚für uns‘ die illegale Drecksarbeit macht und auch noch ‚für uns‘ leidet, wertet der Philosoph als trauriges Zeichen für einen Wandel ethischer und politischer Standards.

11 Selbst enge Mitarbeiter der fiktiven Counter Terrorist Unit, die Jacks Argwohn geweckt haben, stehen auf dem Folterplan und kehren nach Bestehen des Vertrauenstests wieder an ihren Arbeitsplatz zurück.

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 199

Darüber lässt sich streiten.12 Weniger strittig hingegen ist, dass mit der Inszenierung knapper Zeit ein „sense of urgency“ einher geht, der zu einem bestenfalls paralegalen Handeln auffordert. Bemerkenswerterweise ist es jedoch nicht die Echtzeit, d.h. die von Jack Bauer und Zuschauer geteilte Gegenwart, die erklärt, warum so und eben nicht im Rahmen einer legitimen Ordnung gehandelt werden muss. Vielmehr ist es ein künftiger Notstand (Terroranschlag etc.), der dazu ‚zwingt‘, dass die Gegenwart fortwährend korrigiert werden muss. Die temporale Konfiguration der Fernsehserie 24, die in einer gewaltsamen Korrektur der Gegenwart mündet, dient hier als ein Idealtyp im Weberschen Sinne oder als Kontrastfolie, die „eine einseitige Steigerung eines oder einiger Gesichtspunkte“ beinhaltet (Weber 1985: 191). Häufig wird bei der Nennung des Idealtypus vergessen, dass Weber damit gerade nicht eine „Darstellung des Wirklichen“ intendierte, sondern diesen Typus dazu erkor, „der Hypothesenbildung die Richtung [zu] weisen“ und der „Darstellung eindeutige Ausdrucksmittel [zu] verleihen“ (Weber 1985: 190).13 Von der Serie beinahe von selbst zugespitzt stellt sich Jack Bauers Kampf gegen die Zeit folgendermaßen dar: 1) Die Zukunft ist gewiss und vorhersagbar. In 24 Stunden geschieht etwas, das die gegenwärtige Ordnung in ihren Grundfesten erschüttert. 2) Nur außer-ordentliche Maßnahmen (Foltern, Morden) in der Gegenwart sind imstande, dieser künftigen Außer-Ordnung vorzubeugen. 3) Ordentliche (legale) Maßnahmen würden unweigerlich in den Notstand, in die antizipierte Außer-Ordnung führen.

12 Lässt man die Westernfilme vergangener Dekaden nochmals Revue passieren, fällt es schwer, Žižek hierin Recht zu geben: besonders angesichts des asexuellen, religions- und familienlosen Mannes, der mit brutaler Gewalt ausgerechnet eine heterosexuelle, religiöse und familienorientierte Ordnung (wieder) herstellt (Slotkin 1973). 13 Interessanterweise scheint eine Fernsehserie von sich aus in der Lage zu sein, einen Idealtypus zu generieren – schließlich geht es um den längsten Tag im Leben von Jack Bauer, die tausend übrigen sind Makulatur der Wirklichkeit.

200 | M ARIO K AISER

Der normale und ordentliche Lauf der Dinge muss angesichts des Notstandes in der Zukunft mit Maßnahmen, die Maßnahmen eines impliziten Ausnahmezustandes sind, in der Gegenwart so korrigiert werden, dass die Zukunft wieder ordentlich wird (vgl. Abbildung 2). Abbildung 2: Korrektur der Gegenwart

3.2 Idealität und Realität Mit diesem Idealtypus lassen sich nun Gemeinsamkeiten und Unterschiede zur Wirklichkeit bestimmen, die der Hypothesenbildung die Richtung weisen. Die Hypothese ist: Präventive Maßnahmen, die angesichts riskanter Zukünfte eine Normalisierung und Konservierung der Gegenwart anstreben, um möglichst nicht auf eine schiefe Ebene zu geraten, werden zunehmend verdrängt durch präemptive Maßnahmen, die eine Reformierung der Gegenwart anpeilen, um so der drohenden Krise oder Katastrophe zuvorzukommen (vgl. Kaiser 2011; Kaiser 2014). Zunächst zu den Differenzen: Die erste Differenz beruht in der Gewissheit der Ungewissheit der Zukunft. In den Worten etwa des Vorschlags für eine anticipatory governance: „For, although action and outcomes are emergent qualities of human choice and behavior, they rarely, if ever, proceed from certainty or prediction, and neither are they

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 201

based on the simple intentions of individual actors or policies. Rather, as the concept of ‚anticipation‘ is meant to indicate, the co-evolution of science and society is distinct from the notion of predictive certainty.“ (Barben et al. 2008: 992)

Zieht man allerdings die schiere Menge von Texten in Betracht, die über die Zukunft der Nanotechnologie, d.h. über ihre intendierten und nicht intendierten Folgen verfasst worden sind, muss, wie bereits ausgeführt, davon ausgegangen werden, dass diese Zukunft von Abschätzungsregimen bekannt gemacht wurde. Selbst dann, wenn auf der Ungewissheit der Zukunft bestanden wird, sei, so lassen sich nicht wenige Regulierungsvorschläge vernehmen, aber immer noch Sorge dafür zu tragen, dass sich problematische Zukünfte nicht verdinglichen und verselbständigen können. Es gehe also nicht darum, die Zukunft vorauszusagen, aber immerhin darum, sich auf sie vorzubereiten: „not foretelling the future, but still prepairing for it“ (Karinen/Guston 2010: 227). Die zweite Differenz betrifft die Mittel, die empfohlen werden, um sich auf die Zukunft vorzubereiten. Während Jack Bauer eine ordentliche Zukunft mit Hilfe von allzu fragwürdigen Maßnahmen herstellt, ist es bei der Vorbereitung auf die Ankunft der Nanotechnologie hingegen zu einer Fülle von Reformvorschlägen besonders im Namen von Governance14 gekommen, die untereinander nur lose verwandt, doch in ihrem Gegenüber einig sind. Das konstitutive Außen (Laclau 2002) besteht weitgehend in ‚Staat‘, bzw. in ‚(big) governement‘. Im Falle einer risk governance of nanotechnology etwa wird dem hierarchischen, starren und staatlichen Regierungsstil ein Modus des Regierens entgegen gehalten, der sich geradezu als Antithese versteht. Es geht nicht mehr um „die traditionelle Macht über, sondern um eine kontextuelle Macht zu“; nicht mehr um starre, sondern um „permeable und flexible Grenzen, die Kommunikation und das Erreichen höherer Ziele ermöglichen“ – kurzum: Es geht um „einen Wandel von einschränkenden zu ermöglichenden Weisen von Politik und Steuerung“ (Renn/Roco 2006: 26).

14 Allein was den Signifikanten ‚Governance‘ anbelangt hat die Nanotechnologie etwa folgende Reformvorschläge generiert: risk governance of nanotechnology (Renn/Roco 2006); anticipatory governance of nanotechnology (Barben et al. 2008; Karinen/Guston 2010)); sustainable governance of nanotechnology (Wiek et al. 2007); innovative and responsible governance of nanotechnology for societal development (Renn/Roco 2006).

202 | M ARIO K AISER

Trotz dieser Unterschiede machen sich ein paar subtile Gemeinsamkeiten bemerkbar, die die Hypothese einer präemptiven Konfiguration plausibler erscheinen lassen. Obgleich sich Jack Bauer und spezifische Abschätzungstechnologien nicht darüber einig sind, ob und wann genau eine Katastrophe oder Krise zu befürchten ist, plädieren beide dafür, die Gegenwart darauf vorzubereiten. Vorbereitung bedeutet allerdings nicht, die Gegenwart in Schutz zu nehmen, sie – wie im präventiven Fall – zu konservieren und zu normalisieren. Im Gegenteil: Vorbereiten heißt, die Gegenwart für die Zukunft fit zu machen, sie zu reformieren oder gar zu revolutionieren. Pointiert ausgedrückt: Die Gegenwart stellt keine schützenswerte Ordnung dar, sondern ein Ort, der gegenüber den künftigen ‚Herausforderungen‘ stets defizitär erscheint und deshalb zu korrigieren ist. Wie bereits festgehalten, unterscheiden sich Idealtypus und verschiedene Formen der nanotechnology governance auch hinsichtlich der Mittel: Während Jack Bauer seine Gegenwart mithilfe von Foltern und Morden reformiert, um ja nicht die Geschichte in einem Notstand enden zu lassen, spezifizieren Abschätzungsregime im Namen von Governance derzeit eine Reihe von Regulierungs- und Steuerungsvorschlägen, wie die gegenwärtige Ordnung sich an die Zukunft anpassen lässt. Trotz dieses gravierenden Unterschiedes hinsichtlich der Akzeptabiltiät der Mittel lassen Idealtyp und die hier angesprochenen Vorschläge eine gemeinsame Überzeugung erkennen: Eine Beibehaltung der gegenwärtigen Ordnung führt unweigerlich in eine Katastrophe, weshalb nur außerordentliche Maßnahmen imstande sind, den Lauf der Dinge in eine ordentliche Zukunft zu lenken. Beide Gemeinsamkeiten – die Reformierung der Gegenwart angesichts einer gefährlichen Zukunft auf der einen, der Aufruf zu innovativen, wenn nicht gar außerordentlichen Maßnahmen auf der anderen Seite – sind im Kontext der Nanotechnologie geradezu exemplarisch in einem philosophischen Beitrag ausbuchstabiert worden (Dupuy/Grinbaum 2005). Es handelt sich hierbei um einen Artikel, der in einem ersten Schritt präventive Anstrengungen als inadäquat einstuft, da diese, allein aus prinzipiellen Gründen, stets zu spät kommen müssen. Gefordert wird in einem zweiten Schritt daher eine Vorgehensweise, die nicht abwartet, bis erste Informationen über die Nanotechnologie vorhanden sind, um dann steuernd einzugreifen, sondern eine Abschätzungspolitik, die davon ausgeht, dass eine Katastrophe geschieht.

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 203

„This time, instead of an optimistic but credible image of the future, one should wish to obtain at every moment of time an image of the future sufficiently catastrophic to be repulsive and sufficiently credible to trigger the actions that would block its realization. […] [A] catastrophe must necessarily be inscribed in the future with some vanishing, but non-zero weight, this being the condition for this catastrophe not to occur. The future, on its part, is held as real. This means that a human agent is told to live with an inscribed catastrophe. Only so will he avoid the occurrence of this catastrophe.“ (Dupuy/Grinbaum 2005)

In dieser Passage kommt die idealtypische Konfiguration von Präemption anschaulich zur Geltung: Die Zukunft wird nicht als Horizont der Gegenwart verstanden, der sich immer weiter hinausschiebt, je näher wir ihm kommen, sondern die Zukunft steht bis zu einem gewissen Grade heute schon fest, obwohl wir es nicht erkennen können: Nur dann, wenn wir in der Gegenwart bereit sind, der künftigen, aber noch unbekannten Katastrophe ins Auge zu blicken und bereit sind, die Gegenwart radikal zu verändern, sind wir imstande, der Katastrophe aus dem Wege zu gehen: „The future, on its part, is held as real. […] Only so will [the human agent] avoid the occurence of this catastrophe.“ Nicht zuletzt anhand dieses einschlägigen Beispiels lässt sich ein Unterschied zwischen früheren Praktiken der Prävention und immer häufiger anzutreffenden Mechanismen der Präemption ziehen. Während Prävention noch versucht, gegen die Zukunft anzukämpfen, da diese das Potential zur Zerstörung der gegenwärtigen Ordnung beinhaltet, zielt Präemption hingegen darauf ab, der ‚Außerordnung‘ der Zukunft mithilfe einer Anpassung und Korrektur der gegenwärtigen Ordnung zuvorzukommen.

4. S CHLUSS Günther Anders, Technikkritiker und Mitbegründer der Antiatombewegung, hat in seiner kurzen Schrift Die atomare Drohung den Kern seines apokalyptischen Denkens, das er 1956 mit dem ersten Band von Die Antiquiertheit des Menschen (Anders 1980) einer breiteren Öffentlichkeit vorstellte, mit folgenden Worten zusammen gefasst:

204 | M ARIO K AISER

„Insofern sind wir invertierte Utopisten: während Utopisten dasjenige, das sie sich vorstellen, nicht herstellen können, können wir uns dasjenige, das wir herstellen, nicht vorstellen.“ (Anders 1983: 96)

Infolge eines gesellschaftlichen Lernprozesses, der von einer Vielzahl von Intellektuellen wie Heidegger, Adorno, Schelsky oder Marcuse begleitet wurde, hat sich die Diskrepanz zwischen Herstellen und Vorstellen ab den 1970er Jahren allmählich verringert.15 Heute, zwei Jahrzehnte nach der Schließung der Kluft zwischen Vorstellen und Herstellen, stellt sich die Frage, ob wir uns nicht wieder mehr vorstellen können als wir herzustellen vermögen. Das bedeutet nicht, dass wir wieder zu Utopisten geworden sind – ganz im Gegenteil. Während Utopisten immer noch darauf hoffen, dass sie die Tür von der Gegenwart in die Zukunft öffnen können, scheinen wir die Tür von der Zukunft in die Gegenwart bereits aufgestoßen zu haben. Die zukünftigen Folgen unserer Technologien bringen, ja zwingen uns heute schon dazu, permanent unsere Gegenwart ihnen anzupassen. Es scheint, dass wir inzwischen mit ‚unseren‘ Zukünften zunehmend die Gegenwart, ja vielleicht die Gegenwart dieser Gesellschaft regieren.

L ITERATUR Ach, Johann/Lüttenberg, Beate (Hrsg.) (2008): Nanobiotechnology, nanomedicine, and human enhancement. Münster/Piscataway, NJ: LIT.

15 1972 wurde etwa in den USA das Office of Technology Assessment gegründet. Fast zeitgleich starteten in der Bundesrepublik Deutschland erste parlamentarische Diskussionen zur Institutionalisierung eines Amts zur Bewertung technologischer Entwicklungen beim Deutschen Bundestag, aus denen schließlich, Jahre danach, das Büro für Technikfolgenabschätzung hervorging. 1986 kam es zur Gründung des einflussreichen Danish Board of Technology. Eine ähnliche Geschichte nahm die Angewandte Ethik, die sich in einem längeren Prozess, der mit der Asilomar Conference on Recombinant DNA anno 1973 begann und in der Institutionalisierung von Lehrstühlen für Angewandte und Medizinethik seit der Erfindung des Kürzels ELSI endete (vgl. Jonsen 1998).

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 205

Allhoff, Fritz/Lin, Patrick/Moor, James/Weckert, John (Hrsg.) (2007): Nanoethics: the ethical and social implications of nanotechnology. Hoboken, NJ: Wiley-Interscience. Altmann, Jürgen (2006): Military nanotechnology: potential applications and preventive arms control. London/New York: Routledge. Altmann, Jürgen/Gubrud, Mark (2004): „Anticipating Military Nanotechnology“. IEEE Technology & Society Magazine 23 (4): 33. Anders, Günther (1980): Die Antiquiertheit des Menschen I: Über die Seele im Zeitalter der zweiten industriellen Revolution. München: C.H. Beck. Anders, Günther (1983): Die atomare Drohung: radikale Überlegungen. München: C.H. Beck. Barben, Daniel/Fisher, Erik/Selin, Cynthia/Guston, David H. (2008): Anticipatory governance of nanotechnology: foresight, engagement, and integration. S. 979-1000 in: Hackett, Edward J./Amsterdamska, Olga/Lynch, Michael/Wajcman, Judy (Hrsg.): The handbook of science and technology studies. (3. Auflage) Cambridge, MA: MIT Press. Baudrillard, Jean (1990a): Die Hysterese des Milleniums. S. 39-60 in: Ders. (Hrsg): Das Jahr 2000 findet nicht statt. Berlin: Merve. Baudrillard, Jean (1990b): Das Jahr 2000 findet nicht statt. S. 7-29 in: Ders. (Hrsg): Das Jahr 2000 findet nicht statt. Berlin: Merve. Beck, Ulrich (1997): Die Erfindung des Politischen: zu einer Theorie reflexiver Modernisierung. Frankfurt am Main: Suhrkamp. Bensaude-Vincent, Bernadette (2004): Two Cultures of Nanotechnology? HYLE – International Journal for Philosophy of Chemistry 10 (2): 6582. BMBF (2006): Nano-Initiative – Aktionsplan 2010. Berlin: Bundesministerium für Bildung und Forschung. Online verfügbar unter: http://www.nanotruck.de/fileadmin/user_upload/Berichte%20und%20Druckschriften/Literaturliste/Aktionsplan_nanotechnologie_2015.pdf [11.06.2015]. Böschen, Stefan/Lau, Christoph (2003): Wissensgesellschaft und reflexive Modernisierung. S. 220-235 in: Böschen, Stefan/Schulz-Schaeffer, Ingo (Hrsg.): Wissenschaft in der Wissensgesellschaft. Wiesbaden: Westdeutscher Verlag. Böschen, Stefan/Wehling, Peter (2004): Wissenschaft zwischen Folgenverantwortung und Nichtwissen: aktuelle Perspektiven der Wissenschaftsforschung. Wiesbaden: VS – Verlag für Sozialwissenschaften.

206 | M ARIO K AISER

Collingridge, David (1982): The social control of technology. London: Pinter. Drexler, Eric K. (1986) Engines of Creation: The Coming Era of Nanotechnology. London: Russell Whitaker Fourth Estate. Dupuy, Jean-Pierre/Grinbaum, Alexei (2005): Living with Uncertainty: Toward the Ongoing Normative Assessment of Nanotechnology. Techné: Research in Philosophy and Technology 8 (2). Online verfügbar unter: http://scholar.lib.vt.edu/ejournals/SPT/v8n2/grinbaum.html [11.06.2015]. ETC Group (2003): Green Goo: Nanotechnology Comes Alive! Communiqué. Win-nipeg, Manitoba: ETC Group. Fukuyama, Francis (1992): Das Ende der Geschichte: wo stehen wir? München: Kindler. Gill, Bernhard (1999): Reflexive Modernisierung und technisch-industriell erzeugte Umweltprobleme. Ein Rekonstruktionsversuch in präzisierender Absicht. Zeitschrift für Soziologie 28 (3): 182-196. Grin, John/Grunwald, Armin (Hrsg.) (2000): Vision assessment: shaping technology in 21st century society towards a repertoire for technology assessment. New York: Springer. Grunwald, Armin (2006): „Nanotechnologie als Chiffre der Zukunft“. S. 5080 in: Nordmann, Alfred/Schummer, Joachim/Schwarz, Astrid (Hrsg.): Nanotechnologien im Kontext: Philosophische, ethische und gesellschaftliche Perspektiven. Berlin: Akademische Verlagsgesellschaft Aka GmbH. Guston, David H./Sarewitz, Daniel (2002): Real-time technology assessment. Technology in Society 24 (1-2): 93-109. ITA (2006): Nanotechnologiebegleitmassnahmen: Stand und Implikationen für Österreich. Wien: Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften. Joachim, Christian (2005): To be nano or not to be nano? Nature Materials 4 (2): 107-109. Jonsen, Albert (1998): The birth of bioethics. New York: Oxford University Press. Kaiser, Mario (2010): Futures Assessed: How Technology Assessment, Ethics and Think Tanks Make Sense of an Unknown Future. S. 179-198 in:

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 207

Kaiser, Mario/Kurath, Monika/Maasen, Sabine/Rehmann-Sutter, Christoph (Hrsg.): Governing future technologies: Nanotechnology and the Rise of an Assessment Regime. Dordrecht: Springer. Kaiser, Mario (2011): Über Folgen – die politische Korrektur der Gegenwart durch die Abschätzung technologischer Zukünfte. Dissertation an der Universiät Basel. Kaiser, Mario (2014) Chronopolitik: Prävention & Präemption. Technikfolgenabschätzung – Theorie und Praxis (TATuP) 23 (2): 48-55. Kaiser, Mario/Kurath, Monika/Maasen, Sabine/Rehmann-Sutter, Christoph (Hrsg.) (2010.): Governing future technologies: Nanotechnology and the Rise of an Assessment Regime. Dordrecht: Springer. Karinen, Risto/Guston, David H. (2010): Toward Anticipatory Governance: The Experience with Nanotechnology. S. 217-232 in: Kaiser, Mario/Kurath, Monika/Maasen, Sabine/Rehmann-Sutter, Christoph (Hrsg.): Governing future technologies: Nanotechnology and the Rise of an Assessment Regime. Dordrecht: Springer. Kehrt, Christian/Schüssler, Peter (2010): ‘Nanoscience is 100 years old.’ The Defensive Appropriation of Nanodiscourse within the Disciplinary Boundaries of Crystallography. S. 37-53 in: Kaiser, Mario/Kurath, Monika/Maasen, Sabine/Rehmann-Sutter, Christoph (Hrsg.): Governing future technologies: Nanotechnology and the Rise of an Assessment Regime. Dordrecht: Springer. Kraus, Jobst (2011): Visionen zu einer zukunftsfähigen Kirche. Online-Texte der Evangelischen Akademie Bad Boll. Bremen. Online verfügbar unter: http://www.ev-akademie-boll.de/fileadmin/res/otg/doku/11-04Kraus.pdf [11.06.2015]. Kurath, Monika (2010): Negotiating Nano: From Assessing Risks to Disciplinary Transformations. S. 21-36 in: Kaiser, Mario/Kurath, Monika/Maasen, Sabine/Rehmann-Sutter, Christoph (Hrsg.): Governing future technologies: Nanotechnology and the Rise of an Assessment Regime. Dordrecht: Springer. Kurath, Monika/Maasen, Sabine (2006): Toxicology as a nanoscience?–Disciplinary identities reconsidered. Particle and Fibre Toxicology 3 (1): 6. Lenk, Christian/Biller-Andorno, Nikola (2006): Nanomedicine-emerging or re-emerging ethical issues? A discussion of four ethical themes. Medicine, Health Care and Philosophy 10 (2): 173-184.

208 | M ARIO K AISER

Luhmann, Niklas (2001): Die Gesellschaft der Gesellschaft. 2 Bände. Frankfurt am Main: Suhrkamp. Munich Re (2002): Nanotechnologie – Was kommt auf uns zu? München: Munich Re. Online verfügbar unter: http://www.google.de/url?q= http://dsconsul- ting.npage.de/get_file.php%3Fid%3D24888112%26vnr %3D993871&sa=U&ved=0CCsQFjAGahUKEwirse_XsIfGAhUL1Sw KHRH-FAyY&usg=AFQjCNHF5p6YRvmSqPS_2KTXfWMcNjVoRQ [11.06.2015]. National Nanotechnology Initiative (2008): National Nanotechnology Initiative. Online verfügbar unter: http://www.nano.gov/html/society/Res ponsible_Development.html. (01.01.2009) Nordmann, Alfred (2007): If and Then: A Critique of Speculative NanoEthics. NanoEthics 1 (1): 31-46. Nordmann, Alfred/Rip, Arie (2009): Mind the gap revisited. Nature Nanotechnology 4 (5): 273-274. Paschen, H./Coenen, C./Fleischer, Torsten/Grünwald, R./Oertel, D./Revermann, C. (2003): Nanotechnologie. Endbericht (TAB Arbeitsbericht Nr. 92). Berlin: Büro für Technikfolgenabschätzung beim Deutschen Bundestag. Online verfügbar unter: http://www.tab.fzk.de/de/arbeitsberichte. htm [11.06.2015]. Project on Emerging Nanotechnologies (2008): How to Reduce Your Firm’s Risk and Increase Revenues Related to Nanotechnology. PEN BRIEF. Washington, D.C.: Project on Emerging Technologies. Woodrow Wilson International Center for Scholars. Regis, Ed (2004): The Incredible Shrinking Man. Wired 12 (10). Renn, Ortwin/Roco, Mihail C. (2006): White Paper on Nanotechnology Risk Governance. Geneva: International Risk Governance Council. Online verfügbar unter: http://www.irgc.org/IMG/pdf/IRGC_white_paper_2_ PDF_final_version-2.pdf [11.06.2015]. Lux Research (2004): Sizing Nanotechnology’s Value Chain. New York: Lux Research Inc. RS & RAE (2004): Nanoscience and nanotechnlogies: opportunities and uncertainties. London: Royal Society & Royal Academy of Engineering. Online verfügbar unter: http://www.raeng.org.uk/publications/reports/ nanoscience-and-nanotechnologies-opportunities [11.06.2015].

D IE N ANOTECHNOLOGIE FINDET

NICHT STATT

| 209

Russell, Bertrand (1910): Knowledge by Acquaintance and Knowledge by Description. Proceedings of the Aristotelian Society 11. New Series: 108-128. Saage, Richard (2006): Konvergenztechnologische Zukunftsvisionen und der klassische Utopiediskurs. S. 180-194 in: Nordmann, Alfred/Schummer, Joachim/Schwarz, Astrid (Hrsg.): Nanotechnologien im Kontext: Philosophische, ethische und gesellschaftliche Perspektiven. Berlin: Akademische Verlagsgesellschaft Aka GmbH. Salamon, Julie (2001): Television Review: Racing in Real Time to Track Down an Assassin and a Daughter. The New York Times, November 6, Abschn. Arts. Online verfügbar unter: http://www.nytimes.com/2001/ 11/06/arts/television-review-racing-in-real-time-to-track-down-an-assassin-and-a-daughter.html [11.06.2015]. Sarewitz, Daniel/Guston, David (2004): Real-Time Assessment of Nanotechnology: Theory, Practice, Prospects. Marburg. Online verfügbar unter: http://cgi-host.uni-marburg.de/~nano-mr/downloads/s4/sarewitz_ paper_draft.pdf [11.06.2015]. Schmid, G/Decker, M./Ernst, H./Fuchs, H./Grünwald, W./Grunwald, Armin/Hofmann, H./Mayor, M./Rathgeber, W./Simon, U./Wyrwa, D. (2003): Small Dimensions and Material Properties: A Definition of Nanotechnology. Graue Reihe. Bad Neuenahr-Ahrweiler: Europäische Akademie (zur Erforschung von Folgen wissenschaftlich-technischer Entwicklungen). Online verfügbar unter: http://www.ea-aw.de/fileadmin/ downloads/Graue_Reihe/GR_35_Nanotechnology_112003.pdf [11.06.2015]. Slotkin, Richard (1973): Regeneration through violence: the mythology of the american frontier, 1600-1860. Middleton Conn: Wesleyan University Press. Steup, Matthias/Sosa, Ernest (Hrsg.) (2005): Contemporary debates in epistemology. Malden, MA: Blackwell. Stiftung Zukunfsfähigkeit (o.J.): Stiftung Zukunftsfähigkeit. Online verfügbar unter: http://www.stiftungzukunft.de/. Swiss Re (2004): Nanotechnology. Small matter, many unknows. Zürich: Swiss Re. Online verfügbar unter: http://www.denix.osd.mil/cmrmd/ upload/SWISSREPUBL04_NANO_EN.PDF [11.06.2015].

210 | M ARIO K AISER

UK Parliamentary Office of Science and Technology (2009): Postnote: Lessons from History. London: Parliamentary Office of Science and Technology, UK. Vollenbroek, F.A. (2002): Sustainable development and the challenge of innovation. Journal of Cleaner Production 10 (3): 215-223. Weber, Max (1985): Die ‚Objektivität‘ sozialwissenschaftlicher und sozialpolitischer Erkenntnis. S. 146-214 in: Winckelmann, Johannes (Hrsg.): Max Weber: Gesammelte Aufsätze zur Wissenschaftslehre. Tübingen: Siebeck. Wiek, Arnim/Zemp, Stefan/Siegrist, Michael/Walter, Alexander I. (2007): Sustainable governance of emerging technologies – Critical constellations in the agent network of nanotechnology. Technology in Society 29 (4): 388-406. Wohltmann, Hans-Werner (2010): Hysterese. Gabler Wirtschaftslexikon. Wiesbaden: Gabler Verlag. Wood, Stephen/Jones, Richard/Geldart, Alison (2003): The Social and Economic Challenges of Nanotechnnology. Swindon, UK: Economic and Social Research Council. Žižek, Slavoj (2006): The depraved heroes of 24 are the Himmlers of Hollywood. Guardian, Januar 27. Online verfügbar unter: http://www. guardian.co.uk/media/2006/jan/10/usnews.comment [11.06.2015].

Lebenswissenschaften: Medizin und Genetik

Das Primat der ‚Natur‘ im Gegensatz zur ‚Künstlichkeit‘ in der Medizin der Aufklärung1 A NDREA ZUR N IEDEN

E INLEITUNG Wenn man die gegenwärtig sich verändernden Bedeutungen der Konzepte von ‚Natur‘ und ‚Kultur‘ untersuchen will, lohnt es sich, einen Blick auf die Geschichte der Natur-Kultur-Spaltung in den Lebenswissenschaften zu werfen. Nach Bruno Latours „Wir sind nie modern gewesen“ (1998), mit dem er die Debatte um diese Unterscheidung in den „Social Studies of Science“ oder auch „Science and Technology Studies“ angestoßen hat, entstand die Dichotomie zwischen Natur und Kultur als eine der Bedingungen der „modernen Verfassung“ im 17. Jahrhundert. Mit der Rekonstruktion einer Kontroverse zwischen dem politischen Philosophen Thomas Hobbes und dem Naturphilosophen Robert Boyle über die Bedingungen und Kriterien wahrer Erkenntnisgewinnung macht er deutlich, dass seither die Welt der Natur und die Welt der Kultur, Gesellschaft und Politik strikt getrennt wurden. Die natürliche Welt gilt seitdem als nicht vom Menschen gemacht, sie transzendiert uns unendlich. Gleichzeitig, und das ist eines der modernen Paradoxa, wird sie von uns im Labor permanent konstruiert. Denn Robert Boyle war zugleich der

1

Für kritische Lektüre und wertvolle Hinweise danke ich Matthias Leanza, Sascha Dickel, Christoph Taubmann und Karina Korecky.

214 | A NDREA ZUR NIEDEN

Vorreiter der auf Experimenten beruhenden Naturwissenschaften und hat den „empirischen Stil, in dem wir heute noch arbeiten“ (Latour 1998: 28) begründet. Die kulturelle Welt der Gesellschaft wurde im Gegenteil als unsere bewusste Konstruktion behandelt – auch wenn, und das ist das zweite Paradox, sie Faktizitäten (Objekte und Güter) schafft, die der Gesellschaft Dauer verleihen und damit über uns hinausgehen.2 Die moderne Verfassung garantiert jedoch, dass es selbst, wenn wir die Natur konstruieren, so ist, als konstruierten wir sie nicht, sondern entdeckten sie bloß – ebenso wie sie garantiert, dass es auch, wenn wir die Gesellschaft nicht konstruieren, so ist, als konstruierten wir sie. Diese Garantien konnten nur durch die strikte Trennung von Naturwelt und Sozialwelt aufrechterhalten werden. Daher bestand diese moderne Verfassung nur durch Ignorieren aller Hybriden, Cyborgs und Monster, die sie zur gleichen Zeit kontinuierlich produzierte (Latour 1998: 19-47). Latour spricht an dieser Stelle nicht über den menschlichen Körper, aber wenn man die Geschichte der Wissenschaften vom Menschen betrachtet, könnte man die Dichotomie fortsetzen als eine, die sich auch auf die ‚innere Natur‘ – also den als natürlich gedachten Körper – im Gegensatz zu den historisch entstandenen Sitten, der ‚Kultur‘ des Menschen bezieht. In diesem Aufsatz möchte ich diese Gegenüberstellung in der Geschichte der aufklärerischen Medizin verfolgen. Ich bin nicht nur an der Dichotomie selbst interessiert, sondern über Latour hinausgehend an ihrer ideologischen Rolle in einem Diskurs, in dem ‚natürlich‘ als moralisch ‚gut‘ aufgeladen wurde.3 Einige Aspekte der Natur/Kultur-Dichotomie haben sicherlich eine ältere Geschichte. In seinem Buch „Natürlich Natur“ (1992) unterscheidet Gernot Böhme verschiedene kontrastive Paare in Bezug auf die Natur: der Gegensatz zwischen „Natur“ und „Technik“ oder „Kunst“ zum Beispiel gehe auf Aristoteles zurück, während der abwertende Gegensatz zwischen „natürlich“

2

Latour differenziert hier nicht zwischen den Begriffen ‚Gesellschaft‘ und ‚Kultur‘. Dass bestimmte Aspekte des modernen Kulturbegriffs erst im 18. Jahrhundert entstehen, zeigt z.B. Luhmann 1995: 31ff. Als Gegensatz zur Natur ist jedoch die Begrifflichkeit, wie sie Latour benutzt, ausreichend.

3

Dass diese moralische Aufladung auch in heutigen (Laien-)Diskursen noch sehr virulent ist, zeigt eindrucksvoll der Text von Simone Schumann und Claudia Schwarz in diesem Band.

N ATUR

UND

K ÜNSTLICHKEIT

IN DER

M EDIZIN

DER

A UFKLÄRUNG | 215

und „gekünstelt“ im Sinne von „verderbt“ in der frühen christlichen Auffassung von der Natur als einer Ordnung der Schöpfung, etwa in den biblischen Schriften von Paulus gefunden werden kann (Böhme 1992: 12ff). Aber die moralische Aufwertung von ‚Natur‘ im Gegensatz zur ‚Künstlichkeit‘ erlebte einen neuen Höhepunkt in einigen Trends aufklärerischen Denkens. Nicht nur im romantischen und anti-zivilisatorischen Ruf ‚Zurück zur Natur‘ von Jean Jaques Rousseau legitimierte das Bürgertum erfolgreich seine gesellschaftlichen und politischen Werte, aber auch seine expandierenden empirischen Wissenschaften als ‚natürlich‘ im Gegensatz zur angeblichen ‚gekünstelten‘ Lebensweise der Aristokratie. Auch im Rahmen einer allgemeinen Renaissance klassischer antiker Vorbilder, die gegen das als dekadent empfundene höfische Rokoko gesetzt wurden, finden wir im 18. Jahrhundert in der Medizin eine neo-hippokratischen Wende, die die „Hygiene“ oder „Diätetik“ des antiken Arztes Hippokrates einschließlich des Glaubens an die heilende Kraft der „Natur“ wieder aufnahm (Sarasin 2001: 33ff). Natur wurde hier übrigens nicht der Vernunft entgegengesetzt, sondern in Übereinstimmung mit ihr verstanden. Ich werde im Folgenden diese Forderung nach einer „natürlichen, vernünftigen und ungekünstelten“ (z.B. Meier/Lange 1758: 348) Lebensweise und ihrer verschiedenen Nuancen und Spielarten in deutschen populärmedizinischen Schriften des 18. Jahrhundert weiter erkunden. Ich ziehe dafür die „Moralischen Wochenschriften“ und medizinische Zeitschriften und Handbücher heran, die sich an eine breitere Öffentlichkeit richteten. Das Material stammt aus einem DFG-Projekt am Institut für Geschichte der Medizin der Universität Düsseldorf: „Die Konstruktion einer moralischen Autorität der Natur in der Naturheilkunde“,4 in dem wir eine große Anzahl dieser Schriften systematisch mit inhaltsanalytischen Methoden ausgewertet haben. Ziel dieses Aufsatzes ist es, anhand der Darstellung, wie in diesen Texten die Dichotomie zwischen Natur und Kultur in Bezug auf den Körper konstruiert wird, Folgendes plausibel zu machen: nicht erst seit dem Zeitalter der ‚Technosciences‘, das hierfür oft argumentativ bemüht wird, ist einerseits der menschliche Körper ein durch Kulturtechniken geformter ‚Cyborg‘, also ein kulturell-technisch-natürliches Hybrid, das uns andererseits

4

Projektleiter: Christoph auf der Horst

216 | A NDREA ZUR NIEDEN

durch die Reinigungspraxen bestimmter Diskurse wie etwa dem Gesundheitsdiskurs des 18. Jahrhunderts als ‚natürlich‘ und vorgängig erscheint. Im Sinne des erweiterten Cyborg-Begriffs, wie ihn Donna Haraway formuliert: „Im späten 20. Jahrhundert […] haben wir uns alle in Chimären, theoretisierte und fabrizierte Hybride aus Maschine und Organismus verwandelt, kurz, wir sind Cyborgs“ (Haraway 1995: 34),

würde ich also ergänzen: wir waren auch schon im 18. Jahrhundert fabrizierte Hybride, auch wenn dies durch Reinigungspraxen verschleiert wurde.

D ER HISTORISCHE K ONTEXT

DES

18. J AHRHUNDERTS

Der Kontext der analysierten Medien kann in dem gesehen werden, was Michel Foucault als Beginn der Biopolitik beschreibt: die Politik moderner Staaten zielte auf ein neues Objekt: die „Bevölkerung“, deren Gesundheitszustand mit verschiedenen Maßnahmen zu verbessern sei (Foucault 1976 [1992]). Eine davon war die „medizinische Polizey“, die auf die Kontrolle und Standardisierung von medizinischen Tätigkeiten zielte. Andere, wie die Bewegung der „medizinischen Volksaufklärung“, appellierten an die Selbstdisziplin der Einzelnen und zielten neben Hinweisen für Soforthilfen bei Unfällen vor allem auf neue oder wiederentdeckte Selbst-Techniken der Diätetik, also eine gesunde Lebensweise, die der Heilung und vor allem der Prävention von Krankheiten dienen sollte (Böning 1990a; 1990b). Was (mit gewissen Vorläufern in der antiken Welt) im 18. Jahrhundert begann, war die Produktion des aufgeklärten bürgerlichen Subjekts, das seinen Körper als sein Eigentum ‚hat‘ und auf dessen Gesundheit disziplinierend einwirken kann. Denn, wie Philipp Sarasin (2001: 19) schreibt: „Im Zentrum des hygienischen Diskurses steht der Glaube, dass es der oder die Einzelne weitgehend selbst in der Hand habe, über Gesundheit, Krankheit oder gar den Zeitpunkt des Todes zu bestimmen.“ Dieses Thema, stellt er in Übereinstimmung mit Gerd Göckenjan in „Kurieren und Staat machen“ (1985) fest, war „historisch so neu [...] wie die bürgerliche Kultur.“ Die Aufklärung postulierte also auch den „Ausgang eines Menschen aus seiner Unmündigkeit in Sachen, die sein körperliches Wohlergehen betreffen“ (wie es

N ATUR

UND

K ÜNSTLICHKEIT

IN DER

M EDIZIN

DER

A UFKLÄRUNG | 217

Osterhausen 17985 formuliert), wodurch jeder zum Herr seiner eigenen Gesundheit erklärt wurde. Die Bewegung des medizinischen Volksaufklärung war auf der einen Seite durch den professionspolitischen Wunsch der Ärzte inspiriert, ihren Beruf von anderen medizinischen Tätigkeiten durch Apotheker, Hebammen, Quacksalber oder Barbiere6 abzugrenzen, auf der anderen Seite durch humanistisches aufklärerisches Denken. Ziel war es, akademische Medizin gegen den Aberglauben zu verteidigen und sie auch der ländlichen Bevölkerung nahezubringen, deren schlechter Gesundheitszustand Gegenstand allgemeiner Klage war, also das bürgerliche Programm in noch breitere Schichten zu diffundieren (Loetz 1990; Böning 1990). Eine Vielzahl medizinischer Handbücher wurde von Ärzten herausgegeben und weit verbreitet. Viele von ihnen wollten explizit „den kleinen Landmann“ ansprechen, wie die berühmte in mehrere Sprachen übersetzte und zigmal wieder aufgelegte Schrift von Simon André Tissot „Avis au peuple sur la santé“. Unklar ist allerdings, wie weit die Verbreitung abgesehen von den Mittelschichten tatsächlich war. Anhand von Subskriptionslisten der Neuauflagen versucht Böning deren Breitenwirkung nachzuvollziehen. Die eigentlichen Adressaten tauchen dort nicht auf, aber häufig bestellten Priester oder Lehrer mehrere Exemplare und fungierten wahrscheinlich als Multiplikatoren, da sie in ländlichen Regionen, in denen kein Arzt anwesend war, oft um Hilfe konsultiert wurden (Böning 1990b: 43). Einige Bücher wie der „Gesundheitskatechismus“ von Johann Bernhard Faust (1792) wurden in Schulen eingesetzt, wo Kinder die Gesundheitsregeln auswendig lernen mussten. Auch Zeitschriften wie die „Moralischen Wochenschriften“, die als ein wichtiges Medium der Selbstreflexion des protestantischen Bürgertums in Deutschland gelten (Martens 1971), behandelten oft medizinische Fragen. Diätetik in der Tradition des Hippokrates und deren Weiterführung durch den griechischen Arzt Galen im zweiten Jahrhundert n. C. nahmen eine zentrale Rolle in den Schriften ein. In dieser Tradition können die sieben „res naturales“, nämlich die Elemente, die Temperamente, die Körperteile, die Körpersäfte, der Geist, die Fähigkeiten und die Handlungen, vom Einzelnen durch

5

Zitiert nach Loetz 1990: 189

6

Barbiere waren zu der Zeit nicht nur für Körperpflege und Wundheilung zuständig, sondern auch etwa dafür, zur Ader zu lassen oder Klistiere zu verabreichen.

218 | A NDREA ZUR NIEDEN

die Regulierung der „sex res non naturales“ beeinflusst werden, um Krankheiten zu verhindern. Die „sex res non naturales“ umfassen Luft und Licht, Ernährung, Bewegung und Ruhe, Wachen und Schlafen, Ausscheidungen und Gemütsbewegungen. Das zugrunde liegende Körpermodell war das humoralpathologische: Die Ausgewogenheit (Eukrasie) der vier Körpersäfte schwarze Galle, gelbe Galle, Blut und Schleim war gleichbedeutend mit der Gesundheit des Menschen. Störungen dieser Harmonie galten als Grund für Krankheiten, ihre Bekämpfung musste daher durch Gegenmittel das Gleichgewicht wieder herstellen. Die als „Diät“ bezeichneten allgemeinen Regeln der Lebensführung umfassten Ernährung, sportliche Betätigung und die Behandlung durch Bäder, Schwitzen und Erbrechen, um entweder präventiv die Körpersäfte im Gleichgewicht zu halten oder kurativ wieder in ein solches zu bringen. Hier wird schon der disziplinatorische Charakter des hippokratischen Programms sichtbar: wie Leanza (2009: 264f) darlegt, musste zunächst die „Kunst der Zeichendeutung“ gelernt werden, also „am Gegenwärtigen das Zukünftige“ (Hippokrates 1994: 286f), nämlich eine mögliche zukünftige Gesundheitsschädigung zu erkennen. Dann mussten das kognitive Wissen und die sich daraus ergebenden Gesundheitsregeln in eine individuelle Alltagspraxis übersetzt und entsprechend eingeübt werden.7 Dieses Programm richtete sich in der Antike allerdings vor allem an eine kleine Schicht wohlhabender und freier Bürger (Rosen 1957: 36). Elemente der hippokratisch-galenischen Tradition haben sich zwar durch das Mittelalter hindurch gehalten, sind aber von religiösen und astronomischen Diskursregeln überformt worden, und „erst seit der Aufklärung im neuen Kontext des bürgerlichen Zeitalters [entfaltete] das zentrale Element der Lehre der sex res, nämlich ihre Theorie des Subjekts, seine Dynamik“ (Sarasin 2001: 36). Denn entscheidend war, dass die „Position eines selbstbewusst die Umgebungsbedingungen im Hinblick auf seine Gesundheit regulierendes Subjekt auch eine Entsprechung im gesellschaftlichen Raum fand: bürgerliche Schichten, deren Angehörige diese Art bewusster Regulation der

7

Leanza stellt diese Arbeit der Einübung überzeugend am Beispiel von Autoren wie Faust und Hufeland, aber auch von der an Hufeland adressierten Schrift von Immanuel Kant: „Von der Macht des Gemüths durch den bloßen Vorsatz seiner krankhaften Gefühle Meister zu seyn“ (1798) dar.

N ATUR

UND

K ÜNSTLICHKEIT

IN DER

M EDIZIN

DER

A UFKLÄRUNG | 219

eigenen Lebensbedingungen und Verhaltensweisen als Teil ihrer Kultur begreifen konnten.“ (Sarasin 2001: 38)

Der Gesundheitsdiskurs wurde zum Diskurs des aufstrebenden Bürgertums, das sich zukunftorientiert durch „Mäßigkeit und Arbeit“ definierte und damit vom Adel und seinen überkommenen Privilegien abgrenzte.8 „Gesundheit konnte nun in Kategorien gefasst werden, die sich die Menschen selbst in der Form vernünftiger Moral und Lebensführung gesetzt hatten. Die Menschen sind von der Natur zur Gesundheit bestimmt“ (Labisch 1992: 98).

In Deutschland und Frankreich war diese Schicht, die sich eine dem hygienischen Programm gemäße differenzierte Aufmerksamkeit und Sorge um sich leisten konnte, erst seit dem 18. Jahrhundert existent. In England haben protestantische Sekten und Naturforscher wie Robert Boyle schon im 17. Jahrhundert die Lehre der sex res aufgegriffen (Sarasin 2001: 38): Derselbe große Experimentalwissenschaftler Boyle, auf den Latour die Trennung von Natur und Kultur zurückführt, beschäftigte sich auch mit der menschlichen ‚Natur‘, etwa mit dem Zusammenhang zwischen Umweltbedingungen und Krankheiten und den Möglichkeiten, diese zu beeinflussen. Im selben Zuge wie die sex res wurde auch die Lehre von der Heilkraft der Natur schon vom führenden Mediziner der Frühaufklärung, dem Leidener Arzt Hermann Boerhaave (1668-1738), wieder aufgenommen, aber auch in der französischen medizinischen Schule von Montpellier und von den französischen Enzyklopädisten (Diderot, d’Alembert u.a., vgl. Sarasin 2001: 39ff).

D AS P RIMAT

DER N ATUR AM AUSGEWÄHLTER S CHRIFTEN

B EISPIEL

Ich komme nun zur Analyse einiger Beispiele für das Primat des ‚Natürlichen‘ aus besonders populären deutschen Moralischen Wochenschriften bzw. Schriften der medizinischen Volksaufklärung. Die Zitate können als repräsentativ für das gesamte Genre angesehen werden, da sie in ähnlicher Form immer wieder in verschiedenen Schriften erscheinen.

8

Vgl. z.B. Labisch 1992: 102ff

220 | A NDREA ZUR NIEDEN

Typische Passagen bestehen etwa in der Formulierung „Vortheilhafter Gesundheitsregeln“ (Meier/Lange 1758: 348). Hier wird vor dem Missbrauch von Genussmitteln wie „Coffee, Toback, Wein und dergleichen“ gewarnt und weiter ausgeführt: „Meine Lebensordnung soll ganz natürlich, vernünftig und ungekünstelt seyn, und ich gründe sie auf die Kentniß natürlicher Dinge und auf eine lange Erfahrung.“ (Meier/Lange 1758: 348) Differenzierte Regeln werden bezüglich des Zeitpunktes und der Dauer des Schlafes und mäßiger Bewegung in der frischen Luft angegeben, und es wird empfohlen, nicht zu viel oder zu wenig zu essen und genug zu trinken (Meier/Lange 1758). Entgegen der Warnung mancher Ärzte vor frischem Obst wird festgehalten: „Vielmehr ist das Obst zu der Zeit, da es reif ist, eine von dem Schöpfer selbst verordnete Arzeney.“ (Meier/Lange 1758: 349) „Natürlich“ wurde also von „gekünstelt“ abgesetzt und im selben Atemzug mit „vernünftig“ genannt. Die Lebensordnung mit ihren detaillierten Regeln für die Gestaltung des Alltags ergab sich aus der „Kenntniss“ der Natur. Ebenso typisch wie diese Grundargumentation ist der Verweis auf den „Schöpfer“, da die Forderung nach einer natürlichen Lebenführung insbesondere in der englischen und deutschen Aufklärung häufig durch „weisen Absichten“ Gottes gerechtfertigt wurde. In der Tradition der seit dem 16. Jahrhundert entstandenen Physikotheologie9 wurde die Welt und auch der menschliche Körper als ein „Meisterwerk der Schöpfung“ (z.B. Unzer 1760:11) angesehen, in seiner harmonischen Perfektion sogar ein Beweis für die Existenz eines „weisen Schöpfers“ (z.B. Rahn 1782: 4ff). Diese weise Einrichtung gebietet bestimmte Verhaltensweisen und verbietet andere, denn: „Gott macht nicht sein Werk, damit ein Mensch es flicke. Für die Gesunden ist kein anderer vernünftiger Weg, gesund zu bleiben, als die gute Lebensordnung; keine frankfurter Hauptpillen, kein blutreinigendes Decoct, kein Aderlassen, nichts von dem allen! Es ist genug, daß dieses Kranke gebrauchen“ (Unzer 1760: 20).

9

Als Physikotheologie sieht man gemeinhin eine Bewegung an, die die mannigfaltigen Wunder der Natur als Beweis für die Existenz Gottes ansah und sich ausführlich der Erforschung dieser Wunder hingab. Dabei scheinen Frömmigkeit und Forscherdrang in eins zu gehen. In Deutschland wird sie etwa mit den Namen Johann Albert Fabricius, Christian Wolff oder Hermann Samuel Reimarus verbunden.

N ATUR

UND

K ÜNSTLICHKEIT

IN DER

M EDIZIN

DER

A UFKLÄRUNG | 221

Unzer spricht sich hier u. a. gegen die so genannten „Frühjahrskuren“, also das präventive Aderlassen und Purgieren (Abführen) nach dem Kalender aus, das bis dahin weithin üblich war. Anders als in mittelalterlichen Interpretationen von Krankheiten als direkte Interventionen von Gott, wurde in diesen Schriften meist in sehr abstrakter, deistischer Weise auf Gott verwiesen: Er hat einmal die Welt einschließlich der Naturgesetze geschaffen, und nun liegt es an den Menschen, ihnen zu folgen oder nicht. Auf diese Weise konnten die aufklärerischen Autoren im Einklang mit Religion und moderner Naturwissenschaft zur gleichen Zeit sein, auch wenn sie von der Kirche für ihre Distanz zur biblischen Offenbarung kritisiert wurden. Das genaue Verhältnis, in dem der Glaube an die biblische Schrift und ein naturwissenschaftlich unterlegter Vernunftglaube zu stehen haben, war ein wichtiger Gegenstand von Aushandlungsprozessen im Bürgertum, beispielsweise in den Moralischen Wochenschriften. Auf einen derart „gesperrten Gott“ geht auch Bruno Latour als eine weitere Garantie der Moderne ein: es konnte einen „Gott der Metaphysik“ geben, solange er „weder das freie Spiel der Natur noch der Gesellschaft störte“ (Latour 1998: 48). Allerdings sieht Latour m. E. „die Anwesenheit Gottes in der Natur“ (Latour 1998: 47) als wesentlich stärker „getilgt“ an, als das für die hier untersuchten deutschen Schriften der Fall ist: auf den göttlichen Ursprung wird allenthalben verwiesen, und das Primat des Natürlichen basiert letztlich auf der Autorität Gottes. Dies ist sicherlich anders etwa in der französischen Aufklärung, beispielsweise bei den Materialisten wie La Mettrie oder Diderot, die eine klare atheistische Haltung einnehmen. Die Schriften hoben Natur außerdem als „einfach und gut“ im Gegensatz zum Luxus hervor. Dieser moralische Naturalismus wurde oft kulturkritisch im Topos der Degeneration bzw. „Verderbtheit“ oder Dekadenz formuliert. So werden in positivem Bezug auf „das Tierreich“ „die Wilden“, oder die „alten Kulturen“ pathogene zivilisatorische Praktiken kritisiert, wie der Mangel an Bewegung an der frischen Luft, zu wenig Baden im (kalten) Wasser, „Einschnüren durch Schnürbrüste“, oder exotische Speisen. „Natürlich“ wird dabei mit „künstlich“ oder „verderbt“ kontrastiert, wie zum Beispiel in folgendem Zitat über die Korsagen in Mylius’ Wochenschrift „Der Naturforscher“:

222 | A NDREA ZUR NIEDEN

„Ich will heute der Schönen ihr Leibarzt seyn: [...] Mein Vorhaben ist, den großen Schaden zu zeigen, welchen die Schnürbrüste dem Frauenzimmer. [...] Sobald die zarten Kinder auf der Welt sind, wickelt man sie so enge ein, als es möglich ist. Anstatt dieses schon schädliche feste Einwickeln zu verbessern, legt man ihnen bald darauf den fischbeinernen Panzer, die Schnürbrust, an, und fährt fort, die zartesten Gliedmaßen an dem Leibe und die Eingeweide in demselben wider die Natur zusammen zu pressen.“ (Mylius 1748: 264)

Als Folgen der Einschnürungen beschreibt er: „Engbrüstigkeit, Herzklopfen, Bangigkeit, Angstschweiß, Ohnmachten und vornehmlich eine schlechte Vermischung des Nahrungssaftes mit dem Blute. […] Mangel des Appetits, Ekel, Verstopfung, Blähungen und alle diese anhängenden Uebel“, aber auch „Brüche“ oder die „englische Krankheit“10 (Mylius 1748.: 265ff). Interessanterweise gibt der Autor eine gewisse Ambivalenz gegenüber geschnürten Frauenkörper zu: „Ich gestehe sogar, dass ich selbst einen Gefallen daran habe; wiewohl dieses seinen Ursprung in dem allgemeinen verderbten Geschmacke haben kann. Das Alterthum hat große Schönheiten und keine Schnürbrüste gehabt. Man ist auch vor Alters so verliebt gewesen als itzo, und die Natur soll doch ordentlicher Weise dem Zwange der Kunst vorgezogen werden. Will man Puppen haben, so lasse man sich dieselben drechseln, und mache das Frauenzimmer nicht zu Puppen.“ (Mylius 1748: 277)

Das eigene Wohlgefallen beim Anblick Korsagen tragender Frauen lastet also letztlich dem durch Kultur verdorbenen Geschmack an und räumt der Natur gegenüber dem „Zwange der Kunst“ das Primat ein. Die weit verbreitete Kritik an den Schnürbrüsten wurde häufig auch mit dem Bild der Korsagen tragenden „edlen Damen“ verknüpft, kann also im Kontext der Abgrenzung gegen die Aristokratie gesehen werden. Derartige Entgegensetzungen mittels des Topos der Degeneration finden sich auch besonders häufig in „Der Arzt“ von Johann August Unzer (17591764), einer späten, sehr beliebten Wochenschrift, die sich auf medizinische Themen konzentrierte, sowie in seinem später daraus entwickelten „medizinischen Handbuch“ (1780). Er zeichnet hier etwa ein Bild von Bauernkindern, die nie krank seien, obwohl sie barfuß im Schnee spielten, während die

10 Frühere Bezeichnung der Rachitis, die mit Verformungen der Knochen eingeht.

N ATUR

UND

K ÜNSTLICHKEIT

IN DER

M EDIZIN

DER

A UFKLÄRUNG | 223

in Pelze gehüllten Kinder der Herrschaft krank aussähen, „mager und blaßgelb“ (Unzer 1780: 47). Gegen „das schädliche Vorurtheil wider die freye Luft“ ermahnt er seine Leser „sich, soviel als möglich, heraus, der Sonne entgegen, zu wagen, vor der sie sich, wie der Vogel der Minerva, verkriechen. Was unsre Züchtlinge, was unsere Gefangenen, was unsere Waysenkinder sind, die in der verdorbenen Luft ihre Gesundheit verwahrlosen müssen, das sind die meisten reichen, vornehmen und üppigen Leute aus Vorsicht. Blaßgelb, zärtlich, weiblich, cachektisch, übelriechend, schwach, krüpplicht, niedergeschlagen, von giftigen Säften durchschwemmt, zu Seuchen augenblicklich geschickt, sobald eine kleine Gelegenheit den Ausbruch veranlaßt, stets elend, stets ohne Appetit, ohne Muth, ohne Genuß, ohne Gesundheit, und, was ist dies mehr? Ohne Leben. Dieses alles sind wir durch unsere Kunst, durch den Fleiß, womit wir uns bemühen, der Gesundheit zu entfliehen, durch das Vorurtheil in allen vier Elementen.“ (Unzer 1780: 42)

Gelegentlich wird der Topos der Degeneration auch in Verbindung mit der Vererbung schlechter Merkmale bemüht: „Man vergleiche nur die Bauern und gemeinen Kinder mit unseren vornehmen und Bürgerkindern, deren Eltern schon selbst aus schlechten Saamen gezeugt worden, und sich durch die Gewalt der Leidenschaften und ein üppiges Leben noch mehr geschwächt haben.“ (Rahn 1782: 48)

Ein weiteres häufiges Thema ist die „Heilkraft der Natur“, die nicht behindert werden solle. Gemäß dem allgemeinen Tenor der medizinischen Volksaufklärung, neben der Aufklärung über grundlegende Hygienevorschriften und einfache Methoden zur Bekämpfung von Krankheiten auch vor Fehlbehandlungen durch Apotheker und Quacksalber zu warnen (Böning 1990b), werden die Quacksalber oft beschuldigt, die „guten Wirkungen der Natur“ mit ihrer Behandlung zu behindern (z.B. Fahner 1785: 20). Aber das Lob des natürlichen Lebens bedeutete nicht, völlig der Kultur zu entsagen oder zu einer ursprünglichen Primitivität zurückzukehren: „Es ist wahr, wir müßten wieder Barbaren werden, wie sie waren, wenn wir ihnen hierinn völlig nachahmen wollten. Allein, wer wehret es uns, eine Mittelstraße zu treffen?“ (Unzer 1780: 21) Es existierten also trotz des Vorrangs und der Autorität der Natur auch „kooperative Modelle“ (Daston/Pomata

224 | A NDREA ZUR NIEDEN

2003: 9) von Natur und Kultur. So stellt Unzer zum Beispiel über die Muttermilch fest, sie sei „die Nahrung welche die Natur den Kindern zubereitet“ und „man muss nie ohne Not von der Ordnung der Natur abweichen“ (Unzer 1780: 29ff), aber in Ausnahmefällen sei es legitim, eine gute Amme zu suchen oder das Kind zum Wohle der Mutter mit anderen Lebensmitteln zu ernähren (Unzer 1780). Ferner wird an einigen Stellen der Begriff ‚Natur‘ schlicht im Sinne von ‚körperlicher Verfassung‘ gebraucht, die nicht als unveränderlich, sondern sehr dynamisch angesehen wird, wie in dem folgenden Zitat aus der Wochenzeitung „Der Mensch“ von Meier/Lange 1751-56: „Bey der Zeit, wenn man essen und trinken soll, kommt es auch vornehmlich auf die Gewohnheit an. Die Natur richtet sich endlich nach der Zeit, in welcher man es sich angewöhnet hat zu essen und zu trinken.“ (Meier/Lange 1751-56, 221. St.: S. 43)

Sarasin arbeitet heraus, dass selbst jene Autoren, die sich auf Rousseaus Konzept des ‚Naturzustandes‘ bezogen, wie Johann Bernhard Faust oder Christoph Wilhelm Hufeland in seiner berühmten Schrift „Die Kunst, das menschliche Leben zu verlängern“ (1797), sich bewusst sind, dass das Menschsein die „Verbesserung“ der Natur erfordere. Man solle sich nicht an der „Classe der Thiermenschen“, sondern an der „Classe, wo durch Entwicklung und Kultur der Mensch ein vernünftiges, wirkliches menschliches Wesen geworden ist“ (zitiert nach Sarasin 2001: 49), ein Beispiel nehmen. Er folgert daraus, die Autoren der Aufklärung sähen die menschliche Natur als eine „künstliche Natur“, eine verbesserte und vernünftig geschaffene Natur: „Der hygienische Körper ist nicht ‚Natur‘, sondern Effekt eines Diskurses, der als ‚vollkommene Kunst‘ Natürlichkeit inszeniert, ja sie im Kontext der entstehenden industriellen Welt erfindet. So, das heißt von Vernunft geleitet, wie die Aufklärer sagen, ist dieser Körper erst wirklich Mensch.“ (Sarasin 2001: 49)

S CHLUSSBEMERKUNG Die letzte Feststellung von Sarasin mag für einige Werke der Aufklärung richtig sein, aber in den meisten Publikationen, die wir untersucht haben ist

N ATUR

UND

K ÜNSTLICHKEIT

IN DER

M EDIZIN

DER

A UFKLÄRUNG | 225

die ‚Konstruiertheit‘ der Natur höchstens analytisch herauszuarbeiten, explizit wird Natur gerade der Kunst entgegengestellt – wenn auch nicht der Vernunft. Für den Mainstream des deutschen bürgerlichen Diskurses des 18. Jahrhunderts ist, inspiriert durch die Physikotheologie, die Vernunft in der Natur, aber weil sie von Gott, dem weisen Schöpfer geschaffen wurde. Als ‚Kunstnatur‘ ist sie höchstens durch Gott, nicht durch den Menschen konstruiert. Die menschliche Lebensordnung wird vernünftig und natürlich sein, wenn sie dieser moralischen Autorität folgt. Dies ist etwa in den Schriften der atheistischen französischen Materialisten sicherlich anders, und Sarasin unterscheidet in diesem Punkt leider nicht zwischen diesen verschiedenen Bewegungen. Aus unserer analytischen Perspektive aber ist es angesichts der zitierten Texte offensichtlich, dass lange vor dem Zeitalter der Cyborgs der ‚Technosciences‘ mit ihren technischen Körperschnittstellen, Implantaten und biotechnologischen Optimierungen, Kultur die so genannte ‚Natur‘ des Menschen mit hervorgebracht hat – und die Natur-Kultur-Dichotomie somit konstruiert ist. Das neo-hippokratische Programm ist hochgradig historisch und ‚künstlich‘, da es ein Programm der bewussten Selbst-Disziplinierung des Körpers darstellt, mit Regeln für jede Situation des Lebens, eine neue Art des Umgangs mit dem eigenen Körper als Objekt. Im Sinne Donna Haraways (1995) sind wir damit schon längst Cyborgs. Und doch wird das künstliche Produkt dieses Prozesses, ein Hybrid aus Kultur und Naturstoff, durch die diskursiven Reinigungspraxen, die das ‚Kulturelle‘ dieses Prozesses tilgen, als unsere ‚innere Natur‘ wahrgenommen. Mit Bruno Latour können wir sagen, „Wir sind nie modern gewesen“: Obwohl es Teil der Verfassung der Moderne ist, dass die natürliche Welt und die kulturelle Welt getrennt sind, dass die Natur als nicht durch uns konstruiert und die Gesellschaft als unsere freie Konstruktion gilt, waren in der Tat die beiden Welten nie getrennt: es gab immer Hybride und die Arbeit der Vermittlung zwischen den Welten, die durch die Arbeit der Reinigung unsichtbar gemacht werden sollte (Latour 1998: 46, 50, 66). Latour konzentriert sich auf die Wissenschaften von der äußeren Natur: hier entstand das Paradigma, dass die im Laborexperiment unter isolierten Bedingungen hergestellten Fakten als repräsentativ für die Naturwelt gelten. Er benennt das Paradox, dass es trotz unserer Konstruktion im Labor so sei, als konstruierten wir die Fakten nicht, sondern entdeckten sie. Im Lichte der in den letzten Abschnitten zitierten Schriften lässt sich für die ‚innere Natur‘, den gesunden

226 | A NDREA ZUR NIEDEN

Körper ergänzen: obwohl wir sie ebenfalls in den täglichen präventiven Strategien konstruieren, mit denen wir auf uns selbst als Körper beziehen, ist es, als entdeckten wir sie gegründet auf „Kentniß natürlicher Dinge und auf eine lange Erfahrung“ (Meier/Lange 1758: 348). Eine Wirkung der Reinigung war es, wie Latour sagt, dass die Hybriden, Cyborgs und Monster verschleiert wurden. So schaffte auch die „natürliche Lebensordnung“ – in Abgrenzung zu künstlichen Korsagen entwickelt, die „Frauen zu Puppen“ (Mylius) machen – ein neues Korsett einer durchgeregelten rationalisierten Alltagspraxis, die uns zur zweiten Natur geworden ist, aber wie die ‚erste‘ empfunden wird. Die Naturalisierung, die Reinigung von ihren kulturellen Anteilen, hat neben der Verschleierung aber auch die Funktion der moralischen Legitimierung dieser bürgerlichen Körperkonstruktion. Natürlichkeit wird produziert als Möglichkeit der Legitimierung biopolitischer Selbstdisziplin.

L ITERATUR Böhme, Gernot (1992): Natürlich Natur. Über Natur im Zeitalter ihrer technischen Reproduzierbarkeit. Frankfurt am Main: Suhrkamp. Böning, Holger (1990a): Einführung in den 1. Teil. S. XIX-IL in: Holger Böning und Reinhart Siegert (Hrsg.): Volksaufklärung. Biobibliographisches Handbuch zur Popularisierung aufklärerischen Denkens im deutschen Sprachraum von den Anfängen bis 1850, Bd.1. Stuttgart/Bad Cannstatt: Frommann-Holzboog. Böning, Holger (1990b): Medizinische Volksaufklärung und Öffentlichkeit. Internationales Archiv für Sozialgeschichte der deutschen Literatur 15: 1-92. Daston, Lorraine/Pomata, Gianna (2003): The Faces of Nature in Enlighenment Europe. Berlin: Berliner Wissenschaftsverlage. Fahner, Johann Christoph (1785): Magazin für die gesammte populäre Arzneykunde besonders für die sogenannten Hausmittel. Frankenhausen: Cölerischen Officin. Faust, Johann Bernhard (1792): Gesundheits-Katechismus: Zum Gebrauche in den Schulen und beym häuslichen Unterrichte. Stuttgart. Foucault, Michel (1976 [1992]): Leben machen und sterben lassen: Die Geburt des Rassismus. In: Ders.: Bio-Macht. Duisburg: DISS-Verlag.

N ATUR

UND

K ÜNSTLICHKEIT

IN DER

M EDIZIN

DER

A UFKLÄRUNG | 227

Göckenjan, Gerd (1985): Kurieren und Staat machen. Gesundheit und Medizin in der bürgerlichen Welt. Frankfurt am Main: Suhrkamp. Haraway, Donna (1995): Ein Manifest für Cyborgs. In: Dies.: Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen. Frankfurt: Campus Hippokrates (1994): Die Regelung der Lebensweise. S. 270-324 in: Diller, Hans (Hrsg.): Hippokrates. Ausgewählte Schriften. Stuttgart: Reclam. Latour, Bruno (1998): Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. Frankfurt am Main: Fischer Leanza, Matthias (2009): Kants Schlafgewohnheiten: Krankheitsprävention als Selbsttechnologie. Sociologia Internationalis 47 (2): 259-285. Loetz, Francisca (1990): Leserbriefe als Medium ärztlicher Aufklärungsbemühungen: Johann August Unzers „Der Arzt. Eine medizinische Wochenschrift“ als Beispiel. S. 189-204 in: Kümmel, Werner Friedrich (Hrsg.): Jahrbuch des Instituts für Geschichte der Medizin der Robert Bosch Stiftung. Stuttgart: Hippokrates Verlag. Luhmann, Niklas (1995): Gesellschaftsstruktur und Semantik. Frankfurt am Main: Suhrkamp. Martens, Wolfgang (1971): Die Botschaft der Tugend. Die Aufklärung im Spiegel der deutschen Moralischen Wochenschriften. Stuttgart: Metzler. Meier, Georg Friedrich/Lange, Samuel Gotthard (1758): 138. Stück. Das Reich der Natur und der Sitten, Jg. 1958. Mylius, Christlob (1748): 35. Stück. Der Naturforscher, Jg. 1748. Rahn, Johann Heinrich (1782): Naturgeschichte des Menschen. In: Rahn, Joh. Heinrich (Hrsg.): Gazette de santé Oder gemeinnütziges medicinisches Magazin für Leser aus allen Ständen und zum Besten einer PrivatAnstalt für Arme Kranke (1782-1785), 1. Jg. Rosen, George (1957): A History of Public Health. New York. Sarasin, Philipp (2001): Reizbare Maschinen, Eine Geschichte des Körpers 1765-1914. Frankfurt am Main: Suhrkamp Unzer, Johann August (1760): Der Arzt: Eine medizinische Wochenschrift. Erster Theil. Zwote Auflage. Hamburg.

Kulturelle Monster beherrschen 1 Erkundungen zur Einführung prädiktiver Gentests E DUARDO A. R UEDA

In der Medizin wird der Begriff der Unsicherheit in der Regel im Sinne von Risiken verwendet. Durch Technologien wie PGT (Prädiktiven Gentests) werden Unsicherheiten hinsichtlich der Rolle von Genen für die zukünftige Gesundheit und dem Nutzen von Gentests außerdem in messbare und oft kontrollierbare Risiken umgewandelt. Solche Gentests sind bekanntermaßen darauf ausgerichtet, in einem gesunden Individuum festzustellen, ob er oder sie ein fehlerhaftes Gen geerbt hat und daher gefährdet ist, bestimmte Krankheiten zu entwickeln oder auch in bestimmter Weise auf Medikamente zu reagieren. Sowohl kognitiver Reduktionismus (durch den von vielen weiteren möglichen Unsicherheiten abgesehen wird mit dem Ziel, eine auf einen bestimmten Bereich der Gesundheit begrenzte Zukunft vorherzusagen) als auch technologischer Optimismus bezüglich der prädiktiven Leistungsfähigkeit spielen bei der Transformation von Unsicherheiten in messbare und kontrollierbare Risiken eine Rolle. In Hinblick auf die Unsicherheiten bei der Einführung einer bestimmten Biotechnologie implementieren verantwortliche Institutionen Strategien, um diese Unsicherheiten in einer Weise einzugrenzen, die sie beherrschbar machen (Wynne 2001). Dieser Bändigungsvorgang konzentriert sich entweder

1

Der Beitrag von Eduardo A. Rueda ist aus dem Englischen von Lys Hager und Verena Keysers übersetzt worden.

230 | E DUARDO A. RUEDA

darauf, Unsicherheiten auszutreiben oder sie erkenntnistheoretischen Gewohnheiten anzupassen (Smits 2004). Smits zufolge bewältigen Institutionen Phänomene, die in zwei sich kognitiv ausschließende Kategorien passen (z.B. Wissen/Nichtwissen oder Fakten/Werte) mithilfe defensiver Strategien. Ein solches Phänomen beschreibt Smits (in Anschluss an M. Douglas) als kulturelles Monster, da es sowohl kognitives Unbehagen als auch Faszination auslöst. Solange die Unsicherheit sowohl in die Kategorie des Wissens als auch des Nichtwissens passt, stellt sie ein kulturelles Monster dar, welches eine Bedrohung darstellt für „a symbolical order in which science is seen as the producer of authoritative objective knowledge“ (Van der Sluijs 2006). Um dieses Monster zu beherrschen, mobilisieren Institutionen ihre symbolischen Kräfte in strategischer Weise: Wo exorzierende Strategien versuchen, die Unsicherheiten auszutreiben, versuchen anpassende Strategien das Unsicherheitsmonster wieder in die Kategorien einzupassen. Damit versuchen beide Strategien zum einen, den Glauben an die Macht der Wissenschaften zu bestärken, Unsicherheiten auflösen und kontrollieren zu können, zum anderen einige davon zu verbergen oder zu verringern. In einem ersten Schritt soll in dem hier vorliegenden Beitrags gezeigt werden, wie Unsicherheit theoretisch gefasst werden sollte (1). In einem zweiten Schritt werden drei Dimensionen von Unsicherheit beschrieben – sowohl in Hinblick auf die Rolle von Genen bei der Krankheitsentwicklung, als auch in Hinblick auf den Nutzen, der sich für Patient_innen ergibt, die sich prädiktiven Gentest unterziehen (2). Abschließend soll auf die Ansätze eingegangen werden, die Institutionen wählen, um Unsicherheiten zu bändigen (3).

1. Ü BER U NSICHERHEITEN Obwohl Unsicherheit immer wieder als Situation verstanden wird, in der das Wissen über einen Sachverhalt als ungenau, unzuverlässig oder fast fehlend beschrieben werden kann, ist es nützlicher, wie Walker et al. darlegen, Unsicherheit als multi-dimensionales Konzept zu verstehen, welches Bezug nimmt auf die „deviation from the unachievable ideal of completely deterministic knowledge of the relevant system“ (Walker et al. 2003: 5). Demnach stellt Unsicherheit eine kognitive Situation dar, die nicht zwangsläufig mit einem Mangel an Wissen einhergeht (Walker et al. 2003). Tatsächlich kann

K ULTURELLE M ONSTER

B EHERRSCHEN

| 231

steigendes Wissen Unsicherheit sowohl verringern als auch vergrößern (vgl. Walker et al. 2003: 8). Anstatt Unsicherheit als kognitive Situation zu begreifen, die nur dann aufkommt, wenn bei einer bestimmten Menge von Inputs unvollständiges Wissen über Zukunftsszenarien besteht, wie Hansson (1996) und Vlek (1987) in ihren klassischen Beiträgen bemerken, haben Walker et al. (2003) dazu beigetragen das Spektrum dessen, was Unsicherheit bedeutet zu erweitern. Aus ihrer Sicht sollten unvermeidliche theoretische Unsicherheiten über die grundlegenden Annahmen, die der Erkundung komplexer Situationen vorausgehen, sowie Unsicherheiten über das Wesen von Unsicherheit an sich zu den Unsicherheiten über Zukunftsszenarien, die Hansson und Vlek beschreiben, hinzugezählt werden. Die von Walker et al. vorgeschlagenen Dimensionen der Unsicherheit sind demnach: Der Bereich der Unsicherheit, welcher mit der theoretischen Basis zu tun hat, die potenzielle Folgerungen bezüglich des Verhaltens eines Systems begründet. Diese Dimension beinhaltet in der Regel wichtige Zweifel in Bezug auf die Art, in der Forscher beim Design eines Modells bestimmte Bestandteile über das Verhalten eines Systems verstehen sollten. Das Wesen der Unsicherheit, welches mit der Ontogenese der Unsicherheit selbst zusammenhängt. Walker et al. (2003) zufolge kann Unsicherheit aus der Unvollkommenheit verfügbaren Wissens entstehen, oder aus der dem Zielsystem inhärenten Variabilität. Das Wesen der Unsicherheit zu bestimmen ist wichtig, um spezifische Unsicherheiten adressieren zu können. Falls Unsicherheit also aus erkenntnistheoretischen Gründen entsteht, ist dies ein Grund um Forschungsprogramme zu verstärken. Ist die Unsicherheit jedoch in der inhärenten Variabilität eines Systems begründet, muss akzeptiert werden, dass eine erkenntnistheoretische Reduktion der Unsicherheit nicht möglich ist. Das Ausmaß der Unsicherheit, was sich auf den Standort bezieht, an dem wir unseren Erkenntnisstand auf dem „spectrum between deterministic knowledge and total ignorance“ (Walker et al. 2003: 8) ansiedeln können. Das Nächste zum Ideal deterministischen Wissens auf diesem Spektrum ist statistische Unsicherheit. Weiter von diesem Punk entfernt sind die Szenarienunsicherheit und die bekannte Unwissenheit. Während die statistische Unsicherheit sich auf jede Art von Unsicherheit bezieht, die in angemessener Weise quantitativ dargestellt werden kann, bezieht sich

232 | E DUARDO A. RUEDA

Szenarienunsicherheit auf die plausiblen Resultate in der Zukunft, die, ohne Wissen über spezifische Wahrscheinlichkeiten, prinzipiell möglich wären. Bekannte Unwissenheit bedeutet, dass Wissenschaftler_innen über keinerlei Wissen über das Verhalten eines Systems verfügen, das eine Voraussage dessen, was in Zukunft passieren könnte ermöglichen würde (Walker et al. 2003).

2. U NSICHERHEITEN DER N UTZUNG PRÄDIKTIVER G ENTESTS In der klinischen Genetik ist es möglich die oben genannten drei Dimensionen der Unsicherheit zu bestimmen. Diese Bestimmung erlaubt es uns, ein umfassendes Bild der Unsicherheiten zu gewinnen, die sich sowohl bei der Rolle von Genen für die Krankheitsentstehung als auch dem Nutzen prädiktiver Gentests für Patient_innen abzeichnen. 2.1 Kausale Unsicherheiten Solange Gene entweder als ‚Controller‘ oder ‚Interaktoren‘ verstanden werden können, treten theoretische Unsicherheiten über die grundlegenden Konzepte auf, die das Verständnis der Rolle von Genen in der Krankheitsentstehung leiten sollten. Stolz et al. haben kürzlich gezeigt, dass Molekularbiologen ein Konzept der Genfunktionalität entweder in Form „determinierender phänotypischer Ergebnisse“ oder „Kodierung für die Primärstruktur eines Proteins“ bevorzugen. Entwicklungsbiolog_innen hingegen unterstützen ein abweichendes Konzept, demnach die Rolle von Genen „providing a developmental resource, on a par with epigenetic and environmental resources, for the construction of the organism“ ist (Stolz et al. 2004: 667). Während Molekularbiolog_innen Gene als ‚Controller‘ wahrnehmen, verstehen Entwicklungsbiolog_innen sie lieber als ‚Interaktoren‘. Moss bezeichnete die Auffassung von Molekularbiologen als ‚Gen-P‘, während er die Formel von entwicklungsbiolog_innen als ‚Gen-D‘ benennt: „Gene P is the expression of a kind of instrumental preformationism […]. When one speaks of a gene in the sense of Gene-P one simply speaks as if it causes the phenotype [...]. A Gene-D is a specific developmental resource, defined by its specific molecular

K ULTURELLE M ONSTER

B EHERRSCHEN

| 233

sequence and thereby functional template capacity and yet is indeterminate with respect to ultimate phenotypic outcomes.“ (Moss 2001: 87-88)

Die Vorstellung von Genen als entweder ‚Controller‘ oder ‚Interaktoren‘ sollte jedoch nicht als Frage wissenschaftlicher Überprüfung verstanden werden, sondern der Forschungsausrichtung: Gene sind „targets of research rather than something with which research is acquainted“ (Stolz 2004: 649; Rheinberger 1997). Daher sollten die Ansätze eher als erkenntnistheoretische Wahl denn als Frage ontologischer Beweisführung verstanden werden. Auf der anderen Seite können Expert_innen Unsicherheiten bezüglich der Rolle von Genen in der Krankheitsentstehung entweder als erkenntnistheoretisches Problem angehen, welches mit weiterer Forschung gelöst werden kann, oder als den widerspenstig-komplexen biologischen Systemen inhärent ansehen. ‚Gen-P‘-Expert_innen verstehen diese Unsicherheiten in der Regel als erkenntnistheoretische, während ‚Gen-D‘-Expert_innen sie eher als ‚den biologischen Systemen inhärent‘ ansehen. Das bedeutet, dass während die erste Gruppe meint, „final evidence for the involvement of genes in human diseases must come from extensive epidemiological studies“ (Peltonen/McKusick 2001: 1224), denkt die zweite Gruppe, dass Versuche „[to] assess the possible consequences of the unruly complexity arising from the genes’ intersecting and interacting dynamics [with non-genetic factors] frequently will be doomed to failure“ (Nunes 2004: 3). Die Intensivierung der Forschung scheint die Umwandlung vieler der statistischen Unsicherheiten (bezüglich der Bedeutung von Genen für die Krankheitsentwicklung) in Szenarienunsicherheiten voranzutreiben (Colhoun et al. 2003). Sobald statistische Ergebnisse über diese Rolle wiederholt nicht von einer Studie zur anderen reproduziert werden können, wird das Wissen über wahrscheinliche Szenarien zunehmend zu dem über lediglich Mögliche. Die Komplexität biologischer Systeme scheint zunehmend unzähmbar.2

2

Obwohl einige statistische Werkzeuge in letzter Zeit entwickelt wurden, um mit biologischer Komplexität umgehen zu können, ist offenkundig, dass „increasing the complexity of statistical models decreases the precision of their products“ (Van der Slijs 2006: 73). Tatsächlich haben selbst Epidemiologen anerkannt, dass diese Modelle daher „far have limited applications in epidemiological studies“ (Khoury et al. 2004: 942).

234 | E DUARDO A. RUEDA

2.2 Medizinische und psychologische Unsicherheiten Medizinische und psychosoziale Unsicherheiten entstehen in Bezug auf die Vor- und Nachteile sich einem Test zu unterziehen. Während viele der medizinischen Unsicherheiten häufig die Form von statistischen Unsicherheiten angenommen haben, äußern sich die meisten der psychosozialen Unsicherheiten als Szenarienunsicherheiten. 2.2.1 Medizinische Unsicherheiten Medizinische Unsicherheiten entstehen insbesondere in Hinsicht auf die Zuverlässigkeit der Risikoabschätzung im Pre-Test, der Validität und Reliabilität positiver Tests und der Effektivität der verfügbaren Behandlungsmöglichkeiten und Präventionsstrategien. a.

Zuverlässigkeit der Pre-Test Risikoabschätzung

Die Abschätzung des Risikostatus potenzieller Kund_innen für prädiktive Gentests ist entscheidend, um institutionelle Ressourcen angemessen zuteilen zu können (Prior 2001). Solange es unterschiedliche Methoden gibt um verschiedene Risikofaktoren abzuwägen, werden die jeweiligen Schlussfolgerungen bezüglich des Pre-Test-Risikostatus eines potenziellen Kandidaten oder einer potentiellen Kandidatin je nach Methode abweichen, für die sich die Expert_innen entschieden haben. Prior entdeckte in seiner Forschung „that the proportion of women allocated to a high risk (of breast cancer) category varied markedly – from 0.27 using one method, against 0.53 for a second method. A third method allocated only 0.14 of the high risk category“ (Prior 2001: 583).

Da der Mangel an Konvergenz bei verschiedenen Methoden in der Regel von der Art abhängt, wie Institutionen und Expert_innen verschiedene relative Gewichte auf die unterschiedlichen Risikofaktoren verteilen, gibt es enorme Unsicherheit bezüglich des Modells, welches zur Risikoabschätzung in PreTest-Szenarien eingesetzt werden sollte.

K ULTURELLE M ONSTER

b.

B EHERRSCHEN

| 235

Validität und Reliabilität positiver Tests

Einige Unsicherheiten haben sich bezüglich der Validität und Reliabilität positiver Tests ergeben. Evans et al. haben die ungewisse Bedeutung eines positiven Tests beleuchtet, der ein Gen identifiziert, das mutmaßlich mit einer bestimmten Krankheit zusammenhängt: „A positive test […] always contains a substantial component of uncertainty, not only about whether a specific condition will develop, but also about when it may appear and how severe it will be.“ (Evans et al. 2001: 1053)

Darüber hinaus können Zusammenhänge zwischen Genen und Krankheiten häufig nicht von einer Studie zur nächsten reproduziert werden. Beispielsweise, „the initial positive associations between the G460 polymorphism of alpha-adducin and hypertension have not been replicated by other studies“ (Colhoun et al. 2003: 865). In gleicher Weise haben Studien, die dazu entwickelt wurden Zusammenhänge zwischen genetischen Polymorphismen und Krankheiten wie Schizophrenie, Autismus, bipolaren Störungen, multipler Sklerose und einigen Formen von Krebs nachzuweisen, oft schwache oder widersprüchliche Ergebnisse produziert (Wilkie 2001). Selbst Gene wie BRCA1 und BRCA2, die als nützliche Indikatoren zur Vorhersage von Brust- und Gebärmutterkrebs gelten, zeigen in den verfügbaren Studien sehr unterschiedliche Level statistischer Bedeutsamkeit. Während der Anteil der Träger_innen, die Brustkrebs entwickeln, sich in den Studien zwischen 36% und 85% bewegt, schwankt der Anteil derer, die Gebärmutterkrebs entwickeln, zwischen 10% und 44% (Antoniou et al. 2000). Das Bild wird bei pharmakogenetischen Tests noch komplizierter, da die Anfälligkeit für bestimmte Nebenwirkungen bei einem Medikament möglicherweise mit der Anfälligkeit für bestimmte toxikologische Krebsarten zusammenhängt (Netzer/Biller-Andorno 2004). Wie Wilkie zurecht angemerkt hat, „the ‚oligogenic model‘, which causally links a gene with a disease, looks increasingly unlikely“ (Wilkie 2001: 624). Tatsächlich zeigen die meisten „oligogenetischen“ prädiktiven Gentests nur geringe klinische Validität (prädiktiven Nutzen).3 Ausnahmen zu

3

Obwohl Kopplungsanalysen, welche benutzt werden um statistische Zusammenhänge zwischen polymorphen Variationen eines Gens und einer Krankheit zu

236 | E DUARDO A. RUEDA

dieser Regel sind Chorea Huntington, multiple endokrine Neoplasie Typ 2, Phenylketonurie, Familiäre adenomatöse Polyposis und erbliche Hämochromatose. Prädiktive Gentests für komplexe Krankheiten wie Bluthochdruck, Diabetes, Krebs und Herz-Kreislauf-Erkrankungen fallen wie viele andere in die Kategorie geringer klinischer Validität. Dieser Umstand wirft viele Unsicherheiten bezüglich ihrer medizinischen Brauchbarkeit auf (Burke et al. 2001). c.

Effektivität von Behandlungsmöglichkeiten und präventiven Strategien

Natürlich richtet sich die klinische Nützlichkeit dieser Technologie nicht nur nach ihrer Validität oder statistischen Reliabilität, sondern auch nach der Verfügbarkeit entweder effektiver Behandlungsmethoden oder präventiver Maßnahmen für die betreffenden Krankheiten/Arzneimittelreaktionen. In den meisten Fällen sind die Behandlungsmöglichkeiten nicht eindeutig wirksam oder gar sicher. Zum Beispiel kann präventiver Aderlass in Patient_innen, die „genetisch anfällig“ für Hämochromatose sind, unnötige Nebenwirkungen hervorrufen, weil ein bedeutender Anteil der Genträger_innen die Krankheit nie entwickelt. Auch die Prävention wird durch das Testen nicht zwangsläufig verbessert. Der Nachweis von BRCA1 und/oder BRCA2 beispielsweise bedeutet keinesfalls bessere Kontrolle bei Patient_innen über 40, da regelmäßige Mammographien für Frauen bis 40 empfohlen werden. Die Früherkennung dieser Gene würde nur dann Sinn ergeben, wenn die getesteten eine Mastektomie und/oder eine Ovariektomie bereits als präventive, wenn auch riskante Maßnahme in Betracht gezogen haben (Evans et al. 2001).

finden, für die meisten Krankheiten bisher keine relevanten und konsistenten Zusammenhänge gefunden haben, wenden Verfechter des möglichen Nutzens genetischer Profile ein, dass durch die Verbindung der Anfälligkeiten, die durch einzelne Gene verliehen werden eine größere Vorhersagekraft erlangt werden kann. Allerdings haben die genetische Epistase, welche in der additiven, multiplikativen oder effektlosen Interaktion zwischen zwei oder mehr Loci besteht, und die genetische Pleiotropie, die darauf verweist, dass einzelne Gene in der Regel mehrere Funktionen aufweisen, die statistische Unsicherheit (in Form falsch-postiver und falsch-negativer Fehler) über die möglichen Effekte eines kombinierten Genotypen noch erhöht (Wilkie 2001/Khoury et al. 2004).

K ULTURELLE M ONSTER

B EHERRSCHEN

| 237

2.2.2 Psychosoziale Unsicherheiten Psychosoziale Unsicherheiten zeigen sich in Hinblick auf die psychologischen, verhaltensbezogenen und sozialen Nebenwirkungen, die präventive Gentests in Patient_innen oder ihren Verwandten verursachen könnten. a.

Negative emotionale Auswirkungen eines positiven Tests

Es gibt beträchtliche Belege für negative psychologische Auswirkungen, die positive Testergebnisse bei erwachsenen Patient_innen mit sich bringen können (Broadstock et al. 2000). Michie et al. (2001; 2005) zeigten, dass ein wesentlicher Anteil der Patient_innen (43%) unter Depressionen und/ oder Angstgefühlen leiden, nachdem sie ein positives Testergebnis erhalten haben. Auch Kinder erweisen sich nach einem positiven Testergebnis als ängstlicher und/oder depressiver (Michie et al. 2001). Darüber hinaus scheinen die Symptome nicht abzunehmen, wenn Ärzt_innen die Erklärungen über die klinische Bedeutung sowohl im Pre-Test als auch im Post-Test erhöhen; zum Beispiel indem sie das genetische Risiko mit anderen Risikofaktoren vergleichen (Lerman et al. 2000), was daran liegt, dass psychologische Faktoren offenbar einen größeren Einfluss auf die Entstehung dieser Symptome haben: Beispielsweise das Selbstwertgefühl der Patient_innen, ihr Optimismus und das Gefüge ihrer Überzeugungen über Gene, Vererbung und Gentests (Michie et al. 2005). Patient_innen negative Auswirkungen der Gewissheit über einen positiven Gentest im Voraus abschätzen zu lassen erweist sich ebenso wenig als zuverlässig, da Patient_innen oft dazu neigen, ihre eigenen emotionalen Reaktionen zu unterschätzen (Lessick et al. 2001). Diese Umstände führen dazu, dass man nur schwer einschätzen kann, ob Patient_innen unter Angstgefühlen und/oder Depressionen leiden werden, falls ein positives Testergebnis fällt. Wieder herrscht Unsicherheit. b.

Kontraproduktives Selbstfürsorgeverhalten

Es gibt Hinweise darauf, dass das Wissen über eine genetische Anfälligkeit für bestimmte Arten von Krebs (Brust- und Darmkrebs), nicht unbedingt dazu führt, dass Patient_innen Vorsorgeuntersuchungen oder -behandlungen stärker in Anspruch nehmen. Im Gegenteil scheint die Bereitschaft sogar

238 | E DUARDO A. RUEDA

zu sinken (Evans/Marteau 2001). Solange viele Patient_innen genetische Veranlagungen als unveränderbare Zustände verstehen, kann das Wissen um sie sich kontraproduktiv auswirken. Zum Teil stellt sich ein gewisser Fatalismus ein, der in dem Glauben begründet ist, Erbanlagen seien unabänderlich, was die Motivation verringert, ungesunde Lebensweisen zu ändern (wie Rauchen oder der Verzehr gesättigter Fettsäuren). Lessick et al. (2001) haben gezeigt, dass Patient_innen auf positive Testergebnisse nicht selten mit Apathie sogar in Hinblick auf ihre Vorsorgeuntersuchungen reagieren. Diese unerwünschten Verhaltensweisen bleiben jedoch unvorhersehbar. c.

Konsequenzen für Verwandte

Die Tatsache, dass genetische Faktoren direkt mit der Familie zusammenhängen, macht positive Testergebnisse potenziell bedeutsam für Verwandte. In Konsequenz dessen werden Patient_innen zusätzlich mit der Verantwortung belastet zu entscheiden, wann und wie Verwandte über positive Testergebnisse informiert werden sollen. Diese Verantwortung kann eine emotionale Last für die Patient_innen darstellen, die meist nicht wissen, wie sie derartige Neuigkeiten mitteilen sollen oder welche psychosozialen Auswirkungen ihre Mitteilung für ihre Verwandten haben könnte. Hier stellt die Anfälligkeit für emotionalen Stress sowohl von Patient_innen als auch der Verwandten einen Faktor der Unsicherheit dar (Hallowell et al. 2003; Forrest et al. 2003). d.

Negative soziale Effekte

Eine Person ebenso wie seine Verwandten können aufgrund eines genetischen Profils diskriminiert werden. Obwohl Arbeits- und Versicherungsdiskriminierung die häufigsten Auswirkungen sind von denen positiv getestete betroffen sind (National Partnership 2004) ist bekannt, dass genetische Profile auch rechtliche Entscheidungen und Entscheidungen von Institutionen beeinflussen, wenn es zum Beispiel um Erziehungsberechtigung, Sanktionen, oder den Bewährungsstatus geht (Dolgin 2001). Mit den sinkenden Kosten prädiktiver Gentests könnte die Tendenz, Menschen aufgrund solcher Informationen zu diskriminieren, steigen. Auch Diskriminierung stellt damit einen nicht einschätzbaren potenziellen negativen Effekt des Testens dar.

K ULTURELLE M ONSTER

B EHERRSCHEN

| 239

3. D AS Z ÄHMEN DER U NSICHERHEITEN IN DER ARENA DES T ESTENS Wie im Eingang dieses Beitrags erwähnt, neigen wissenschaftliche Institutionen dazu, die Unsicherheiten auf einen überschaubaren Bereich zu reduzieren, wobei einige von ihnen umgangen werden. Wynner zeigte, dass Institutionen „reduce intellectual representations of issues they have to deal with to forms which appear to reflect only control and orderly management“ (Wynner 2001: 1). Dieser Prozess des Zähmens von Unsicherheiten beinhaltet unter anderem das rhetorische Umgestalten der Unsicherheiten, den Einsatz spezifischer Ansichten als fundierte Begründungen und die Nichtbeachtung einiger der auftretenden Unsicherheiten. Im Falle der klinischen Genetik übergehen wissenschaftliche Institutionen regelmäßig einen maßgeblichen Teil der Unsicherheiten und stellen medizinische Unsicherheiten als überschaubare Risiken dar. Institutionen verwenden dabei vier grundlegende Strategien zum exorzieren und anpassen von Unsicherheiten: Erstens wird eine optimistische Darstellung der neuen Technologie gefördert, zweitens werden die Unsicherheiten als medizinische Risiken gerahmt, drittens werden Gene als außerordentliche Informationseinheiten dargestellt und behandelt und viertens wird das Vermögen der Statistik und die eigene Fachkompetenz betont, diese Unsicherheiten austreiben zu können. Um diese Strategien aufzudecken habe ich mich auf drei Datenquellen konzentriert. Als Erstes habe ich mir die Studien angesehen, die in den letzten acht Jahren durchgeführt wurden, um die Art und Weise aufzudecken, in der diese Technologie in medizinischen Institutionen zum Einsatz gebracht wurde. Zweitens wende ich mich dem entsprechenden Diskurs in diesem Feld hinsichtlich der Frage zu, wie mit dieser neuen Technologie umzugehen ist, wozu ich die aktuell einschlägige medizinische Literatur zu diesem Thema analysiert habe. Drittens wurden von mir einige halbstandardisierte Interviews in Spanien und Kolumbien geführt, um einen Eindruck davon zu gewinnen, in welchen Rahmen die Technologie von den Expert_innen selbst angesiedelt wird.

240 | E DUARDO A. RUEDA

3.1 Eine optimistische Darstellung von PGT Fast alle Genetiker_innen (8) die ich interviewt habe stimmten einer Äußerung von Collins/McKusick voll zu, als ich sie ihnen vorlas und sie nach ihren Gedanken dazu fragte. Die Aussage lautet: „By the following years, it is expected that predictive genetic tests will be available for many common conditions, allowing individuals who wish to know this information to learn the individual susceptibilities and to take steps to reduce those risks for which interventions are or will be available. Such interventions could take the form of medical surveillance, lifestyle modifications, diet, or drug therapy.“ (Collins/ McKusick 2001: 544)

Viele von ihnen fügten hinzu, dass die neuen Tests oftmals darauf ausgerichtet sein werden, die verschiedenen Gene zu identifizieren, die in der Krankheitsentstehung chronischer Krankheiten wie Bluthochdruck, Gefäßkrankheiten und Diabetes eine Rolle spielen könnten. Sie hatten keinen Zweifel über den Erfolg der Technologie, bis zum Ende des Jahrzehnts das Risiko chronischer Krankheiten voraussagen zu können. Viele sprachen darüber, dass Medizin persönlicher geworden sei. Entsprechend dieser optimistische Betrachtungsweise fällt es ihnen leicht zu glauben, dass PGT sozusagen die moderne ‚Kristallkugel‘ ist, mit der Ärzte und Ärztinnen die Zukunft ihrer Patient_innen vorausahnen können um ihnen sinnvollen Rat zukommen zu lassen. 3.2 Unsicherheiten als medizinische Risiken formulieren Über ‚medizinische Risiken‘ zu reden erlaubt es Expert_innen und Institutionen Unsicherheiten so zu behandeln, als bestünden sie in der Schwierigkeit, Patient_innen bekannte Wahrscheinlichkeiten für das Eintreten bestimmter Krankheiten mitzuteilen; sprich, als Probleme der klinische Risikokommunikation. Indem sie über ‚medizinische Risiken‘ sprechen gelingt es Institutionen einige Dimensionen der Unsicherheit zu vertreiben. Dieses „Risikogerede“ führt eine gezielte Botschaft darüber mit sich, was als relevant anzusehen ist und wer für die Situation zuständig sein sollte (Douglas 1985). Auf diese Weise wird das gesamte Spektrum der Unsicherheiten auf eine

K ULTURELLE M ONSTER

B EHERRSCHEN

| 241

Darstellung reduziert, in der die Wahrscheinlichkeiten eine Krankheit entweder zu entwickeln oder zu verhindern den meisten Raum einnehmen (Julian-Reynier et al. 2003). Das Problem sie offenzulegen wird gleichzeitig in die Hände neuer Expert_innen gelegt: Genetische Berater_innen. Die Kommunikation der Unsicherheiten wird dann in die Herausforderung umgewandelt, ein „besseres Verständnis“ der medizinischen Risiken durch die Patient_innen zu erreichen (Lloyd et al. 2001: 2413). Was diese Umwandlung versucht ist wie Wynne darlegt natürlich, „to measure, explain, and find remedies for apparent shortfalls of correct understanding and use, as if this were free of framing commitments.“ (Wynne 1995: 362)

Unsicherheiten als medizinische Risiken zu rahmen ist ein dreistufiger Prozess. Als erstes müssen die relevanten statistischen Informationen aus den medizinischen Veröffentlichungen herausgesucht werden, welche in der Regel aber nicht übereinstimmen. Erkenntnistheoretische Gewohnheiten und wissenschaftliche Hierarchien lenken dabei die Informationsfilterung durch die Expert_innen. Indem zweitens statistische Informationen über die Wahrscheinlichkeit, dass eine bestimmte Krankheit in einer Population auftritt in Informationen über individuelle Anfälligkeiten umgewandelt werden, ist es den Expert_innen erlaubt, einen potenziell positiven Test als direkten Indikator für eine bestimmte Ausprägung individueller medizinischer Risiken zu interpretieren (Prior 2001). Indem drittens individuelle Risiken als Pathologie verstanden werden, können Unsicherheiten schließlich als klinisch kontrollierbare Umstände verstanden werden (Gifford 1986). Durch diesen dreistufigen Prozess können Expert_innen sowohl medizinische als auch kausale Unsicherheiten umgehen. Einer der Genetiker_innen die ich interviewte benannte den Spielraum dieser Filterung sehr klar: „If the medical literature says that a gene is associated with a disease (ie. Breast cancer) in a proportion that runs from 14% and 86%, then what I do is translating that information to my patient. So I calculate an average and say her that the risk is approximately 50%, I mean, the middle point between 14% and 86%.“

242 | E DUARDO A. RUEDA

Indem sie medizinische Risiken kommunizieren, geben Institutionen Patient_innen auch stillschweigend den Auftrag, mögliche medizinische Lösungen in Betracht zu ziehen (Sachs 1999). Da die Risikokommunikation diese Meta-Botschaft enthält, können Unsicherheiten über die Effektivität von Behandlungsmethoden und präventiven Maßnahmen leicht zu medizinischen Risiken der verfügbaren Lösungen umgedeutet werden. Eine prophylaktische radikale Mastektomie zum Beispiel „transforms the earlier risks into a new state of illness, involving pain, scars that have to heal, medical complications, and years of adapting to something alien to the body“ (Sachs 1999: 740). Da die Ärzt_innen-Patient_innen-Beziehung stillschweigend durch die normative Idee gesteuert ist, kranke Personen zu heilen oder ihnen Minderung zu verschaffen, neigen Patienten dazu „Informationen“ über eine neue Technologie als implizite Aufforderung zu verstehen, sie auch zu nutzen (Thomasma/Pellegrino 1981). Durch diese Strategie schlagen Expert_innen (Berater_innen, Ärztinnen und Ärzte) Patient_innen implizit vor, wie sie eine neue medizinische Technologie wahrnehmen sollten – nämlich als etwas Gutes (Sachs 1999). 3.3 Gene als außerordentliche Informationseinheiten behandeln Kausale Unsicherheiten werden dadurch versteckt, dass Gene als außergewöhnliche Informationsmoleküle behandelt werden. Diese Auffassung begründet sich im sogenannten Zentralen Dogma der Biologie. Diesem „Dogma“ zufolge sind Gene Anweisungspakete für biologische Entwicklung (Ich meine damit Programme zur Proteinsynthese), wohingegen nicht-genetische Faktoren lediglich Materialien und Bedingungen sind, die für die Ausführung dieser Anleitungen notwendig sind. Wie Oyama darstellte impliziert diese Auffassung, dass das „gene plays mind to environment’s matter“ (Oyama 2000: 340). Diese dominante Darstellungsweise fördert ein asymmetrisches Verständnis der Rolle des Gens in der Krankheitsentwicklung, in dem Gensequenzen die ultimative Ursache phänotypischer Eigenschaften darstellen während nicht-genetische Faktoren den Ausdruck dieser Gene entweder nur unterstützen oder behindern (Griffiths 2003). Gene als Programme zu verstehen leitet nicht nur die Idee ein, phänotypische Eigenschaften würden im Gen vorgeformt, sondern auch die Vorstellung, es gäbe eine „one-to-one

K ULTURELLE M ONSTER

B EHERRSCHEN

| 243

relationship between genotype and phenotype“ (Murray 1997: 71). Es ist leicht vorzustellen, dass mit diesem Bild positive Testergebnisse leicht als bedeutsame Vorhersage zukünftiger Gesundheit verstanden werden. Dies fördert sowohl genetischen Determinismus als auch reduktionistischen klinischen Umgang mit Krankheiten: „the more genetic information is treated as special, the more special treatment will be necessary“ (Murray 1997: 71). Das Bild eines ‚Gens für X‘ fördert eine reduktionistische Darstellung von Kausalität in der Biologie. Diese Art der Ausdrucksweise neigt dazu die Tatsache zu verschleiern, dass es kein Gen für X-heit gibt (eine Eigenschaft), es sei denn man kann sowohl die Umwelt als auch die relevante Population genau angeben. Wie Lewens (2002) richtigerweise zum Ausdruck brachte, gibt es keine Antwort auf die Frage, ob es ein Gen für X-heit gibt. Nichtsdestoweniger suggeriert das Reden über ‚Gene für X-heit‘, dass ein Gen unter allen Umständen für eine bestimmte Eigenschaft verantwortlich ist, was offenkundig falsch ist. Wenn in der Krankheitsentstehung von Genen als feststehende Programme geredet wird, begünstigen Expert_innen damit das Verständnis von Krankheiten als Angelegenheit genetischen Determinismus.4 Mit dieser Vorstellung können Expert_innen auch von der erkenntnistheoretischen Natur kausaler Unsicherheiten überzeugt sein und davon, dass sie sich mit weiterer Forschung auflösen werden. 3.4 Beteuern des Vermögens der Statistik und der Fachkompetenz, Unsicherheiten ‚austreiben‘ zu können Trotz der fehlenden Konvergenz der Ergebnisse verschiedener statistischer Methoden über mutmaßliche Zusammenhänge zwischen Genen und Krankheiten besteht ein starker Glaube unter Expert_innen im Bereich der klinischen Genetik, dass die kausalen Unsicherheiten in der nahen Zukunft abgebaut werden können. Zimmern et al. (2001) deuten beispielsweise an, dass

4

Per Definition ist ein festgelegtes Programm ein Satz von Anweisungen, der sich zwischen verschiedenen biologischen Systemen nicht unterscheiden sollte. Als Folge werden genetische Informationen als „unchanging and unchangeable“ verstanden (Gostin 1995: 324).

244 | E DUARDO A. RUEDA

die Zergliederung umweltbedingter und genetischer Ursachen von Krankheiten erfolgreich sein wird, wenn Regierungen, Forschungsgruppen, Universitäten und Investoren beschließen sollten zusammenzuarbeiten. In der letzten Zeit wurden Methoden entwickelt wie die „Mendel-Randomisierung“, „neuronale Netzwerke“, „combinatorial partitioning“ und „multifactor dimensionality reduction“, die darauf ausgerichtet sind Fehler der ersten Art (falsch-positive Zusammenhänge zwischen einem Gen und einer Krankheit) und Fehler der zweiten Art (falsch-negative Zusammenhänge) zu reduzieren. Allerdings zeigt sich immer wieder die fehlende Konvergenz zwischen ihnen (Khoury 2004). Auch die Grenzen jeder einzelner dieser Methoden wurden bereits aufgezeigt (Smith/Ebrahim 2003). Gleichwohl können Expert_innen durch die Optimierung derartiger Methoden weiterhin in die Macht der Wissenschaft vertrauen, kausale Unsicherheiten abzubauen. Auf der anderen Seite werden Unsicherheiten über die Methode, die genutzt werden sollte um den Risikostatus eines potenziellen Kandidaten oder einer potenziellen Kandidatin für einen prädiktiven Gentest zu ermitteln, durch Berufung auf Expert_innenurteile umgangen. Prior (2001) stellte bei der Nutzung zweier verschiedener Modelle zur Risikoabschätzung (dem Gail-Modell und dem Claus-Modell) fest, dass die Schätzungen des Brustkrebsrisikos im gleichen Fall stark unterschieden – mit 0,19 mit dem ersten Modell zu 0,39 beim zweiten. Unter diesen Umständen ist der Hauptanlass sowohl um eines von ihnen auszuwählen, als auch die Ergebnisse zu interpretieren, das Expert_innenurteil. Indem sie Ausdrucksweisen wie „unvollendet“ oder „nicht flexibel genug“ verwenden, bieten Expert_innen eine „qualitative“ Möglichkeit um zum einen die unterschiedlichen Methoden zu beurteilen und zum anderen die Kategorisierung zu modifizieren, die von der Risiko-Mathematik stammen. Indem nicht fundierte Einschätzungen in den Prozess des Wählens eines Modells für die Bestimmung des Pre-Test Risikostatus und die Interpretation der Ergebnisse eingeführt werden, können Unsicherheiten in Hinblick darauf, wer einen medizinischen Nutzen aus einem prädiktiven Gentest ziehen könnte, reduziert werden. Prior (2001) zeigte: „this means that there is considerable room for the application of expert judgment in arriving at any risk assessment. Indeed, geneticists are keen to indicate how essential access to expert advice actually is“ (Prior 2001: 586).

K ULTURELLE M ONSTER

B EHERRSCHEN

| 245

Expert_innen können die Kategorien so verschieben, dass Patient_innen mit niedrigem Risiko in die Kategorie des hohen fallen und umgekehrt. Folglich kann man schließen, ‚Risikokategorien haben Räder‘.

4. ABSCHLIESSENDE B EMERKUNGEN Um die verschiedenen Dimensionen abzubilden, die Unsicherheit im Feld der klinischen Genetik einnimmt habe ich mich der Typologie der Unsicherheit bedient, die von Walker et al. (2003) stammt. Da sie die Identifikation und Einschätzung von Unsicherheiten sowohl in Bezug auf die Rolle von Genen in der Krankheitsentstehung als auch über die Vorteile eines Gentests ermöglicht hat, erwies sich die Typologie als sehr dienlich um zu verstehen, wie institutionelle Hilfsmittel zum Zähmen von Unsicherheiten funktionieren. Diese Strategien des Zähmens sind darauf ausgerichtet, Unsicherheiten so darzustellen als seien sie wissenschaftlich unter Kontrolle. Diese Umformung wird auf rhetorische Weise zustande gebracht, was bedeutet die Dimensionen auf zu bewältigende, wertbeladene Formulierungen zu reduzieren. Durch diese lenkenden Strategien kann die Technologie mithilfe des medizinischen Systems sozialer Handlungen aktiviert und mobilisiert werden.

L ITERATUR Antoniou, A./Gayther, S./Stratton, J./Ponder, B./Easton, D. (2000): Risk Models for Familiar Ovarian and Breast Cancer. Genetic epidemiology 18: 173-190. Burke, W./Pinsky, l./Press, N. (2001): Categorizing Genetic Tests to identify their ethical, legal and social implications. American Journal of Medical Genetics 106: 233-240. Colhoun, H./Mckeigue, P. (2003): Problems of reporting genetic associations with complex outcomes. The Lancet 361: 865-872. Collins, F.S./McKusick, V.A. (2001): Implications of the Human Genome Project for medical science. JAMA 285: 540-544. Dolgin, J. (2001): Ideologies of Discrimination: Personhood and the ‘Genetic Group‘. Studies in History and Philosophy of Biological and Biomedical Sciences 32 (4): 705-721.

246 | E DUARDO A. RUEDA

Douglas, M. (1985): Risk Acceptability according to the Social Sciences. New York: Russell Sage. Evans, J./Marteau, T. (2001): Genetic testing: studies point to variable prognostic abilities and question if testing results in behavioral change. Genomics and genetics weekly Jun. 1: 11-12. Evans, J./Skrzynia, C./Burke, W. (2001): The complexities of predictive genetic testing, British medical Journal 322: 1052-1056. Forrest, K./Simpson, S.A./Wilson, B.J./van Teijlingen, E.R./McKee, L./Haites, N./Matthews E. (2003): To tell or not to tell: barriers and facilitators in family communication about genetic risk. Clinical Genetics 64: 317-326. Funtowicz, S.O./Ravetz, J.R. (1990): Uncertainty and Quality in Science for Policy. Dordrecht: Kluwer Academic Publishers. Gifford, S.M. (1986): The meaning of lumps. A case study of the ambiguities of risk. S. 213-245 in: C. Janes/R. Stall/S.M. Gifford (Hrsg.): Anthropology and Epidemiology. Dordrecht: D. Reidel. Gostin, L.O. (1995): Genetic Privacy. Journal of Law, Medicine & Ethics 23: 320-330. Griffiths, P. (2003): The Fearless Vampire Conservator: Philip Kitcher, Genetic Determinism and the Informational Gene. Online verfügbar unter: http://philsci-archive.pitt.edu/archive/00000728/ [12.07.2006]. Hallowell, N./Foster, C./Eeles, R.Ardern-Jones, A./Murday V./Watson, M. (2003): Balancing Autonomy and Responsibility: the ethics of generating and disclosing genetic information. Journal of Medical Ethics 29: 74-79. Hansson, S.O. (1996) Decision Making under Great Uncertainty. Philosophy of the Social Sciences 26 (3): 369-386. Julian-Reynier, C./Welkenhuysen, M./Hagoel, L./Decruyenaere, M./ Hopwood, P./CRISCOM Working Group (2003): Risk communication strategies: state of the art and effectiveness in the context of cancer genetic services. European Journal of Human Genetics 11: 725-736. Khoury, M./Millikan, R./Little, J./Gwinn, M. (2004): The emergence of epidemiology in the genomics age. International Journal of Epidemiology 33: 936-944. Lerman, C./Hughes, C./Croyle, RT./Main, D./Durham, C./Snyder, C. (2000): Prophylactic surgery decisions and surveillance practices one year following BRCA1/2 testing. Preventive Medicine 31 (1): 75-80.

K ULTURELLE M ONSTER

B EHERRSCHEN

| 247

Lessick, M./Wickman, R./Chapman, D./Phillips, M./McCaffrey, S. (2001): Advances in genetic testing for cancer risk. Medsurg Nursing 10 (3): 123127. Lewens, T. (2002): Developmental aid: on ontogeny and ethics. Studies in History and Philosophy of Biological and Biomedical Sciences 33: 195217. Lloyd, F./Reyna, V./Whalen, P. (2001): Accuracy and Ambiguity in Counseling Patients About Genetic Risk. Archives of Internal Medicine 161: 2411-2414. Michie, S./Bobrow, M./Marteau, T. (2001): Predictive genetic testing in children and adults: A study of emotional impact. Journal of Medical Genetics 38 (8): 519-526. Michie, S./Lester, K./Pinto, J./Marteau, T. (2005): Communicating Risk Information in Genetic Counseling: An Observational Study. Health Education and Behavior 32 (5): 589-598. Moss, L. (2001): Deconstructing the gene and reconstructing molecular developmental systems. S. 85-98 in: Oyama, S./Griffiths, P./Gray, R.D. (Hrsg.): Cycles of Contingency: Developmental Systems and Evolution. Cambridge: MIT Press. Murray, T. (1997): Genetic Exceptionalism and Future Diaries: Is Genetic Information Different from Other Medical Information? S. 60-76 in: Rothstein, M. (Hrsg.): Genetic Secrets: Protecting Privacy and Confidentiality. New Haven: Yale University Press. National Partnership for Women and Families on behalf of the Coalition for Genetic Fairness (2004): Faces of Genetic Discrimination. How Genetic Discrimination Affects Real People. Online verfügbar unter: http://www.nationalpartnership.org/site/DocServer/FacesofGeneticDiscrimination.pdf?docID=971 [11.08.2005]. Netzer, C./Biller-Andorno, N. (2004): Pharmacogenetic testing, informed consent and the problem of secondary information. Bioethics 18 (4): 344360. Nunes, J. (2004): The Uncertain and the Unruly: Complexity and Singularity in Biomedicine and Public Health. Online verfügbar unter: http://www. ces.fe.uc.pt/publicacoes/oficina/184/184.pdf [21.06.2006]. Oyama, S. (2000): Causal Democracy and Causal Contributions in Developmental Systems Theory. Philosophy of Science 67: 332-347.

248 | E DUARDO A. RUEDA

Peltonen, L./McKusick, V.A. (2001): Genomics and medicine. Dissecting human disease in the postgenomic era. Science 291: 1224-1229 Prior, L. (2001): Rationing through risk assessment in clinical genetics: all categories have wheels. Sociology of Health and Illness 23 (5): 570-593. Rheinberger, H.J. (1997): Toward a History of Epistemic Things: Synthesising Proteins in the Test Tube. Stanford, CA: Stanford University Press. Sachs, L. (1999): Knowledge of No Return. Getting and giving information about Genetic Risk. Acta Oncologica 38 (6): 735-740. Smith, G.D./Ebrahim, S. (2003): Mendelian Randomization: can genetic epidemiology contribute to understanding environmental determinants of disease? International Journal of Epidemiology 32: 1-22. Smits, M. (2006): Taming Monsters. The cultural domestication of new technology. Technology in Society 28: 489-504. Stotz, K./Griffiths, P./Knight, R. (2004): How biologists conceptualize genes: an empirical study. Studies in History and Philosophy of Biological and Biomedical Sciences 35: 647-673. Thomasma, D./Pellegrino, E. (1981): Philosophy of medicine as the source for medical ethics. Theoretical Medicine and Bioethics 2 (1): 5-11. Van der Sluijs, J. (2006): Uncertainty, assumptions, and value commitments in the knowledge-base of complex environmental problems. S. 67-84 in: Guimaraes, A./Guedes, S./Tognetti, S. (Hrsg.): Interfaces between Science and Society. Sheffield: Greenleaf Publishing. Van der Weele, C. (1995): Images of development. Environmental causes in ontogeny. Albany: State University of New York Press. Vlek, C. (1987): Risk assessment, risk perception and decision making about courses of action involving genetic risks. Birth Defects Original Articles Series 23: 171-207. Walker, W./Harremoës, P./Rotmans, J./Van der Sluijs, J.P./Van Asselt, M./Janssen, P./Krayer Von Krauss, M. (2003): Defining Uncertainty. A conceptual Basis for Uncertainty Management in Model-Based Decision Support. Integrated Assessment 4 (1) 5-17. Wilkie, A. (2001): Genetic prediction: what are the limits? Studies in History and Philosophy of Biological and Biomedical Sciences 32 (4): 619-633. Wynne, B. (1995): Public Understanding of Science. S. 361-368 in: Jasanoff, S./Markle, G./Petersen, J./Pinch, T. (Hrsg.): Handbook of Science and Technology Studies. Thousand Oaks: Sage publications.

K ULTURELLE M ONSTER

B EHERRSCHEN

| 249

Wynne, B. (2001): Managing Scientific Uncertainty in Public Policy. Online verfügbar unter: http://www.wcfia.harvard.edu/conferences/biotech /wynnepaper1.doc [04.05.2004]. Zimmern, R./Emery, J./Richards, T. (2001): Putting genetics in perspective. British Medical Journal 322: 1005-1006.

Umweltkonzepte in der Epigenetik1 U TE K ALENDER

Epigenetische Ansätze finden zunehmend Eingang in verschiedene Felder der Biomedizin und der biomedizinischen Forschung. Epigenetik befasst sich mit Zellprozessen jenseits der Gene – mit der Genumwelt. Auf den ersten Blick berücksichtigt die Epigenetik nicht nur Umwelteinflüsse, sie scheint auch den Gegensatz zum genetischen Determinismus zu bilden. Dieser Beitrag versucht die Epigenetik jedoch genauer zu betrachten und konstatiert, dass das epigenetische Konzept von Umwelt ein sehr spezifisches, wenn nicht hoch problematisches ist: Die Imperative der genetischen Verantwortung werden intensiviert. Denn die Epigenetik nimmt an, dass Gene durch die ‚Umwelt‘ geprägt werden – durch Verhalten und Lebensstile. Die zentrale These dieses Artikels ist deshalb, dass momentane epigenetische Forschung diese Aufmerksamkeit gegenüber Umwelteinflüssen in eine sogar verfeinerte Version epigenomischer Suszeptibilität gewendet hat. Die Epigenetik schafft so eine holistische Version epigenetischer Risiken und Verantwortungen.

1

Bei diesem Beitrag handelt es sich um eine von der Autorin besorgten Übersetzung eines englischen Artikels, der im „Yearbook 2011 of the Institute for Advanced Studies on Science Technology and Society (IAS-STS)“ erschienen ist.

252 | U TE KALENDER

E INLEITUNG Die Epigenetik präsentiert sich oft als etwas originär Neues, als den heißesten, neuesten Zweig innerhalb der Biomedizin und zahlreicher Felder der Lebenswissenschaften. Auf den ersten Blick bietet die Epigenetik daher nicht nur eine Lösung für jene Sackgassen, die frühere GenetikerInnen beschrieben hatten. Die Epigenetik scheint auch Elemente der sozial- und genderwissenschaftlichen Kritik an der Genetisierung von Krankheiten wie Brustkrebs aufgenommen zu haben. Viele AutorInnen haben die gen-determinierte Forschung und Biomedizin dafür kritisiert, dass sie die komplexen Interaktionen zwischen Genen und Umwelten nicht beachten würden. Indem sie sich ausschließlich auf Gene konzentriert hätten, wären sie dem Zusammenspiel von Genen und externen Einflüssen nicht gerecht geworden. Die Rolle pathologischer Umweltfaktoren könnte nicht voll verstanden werden und die Effekte von Stress, Umweltverschmutzung und schlechten Arbeitsbedingungen würden nicht untersucht. Diesen Kritiken zufolge würde das Individuum für ihre oder seine Krankheit verantwortlich gemacht werden, anstatt soziale Bedingungen zu untersuchen und zu verändern (Gibbon 2007; Lemke 2004; Palfner 2009; Zur Nieden 2007; 2010). In der Epigenetik sind die Umwelt und das Zusammenspiel zwischen Umwelt und Genen nun zum zentralen Fokus des Interesses geworden. Ich nehme deshalb diese Verschiebungen und besonders das epigenetische Konzept von Umwelt zum Ausgangspunkt, um die Epigenetik kritisch zu diskutieren. Die Haupthypothese ist, dass Epigenetik nicht nur aufgrund einer genetisierten Forschung eine ‚Renaissance‘ erfahren hat, sondern dass sie auch Umweltkonzepte in einer Weise reartikuliert hat, die sogar einige der Risiken der ‚gen-deterministischen Ära‘ intensivieren könnten. Kurzum: Die Analyse von Epigenetik kann dazu dienen, die Kritik an der Genetisierung der Forschung zu überdenken. Denn werden zeitgenössische epigenetische Ansätze in den Blick genommen, wird deutlich, dass einige der gender- und sozialwissenschaftlichen Ansätze zu den Lebenswissenschaften nicht länger fassen. Darüber hinaus konzentriert sich dieser Beitrag auf epigenetische Ansätze zu Brustkrebs. Ein Grund dafür ist, dass sich viele der sozialwissenschaftlichen und genderbasierten Kritiken an der Genetisierung von Krankheiten auf Brustkrebs konzentrierten (z.B. Lemke 2004). Palfner (2009) konstatiert zum Beispiel, dass Brustkrebs nicht nur die am stärksten genetisierte

U MWELTKONZEPTE IN

DER

E PIGENETIK | 253

Krankheit war, sondern dass sich auch Forscher Möglichkeiten erhofften, genetische Erkenntnisse des familiären Brustkrebs in bedeutungsvolles Wissen und medizinische Anwendungen zu sporadischen Formen von Krebs zu übersetzen. Ein weiterer Grund für die Konzentration auf Brustkrebs ist, dass Brustkrebsforscher zudem wesentliche Antriebskräfte innerhalb des Etablierungsprozesses zentraler epigenetischer Forschungsnetzwerke wie dem Epigenomprojekt waren (Bradbury 2003; Esteller 2006; Jones/Martienssen 2006; Rauscher 2005). Das Ziel des 1999 gegründeten multinationalen Europäischen Netzwerkes ist: „to identify, catalogue, and interpret genomewide DNA methylation patterns of all human genes in all major tissues“ (Genomic Enterprise 2010). Das Netzwerk wird sowohl durch staatliche Mittel als auch private Investitionen via einem Konsortium aus Forschungsorganisationen finanziert. Die beteiligten Hauptorganisationen sind das Britische Welcome Sanger Trust Institut, die Deutsche und US-amerikanische Epigenomics AG und das französische Centre National de Génotypage (Human Epigenome Project 2010). Brustkrebs ist zudem eines der Hauptthemen unter den Netzwerkpublikationen (Epigenomics 2010). In diesem Beitrag versuche ich Epigenetik mit Bezug auf Brustkrebs zu analysieren. Ich stütze mich dazu auf Experteninterviews (Littig 2008; Meuser/Nagel 2004) mit Wissenschaftlern aus Deutschland und Großbritannien, die sich im weiten Sinne als Epigenetiker definierten und im Feld der Brustkrebsforschung arbeiten. Dazu gehörten Zell- und Entwicklungsbiologen, Chromosomenbiologen und Molekulargenetiker von Universitätskliniken und anderen Forschungszentren. Ich beziehe mich auf Beobachtungen während Konferenzen zu Epigenetik und sekundäre Daten, die Artikel in Forschungsjournalen, Webseiten von Expertennetzwerken, Standpunktpapiere sowie populärwissenschaftliche Beiträge und Texte aus der Tagespresse umfassen. Ich beginne mit einer kurzen Einführung zur Epigenetik. Dann argumentiere ich, dass das Auftauchen epigenetischer Ansätze im Feld der Brustkrebsforschung, möglicherweise überraschend, in einem direkten Zusammenhang mit dem Gendeterminismus steht. Schließlich untersucht der letzte Teil ausgehend von der Idee der Individualisierung und dem epigenetischen Konzept der Umwelt einige der Verschiebungen in momentanen sozialen Settings, die mit Epigenetik verbunden sind. Epigenetik präsentiert sich oft selbst als einen neuen Ansatz im Feld der Brustkrebsforschung. Nichtsdes-

254 | U TE KALENDER

totrotz versuche ich zu argumentieren, dass das scheinbar erfolgreiche Wiederauftauchen der Epigenetik nur in Verbindung mit der Forschung zu Brustkrebs und der Fokussierung auf die beiden sogenannten Brustkrebsgene BRCA 1 und BRCA 2 denkbar ist.

E PIGENETIK Epigenetik umfasst eine Reihe molekularer biologischer Ansätze, die sich essentiell mit drei Molekülgruppen befassen: Gruppen von Methylen und Enzymen für die Methylierung; Histonen, nämlich Acetyltransferase und Deacetylase und RNA Moleküle. Epigenetik nimmt an, dass all diese Moleküle die Genregulation innerhalb einer Zelle beeinflussen: sie steuern die Genexpression ohne die Gensequenz der DNA zu transformieren (Landecker 2008: 43). Asch und Barcellos-Hoff sagen, dass Epigenetik „has been defined as the study of heritable changes in gene expression caused by mechanisms not involving changes in DNA sequence“ (Asch/Barcellos-Hoff 2001: 151). Epigenetik nimmt somit an, dass ein Epigenom existiert, das dem Genom quasi aufsitzt. Dieser Metacode wird als ausschlaggebend dafür angesehen, dass Gene ‚gelesen‘ werden können und das Verstehen, wie Gene unterdrückt oder ausgedrückt werden. Das Auftauchen des ‚Wissensobjektes‘ – Epigenom – korreliert mit einer wesentlichen epistemischen Verschiebung. Während die Genetik letztlich den Zellkern als ahistorisch und vorgesellschaftlich situiert (Burren/Rieder 2000: 23; Fox Keller 1998: 27-28), versteht die Epigenetik die Genregulation, das Epigenom, nicht als gänzlich biologischen Prozess, sondern als ebenfalls ‚kulturell‘ konstituiert (Parnes 2006: 92). Epigenetiker nehmen an, dass Umwelteinflüsse die hauptsächlichen Kräfte hinter der Genaktivierung sind. Diese Einflüsse bilden wiederum „the memory of the body“ und ihre Folgen sind vererbbar (Epigenome NoE 2010). Ein britischer Entwicklungsbiologe, der regelmäßig innerhalb der Brustkrebsforschung zitiert wird, beschreibt die transgenerationelle Übertragung epigenetischer Muster wie folgt: „That is passing on not the genetic information but the epigenetic information. [...] There are instances where the memory of the fetal cells [...] or something like that gets transmitted to the subsequent generation, or may escape one generation and goes to the next generation.“ (Maier 2009)

U MWELTKONZEPTE IN

DER

E PIGENETIK | 255

Epigenetische Ansätze nehmen nicht nur an, dass die Umwelt wesentlich ist für die Genregulation einiger aktuell lebender einzelner Individuen, sondern auch für mögliche zukünftige Generationen. Das Epigenom wird innerhalb genetischer Forschung als der Punkt angesehen, an dem sich Natur und Kultur treffen. Oder um es anders auszudrücken, das Epigenom ist der Raum wo die Kultur die Natur prägt, wo die Umwelt zu einer entscheidenden Kraft wird. Das Epigenomprojekt strebt zum Beispiel an, diese Grenzen zu kartieren und sieht seine eigene wissenschaftliche Praxis nicht länger als eine präzise Kopie der genetischen Materie, als eine objektive und rationale Beschreibung der natürlichen Welt an, sondern als ein Prozedere in dem Biologie und Natur verwoben sind. Ein weniger reduktionistisches Konzept von Natur/Kultur scheint Teil der Epistemologie epigenetischer Ansätze zu sein. Auf den ersten Blick scheint die Epigenetik den oft kritisch in Frage gestellten Gendeterminismus der Genetik zu widersprechen (z.B. Lemke 2004), oder im Fall von Brustkrebs, dem Glauben an das dominante Gen. Epigenetik und Brustkrebsforschung Es gibt ein wachsendes Interesse an epigenetischen Ansätzen im Feld der Brustkrebsforschung. Zum Beispiel umfasst das Deutsche Krebsforschungszentrum eine ganze Abteilung, die sich mit der Erforschung der Epigenetik befasst (Deutsches Krebsforschungszentrum 2010). Auch Vortragende auf wissenschaftlichen Konferenzen zu Brustkrebsforschung beziehen sich oft auf Epigenetik. Zudem werden epigenetische Modifikationen als „key factors in breast carcinogenesis“ angesehen (Dworking et al. 2009: 165). Ein Ergebnis ist, dass Epigenetik als „hottest newest branch of biomedicine […] where all the hype is“ beschrieben wird (Dunckley 2008). Nichtsdestotrotz versuche ich zu zeigen, dass epigenetische Ansätze tatsächlich nicht das Gegenteil bilden zu einer Forschung, die als gen-determinsitisch bezeichnet wird. Vielmehr schlage ich vor, um auf das Hauptargument dieses Papers zurückzukommen, dass die Aufmerksamkeitsverschiebung von strikt genetischen zu epigenetischen Ansätzen und das Auftauchen der Epigenetik im Feld der Brustkrebsforschung in Relation zu genetischen Ansätzen und der früheren Vorherrschaft der Brustkrebsgene verstanden werden muss: Epigenetik ist nichts Originäres, sondern verspricht vielmehr einige der Sackgassen innerhalb der Forschung zu Brustkrebs zu lösen. So

256 | U TE KALENDER

unterstreichen Viele der Interviewten die lange Geschichte von der Erforschung epigenetischer Mechanismen. Ein Molekulargenetiker sagte beispielsweise: „The influence of DNA methylation has already been known for decades. It is already longer known as that we se- [sequence, u.k.] any genes (unclear), well, and the fact that, I don’t know, I guess in the 70s this histone complex [...] was identified. That is even older, could be, I have to look it up. Epigenetics exists much longer.“ (Spanzer 2009)

Forschung, die explizit als Epigenetik gelabelt wird, tauchte allerdings erst Ende der 1990er Jahre auf (zum Beispiel in Form des bereits oben erwähnten Epigenomprojekts, einem Europäischen Netzwerk von Epigenetikern, das 1999 gegründet wurde). Zuvor war der Glaube an die Genetik, genauer: an ein dominantes Gen als Hauptursache für Brustkrebs lange Zeit so stark, dass epigenetische Ansätze im Verhältnis zu Brustkrebs kaum Gewicht hatten. Asch und Barcellos-Hoff sagen, dass „among the reasons why this concept has languished in the backwaters of cancer research lies in the reluctance of molecular geneticists to embrace the revolutionary principle that not all of the significant changes driving this diseases are due to lesions in DNA sequence“ (Asch/Barcellos-Hoff 2001: 151). Ein Grund für das Auftauchen epigenetischer Ansätze im Feld der Brustkrebsforschung war, dass genetische Ansätze die von ihnen gestellten Fragen kaum beantworten konnten. Der bereits früher zitierte Britische Entwicklungsbiologe Maier sagte in dem Interview zum Beispiel auch: „The re-emergence of epigenetics started with several things. One was that when people had started to think about the genetics of development, and particularly when the genome became sequenced, then people started to say well we know that there are 20,000 genes, but how do you actually select which genes you want to use to make different cell types. And that made people start to think about epigenetics. Because that’s, how do you read the genome, how do you select the genes at the right time? So that was then that the attention kind of started to shift towards epigenetics. The other thing is that there was more information coming out on epigenetic mechanisms and particularly on various enzymes that are important for introducing histone modifications for example and the methylations. [...] I think that that kind of accelerated the pace of the research. So it is a combination of things. Having the genome sequenced

U MWELTKONZEPTE IN

DER

E PIGENETIK | 257

plus the fact that the work on epigenetics had started to increase the knowledge was increasing. That kind of made people think about it a bit more.“ (Maier 2009)

Ash und Barcellos-Hoff schätzen die Renaissance der Epigenetik ähnlich ein: „The slow progress made in curtailing breast cancer incidence and mortality during the previous century implies that key pieces of information for fully understanding its initiation and parthenogenesis are still missing.“ (Asch/Barcellos-Hoff 2001: 151)

Beide Kommentare legen nahe, dass das, was epigenetische Ansätze im Moment für Wissenschaftler so interessant macht, die Annahme eines gewissen Potentials ist – eben jene Fragen zu beantworten, die von der genetisierten Brustkrebsforschung lanciert wurden. Es überrascht daher weniger, dass Denise Barlow, Genetikerin am österreichischen Forschungszentrum für Molekulare Medizin, konstatiert: „epigenetics has always been all the weird and wonderful things that can’t be explained by genetics“ (Epigenome NoE 2010). Ich schlage deshalb vor, das Konzept des Epigens nicht als eine neue Version des Gens zu lesen, sondern das ein Raum der Problematisierung zwischen dem Gen, der Krankheit und der Umwelt aufgemacht wird. Darüber hinaus gibt es im Verhältnis zur zuvor diskutierten Plastizität eine Erwartung unter Wissenschaftlern, dass das Epigenom die bislang fehlende Verbindung zwischen Genetik, Krankheit und Umwelt liefert (Beck et al. 2005: 265). Nichtsdestotrotz kann die Frage bis jetzt nicht beantwortet werden, wie genau dieser epigenetische Raum beschaffen ist. So gestehen Prawitt und Zabel in ihrem Essay über das Verhältnis von Methylierung und Tumorentstehung ein: „So einleuchtend und suggestiv diese Zusammenhänge klingen, so ist es jedoch z.Zt. noch keineswegs bekannt, wie diese gezielt wirkenden Hypermethylierungen zustandekommen.“ (Prawitt/Zabel 2005: 298) Während das Genkonzept, das von stabilen Entitäten wie BRCA 1 und BRCA 2 ausgeht, innerhalb des Forschungskontextes Brustkrebs nicht länger produktiv erscheint, liefert die Ungewissheit des Epigens genau das, was Rheinberger (2006) als den Motor der experimentellen Forschung beschrieben hat.

258 | U TE KALENDER

Individualisierung und Umwelt Epigenetische Ansätze zu Brustkrebs referieren nicht auf ein einzelnes Konzept von Umwelt. Vielmehr sind verschiedene Ideen von Umwelt anzutreffen. Ich schlage daher drei grob unterschiedene, analytische Klassifikationen vor. Erstens kann Umwelt die Umwelt des Nukleus bedeuten: eine Umwelt, die sich auf die Mikro-Ebene innerhalb einer Zelle bezieht. Dworking, Huang und Toland sagen zum Beispiel: „The findings suggest that breast cancer patient microenvironments induced epigenetic changes in this immortalized breast cell line“ (Dworking et al. 2009: 165). Zweitens kann epigenetische Umwelt eine zelluläre Umwelt meinen: eine Umwelt, die die Zelle umgibt oder die Interaktionen von verschiedenen Zellen. Wie das erste Konzept bezieht sich diese Umwelt auch auf das ‚Innere‘ des Körpers. Drittens befasst sich Epigenetik mit einer Umwelt, in die das einzelne Individuum eingebettet ist – eine spezifische Ernährung, Stress oder Therapeutika. Bei dieser Umwelt handelt es sich um eine Umwelt, die außerhalb des individuellen Körpers lokalisiert ist. Im Folgenden werde ich auf das dritte Verständnis von Umwelt fokussieren. Um diesen Umweltbegriff zu untersuchen, ist es wichtig sich zu vergegenwärtigen, dass epigenetische Analysen mit einer Praktik der Individualisierung auf Ebene der Risikoerkennung, wie auch der Behandlung von Brustkrebs gekoppelt sind. Risikoerkennung meint die Aufspürung und Interpretation der individuellen Methylierungsmuster einer Patientin. Wie das durchgeführt werden kann, beschreibt beispielsweise Epigenomics, ein Unternehmen das sich auf molekulare Krebsdiagnostik spezialisiert hat und Hauptfinanzierer des Epigenomnetzwerkes ist: „Epigenomics is creating an integrated genomics-based technology with the potential to revolutionize the development of personalized medicines. By detecting and interpreting DNA methylation patterns (5th BASE Genomics®) in different cells of the same person, Epigenomics has uncovered a new layer of biological information that will enable a more complete and clearer detection of complex disease. These DNA methylation signals, comparable to a genetic switch, can be digitized to create a Digital Phenotype® that reflects the genetic activity of a particular cell, i.e., whether the cell is healthy or sick. Epigenomics’ sophisticated machine learning methods extract valuable information from these extremely high dimensional data to form the basis of a diagnostic component of personalized medicines.“ (Epigenomics 2010a)

U MWELTKONZEPTE IN

DER

E PIGENETIK | 259

Behauptet wird, dass die genaue Nachzeichnung epigenetischer Muster eine personalisierte Therapie ermöglichen wird: „Eine fokussiertere Therapieanwendung wird jedoch durch eine genauere Aufklärung der Mechanismen epigenetischer Modifikationen und der damit besser abschätzbaren Effekte von Veränderungen dieser Umgestaltungen möglich werden.“ (Prawitt/Zabel 2005: 302)

Ein weiterer wesentlicher Aspekt ist, dass epigenetische Modifikationen als umkehrbar angesehen werden: „Ein weiterer Aspekt der epigenetischen Befunde, den man sich immer wieder vor Augen führen sollte, ist die Tatsache, dass Methylierung – wie auch die anderen epigenetischen Modifikationen – dynamisch ist und nicht wie eine DNA Sequenz notwendigerweise statisch, d.h. epigenetische Modifikationen können entfernt werden.“ (Prawitt/Zabel 2005: 302)

Wie diese Beispiele illustrieren, ist das Ziel der Epigenetik, individuelle Methylierungsmuster aufzuspüren und basierend auf diesen Mustern individuelle Therapien zu entwickeln, die aus der exakten Kombination von Medikationen, Therapien und/oder Diäten bestehen. Das Ziel einer personalisierten Medizin ist bereits von genetischen Ansätzen artikuliert worden, wie das Statement eines interviewten Epigenetikers deutlich macht: „[E]pigenetics mean [...] that it would in the long term be possible to carry out a finetuning, or maybe specification. Specification is the correct word. And that as well when you look at diagnosis as well as therapy. Well with epigenetics it maybe would be possible to make more precise diagnoses and prognoses [...]. Is there still something in the blood and then to fine tune, also very precisely, the therapies. Does this woman need chemotherapy or is something different enough? Does she have a high risk for a second cancer? Considering therapy everything becomes important. Chemo, medicaments, diet, reduction of stress [...] Yes that is right. That was also important during genetics, if we call it like that, but that was a big tangled mass. Well we knew that there was something, there is a disposition, but how exactly and if genes were relevant [...] maybe genetics comes in at this point. Well, something like a fine tuning, yes.“ (Halbert 2009)

260 | U TE KALENDER

Diese Möglichkeit spiegelt die früheren Hoffnungen der Gentherapie wieder, die bereits Interventionsverfahren in das Genom versprochen hatten. Sie ist ebenfalls mit älteren Diskursen über Brustkrebs verwoben. Dennoch bedeuten zeitgenössische epigenetische Ansätze nicht die Rückkehr eines bloßen Umweltdeterminismus. Es gibt in Tat wesentliche Unterschiede. Wie oben erwähnt, ist der Umweltbegriff für die Epigenetik von Bedeutung, weil sie Epimutationen auf Umwelteinflüsse zurückführt. Aber dieses epigenetische Konzept korrespondiert nicht mit feministischen oder sozialwissenschaftlichen Umweltverständnissen – es sind keine schlechten Lebens- oder Jobbedingungen gemeint. Auch Umweltverschmutzungen stehen nicht im Mittelpunkt des epigenetischen Interesses (z.B. Lemke 2004). Vielmehr konzeptualisiert die Epigenetik Umwelt als eine individuelle Umwelt, genauer: als eine Umwelt die individuell durch ‚Wahl‘ gestaltet werden kann und soll – in diesem Fall durch Rauchen, Ernährung, prenatale Ernährung oder individuelle Stressreduktion. Epigenetik nimmt an, dass diese ‚individuellen Lifestylepraktiken‘ in epigenetische Marker übersetzt werden und die Genregulation beeinflussen. Ähnliche Auffassungen von individueller Kontrolle zeigen sich in einem Science Artikel übertitelt mit ‚Why genes aren’t destiny. The new field of epigenetics is showing how your environment and your choices can influence your genetic code – and that of your kids‘ (Cloud 2010. Hervorhebung von mir). Im Falle von Brustkrebs nehmen Epigenetiker an, dass Umweltfaktoren Methylierungsmuster wesentlich beeinflussen: „Kommt bei dem betreffenden Individuum dann ein externer Stimulus wie z.B. Zigarettenrauchen hinzu, führt dies wahrscheinlich zur Hypermethylierung von Tumorsupressorgenen und damit zu einem erhöhten Lungenkrebs Risiko.“ (Prawitt/Zabel 2005: 298)

Darüber hinaus konstatieren Epigenetiker, dass diese epigenetischen Marker auch von einer Generation zur nächsten übertragen werden können. Sie heißen dann ‚Keimbahn-Epimutation‘ und werden momentan als ‚the first step in tumour development and thus directly predispose to cancer‘ eingeschätzt (Dobrovic/Kristensen 2002: 34). Dieses enge Konzept von Umwelt ist ebenfalls alles andere als genderneutral. Denn die epigenetische Umwelt bezieht sich auf „conditions in the

U MWELTKONZEPTE IN

DER

E PIGENETIK | 261

womb“ (Cloud 2010: 23). Es handelt sich also zuallererst um einen weiblichen Körper, der den Umweltkontext bildet, innerhalb dessen das Wissensobjekt produziert wird. Einer der interviewten Epigenetiker drückte das so aus: „So I think the maternal role, the part that the mother plays, if you like the epi-genetic mechanism is possible during pregnancy when the fetus is growing. Because there is a possibility that there could be environmental changes or influences that again impact on the fetus and so these kind of environmental factors could have a big role in… [and] for example maybe at the root of some of the diseases such as breast cancer and so on. So that’s one of the ideas that people have put forward. And I think that that’s fairly logical, because if… because you can bring about epigenetic changes in many ways and environmental stress or environmental change can have an effect on gene expression. And therefore you could imagine that a growing fetus, which is somehow exposed to any kind of environmental factors or even stress or something like that could result in that change. So that is one way of thinking about it.“ (Maier 2009)

Die väterliche Seite wird im Gegenteil sogar als weniger einflussreich betrachtet. Dobrovic und Kristensen stellen zum Beispiel fest dass, „complete erasure of epimutations during spermatogenesis has been observed, and so far evidence is only present for maternally derived inheritance and, suggesting that epimutations are less likely to be erased during oogenesis“ (Dobrovic/Kristensen 2002: 34). In diesem Sinn stellt sich die bemerkenswerte Aufmerksamkeit gegenüber Umweltfaktoren und geschlechtsspezifischen mikrozellulären Prozessen im epigenetischen Wissen als eine genderspezifische Reduktion des Umweltbegriffs auf Fragen der individuellen Wahl und Verantwortlichkeit heraus. Der Begriff der Epimutation kann eine Intensivierung jener bestehender Risiken bedeuten, die für die ‚Ära‘ des sogenannten Gendeterminsmus breit analysiert und umfassend kritisiert worden ist. Denn Epigenetik bezieht sich nicht länger auf die Annahme einer genetischen Disposition die Schicksal ist, sondern impliziert Plastizität. Dem Epigen wird unterstellt, eine viel stärkere Beeinflussung und Empfänglichkeit für Umweltreize aufzuweisen. Sie werden wiederum auf individuelle Lifestyle-Faktoren reduziert. Dennoch: Diese Umweltbegriffe implizieren kein direktes kausales Verhältnis, einen einfachen Umweltdeterminismus. Vielmehr hat Hannah Landecker zutreffend unterstrichen, dass „epigenetics

262 | U TE KALENDER

examines and understands the milieu as a molecular cloud of factors and signals that wraps us, penetrates us and transforms the inner intricate networks of the exchange of signals and regulation“ (Landecker 2009: 53). Dennoch bedeuten all diese Kontexte niemals ein soziales Verständnis. Epigenetische Umwelten können immer vom konsumierenden Individuum gemanagt oder durch passgenaue individualisierte Therapien oder Medikation beeinflusst werden.2

D ANKSAGUNGEN Bei diesem Beitrag handelt es sich um eine leicht veränderte Übersetzung eines englischen Artikels, der im Yearbook 2011 of the Institute for Advanced Studies on Science Technology and Society (IAS-STS) erschienen ist. Der Text ist ferner aus einem Post-Doc Projekt hervorgegangen, das durch meine Stelle in den Gender Studies und dem Kulturwissenschaftlichen Seminar der Humboldt-Universität zu Berlin sowie durch ein Stipendium des IAS-STS ermöglicht wurde. Frühere Versionen dieses Papers sind auf der 9th IAS-STS Annual Conference: Critical Issues in Science and Technology Studies, im Rahmen des BIOS Roundtable am Londoner BIOS Center der London School of Economics sowie des jährlichen Workshops des DFG-Graduiertenkollegs Geschlecht als Wissenskategorie diskutiert worden. Die englische Version ist zudem vom Netzwerk Comparative understanding of ‚BRCA‘ breast-cancer gene research & medical practices: Sonja Palfner, Sahra Gibbon, Galen Joseph, Eirini Kampriani, Jessica Mozersky, and Andrea zur Nieden umfassend diskutiert und lektoriert worden.

2

Ein Bereich, in dem ein weniger reduktionistischer Umweltbegriff in das genomische Feld Eingang gefunden hat, ist die Toxicogenomics. Dort gilt das Interesse der Verbindung zwischen Gen- und Proteinaktivität als Antwort auf toxische Substanzen. Sara Shostak (2010) untersucht die Tatsache, dass zumindest einige Bereiche genomischer Forschung ein weiteres Feld sozialer Referenzen umfasst.

U MWELTKONZEPTE IN

DER

E PIGENETIK | 263

L ITERATUR Asch, Bonnie B./Barcellos-Hoff, Mary Helen (2004): Introduction: Epigenetics and breast cancer. Journal of Mammary Gland Biology and Neoplasia 6 (2): 151-152. Beck, Stephan/Berlin, Kurt/Eckhardt, Florian (2005): Das Epigenomprojekt. Medgen 17: 265-269. Bradbury, Jane (2003): Human epigenome project – up and running. PLoS Biology 1 (3): 82. Burren, Susanne/Rieder, Katrin (2000): Organismus und Geschlecht in der genetischen Forschung. Eine wissenssoziologische Studie. Bern: Universität Bern. Cloud, John (2010): Why genes aren’t destiny. The new field of epigenetics is showing how your environment and your choices can influence your genetic code – and that of your kids’. Time Magazine 06.01.2010. Online verfügbar unter: http://www.time.com/time/health/article/0,8599,19519 68,00.html [02.08.2010]. Deutsches Krebsforschungszentrum (2010): Division of Epigenetics. Online verfügbar unter: http://www.dkfz-heidelberg.de/en/epigenetik/ [02.11.2010]. Dobrovic, Alexander/Kristensen, Lasse S. (2002): DNA methylation, epimutations and cancer predisposition. The International Journal of Biochemistry & Cell Biology 41 (1): 34-39. Dworking, Amy M./Huang, Tim H.-M./Ewart Toland, Amanda (2009): Epigenetic alterations in the breast: Implications for breast cancer detection, prognosis and treatment. Seminars in Cancer Biology 19 (3): 165-171. Dunckley, Joe (2008): Evelyn Fox Keller on genes, evolution and epigenetics. Online verfügbar unter: http://joe.dunckley.me.uk/2010/08/evelynfox-keller-on-genes-evolution-and-epigenetics-2/ [02.11.2010]. Epigenomics (2010): Publikationen. Online verfügbar unter: www.epigenomics.com/de/Newsroom/wissenschaftliche-publikationen [02.11.2010]. Epigenomics (2010a): Epigenomics completes Euro 28m financing and establishes its supervisory and scientific advisory boards. Online verfügbar unter: http://www.epigenomics.com/en/Newsroom/Press_Releases/2000/ dated-news/EPIGENOMICS_schliesst_ein_28_Mio_Euro_Finanzierungs

264 | U TE KALENDER

programm_ab_und_richtet_Aufsichts-_und_Beratungsraete_ein.html [02.11.2010]. Epigenome NoE (2010): What is epigenetics? Online verfügbar unter: http://epigenome.eu/en/1,1,0 [02.11.2010]. Esteller, Manel (2006): The necessity of a human epigenome project. Carcinogenesis 27 (6): 1121-1125. Fox Keller, Evelyn (1998): Das Leben neu denken: Methaphern der Biologie im 20. Jahrhundert. München: Kunstmann. Genomic Enterprise (2010): Epigenomics. Online verfügbar unter: http://genomicenterprise.com/epigenomics [02.11.2010]. Gibbon, Sahra (2007): Breast Cancer Genes and the Gendering of Knowledge: Science and Citizenship in the Cultural Context of the ‘New’ Genetics. London: Palgrave Macmillan. Halbert (2009): Interview geführt von Ute Kalender, Berlin. Human Epigenome Project (2010): Human Epigenome Project. Online verfügbar unter: http://www.epigenome.org/index.php?page=consortium [02.11.2010] Jones, Peter A./Martienssen, Robert (2005): A blueprint for a Human Epigenome Project: the AACR Human Epigenome Workshop. Cancer Res 65: 11241-11246. Landecker, Hannah (2008): Die Körpermodelle der Epigenetik. Das innere Laboratorium und die molekulare Leitung. Gen-ethischer Informationsdienst, GiD Spezial 8: 42-55. Lemke, Thomas (2004): Die Gene der Frau: Humangenetik als Arena der Geschlechterpolitik. Feministische Studien 22: 22-38. Littig, Beate (2008): Interviews mit Eliten – Interviews mit ExpertInnen: Gibt es Unterschiede? Forum Qualitative Sozialforschung Forum: Qualitative Social Research 9 (3): Art. 16. Online verfügbar unter: http://nbnresolving.de/urn:nbn:de:0114-fqs0803161. Maier (2009): Interview geführt von Ute Kalender. London. Meuser, Michael/Nagel, Ulrike (2004): ExpertInneninterview: Zur Rekonstruktion spezialisierten Sonderwissens. S. 326-330 in: Becker, Ruth/Kortendiek, Beate (Hrsg.): Handbuch Frauen- und Geschlechterforschung: Theorie, Methoden, Empirie. Wiesbaden: VS Verlag für Sozialwissenschaften.

U MWELTKONZEPTE IN

DER

E PIGENETIK | 265

Palfner, Sonja (2009): Gen-Passagen. Molekularbiologische und medizinische Praktiken im Umgang mit Brustkrebs: Wissen – Technologie – Diagnostik. Bielefeld: transcript. Parnes, Ohad (2006): Epigenetics: Where nature meets culture. Trajekte. Zeitschrift des Zentrums für Literatur- und Kulturforschung, Extraheft 10 Jahre ZfL: 91-93. Prawitt, Dirk/Zabel, Bernhard (2005): Krebsepigenetik. Medgen 17: 296302. Rauscher, Frank J. (2005): It is time for a Human Epigenome Project. Cancer Res 65: 11229. Rheinberger, Hans-Jörg (2006): Experimentalsysteme und epistemische Dinge. Frankfurt am Main: Suhrkamp. Shostak, Sara/Freese, Jeremy (2010): Gene environment interaction and medical sociology. S. 418-434 in: Bird, Chloe E./Conrad, Peter/Fremont, Allen M./Timmermans, Stefan (Hrsg.): Handbook of Medical Sociology. Nashville: Vanderbilt University Press. Spanzer (2009): Interview geführt von Ute Kalender. Berlin. Zur Nieden, Andrea (2010): The embodiment of genetic risk. Women’s experiences of genetic testing for breast cancer susceptibility mutations. Yearbook 2009 of the Institute for Advanced Studies on Science Technology and Society (IAS-STS). Zur Nieden, Andrea (2007): If there is a risk inside of me, I am the first person who should know about it: Images of ‚genetic risks‘ as anticipation of the future. In: Heil, Reinhard et al. (Hrsg.): Tensions and Convergences. Technological and Aesthetic (Trans)formations of Society. Bielefeld: transcript.

Autorinnen und Autoren

Compagna, Diego, ist Postdoktorand am Fachgebiet Regelungstechnik der Technischen Universität Berlin. Er beschäftigt sich in kritischer Absicht mit den anthropologischen Grundlagen soziologischer Theorie und der Formulierung alternativer Akteurmodelle (Cyborgs, Roboter und andere robuste Organismen, die eine atomare Katastrophe überdauern würden). Empirisch untersucht er digitale Spiele, Roboter und Ingenieure. Dickel, Sascha, ist wissenschaftlicher Mitarbeiter am Friedrich SchiedelStiftungslehrstuhl für Wissenschaftssoziologie an der Technischen Universität München. Sein Arbeitsgebiet ist die Soziologie der technologischen Gesellschaft (insbesondere: digitale Kommunikation, Technoscience, Zukunftssemantik und Biopolitik). Kaiser, Mario, hat in Basel Philosophie, Zoologie und Informatik studiert. Darauf hat er als wissenschaftlicher Mitarbeiter und Assistent das Basler Programm für Wissenschaftsforschung mit aufgebaut. Promoviert hat er in Philosophie mit einer Arbeit zu technischen Zukünften und ihren politischen Auswirkungen in der Gegenwart. Er hat Handbücher und Sammelbände zur Wissenschaftssoziologie herausgeben und zu Themen wie Chronopolitik, Technikfolgenabschätzung und der Grammatik von Technik publiziert. Derzeit ist er Fellow am Zentrum für Religion, Wirtschaft und Politik und Collegium Helveticum in Basel. Kalender, Ute, ist Postdoktorandin an der Berlin School of Public Health, Charité Universitätsmedizin in einem Projekt zur Nationalen Kohorte. Ihre

268 | L EBEN ZWISCHEN N ATUR UND K ULTUR

Forschungsschwerpunkte sind New Queer Materialism, Feminist Cultural Studies on Science and Technology und Kritische Disability Studies. Rueda, Eduardo A., is Director at the Institute of Bioethics, Universidad Javeriana, Colombia. He is a member of the UNESCO Latin-American Network on Bioethics Advisory Board and he also leads the working group on political philosophy at the Latin American Council of Social Sciences. He was visiting researcher at University of Oslo (2006) and Scholar in Residence at Kulturwissenschaftenliches Institute in Essen (2010). In 2011 he receives the Research Prize from Victor i Lucas Foundation in Barcelona for his work on uncertainty and informed consent in genetic testing. His research interests include the cultural, political and ethical issues of emerging genetic and neurotechnologies. Schumann, Simone, ist Doktorandin, Lektorin und ehemalige Projektmitarbeiterin am Institut für Wissenschafts- und Technikforschung der Universität Wien. In ihrer Dissertation untersucht sie wie österreichische BürgerInnen eine neue technowissenschaftliche Entwicklung (Nanotechnologie) in ihre Lebenswelt integrieren und mit Bedeutung versehen. Den Fokus legt sie hierbei auf das aktuelle Spannungsfeld Technik und Ernährung (Nanofood). Schwarz, Claudia G., ist Projektleiterin bei Open Science – Lebenswissenschaften im Dialog und Lektorin am Institut für Wissenschafts- und Technikforschung der Universität Wien. Sie hat an der Universität Wien im Fach Soziologie (Schwerpunkt Wissenschafts- und Technikforschung) mit einer Arbeit zur Rolle von Analogien in Laiendiskussionsrunden zu Nanotechnologie promoviert. Weber, Jutta, ist Technikforscherin, Philosophin und Professorin für Medienwissenschaften an der Universität Paderborn. Sie arbeitete u.a. an Universitäten in Uppsala, Wien, Bremen, Lancaster, Aachen und Braunschweig. Ihre Arbeitsschwerpunkte sind: Science & Technology Studies; Surveillance & Critical Security Studies, Medien, Kultur & Gesellschaft sowie Gender Studies.

A UTORINNEN UND A UTOREN | 269

Weiß, Martin G., ist Assistenz-Professor am Institut für Philosophie der AAU Klagenfurt und Mitglied der Forschungsplattform Life-Science-Governance der Universität Wien. Forschungsschwerpunkte: Phänomenologie, Hermeneutik, Italienische Philosophie, Philosophische Postmoderne, Bioethik, Wissenschafts- und Technikforschung. zur Nieden, Andrea, ist wissenschaftliche Mitarbeiterin am Institut für Soziologie an der Albert-Ludwigs-Universität Freiburg. Sie arbeitet u.a. zur Soziologie und Geschichte der Medizin und des Körpers.

Science Studies Manfred E.A. Schmutzer Die Wiedergeburt der Wissenschaften im Islam Konsens und Widerspruch (idschma wa khilaf) Oktober 2015, ca. 500 Seiten, Hardcover, ca. 49,99 €, ISBN 978-3-8376-3196-8

Thomas Etzemüller Auf der Suche nach dem Nordischen Menschen Die deutsche Rassenanthropologie in der modernen Welt Oktober 2015, 294 Seiten, kart., zahlr. z.T. farb. Abb., 29,99 €, ISBN 978-3-8376-3183-8

Kirsten Schmidt Was sind Gene nicht? Über die Grenzen des biologischen Essentialismus 2013, 348 Seiten, kart., 29,99 €, ISBN 978-3-8376-2583-7

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Edgar Grande, Dorothea Jansen, Otfried Jarren, Arie Rip, Uwe Schimank, Peter Weingart (Hg.) Neue Governance der Wissenschaft Reorganisation – externe Anforderungen – Medialisierung 2013, 374 Seiten, kart., zahlr. Abb., 32,80 €, ISBN 978-3-8376-2272-0

Tristan Thielmann, Erhard Schüttpelz (Hg.) Akteur-Medien-Theorie 2013, 776 Seiten, Hardcover, zahlr. Abb. , 39,80 €, ISBN 978-3-8376-1020-8

Rudolf Stichweh Wissenschaft, Universität, Professionen Soziologische Analysen 2013, 360 Seiten, kart., 34,80 €, ISBN 978-3-8376-2300-0

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Christian Dieckhoff, Anna Leuschner, Frederike Neuber (Hg.) Die Energiewende und ihre Modelle Was uns Energieszenarien sagen können – und was nicht

Christian Dieckhoff Modellierte Zukunft Energieszenarien in der wissenschaftlichen Politikberatung

September 2016, ca. 160 Seiten, kart., ca. 29,99 €, ISBN 978-3-8376-3171-5

April 2015, 284 Seiten, kart., 34,99 €, ISBN 978-3-8376-3097-8

Dania Achermann Institutionelle Identität im Wandel Zur Geschichte des Instituts für Physik der Atmosphäre in Oberpfaffenhofen Februar 2016, ca. 290 Seiten, kart., zahlr. Abb., ca. 39,99 €, ISBN 978-3-8376-3142-5

Cheryce von Xylander, Alfred Nordmann (Hg.) Vollendete Tatsachen Vom endgültig Vorläufigen und vorläufig Endgültigen in der Wissenschaft Dezember 2015, ca. 320 Seiten, kart., ca. 34,99 €, ISBN 978-3-8376-2542-4

Christian Kehrt Mit Molekülen spielen Wissenschaftskulturen der Nanotechnologie zwischen Politik und Medien November 2015, ca. 300 Seiten, kart., zahlr. z.T. farb. Abb., ca. 39,99 €, ISBN 978-3-8376-3202-6

Anna-Sophie Jürgens, Tassilo Tesche (Hg.) LaborARTorium Forschung im Denkraum zwischen Wissenschaft und Kunst. Eine Methodenreflexion

Fabian Karsch Medizin zwischen Markt und Moral Zur Kommerzialisierung ärztlicher Handlungsfelder März 2015, 256 Seiten, kart., zahlr. Abb., 32,99 €, ISBN 978-3-8376-2890-6

Matthias Groß Experimentelles Nichtwissen Umweltinnovationen und die Grenzen sozial-ökologischer Resilienz 2014, 202 Seiten, kart., 29,99 €, ISBN 978-3-8376-2855-5

Gert Dressel, Wilhelm Berger, Katharina Heimerl, Verena Winiwarter (Hg.) Interdisziplinär und transdisziplinär forschen Praktiken und Methoden 2014, 366 Seiten, kart., 34,99 €, ISBN 978-3-8376-2484-7

Oliver Ibert, Felix C. Müller, Axel Stein Produktive Differenzen Eine dynamische Netzwerkanalyse von Innovationsprozessen 2014, 234 Seiten, kart., 32,99 €, ISBN 978-3-8376-2699-5

Tobias Cheung Organismen. Agenten zwischen Innen- und Außenwelten 1780-1860 2014, 348 Seiten, kart., 34,99 €, ISBN 978-3-8376-2646-9

Juli 2015, 336 Seiten, kart., zahlr. Abb., 34,99 €, ISBN 978-3-8376-2969-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de