Essen in Europa: Kulturelle »Rückstände« in Nahrung und Körper [1. Aufl.] 9783839413944

Was der (europäische) Mensch isst, wird heutzutage nicht zuletzt durch Wissenschaft, Technologie und Markt reguliert. Im

166 75 2MB

German Pages 196 Year 2014

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Wie der Europäer is(s)t. Europäisierung durch Molekularisierung, Standardisierung und kreative Traditionalisierung von Nahrung und Ernährung
Die Weinklassifikation im Zeitalter der Globalisierung: Das Beispiel der französischen Weine
Der Schutz der geographischen Nahrungsmittelherkunft in Norwegen als Übersetzungs- und Transformationsprozess
Die Standardisierung von Natürlichkeit und Herkunft
Zum Konzept der Ernährung am Deutschen Institut für Ernährungsforschung und seinen Vorläufern (1946 bis 1989)
Epidemiologische Räume der Wissensproduktion in Europa
Nahrung als Exposition. Epigenetik der Ernährung und die Molekularisierung der Umwelt
Nutrigenomik. Technowissenschaftliches Fine-Tuning von Nahrung und Körper
Autorinnen und Autoren
Recommend Papers

Essen in Europa: Kulturelle »Rückstände« in Nahrung und Körper [1. Aufl.]
 9783839413944

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Susanne Bauer, Christine Bischof, Stephan Gabriel Haufe, Stefan Beck, Leonore Scholze-Irrlitz (Hg.) Essen in Europa

Band 5

Editorial Die neuere empirische Wissenschaftsforschung hat sich seit den späten 1970er Jahren international zu einem der wichtigsten Forschungszweige im Schnittfeld von Wissenschaft, Technologie und Gesellschaft entwickelt. Durch die Zusammenführung kulturanthropologischer, soziologischer, sprachwissenschaftlicher und historischer Theorie- und Methodenrepertoires gelingen ihr detaillierte Analysen wissenschaftlicher Praxis und epistemischer Kulturen. Im Vordergrund steht dabei die Sichtbarmachung spezifischer Konfigurationen und ihrer epistemologischen sowie sozialen Konsequenzen – für gesellschaftliche Diskurse, aber auch das Alltagsleben. Jenseits einer reinen Dekonstruktion wird daher auch immer wieder der Dialog mit den beobachteten Feldern gesucht. Ziel dieser Reihe ist es, Wissenschaftler/-innen ein deutsch- und englischsprachiges Forum anzubieten, das • inter- und transdisziplinäre Wissensbestände in den Feldern Medizin und Lebenswissenschaften entwickelt und national sowie international präsent macht; • den Nachwuchs fördert, indem es ein neues Feld quer zu bestehenden disziplinären Strukturen eröffnet; • zur Tandembildung durch Ko-Autorschaften ermutigt und • damit vor allem die Zusammenarbeit mit Kollegen und Kolleginnen aus den Natur- und Technikwissenschaften unterstützt, kompetent begutachtet und kommentiert. Die Reihe wendet sich an Studierende und Wissenschaftler/-innen der empirischen Wissenschafts- und Sozialforschung sowie an Forscher/-innen aus den Naturwissenschaften und der Medizin. Die Reihe wird herausgegeben von Martin Döring und Jörg Niewöhner. Wissenschaftlicher Beirat: Regine Kollek (Universität Hamburg, GER), Brigitte Nerlich (University of Nottingham, GBR), Stefan Beck (Humboldt Universität, GER), John Law (University of Lancaster, GBR), Thomas Lemke (Universität Frankfurt, GER), Paul Martin (University of Nottingham, GBR), and Allan Young (McGill University Montreal, CAN).

Susanne Bauer, Christine Bischof, Stephan Gabriel Haufe, Stefan Beck, Leonore Scholze-Irrlitz (Hg.)

Essen in Europa Kulturelle »Rückstände« in Nahrung und Körper

Das diesem Bericht zugrunde liegende Vorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) unter dem Förderkennzeichen 01GWS046 gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei den Autorinnen und Autoren.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2010 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus Umschlagabbildung: »Verschiedene Garmachungsarten«, Schautafel Deutsches Hygienemuseum Dresden (Ausschnitt), Privatbesitz L. Scholze-Irrlitz. Satz: Justine Haida, Bielefeld Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-1394-0 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

Wie der Europäer is(s)t. Europäisierung durch Molekularisierung, Standardisierung und kreative Traditionalisierung von Nahrung und Ernährung Stefan Beck, Leonore Scholze-Irrlitz

Die Weinklassifi kation im Zeitalter der Globalisierung: Das Beispiel der französischen Weine Marie-France Garcia-Parpet

Der Schutz der geographischen Nahrungsmittelherkunft in Norwegen als Übersetzungs- und Transformationsprozess Atle Wehn Hegnes

Die Standardisierung von Natürlichkeit und Herkunft Stephan Gabriel Haufe

Zum Konzept der Ernährung am Deutschen Institut für Ernährungsforschung und seinen Vorläufern (1946 bis 1989) Ulrike Thoms

9

21

43

65

89

Epidemiologische Räume der Wissensproduktion in Europa Christine Bischof

113

Nahrung als Exposition. Epigenetik der Ernährung und die Molekularisierung der Umwelt Hannah Landecker

135

Nutrigenomik. Technowissenschaftliches Fine-Tuning von Nahrung und Körper Susanne Bauer

163

Autorinnen und Autoren

191

Danksagung

Der vorliegende Band entstand im Kontext des Projekts »Der Homo Europaeus in Nahrungsforschung und Medizin«, das als Teil des Verbundprojekts »Imagined Europaeans« von 20062009 vom Bundesministerium für Bildung und Forschung gefördert wurde (Förderkennzeichen 01GWS046). Für Inspiration und Unterstützung danken wir den Kollegen und Kolleginnen des Collaboratory: Social Anthropology and Life Sciences (C:SL) am Institut für Europäische Ethnologie der Humboldt Universität zu Berlin. Ebenso gilt unser Dank Louise Kreuschner und Katrin Ebell, die uns als studentische Hilfskräfte beim Auf bau der Literaturdatenbank sowie beim Lektorat unterstützt haben. Susanne Bauer, Christine Bischof, Stephan Gabriel Haufe, Stefan Beck und Leonore Scholze-Irrlitz

Wie der Europäer is(s)t. Europäisierung durch Molekularisierung, Standardisierung und kreative Traditionalisierung von Nahrung und Ernährung Stefan Beck, Leonore Scholze-Irrlitz

Die in diesem Buch versammelten Beiträge wählen eine ungewöhnliche Perspektive auf Europäisierungsprozesse, sie gehen einen Umweg: sie nähern sich der Frage, was der Europäer ist, über das, was er isst, über seine Ernährung. Diese Entscheidung zum Umweg ist nicht dadurch motiviert, dass mit der »gemeinsamen Agrarpolitik« ein altes – jedoch bislang sozial- und kulturwissenschaftlich wenig beobachtetes – (Schlacht-)Feld des europäischen Einigungsprozesses thematisiert wird. Die Agrarpolitik stellt vielmehr eines jener Politikfelder dar, an dem sich Prozesse, Mechanismen und Instrumente der Europäisierung gut beobachten lassen und das zugleich exemplarisch für einen neuen Typus der governance steht, mit dem in Europa alte politische Felder mit neuen Kalkülen und neuartigen Instrumenten der Regierung und Regulierung bearbeitet werden. Das Feld der Lebensmittelpolitik erweist sich dabei als beispielhaft dafür, dass Europäisierung als ein vor allem durch Wissenspraktiken vermittelter Prozess vorangetrieben wird. Konzepte und Strategien klassischer Ernährungswissenschaft nach 1945, die auf Aufklärung und Belehrung der Bevölkerung zielen, arbeitet der Beitrag von Ulrike Thoms am Beispiel des

10 | Stefan Beck, Leonore Scholze-Irrlitz

Deutschen Institutes für Ernährungsforschung heraus. Im Gegensatz zu diesen zentralistischen und auf »Pädagogisierung« setzenden Versuchen, Ernährungsverhalten zu beeinflussen, setzt die EU auf neue gouvernementale Praktiken: auf ein unübersichtliches und oft höchst widersprüchliches »Mikro-Management«, dessen zentrale Mittel – neben »Aufklärung« – Regulationen, Standardisierungen oder Normierungen sind. Nicht zuletzt unter dem Eindruck der Skandale um BSE oder »Gammelfleisch« hat sich die EU in der zweiten Hälfte der 1990er Jahre zum grundsätzlichen Politikwechsel verpflichtet. Die Prinzipien, mit denen die EU Konsumentenvertrauen zurückgewinnen wollte, waren dabei die Etablierung institutionell unabhängiger Kontrollmechanismen, die Herstellung von »Transparenz« und die Erkenntnis, dass den Konsumenten selbst eine neue Rolle zukäme – und daher »consumer agency« gestärkt werden müsse (vgl. Bente/Holm 2006). Unter dem Motto »from farm to fork« verpflichtete sich die EU zur strikten Durchsetzung allgemeiner Grundsätze der Lebensmittelsicherheit (Europäische Kommission 2004). Dies ist ein Ansatz, mit dem zwei sehr unterschiedliche Handlungsziele, den Europäer als Konsumenten zu schützen und ihm als Produzenten freien Zugang zum gemeinsamen Markt zu garantieren, miteinander versöhnt und zur Deckung gebracht werden sollen: Einerseits geht es daher um den Schutz des menschlichen Lebens und der menschlichen Gesundheit sowie um den Schutz der Verbraucherinteressen unter Berücksichtigung des Tierschutzes und der artgerechten Tierhaltung, des Pflanzenschutzes und des Umweltschutzes; dabei dominiert das Vorsorgeprinzip. Andererseits geht es um die Garantie des freien Verkehrs der Lebensund Futtermittel in der Europäischen Gemeinschaft; dabei dominiert die Idee des Marktliberalismus. Auf dem europäischen Parkett in Strassburg oder Brüssel wird mithin der Frage, was der Europäer isst, höchste Relevanz zugemessen: nicht nur im Feld der Lebensmittelsicherheit, sondern auch im Feld der Gesundheitspolitik. Denn neuere Studien weisen auf die Gefahr einer durch veränderte Ernährungsmuster ausgelösten »Epidemie der Dickleibigkeit« und der damit assoziierten chronischen Erkrankungen in Europa hin – eine Entwicklung, die wegen der dadurch entstehenden Belastungen für die wohlfahrtsstaatlich organisierten Gesundheitssysteme bei Entscheidungsträgern große Besorgnis auslöst (WHO/European Union 2006).

Wie der Europäer is(s)t | 11

Die Ernährungspolitik in Europa ist damit durch sehr unterschiedliche, aber konvergierende Handlungsgründe charakterisiert. Ebenso gilt für die gewählten Handlungsweisen, dass sie bei aller Unterschiedlichkeit eines gemeinsam haben: Die Wahl der politischen Regulationsinstrumente ist durch recht homogene Vorstellungen darüber geleitet, was der Europäer is(s)t. Beim Essen geht es für die EU – ebenso wie für ihre Bürger – neben Gesundheits- oder Wirtschaftsfragen immer auch um Identitätsfragen. Die EU-Bürokratie hat folglich das Problem zu lösen, wie eine EU-einheitliche Lebensmittelpolitik mit der EULeitidee einer »unity in diversity« vereinbart werden kann, wie Europa als einheitlicher Wirtschafts-, Politik- und Konsumraum mit dem Ziel versöhnt werden kann, die Vielgestaltigkeit dieses historisch gewachsenen »Kulturraumes« zu erhalten. Im Kern geht es darum, wie es möglich wird, eine universale Konzeption des Europäers sowie der Europäerin und die Anerkennung der Tatsache, dass er oder sie in höchst unterschiedlichen sozialen, kulturellen und natürlichen Umwelten lebt, zusammenzudenken und – noch anspruchsvoller – zur Grundlage politischen Handelns zu machen.

Die Er findung europäischer Nahrungskulturen Unter dem EU-Motto »Einheit in der Vielfalt« werden Konzepte wie Heimatgefühl, Traditionsverständnis und Identität mobilisiert, um ein Gegengewicht zu den Vereinheitlichungstendenzen zu schaffen. Das Stichwort hier lautet »promoted differences«: Tiroler Bauernkost wird gegen als beliebig qualifiziertes »Eurogout« in Stellung gebracht; »lokale Nahrungstraditionen« avancieren zu wertvollen und vor allem schützenswerten Ressourcen in einer europäisierten bzw. globalisierten Welt (vgl. Welz 2010). Allerdings – und dies belegen die Artikel im folgenden Band – werden Nahrungstraditionen nicht einfach gefunden, sondern sie werden mit hohem Einsatz an bürokratischer und wissenschaftlicher Expertise erfunden. Regionale Spezialitäten bzw. traditionelle Erzeugnisse werden dabei wissenschaftlich analysiert, bewertet und – durch Standardisierung – gegen Veränderungen stabilisiert. In einem weiteren Schritt werden diese Produkte, die nun durch die EU zertifizierte Traditionsbestände darstellen, aus ihren angestammten lokalen Produk-

12 | Stefan Beck, Leonore Scholze-Irrlitz

tions- und Konsumtionskontexten gelöst und – durch Einsatz von professionellem Marketing – für den europäischen Markt fit gemacht. Vor allem im Nahrungsmittelsektor kann die EU mit Recht als weltweit konkurrenzloser »Massenproduzent von Tradition« bezeichnet werden (vgl. Hobsbawm 1992). Wie im 19. Jahrhundert vom europäischen Bürgertum die »traditionale Volkskultur« als Valium gegen Modernisierungsängste eingesetzt wurde, so (er-)findet die EU Traditionen als Antwort auf die mit sozialen und kulturellen Umbrüchen verbundenen Europäisierungsprozesse: Es entsteht Nahrungstradition™ als Mehrwertgenerator im Prozess der Europäisierung. Zertifizierte Tradition in diesem Sinne setzt jedoch voraus, dass sie gemäß der neuesten, relevanten wissenschaftlichen Standards der Evidenzproduktion unterworfen wurde. Ein Beispiel dafür ist die Regulation des französischen Weinmarktes durch das System der appelation d’orgine controlée, das in diesem Band durch den Beitrag von Marie-France Garcia-Parpet analysiert wird. Das von der EU seit den 1990er Jahren entwickelte System eines »differenzierten Schutzstatus« für ausgewählte Nahrungsmittel baut auf solchen traditionsreichen Instrumenten auf und klassifiziert Nahrungsprodukte in einem analogen System als geschützte geografische Angabe, geschützte Ursprungsbezeichnung oder garantiert traditionelle Spezialität. Um den höchsten EU-Schutzstatus zu erreichen ist es notwendig, ein langwieriges und voraussetzungsreiches Verfahren zu durchlaufen; der Beitrag von Stephan Gabriel Haufe in diesem Band analysiert dies exemplarisch. Ein erfolgreicher Antrag, der dann gewöhnlich deutlich höhere Preise für ein Produkt ermöglicht, setzt voraus, dass Produkteigenschaften, die Darreichungsformen und ästhetischen Eigenschaften der Lebensmittel detailliert dokumentiert und wissenschaftlich überprüfbar gemacht werden. Dafür muss umfangreiches Wissen eingesetzt, eine komplizierte Standardisierungs-, Objektivierungsund Klassifikationsmaschinerie in Gang gesetzt werden. Mit dieser Entwicklung verbundene, zunächst sicher nicht unbedingt beabsichtigte Effekte sind dann z.B. die Kreierung von Konsumenten- und Produzentenkollektiven, die aus ganz unterschiedlichen Ursachen heraus dem Erhalt der regionalen Tradition nahe stehen und damit als Kulturträger verstanden werden können. Beispiel dafür ist in diesem Band der Aufsatz von Atle Wehn Hegnes, der die Generierung einer lokalen »nor-

Wie der Europäer is(s)t | 13

wegischen Kartoffelsorte« analysiert. Gefördert wird dies durch EU-Bestimmungen wie die vom 20. März 2006, die u.a. besagt, dass Anträge auf Produktschutz nur von Produzentenkollektiven gestellt werden können und die »Tradition« als »Weitergabe von (Produktions-)Wissen zwischen den Generationen« definiert. 1 Die Spuren volks- und völkerkundlicher Kulturkonzepte sind hier nicht zu übersehen. Sie finden sich jedoch – jeglicher kritischer Reflexion, wie sie in den Kulturwissenschaften seit Jahrzehnten entwickelt wurde, beraubt – in ganz neuen Anwendungskontexten bzw. europäisch-bürokratischen Verfahren wieder. Doch nicht nur diese Disziplinen werden in Anspruch genommen, sondern Kultur-, Natur- und Regionalwissenschaften in ihrer ganzen Breite. Insofern sind diese Disziplinen auch dabei, ihre eigene Rolle zu untersuchen und zu gewichten. Ergebnisse sind Forschungen, wie sie auch in diesem Band vorgestellt werden.

Biopolitisierung als Europäisierung? Eine weitgehende Leerstelle der kritischen sozialwissenschaftlichen Forschung, die auch durch die im Folgenden vorgestellten Beiträge nicht annähernd geschlossen, sondern allenfalls eruiert werden kann, ist die Untersuchung der zunehmenden Verschränkung epidemiologischer, gesundheitsbezogener Forschungsprogramme, wie sie gegenwärtig im Kontext einer präventiv ausgerichteten Medizin (public health) sichtbar werden (Chaix 2009), mit den Diskursen und Praktiken einer auf genetische oder molekularbiologische Methoden und Theorien zurückgreifenden Nahrungsforschung (Ströhle/Döring 2009; 1 | Zu finden ist diese Defi nition in folgenden EU-Verordnungen: Commission of the European Communities (2006): »Council Regulation (EC) No 509 of 20 March 2006 on agricultural products and foodstuffs as traditional specialties guaranteed«. In: Official Journal of the European Union, L93, 1-11; sowie Commission of the European Communities (2006): »Council Regulation (EC) No 510/2006 of 20 March 2006 on the protection of geographical indications and designations of origin for agricultural products and foodstuffs«. In: Official Journal of the European Union, L93, S. 1225.

14 | Stefan Beck, Leonore Scholze-Irrlitz

2009).2 Beide Tendenzen müssen im Zusammenhang des Entstehens einer neuartigen Wissensbasis analysiert werden, wie sie in westlichen Industriestaaten als neue Form der Biopolitik beginnt und eine Regierungsmacht darstellt, die sich auf individuelle Körper wie auf (Teil-)Bevölkerungen richtet (Foucault 1976; Feuerstein/Kollek 2001). Das Potenzial der neueren Wissenschaftsforschung – ethnografisch vorgehender, wissensanthropologischer Studien ebenso wie wissenschaftshistorischer Analysen der longue durée im Sinne biopolitischer Interventionen – läge vor allem darin, zu untersuchen, inwiefern durch auf den ersten Blick unabhängige Entwicklungen in drei Feldern der Lebenswissenschaften, nämlich 1. durch die Genetisierung der Medizin (Baranov 2000; ten Have 2001), 2. durch die neueren Ergebnisse der Epidemiologie und 3. durch die Molekularisierung der Nahrungsforschung ein neues Verständnis von (kranken) Körpern in sozio-kulturellen Kontexten entsteht. Entgegen einer universalistischen Konzeption des Körpers könnten hier Erkenntnisse von in historische und spezifische Milieus eingebetteten Körperlichkeiten Raum greifen. Mit solchen sozial wie kulturell kontextualisierten Körpern hätten Gesundheitspolitik und Ernährungspolitik gleichermaßen zu rechnen, wie beispielsweise in Bezug auf unterschiedliche Migrantengruppen in Europa (Gilbert/Khokhar 2008; Braun 2002). Die im Folgenden vorgestellten Beiträge können hier immerhin erste Sondierungen vornehmen. Die einzelnen Beiträge fokussieren zum einen auf die neuere epidemiologische Forschung, insbesondere auf die Ernährungsepidemiologie, die auf der Basis europäischer Datenbanken Bevölkerungsstudien durchführt – vgl. hierzu den Artikel von Christine Bischof, die epidemiologische Räume und Praktiken (am Beispiel der Nachbeobachtung) unter dem Stichwort der surveillance medicine untersucht. Zum anderen werden Effekte einer Molekularisierung der Ernährungsforschung im Zuge von Omics-Technologien, Bioinformatik und Epigenetik ana2 | Für einen ersten Überblick über das Potenzial dieser Ver-

schränkung – aber auch über Probleme einer »translation« zwischen den in den unterschiedlichen Forschungsbereichen angewandten theoretischen und methodischen Ansätzen – vgl. McGarvey/Stephen 2009.

Wie der Europäer is(s)t | 15

lysiert – vgl. hierzu den Aufsatz zu Individualisierungseffekten der Nutrigenomik von Susanne Bauer und die von Hannah Landecker in ihrem Beitrag zur Epigenetik der Ernährung analysierte »Molekularisierung der Umwelt«. Diese Sondierungen belegen, dass hier ein neues Wissensfeld entsteht, in dem ehemals inkompatible Phänomenbereiche relationierbar gemacht werden: Ernährungsmuster, langfristige Gesundheitseffekte, Umwelt-Körper-Interaktion etc. werden nun in einer Weise sichtbar gemacht bzw. durch epistemische Praktiken molekularisiert, dass begonnen werden kann, über reine statistische Korrelationen hinaus Wirkweisen und -mechanismen zu postulieren. Es ist dabei kein Zufall, dass diese epistemischen Praktiken, die zur Molekularisierung von Umwelt, Gesundheit/Krankheit und Ernährung/Nahrung eingesetzt werden, auch ein wesentliches Mittel im Rahmen der Antragsverfahren zum Schutz »europäischer Nahrungsmittel« darstellen. Theoretisch bieten hierbei Konzepte der Biodiversität einen wichtigen Orientierungspunkt, aber ebenso scheint ein – oft wenig expliziertes oder selten explizit in Anschlag gebrachtes – Konzept der KoEvolution von Natur und Kultur (Feldman 1996; Thompson 1994; Durham 1991) die Forschungen zu informieren: ob bei der Frage, wie unterschiedliche Populationen durch den Druck chronischer Gesundheitsbelastungen durch Krankheitserreger verschiedenartige Resistenzen entwickeln oder lokale Nahrungsmittel pharmazeutisch nutzen (Etkin 2003), ob hinsichtlich der Interpretation spezifischer Ernährungsmuster als kultureller Selektionsvorteil (Leach et al. 2006) oder eben zur Erklärung populationsspezifischer Nahrungsmittelunverträglichkeiten (Beja-Pereira et al. 2003). Es mag »in der Luft« liegen, dass der Zusammenhang zwischen Ernährung und Krankheitsinzidenzen unterschiedlicher Populationen in europäisch-koordinierten Ernährungsstudien analysiert wird, weil die entsprechenden molekularen Analysetechnologien inzwischen verfügbar sind. So wird etwa der Zusammenhang zwischen kulturell unterschiedlichen Ernährungsweisen und Krebsentstehung seit 1992 in siebenundzwanzig, unter geografischen, kulturellen und sozialen Gesichtspunkten differenzierten Populationen Europas in einer groß angelegten prospektiven Studie analysiert (Riboli et al. 2002; Slimani et al. 2002). Europa dient dabei gleichsam als

16 | Stefan Beck, Leonore Scholze-Irrlitz

»Freiluft-Labor«, welches es gerade durch die historisch gewachsenen, unterschiedlichen Lebensweisen und kulturellen Orientierungen in den Ernährungsmustern erlaubt, mögliche Effekte von Ernährung auf den Gesundheitsstatus zu untersuchen. Hier wird – als überwiegend unintendierte Nebenfolge lebenswissenschaftlicher Forschungen – das Bild einer biologisch zwar hochgradig differenzierten, doch historisch eng verwandten europäischen Bevölkerung entworfen (Beck 2004). In neueren Studien der Sozial- und Kulturwissenschaften wird die These vertreten, dass »Europeanness« oder europäische Identität gerade im Schnittfeld solcher – aus geistes- wie sozialwissenschaftlicher Sicht eher entlegen, unspektakulär oder gar unschuldig erscheinenden – EU-Programme hergestellt wird, die allein auf die Beeinflussung gesellschaftlicher Subsysteme und technokratischer Diskurse ausgerichtet erscheinen (Bellier/Wilson 2000). Im Gegensatz zu den wenig erfolgreichen Brüsseler Identitätskampagnen und Versuchen, eine verbindende Symbolik für europäische Bürger zu erfinden, reichen diese Programme weit – jedoch weitgehend unbemerkt – in den Alltag der europäischen Bürger hinein: über die Transformation relevanter Infrastrukturen des Alltagslebens (etwa im Feld der Kommunikationstechnologien), die Veränderung von Marktmechanismen und -bedingungen (etwa bei der Arbeitsmobilität), von Gesundheitspraxen oder Versorgungsstrukturen bis hin zu einem einheitlichen Rechtsrahmen, der dem Homo Europaeus einheitliche Grundrechte garantiert. Es sind diese alltagsnahen, unspektakulären Restrukturierungen, in denen »Europeanness« erzeugt wird (Borneman 1997; Barry 2002). Der Homo Europaeus erweist sich hierbei als eine Art sich selbst erzeugender Archetyp, als ein imaginäres Konstrukt, das als Leitbild europäische Diskurse, Politiken und Wissenspraktiken voraussetzt und von diesen auch fortgeschrieben wird: Die Konstellation erinnert ein wenig an Walter Benjamins Engel der Geschichte, der, mit dem Rücken voran, den Blick immer auf die »eigenen Traditionen« geheftet, in die Zukunft schreitet und sich dabei immer wieder häutet.

Wie der Europäer is(s)t | 17

Abbildung 1: »Die 5 Nährstoffgruppen«, Schautafel Deutsches Hygienemuseum Dresden, Privatbesitz L. Scholze-Irrlitz

Literatur Baranov, V.S. (2000): »Molecular Medicine: Molecular Diagnostics, Preventive Medicine, and Gene Therapy«. In: Molecular Biology 34 (4), S. 590-600. Barry, Andrew (2002): »In the Middle of the Network«. In: Law, John und Mol, Annemarie (Hg.), Complexities. Social Studies of Knowledge Practices, Durham: Duke University Press, S. 142-165. Beck, Stefan (2004): »Alltage, Modernitäten, Solidaritäten. Soziale Formen und kulturelle Aneignung der Biowissenschaften – Plädoyer für eine vergleichende Perspektive«. Zeitschrift für Volkskunde (1), S. 1-30. Beja-Pereira, Albano/Luikart, Gordon/England, Philipp R. et al. (2003): »Gene-culture Coevolution between Cattle Milk Protein Genes and Human Lactase Genes«. In: Nature Genetics, 35 (4), S. 311-313. Bellier, Irène/Wilson, Thomas M. (2000): An Anthropology of the European Union: Building, Imagining and Experiencing the New Europe, London: Berg. Borneman, John/Fowler, Nick (1997): »Europeanization«. In: Annual Review of Anthropology 26, S. 487-514.

18 | Stefan Beck, Leonore Scholze-Irrlitz

Braun, Lundy (2002): »Race, Ethnicity and Health«. In: Perspectives in Medicine and Health 45 (2), S. 159-174. Chaix, Basile (2009): »Geographic Life Environments and Coronary Heart Disease: A Literature Review, Theoretical Contributions, Methodological Updates and a Research Agenda«. In: Annual Review of Public Health 30 (1), S. 81-105. Durham, William H. (1991): Coevolution: Genes, Culture, and Human Diversity, Stanford: Stanford University Press. Etkin, Nina L. (2003): »The Co-Evolution of People, Plants and Parasites: Biological and Cultural Adaptations to Malaria«. In: Proceedings of the Nutrition Society 62 (2), S. 311-317. European Commission (2004, Juli): »From Farm to Fork. Safe food for Europe’s consumers«. Luxembourg: Office for Official Publications of the European Communities. Feldman, Marc W./Kevin N. Laland (1996): »Gene-Culture Coevolutionary Theory«. In: Trends in Ecology and Evolution 11 (11), S. 453-457. Feuerstein, Günter/Regine Kollek (2001, 29.Juni): »Vom genetischen Wissen zum sozialen Risiko: Gendiagnostik als Instrument der Biopolitik«. In: Aus Politik und Zeitgeschichte: Beilage zur Wochenzeitung »Das Parlament« o.J. (27), S. 26-33. Foucault, Michel (1997): Histoire de la sexualité. Paris: Gallimard. Gilbert, Penelope A./Khokhar, Santosh (2008): »Changing Dietary Habits of Ethnic Groups in Europe and Implications for Health«. In: Nutrition Review 66 (4), S. 203-215. Halkier, Bente/Holm, Lotte (2006): »Shifting Responsibilities for Food Safety in Europe: An introduction«. In: Appetite 47 (2), S. 127-133. Hobsbawm, Eric (1992): »Mass-Producing Traditions: Europe, 1870-1914«. In: E. Hobsbawm and T. Ranger (Hg.), The Invention of Tradition, Cambridge: Cambridge University Press, S. 263-308. Jablonka, Eva/Lamb, Marion J. (2005): Evolution in Four Dimensions: Genetic, Epigenetic, Behavioral, and Symbolic Variation in the History of Life, Cambridge, Mass.: MIT Press. Leach, Jeff D./Gibson, Glenn R./Van Loo, Jan (2006): »Human Evolution, Nutritional Ecology and Prebiotics in Ancient Diet«. In: Bioscience and Microflora 25 (1), S. 1-8.

Wie der Europäer is(s)t | 19

Lupien, Sonia J./McEwen, Bruce S./Gunnar, Megan R./Heim, Christine (2009): »Effects of Stress throughout the Lifespan on the Brain, Behaviour and Cognition«. In: Natural Review of Neuroscience 10 (6), S. 434-445. McGarvey, Stephen T. (2009): »Interdisciplinary Translational Research in Anthropology, Nutrition and Public Health«. In: Annual Review of Anthropology 38 (1), S. 233-249. Niewöhner, Jörg (2009): »Epigenetics. Changing Modes of Linking Inside and Outside«. Working Paper des Collaboratory: Social Anthropology & Lifesciences (C:SL) am Institut für Europäische Ethnologie der Humboldt Universität Berlin. Pearson, Helen (2007): »Meet the Human Metabolome«. In: Nature 446, S. 8. Rheinberger, Hans-Jörg (2006): Epistemologie des Konkreten. Studien zur Geschichte der modernen Biologie. Frankfurt a.M.: Suhrkamp. Riboli, E./Hunt K.J./Slimani, N. et al. (2002): »European Prospective Investigation into Cancer and Nutrition (EPIC): Study Populations and Data Collection«. In: Public Health Nutrition 5 (6 B), S. 1113-1124. Slimani, N./R. Kaaks/P. Ferrari et al. (2002): »European Prospective Investigation into Cancer and Nutrition (EPIC) Calibration Study: Rationale, Design and Population Characteristics«. In: Public Health Nutrition 5 (6 B), S. 1125-1145. Ströhle, Alexander/Döring, Frank (2009): »Zur Molekularisierung der Ernährungsforschung. Was heißt und zu welchem Ende treibt man Ernährungswissenschaft? Teil 1: Der wissenschaftliche Status quo der Ernährungswissenschaft«. In: Ernährungsumschau 56 (4), S. 202-207. Ströhle, Alexander/Döring, Frank (2009): »Zur Molekularisierung der Ernährungsforschung, Teil 2: Von den kognitiven Zielen und Grenzen der molekularen Ernährungsforschung«. In: Ernährungsumschau 56 (5), S. 282-287. ten Have, Henk A.M.J. (2001): »Genetics and Culture: The Genetization Thesis«. In: Medicine, Health Care and Philosophy 4, S. 295-304. Thompson, John N. (1994): The Coevolutionary Process, Chicago: Chicago University Press. Welz, Gisela (2010): »European Food Cultures: Diversity, Regulation, and Heritage Production«. In: Blackwell Companion

20 | Stefan Beck, Leonore Scholze-Irrlitz

to the Anthropology of Europe, Malden/Oxford: Basil Blackwell, (im Druck). WHO Regional Office for Europe (2006): »WHO European Ministerial Draft Charta on Counteracting Obesity. Conference Report«. In: World Health Organisation (www.euro.who.int/ document/E90143.pdf, letzter Zugriff am 19.1.2010) Wishart, D. S. (2007): »Proteomics and the Human Metabolome Project«. In: Expert Review of Proteomics 4 (3), S. 333-335.

Die Weinklassifikation im Zeitalter der Globalisierung: Das Beispiel der französischen Weine Marie-France Garcia-Parpet

In ihrem Werk »The Oxford Companion of Wine« (1999) unterscheidet Jancis Robinson die Weinproduktion traditioneller Herkunftsländer vom Weinbetrieb in der so genannten ›Neuen Welt‹. Bei Ersterem stünden das terroir, 1 das Anbaugebiet und alte Herstellungsmethoden im Vordergrund. In der ›Neuen Welt‹ dagegen würden moderne Technologien als Schlüssel zur erfolgreichen Weinbereitung und zur konstanten Weinqualität gelten. In der traditionsreichen ›Alten Welt‹ stehe, laut Robinson, die Natur im Mittelpunkt, sie werde als Antriebskraft gesehen. In der ›Neuen Welt‹ hingegen gelte sie als verdächtig – sie sei ein Feind, den man mit Hilfe wissenschaftlicher Akribie zähmen müsse. Diese geographisch angelegte Unterscheidung zwischen terroir-Weinen und ›Hightech-Weinen‹ scheint sehr schematisch. Doch eine vergleichbare Konfrontation spaltete zu Beginn des 20. Jahrhunderts die französischen Weinbäuerinnen und Weingroßhändler. Parallel zur Herausbildung anderer Lebensstile und Kulturwerte in neuen Weinländern stellten 1 | Der Begriff terroir betont dabei die soziale und historische Spezifität und umfasst darüber hinaus Bodenqualität, Klima, Bewirtschaftungstraditionen und rechtlich legitimierte Weinherstellungspraktiken.

22 | Marie -France Garcia-Parpet

veränderte Nachfragepräferenzen das historisch verankerte, terroir-basierte ›Exzellenzmodell‹ in Frage. Diesen Entwicklungen in der französischen Weinproduktion vom frühen 20. Jahrhundert bis heute geht dieses Kapitel nach und untersucht die Institutionalisierung der Weinproduktion und des Weinkonsums.

Entstehung von Weinqualitäten im 20. Jahrhunder t Die Weinherstellung war zu Beginn des 20. Jahrhunderts von einer traditionellen, ›naturorientierten‹ und staatlich legitimierten Definition des Weinanbaus geprägt. Der Durchbruch der ›Neuen Welt‹ forderte ihre Legitimation zunehmend heraus. Unabhängig davon wird die Qualität von Wein auf verschiedenen Ebenen bestimmt. Einerseits wird die Weinqualität sozial verhandelt, und das in mehreren Dimensionen; andererseits definiert sie sich durch das Zusammenwirken objektiver, natürlicher und technischer Eigenschaften. Wein verdankt seine soziale Dimension 2 dem terroir, den Rebsorten, den Herstellungsmethoden, aber auch und vor allem dem Faktor Zeit. Dieser ist entscheidend in der Entwicklung von Weinmerkmalen. Soziologisch betrachtet ist der Umgang mit Wein vergleichbar mit der Art sich zu kleiden, sich einzurichten oder seine Freizeit zu gestalten. Er ist Teil jener alltäglichen Handlungen, die den Menschen sozial verorten: Wein wird mit Lebensstil verbunden; Wein steht ebenso für Geselligkeit und Gastlichkeit; an ihm wird gemessen, wie bedeutend Gast und Anlass sind. Die Gastgeberin wird danach beurteilt, welchen Wein sie ihrem Gast einschenkt (Bourdieu 1978) – der Gast, wie er den Wein trinkt und schätzt. 2 | In Frankreich ist der Wein in seiner Herstellung von der Natur abgeleitet. In den USA wird er als etwas verstanden, das man industriell gegen die Natur herstellen muss. Die Produktionsweise unterscheidet sich völlig: In Frankreich zielt die Politik auf eine Begrenzung der Produktionsgebiete. Während in Frankreich Innovationen im Namen der Tradition beschränkt werden, wird in den USA eine sehr liberale Politik verfolgt, der beispielsweise mit systematischen Einsatz von Werbung und geradezu einem Innovationskult einhergeht.

Die Weinklassifikation im Zeitalter der Globalisierung | 23

Das Abfüllen von Wein und die klimatisch bedingte Unterscheidung in Jahrgänge sind auf Konsumgewohnheiten zurückzuführen, die sich im Laufe des 18. Jahrhunderts in den oberen, finanziell und familiär privilegierten Schichten des Adels entwickelt haben (Garrier 1998: 255). Die leichten Bordeauxweine, die so genannten clairets, verloren die Gunst der englischen Aristokratie, die sich allmählich für die New French clairets, d.h. für die farbenkräftigen vins noirs aus dem Médoc interessierte. Diese Weine waren nach Jahrgängen geordnet und stammten aus den Bordeauxgebieten einer technisch und finanziell avancierten Aristokratie. Da die Weinkunde immer zeitaufwändiger und komplexer wurde, galt ihre Beherrschung als Qualitätsgarantie. Im Allgemeinen galt der Grundsatz: Je älter ein Wein, desto gefragter war er. Der Zeitfaktor wurde jedoch durch klimatische Bedingungen relativiert, welche die Geschmacksqualität des Weins mitbestimmte. Bordeauxweine, Burgunder und Champagner wurden fürs Lagern insofern bevorzugt, als diese den Alterungsprozess besser durchstehen als die Weine der Côtes du Rhône und des Val de Loire. Die Zeitkomponente bezog sich neben den Weinjahrgängen auch auf Winzer- und Großhändlerdynastien. Während die Modebranche den Bruch mit der Vergangenheit suchte, strebte die Weinbranche mit ihren alten Familienbetrieben und ausgereiften terroir-Weinen nach Tradition und Kontinuität. Die Weinhäuser hoben ihr Alter als Zeichen der Exzellenz hervor: Die Zahl der Winzergenerationen, die Existenz von Winzerdynastien oder historische Bezeichnungen wie z.B. Hofl ieferant, wurden von Weinkritikerinnen und Herstellerinnen zu Vermarktungszwecken eingesetzt. Ein Musterbeispiel ist die Familie Latour aus dem Burgund, die als großer Weinbauer und -händler tätig ist und deren älteste Söhne seit Gründung des Familienbetriebs Maison Louis Latour im Jahr 1798 bis in die Gegenwart alle Louis heißen (Jacquet/Laferté 2006). Zudem wurden Adelsprädikate und aristokratische Lebensstile bewusst eingesetzt. So wurde im 19. Jahrhundert der Begriff Château – der ein Weingebiet bezeichnet – zum erfolgreichen Vermarktungskonzept für die Gironde (Roudié 2000). Diese terroir- und zeitorientierte Anbauphilosophie herrschte nicht überall. Im Südosten Frankreichs wurde die Weinproduktion, Alessandro Stanziani (1998) zufolge, bereits im 19.

24 | Marie -France Garcia-Parpet

Jahrhundert standardisiert um neue Märkte zu erobern. Dort setzte sich, unter dem Druck des Weltmarkts, der Weinkooperativen und der Massenproduktion, das Prinzip der ›konstanten Weintypen‹ durch. Diese in Südfrankreich vertretene industrielle Konzeption wurde zu Beginn des 20. Jahrhunderts vom republikanisch dominierten Parlament zugunsten einer ›naturorientierten‹, jahrgangsabhängigen Qualitätsproduktion abgelehnt. Zu diesem Zweck wurden auf Druck vieler Winzer eigene Herkunfts- und Produktionsgesetze für den Wein eingeführt. Auf diese Weise sollte die traditionelle Weinproduktion gefördert und bewahrt werden. Der folgende Abschnitt untersucht die Ursachen und Folgen dieser Maßnahmen.

Die Appellations d’Origine Contrôlée oder die Kontrolle des Mark ts durch die Republik 3 Dank ihres politischen Gewichts im Parlament konnten sich die Weinbauern zu Beginn des 20. Jahrhunderts auf dem Markt behaupten und die industrielle Standardisierung aufhalten. Zur Jahrhundertwende waren die Winzer auf Weingroßhändler angewiesen, die ihnen ihre Ernte abkauften. Als sich die Weinbranche gerade von der Reblauskrise erholt hatte, nahm mit der kapitalistisch ausgerichteten Konkurrenz aus Südfrankreich und Algerien der Wettbewerb schließlich zu. Die Händler nutzten nun den Ruf bestimmter Anbaugebiete aus – wie z.B. beim vin de Beaune: Sie fügten dem örtlichen Wein fremde Trauben zu, ohne dass der Endgeschmack darunter litt. Diese Praxis wurde vom Gesetzgeber rasch untersagt. Parallel dazu organisierten sich die Winzer in Verbänden, so dass die Unterstützung für die damals noch junge Republik durch diese basisdemokratische Struktur auch auf dem Land zunahm. Daraufhin erließ das Parlament, das die meisten Staatsbefugnisse inne hatte, winzerfreundliche Gesetze. Ein wichtiger Meilenstein für einen umfassenden Schutz der Winzer wurde 1919 mit dem Gesetz für die Appellations d’Origine erreicht, den gesetz3 | O. Jacquet und G. Laferté (2006), G. Laferté (2006) untersuchten die Regulierung des Markts durch den französischen Staat sowie ihre Auswirkungen auf die Weinbauern des Burgunds.

Die Weinklassifikation im Zeitalter der Globalisierung | 25

lich geschützten Herkunftsbezeichnungen. Das Gesetz hatte zum Ziel, das Angebot der Weinhändler einzuschränken. Die gesetzlichen Vorgaben ließen sich aber nur schwer umsetzen, so dass es der Gesetzgeberin deshalb nicht gelang, den Weinmarkt auf diese Weise erfolgreich zu regulieren. 4 Im Jahr 1935 wurde daher ein neues Gesetz über die Appellations d’Origine Contrôlée (AOC) verabschiedet. Es sah eine umfassende Institutionalisierung von Qualitätsdefinitionen vor. So wurde ein Nationalausschuss der Appellations d’Origine ins Leben gerufen, der 1937 in das Institut National des Appellations d’Origine Contrôlée (INAO)5 umgewandelt wurde. Lokale Verbände und Weinbauerkooperativen wurden damit beauftragt, die Erteilung der appellations, der geschützten Herkunftsbezeichnungen, zu kontrollieren und die Menge der Weinproduktion zu regulieren. Damit kehrte schließlich Ruhe ein, und das Vertrauen in die Qualitätsstandards war wiederhergestellt. Die neuen Qualitätsstandards sollten den traditionellen Weinbauern gegen den Kapitalismus und die Aristokratie schützen. Grundlage dieser Politik war eine kollektive, von der öffentlichen Hand gelenkte Weinproduktion. Mit ihr wurden traditionelle Produktionsverfahren und natürliche Weinkonzeptionen im Rahmen der appellations vorgeschrieben. Industrielle Herstellungsmethoden und marktfreundliche Standardisierungsprozesse wurden hingegen verboten. Dieses Eingreifen seitens der öffentlichen Hand und bestimmter Sozialgruppen nannten Jacquet und Laferté »contrôle républicain du marché« (2006: 1147), Kontrolle des Markts durch die Republik – in Anlehnung an die von Neil Fligstein thematisierte Finanz- und Wertkontrolle des Aktienmarkts im US-Kapitalismus.6

4 | Detaillierte Interpretation der damaligen Gesetze ist bei O. Jacquet und G. Laferté (2006) nachzulesen. 5 | Dieser setzt sich zusammen aus Repräsentanten des Staates und der Eigentümer der Weingüter, um neue appellations und Änderungen der Produktionsregeln zu bestimmen. Sie kontrolliert die Einhaltung der Regeln in den verschiedenen appellations. 6 | Fligstein (1990) stellt die These auf, dass Unternehmen den offenen Wettbewerb eher vermeiden, wobei die Tendenz zur Effizienz im Laufe der US-Geschichte neue Züge annimmt.

26 | Marie -France Garcia-Parpet

Abbildung 2: Etikett »Syrah«

Funk tionen der Appellations d’Origine Die 1935 gegründeten AOC funktionierten nach dem Einheitsprinzip. Ausgehend von renommierten Weingebieten wurde für jede Weinregion ein Numerus Clausus erstellt, der auch die Verwendung von Herkunftsbezeichnungen und die Größen der Anbauflächen reglementierte.7 Winzer, die außerhalb dieser Exzellenzgebiete produzierten, wurden als zweitklassig bewertet – ungeachtet ihrer Investitionen, ihrer Herstellungsmethoden oder der Qualität ihrer Böden. 7 | Nach Bourdieu (1997) und Fligstein (1990) ist der Zusammenschluss marktführender Firmen viel entscheidender als die Profitmaximierung. Offene Preiskonkurrenz wird durch sie verhindert. Dafür werden marktinterne sowie marktexterne Kämpfe hervorgehoben. Auf einem stabilen Markt können sich jene Großunternehmen – dank ihrer Beziehungen zur politischen Elite – besser behaupten.

Die Weinklassifikation im Zeitalter der Globalisierung | 27

Die Exzellenzpolitik der AOC begünstigte »ideal-historische« Herstellungsmethoden (Laferté 2006). Aus sozialen und technischen Gründen wurden Weinbäuerinnen bevorzugt, die das Bewährte reproduzierten und das Innovative ablehnten. Technische Änderungen wurden erst bewilligt, nachdem sie von allen Produzentinnen der appellation akzeptiert und vom Nationalausschuss des INAO ratifiziert worden waren. Andernfalls wurden sie als illegitim bewertet, von den appellationMitgliedern verpönt und von der INAO verboten. Die Zensur erfolgte auf lokaler Ebene, wo Verbandsvertreter die amtliche Eintragung von Anbauflächen durchführten und lokale Jurys den Weinwettbewerben vorstanden. In der französischen Weinbranche hängen die sozialen Identitätsmerkmale und die verfolgten Vermarktungsstrategien mit der jeweiligen appellation zusammen. Der Bekanntheitsgrad einer Weinregion ist abhängig von ihrem Alter und ihrer AOCZugehörigkeit. Die wirtschaftlichen und die symbolischen Erträge sind somit geographisch und historisch bedingt. Im Rahmen offizieller Wettbewerbe gehen nur Weine ins Rennen, die aus derselben Region stammen. Weine aus Bordeaux, dem Burgund und der Champagne genießen ein höheres Ansehen als Weine aus den Côtes du Rhône und des Val de Loire – eine Hierarchie, die u.a. je nach Region Unterschiede in den Grundstückpreisen verursacht. Die Einführung von Exzellenzgebieten bedeutete die Pflege eines gemeinsamen symbolischen Kapitals: Der Wein wurde durch die appellation (z.B. Saint-Emilion) gekennzeichnet. Diese stand an erster Stelle auf dem Flaschenetikett, noch vor dem Namen der Hersteller. Auf Grund gemeinsamer Anbau- und Herstellungsvorschriften waren die Herstellerinnen beim Managen ihres symbolischen Kapitals aufeinander angewiesen. Jeder Weinbauer verdankte sein Dasein der Mitgliedschaft in der appellation, ohne die er seine Identität nicht vermitteln konnte. Das Hervorheben einzelner Produzentinnen war nur zulässig, wenn sie einer appellation angehörten.

28 | Marie -France Garcia-Parpet

Abbildung 3: Etikett »Chinon«. Das Etikett eines vin d’appellation d’origine contrôlée; der Name der appellation erscheint groß auf dem Etikett. Unter diesen Voraussetzungen hatten neue AOC-Mitglieder keine andere Wahl als sich den bestehenden Regeln anzupassen. Andernfalls drohte ihnen die Verdrängung aus dem Markt. Außerdem erzielten diese Neuankömmlinge nie die hohen Profite ihrer etablierten Konkurrentinnen. Die Förderung und die Regulierung der appellations-Weine prägten den Ruf der Branche nachhaltig. Herstellungsmethoden und Marktmechanismen blieben lange unverändert. Der Markt war über fünfzig Jahre von dieser Routine geprägt. Die Situation änderte sich erst, als die Globalisierung die französischen Weinbauern zum Umdenken zwang.

Die Weinregion Languedoc-Roussillon im Wandel: neue Ak teure, neue Sor ten, neue Praxen In den 1990er Jahren erlebte die Weinregion Languedoc-Roussillon eine spektakuläre Wandlung – weg von einer Außenseiterposition, hin zu einer Pionierrolle für Qualitätsweine. Aus dem Languedoc-Roussillon wurde schnell »Neukalifornien«

Die Weinklassifikation im Zeitalter der Globalisierung | 29

und aus dessen Weinbauern »Weinprofis«. Wie kam es aber dazu, dass eine über Jahrzehnte hinweg rückständige Region mit untergeordneten Weinen plötzlich ein Hort der Weinqualität wurde? Im Wesentlichen wurde die Qualität französischen Weins, die bisher anbau- und klimagebunden und streng traditionell ausgerichtet war, neu definiert. Es kam zudem zu neuen Präferenzen unter den Weinkonsumenten. Die Vorherrschaft der AOC-Weine begann damit zu brechen. Eingeleitet wurde diese Entwicklung durch einige innovative, kosmopolitisch eingestellte Outsider. Die Region Languedoc-Roussillon war auf Grund ihrer Weingeschichte lange Zeit benachteiligt. Infolge der im 19. Jahrhundert eingeführten Massenproduktion litten ihre ›industriellen‹ Weine unter einem schlechten Ruf. In der zweiten Hälfte des 19. Jahrhunderts wurde das Languedoc-Roussillon zum führenden Lieferanten von Tafelwein8. Durch diese Spezialisierung entstand ein strukturelles Ungleichgewicht im Weinbau und Anfang des 20. Jahrhunderts kam es zu einer Krise. Zudem wurden Weine aus Algerien nach Frankreich ›importiert‹.9 Das führte zu Kämpfen zwischen in Kooperativen organisierten Weinbauern gegen die Großbesitzerinnen, um bessere Preise zu erzielen. Die Weinwirtschaft der Region befand sich größtenteils in den Händen von Genossenschaften. Bezeichnend für das Gebiet waren der Einsatz exzessiver Produktivitätsmethoden sowie das Streben nach staatlichen Subventionen und kontrollierten Preisen mittels politischer Lobbyarbeit. Trotz einzelner Experimente im Bereich der Qualitätsweine dauerte dieser Trend bis in die 1960er Jahre an. Die Einführung einer aktiven Marktregulierungspolitik, der Anbau von neuen Rebsorten und die Gründung einiger AOC-Gebiete konnten dieser Situation kaum entgegenwirken. Schließlich begann die Region abseits aller Rechts-, Kulturund Anbaunormen der AOC die Qualität ihrer Produktion zu verbessern. Entscheidend für den Durchbruch neuer Qualitäts8 | Die französischen Weine gehören entweder einer appella-

tion an oder sie werden als Tafelweine bezeichnet, was eine niedrigere Qualität bedeutet. 9 | Das heutige Algerien gehörte bis 1962 zur französischen Republik.

30 | Marie -France Garcia-Parpet

weine war der charismatische Weinbauer A. Guibert. Er war ein junger Akteur im Weinbau, dessen erster Jahrgang 1978 geerntet wurde. Während die critique viticole, die Fachdebatte über die Zukunft der Weinbranche, ihren Höhepunkt erreichte (GarciaParpet 2009), riskierte er eine berufliche Neuorientierung und positionierte sich erfolgreich auf dem Weltmarkt. Ihm gelang es, die Weine des ›roten Südens« 10 von ihrer Randlage weg- und neuen Märkten zuzuführen. Die von Guibert gesetzten Maßstäbe ermöglichten neuen Winzergenerationen, Qualitätsweine zu produzieren und den Ruf der Region entscheidend zu verbessern. Guibert, der zuvor von Beruf Handschuhmacher war, wechselte in die Weinbranche, als in den 1960er Jahren die Lederindustrie von einer tiefen Krise erschüttert wurde. Er arbeitete sich allmählich zu einem renommierten Weinproduzenten hoch. Guibert ließ sich vom besten Bordelais-Önologen beraten und baute auf erstklassigem Boden von der INAO verbotene Bordeaux-Rebsorten an. Seine grands vins produzierte er außerhalb der gekennzeichneten AOC-Gebiete und ohne jegliche juristische und symbolische Legitimität. Von den französischen Weinexpertinnen wurde Guibert zunächst ignoriert, bis ihn letztlich angelsächsische Weinkritiker entdeckten und seinen Wein mit den grands crus aus der Region Bordeaux verglichen. Ein weiterer wichtiger neuer Akteur auf dem französischen Weinmarkt war R. Skalli. Er war seinerseits Weinbauer im Pope Valley und Vorstandsvorsitzender eines großen Lebensmittelkonzerns. Dank seiner Kenntnisse des US-Weinmarkts und der in den Vereinigten Staaten vermarkteten Rebsorten11 unternahm er eine innovative Verbesserung der dortigen Weine. Parallel zu einer durchdachten Qualitätspolitik entwarf Skalli neue, an der amerikanischen Nachfrage orientierte Klassifizierungsmethoden, die auf Rebsorten bzw. auf Preisklassen beruhen. Die französischen Weinklassifi kationen hingegen 10 | Der Begriff ›Midi rouge‹ ist eine Anspielung auf die politisch linksgerichtete Region und ihre ausgeprägten sozialen Konflikte. Die dortigen Weinbauern organisierten sich in Genossenschaften und bekamen staatliche Maßnahmen zum Schutz ihrer Einkünfte. 11 | Anders als die nach Herkunft klassifizierten französischen Weine werden amerikanische Weine nach Rebsorten benannt.

Die Weinklassifikation im Zeitalter der Globalisierung | 31

basieren auf geographischen Kriterien (appellations). Mit der Unterstützung eines marktführenden Weinbauern und einiger größeren Vertriebsgesellschaften begann Skalli, gängige Tafelweine durch Etikettierung der Rebsorten aufzuwerten. Nach amerikanischem Recht war es erlaubt, beliebige Rebsorten zu verwenden und somit den amerikanischen Konsumgewohnheiten, die nicht wie die französischen auf der Klassifi kation durch appellations beruhen, nachzukommen. Die beiden Pioniere vollzogen eine symbolische Revolution und einen institutionellen Wandel. Es folgten weitere Akteure, die – trotz ihrer Minderheitsposition – der Region LanguedocRoussillon eine neue Dynamik verliehen. Weingroßhändlerinnen versprachen sich von dieser neuen Qualitätsproduktion Erfolg und übernahmen die entstandenen Weinklassifizierungen. Die vins de pays d’Oc, die nach Rebsorten benannt sind, wurden in den 1990er Jahren zum Exportschlager – insbesondere auf dem US-Markt. Ihr Preis verdoppelte oder verdreifachte sich (Montaigne et al. 1998). Dieser spektakuläre Aufstieg fand in der Fachpresse ein breites Echo. Im Zuge dieser Entwicklung erfuhren die Weinkooperativen und -genossenschaften einen tiefgreifenden Wandel. Die einst sozialistisch und gemeinschaftlich geprägten Kommunalkooperativen produzierten massenweise Wein für den Einzelhandel. Außerdem waren sie in Verbänden organisiert, um die nötigen Subventionen zu erhalten. Nun setzten in vielen Bereichen Veränderungen ein, so bei der Betriebsgröße, der terroirPolitik, der Produktqualität, bei den innerbetrieblichen Regeln sowie im Management. Einigen dieser Betriebe gelang es, sich zu größeren, dynamischen Unternehmen zusammenzuschließen. Durch Innovationen gelang es ihnen, sich abzuheben, und sie konnten sich regional, national, teils international behaupten. Paradebeispiele dafür sind die Kooperativen Sieur d’Arques und Roquebrun, die sich als mittlere (moyenne gamme) und hochwertige (haut de gamme) Weinproduzenten durchsetzten. Ähnlich erging es der Union des Caves Coopératives de l’Ouest Audois et du Razes (UCCOAR) und der Val d’Orbieu, die heute als internationale Konzerne agieren. Dennoch hatte die Mehrzahl der Genossenschaften größere Schwierigkeiten, die neuen Marktansprüche zu erfüllen. Trotz veralteter Strukturen versuchten viele Genossenschaftsmitglieder, ihren eigenen Wein zusammenzustellen und zu vermarkten. Einige setzen sich

32 | Marie -France Garcia-Parpet

durch, oftmals durch die Mitwirkung von Familienmitgliedern, die in der lokalen Weinbranche unerfahren waren, aber einen Hochschulabschluss besaßen; diese Beispiele blieben jedoch Ausnahmen. Diesen Gruppierungen, Genossenschaften, Händlerinnen und Herstellern schlossen sich Unternehmen und Privatleute aus ganz Frankreich und aus dem Ausland an. Besonders Erfolg fördernd waren die niedrigen Grundstückpreise und der Zusammenschluss mit Winzerinnen, die ihren Wein mangels finanzieller Mittel nicht selbst produzieren und vermarkten konnten. Der Weinbauernverband der vins de pays d’Oc zählte bei seiner Gründung im August 1988 ca. 1500 Mitglieder, darunter 91 Weinhändler oder -vermarkterinnen, 290 Genossenschaften und eine große Zahl von Einzelbetrieben. Laut der Union Interprofessionnelle des Pays d’Oc kamen ›große Wirtschaftsakteure‹ hinzu, mit deren Hilfe die Produktion und der Vertrieb optimiert werden konnten. Aus der ›Neuen Welt‹ kam 1983 die australische Winery BRL-Hardy in die Region. Der in Australien börsennotierte, 2500 ha bewirtschaftende Konzern kaufte das Weingut La Baume auf. Dieses kam wiederum 2003 in amerikanische Hand, in Besitz der ebenfalls börsennotierten Constellation. Constellation verkaufte La Baume an eins der fünftgrößten Wein- und Spirituosenunternehmen Frankreichs weiter. Das gesamte Weingebiet wurde neu mit Rebsorten bepflanzt, die sich von der lokalen Weintradition unterschieden. Die Marke La Baume und ihre Vermarktung genossen höchste Priorität, die Förderung der Winzer war dem untergeordnet. »Eine Art Enklave auf französischem Boden […] Eine angelsächsische Marke mit entsprechendem Führungsstil […] im Vordergrund steht die Marke, ganz anders als früher« fasst die Vertriebsleiterin im persönlichen Gespräch zusammen. Für die wine makers von La Baume steht die Qualität im Mittelpunkt. Die Qualitätsansprüche hinsichtlich der Herstellungsbedingungen dieser wine makers sind oft strenger als die der AOC. Gleichwohl streben sie eine größere Handlungsfreiheit an. Weinhändlerinnen aus Frankreichs renommierten Weinregionen, wie etwa dem Burgund, investierten ebenfalls im Languedoc-Roussillon: Michel Laroche zum Beispiel, dessen Unternehmen seit fünf Generationen 130 ha grand cru in Chablis anbaut. Er kaufte die jährliche Produktion von ca. dreißig Weinbauern auf, denen er feste Produktionsziele vorschrieb.

Die Weinklassifikation im Zeitalter der Globalisierung | 33

Der 1875 gegründete Familienbetrieb Antonin Rodet wurde seinerseits 1991 vom Champagner-Weinhändler Laurent-Perrier übernommen, der wiederum dem Konzern Worms12 angehört. Rodets Wein wird im Languedoc-Roussillon produziert und zur Abfüllung in das Burgund transportiert. Neben den Weingroßhändlern kauften auch Weinbauern Anbaugebiete in Languedoc-Roussillon. In ihren Herkunftsregionen waren die Grundstückspreise so hoch, dass die nächste Generation den Weinbetrieb dort nicht fortsetzen konnte und sie in den ›roten Süden‹ auswichen. Den Weinbau entdeckten auch Industriemanagerinnen und Führungskräfte für sich, die auf der Flucht vor dem Geschäftsalltag eine neue Beschäftigung suchten. Ob aus Frankreich oder aus dem Ausland, alle fühlten sich vom Klima, von der Kultur, von der Geschichte und von den günstigen Kaufpreisen der Region plötzlich angezogen. Zudem kehrten viele Einheimische nach Languedoc-Rousillon zurück, wo die expandierende Weinbranche ihnen neue Perspektiven bot. Die Weinbranche im Languedoc-Roussillon verfolgt eine innovative Vermarktungsstrategie. Entwickelt wurde sie von Wirtschaftsakteurinnen, die der Region und der Branche fremd waren und die sich in den offiziellen Klassifizierungskriterien nicht zurecht fanden. Unter den vins de pays findet man mittlerweile Spitzenweine, deren Kaufpreise Rekorde erzielen. Ihre Hersteller verdienen zwar eine appellation, diese würde jedoch die Pflicht zur Einhaltung viel strengerer Regeln mit sich bringen. Im Languedoc-Roussilion hat sich die gesamte Weinbranche somit internationalisiert – sowohl durch die Herkunft ihrer Weinbauern und Önologinnen als auch durch die amerikanisch geprägte Kennzeichnung und die Präsentation ihrer Weine. Qualitätsbegriffe wie premium oder super-premium werden jetzt bewusst verwendet. Auch die Marketingstrategie ist infolge der Internationalisierung freier und moderner geworden.

12 | Branchenübergreifende Investment-Firma (aktiv u.a. in der Automobilbranche und im Versicherungswesen).

34 | Marie -France Garcia-Parpet

Neue E x zellenzstandards, Qualitätskontrollen und Anbaustruk turen Die Herstellung solcher Exzellenzweine beruht auf neuen Verarbeitungsprozessen, an denen immer mehr Önologen beteiligt sind. Parallel zur Eingrenzung des terroirs und zur Einhaltung strenger Exzellenzstandards werden Expertinnen eingesetzt und industrielle Qualitätskontrollen durchgeführt. So verfährt auch die Genossenschaft Vignerons du Sieur d’Arques bei ihrer Entwicklung neuer Herstellungs- und Legitimationsprozesse. Sie hat mit Hilfe ihrer ›Hausönologen‹ vier terroirs ausgewiesen und damit eine Unterteilung vorgenommen, die sich vom rechtlichen System der AOC unterscheidet. Die einzelnen Anbauparzellen werden nach Klima, Anbauhöhe, Relief und Bodeneigenschaften klassifiziert. Dementsprechend werden sie mit der optimalen Rebsorte bepflanzt. Die Genossenschaft arbeitet mit der Zertifizierung ISO 9002 und den HACCP-Kriterien13. Ihre Methoden heben sich von der traditionellen AOC-Politik und ihren sozial-regionalen Kontrollmechanismen (Kontrolle und Einflussnahme durch kommunale Verbandsvertreter) entscheidend ab. Wirtschaftliche Entscheidungsprozesse wurden dadurch unübersichtlicher. Anbaugebiet bzw. Château einerseits und Management andererseits bilden keine Einheit mehr. Oftmals sitzt die Geschäftsführung in einer anderen Region oder sogar im Ausland. Außerdem steht die Größe des Anbaugebiets nicht mehr in Verhältnis zu der realen Produktion – diese wird zum Teil von externen, zuliefernden Kleinwinzern abgedeckt. Die Genossenschaften übernehmen dann die Rolle des Vermarkters. Ein Paradebeispiel ist die in Bordeaux ansässige Firma Baron de Rothschild und ihr Joint Venture mit R. Mondavi aus 13 | HACCP bezeichnet eine zentrale Vorschrift zur Lebensmittelsicherheit. Die Abkürzung HACCP steht für »Hazard Analysis and Critical Control Points-Konzept«. Es handelt sich dabei um ein vorbeugendes System, das die Sicherheit von Lebensmitteln und Verbrauchern gewährleisten soll und Standards für Lebensmittelhersteller und -händler vorschreibt u.a. Reinigungspläne, Hygienekontrollen sowie deren Dokumentation. HACCP regelt auch, wie Räumlichkeiten und Maschinen zur Lebensmittelherstellung beschaffen sein müssen (EG-Verordnung 852/2004).

Die Weinklassifikation im Zeitalter der Globalisierung | 35

Kalifornien. Sie investieren nur gering in neue Grundstücke. Das vorhandene Anbaugebiet dient vorrangig dem Anbau von Spitzenweinen (haut de gamme), und das Château dem Empfang der Großkunden. Der erzielte Gewinn fließt nicht ausschließlich in die Produktion. Zum Beispiel haben englische und amerikanische Weinherstellerinnen einen Teil ihrer Profite in eine Nicht-Regierungs-Organisation (NGO) zugunsten des Regenwalds und dessen Bewohner investiert. Diese neuen Akteurinnen verfolgen eine globale Strategie. Die Produzenten aus Languedoc-Roussillon organisieren ihre eigenen Weinmessen, auf denen Weinbäuerinnen aus Italien, Spanien und Nordafrika vertreten sind. Sie nennen sich Weinbauern des ›Mittelmeerraums‹ und separieren sich somit vom Bild des ›roten Südens‹. Dies führt abermals zu einer neuen Positionierung der wichtigen Anbauregionen auf dem internationalen Markt.

Einführung amerikanischer Vorbilder oder Über tragung französischer Paradoxe? Die Anwesenheit ausländischer Weinkonzerne und die Fusion von Weinbaubetrieben sind in Frankreich kein neues Phänomen. Bereits in den 1960er Jahren erhöhten die Weingroßhändler aus der Champagne und aus dem Bordelais ihr Kapital durch die Teilhaberschaft Dritter – Banken, Versicherungen, Investmentfirmen – und gingen anschließend an die Börse. Diese Kontrollübernahmen stellten den Führungsstil und die Qualität von Familienbetrieben jedoch nicht in Frage. Diese Stufe wurde erst erreicht als einige vom amerikanischen Markt angelockte französische Weinunternehmen begannen unorthodox zu agieren. Trotz der Vorteile ihrer AOC-Zugehörigkeit fühlten sie sich in ihrer Handlungsfreiheit eingeschränkt und erweiterten deshalb ihr Weinsortiment. Die Ankurbelung der USNachfrage durch profitorientierte Konzerne verursachte eine Änderung der traditionellen önologischen Kriterien zugunsten einer angelsächsischen Lesart, die sich von den in Frankreich historisch verankerten Grundsätzen unterscheidet. Es wurden Weine nebeneinander gestellt, die zuvor nie hätten verglichen werden können (Garcia-Parpet 2009). 1976 organisierte z.B. der englische Weinkritiker S. Spurrier einen Weinwettbewerb

36 | Marie -France Garcia-Parpet

mit verdeckten Etiketten. Gewinner waren die kalifornischen Weine. Solche Vergleiche setzten die traditionelle Einteilung der AOC-Weine und die damit verbundene Qualitätsdefinition weiter unter Druck. Der symbolische Stellenwert der amerikanischen Weine bekam einen entscheidenden Impuls durch die Niederlassung französischer Elitewinzer in den USA. Die Firma Moët Hennessy sah im französischen Weinbaugesetz zu große Einschränkungen. Angesichts der unüberwindbaren 600 ha-Anbaugrenze, die in der AOC festgelegt war, halfen sogar hohe Investitionen nichts. 1973 beschloss der Konzern schließlich, sich im Nappa Valley anzusiedeln. Er entdeckte dort den hochwertigen Schaumwein der kalifornischen Wineries. Der Geschäftsführung wurde rasch bewusst, welches Potenzial an Produktion und Profit die liberale Wirtschaftspolitik der USA in sich trug. Einige Jahre später kam es zu einem Geschäftsabschluss zwischen P. de Rothschild und R. Mondavi, einem Weinbauern aus dem prestigeträchtigsten Anbaugebiet der USA. Aus dieser Partnerschaft entstand der Spitzenwein Opus One. Dieser Name sollte die Originalität des Unternehmens sowie den bewussten Verzicht auf Herkunftsmerkmale betonen. Andere Pionierunternehmen folgten – aus der Champagne, dem Bordelais und dem Burgund. In seiner Autobiographie erinnert sich R. Mondavi an den enormen symbolischen Gewinn: »Die Partnerschaft mit dem Baron hat uns auf eine Spitzenposition in der kalifornischen Weinindustrie befördert. Der Baron wollte Geschäfte in Amerika, mit einem Partner aus dem Nappa Valley machen. Und dieser Partner waren wir! Der PR-Gewinn belief sich auf eine Million Dollar.« (Mondavi 1999: 48) Nach diesem Joint Venture schloss Mondavi weitere Partnerschaften in Italien, Chile und Australien. Er versuchte, auch in Frankreich weiter Fuß zu fassen. Die Verteilung der Weinproduktion auf verschiedene Länder gehört inzwischen zur allgemeinen Geschäftspraxis. Der australische Konzern Foster Group ist in neun Ländern präsent, sein deutscher Konkurrent, Günter Reh, in sieben Ländern, ebenso wie der französische Konzern LVMH (Coelho/Rastoin 2004). Diese Änderungen sind nicht nur marktstruktureller Natur. Sie betreffen auch die Wahrnehmung des internationalen Markts durch seine Akteurinnen. Mittlerweile ist diese Art globalen Managements Teil der Vermarktungsstrategie einiger franzö-

Die Weinklassifikation im Zeitalter der Globalisierung | 37

sischer Weinunternehmen. Beispielhaft war die Werbeaktion von B. Magrez, der sich in der Sonderausgabe der Zeitung SudOuest 14 neben einem Klavier fotografieren ließ – mit der Überschrift: »Compositeur de vins rares«, Komponist edler Weine. Auf dem Foto posierte Magrez neben einer Flasche Château Pape Clément (grand cru classé) sowie neben weiterer seiner Weinkreationen aus Spanien, Portugal, Marokko, den USA, Uruguay, Argentinien und Chile. Parallel zur Berücksichtigung der Rebsorten in der Weinklassifizierung wurden solche neuen Werbepraxen legitimiert, der sich immer neue Regionen anschließen. In seinem Handbuch für Management betrachtet d’Hauteville (d’Hauteville/Remaud 2004) die französischen Weinbetriebe nicht als Exzellenzträger, sondern als »Liliputaner«, die im Kampf gegen die Weingiganten schleunigst aufrüsten müssen. Sie müssten, so d’Hauteville, als internationale Konzerne auftreten, um mit der neuen Konkurrenz mitzuhalten. Die Legitimität der AOC ist schließlich mehr denn je umstritten. Für die Politik bedeutet dies, dass das einst politisch motivierte AOC-Gesetz von Grund auf zu erneuern ist. Denn seine Einhaltung erschwert französischen Weinen eine Positionierung auf dem globalisierten Markt und verhindert, dass französische Winzerinnen systematische Marktstrategien verfolgen können. Der Vorschlag des französischen Agrarministeriums, ein Zweistufen-System einzuführen (Exzellenz-AOC/StandardAOC), fand allerdings kaum Zustimmung. Von der einstigen Eintracht ist die französische Weinbranche weit entfernt. Vielmehr scheint sie gespalten zu sein – zwischen unterschiedlich situierten Akteuren und deren konträren Einstellungen zum Weinanbau. In dieser Gemengelage hat die Wissenschaft die Aufgabe, den global gewordenen Wettbewerb genau zu untersuchen, den sozialen Eigenschaften seiner Akteurinnen sowie den globalen Vermarktungsstrategien und den daraus entstandenen symbolischen Machtverhältnissen nachzugehen.

14 | Sud-Ouest (24. Juni 2006) S. 11.

38 | Marie -France Garcia-Parpet

Ausblick Noch ist es zu früh, vorherzusagen, welches Regulierungsmodell die Vorherrschaft in der Weinwirtschaft bekommen wird. Die dafür ausschlaggebenden Faktoren, wie die Größe des Markts, die Vielfalt der Akteure sowie deren ambivalente Marktpolitik sind dafür zu komplex. Dennoch ist es wichtig aufzuzeigen, dass die Entwicklung vom Languedoc-Roussillon von einer abgewerteten Region hin zu einer Vorreiterposition symptomatisch für tiefgreifende, bisher noch unbeachtete Veränderungen ist. Diese Entwicklung hat bei den kleinen Weinhäusern aus den prestigereichen AOC-Regionen Befürchtungen geweckt. Jene sind nicht nur der Konkurrenz der international agierenden großen Weinhäuser ausgesetzt, sondern geraten auch durch diese innovative Region unter zusätzlichen Druck. Das traditionelle französische Modell wird jetzt nicht nur in den Wein produzierenden Randregionen, sondern zugleich landesweit in Frage gestellt. In der prestigereichen Weinregion Bordeaux begannen bereits einige Produzenten, ihren Wein nach Rebsorten zu benennen und gesetzlich verbotene Produktionsverfahren einzusetzen. Obwohl viele französische Weinproduzentinnen für die ›Neue Welt‹ typische Produktions- und Vermarktungsverfahren übernommen haben, ist die traditionelle herkunftsbedingte Weinklassifizierung immer noch angesagt. Auch neue Weinländer greifen auf diese zurück. Nicht zuletzt besteht das terroir weiterhin in seiner vom Staat legitimierten Auffassung (als ohnehin physisch klar abgegrenztes Gebiet). Es gilt jedoch nicht mehr als einzig zulässiges Modell des Weinanbaus. Ganz im Gegenteil – Faktoren wie Unternehmensgröße, Kapitalmasse, zahlreiche Werbeauftritte, die vorher mit niedrigklassigen Weinen in Verbindung gebracht wurden, werden heute wertschöpfend für alle Weinqualitäten eingesetzt. Wie wirkt sich die Globalisierung der Weinbranche aber auf die kulturelle Vielfalt des Weinanbaus aus? Es ist davon auszugehen, dass ebenso Produkte des traditionellen Weinmodells ihren Platz weiterhin behaupten können. Ein Teil der Weinbäuerinnen hat sich zwar von den juristischen Zwängen der AOC-Gesetze aus der »Dritten Republik« befreit, indem sie angefangen haben, ihre Anbaugebiete selbst zu definieren und zu verwalten. Das war aber nur der erste Schritt, der nicht ausreichte. Die Abwendung von offiziellen Institutionen, wenn es um Investitionen in noch nicht

Die Weinklassifikation im Zeitalter der Globalisierung | 39

anerkannte Weinregionen oder um neue Produktionsverfahren geht, erfordert von der Produzentin, dass sie das symbolische Kapital, das bisher von der appellation garantiert wurde, aus eigener Kraft auf bringt. Die neuen AOC-unabhängigen Bauern kauften sich in alte renommierte Weinhäuser ein und entwickelten neue Marken, zumeist unter großem finanziellem Einsatz und durch den Aufbau neuer Netzwerke aus Expertinnen, Händlern und Kapitalgeberinnen. Es soll hier also nicht der Eindruck erweckt werden, der Weinhandel sei demokratischer geworden. Vielmehr sind neue Barrieren entstanden, durch Geld, großen Kapitaleinsatz und neuen Qualitätsregeln. Zudem gibt es jetzt neue Akteure, ›moderne‹ Weinbäuerinnen, und hochwertige AOC-Weinbauern. Beide Gruppen bilden eine Elite und existieren parallel zueinander. Besonders hart triff t es jedoch kleine, weniger prestigeträchtige Weinbäuerinnen. Sie sind hinsichtlich der Werbemittel, des Exports und des Herstellens von Spitzenweinen gegenüber den großen Herstellern benachteiligt und laufen Gefahr, von internationalen Investoren aufgekauft zu werden, die mit Hilfe einer bekannten Marke in Frankreich Fuß fassen wollen. Das Ringen um die renommierten Weinhäuser ist für diese Gruppe zwar von Vorteil, zugleich schadet es aber auch. Nicht zuletzt entscheidet der Ausgang dieses Kampfes, wer sich in Zukunft auf dem Markt behaupten kann und welche Kriterien für die Qualität von Weinen Ausschlag gebend sind. Nach den neuen Klassifi kationskriterien spielt zudem nicht nur das Endprodukt eine Rolle. Welcher Wein unter den Konsumenten gefragt ist, hängt auch von ethischen und ökologischen Grundsätzen ab, die der Produktion zugrunde liegen – das Aufkommen der Bioweine ist ein Beispiel dafür. Umweltaspekte wie biologische Herstellung, Biodynamik und bewusste Konsumentscheidungen (globaler Umweltschutz und gerechter Handel) scheinen die Karten des Marktes neu zu mischen. Aus dem Französischen von Jean-Pascal Lejeune

40 | Marie -France Garcia-Parpet

Literatur Bourdieu, Pierre (1978): »Classement, déclassement et reclassement«. In: Actes de la Recherche en Sciences Sociales 24, S. 2-22. Bourdieu, Pierre (1997): »Le champ économique«. In: Actes de la Recherche en Sciences Sociales 118, S. 55-68. Coelho, Alfredo Manuel/Rastoin, Jean-Louis (2004): »Stratégie des grands groupes internationaux: vers l’émergence d’un oligopole sur le marché mondial du vin?«. In: François d’Hauteville/Jean Pierre Couderc/Hervé Hannin/Étienne Montaigne (Hg.), Bacchus 2005. Enjeux, stratégies et pratiques dans la filière viticole, Paris: Dunod, S. 79-99. D’Hauteville, François/Remaud, Hervé (2004): »L’Australie, une autre vision du vin«. In: François d’Hauteville/Jean Pierre Couderc/Hervé Hannin/Étienne Montaigne (Hg.), Bacchus 2005. Enjeux, stratégies et pratiques dans la filière viticole, Paris: Dunod, S. 249-260. Fligstein, Neil (1990): The Transformation of the Corporate Controle, Cambridge: Harvard University Press. Garcia-Parpet, Marie-France (2009): Le marché de l’excellence: les grands crus à l’épreuve de la mondialisation, Paris: Seuil. Garrier, Gilbert (1998): Histoire sociale et culturelle du vin, Paris: Larousse. Jacquet, Olivier/Laferté, Gilles (2006): »Le contrôle républicain du marché: vignerons et négociants sous la IIIe République«. In: Annales HSS 2006 (5), S. 1147-1190. Laferté, Gilles (2006): La Bourgogne et ses vins: image d’origine contrôlée, Paris: Belin. Mondavi, Robert/Chutkow, Paul (1999): Harvest of Joy: How the Good Life Became Great Business, San Diego: Harcourt Brace & Co. Montaigne, Étienne/Laporte, Jean Pierre/Perez, Véronique/Galeote, Xavier (1998): »Les mutations du négoce des vins tranquilles en France«. In: La grande distribution alimentaire: Actes du colloque de la Société française d’économie rurale, Montpellier: Agro-Inra ESR, S. 122-135. Robinson, Jancis (1999): The Oxford Companion of Wine, Oxford: Oxford University Press.

Die Weinklassifikation im Zeitalter der Globalisierung | 41

Roudié, Philippe (2000): »Vous avez dit ›château‹? Essai sur le succès sémantique du modèle viticole venu du Bordelais«. In: Annales géographiques 109, S. 415-425. Stanziani, Alessandro (1998): Histoire de la qualité alimentaire: XIXe-XXe siecle, Paris: Seuil.

Der Schutz der geographischen Nahrungsmittelherkunf t in Nor wegen als Übersetzungsund Transformationsprozess1 Atle Wehn Hegnes

Einleitung Dieser Artikel2 entwickelt Begrifflichkeiten, mit denen Dynamiken beim Umgang mit dem norwegischen Herkunftsschutz von Lebensmitteln besser erfasst werden sollen. Im Detail geht es um die norwegischen Gesetze, mit denen die geographische Ursprungsbezeichnung (g.U.) und die geographisch geschütz-

1 | Im englischen Orginal lautet der Titel »Translating and Transforming Potatoes – Conceptualising Dynamics in the Norwegian Scheme for Protected Designations«. 2 | Ich möchte mich an dieser Stelle bei Torben Hviid Nielsen, Virginie Amilien, Stephan Gabriel Haufe und Hakon Larsen für ihre Kommentare zu diesem Artikel in seinen unterschiedlichen Stadien bedanken. Ich bedanke mich darüber hinaus beim Institut für Europäische Ethnologie der Humboldt-Universität Berlin, dass ich dazu eingeladen wurde, diesen Beitrag im Rahmen des Workshops »Between Molecules, Materialities and the Self: Standards in Nutritional Epidemiology and Food Cultures« vorzustellen.

44 | Atle Wehn Hegnes

te Angabe (g.g.A) eingeführt, definiert und reguliert werden.3 Die geographische Ursprungsbezeichnung und die geographisch geschützte Angabe sind besondere Unterkategorien des gesetzlichen Schutzes geographischer Herkunftsangaben für Nahrungsmittelerzeugnisse, festgelegt im TRIPS Abkommen. Das TRIPS Abkommen (Trade-Related Aspects of Intellectual Property Rights) ist wiederum Teil der globalen Welthandelsorganisation (WTO). »Geographische Herkunftsangaben für Nahrungsmittelerzeugnisse sind im Rahmen dieser Vereinbarung Angaben die garantieren, dass ein Erzeugnis aus der Gegend eines Erzeugers stammen respektive aus einer Region oder einem Ort darin, wobei die ausgewiesene Qualität des Erzeugnisses, seine Reputation oder andere Merkmale in unmittelbarem Zusammenhang mit dieser Herkunft stehen.« (TRIPS Vereinbarung Artikel 22.1)

Seit etwa fünfzehn Jahren beschäftigen sich zahlreiche Fächer mit dem europäischen Herkunftsschutz von Nahrungsmittelerzeugnissen und den dazu gehörigen Unterkategorien, die g.g.A. und g.U. Diese unterschiedlichen Forschungsdisziplinen bringen ebenso viele Forschungsperspektiven hervor. 4

3 | Die geschützte Herkunftsangabe umfasst einen dritten Schutzmechanismus: die traditionelle Spezialität. Diese Auszeichnung wird verliehen, wenn Nahrungsmittelerzeugnisse spezielle Eigenschaften aufweisen, die sie grundlegend von verwandten Produkten unterscheiden. Die Auszeichnung mit dem Label traditionelle Spezialität erfordert die Verwendung traditioneller Zutaten, traditioneller Zutatenmischungen, oder die Anwendung traditioneller Produktionsmethoden. Obwohl dieser dritte Herkunftsschutz Teil des norwegischen Schutzes der geographische Herkunftsangaben ist, sind noch keine norwegischen Nahrungsmittel durch dieses Label geschützt. Aus diesem Grund wird diese Angabe in diesem Kapitel nicht weiter behandelt werden. 4 | »Ein dynamischer Forschungstrend in den unterschiedlichen Disziplinen wie Ökonomie, Soziologie, Geographie, Agronomie, Technologie und Jura« (Bérard/Marchenay 2008: 5) ebenso wie in der Sensorischen Forschung, Marketing, oder den Entwicklungsstudien zeichnet sich ab.

Der Schutz der Nahrungsmittelherkunft in Norwegen | 45

Über die große Vielfalt dieser Forschungsdisziplinen hinweg liegt hier das Hauptaugenmerk auf den verschiedenen Prozessen der Übersetzung und Transformation (Barham 2002; Bérard/Marchenay 1996: 240, 2006: 110, 2007; Feagan 2007: 37; Fonte/Grando 2006: 44; Marty 1997: 54; Ray 1998: 10; Renting et al. 2003: 400; Tregear et al. 2007: 13). Obwohl Transformations- und Übersetzungsprozesse als sehr wichtig erachtet werden, wird der Analyse und Weiterentwicklung dieser theoretischen Werkzeuge wenig Raum geschenkt. So werden in einigen wissenschaftlichen Untersuchungen die Begriffe Übersetzung und Transformation zwar verwendet, aber keiner speziellen analytischen Bedeutung zugeordnet. In anderen Abhandlungen werden Übersetzung und Transformation kategorisch in Anführungszeichen gesetzt, welches ihre nicht-wörtliche Verwendung verdeutlichen soll. Es gibt auch Veröffentlichungen, in denen beide Begriffe benutzt werden, um konkrete Sachverhalte darzustellen, während an wiederum anderer Stelle der Fokus auf die sprachlichen Regelungen gerichtet ist. Zusammengefasst lässt sich also festhalten, dass kein kohärenter Gebrauch dieser zwei Begriffe vorliegt. Die Verwendung der Begriffe Übersetzung und Transformation im Zusammenhang mit dem Schutz von Nahrungsmittelbezeichnungen erscheint somit willkürlich. Wissenschaftliche Beiträge, die Konzepte von Übersetzung und Transformation anwenden, lassen sich hauptsächlich in folgenden Bereichen antreffen: A) bei Erörterung eines Eigentumsverhältnis (welches transformiert oder übersetzt werden soll), B) bei Erörterung eines Eigentumsverhältnis, das durch die Zufügung eines Charakteristikums verändert wird (solcherart, dass es übersetzbar wird), C) bei Erörterung eines neuartigen Resultats (welches durch Übersetzung oder Transformation in dieser Art erst zustande gekommen ist). Eine geschützte Herkunft ist in der Mehrzahl der Fälle mit natürlichen Produktionsbedingungen verbunden, dem Wissen der Erzeuger über die Produktionsweisen, oder beidem. Die auszeichnende Eigenschaft ist typischerweise eine feste Kategorie für den Schutz der Herkunft oder zumindest ein Aspekt des Herkunftsschutzes. Das Endprodukt ist häufig mit Konditionen verbunden, die bestimmte ökonomische Vorteile sichern. Dieses Kapitel soll auf der Grundlage empirischer Materialien über drei norwegische Kartoffelsorten, die zu geschützten

46 | Atle Wehn Hegnes

Nahrungsmittelerzeugnissen umgewidmet wurden, die komplexen Verbindungen aufzeigen, die beim Wandel materieller und linguistischer Bedeutungen für bestimmte Qualifi kationsfaktoren ausschlaggebend sind. In diesem Zusammenhang bedeutet Übersetzung einen Wandel in der Sprachbedeutung und Transformation einen Wandel der spezifischen Produkteigenarten. Akteure, die zu solchen Übersetzungen oder Transformationen beitragen, werden in diesem Kontext Übersetzer und Transformanden genannt. Zusammengenommen lassen sie sich als Transakteure bezeichnen. Zu einem späteren Zeitpunkt der Analyse wird die Festlegung dieser Definitionen ein erweitertes Verständnis des Verhältnisses zwischen Sprachpolitik und Produkteigenschaften begünstigen. Der Übersetzungsprozess in der Sprache und die Transformation der Produkteigenschaften bedingen einander und verbinden sich auf vielfältige Weise. Aus diesem Grunde ist es von großer Bedeutung, diese gleichzeitig stattfindenden Prozesse in einem Gesamtkonzept abzubilden.

Empirie Mit Stand vom September 2009 sind drei norwegische Nahrungsmittelerzeugnisse unter dem Label der geographischen Ursprungsbezeichnung (g.U.) gelistet, dreizehn unter dem Label der geschützten geographischen Angabe (g.g.A.). Für sechs weitere Erzeugnisse ist ein Antrag zum Schutz der geographischen Herkunft gestellt worden. Drei dieser Erzeugnisse sind die Kartoffelsorten Ringerikspotet fra Ringerike (Ringerikskartoffel aus Ringerike), Gulløye fra Nord-Norge (Goldaugenkartoffel aus Nordnorwegen) und Fjellmandel fra Oppdal (Bergmandelkartoffel aus Oppdal). Was diese Erzeugnisse und das Verfahren zu ihrer Zulassung besonders interessant macht, sind die einzelnen Qualifikationsschritte: von einem geringen Dokumentationsgrad der Eigenschaften hin zu einem alle gesetzlichen Anforderungen erfüllenden Qualitätsstandard. Produktqualifi kation ist die Hauptaufgabe des Schutzes der geographischen Nahrungsmittelherkunft: »Qualification may be defined as a specification of production practices as and/or product characteristics by an agent, which is then linked to a particular name or label.« (Tregear et al. 2007: 13)

Der Schutz der Nahrungsmittelherkunft in Norwegen | 47

Zusätzlich zum Fokus auf die Qualifi kation der Erzeugnisse wird im Folgenden die Entwicklung des Qualifi kationsschemas untersucht. Um die qualitative Aufwertung der jeweiligen Produkte besser verstehen zu können, ist es wichtig, auf Entstehungsgeschichte und Funktionsweise des Qualifi kationsschemas einzugehen. Darüber hinaus ist es notwendig, das Verständnis über das Produkt an sich, aber auch die sprachlichen Modifi kationen, ihre Resultate und dynamischen Wechselspiele während des Qualifi kationsprozesses zu vertiefen. Die Studie basiert auf unterschiedlichen empirischen Materialien. Dokumente über Gesetze, Gesetzesentwürfe etc. wurden herangezogen und analysiert, um Regelwerke und Begriffsbildungen herauszuarbeiten, die mit der Einführung des Schutzes der geographischen Herkunftsangabe in Norwegen zentrale Bedeutung gewonnen haben. Interviews wurden in erster Linie mit Personen durchgeführt, die sich insbesondere mit den Rechtsvorschriften für die Nahrungsmittelerzeugung innerhalb der Erzeugergemeinschaften befassen. Zudem wurden Interviews mit Schlüsselinformanten geführt, die den öffentlichen Verwaltungsgremien angehören und genannte Regularien beeinflussen. Alle Interviews sind halb-strukturiert aufgebaut.5 Die Studie beruht auf einem induktiven Theorieansatz, der die Forschungsfragen sukzessiv aufeinander aufbaut. Der Zugang zum Forschungsfeld ist offen, um die Beweggründe der unterschiedlichen Akteurinnen nachzuzeichnen und um gleichzeitig auf komplexe gesellschaftliche Besonderheiten hinzuweisen. Nach ersten Untersuchungen konzentrierten sich die Hauptforschungsfragen auf Modifi kationen in der Produktqualität und auf den Bedeutungswandel der Produktbezeichnungen. Die Forschungsfragen lassen sich folgendermaßen formulieren: Generieren die Dynamiken im norwegischen Zulassungsverfahren Veränderungen bei den jeweiligen Produkteigenschaften und ihrer Benennung, insbesondere bei genannten Kartoffelzulassungen? Was charakterisiert diese Veränderungen? Auf welche Weise stehen Produkt- und Sprach5 | Die in diesem Text zitierten Interviews wurden im August

2007 sowie von Februar bis Juni 2008 durchgeführt. Alle Interviewten sind zentral an der Ausarbeitung einer norwegischen Produktdefinition beteiligt, die den EU-Herkunftsschutz für drei Kartoffelsorten ermöglicht.

48 | Atle Wehn Hegnes

bedeutungswandel miteinander in Zusammenhang? Welches sind die Folgen daraus und wie können diese Dynamiken in einem Konzept begrifflich dargestellt werden? Bevor jedoch ein Vorschlag gemacht werden soll, wie Komplexität und Wechselwirkung von Übersetzungs- und Transformationsprozessen zu verstehen sein könnten, sollen zunächst konkrete Beispiele, wie die der kürzlich zugelassenen norwegischen Kartoffelsorten, vorgestellt werden. Hierfür ist als Einleitung die Einführung des geographischen Herkunftsschutzes in Norwegen geeignet. Die genaue Betrachtung dieses Einführungsprozesses macht klar, dass hier ein Übersetzungsprozess stattgefunden hat.

Die Überset zung des Europäischen Herkunf tsschut zes Als erstes Beispiel für einen Übersetzungsprozess soll die Übersetzung der europäischen Gesetzesregelung in den norwegischen Kontext dienen. Obwohl Norwegen Teil der Vereinbarung der European Economic Area (EEA) ist, war dies keine Voraussetzung zur Einführung des gesetzlichen Schutzes der geographischen Herkunftsangabe im Rahmen der EU Verfahrensumsetzung 1992. Die EEA-Regelung schließt den landwirtschaftlichen Sektor und die Fischerei nicht mit ein, und so ist die Einführung des Zulassungsverfahrens separat durch das norwegische Landwirtschaftsministerium beschlossen worden.6 Die Einführung des Schutzes der geographischen Herkunftsangabe verfolgt zwei Ziele. Zum einen sollen Agrarbetriebe gestärkt und die Wertschöpfung innerhalb der norwegischen Nahrungsmittelindustrie erhöht werden. Zum anderen soll die Nahrungsmittelkennzeichnung und damit verbunden die Information der Konsumenten überprüfbar werden. Ein weiter Beweggrund zur Einführung dieses Schutzgesetzes in Norwegen waren die positiven Erfahrungen, die in anderen EU-Ländern bereits gemacht worden sind. Die Gesetzesregelung ist eng verknüpft mit der norwegischen Gesetzgebung, in der die Eintragung von Nahrungsmittelbezeichnungen die 6 | Die norwegische Gesetzesfassung wurde am 5. Juli 2002 nach gültigem EU-Recht verabschiedet.

Der Schutz der Nahrungsmittelherkunft in Norwegen | 49

jeweiligen Erzeuger davor schützen soll, mit nicht namensgleichen Erzeugnissen auf dem Markt konkurrieren zu müssen. Das Zulassungsverfahren untersteht dem norwegischen Ministerium für Landwirtschaft und Ernährung und wird von Mattilsynet, der staatlichen Lebensmittelaufsicht Norwegens, kontrolliert. Die staatliche Organisation KSL Matmerk ist für die Vergabe von Lebensmittelkennzeichnungen verantwortlich sowie für die Informationsvergabe, fachliche Begleitung und Betreuung der Verfahren. Bei genauerer Betrachtung des Herkunftsschutzes bei Kartoffeln lässt sich feststellen, dass dieses Verfahren auch deshalb angewendet wird, weil Kartoffelsorten wie die aus Oppdal in Nordnorwegen und Ringerike große Ähnlichkeit mit den geschützten Kartoffeln anderer EU-Länder aufweisen. Beispielsweise mit Pomme de terre de l’Île de Ré, Pomme de Terre de Merville (Frankreich), Batata de Trás-os-Montes (Portugal), Pataca de Galicia, Patatas de Prades (Spanien) and Jersey Royal potatoes (Großbritannien). Nach Einführung dieser Gesetzesregelung in Norwegen im Jahre 2002 wurde diese bereits viermal überarbeitet. Einige Veränderungen wurden gemacht, um die Gesetze dem norwegischen Kontext anzupassen. In anderen Fällen sind Anpassungen an das europäische Gesetz vorgenommen worden, welches auf dem Selbstverständnis beruht, dass »es kein Land in dieser Welt gibt, in welchem nicht die geographische Herkunft eng mit der Produktqualität verbunden ist. In diesem Sinne ist es allgemeine Praxis, das Produkt nach seiner geographischen Herkunft zu benennen – dem Ort, an dem es hergestellt wurde«. (Béread/Marchenay 2008: 7) Ein wichtiger Aspekt solch eines Übersetzungsprozesses in Bezug auf Norwegen ist, dass die norwegische Nahrungsmittelkultur keine ausgeprägte Tradition aufweist, welche Nahrungsmittelerzeugnisse nach dessen Ursprungsort benennt. Diese Besonderheit lässt sich unter anderem darauf zurückführen, dass die norwegische Nahrungsmittelkultur kein wichtiger Bestandteil der Nationenbildung im 19. Jahrhundert war. Wichtig war ausschließlich die nationale Ebene, nicht aber die regionale oder lokale Ebene (Amilien/Hegnes 2004). Diese Entwicklung führte dazu, dass nur wenige norwegische Produkte einen Namen tragen, der ihre Herkunft ausweist, wie dies in anderen europäischen Ländern oder in anderen Teilen der Welt der Fall

50 | Atle Wehn Hegnes

ist. Bestandteil der oben genannten Übersetzungsarbeit ist es dementsprechend, Produktnamen einzuführen, die ihren Herkunftsort ausweisen. Erzeugergemeinschaften sind aus diesem Grunde damit befasst, während des Bewerbungsverfahrens Produktnamen zu erfinden, über die das jeweilige Produkt mit seinem Herstellungsort verbunden werden kann. Um den Schutz der geographischen Herkunftsangabe effektiv zu gestalten, muss ein kulturell-geprägtes Nahrungsmittelverständnis etabliert werden. In Norwegen sind solche Anstrengungen allerdings erst nach Einführung des Schutzes der geographischen Herkunft unternommen worden. Es besteht hier eine Anpassung sowohl an den internationalen, als auch an den nationalen Kontext. Norwegische Kartoffeln und andere Erzeugnisse sind komplexen und sich wandelnden Anpassungsprozessen auf zwei Ebenen gleichzeitig unterworfen. Ein für die Zulassung verantwortlicher Beamter hat die Situation folgendermaßen geschildert: »In der Regel vergehen mehrere Jahre von dem Zeitpunkt an, zu dem wir die Erzeuger betreuen, bis zu dem Zeitpunkt, zu dem sie ihre Bewerbung einreichen. Im Laufe dieser Zeit allerdings kann sich die juristische Situation verändern oder verschärfen. Wenn also ein Bewerbungsverfahren bereits eingeleitet ist, kann es vorkommen, dass wir mehr Informationen und Nachweise anfordern müssen, als zu Beginn des Prozesses. Für viele Erzeuger war dies ein frustrierender Umstand.«

Die fortwährende Übersetzung und Etablierung europäischer Gesetze in den norwegischen Kontext fordert alle Beteiligten. Wobei auftauchende Schwierigkeiten viel mit der Problematik zu tun haben, dass es Unterschiede zwischen den französischen, spanischen, portugiesischen, britischen und norwegischen Nahrungsmittelkulturen gibt. Das Verbindungsmoment zwischen der international-globalen Ebene und der lokalen Ebene soll hier als Übersetzungs- und Transformationsebene begriffen werden. Übersetzungs- und Transformationsarbeit wird sowohl auf einer Ebene als auch Ebenen übergreifend geleistet. Ein Beispiel hierfür ist die Anpassung norwegischer Gesetzgebung an die europäische einerseits und an die norwegische Nahrungsmittelkultur andererseits. Im folgenden Beispiel wird auf die internationale und die nationale Ebene Bezug genommen.

Der Schutz der Nahrungsmittelherkunft in Norwegen | 51

Der Überset zungs- und Transformationsprozess bei Kar tof feln Wenn eine Erzeugergemeinschaft sich dazu entschließt, sich für die g.g.A. oder die g.U. zu bewerben, leitet dies einen Bearbeitungsprozess ein, der sich sowohl mit der Geschichte der geographischen Herkunft befasst als auch mit den Herstellungstechniken. In diesem Bearbeitungsprozess werden spezifische Besonderheiten des Erzeugnisses definiert und die Abläufe alltäglicher Produktionspraxis in juristische Begriffe gefasst. Der Status der g.U. wird bevorzugt angestrebt, wenn das Produkt in hohem Grad mit der geographischen Gegend verbunden ist. Der Schutz der g.g.A. kann angestrebt werden, wenn eine Verbindung zwischen Erzeugnis und dem ausgewiesenen Herkunftsort nachgewiesen werden kann. Den Gesetzesbedingungen folgend werden die Erzeugergemeinschaften verpflichtet, folgende sieben Punkte zu dokumentieren und nachzuweisen: 1. Die Nahrungsmittelbezeichnung 2. Die Mitgliedschaft des Herstellungsbetriebes in einer Erzeugergemeinschaft 3. Die Zusammensetzung des Erzeugnisses in ihrer physikalischen, chemischen, mikrobiologischen und/oder organoleptischen Eigenschaften 4. Die Definition der geographischen Herkunft 5. Die Nachweisbarkeit der Herkunft des Erzeugnisses aus angegebener Region 6. Die Dokumentation der Herstellungsmethoden 7. Die Verbindung zwischen dem Nahrungsmittelerzeugnis und seiner geographischen Herkunft bzw. seinem geographischen Ursprungsort Auf den ersten Blick mag die Umsetzung dieser Anforderungen durchaus machbar erscheinen, in der Praxis jedoch ist dies nur selten der Fall. Jeder einzelne Anforderungspunkt ist in sich streng reglementiert und Nachweise sind schwer zu erbringen. Auf der einen Seite bedeutet dies, dass die Erzeugergemeinschaft sich mit dem korrekten Gebrauch von juristischen Begriffen vertraut machen muss, während auf der anderen Seite die Kontrollinstanzen in der Pflicht stehen, alle Details über das jeweilige Nahrungsmittel kennenzulernen.

52 | Atle Wehn Hegnes

Erzeuger und Kontrollbeamte habe in Interviews bestätigt, dass sich die Prozesse der praktischen Herstellung nur ungenügend in juristischer Ausdrucksweise darstellen lassen. Hersteller beispielsweise klagten oft darüber, dass Kontrollbeamte zu wenig Kenntnisse über das zu schützende Produkt hätten. Während die Kontrollbeamten regelmäßig problematisieren, dass auf Herstellerseite die Einsicht über die Notwendigkeit juristischer Verfahrens- und Ausdrucksweise fehle. Trotz allem jedoch besteht Verständnis gegenüber den Schwierigkeiten der jeweils anderen Partei. Wenn nun dieser Bewerbungsprozess als Prozess der Übersetzung und Transformation begriffen wird, kann die gegenseitige Frustration als Herausforderung auf dem Gebiet der Übersetzung und Transformation verstanden werden. Diese Herausforderung basiert auf dem Bedürfnis, einen Übersetzungskonsens zu erzielen, in dem alle Beteiligten über Fragen der Übersetzung und der Transformation einig geworden sind. Die Wege zu solch einer Einigung sind von Bewerbungsverfahren zu Bewerbungsverfahren unterschiedlich und werden darüber hinaus von jedem Beteiligten anders wahrgenommen. Die Hauptaufgaben bestehen darin, Anliegen und Inhalte angemessen auszudrücken und die Abläufe einer Bewerbung verständlich zu machen. Hierzu äußerte sich ein Beamter: »Wir haben zunehmend versucht, in unseren Mängelberichten konkreter zu werden und mehr Beispiele aufzuführen. Wenn wir eine Bewerbung erhalten, müssen wir in aller Regel Dokumentationsbelege nachfordern. Dieses Nachforderungsschreiben nennen wir dann Mängelbericht. Nun ist aber an jeder Bewerbung etwas zu beanstanden, weil die Vorschriften so kompliziert sind. Anfänglich haben wir die Vorschriften und juristischen Vorgehensweisen genauestens befolgt. Wir benutzten eine sehr formelle und schwer verständliche Ausdrucksweise. Demnach waren viele Erzeugergemeinschaften beim Erhalt eines Mängelberichtes verunsichert darüber, ob sich die geforderten Nachweise in juristische Termini übersetzen ließen. Aus diesem Grunde haben wir unsere Ausdrucksweise im Laufe der Zeit vereinfacht. Selbstverständlich müssen wir auf die Einhaltung bestimmter Begriffe und Verfahrensweisen achten, wir erklären sie nun jedoch in einer verständlicheren Weise. Ich kann allerdings nicht mit Bestimmtheit sagen, ob unser Entgegenkommen tatsächlich etwas bewirkt hat, zumindest haben wir uns bemüht. Rückmeldungen über zu formelle Aus-

Der Schutz der Nahrungsmittelherkunft in Norwegen | 53

drucksweise in den Mängelberichten und Berichte darüber, dass einige Hersteller Schwierigkeiten hatten, sie zu verstehen, gab es jedenfalls. Es gab große Unsicherheiten darüber, was wir meinten, und worin unsere Forderungen bestanden.«

Vergleichbare Herausforderungen im Bereich Übersetzung werden auch in Interviews mit Herstellern beschrieben: »Wir denken, dies alles ist verrückt! Es handelt sich lediglich um eine Frage der Definition, Dinge so oder so auszudrücken. Wir sind doch die Produzenten hier, richtig?! Wir wissen, dass unsere Kartoffeln von jeher an diesem Ort angebaut worden sind, und dass dies immer so war. Und dann gibt es jene, die ein wenig Jura studiert haben, die uns vorschreiben, dass unsere Arbeit und unsere Produkte in einer ganz fremden Weise dargestellt werden sollen. Und so geht es im Grunde darum, die beiden Betrachtungsweisen zusammenzubringen. Das erkennen wir und formulieren die Dinge deshalb so, dass sie in dieses andere System passen, und so die Vorschriften erfüllt werden.«

Um zu einer Einigung zu gelangen, ist es von großer Bedeutung, dass alle Beteiligten fähig sind, die jeweils andere Position nachzuvollziehen. Eine Annäherung von Herstellern und Beamten wird am besten durch direkte Kommunikation vor Ort erreicht, dem Ort wo das Produkt hergestellt wird. Ein solches Zusammenkommen trägt zu einer »anschaulichen Lehre durch Worte« bei, »die Lehre durch Worte stellt eine Verbindung zwischen der Welt und dem Gegenstand her« (Wittgenstein 2001: 4). Diese Art der Lehre unterstützt das Zulassungsverfahren auf beiden Seiten. Einige Hersteller sind sehr dankbar, einen Vertreter der Verwaltung persönlich getroffen zu haben. Interviewter: »Sie haben uns zu 110 % unterstützt! Ein höherer Beamter kam sogar extra, um uns zu zeigen, wie die Bewerbung auszufüllen ist, und welche Punkte besonders wichtig sind. Das war eine große Hilfe! (…)« Interviewer: »Sie sagten, Sie hatten einige Treffen mit Vertretern des Beamtenapparates, um schwierige Punkte in der Bewerbung zu erörtern?«

54 | Atle Wehn Hegnes Interviewte: »Ja! Nachdem wir den Antrag gestellt hatten, erhielten wir ein Schreiben, in dem stand, was in Ordnung ist und was nicht. Zudem überprüften wir, ob unser Antrag den Vorschriften angemessen formuliert war, ohne eine realitätsnahe Darstellung missen zu lassen.« Interviewer: »Das war sicherlich ein Vorteil!« Interviewter: »Eine ganze Delegation, Anwalt eingeschlossen, kam hierher. Wir schauten uns verschiedene Produktionsbereiche an, und bekamen Rückmeldung darüber, was in Ordnung, was verbesserungswürdig und welche Bereiche zu verändern waren. Ich hatte den Eindruck, dass wir über den gesamten Zeitraum unterstützt wurden.«

Es ist wichtig, einen Übersetzungskonsens in allen Bereichen herzustellen, in denen zum Schutz geographischer Herkunftsangaben Übersetzung stattfindet. Ist ein Übersetzungskonsens auf einer Ebene erzielt worden, bedeutet dies einen Erfolg für die Gesamtheit der stattfindenden Übersetzungsarbeiten. Dieser Konsens kann allen folgenden Verhandlungen zugrunde gelegt werden, beispielsweise Verhandlungen zwischen Herstellern oder zwischen Herstellerinnen und öffentlicher Verwaltung.

Das Zulassungsver fahren am Beispiel der Ringerikskar tof fel aus Ringerike Die Herausforderung liegt darin, sich auf eine gemeinsame Basis zu einigen, auf der mit der Übersetzungsarbeit begonnen werden kann. Die Kartoffelsorte Ringerikskartoffel aus Ringerike ist der interessanteste Fall. Die erste Bewerbung für diese Kartoffelsorte wurde im März 2003 gestellt. Die Erzeugergemeinschaft wollte den Namen Ringerikskartoffel als g.U. schützen lassen. Im Laufe der Bearbeitung des Bewerbungsantrags blieb jedoch unklar, ob diese Bezeichnung vergeben werden könnte. Es bestanden vor allem Zweifel darüber, ob die Ringerikskartoffel nicht auch in anderen Gebieten als in dem ihr zugewiesenen Ursprungsgebiet angebaut und ob sie als eigene Sorte klassifiziert werden könne. Die endgültige Entscheidung über diese Streitpunkte fällte das Ministerium für Landwirtschaft und Er-

Der Schutz der Nahrungsmittelherkunft in Norwegen | 55

nährung. Über die Bewerbung wurde im Oktober 2006 negativ entschieden. Die Ringerikskartoffel konnte nicht als geschützte Ursprungsbezeichnung gelistet werden, weil Ringerikskartoffel bereits der Name einer existierenden Kartoffelsorte war, und potentielle Verbraucher somit irregeleitet würden. Der Erzeugergemeinschaft wurde geraten, einen neuen Antrag zum Schutz der g.g.A. zu stellen, für den die Namensformulierung Ringerikskartoffel aus Ringerike gewählt werden sollte. Dieser Antrag wurde im Dezember 2006 gestellt, und ihm wurde im Juni 2007 stattgegeben. Für die Kartoffelsorten Bergmandelkartoffel aus Oppdal und Goldauge aus Nordnorwegen wurden im März 2004 und 2005 entsprechende Bewerbungsanträge gestellt. Die Bergmandelkartoffel aus Oppdal erhielt den Status der g.g.A. im September 2006 und die Goldaugenkartoffel aus Nordnorwegen erhielt den Status der g.U. im Oktober 2006. Während die Bergmandelkartoffel aus Oppdal und die Goldaugenkartoffel aus Nordnorwegen jedoch ohne größere Übersetzungs- oder Transformationsschwierigkeiten während der Antragsbearbeitung als geschützte Sorten registriert werden konnten, beschäftigte der Bearbeitungsprozess für die Ringerikskartoffel aus Ringerike ein ganzes bürokratisches System, nachdem eine Beschwerde eingereicht worden war. Kompetenz in den Bereichen Übersetzung und Transformation ist immer an die Fähigkeit der Akteure gekoppelt, Verständigungsmethoden und praktische Lösungsorientierung zusammenzuführen. Akteurinnen oder Organisationen tragen die Verantwortung für laufende Übersetzungs- und Transformationsprozesse und geben ihnen unterschiedliche Gewichtung. Die folgende Interviewpassage soll die Problematik der daraus entstehenden unterschiedlichen Gewichtung von Kompetenzen deutlich machen: »Auf eine gewisse Art sind wir von den Kenntnissen der Erzeuger, die sie über ihre Herstellungstraditionen haben, abhängig. Sollten jedoch Passagen eines Bewerbungsantrages merkwürdig klingen, können wir unsere eigenen Nachforschungen anstellen, und das kommt auch vor. Wir leiten den Fall an das die norwegische Lebensmittelaufsicht weiter, um ihn kommentieren zu lassen. Die Bewerbung wird dann von Spezialisten bearbeitet mit genauen Kenntnissen über das Produkt und seinen Herstellungsort. Es kann dann

56 | Atle Wehn Hegnes vorkommen, dass die norwegische Lebensmittelaufsicht gegen einen positiven Bescheid der Bewerbung Einwände erhebt. Der Grund hierfür kann im Erbringen mangelhafter Nachweise liegen. Das Bewertungsschreiben wird dann an die Erzeugergemeinschaft weitergeleitet, die Änderungen erarbeitet oder die Herstellungsgrundsätze verändern kann. Dieser Ablauf ist durch Zusammenarbeit gekennzeichnet, wir gehen auf einander ein und passen uns den Erfordernissen an. Es kommt auch vor, dass während des Verfahrens neue Anforderungen an die Endfassung des Produktstatuts gestellt werden, so dass wir sie neu überarbeiten müssen.«

Es ist wichtig festzuhalten, dass einige sich schwerer mit dem Übersetzungsprozess tun als andere. Dieser Tatbestand ist möglicherweise mit der Übersetzungsmacht verbunden. Diejenigen, die im sprachlichen Ausdruck ähnlich gebildet sind wie diejenigen, die die Übersetzungsmacht innehaben, werden das Bewerbungsverfahren leichter durchlaufen, als solche, die wenig Kenntnisse in diesen Bereichen vorweisen können. Erstere sind in der Regel mit schriftlichen Nachweisverfahren vertraut. Übersetzungskompetenz ist demnach in unterschiedlichem Maße bei den entsprechenden Akteuren anzutreffen, die sich wiederum in einem ideellen Feld bewegen – vom Spezialisten mit Produkt- und Verfahrenskenntnissen, bis zum einfachen Produzenten, der vorrangig sein eigenes Tätigkeitsfeld kennt. Zudem muss gefragt werden, ob der Schutz der geographischen Herkunftsangabe auch die Übersetzung der Produktbezeichnung beinhaltet. Unsere drei Kartoffelsorten aus Norwegen trugen andere Namen, bevor ihre Herkunft rechtlich geschützt wurde. Die Ringerikskartoffel aus Ringerike wurde vordem als Ringerikskartoffel verkauft. Kartoffeln, die als Goldaugenkartoffeln aus Nordnorwegen geschützt wurden, hießen davor ebenso, und die Bezeichnung Mandelkartoffel aus Oppdal wurde zugunsten von Bergmandelkartoffel aus Oppdal geändert. Während des Bewerbungsverfahrens gab es unterschiedliche Stellungnahmen, was die Namensfindung betraf. Die Entscheidung über Bezeichnungen ist demnach auch ein Moment der Übersetzung, weil es hier um Veränderungen des Sprachgebrauches geht. Ebenso bestimmend für die Qualität der Kartoffelsorten ist die Beschaffenheit des Bodens. Die strenge Spezifierung der

Der Schutz der Nahrungsmittelherkunft in Norwegen | 57

Böden hat nicht stattgefunden, bevor die Herkunft der Kartoffeln rechtlich geschützt wurde. Nach aktueller Regelung muss die Ringerikskartoffel aus Ringerike einen niedrigen Wassergehalt aufweisen, die Goldaugenkartoffel einen Anteil von 22 Prozent und die Bergmandelkartoffel aus Oppdal einen Anteil von 22-26 Prozent. Diese Entscheidungen bestimmen die Materialität. So können Kartoffeln mit einem geringeren Wasseranteil aus dem selben Anbaugebiet und mit einem identischen Namen jetzt nicht mehr unter diesem Namen verkauft werden. Die Entscheidung über den Wassergehalt ist in dieser Hinsicht als Transformationsprozess zu begreifen, weil durch die chemische Beschaffenheit die Materialität verändert wird. Die Zulassungsfrage im Fall der Bergmandelkartoffel aus Oppdal konzentrierte sich auf zwei geographische Merkmale: die genaue Lage des Anbaus und ihre Höhe über dem Meeresspiegel. Es wurde entschieden, dass die Anbaugegend innerhalb des Landkreises Oppdal liegen müsse. Diejenigen Bauern, die dieselbe Kartoffelsorte in angrenzenden Landkreisen anbauen, streben nur in Ausnahmefällen eine Mitgliedschaft in der Oppdal-Erzeugergemeinschaft an. Während also die beiden anderen Kartoffelsorten den Schutz ihrer geographischen Herkunft ausschließlich auf der Definition ihres genauen Anbaugebietes begründen, wird bei der Sorte Bergmandelkartoffel aus Oppdal die Definitionskategorie Anbauhöhe über dem Meeresspiegel hinzugenommen. Sie muss nach dieser Defi nition auf 400 Metern über dem Meeresspiegel angebaut werden. Es ergibt sich also die Frage, ob 400 Meter über dem Meer die Höhe eines Berges definiert? Die Herkunftsbeschränkung auf eine bestimmte Anbauhöhe über dem Meeresspiegel kann also als eine weitere Art der Transformation angesehen werden, weil hier Veränderungen im Bereich der Produktmaterialität bzw. seiner Beschaffenheit vorgenommen werden. Dieser Bewerbungsprozess birgt für genannte Kartoffelsorten neuartige Anforderungen. Ein Grundgedanke des Schutzes der geographischen Herkunft ist der, die ausgezeichneten Lebensmittelerzeugnisse auf einen hohen Qualitätsstandard zu bringen. Dies hatte die besonders hohen Anforderungen an die Zulassung der Kartoffelsorten zur Folge. Neue Kartoffelzulassungen erweitern die Liste der Qualitätsstandards und beeinflussen somit bereits bestehende und nachfolgende Zulassungen unabhängig ihrer tatsächlichen geographischen Herkunft.

58 | Atle Wehn Hegnes

Festere Kartoffelsorten mit einem niedrigen Wasseranteil werden zum Teil durch die Anforderungen der Herstellungsstandards geschützt, während andere mit einem gleich hohen Anteil diesen nicht genügen. Transformation und Übersetzung beeinflussen auf diese Weise die Eigenschaften der Kartoffelsorten, insbesondere die Festlegung auf Größe, Wassergehalt und Farbe. Diejenigen Kartoffelsorten, die diesen Kriterien entsprechen, werden gesetzlich geschützt, während alle übrigen Kartoffelsorten ohne eine besondere Herausstellung ihrer Herkunft verkauft werden, obwohl sich unter ihnen welche befinden können, die aus derselben Gegend stammen.

Schlussbetrachtung Wie anhand des empirischen Materials und der genannten Literatur gezeigt wurde, sind die Dynamiken, die Veränderungen auf Ebene des Sprachgebrauchs hervorbringen (Übersetzungen) und solche, die Veränderungen der Produktmaterialität nach sich ziehen (Transformation) wichtige Bereiche der Forschung zum gesetzlichen Schutz der geographischen Herkunft. Die vorgenommene Analyse hat herausgestellt, wie die Konzentration auf Übersetzungs- und Transformationsprozesse dazu beiträgt, die Dynamiken in diesem Forschungsbereich zu verdeutlichen. Diese Analyse sollte aufzeigen, dass Sprache und Fachwissen übersetzt werden müssen, und dass Nahrungsmittelerzeugnisse in ihren Eigenschaften verändert werden, wenn sie den Qualifikationsprozess zu einem herkunftsgeschützten Nahrungsmittel durchlaufen. Wie in der Einleitung erwähnt, sind die Prozesse der Übersetzung und der Transformation hierbei miteinander verwoben und voneinander abhängig. In einem Interview mit einem Vertreter einer Erzeugergemeinschaft heißt es: Interviewer: »Wie schätzen Sie den Umstand ein, dass Ihre langjährige Produktionstradition in juristische Termini übersetzt wird? Erkennen Sie Ihre eigene Tradition darin wieder?« Interviewter: »Ja, im Endeffekt schon, denn sie ist zu einem Teil unserer Sprache geworden. Es ist dann so etwas wie eine Formel für uns, nach der wir unsere Produktionsweise ausrichten müssen.«

Der Schutz der Nahrungsmittelherkunft in Norwegen | 59

Dieses Zitat verdeutlicht, wie Übersetzung und Transformation ineinander greifen. Das Wissen über die Produktion von Kartoffeln ist in einen Text übersetzt worden, und das Produkt, die Kartoffel, ist im selben Zuge in seiner Materialität während des Qualifi kationsprozesses an die Produktionsrichtlinien angepasst worden. Die Dynamiken sprachlicher und materieller Veränderung sind auch durch kulturelle, umweltbedingte, ökonomische, politische, technische sowie wissenschaftliche Faktoren beeinflusst. Sie begründen auf der Basis von Sprache und Materialität die Rahmenbedingungen des Übersetzungs- und Transformationsprozesses. Auf diese Weise sind Sprache und Materialität zugleich Bedingung und Ergebnis des Qualifi kationsprozesses der jeweiligen Produkte. Wenn also die Materialität eines Produktes in einen Text übersetzt wird, bildet die gewählte Sprache hierfür den kulturellen, umweltbedingten, ökonomischen, politischen, technischen und wissenschaftlichen Rahmen. Im umgekehrten Fall, wenn Sprache an die materiellen Bedingungen des Produktes angepasst wird, begründet die Materialität die Rahmenbedingungen für alle kulturellen, umweltbedingten, ökonomischen, politischen, technischen und wissenschaftlichen Faktoren in diesem Zusammenspiel. Kultur, Ökonomie, Politik, Technologie ebenso wie andere gesellschaftliche Wissensbereiche werden grundsätzlich als eigenständig verstanden. In diesem Artikel wurde verdeutlicht, dass solch eine Sichtweise nicht genügt. Jeder einzelne Wissensbereich, der innerhalb des norwegischen Zulassungsverfahrens eine Rolle spielt, wird durch räumliche Kategorien wie dem Globalen, Regionalen oder Lokalen beeinflusst. Um die Gesamtheit der stattfindenden Dynamiken zu erfassen, ist es daher sinnvoll, die Kommunikation aller Beteiligten und ihren fachlichen Hintergrund mit den Veränderungen am Produkt in Beziehung zu setzen, da die Akteure durch ihre unterschiedliche Übersetzungs- und Transformationsmacht die Rahmenbedingungen für Übersetzung und Transformation verändern. Sollte die Übersetzungs- und Transfomationskompetenz einer Erzeugergemeinschaft innerhalb eines bestimmten Übersetzungs- und Transformationsrahmens ungenügend sein, kann diese mit der Regierungsverantwortlichkeit für den Transformationsprozess in Konflikt geraten. Diese Verantwortlichkeit für den Übersetzungs- und Transformationsprozess ist teilweise for-

60 | Atle Wehn Hegnes

mal festgelegt durch die Gesetzesregelungen zum Schutz der geographischen Herkunft. Zwei Arten von Verantwortlichkeit werden unterschieden: diejenige, die von Akteuren übernommen wird, und diejenige, die Akteurinnen auferlegt wird. Öffentlichen Institutionen wird Verantwortung übertragen, während bestellte Gutachter als Akteure bezeichnet werden könnten, die Verantwortung übernehmen. Akteure ausgestattet mit einem hohen Grad an Übersetzungskompetenz haben mehr Einfluss auf die Übersetzungsprozesse als solche mit weniger Kompetenz. Erzeugergemeinschaften können angehalten werden, die von ihnen unternommene Übersetzung oder Transformation zu überarbeiten wie im Fall der Ringerikskartoffel gezeigt. In diesem Zusammenhang wird klar, wie öffentliche Institutionen ihre Übersetzungsmacht ausspielen, um ihrer Verantwortlichkeit gerecht zu werden. Eine Analyse der Handlungen von Akteuren, die befähigt sind, die Rahmenbedingungen für Übersetzung und Transformation zu bestimmen, kann Aufschluss darüber bringen, wie die weitere Entwicklungsgeschichte der Zulassungen für g.g.A. und g.U. in Norwegen verlaufen wird. Die Herausforderungen dieses Forschungsfeldes werden vor allem im ersten Teil der Analyse deutlich, die auf einem induktiven Forschungsansatz beruht. In diesem ersten Schritt der Analyse treten die Verbindungsmomente zwischen Sprachgebrauch und Materialität, Lokalität und Globalität hervor. Veränderungen (oder Anpassungen) in Sprachgebrauch und Materialität treten dann auf, wenn gleichzeitig lokale und globale Anforderungen an das Produkt gestellt werden. Es besteht demnach ein Wechselspiel zwischen dem übersetzten und transformierten Nahrungsmittelerzeugnis, der lokalen Produktionsweise und den internationalen Regelwerken der Agrar- und Ernährungspolitik. Die Mechanismen des geographischen Herkunftsschutzes zeichnen sich durch eine Vielzahl von Transgressionen oder Mehrfachtransgressionen aus. Die im Prozess der Übersetzung hervorgebrachten Argumente stützen sich hauptsächlich auf norwegische Gesetzesregelungen. In Ausnahmefällen lassen sich in den Antragsdokumenten für den Herkunftsschutz auch Sätze lesen wie »diese Handhabung entspricht der gültigen EU-Regelung«. Die öffentliche Verwaltung stützt ihre Übersetzung durch die geltende, regelmäßig erneuerte EU-Gesetzgebung und Verfahrensweise. Es gibt allerdings auch Fälle, in denen Erzeugerge-

Der Schutz der Nahrungsmittelherkunft in Norwegen | 61

meinschaften gegen die öffentliche Verwaltung argumentieren, und dabei Auszüge aus dem EU-Gesetzbuch zitieren. Dieser Tatbestand macht deutlich, dass Übersetzungsmacht eine Medaille mit zwei Seiten ist: situationsgebunden kann es von Vorteil sein, die europäische Gesetzeslage hervorzuheben, oder gegebenenfalls die norwegische. Die Rahmenbedingungen für Übersetzung und Transformation sind nicht festgelegt, sondern ein Spiegelbild der Verhandlungsdynamiken. Es ist immer möglich, globale, nationale, regionale und lokale Kulturaspekte hervorzuheben. Die spezifischen Dynamiken des Schutzes der geographischen Nahrungsmittelherkunft sind durch die Verbindungsmomente von Übersetzung und Transformation gekennzeichnet, die wiederum durch eine genaue Analyse offen gelegt werden können. Solch ein neuartiger Forschungsansatz kann zu einem besseren Verstehen der komplexen Zusammenhänge von lokaler Praxis mit globalen Regulierungsmechanismen führen. Diese Art der Konzeptualisierung findet sich in den Forschungsansätzen von Ian Hacking wieder, bei dem es »framework within which to think about making up people and the looping effect« (Hacking 2007: 286) heißt. Anders als bei Hackings framework ist die Verbindung zwischen dem, was er mit »interaktiv« bzw. als dessen Gegenstück mit »gleichgültig« (Hacking 2007: 293) beschreibt. Hacking ist vor allem mit der Frage befasst, wie Interaktion und looping effects zwischenmenschliche Kommunikation beeinträchtigen, nicht aber damit, welche Auswirkungen der looping effect auf den Handel mit Waren hat – wie beispielsweise der Handel mit Nahrungsmitteln. Obwohl nach Hacking Nahrungsmittelerzeugnisse als »gleichgültig« einzustufen wären, bietet es sich an, diese in den loop des »making up people« miteinzubeziehen, als »Personen konstituierendes Element«, wie es Elisabeth C. Dunn in ihrer Abhandlung über »Standards and Person-Making in Central-East-Europe« bezeichnen würde. Dunns Studie zeigt, wie Polens Übernahme von EU-Normen und -Standards für den Handel mit Schweinefleisch Auswirkungen auf die Klassifizierung von Personen bzw. Konsumenten hat. »Im Hinblick auf ihre Kunden übertragen polnische Fleischpacker diese Hierarchie, die innerhalb der Fleischverarbeitungsindustrie herrscht, auf die Klassifizierung von Menschen und Geographie. Sie sagen, dass Europäer (gemeint sind hier EU-Bürger) hohe Qua-

62 | Atle Wehn Hegnes lität schätzen und dafür auch einen entsprechenden Preis zu zahlen bereit sind. Polen, sagen sie, essen ebenfalls gern gutes Fleisch, könnten es allerdings nicht bezahlen, zudem ziehen sie etwas fetteres Fleisch vor. Russen stellen sich als Kunden dar, die sich nicht darum scheren, was sie essen, solange es nur günstig ist. Solche Hierarchien beziehen sich nicht nur auf die Kauf kraft der Kunden, sondern auch auf die Wertigkeit der Kunden selbst. Da Fleischpacker die Sichtweise auf ihre Kunden auf die Vorgabe von Standards begründen, zeichnen sie eine Topographie des Geschmacks, die die Aussage zulässt, dass, je weiter man nach Osten reist, dortige Bewohner immer weniger an der Qualität interessiert sind, und es sogar nicht wert sind, Qualitätsprodukte zu verzehren.« (Dunn 2005: 182f)

Einige der von Dunn aufgezeigten Dynamiken treten auch in Norwegen auf. Während der Einführung des Schutzes der geographischen Herkunftsangabe arbeiteten offizielle Behörden und Marktforschungsinstitute daran, den Markt auf die geschützten Produkte vorzubereiten. Sie mussten Erzeuger, Konsumenten und Vertriebskanäle mit der Idee und der Ausweisung der ›spezifisch norwegischen Nahrungsmittelerzeugnisse‹ vertraut machen. Neuartige Klassifizierungen wie ›Produzent spezialisierter Nahrungsmittel‹, ›Nahrungsmittelinteressierte Konsumenten‹ und ›Essensspezialitäten‹ kennzeichnen den norwegischen quality turn (Goodman 2005). Ein looping effect, der die Klassifizierung von Menschen und Nahrungsmitteln mit einschließt, stellt uns vor die Situation der looping transgressions, die das zeitgleiche Erscheinen von sprachgebräuchlichen und natürlich-materiellen Veränderungen anerkennt und dabei ihre komplexen Verbindungsmomente herausstellt. Die Dynamiken und die Komplexität des norwegischen Herkunftsschutzes für Nahrungsmittel zu verstehen, ist ein schwieriges Unterfangen. Um die Komplexität dieser Dynamiken besser fassen zu können, wurden in diesem Beitrag einige Konzepte vorgestellt, Verbindungen hergestellt und zu einem System zusammengefasst. Es ist zu hoffen, dass diese Konzeptualisierung dazu beiträgt, das norwegische Zulassungsverfahren zu verstehen, welches ebenfalls für Produzenten, Forscher und andere mit der Materie befassten Personen eine Herausforderung ist. Dieses Kapitel soll daher mit einem Zitat eines Vertreters der öffentlichen Verwaltung beschlossen werden, in

Der Schutz der Nahrungsmittelherkunft in Norwegen | 63

dem es heißt: »Wer hätte gedacht, dass die so kompliziert werden würde? Keiner von uns hätte dies gedacht, als wir mit der Umsetzung dieses Verfahrens begannen, keiner von uns!« Aus dem Englischen von Alexandra von Barsewisch

Literatur Amilien, Virginie/Hegnes, Atle Wehn (2004): »The Cultural Smell of Fermented Fish – About the Development of a Local Product in Norway«. In: Food, Agriculture & Environment 2, S. 141-147. Barham, Elizabeth (2003): »Translating Terroir: the Global Challenge of French AOC Labeling«. In: Journal of Rural Studies 19, S. 127-138. Bérard, Laurence/Marchenay, Philippe (1996): »Tradition, Regulation and Intellectual Property: Local Agricultural Products and Foodstuffs in France«. In: Stephen B. Brush/Doreen Stabinsky (Hg.), Valuing Local Knowledge: Indigenous People and Intellectual Property Rights, Washington DC: Island Press, S. 230-243. Bérard, Laurence/Marchenay, Philippe (2006): »Local Products and Geographical Indications: Taking Account of Local Knowledge and Biodiversity«. In: International Social Science Journal 58, S. 109-116. Bérard, Laurence/Marchenay, Philippe (2007): »Localized Products in France: Definition, Protection and Value-Adding«. In: Anthropology of Food S2 (Special Issue: Virginie Amilien/Georgina Holt (Hg.), From Local Food to Localised Food«. (http://aof.revues.org/index402.html, letzter Zugriff: 07.12.2009). Bérard, Laurence/Marchenay, Philippe (2008): From Localized Products to Geographical Indications. Awareness and Action, Bourg-en-Bresse: CNRS Ressources des terroirs. Dunn, Elizabeth C. (2005): »Standards and Person-Making in East Central Europe«. In: Aihwa Ong/Stephen Collier (Hg.), Global Assemblages: Technology, Politics and Ethics as Anthropological Problems, Malden/Oxford: Blackwell, S. 173193.

64 | Atle Wehn Hegnes

Feagan, Robert (2007): »The Place of Food: Mapping out the »Local« in Local Food Systems«. In: Progress in Human Geography 31, S. 23-42. Fonte, Maria/Grando, Stefano (2006): »A Local Habitation and a Name – Local Food and Knowledge Dynamics in Sustainable Rural Development«. In: WP6 CORASON Local food production comparative report 2, August, zweite Version. Goodman, David (2002): »The Quality ›Turn‹ and Alternative Food Practices: Reflections and Agenda«. In: Journal of Rural Studies 19, S. 1-7. Hacking, Ian (2007): »Kinds of People: Moving Targets«. In: Proceedings of the British Academy 151, S. 285-318. Marsden, Terry/Banks, Jo/Bristow, Gillian (2000): »Food Supply Chain Approaches: Exploring their Role in Rural Development«. In: Sociologia Ruralis 40, S. 424-438. Marty, Fabrice (1997): »Which are the ways of innovation in PDO and PGI products? ». In: Filippo Arfini/Cristina Mora (Hg.), Typical and Traditional Products: Rural Effect and Agro-Industrial Problems: Proceedings of 52nd EAAE Seminar (19-21.6.1997), Parma, S. 41-58. Ray, Christopher (1998): »Culture, Intellectual Property and Territorial Rural Development«. In: Sociologia Ruralis 38, S. 3-20. Renting, Henk/Marsden, Terry K./Banks, Jo (2003): »Understanding Alternative Food Networks: Exploring the Role of Short Supply Chains in Rural Development«. In: Environment and Planning A 35, S. 393-411. Tregear, Angela/Arfini, Filippo/Belletti, Giovanni/Marescotti, Andrea (2007): »Regional Foods and Rural Development: The Role of Product Qualification«. In: Journal of Rural Studies 23, S. 12-22. Wittgenstein, Ludwig (2001 [1953]): Philosophical Investigations, Oxford: Blackwell. WTO (1994): Agreement on Trade-related Aspects of Intellectual Property Rights, 15 April 1994, Marrakesh Agreement Establishing the World Trade Organization, Annex 1C, 33 ILM 1197, S. 319-351.

Die Standardisierung von Natürlichkeit und Herkunf t Stephan Gabriel Haufe

Im Diskurs um Lebensmittel führt der quality turn (Murdoch et al. 2000) seit dem Ende der neunziger Jahre zu neuen Qualitätskonzepten. Ausgelöst durch die BSE-Krise in der EU kommt es zu einem »run back into the arms of nature« (Murdoch/ Miele 1999: 482), der zu einer größeren Bedeutung von ökologischen und regionalen Lebensmitteln führt. Alternativ zur industriell ausgerichteten Massenproduktion von Nahrungsmitteln (vgl. Enticot 2003: 412) sollen nun ›natürlichere‹ und ›traditionelle‹ Nahrungsmittel Verbrauchern ein Angebot bieten, die Risiken industriell gefertigter Nahrungsmittel zu umgehen. Die Gefahrenquellen ergeben sich aus der Prozessqualität1 industrieller Nahrungsmittel, mithin aus den Herstellungsverfahren und -strukturen, gekennzeichnet »by trends towards agribusiness in food production, multinational monopolisation of food distribution networks, and increased application of European Union hygiene legislation« (Leitch 2000: 108), zum Beispiel aus dem Einsatz moderner biotechnologischer Verfahren oder durch Konservierungsstoffe und der Notwendigkeit langer Transportwege. Negative Effekte dieser Prozessqualität werden auf verschiedenen Ebenen ausgemacht: im menschlichen Körper, wenn wie im Fall von BSE die gesundheitliche Sicherheit 1 | Ausführlicher zu Prozess- und Produktqualität siehe Böcker 2004, S. 11ff.

66 | Stephan Gabriel Haufe

der Produkte in Frage gestellt wird; in der natürlichen Umwelt, wenn u.a. durch Pestizide die ökologischen Verhältnisse verschlechtert werden; aber auch in Bezug auf soziale und kulturelle Bedingungen, wenn der Verlust regionaler nahrungskultureller Eigenheiten durch strenge Industrienormen für die Nahrungsmittelproduktion befürchtet wird (Leitch 2000). Folglich muss sich sowohl die Prozessqualität ›natürlicherer‹ oder ›traditioneller‹ Nahrungsmittel als auch die Produktqualität, die sich auf die konkrete Beschaffenheit und die stoffliche Zusammensetzung bezieht, von der industriellen Massenproduktion konsequenterweise unterscheiden. Freilich bewegt sich diese Rekonfiguration der Qualitätskonzepte in verschiedene Richtungen. Während sich die Nahrungsmittelqualität ›natürlicherer‹ und ›traditioneller‹ Produkte in dieser Abwendung von industrieller Massenproduktion gleichen, unterscheiden sich beide in ihren Prozessqualitäten. Bei Ersteren steht die Umweltverträglichkeit des Nahrungsmittels im Vordergrund; ›traditionellen‹ Produkten liegt eine Anbindung an angenommene lokale wie regionale Nahrungstraditionen zu Grunde. Neuere Forschungen zur Qualität zeigen, dass beide Ausrichtungen in Mischformen auftauchen. Hinter Qualitätsbezeichnungen, die Natürlichkeit und Tradition versprechen (»naturnah«, »natürlich« oder »nach traditioneller Art«) verbergen sich vielschichtige hybride Mischkonzepte.2 Konzepte von Natürlichkeit und Traditionalität werden in Produktionsketten jeweils anhand gesetzlicher Vorschriften, geltender Standards 2 | Wie Leitch am Beispiel des Specks aus dem italienischen Colonnata oder Gisela Welz in einer anderen Studie über zypriotischen Halloumi-Käse zeigen (Welz 2004), werden diese beiden Produkte mit einer »zertifizierten Tradition« im Rahmen des europäischen Herkunftsschutzes (vgl. Beck 2006) in ihrer materiellen Zusammensetzung (Inhaltsstoffe, Werkzeuge, Maschinen, Herstellungsräume) und ihren Produktionsverhältnissen verändert, indem sie an Vorgaben für industrielle Lebensmittelproduktionen angepasst werden. Murdoch et al., welche die Entwicklung der Waliser Landwirtschaft nach der BSE-Krise untersuchen, zeigen an Waliser Biomilch, dass erfolgreiche Landwirte zwar ökologischen Biojoghurt machen, aber ihr Erfolg durch gezieltes Marketing in Supermärkten und auf der Integration industrieller Lebensmittelpraktiken beruht (Murdoch et al. 2000).

Die Standardisierung von Natürlichkeit und Herkunft | 67

und als Anpassung an Verbraucherbedürfnisse konkret verhandelt und definiert, wobei der Grad der Abwendung von Herstellungsprozessen der globalisierten Massenproduktion variiert.3 Welche Qualitätsformate von Natürlichkeit und Traditionalität entstehen können, soll dieser Beitrag an zwei Beispielen zeigen: erstens an der gentechnikfreien (aber nicht biologischen) Milch einer österreichischen Molkereigenossenschaft und zweitens am Steirischen Kürbiskernöl™ mit geschützter geografischer Angabe (g.g.A). Beide Nahrungsmittel werden in Österreich produziert, einem Land, dessen Nahrungsmittelund Agrarpolitik die Hinwendung zu ökologischen und traditionellen Produkten in der nationalen Landwirtschaft massiv unterstützt (Darnhofer/Schneeberger 2007). Sowohl die gentechnikfreie Milch als auch das Steirische Kürbiskernöl™ werden in Österreich und in anderen EU-Ländern über den Lebensmitteleinzelhandel vertrieben. Die Qualitätsmerkmale ›gentechnikfreie Erzeugung‹ und ›Steirisch‹ werden dem Kunden jeweils mit einem Label auf der Verpackung dokumentiert. Die gentechnikfreie Milch trägt ein Label mit der Kennzeichnung Gentechnik frei erzeugt™. Das Steirische Kürbiskernöl™ trägt das europäische Siegel ›geografisch geschützte Angabe‹ (g.g.A.), das es auf Grundlage des europäischen Herkunftsschutzes4 als traditionelles Produkt ausweist. Das Qualitätsmerkmal Gentechnik frei erzeugt™ basiert auf einer Ablehnung der Gentechnologie als biotechnologischem Verfahren im konventionellen Nahrungsmittelbereich.5 Die gentechnikfreie und damit technologieärmere Erzeugung wird 3 | »[…] we should not fooled into thinking of localness, natur-

alness, and embeddedness as sufficient in themselves; rather, we must show these qualities come to be asserted and negotiated in supply food chains.« (Murdoch et al. 2000: 122) 4 | Zu Bedeutung und Inhalt des europäischen Herkunftsschutzes vgl. Atle Wehn Hegnes in diesem Band. 5 | Die konventionelle Landwirtschaft umfasst die »jeweils zurzeit mehrheitlich übliche Bewirtschaftungsform, deren Mindeststandards der Prozessqualität durch die jeweils gültigen gesetzlichen Vorschriften geregelt sind. Die Gestaltung dieser Mindeststandards auf EU- und nationaler Ebene orientierte sich in den letzten zwei Jahrzehnten zunehmend am Konzept der integrierten Landwirtschaft.« (Boecker et al. 2003: 11)

68 | Stephan Gabriel Haufe

als ›natürlichere‹ Variante der Nahrungsmittelproduktion ausgelegt. Das Merkmal ›Steirisch‹ verweist dagegen auf die Hinwendung zu einer regional gewachsenen Nahrungstradition: auf historisch belegte Rezepturen und Verfahren zur Herstellung von Kürbiskernöl in der südlichen Steiermark. Die detaillierten Konzepte für Qualitätsmerkmale entstehen in Kontexten: in den Beziehungen zwischen den Beteiligten der Produktionskette, deren Einstellungen und Interessen, deren Wissen bzw. wechselseitigen Wissensannahmen. Landwirte, Hersteller und Einzelhändler entscheiden im Rahmen politischer Einflüsse, juristischer Vorschriften, wirtschaftlicher Vermarktungsbedingungen und schließlich sozialer Bedingungen und kultureller Annahmen.6 Selbst die stoffliche Zusammensetzung von Nahrungsmitteln ist nicht einfach gegeben, erklärt der deutsche Wirtschaftsgeograf Ulrich Ermann in Anlehnung an die Akteur-Netzwerk-Theorie, »sondern das Ergebnis früherer menschlicher Erklärungen« (Ermann 2005: 78f.). Diese Erklärungen basieren auf kontextabhängigen Interpretationen und kommen durch zugewiesene aber nicht zeitlos gültige Bedeutungen zustande. Neben der stofflichen Beschaffenheit bestimmt auch die immaterielle symbolische Bedeutung den Stellenwert eines Nahrungsmittels. Gentechnikfreiheit im Sinne einer Ablehnung moderner Pflanzentechnologie und geografische Herkunft bzw. Regionalität können solche symbolische Aufladungen in Qualitätsdefinitionen sein. Da die von Verbrauchern wahrgenommene Qualität eines Nahrungsmittels ebenso vom Image, von der Werbung, vom Geschmack und anderen subjektiven oder die subjektive Wahrnehmung beeinflussenden Faktoren abhängt, tragen Objektivierungsstrategien dazu bei, Nahrungsmittelqualitäten als natürlich oder traditionell zu kategorisieren. Eine Form der Objektivierung sind Authentifizierungsprozesse, die darüber entscheiden, ob ein Qualitätsmerkmal echt ist oder nur so be6 | »Ein bedeutender Teil dessen, was Menschen als Qualität eines Produktes ansehen, wird aber weder von der stoffl ichen Beschaffenheit des Produktes noch vom menschlichem Körper bestimmt, sondern ist das Ergebnis einer gesellschaftlichen Konstruktion und hängt vom kulturellen Kontext ab.« (Murdoch/Arce 1995 zit.n. Ermann 2005: 78)

Die Standardisierung von Natürlichkeit und Herkunft | 69

zeichnet wird. Authentifizierung ist laut Ermann sowohl als Echtheitsbezeugung als auch als Echtheitserzeugung zu verstehen (Ermann 2005: 79). Echtheitsbezeugung entsteht, wenn Produzentenwissen abgefragt, überprüft und an Konsumenten weitergegeben wird, zwischen dem Konsumenten- und Produzentenwissen folglich eine größere Übereinstimmung hergestellt wird. Echtheitserzeugung basiert dagegen auf Labeln und Imageabbildungen auf Nahrungsmittelverpackungen und muss mit den eigentlichen Produktionsprozessen bzw. mit der tatsächlichen Prozessqualität nicht hundertprozentig übereinstimmen. Die Echtheit des Steirischen Kürbiskernöls™ wird durch das Label der geografisch geschützten Angabe erzeugt, welches garantieren soll, dass das Kernöl sowohl in der Steiermark als auch aus steirischen Kürbiskernen hergestellt worden ist. Ob aber jedes Kürbiskernöl mit dem Europäischen Herkunftslabel g.g.A tatsächlich nur dort hergestellt wurde und seine geografische Echtheit garantiert ist, lässt sich für Konsumenten nur schwer nachprüfen. Denn die diese Echtheit bezeugenden Kontrollstellen geben wenige Informationen an die Öffentlichkeit. Auch die aufwendigen Dokumentationen und zusätzlichen Kontrollen von Landwirten und Futtermittelwerken, die garantieren sollen, dass kein Milchbauer gentechnisch veränderte Soja an seine Milchkühe verfüttert, kann der Milchkäufer kaum nachprüfen. Dieses bezeugende Wissen aus Dokumentationen und Kontrollen bildet aber die Grundlage für das auf der Milchtüte befindliche Label Gentechnik frei erzeugt™. Das wiederum gewährleistet, dass der Kunde die gentechnikfreie Herstellung als Merkmal der Prozessqualität erkennen kann. In der Realität sind Echtheitsbezeugung und -erzeugung also nicht auseinander zu halten. Beide Prozesse überlagern und beeinflussen sich gegenseitig. Sowohl Echtheitsbezeugung als auch -erzeugung lassen für den Konsumenten sichtbare und unsichtbare Bereiche des Herstellungsprozesses entstehen. Auf die Undurchschaubarkeit und Vielschichtigkeit von Authentifizierungsprozessen weisen auch der amerikanische Kunsthistoriker Ivan Karp und die Anthropologin Corinne Kratz hin. Sie legen ihr Augenmerk auf die Rolle von Institutionen und Machtzusammenhängen, die autorisiert sind, Echtheit zu beund/oder erzeugen:

70 | Stephan Gabriel Haufe

Abbildung 4: Label »Gentechnik-frei erzeugt« der Arbeitsgemeinschaft für Gentechnik-frei erzeugte Lebensmittel (Quelle: ARGE Gentechnik frei).

Abbildung 5: Label »Steirisches Kürbiskernöl mit geographisch geschützter Angabe« (Quelle: Erzeugerring Steirisches Kürbiskernöl). »›Authenticity‹ assumes that authorities somewhere can distinguish ›real‹ from ›fake‹, fully verify the ›historical‹ and expose the ›fiction‹. The word authentic is often used as if it describes a quality inherent in an object, but such attributions are the outcome of complex processes and contestations. ›Authentication‹ is a process by which an exchangeable item, or reproduced experience, is invested with social value [...]« (Karp/Kratz 2000: 202).

Die Standardisierung von Natürlichkeit und Herkunft | 71

Authentifizierung dient somit der Erzeugung von Glaubwürdigkeit und Vertrauen zwischen Produzenten und Konsumenten, aber auch zwischen den Teilnehmern der Produktionskette untereinander. Entscheidend für eine garantierte kontinuierliche Erzeugung ›natürlicher‹ wie ›traditioneller‹ Qualitätsmerkmale, die als solche authentifiziert werden, sind Standards. Die amerikanische Soziologin Laurence Bush sieht Standards als Teil einer »moral economy of the world«, mit dem Politikwissenschaftler James Scott versteht sie diese als »notion of economic justice and their working definition of exploitation – their view of claims on their products which were tolerable and intolerable« (zit. b. Bush 2000: 274). Standards dienen der Regulierung des Nahrungsmittelangebots und dessen Qualität, »in order social food safety and quality objectifs are adressed. On the other, food safety and quality standards are central to meeting the market demands of consumers on the one hand, while forming the very basis product differentiation in contemporary food markets on the other [...]« (Henson/Reardon 2005: 243).

Standards sollen Berechenbarkeit erzeugen, indem sie Abläufe festschreiben und deren Ergebnisse vorhersehbar machen. Sie führen zu einer wechselseitigen Durchleuchtung von Handlungsanweisungen für Personen und Dinge, wodurch sie im foucaultschen Sinne als machtvolles Verfahren zu Selbstorganisation, Selbstbewertung und Selbstüberwachung von menschlichem Handeln dienen (Foucault 1982). Standards werden entwickelt, um Risiken innerhalb der Nahrungsmittelproduktion zu minimieren. Standardisierungen sind somit Teil einer Risikokommunikation und dienen als Hebel, um ein Risiko auszuschalten, um bestimmte risikoärmere Abläufe zu erzeugen, die stets juristisch, wirtschaftlich, politisch oder kulturell begründet sind. Skandale um BSE, ›Gammelfleisch‹ oder Dioxinverunreinigungen von Hühnerfutter haben daher nicht nur zu einer Hinwendung zu ökologischeren und regionaleren Nahrungsmitteln geführt, sondern die politischen und wirtschaftlichen Entscheidungsträger verschärften ihre Vorgaben für die Sicherheit von Lebensmitteln und trieben die Standardisierungen der 7 Nahrungsmittelproduktion weiter voran. Standards schreiben 7 | »The proliferation and evolution of food safety and quality

72 | Stephan Gabriel Haufe

darum Wissen, Werte und Bedeutungen in ein Objekt, in den Markt oder in Handlungsweisen ein. Standardisierungen als Vereinheitlichungs-Technologie sind einerseits ein Instrument, um die Varianz verschiedener Qualitätsstufen (von konventionell bis Bio) herzustellen. Sie bilden damit die Grundlage für die Produktdifferenzierung und -innovation; die dazu gehörenden konkreten Standardisierungen gewährleisten die Kriterien, die zur Erzeugung bestimmter Qualitätsmerkmale eingehalten werden müssen. Andererseits funktionieren Standardisierungen als Markierungs-Technologie. Bei der Ausarbeitung von Standards werden die materielle Zusammensetzung und die gewünschten Produkteigenschaften von Nahrungsmitteln verhandelt und das Produkt schließlich markiert, »marked as being a certain kind of thing« (Kopytoff 1986: 64), bei den vorliegenden Beispielen als ›natürlich‹, ›gentechnikfrei‹ oder ›echt steirisch‹, ›traditionell‹. Diese Authentisierungs- und Standardisierungsprozesse sind an Kontrollverfahren gebunden. Die Kontrollen dienen dazu, die Probleme dieser Prozesse zu erfassen und derart einzugrenzen, dass ein gewünschtes Qualitätsmerkmal faktisch erhalten bleibt. Im Folgenden geht es darum, drei Felder aufzuzeigen, in denen Echtheitser- und -bezeugung mittels Standardisierungen als Vereinheitlichungs- und Markierungs-Technologien ›natürlicher‹ und ›traditioneller‹ Nahrungsmittel stattfinden.

Landschaftsqualität und Qualitätslandschaften Landschaftliche Bezüge werden in der Vermarktung von Nahrungsmitteln als Qualitätsmerkmal eingesetzt. Dem quality turn folgend verstärkt sich dieser Ansatz. Es entstehen laut Murdoch neue Nahrungsmittelproduktionen, die in lokale Umwelten eingebettet sind (Murdoch et al. 2000: 109). Eine Strategie zur Einbettung von Nahrungsmittelproduktionen in lokale Ökologien (Murdoch et al. 2000: 109) eröff net der terroir-Anstandards in industrialised countries, driven predominantly by the ›ratching-up‹ of regulatory requirements in response to consumer concerns about food safety and quality and scientific developments regarding the risks associated with food is nothing new.« (Henson/ Reardon 2005: 241)

Die Standardisierung von Natürlichkeit und Herkunft | 73

satz, wie ihn Marie France Garcia in diesem Buch in ihrem Artikel »Weinklassifi kation im Zeitalter der Globalisierung: Das Beispiel französischer Weine« erläutert. Die beim Wein über Jahrhunderte elaborierte Herleitung von Geschmack, Farbe und Geruch einer Weinsorte durch Boden, Klima und die verbreitete Winzertechnik einer bestimmten Region überträgt sich seit der Einführung des europäischen Herkunftsschutzes auf Nahrungsmittel aller Art. Das verdeutlicht Atle Wehn Hegnes in seinem Beitrag über den »Schutz der geographischen Nahrungsmittelherkunft in Norwegen als Übersetzung- und Transformationsprozess« am Beispiel norwegischer Kartoffelsorten. Der norwegische Soziologe beschreibt, dass Qualitätseigenschaften verräumlicht werden, um eine Tradition herzuleiten, die als spezifisches Alltagswissen bewahrt wurde, das in einem bestimmten sozio-historischen Kontext gewachsen ist.8 Die geografische Herkunft führt die Qualität von Nahrungsmitteln direkt auf die natürlichen Gegebenheiten einer Landschaft zurück und garantiert so die Spezifikation eines Produktes; wobei die Anbindung an Landschaften teils tatsächlich historisch im Sinne einer verbreiteten ›Nahrungstradition‹ belegt werden kann, teils im Nachhinein durch regionales Marketing, kulinarische Festivals oder touristische Werbung konstruiert und neu inszeniert wird (Bérard/Marchenay 2007). Das Beispiel Österreich weist hinsichtlich seiner Agrarlandschaft bereits einige Spezifi kationen auf. Durch die stark alpine Prägung der Landschaft entsteht ein Naturraum mit einer hohen aber auch sensiblen Biodiversität. Zugleich ist die Landwirtschaft durch eine kleinteilige Struktur und einen großen Anteil an ökologisch wirtschaftenden Bauernhöfen gekenn8 | Hegnes beschreibt das System der Geographical Indication und der europäischen Produkte mit geschützter geographischer Herkunft, g.g.A. Deren Annahmen beruhen weitestgehend auf dem Konzept der exclusivité d’origine. Ausgehend von der Vorstellung notwendiger Ortsgebundenheit der mit einer Ursprungsbezeichnung bezeichneten Erzeugnisse hat die französische Justiz die Theorie der exclusivité d’origine entwickelt. Demnach sind Erzeugnisse auf das Erfordernis eines Zusammenhangs von den Eigenschaften des Erzeugnisses und den ausschlaggebenden Verhältnissen am Ursprungsort gekennzeichnet (vgl. Ramirez León, Cecilla a. 2007).

74 | Stephan Gabriel Haufe

zeichnet. Österreich nutzt den europäischen Herkunftsschutz für die Weiterentwicklung des eigenen nationalen Agrarraums. Das Land fördert seit dem Beitritt zur EU verstärkt traditionelle österreichische regionale Produkte. Auch die gentechnikfreie Produktion wird mit einer räumlichen Dimension verbunden. Seit 2009 arbeitet die österreichische Milchwirtschaft nahezu vollständig ohne gentechnisch veränderte Futtermittel. In der Europäischen Union kann die österreichische Milch auf dem konventionellen Milchmarkt daher mit einem zusätzlichen Qualitätsmerkmal, das auf dem Ausschluss einer gesellschaftlich umstrittenen Pflanzen- und Biotechnologie beruht, aufwarten. Österreich stellt in der EU zudem ein Land dar, in das kein Saatgut eingeführt werden darf, das gentechnisch veränderte Organismen enthält. Im Gegensatz zur EU können auch Milch und Fleischprodukte als gentechnikfrei ausgelobt werden.9 Mittels gesetzlicher Vorschriften, neuer Grenzwerte, neuer Kontrollverfahren sowie anhand von Qualitätsdefinitionen und -merkmalen erzeugt das EU-Land damit eine eigene nationale Infrastruktur für die konventionelle Landwirtschaft. Diese regional wie national aufgeladenen Qualitätsdefinitionen von Nahrungsmitteln dienen einer höheren Wertschöpfung der österreichischen Landwirtschaft und kreieren einen alternativen Weg in der europäisierten Agrarwirtschaft in der Europäischen Union.

Gentechnik- und Herkunf tskontrollen Der Authentifizierungsprozess von gentechnikfreier Produktion und von Nahrungstraditionen ist eng an Kontrollverfahren gebunden: den Gentechnik- und den Herkunftskontrollen. Beide Verfahren bestehen aus Eigenkontrollen (Eigenbezeugungen) der Erzeugerinnen und Fremdkontrollen (Fremdbezeugungen), die staatliche und staatlich akkreditierte Prüfunternehmen vornehmen. Die Gentechnikkontrollen für den konventionellen Nahrungsmittelbereich lehnen sich an Gentechnikkontrollen im Bionahrungsmittelbereich an. Das Ziel 9 | Ausführlich zu Richtlinien der gentechnikfreien Produktion in Österreich im Rahmen des Codex Alimentarius: Eichinger 2008.

Die Standardisierung von Natürlichkeit und Herkunft | 75

ist es, die Produktionskette vollständig von gentechnisch veränderten Organismen (GVO) frei zu halten. Kontrolliert werden Dünger und Pflanzenschutzmittel, die beim Anbau von Viehfutter verwendet werden, zudem die Futtermittel, Futtermittelzugaben und die Arzneimittel der Nutztiere sowie Zusatzstoffe und andere Beimengungen bei der Verarbeitung der Nahrungsmittel (z.B. Vitamine). Produkt- und Herkunftsangaben über diese Betriebsmittel müssen von den Landwirtinnen dokumentiert werden. Das Hauptelement der Gentechnikkontrolle für Milch ist die Futtermittelanalyse durch Probenentnahme und genaue Dokumentation. In Futtermitteln kann der größte Anteil von GVOs eingetragen werden. Die Kontrollen dienen dazu, auszuschließen, dass Bauern Futtermittel verwenden, die gentechnisch veränderte Pflanzen, in der Hauptsache transgene Soja oder transgenen Mais enthalten, und dass das Milchvieh mit gentechnisch verändertem Futter für andere Nutztiere in Kontakt kommt. Im Gegensatz zu Gentechnikkontrollen gelten Herkunftskontrollen noch nicht als ausgereift. Aber »im Zeitalter des globalen Handels und der Klimaveränderung und -erwärmung gewinnt der geografische Ursprung von Lebensmitteln immer mehr an Bedeutung«, stellt die Chemikerin Donata Bandoniene in einer Kurzbeschreibung zur »Identifizierung der geographischen Herkunft von Kürbiskernölen mittels Elementspurenuntersuchung« (Bandoniene et al. 2008) fest. Zuerst dienen Herkunftskontrollen dazu, den zunehmend deterritorialisierten Warenstrom innerhalb der globalen Lebensmittelproduktion räumlich wieder einzuhegen. Außerdem sollen solche Kontrollkonzepte die Glaubwürdigkeit herkunftsbezogener Produkt- und Qualitätslabel mess- und überprüfbar machen. Sie dienen damit der Echtheitsbe- bzw. sind auch Teil der Echtheitserzeugung. Beim Steirischen Kürbiskernöl™ mit g.g.A. dient die Herkunftskontrolle dazu, die geografische Herkunft der Kürbiskerne zu überprüfen, die für die Produktion des Öls verwendet werden. Dabei soll sichergestellt werden, dass die Kerne nur aus dem festgelegten Territorium stammen, die in der Verordnung zur g.g.A. für das Steirische Kürbiskernöl™ erlaubt sind. Dieses Verfahren beruht bisher auf einer EigenDokumentation der Bauern. Sie verzeichnen Ernteflächen, Erntemengen an Kürbiskernen und die aus den Kernen gepressten Ölvolumina. »Jeder Kürbisacker, jedes Kilogramm geernteter Kerne und jede Flasche Öl werden erfasst und mit der

76 | Stephan Gabriel Haufe

Banderole mit fortlaufender Kontrollnummer versehen« (Landwirtschaftskammer Steiermark 2009). Die Plausibilität dieser Angaben wird durch eine Fremdkontrolle überwacht: »Das gesamte Kontrollsystem wird zusätzlich von einer unabhängigen, staatlich akkreditierten Kontrollstelle überprüft« (Landwirtschaftskammer Steiermark 2009: ebd.). Nur die Bauern, die ausschließlich Kerne aus erlaubten Territorien verwenden, dürfen auch das Label der g.g.A. für ihr Kürbiskernöl verwenden. Die Benutzung des Labels ist wiederum an die Durchführung der Fremdkontrollen gebunden, die von den Bauern finanziert werden müssen. Wer das nicht macht, kann Kürbiskernöl, dessen Kerne ausschließlich aus der Steiermark stammen und dort ebenso gepresst wurden, nicht als echtes Steirisches Kürbiskernöl™ labeln. Die Echtheit kann nur durch eine autorisierte Stelle bezeugt werden. Bisher gibt es aber kein Kontrollverfahren, das es ermöglicht, die geografische Herkunft verwendeter Kürbiskerne mit hundertprozentiger Sicherheit zu überprüfen. Darum wird zurzeit an einem Test auf geochemischem Wege geforscht, der anhand von Elementspuren so genannter Seltener Erden in Kürbiskernölen »regionale Fingerabdrücke« identifizieren kann (Bandoniene et al. 2008). Die Einführung von Gentechnik- und Herkunftskontrollen offenbart den wachsenden Einfluss privater Standardisierungsunternehmen. Denn die Fremdkontrollen werden von privatwirtschaftlichen Kontrollunternehmen durchgeführt. Als solche entwickeln sie Strategien zur Risikoevaluierung. Sie tun das als Qualitätsagenturen, die sich durch Prüfprozesse finanzieren, wodurch sie abhängig vom wirtschaftlichen Wettbewerb mit Konkurrenten und gebunden an die Bedingungen ihrer Auftraggeber, mithin abhängig von Markteinflüssen agieren. Die Integration privater Kontrollfirmen kann gesetzlich vorgeschrieben sein, freiwillig erfolgen oder Teil einer Unternehmensstrategie sein. Beauftragt werden die privaten Kontrollfirmen einerseits vom Gesetzgeber, um staatliche Kontrollaufgaben zu übernehmen. Andererseits werden sie von Firmen engagiert, für firmeneigene wie staatliche Qualitätsgarantien zu sorgen. Zusammen mit staatlichen Kontrollbehörden sowie Nichtregierungsorganisationen des Lebensmittelbereiches bilden private Kontrollinstanzen ein Netzwerk zur Risikoevaluierung. Ich fokussiere bei diesem Netzwerk auf dessen Standardisierungsarbeit, worunter

Die Standardisierung von Natürlichkeit und Herkunft | 77

ich die Definition, Aushandlung und Kontrolle von gesetzlichen wie auch privaten Standards für Qualitätseigenschaften verstehe. Parallel zur Privatisierung der Qualitätskontrollen sind auch die Einführung strengerer Qualitätsstandards sowie der Ausbau privater Standardisierungen festzustellen. Im Fall der gentechnikfreien Milch und des Steirischen Kürbiskernöls™ können Gentechnikfreiheit bzw. geografische Herkunft als private Unternehmensstandards angesehen werden. Beide Qualitätsmerkmale werden eingeführt, um die Wertschöpfung der eigenen Produkte zu steigern. »These private standards have involved in response to regulatory developments and, more directly, consumer concerns, and as a means of competitive positioning in markets for high-value agricultural and food products.« (Henson/Reader 2000: 242)

Der Anschein eines Null-Risikos Nahrungsmittel aller Art sind Träger von Risiken. Risiken, die bei Nahrungsmitteln kommuniziert werden, teils in drastischer medialer Form, betreffen vor allem gesundheitliche, ästhetische oder wirtschaftsethische Aspekte: giftige Substanzen, ›Gammelfleisch‹, Massentierhaltung. Wenn laut Fox angenommene Risiken Gefahrensituationen konstruieren, kommt es dazu, dass industrielle Nahrungsmittel und ihre Herstellungsmethoden zu gefährlichen Objekten und Verfahren umgedeutet werden. Gefahren werden genauso sozial konstruiert wie Risiken. »created from the contingent judgements about the advers or undesireable outcomes of choices made by human beings« (Fox 1998: 673). Zustände und Bedingungen, die wir als gefährlich beschreiben, sind folglich »a result of our evaluation of risk« (Enticott 2003: 414).10 So macht der britische Soziologe Enticott darauf aufmerksam, dass bestimmte Lebensmitteltechnologien 10 | Während in den Ernährungswissenschaften pasteurisierte Milch als sauber und gesünder gilt, zeigt der britische Soziologe Enticott an einer schottischen Gemeinde, genau das Gegenteil. Die dortigen Bewohner bewerten unpasteurisierte Milch als gesund und krebslindernd, letzteres unter Verweis auf wissenschaftliche Studien (Enticott 2003: 418).

78 | Stephan Gabriel Haufe

und Herstellungsstrukturen in ländlichen Räumen abgelehnt werden, weil sie die eigene (ländliche, bergbäuerliche, alpine) Identität beeinträchtigen (Enticott 2003). Auf der Seite der Nahrungsmittelproduzenten und -händler ist die Bewertung von Risiken von der Annahme eines Null-Risikos geleitet. Das bedeutet den Ausschluss jedweden Verdachts, dass ein Lebensmittel die Gesundheit gefährden könnte: »if the risk is assessed as zero or close to zero, the inert object would continue to be perceived as just that (regardless of whether the product really does possess really hazardous characteristics)« (Fox 1998: 674). Bereits der Anschein einer als riskant identifizierten Qualitätseigenschaft kann zu dramatischen wirtschaftlichen Folgen für ein Unternehmen führen. Sobald in der Öffentlichkeit eine autorisierte Instanz, die Teil des Netzwerks zur Risikoevaluierung ist, Indizien für ein Gesundheits- oder Hygienerisiko vorlegt, und sei es noch so minimal, kann das betreffende Lebensmittel vollständig und unverzüglich vom Markt genommen werden. So nehmen im März 1997 mehrere Firmen des österreichischen Lebensmitteleinzelhandels die Schweizer Schokolade Toblerone aus ihrem Angebot. Die Einzelhandelsketten reagierten damit auf Lecithin aus gentechnisch veränderter Soja, das Schweizer Behörden in der Schokolade entdeckt hatten. Gentechnik hat in der Öffentlichkeit den Status einer schwer einschätzbaren Risikotechnologie erhalten. Der österreichische Agrarwissenschaftler Gregor Eichinger spricht bei GVOs sogar »vom Status eines gefährlichen Gifts oder Krankheitserregers« (Eichinger 2008: 16) unter der Bevölkerung. Ein solches Vorgehen des Lebensmitteleinzelhandels betriff t mittlerweile nicht nur gesundheitliche Risiken, die ein Lebensmittel nicht mehr als sicher erscheinen lassen. Beispiele in Österreich zeigen, dass mittlerweile auch andere Produkteigenschaften, die kein gesundheitliches und damit direktes körperliches Risiko für den Verbraucher darstellen, diesem Null-Risiko-Ansatz unterzogen werden. So wurden Produkte aus den Regalen genommen, weil ihre geografische Herkunft nicht belegt oder für die Verbraucher irritierend war.11 11 | Die österreichische Verbraucher-Zeitschrift konsument fand heraus (August 2009), dass der in vielen Supermärkten des Landes angebotene Schnittlauch zum Großteil aus Indien stammt. Diese Nachricht veranlasste Supermarktketten wie Rewe, umge-

Die Standardisierung von Natürlichkeit und Herkunft | 79

Wie wird Milch Gentechnik frei erzeug t™? 1998 verabschiedete Österreich eine gesetzliche Regelung für die gentechnikfreie Landwirtschaft und Nahrungsmittelproduktion. Diese 2004 überarbeite Richtlinie des österreichischen Codex Alimentarius bildet die Grundlage für die Produktion gentechnikfreier Milch und die Gentechnikkontrollen.12 Alle Bauern, die gentechnikfreie Milch an Molkereien abgeben, müssen regelmäßig ihre Futter- sowie alle Betriebsmittel überprüfen lassen, die bei der Milchproduktion zum Einsatz kommen. Landwirte, die für den hier untersuchten Milchproduzenten liefern, werden pro Jahr mindestens einmal von Gentechnikkontrolleuren einer privaten Kontrollfirma besucht. Sie überprüft im Auftrag der Molkerei, welche Futtermittel die Milchkühe erhalten haben und wie sich diese zusammensetzen. Zugelassen sind nur bestimmte Futtermittel, die die Molkerei und die prihend allen indischen Schnittlauch aus den Regalen zu nehmen und den Vertrag mit der Lieferfirma zu kündigen. »Wie kann Schnittlauch aus Indien kommen? Können wir den nicht hier anbauen?«, fragte mich eine der Verbraucherschützerinnen in einem Interview am 27.10.2009. Die Firma, ein kleiner Zweimann-Betrieb, ging kurze Zeit später in Konkurs. Ein ähnliches Schicksal ereilte einen Käsehersteller in Oberösterreich. Vor seiner Firma parkte ein Milchtanker mit niederländischem Kennzeichen. Mehrere Besucher eines benachbarten Straßenfestes, die sich zufällig auf dem Firmengelände der Molkerei umsahen, registrierten die gelben niederländischen Nummernschilder. Sie witterten Betrug. Die Milch für den original niederösterreichischen Käse könne dem Autokennzeichen nach nur aus den Niederlanden stammen. So geschlussfolgert kam es zu einer Information an das oberösterreichische Landwirtschaftsministerium und bald an die Presse. Tatsächlich war nur der Tanker in den Niederlanden gemeldet, die Milch kam nach wie vor von Bauern aus der Umgebung der Molkerei, wie das oberösterreichische Agrarministerium nach einer Prüfung bekannt gab (Landeskorrespondenz Medieninfo 03.06.2009). Dieser Fakt bewahrte die Firma nicht vor dramatischen Umsatzeinbußen, da Einzelhändler bereits begannen, Produkte der regionalen Molkerei auszulisten. 12 | Ausführlicher zur Gentechnikfreiheit in Österreich Hoppichler 2007.

80 | Stephan Gabriel Haufe

vate Kontrollfirma in Zusammenarbeit mit weiteren Kontrollstellen auf einer Futtermittelliste festgelegt haben. Der in den Futtermitteln enthaltene Mais, darf gemäß den Vorschriften ausschließlich aus Österreich stammen. Zusätzlich zur Dokumentation verwendeter Futter- und Betriebsmittel werden Futterproben genommen, um diese auf Spuren transgener Soja oder transgenen Mais’ zu untersuchen. Erst die vollständige Dokumentation aller Einsatzmittel sowie die Laboruntersuchung garantieren die Gentechnikfreiheit. So genannte »Risikobauern« werden im Jahr mehrfach kontrolliert. »Risikobauern« sind solche, die mehrere Milchqualitäten produzieren, also sowohl Bio-, gentechnikfreie und nichtgentechnikfreie Milch. Als »Risikobauern« gelten aber auch diejenigen, »die Futtermittel selbst mischen, bei denen in den letzten Kontrollen Fehler aufgetaucht sind und die große Viehbestände haben, deren Anzahl und Tiere fluktuieren. Ich nenne das Risiko bewusster Ansatz. Wer vier bis fünf Kühe hat und das seit Jahren, und über Jahre hinweg die gleichen Futtermittel verwendet, trägt kein großes Risiko.«

erklärt ein Kontrolleur. Futtermittelwerke werden ebenso mehrmals im Jahr kontrolliert. »Es geht nicht darum zu schikanieren. Es geht darum, zu schauen, ob Dinge nicht passen. Wir sind ja keine Bewachung, sondern eine Kontrollstelle.«13 Dass jedes Futtermittel, welches an die Kühe verfüttert wird, jetzt in nachvollziehbarer Form dokumentiert und gespeichert werden muss, verschärft die Überwachung der Milchbauern.14 Der Molkereimanager bekräftigt diesen Kontrollansatz der Gentechnikfreiheit: »Mit unserer Molkerei gibt es keine Diskussionen, die vorgegeben Standards werden 100 Prozent eingehalten. Wer

13 | Interview mit einem Futtermittelkontrolleur vom 28.

05.09. 14 | Zu Beginn der Umstellung auf gentechnikfreie Milch-

produktion wurden alle verwendeten Futtermittel der Milchlieferanten in einem Zentralcomputer in der Molkerei gespeichert. Die Bauern mussten ihre Futtermittel also regelmäßig dort überprüfen lassen.

Die Standardisierung von Natürlichkeit und Herkunft | 81

nicht damit zu Recht kommt, kann nicht mitmachen. Es wird alles genau durchgeschaut, Betrug ist nicht möglich.« 15 Auch die Supermarktketten, die an der Ausarbeitung gentechnikfreier Erzeugung im konventionellen (Nicht-Bio-)Nahrungsmittelbereich beteiligt werden, drängten darauf, dass diese Gentechnikfreiheit bei Milch »hundertprozentig« funktionieren müsse und kein Risiko einer Verunreinigung aufkommen dürfe, erklärt ein Initiator des Labels Gentechnik frei erzeugt™. Diese »hundertprozentige« Umsetzung der Bauern müssen jedoch vor allem die privaten Kontrolleure gewährleisten. Mit der Kontrolle der Gentechnikfreiheit haben die Molkereien heute nur noch marginal zu tun. Sie bekommen die Unterlagen von den Kontrollstellen, reagieren bei Bedarf, wenn es die Kontrollstelle vorschlägt. Ein Rohstoff manager der Molkerei schätzt diesen Umstand als förderlich für das Molkerei-Image ein. »Wir sind froh, dass wir damit nichts mehr zu tun haben. Dann sind wir nicht mehr die Bösen. Das ist die Kontrollstelle.« 16 Der hier erzeugte Grad an Natürlichkeit entspricht also einer hohen Intensität an Kontrolle und Transparenz der Bauern gegenüber den Molkereien. Sie führt zu einer Vereinheitlichung der Futter- und Betriebsmittel unter den Landwirten. Natürlichkeit bedeutet hier auch eine Zurückdrängung technologischer Neuentwicklungen, jedoch unter Einschluss von Prinzipien einer effektiven industriellen Massenproduktion.

Woher kommen die Kürbiskerne? Das Label Steirisches Kürbiskernöl™ kann nur von Herstellern eines genau abgegrenzten Gebietes aus Teilen der Südsteiermark, Niederösterreichs und des Burgenlandes benutzt werden.17 Das Gebiet umfasst aber längst nicht das gesamte 15 | Interview vom 12.03.07. 16 | Interview vom 27.05.09. 17 | »Die Pressung des steirischen Kürbiskernöls erfolgt ausschließlich im traditionellen Gebiet südliche Steiermark (politische Bezirke Deutschlandsberg, Feldbach, Fürstenfeld, Graz-Umgebung, Hartberg, Leibnitz, Radkersburg, Voitsberg, Weiz) und südliches Burgenland (Bezirke Jennersdorf, Güssing, Oberwart). Das Ausgangsprodukt, die schalenlos gewachsenen steirischen

82 | Stephan Gabriel Haufe

österreichische Areal, in dem Kürbisse angebaut werden bzw. Kürbiskernöl gepresst wird. Allein dieser Umstand führt zu unterschiedlichen Vorstellungen von dem, was Steirisch als räumliche Kategorie innerhalb einer Handelsmarke tatsächlich bedeutet. Grundlage für die Produktion des Steirischen Kürbiskernöls™ ist eine Kürbissorte, deren Kerne keine Schale besitzen, wodurch die kalte Ölpressung erleichtert wird. Diese Kürbissorte wurde im 18. Jahrhundert im Gebiet der Steiermark entdeckt. Seit der Einführung des europäischen Herkunftsschutzes für das Kernöl wird das Produkt auch international als Aushängeschild der Steiermark vermarktet. Hierbei wird eine eindeutige Gleichsetzung des Kürbiskernöls mit dem gesamten österreichischen Bundesland Steiermark vorgenommen, wie ein früherer Obmann des Erzeugerrings Steirisches Kürbiskernöl es ausdrückt: »Sobald irgendwo das Wort Kürbiskernöl fällt, weiss jeder, dass es in der Steiermark daheim ist.« (Musch 2009) Die räumlichen Zuordnungen von Verbrauchern sind folglich nicht immer deckungsgleich mit der juristisch fi xierten Definition des Herstellungsgebietes in der EU-Verordnung der g.g.A. zum Steirischen Kürbiskernöl™. In Frage steht aber auch, ob das EU-definierte Produktionsgebiet mit dem Produktionsgebiet der Herstellungspraxis übereinstimmt. Denn seit der Gründung des Erzeugerrings Steirisches Kürbiskernöl im Jahr 1998, in dem sich Kürbisbauern und Ölmüller zusammenschlossen, um Regeln für die Marke Steirische Kürbiskernöl™ als g.g.A. zu entwickeln und zu überwachen, kamen immer wieder Hinweise auf, dass Kürbiskerne auch andere geografische, nämlich nicht-österreichische Herkünfte haben. Besonders beschäftigt hat die geografische Herkunft des Kürbiskernöls darum die Verbraucherschützer des Vereins für Konsumenteninformation (VKI). Diese Organisation stellte sich die Frage, woher die Kerne für Kürbiskernöle stammen oder anders gefragt: inwieweit stimmt das Konsumentenwissen, Kürbiskernöl kommt aus der Kürbiskerne, stammt ausschließlich aus dem oben genannten Gebiet sowie aus Teilen von Niederösterreich (politische Bezirke Hallabrunn, Horn, Mistelbach, Melk, Gänserndorf, eingeschränkt auf Gerichtsbezirk Zistersdorf und Korneuburg-Stockerau, eingeschränkt auf Gerichtsbezirk Stockerau)« (Verordnung »EWG«, Nr. 2981/92).

Die Standardisierung von Natürlichkeit und Herkunft | 83

Steiermark, mit der Produktwirklichkeit und dem Produzentenwissen überein. Dazu untersuchten die Verbraucherschützer beispielhaft fünf Kürbiskernöle mit sowie 21 Öle ohne geografischen Herkunftsschutz. Der Konsumentenverein bemühte sich bereits 2006, Proben von Kürbiskernen zu erhalten, die hinsichtlich ihrer geografischen Herkunft getestet wurden. Solche Herkunfts-Proben werden von privaten Kontrollunternehmen genommen und dann z.T. als Referenzproben bei der Steirischen Landesregierung auf bewahrt. Die Landesregierung weigerte sich jedoch, die Proben den Verbraucherschützern auszuhändigen. Die Behörde begründet das gegenüber den Verbraucherschützern mit einer zu großen Ungenauigkeit der momentanen Testverfahren. Es gäbe gerade auf geochemischer Ebene, womit der Nachweis von Spurenelementen des Erdbodens im Kernöl gemeint ist, keine ausreichende Beweisgrundlage. Aus diesem Grund sprachen die Konsumenten selbst 30 Kürbisanbauer und Ölmüller an, die ihre Öle über den Einzelhandel vertreiben. Alle erhielten einen Fragebogen. Die versandten Fragebögen kamen aber größtenteils unbeantwortet oder gar nicht zurück. Daraufhin wurde den Herstellern versichert, dass ihre Angaben jeweils anonym blieben. Auf diese Weise konnte die Rücklaufquote erhöht werden. 24 von 30 Befragten meldeten sich dann zurück. Davon machten wiederum mehrere keine oder nur wenige Angaben zur Herkunft der Kerne. Es gab Bauern, die gezielt die Aussage verweigerten und dies im Fragebogen angaben. Zugleich gaben mehrere Bauern zu, für ihr Kürbiskernöl auch Kürbiskerne aus anderen Ländern, wie China oder Ungarn zu verwenden. Der Test ergab, dass nur die fünf Kürbiskernöle mit geografischem Herkunftsschutz solche Öle sind, die zum Großteil tatsächlich aus Kürbiskernen der Steiermark gepresst werden. Die restlichen 21 Öle ohne g.g.A. verfügten über keine klare Herkunftsangabe. Die Konsumentenschützer stellen in ihrem Test weiterhin fest, dass »nach Informationen aus Insiderkreisen« die Kürbiskerne von zwei Dritteln aller Kürbiskernöle im Einzelhandel aus dem Ausland, davon ein Großteil aus China stammen (konsument 6/2009). Die Herkunft der Kerne des geschützten Steirischen Kürbiskernöls™ kann derzeit von keiner unabhängigen Stelle überprüft werden. Die geografische Herkunft der Kürbiskerne wird durch eine private, europaweit agierende Kontrollfirma durch-

84 | Stephan Gabriel Haufe

geführt. Diese Firma muss die Ergebnisse nur dem Erzeugerring sowie staatlichen Aufsichtsämtern, in diesem Fall dem Steirischen Landeshauptmann und der österreichischen Agentur für Agrarmarketing (AMA) dokumentieren. Dennoch gibt es für die Öffentlichkeit kaum zugängliche Daten über die Herkünfte der für die Ölpressung verwendeten Kerne. Das, was es gibt, sind die Label der g.g.A, die angebracht auf den Ölflaschen des Steirischen Kernöls™ in weiß-grüner Farbe der steirischen Flagge die Garantie für die Herkunft und damit seine Echtheit erzeugen sollen. Die Verbraucherschützer haben nun gezeigt, dass es nicht möglich ist, das Label außerhalb des Netzwerks zur Risikoevaluierung auf Glaubwürdigkeit zu überprüfen. Um die Berechenbarkeit des geografischen Ursprungs Steirisch zu gewährleisten, ist der Kreis derjenigen, der die echte Herkunft bezeugen kann, eingeschränkt. Die Kontrollfirma, ein privatwirtschaftliches marktabhängiges Unternehmen ist vertraglich verpflichtet, keine Informationen über Kontrollen weiterzugeben, sondern diese als Betriebsgeheimnis zu behandeln.

Fazit Die aufgezeigten Beispiele belegen, wie die Vermeidung von Gentechnik und das Steirische Kürbiskernöl als Repräsentant einer regionalen Nahrungstradition kommerzialisiert werden. Dieser Kommerzialisierungsprozess ist an unterschiedliche Vorgaben und Interessen gebunden: der europäischen und jeweils nationalen Nahrungsmittelpolitiken, des europäischen Lebensmitteleinzelhandels, der Hersteller und Verbraucher. Ein wichtiger Teil der Umwandlung in ein einzelhandelsmarktfähiges Produkt ist die Risikoevaluierung, die auf die Alleinstellungsmerkmale der Produkte abzielt. Nahrungsmittel werden durch Bezüge auf Natürlichkeit und Traditionalität als Produkte einer bestimmten Landschaft, Region oder Nation als einmalig und besonders markiert. Ihre Qualität soll so die Anonymität industrieller Massenware verlieren und die Identifikation mit dem Produkt vergrößern. Solche landschaftlichen und regionalen Bezüge sagen nicht direkt etwas über die Prozess- und Produktqualität von Nahrungsmitteln aus. Inhaltsstoffe wie Herstellungsmethoden bleiben trotz der Verfahren der Echtheitserzeugung (Standardisierung von Herstel-

Die Standardisierung von Natürlichkeit und Herkunft | 85

lungsabläufen durch Ausschlusskriterien, Label) und Echtheitsbezeugungen (Kontrollen) für den Verbraucher hinter den Imagefolien zur Qualitätsbeschreibung nur begrenzt erkennbar. Gentechnikfreiheit führt zu einer Übertragung von Standards der ökologischen Landwirtschaft auf konventionell hergestellte Nahrungsmittel. Die größere Natürlichkeit der Milch ergibt sich aus dieser Ökologisierung des Konventionellen. Ausschlaggebend hierfür ist eine Bewertung der Gentechnologie als Gefahr für den menschlichen Körper. Dieses Qualitätsformat von Natürlichkeit wird als Ablehnung künstlicher, menschlich gesteuerter und elaborierter Ausgangsstoffe letztlich mit einem hohen logistischen, bürokratischen und technischen Aufwand erzeugt. Diese eigene nationale Infrastruktur zur gentechnikfreien Milchherstellung enthält zugleich ein hohes Identifi kationspotential für Verbraucher, die Gentechnik ablehnen. Zugleich kann sich die österreichische Landwirtschaft als Region hochwertiger, weil besonders kontrollierter Lebensmittelqualität vermarkten. Beim Steirischen Kürbiskernöl™ wird die EU-zertifizierte Nahrungstradition des Produktes eng mit der geografischen Herkunft verknüpft, aber weniger an einer bestimmten Herstellungsweise festgemacht. Dieser Fokus auf die geografische Herkunft hängt nicht zuletzt damit zusammen, dass diese Eigenschaft durch Testverfahren in eine messbare Eigenschaft transformiert werden kann. Das als ›traditionell‹ gelabelte Produkt erscheint dann als durchnummeriertes, streng kontrolliertes Nahrungsmittel, dessen Eigenschaften einer naturwissenschaftlichen Überprüfung sowie den Kriterien moderner Transparenz Stand halten kann. Um dieses Verständnis von Tradition als streng genormtes, transparentes und risikoevaluierbares Rechts- und Warengut ringen die Hersteller des Steirischen Kürbiskernöls™ noch und halten darum auch Informationen zurück. Die Überprüf barkeit der Herkunft dient schließlich dazu, regionale und lokal verankerte Produktionskreisläufe als Qualitätseigenschaft im Rahmen des europäischen Einzelhandels labeln und vermarkten zu können. Zugleich bietet der herkunftsorientierte Ansatz in der Lebensmittelqualität neue politische Spielräume. Angelehnt an Barry ist anzunehmen, dass die Herkunfts- genauso wie Gentechnikkontrollen als reconfiguration benutzt werden (Barry 2003: 25), mittels derer die global ausgeweitete technological zone der Nahrungsmittelpro-

86 | Stephan Gabriel Haufe

duktion räumlich eingeengt und Länder wie Österreich versuchen mit der Abwendung von Gentechnologie und der Hinwendung zu regionalen Nahrungstraditionen im Rahmen der Europäischen Union einen Selbststeuerungsmechanismus für die nationale Landwirtschaft herzustellen. Österreich qualifi ziert sich mit einer ausgeweiteten Gentechnikfreiheit im Rahmen der Europäischen Union als alternativ-konventionell wirtschaftender Raum. Es geht also bei Nahrungsmittelqualität nicht nur um lokale und regionale Bezüge. Die räumliche Dimension der Nahrungsmittelproduktion wird gerade auch in Bezug auf EUEuropa national alternativ formuliert. Im diesem Sinne werden Geographical Indications in unterschiedlichen rechtlichen Formen eine zentrale Rolle bei der Neu- und Wiederverknüpfung von geografischen Räumen mit Nahrungsmittelproduktionen und -qualitäten spielen, jeweils eng verknüpft mit den zentralen Elementen der Qualitätssteuerung in der Massenproduktion und im Lebensmitteleinzelhandel: Standardisierung, Label und Branding, Gefahren- und Risikobewertungen.

Literatur Andilios, Nicholas/Welz, Gisela (2004): »The Case of Making Halloumi Cheese in Cyprus«. In: Patricia Lysaght, Christine Burckhardt-Seebass (Hg.), Changing Tastes. Food Culture and the Processes of Industrialization, Basel: Schweizerische Gesellschaft für Volkskunde/The Department of Irish Folklore, University College Dublin, S. 217-230. Bandoniene, Donata (2008): »Identifizierung der geographischen Herkunft von Kürbiskernölen mittels Elementspurenuntersuchungen«. Leibniz-Institut für Festkörper- und Werkstoff forschung e.V. (IFW). (www.icpms2008.de/pdf/ abstract_neu.pdf, letzter Zugriff: 5.12.2009). Barry, Andrew (2001): Political Machines. Governing a Technological Society, London: The Atlone Press. Beck, Stefan (2006): »Probleme der Privatisierung von Wissen«. In: Gertraud Koch (Hg.): Internationalisierung von Wissen. Multidisziplinäre Beiträge zu neuen Praxen des Wissenstransfers, St. Ingbert: Röhrig Universitätsverlag, S. 91-125. Boecker, Andreas/Herrmann, Roland/Gast, Michael/Seidemann, Jana (2004): Qualität von Nahrungsmitteln. Grund-

Die Standardisierung von Natürlichkeit und Herkunft | 87

konzepte, Kriterien, Handlungsmöglichkeiten, Frankfurt a.M.: Europäischer Verlag der Wissenschaften. Bérard, Laurence/Marchaney, Philippe (2007): »Localized Products in France: Definition, Protection and Value-Adding«. In: Anthropology of Food Special Issue 2 (http://aof.revues. org/, letzter Zugriff am 5.12.2009). Bush, Lawrence (2000): »The Moral Economy on Grades and Standards«. In: Journal of Rural Studies 16, S. 273-283. Darnhofer, Ika/Schneeberger, Walter (2007): »Impacts of Voluntary Agri-Environmental Measures on Austria’s Agriculture«. In: International Journal of Agricultural Resources, Governance and Ecology 6 (3), S. 366-370. Dunn, Elizabeth C. (2005): »Standards and Personmaking in East Central Europe«. In: Aihwa Ong/Stephen J. Collier (Hg.), Global Assemblages. Technology, Politics, and Ethics as Anthropological Problems, Malden/Oxford: Blackwell, S. 173-193. Eichinger, Gregor (2008): Szenarien für die gentechnikfreie Produktion von Trinkmilch in Österreich. Diplomarbeit, eingereicht an der Universität für Bodenkultur Wien. Ermann, Ulrich (2005): Regionalprodukte. Vernetzungen und Grenzziehungen bei der Regionalisierung von Nahrungsmitteln, Wiesbaden: Steiner. Foucault, Michel (1982): »Technologien des Selbst«. In: Luther H. Martin/Huck Gutmann/Patrick H. Hutton (Hg.) Technologien des Selbst, Frankfurt a.M.: Fischer, S. 24-62. Fox, Nick (1998): »›Risks‹, ›Hazards‹ and Life Choices. Reflections on Health at Work«. In: Sociology 32 (4), S. 665-687. Henson, Spencer/Reardon, Thomas (2005): »Private Agri-food Standards: Implications for Food Policy and the Agri-food System«. In: Food Policy 30, S. 241-253. Hoppichler, Josef (2007): »Österreich ist und bleibt gentechnikfrei. Die Koexistenz-Debatte in Österreich als Beispiel für eine stringente Vorsorgepolitik in Sachen Gentechnik«. In: Der kritische Agrarbericht o.J., S. 22-26. Karp, Ivan/Corinne Kratz (2000): »Reflections on the Fate of Tippoo’s Tiger: Defining Cultures through Public Display«. In: Elizabeth Hallam/Brian Street (Hg.), Cultural Encounters: Representing ›Otherness‹, London: Routledge, S. 194229.

88 | Stephan Gabriel Haufe

Landwirtschaftskammer Steiermark (2009): LK Steiermark fordert: Irreführende Kennzeichnung bei Kernöl stoppen. Herkunft der Kerne soll auf Etikett vermarktet werden. (Pressemitteilung, 5.12.). Montagne, Karen (2006): »The Quest for Quality: Food and the Notion of Trust in the Gers Area in France«. European Studies 22, S. 159-177. Murdoch, Jonathan/Marsden, Terry/Banks, Joe (2000): »Quality, Nature, and Embeddedness: Some Theoretical Considerations in the Context of the Food Sector«. In: Economic Geography 76 (2), S. 107-125. Musch, Roman (2009): »Steirisches Kürbiskernöl erobert die Herzen der Österreicher«. In: Agrarnet Steiermark, 17. Februar (www.agrarnet.info). Ramírez León, Cecilla (2007): Der Schutz von geographischen Angaben und Ursprungsbezeichnungen für Agrarerzeugnisse und Lebensmittel nach der Verordnung (EG) Nr. 510/2006, Baden-Baden: Nomos. Oberösterreichisches Ministerium für Landwirtschaft (2009): »Holland-Milch als Falschmeldung Stiftskäserei Schlierbach: 100 Prozent Milch aus Österreich«. Landeskorrespondenz Medieninfo, 3. Juni. Verband für Konsumenteninformation (2009): »Einmal um die ganze Welt«. konsument. Das Österreichische Test Magazin o.J. (März), Wien: LeykamDruck, S. 10-13. Verband für Konsumenteninformation (2009): »Kein Steirischer Brauch«. konsument. Das Österreichische Test Magazin o.J. (Juni). Wien: LeykamDruck, S. 10-13.

Zum Konzept der Ernährung am Deutschen Institut für Ernährungsforschung und seinen Vorläufern (1946 bis 1989) Ulrike Thoms

Institutionen sind keine Monolithe, sie sind Organismen, die sich unter Beteiligung ihrer Mitglieder im Zusammenhang vielfältiger Kommunikations- und Rückkopplungsprozesse laufend bewegen und entwickeln. In kulturgeschichtlich-anthropologischer Sicht ist die »Wissenschaft im Gehäuse« (Bruch 2000) vor allem im Hinblick auf die Interaktionen zwischen Gesellschaft, Wissenschaft und Politik interessant. Schon durch diese Interaktionen sind sie keine statistischen Gebilde, sondern verändern sich ständig. Dies gilt auch für das Deutsche Institut für Ernährungsforschung in Potsdam-Rehbrücke (DIfE). Daher wird man auch kaum davon reden können, dass für und in diesem Institut bei seiner Gründung ein konsistentes und über die Jahre stabiles Konzept entwickelt worden wäre, welches dann über die Zeit seiner gesamten Existenz bestimmend blieb. Vielmehr gab es auch hier Entwicklungen, die wesentlich auch durch die Personen der jeweiligen Direktoren, deren Persönlichkeiten, wissenschaftliche Ausrichtung und Zielsetzung mitbestimmt wurden. Die Konzepte, die die Direktoren im Rahmen von Festansprachen, Programmschriften oder anlässlich von Jubiläen verfasst haben, sollen hier als Zugang zu dem sich wandelnden Konzept

90 | Ulrike Thoms

und seinen Konjunkturen genutzt werden, dienten sie doch dazu, das Forschungskollektiv am Institut auf ein gemeinsames Verständnis und auf Leitlinien für die wissenschaftliche Arbeit einzuschwören. Ein Blick in diese Quellen soll – bei aller hier gebotenen Kürze – die Hauptetappen in der Entwicklung der für das DIfE der 1970er und 1980er Jahre typischen organischholistischen Sichtweise mit ihrer Zusammenschau natur- und sozialwissenschaftlicher Aspekte deutlich machen. Dazu konzentriert sich die Untersuchung auf die Amtszeiten der jeweiligen Direktoren; sie geht davon aus, dass die genannten Quellen in ihrem Charakter als Leitlinien Selbstvergewisserungs- wie Lotsenfunktion hatten. Dass dies berechtigt ist, dass es offenbar auch eine hohe Identifikation der Mitarbeiter mit diesem Institut gab, das eine wichtige Orientierungsfunktion übernahm, wird übrigens auch daran deutlich, dass viele der ehemaligen Mitarbeiter sich nach 1989 bemüßigt fühlten und fühlen, sich zur Geschichte des Institutes zu äußern (Gaßmann 1991; Gaßmann 1996; Ketz 1995; Linow at al. 1996). Ohne dass im folgenden auf die konkrete Gestaltung des Arbeitstages, die Arbeitsbedingungen und die Arbeitsergebnisse eingegangen werden könnte, so bekunden diese Publikationen jedenfalls ein großes Bedürfnis der nachträglichen Selbstvergewisserung, Legitimation und ReKonstruktion der eigenen Geschichte, um die durch die Wende von 1989 beschädigte Identität wiederherzustellen. Genauso unübersehbar ist aber auch, dass sie den Versuch darstellen, für das am DIfE früher vertretene, als wegweisend wahrgenommene Konzept von Ernährung als komplexes soziokulturelles Phänomen einzutreten, das in der Bundesrepublik kein Pendant hatte und bis heute nicht hat.

Das Konzept Ziegelmayers in der Gründungsphase des Instituts für Ernährung und Verpflegung Fast unmittelbar nach der bedingungslosen Kapitulation des Deutschen Reiches ging Wilhelm Ziegelmayer (1898-1951) daran, in Berlin-Dahlem, also in prestigeträchtiger Nähe zu den Instituten der Kaiser-Wilhelm-Gesellschaft, der heutigen MaxPlanck-Gesellschaft, das Institut für Ernährung und Verpflegungswissenschaften aufzubauen. Ziegelmayer, an sich Lehrer und spä-

Zum Konzept der Ernährung | 91

ter als Biologe promoviert, hatte zahlreiche Lehrwerke für den Ernährungs- und Haushaltsunterricht in der Schule verfasst. Bekannt ist er heute vor allem durch seine Übersichtswerke zur Nahrungsmittelversorgung, die sich fraglos in den Dienst der nationalsozialistischen Autarkiepolitik stellten (Ziegelmayer 1936; 1937-1947). Als Mitarbeiter des Heeresverwaltungsdienstes reformierte er die Heeresverpflegung und gründete ein Institut für Kochwissenschaft in Frankfurt. Dies geschah in der Erkenntnis, dass letztlich die Zubereitung über die Qualität der Speisen entscheidet (Thoms 2004). Das von ihm 1946 in Berlin gegründete Institut für Ernährung und Verpflegung war zunächst für alle Besatzungszonen bestimmt, doch mit den zunehmenden Differenzen zwischen den Alliierten, die zunehmend auch die Mitarbeiter des Instituts erfassten, wurde am 13. Juni 1946 zunächst eine Zweigstelle in Potsdam-Rehbrücke gegründet. Mit Befehl der Sowjetischen Militäradministration vom 1. Juli 1947 wurde sie dann vom Institutsteil im Westberliner Sektor getrennt und verselbständigt (Linow at al. 1996: 10). Ziegelmayer hat – zumal unter den Umständen der unmittelbaren Nachkriegszeit und soweit die ausgewerteten Quellen dies zeigen – nie ein förmliches Konzeptpapier verfasst. Wie sich aus den verschiedenen erhaltenen Dokumenten aber schließen lässt, hatte er bei seiner Initiative dennoch eine Vorstellung vom Aufbau eines Institutes im Sinn, das organisch alle Bereiche der menschlichen Ernährung von der Produktion bis zum Verzehr umfassen und Grundlagen- wie Zweckforschung durchführen sollte. Außerdem sollte es Behörden, Handel, Industrie und die Bevölkerung über Erhaltung, Verbesserung und rationelle Ausnutzung der Lebensmittel sowie bei der Ernährungsplanung beraten. Und schließlich sollte es durch Vorträge, Lehrgänge und Ausstellungen sowie die Veröffentlichung der Arbeitsergebnisse durch Presse und Rundfunk seine Forschungsergebnisse in die Gesellschaft tragen. Ein Blick in die ersten Jahresberichte und die von Ziegelmayer herausgegebenen Zeitschriften Ernährung und Verpflegung bzw. Natur und Nahrung zeigt freilich, dass trotz der scheinbar systematischen Gliederung des Instituts von planvoller Forschung kaum die Rede sein konnte: Es regierte die Not der unmittelbaren Nachkriegszeit; die Tätigkeit beschränkte sich daher fast ausschließlich auf die Erschließung neuer Nahrungsmittelquellen sowie die Lebensmittelkontrolle (o.V. 1949: 20-21).

92 | Ulrike Thoms

Die Zusammenführung von Ernährungsphysiologie und Nahrungsmittelchemie unter Scheuner t und Täufel Ziegelmayer bemühte sich zunächst vor allem darum, wissenschaftliche Größen ans Institut zu holen. Schon 1946 nahm er Kontakt mit dem Lebensmittelchemiker Kurt Täufel sowie mit Arthur Scheunert auf, dem damals wohl bekanntesten deutschen Vitaminforscher und Ernährungsexperten, der u.a. das Reichsministerium für Ernährung, Landwirtschaft und Forsten bei der Nahrungsmittelrationierung beraten hatte. Seine Arbeit war strikt physiologisch-experimentell orientiert und konzentrierte sich auf die Bedeutung der Vitamine, hatte aber stets auch den Einfluss der Zubereitung im Auge (Thoms 2007). Jahrelang hatte er sich um die Gründung der Institution für Ernährungsforschung bemüht, bis er schließlich per Führerbefehl wenigstens eine Anstalt für Vitaminprüfung und -forschung bekam und deren Leiter wurde. Noch im Mai 1945 wurde er von der Universität Leipzig entlassen und von den Amerikanern nach Weilburg in Hessen abtransportiert. Er konnte allerdings bald wieder an der Universität Gießen unterrichten (Feige 1994). Scheunert freute sich über die Möglichkeit, mit seinen 66 Jahren endlich seine lange gehegte Vision eines umfassenden Ernährungsforschungsinstituts verwirklichen zu können, auch wenn es vorerst bei der Verlegung seiner Vitaminanstalt von Leipzig nach Rehbrücke blieb und diese nur sukzessive zu einer Abteilung für Ernährungsphysiologie ausgebaut wurde. Solange Scheunert in Hessen war, übernahm der Lebensmittelchemiker Kurt Täufel ihre kommissarische Leitung. Ihn hatte schon die pure Not dazu gezwungen, das Angebot zur Beteiligung am Aufbau des neuen Institutes aufzunehmen. 1945 von seiner Heimatuniversität Dresden entlassen, hatte er seinen Lebensunterhalt zunächst in einem pharmazeutischen Unternehmen erwerben müssen, bis er zum 1. Januar 1948 an das neue Institut für Ernährung in PotsdamRehbrücke berufen wurde (Freimuth 1972). Die eindrucksvolle Bibliographie seiner 646 Publikationen weist ihn vor allem als Nahrungsmittelchemiker aus, der vielfach auch praktische Fragen der Lebensmittelindustrie bearbeitete, sich aber auch intensiv mit modernen biochemischen Untersuchungsverfahren und -problemen auseinander setzte. Doch nach 1949 folgten

Zum Konzept der Ernährung | 93

zunehmend Publikationen zur Entwicklung der Ernährungsforschung und zu ernährungsphysiologischen Fragen in ihrem Zusammenhang mit Lebensmittelchemie und -verarbeitung (Täufel 1972). Insbesondere in seiner 1950 erschienenen, programmatischen Schrift »Ernährungsforschung und zukünftige Lebensmittelchemie« kritisierte er die bisherige, rein chemisch-stofflich orientierte Betrachtung der Lebensmittel. Deren Starrheit, so schrieb er, »steht im auff älligen Gegensatz zu dem fließenden, vielfältigen Geschehen des Stoff wechsels und der damit verknüpften Ernährung«. Er forderte, stattdessen eine neue »funktionelle Lebensmittelchemie« zu betreiben, die nach der Herkunft der Lebensmittel und ihrer Wirkung fragt und so die Hippokratische Forderung umsetzt, Lebensmittel müssten Heilmittel, Heilmittel aber auch Lebensmittel sein (Täufel 1950: 28). Anders als in späteren Jahren bildete sich die Komplexität der Ernährung vorerst noch kaum in komplexen Institutsstrukturen ab, zumal die Zuständigkeiten für die beiden Anstalten beim Ministerium für Gesundheitswesen bzw. bei der Deutschen Verwaltung für Handel und Versorgung (DHVW) und später beim Ministerium für Lebensmittelindustrie lag. Damit waren wechselnde politische Einflussnahme wie Zielkonflikte zwischen der Einbindung in Produktionsaufgaben und der Durchführung medizinisch-ernährungsphysiologischer Forschung sowie der popularisierenden Aufklärung vorprogrammiert. Tatsächlich existierten zunächst zwei voneinander relativ unabhängig agierende Anstaltsteile. Erst nach Scheunerts Tod am 11. Januar 1957 wurde das von ihm seit 1949 verfolgte Ziel einer organischen Vereinigung beider Institutsteile realisiert, indem zum 1. Juli 1957 die beiden bislang unabhängigen und selbständigen, nur lose kooperierenden Institute unter dem Dach der Akademie zusammengefasst und einem gemeinsamen wissenschaftlichen Rat unterstellt wurden. Bis zu diesem Zeitpunkt bestand die Abteilung für Physiologie der Ernährung unter Scheunert aus den Abteilungen für Ernährungswirtschaft und -soziologie, Getreideforschung, Mikrobiologie, Pflanzen- und Tierversuche sowie Kochwissenschaft. Die Abteilung Chemie der Ernährung unter Täufel dagegen setzte sich aus den Abteilungen Stärkeforschung, Lebensmittelanalytik und Lebensmitteltechnologie zusammen und beschäftigte sich vorrangig mit Chemie und Technologie der Nahrungsmit-

94 | Ulrike Thoms

tel. Einer Versäulung der Anstalt, also einer nicht aufeinander abgestimmten und isolierten Tätigkeit beider Anstaltsteile und ihrer weitgehenden Verselbständigung, sollte zwar durch die Aufteilung aller anfallenden Untersuchungen zwischen den beiden Teilen überwunden werden (Scheunert 1956: 426), doch faktisch arbeiteten beide relativ selbständig und unabhängig voneinander. Allerdings war selbst die nur theoretische Berücksichtigung beider Richtungen der Ernährungsforschung ein enormer Fortschritt, denn dergleichen hatte es vorher nicht gegeben. Scheunert selbst hob immer wieder auf die Notwendigkeit der gegenseitigen Ergänzung von Grundlagen- und Zweckforschung ab, er vertrat den Anspruch, »dass es nicht möglich ist, die Ernährung eines großen Kulturvolkes ohne wissenschaftliche Forschung und Lenkung durchzuführen.« (Scheunert 1956: 5). Seine »Denkschrift zur Verbesserung und Sicherung der Volksgesundheit durch richtige Ernährung« aus dem Jahr 1953 forderte, dass die Ernährung im Vordergrund staatlicher Aufbaubemühungen stehen müsse, da sie die »Voraussetzung für Vollwertigkeit der Menschen (sic!), Leistungsfähigkeit, Arbeitswille und -freudigkeit, schöpferische Kraft und soziale Tugenden, Widerstandsfähigkeit gegen Krankheiten, Fortpflanzung und gesunde Nachkommenschaft« bilde (BBAW, Bestand Akademieleitung, Institut für Ernährung, Nr. 28, Bl. 2 des Manuskriptes). Überhaupt zeigt seine Darstellung des Instituts für Ernährung wie der Anstalt für Vitaminforschung und -prüfung aus dem Jahr 1949 deutlich, dass ihm persönlich Aufklärung und Belehrung der Bevölkerung weniger wichtig waren als die Forschung selbst, denn in ihr standen die Laboratorien und der Ausbau der Forschung im Vordergrund. Auch wenn er darauf abhob, »dass alle mit der Ernährung des einzelnen Menschen …[verbundenen Probleme]… an einer Stelle, unter einheitlichen Gesichtspunkten und von allen Seiten her bearbeitet« werden müssten (Scheunert 1956: 6), konzentrierte er selbst sich Zeit seines Lebens auf die theoretische Arbeit. Diese Arbeit vor allem war es, welche wegweisende Richtlinien für Gesundheit und Leistungsfähigkeit der gegenwärtigen und zukünftigen Generationen schaffen sollte (Scheunert 1956: 203). Bezeichnenderweise konzentrierte sich die Darstellung des Instituts zu dieser Zeit aber ganz auf die Forschungsarbeiten der einzelnen Abteilungen und die Veröffentlichungen zeigten stolz die sauberen und modernen Labore. Daraus lässt sich u.a.

Zum Konzept der Ernährung | 95

ablesen, dass die eigentliche Institutsgeschichte für Scheunert erst mit seiner eigenen Ankunft in Rehbrücke und der Aufnahme der experimentellen Laborarbeit einsetzte. Tatsächlich fehlen in einem Verzeichnis der Publikationen dieser ersten 10 Jahre die früheren, kochpraktisch-didaktisch und auf die Überwindung der Not orientierten Arbeiten, die unter der Ägide Ziegelmayers entstanden waren (o.V. 1956). Sie gehörten in seinen Augen nicht zur Institutsgeschichte. Ebenso folgerichtig bemühte er sich schon früh darum, das Institut für Ernährung aus der Unterstellung unter das Ministerium für Handel und Versorgung bzw. unter das Ministerium für die Lebensmittelindustrie zu befreien und ihm ein starkes wissenschaftlich-forschendes Profil zu geben. Schon am 19. April 1949 suchte Scheunert bei der Akademie der Wissenschaften erstmals wegen einer Vereinigung der beiden Institutsteile unter dem Dach der Akademie nach (Besprechung mit Herrn Prof. Scheunert am 19. April 1949, in: Archiv der BBAW, Akademieleitung, Nr. 28). Doch die Beratungen zogen sich hin, zur Realisierung seines Vorhabens kam es erst nach seinem Tod. Bis dahin blieb die Zusammenarbeit der beiden Institutsteile schwierig, weil sie unterschiedlichen Paradigmen – Lebensmittelproduktion versus Physiologie/Medizin – folgten, für die zunächst die Forschungskontrolle durch die sowjetischen Besatzer, dann die Forschungspläne der beiden genannten Ministerien die Richtung vorgaben. Dabei hatte das Institut selbst Zulieferaufgaben bei der Erarbeitung der Fünfjahrespläne. Diese Aufgaben umfassten nicht nur die Forschungs-, sondern auch die Wirtschaftsplanung. Für diese hatte es die prognostischen Einschätzungen der Verbrauchsentwicklung zu liefern, die zur Festlegung der Leitlinien für die Produktion verwendet wurden. So fortschrittlich, wie das Konzept der Anstalt grundsätzlich war, so wenig zweifelhaft kann sein, dass Scheunerts wie Täufels Forschungen selbst stofflich orientiert blieben. Die »lebensnotwendigen Stoffe aufzusuchen, ihre Wirkungen kennenzulernen und ihr Vorkommen zu ermitteln« waren die eigentlichen Aufgaben des Instituts, während sich der Ernährungspraxis die Forderung stellte, »die Kostsätze der alten Ernährungslehre, wie sie für die Energiezufuhr seit dem 19. Jahrhunderts aufgestellt worden waren, zu überprüfen und auf der Basis der neuen Erkenntnisse der Vi-

96 | Ulrike Thoms taminforschung und Wirkstofflehre Richtlinien anzugeben, wie unter den wirtschaftlich gegebenen Vorbedingungen unter Berücksichtigung von Alters- und Berufsklassen die Kost beschaffen sein muss, um allen Erfordernissen zu entsprechen.« (Scheunert, Ziele 1956: 5)

Die Ernährungsforschung erarbeitete also die Wissensbestände und Richtlinien, nach denen die Ernährung gestaltet und gelenkt werden sollte. Belehrung war für Scheunert demnach gleichbedeutend mit Bekanntgabe der Richtlinien. Bezeichnenderweise war mit der Popularisierung Heinrich Gräfe beauftragt, der kein Ernährungswissenschaftler oder Chemiker, sondern ein Handelsschullehrer war. 1951 ans Institut für Ernährung gekommen, unterstand ihm dort die kleinste und nur mit einem weiteren Mitarbeiter ausgestattete Abteilung des Instituts, die in der Öffentlichkeit aber dennoch gern in den Vordergrund gerückt wurde. Gräfe führte unzählige Soll-Ist-Analysen der Ernährung in Industriebetrieben und Gemeinschaftsverpflegungseinrichtungen in der Art von Bestandsaufnahmen durch (Zobel 1964; Haenel 1967), erarbeitete Unterrichtsmaterialien für Schulen und verfasste allgemein-aufklärende Abhandlungen, wie das Buch »Richtige Ernährung -gesunde Menschen« (Gräfe 1967).

Abbildung 6: Forschungslaboratorium der »Abteilung Stärkeforschung« am Deutschen Institut für Ernährungsforschung. (Die Nahrung 1 [1956]: 27).

Zum Konzept der Ernährung | 97

In der Sache war das erwähnte Buch Gräfes, wie die gesamte Arbeit des Instituts von einer sozialistischen Weltsicht und einem fortschrittsoptimistischen sozialistischen Menschenbild getragen, wie es auch die Gesundheitspolitik der DDR bis weit in die 1970er Jahre hinein bestimmte. Dieses Bild ging davon aus, dass der sozialistische Mensch sich die wissenschaftlich als richtig erwiesene Lebensweise auf Grund seines sozialistischen Bewusstseins schon zu Eigen machen werde (Rüstau 1971). Ein anderes, von den Linien sozialistischer Vernunft abweichendes Verhalten dagegen wurde als bewusste Verletzung der Gesellschaftsordnung interpretiert und geahndet, wie der Umgang mit Alkoholikern in der DDR zeigt (Buch 2002). Die besondere Aufgabe des Staates in der Fürsorge für Gesundheit und Ernährung war Bestandteil des Selbstverständnisses der DDR und führte daher insgesamt zu einer starken Entwicklung der Sozialhygiene (Ernst 1997). Das Vorwort zum Buch »Richtige Ernährung – gesunde Menschen« von Heinrich Gräfe ist diesbezüglich ebenso aufschlussreich wie das darin enthaltene Vorwort des Ministers für Gesundheitswesen Max Sefrin. Denn letzteres sprach von der Einführung der »wissenschaftlichen Ernährung in allen Bereichen unseres gesellschaftlichen Lebens«. Sie sollte fortan die Stellung der bisher hier maßgebenden subjektiven Bedürfnisse übernehmen (Sefrin 1967: 5). Das bewusste, sozialistische Individuum sollte qua seiner Vernunft – und damit letztlich in der Tradition bürgerlicher Mäßigkeit – sicherstellen, dass die Ernährung ihren Beitrag zur Erhöhung von Gesundheit, Leistungsfähigkeit und Lebensalter leistete (Sefrin 1967). Dies war keineswegs nur philanthropisch gedacht; es ging um handfeste ökonomische Aspekte. Ernährungsbedingte Krankheiten führten zu einer Erhöhung der Gesundheitsausgaben durch vermeidbare Krankheitskosten wie zur Minderung der Leistungsfähigkeit der Menschen, wobei die Kosten dieser Ausfälle exakt vorgerechnet wurden (DIfE 208, Anl., Bl. 204). So rational wie dieses Menschenbild waren auch die Wege, die in der DDR zur »richtigen« Befriedigung der Ernährungsbedürfnisse eingeschlagen wurden. Dazu diente in erster Linie die Gemeinschaftsverpflegung. Von den sowjetischen Besatzern zunächst als Notverpflegung eingeführt, wurde sie systematisch als Mittel zur Kollektivbildung und zur möglichst intensiven Nutzung der vorhandenen Nahrungsquellen ausge-

98 | Ulrike Thoms

baut. In diesem Sinne hatte sich schon der Nationalsozialismus ihrer bedient und dabei auch auf aktive Ernährungsaufklärung gezielt: Es wurde erwartet, dass derjenige, der sich einmal an gesundes Essen aus der Gemeinschaftsküche gewöhnt und ihre Vorteile erfahren hatte, seine Gewohnheiten schon ändern und sich auch zuhause gesund ernähren werde (Ziegelmayer, Wehrmacht 1937). Auf diese Weise half die Gemeinschaftsverpflegung jetzt im Sozialismus einen »sozialistischen Verbrauchsstil« zu entwickeln. Gleichzeitig bot sie die Möglichkeit, die Ausnutzung der verfügbaren Warenfonds zu optimieren und die Verwertung reichlich vorhandener Lebensmittel bzw. anderweitig nicht absetzbarer Produkte zu ermöglichen (Pilz 1985: 118; Zietze 1989: 71ff; Zunft at al. 1996: 128). Diesbezüglich bestand die Aufgabe des Instituts vor allem in der Ausarbeitung von Rezepturen und der Entwicklung der entsprechenden Küchentechnologie, während die konkrete Beaufsichtigung den örtlichen Hygieneinstituten oblag. Zumindest die Statistik suggeriert, dass dies gelang: Partizipierten 1947 350.000 Teilnehmer an der Gemeinschaftsverpflegung, stieg diese Zahl bis 1989 auf 4,5 Millionen an. 1980 nahmen gut 40 Prozent der gesamten Bevölkerung an ihr teil, wobei sich die besondere Fürsorge für den Ausbau der Schulspeisung in Teilnahmequoten von rund 80 Prozent niederschlug. Damit lief 1980 mehr als ein Fünftel des gesamten Lebensmittelumsatzes der DDR über die Gemeinschaftsverpflegung (Zobel 1985: 100; Möhr 1985). Die zentrale Rolle, die sie im Ernährungs- wie Sozialsystem der DDR einnahm, spiegelt sich u.a. auch darin, dass ihre Organisation bis hin zu den Verpflegungssätzen per Gesetz geregelt war und der Staat erhebliche Zuschüsse zu den Kosten leistete.

Die Krise unter Karl Lohmann (1898-1978) und neue k ybernetische Vorstellungen in der Ära Helmut Haenels (1919-1993) Nach Scheunerts Tod wurden am DIfE tiefgreifende Umstrukturierungen vorgenommen. Die Leitung übernahm ein neu geschaffener wissenschaftlicher Rat, zu dessen Vorsitzendem der Biochemiker Karl Lohmann ernannt wurde, welcher bislang am Institut für Medizin und Biologie in Berlin-Buch tätig gewesen war. Mit ihm hatte das Institut für Ernährung schon seit eini-

Zum Konzept der Ernährung | 99

ger Zeit hinsichtlich der Forschung zu den Zusammenhängen von Krebs und Ernährung kooperiert (DIfE 102, Bl. 391; Bielka 2002: 175-177). Dieser entscheidende Wechsel in der Institutsleitung schlug sich allerdings in der Aufgabenstellung des Instituts, wie sie im Jahrbuch der Akademie der Wissenschaften beschrieben wird, nicht nieder. Hier wurden weiterhin Gutachten und Schiedsanalysen für staatliche Stellen sowie Lehrgänge und Kurse mit der Zielsetzung von Ernährungslenkung und -beratung nachgewiesen (o.V. 1957: 333). Deutlich wird aber die Restrukturierung des Instituts. Nach Scheunerts Tod wurde die früher selbständige Vitaminanstalt in die Abteilung für Chemie eingegliedert; zudem wurden alle Institutsteile unter dem Dach der Akademie vereinigt (o.V. 1957: 329-330). Lohmanns vorrangig biochemisch-theoretisches Interesse führte das Institut aber ganz offenbar auf eine Bahn, die in der Reformzeit der frühen 1960er Jahre auf Kritik stieß. Denn das Neue Ökonomische System (NÖS) sah eine ausgesprochene Nutzenorientierung der wissenschaftlichen Forschung vor, mit deren Hilfe die DDR ihren technologischen Rückstand gegenüber den kapitalistischen Ländern aufholen sollte. Diese Bemühungen fielen in die Zeit nach dem Mauerbau und dem VI. Parteitag der SED und zielten auf eine Konzentration der Forschung, die man zunehmend als wirkungslos und im internationalen Vergleich rückständig wahrnahm. Als Hauptursache galt die starke Zersplitterung der Forschungsthemen wie der Forschungslandschaft insgesamt. Ihr sollte mit verstärkter Forschungsplanung und der Konzentration auf wichtige Kernfragen begegnet werden, denn die Begrenztheit der fi nanziellen und personellen Ressourcen war allen Beteiligten nur zu bewusst. Gleichzeitig teilte die DDR die internationale Fortschritts- und Planungseuphorie der 1960er Jahre, die sich auch aus den Erfolgen von internationalen Großprojekten im Bereich von Atomforschung, Raumfahrt und Antibiotikaproduktion speisten. Die dort erstmals umfassend eingesetzten Techniken der Kybernetik und Prognostik erschienen als Königsweg, um lohnende Forschungsgebiete zu identifizieren, sie zu planen und ihre Durchführung lenkend-kontrollierend zu begleiten (Thoms/Malycha 2008). Die Prognostik war für das Institut durch seine Beteiligung an der Erarbeitung der Verbrauchsprognosen im Rahmen der Arbeiten zum Fünfjahresplan nichts grundlegend Neues. Neu war allerdings die Intensität, mit der

100 | Ulrike Thoms

man sich nun theoretisch mit der Prognostik auseinandersetzte und diese für die Forschungsplanung einsetzte. Auf der übergeordneten wissenschaftspolitischen Ebene und außerhalb des Institutes trieb vor allem Samuel Mitja Rapoport die Entwicklung der biowissenschaftlichen Forschung in diese Richtung voran. Sein Ziel war eine stärkere Ausrichtung auf die vernachlässigte theoretische Grundlagenforschung, deren Ergebnisse sich dann »multivalent« nutzen lassen sollten. Schon 1964 erarbeitete eine Arbeitsgruppe ein umfassendes (»komplexes«) Programm zur Entwicklung der Biologie (Scheler 2002), das auch die Arbeiten am Institut für Ernährung registrierte und integrierte (Sefrin 1972; Rapoport 1972; Haenel 1972). Etwa zeitgleich hatte das Staatssekretariat für Forschung und Technik eine grundlegende Überprüfung des Institutes hinsichtlich seiner Organisation, Aufgabenstellung, der investierten Mittel und der volkswirtschaftlichen Wirksamkeit durchgeführt, kurz seine Berechtigung im System der DDRWissenschaft geprüft (Ketz 1995: 213). Da sich der Nutzen – vor allem für die Industrie – nicht nachweisen ließ – stand kurzzeitig sogar die vollständige Auflösung des Institutes zur Debatte. Davon sah man zwar schließlich ab, doch wurde Karl Lohmann entlassen, der bisherige wissenschaftliche Beirat aufgelöst und durch einen wissenschaftlichen Rat ersetzt, dem vor allem Vertreter der Lebensmittelindustrie angehören sollten. Eingeschlossen waren eine stärkere Zentralisierung und hierarchische Gliederung des Instituts, das wieder einem Direktor unterstellt wurde (Tandler 2000: 213; DIfE, Nr. 22: 178). Dieser Posten wurde 1964 Helmut Haenel anvertraut, einem Veterinärphysiologen und Schüler Scheunerts, der sich vor allem mit Fragen der Mikroflora des Darmes beschäftigt hatte. Haenel löste die bisherige Riege der bürgerlichen, noch im 19. Jahrhundert geborenen Wissenschaftler an der Spitze des Instituts ab. Nach seiner Ausbildung im westdeutschen Gießen war er erst 1952 zu seinem früheren Lehrer Scheunert nach Potsdam gekommen. Damit war er Rapoport nicht unähnlich, der ebenfalls aus dem westlichen Ausland gekommen war und sich im Bereich der medizinischen Grundlagenforschung energisch für die Neustrukturierung der medizinischen Grundlagenforschung einsetzte. Beide sprachen ausgezeichnet Englisch, verfügten über Erfahrungen in der westlichen Forschung, eine umfängliche Kenntnis der westlichen wie der russischen For-

Zum Konzept der Ernährung | 101

schungslandschaft und Literatur, beide führten ihre Institute mit starker Hand. Am DIfE ging kein Weg an Haenel vorbei: Jede Publikation aus dem Institut musste ihm vorgelegt und für die Publikation genehmigt werden (DIfE, Nr. 22: 178). Haenel übernahm die Aufgabe der Neuausrichtung mit großer Energie und so erfolgreich, dass über Schließungspläne nie mehr diskutiert wurde. Hintergrund dafür dürfte seine Mitarbeit an den erwähnten wissenschaftspolitischen Konzepten der 1960er und 1970er sein, denen es gelang, die bisher vorherrschende Ansicht zu durchbrechen, die Medizin sei ein rein konsumtiver Teil des Systems. Diese Arbeiten basierten auf einer kybernetisch fundierten Sicht, die von der Einheit von Sozialem, Biologischen und Psychologischem ausging (Rapoport at al. 2002: 153f). Haenel sprach in diesem Zusammenhang sogar von einem Stoff wechsel zwischen der Gesellschaft und ihrer natürlichen Umwelt, betonte also das große Ganze und seine organischen Zusammenhänge (Haenel 1981: 72). Wie weit der Impetus dieser Bemühungen letztlich trug, ist noch nicht abschließend geklärt, doch sagten die sogenannte Biologie- und die spätere Medizinprognose auf der Basis statistischer Erhebungen eine weitere Zunahme der chronisch-degenerativen Krankheiten des Herz-Kreislaufsystems voraus und betonten den Einfluss der Ernährung. Vorgeschlagen wurde daher das Projekt »Ernährung und Leistung des Menschen« sowie die Bildung eines regionalen Forschungszentrums in Potsdam-Rehbrücke (o.V. 1968: 54; Bericht 1970: 22-25). Gemeinsam war der Biologie- und Medizinprognose das Bewusstsein für die Komplexität der Ernährung, ihre Verflechtung mit allen Bereichen von Wirtschaft und Gesellschaft, die auch Haenel immer wieder betonte (o.V. 1970: 22-25; Haenel 1970: 36). Sie fand in den vielfachen Verflechtungen der daraus entwickelten sogenannten »Hauptforschungsrichtung (HFR) Ernährung und Leistung« mit anderen »Hauptforschungsrichtungen« ihren Ausdruck (Sefrin 1972: 26). Im Zuge der weiteren prognostischen Arbeit wurde festgelegt, dass es sich auf die vier Themenbereiche Eiweiß in Nahrung und Ernährung, Inhaltsstoffe der Lebensmittel und Entwicklung von Spezialnahrungen, Fremdstoffe in Lebensmitteln und schließlich auf Ernährungssoziologie und Gemeinschaftsverpflegung konzentrieren sollte. Dies waren für das Institut für Ernährung keineswegs vollständig neue Ansätze, zumal es bereits vielfältige Koope-

102 | Ulrike Thoms

rationsbeziehungen mit anderen medizinischen wie agrarwissenschaftlichen Forschungsinstituten und mit der Industrie unterhielt, nicht zuletzt durch die Mitarbeit in den Zentralen Arbeitskreisen (ZAK). Doch legitimierten die genannten Prognosen längst bestehende Beziehungen und schrieben sie erneut fest. Schließlich wurde das Institut für Ernährung 1969 zum Zentralinstitut der Akademie der Wissenschaften und als solches mit der selbständigen Lösung komplexer Aufgaben auf dem Gebiet der interdisziplinären Grundlagenforschung und auf dem Forschungsgebiet Nahrung und Ernährung verpflichtet. Ziel sollte sein, die Zusammenhänge zwischen Ernährung, Gesundheit und Leistungsfähigkeit aufzuklären und daraus entsprechende Folgerungen für die Gestaltung des Lebensmittelsortiments sowie die Durchsetzung einer gesunden Ernährung zu ziehen. Das hieß bereits zu diesem Zeitpunkt Abbau der Überernährung und der Fremdstoff belastung (Haenel 1970: 36) und war keineswegs eine abstrakte Forderung. Vielmehr erwartete man neben der Fortführung der Arbeiten zur Gemeinschaftsverpflegung ganz praktisch die Schaff ung eines Sortiments gesundheits- und leistungsfördernder, d.h. kalorienreduzierter Lebensmittel (Ketz 1996: 215). Die staatliche Verpflichtung, im Rahmen der Gesundheitspolitik auch für gesunde Ernährung zu sorgen, erhielt im Gefolge der Biologieprognose erheblichen Aufwind durch die Beschlüsse des VIII. Parteitages der SED, der die Frage der Gesunderhaltung des Menschen neuerlich zum Ziel der Politik erklärte. 1972 folgte der Ministerratsbeschluss zur Durchsetzung einer gesunden Lebensweise. Die folgende IV. Gesundheitskonferenz setzte die Ernährung ganz oben auf die gesundheitspolitische Tagesordnung (Mecklinger 1973). In den folgenden Jahren gab es in der DDR einen überaus intensiven Austausch über die Möglichkeiten und Wege einer gesundheitsfördernden Ernährung und ihrer Propagierung. Eine intensive Aufklärungsarbeit entfaltete sich, in insbesondere das Hygiene-Museum zu Dresden wie die Urania in Berlin einbezogen (o.V. 1972). Auch erhielt die vom Institut seit 1956 herausgegebene Zeitschrift »Ernährungsforschung« ein neues Layout und wurde inhaltlich – entgegen Scheunerts erklärter Absicht – deutlich populärer und bebildert. Die Veröffentlichung von Experimentalarbeiten in dieser Zeitschrift gehörte künftig zu den großen Ausnahmen. Ferner wurde 1972 die Gesellschaft für Ernährung der

Zum Konzept der Ernährung | 103

DDR gegründet, die – wie die Deutsche Gesellschaft für Ernährung in Westdeutschland – als Expertengremium und Trägerin der Ernährungsaufklärung fungieren sollte (Ketz/Schmandke 1974; Schmandke 1974). Diese zentrale Rolle der Ernährungserziehung war auch im umfassenden Forschungsprogramm »Ernährung und Gesundheit« festgeschrieben, das mit der Forderung nach interdisziplinärer Forschung, nach Zusammenfassung der vorhanden Forschungskapazitäten ernst machte. Doch anders als anderen in das Programm der Biowissenschaften einbezogenen Instituten ging es dem durch Haenel vertretenen DIfE nicht – zumindest nicht ausschließlich – um die Existenzsicherung der Ernährungsforschung, sondern tatsächlich um ein langfristiges, koordiniertes Vorgehen aller beteiligten zentralen staatlichen Organe (Haenel 1974: 208). Gestützt auf die biochemische Grundlagenforschung sollte die Physiologie Vorstellungen für neue, insbesondere kalorienarme Lebensmittel entwickeln, denen die Lebensmitteltechnologen in Form der »Optimierten Nahrung« reale Gestalt geben sollten. Zuständig für die Prüfung und Zertifi zierung der neuen Lebensmittel war der Warenzeichenverband »Diätetische Nahrungsmittel«, der dazu das Marken- und Gütezeichen »ON« (Optimierte Nahrung) entwickelte, das im Volksmund auch als »Ohne Nährwert« übersetzt wurde. Er war auch zuständig für das Sortiment an Säuglingsfertignahrungen. Bis 1974 wurden 134 Diätprodukte zugelassen, die in verschiedenen Diätlinien (für Allergiker, Diabetiker und Reduktionskost) geordnet waren (Schmidt 1971; 1974b). Im Ganzen war dies ein weitreichendes und umfassendes Konzept. Wie die bundesdeutsche Ernährungsforschung machte allerdings auch das Institut für Ernährung die Erfahrung, dass sich mit den eingesetzten Instrumenten das wahrgenommene Problem des Übergewichts nicht eindämmen ließ, was den behaupteten gesundheitspolitischen Vorteilen des Sozialismus widersprach. Die Möglichkeit, die Ernährung im Rahmen dieser kybernetischen Vorstellungen steuern zu können, waren ebenso überschätzt worden wie die Möglichkeiten der Wirtschaft, gesunde und schmackhafte Diätprodukte in Massen zu produzieren (Rietze 1990: 188). Auch gelang weder der Ausbau des Systems »ON«, noch die kontinuierliche Sicherung der für eine gesunde Ernährung wichtigen Obst- und Gemüseversorgung. Trotz aller Bemühungen stiegen das Durchschnittsgewicht wie

104 | Ulrike Thoms

die Zahl der gemeldeten Diabetiker weiter und scheinbar unaufhörlich an. Die Bedingungen der Mangelwirtschaft behinderte auch hier die Realisierung der weitreichenden Ziele.

Negative Rückkopplungen seit den späten 1970er Jahren Dennoch verfolgten die Beteiligten das Ziel der Prognostik, neue Erfahrungen und Entwicklungen in die Prognosen zu integrieren und sie gegebenenfalls nach den Erfahrungen zu modifizieren, bis in die achtziger Jahre hinein weiter. So legte G. Pfaff 1981 eine Erfahrungsbilanz vor, die auf der Analyse einer früheren Prognose des Lebensmittelverbrauchs und der Ernährungssituation beruhte. Sie schob die Misserfolge auf mangelhafte Beherrschung des »Instrumentariums zur Veränderung erkannter unerwünschter Tendenzen in der Ernährung« (Pfaff 1981: 40). Daher forderte er ständige strategische Rückkopplungen zur Durchsetzung der prognostischen Ziele, anders ausgedrückt: eine laufende Anpassung der Strategie. Deren Voraussetzung war wiederum ein intensivier Informationsaustausch. Zu dessen Förderung hatte Heinz David, einer der aktivsten Mitarbeiter an der Biologie- und Medizinprognose, 1972 begonnen, die Zeitschrift »DDR-Medizin-Report« herauszugeben (David 1972). In dieser Zeitschrift wurden u.a. Arbeiten zur Methodik der Prognose veröffentlicht. Bezeichnenderweise findet sich schon in einem der ersten Bände – direkt hinter dem Bericht über die prestigeträchtige, zukunftsweisende Weltraumphysiologie – auch ein »Fortschrittsbericht Ernährungsforschung« mit Arbeiten aus dem Rehbrücker Institut (Haenel 1973a). Die programmatische Bedeutung dieser Publikation für Haenels Strategie wird auch darin deutlich, dass Kurzversionen in zwei zentralen Zeitschriften der DDR erschienen (Haenel 1973b, Haenel 1973c) und Haenel zeitgleich die umfangreiche Monographie »Ernährung gesellschaftlich bedingt« vorlegte (Haenel 1973d). Zehn Jahre später zog Haenel an gleicher Stelle allerdings eine höchst ernüchternde Bilanz der so euphorisch begonnen Bemühungen. Anstatt dies nun aber – wie dies etwa im Bereich der Medizin geschah – auf den Mangel an Geld, Gerät und Forschungskapazitäten zu schieben (Thoms/Malycha 2009) und

Zum Konzept der Ernährung | 105

damit de facto aufzugeben, machte er Ernst mit der Forderung nach kybernetischen Rückkopplungen und dem selbst lernenden System. Deutlich entschiedener und in sich konsistenter als dies in der Bundesrepublik zu dieser Zeit geschah, legte hier ein Physiologe eine Bankrotterklärung der bisherigen Ernährungsforschung vor. Den bisherigen Ansatz einer ökonomischen Steuerung der Ernährung bewertete er als unterkomplex und setzte ihm seinen Entwurf zu einer Ernährungsverhaltensforschung entgegen (Haenel 1983: 799). Hanel steckte den Kopf also nicht in den Sand, sondern eröffnete neue Handlungsperspektiven, verwies darüber hinaus auch auf das positive Beispiel der erfolgreichen Kariesprophylaxe der DDR und die Teilerfolge in der Bekämpfung von Herz-Kreislauferkrankungen. Sie belegten, dass Erfolg möglich war. Bemerkenswert ist vor allem, dass dieser Vordenker sozialistischer Ernährungsforschung und -erziehung hier bei allen Verweisen auf die gesellschaftliche Bedingtheit der Ernährung das selbst entscheidende und letztverantwortliche Individuum (wieder) entdeckte, dessen primäre Bedürfnisse nicht nur biologisch-physiologisch determiniert sind. Vielmehr, so betonte er, sei es in seinen individuellen Vorlieben und Abneigungen ebenso ernst zu nehmen wie in seiner gesellschaftlichen Einbindung. Bemerkenswert ist hier auch die Breite der von ihm verarbeiteten Literatur, die von sozialistischer Programmatik über biochemische Abhandlungen bis hin zu westlichen gesellschaftswissenschaftlichen Analysen reicht. Probleme bei der Literaturbeschaff ung hatte er scheinbar nicht (Haenel 1983). Diese Publikation verweist jedenfalls auf die Komplexität des am DIfE im Laufe seiner vierzig Jahre aus den anfänglichen Vorstellungen Scheunerts entwickelten Konzeptes der Ernährung. Aller ideologischen Bekenntnisse, aller staatlichen Indienstnahme und Eingriffen zum Trotz erwies sich dieses Institut als lernfähig und damit auch – zumindest prinzipiell als zukunftsfest. Nach der Wende wurde es allerdings grundlegend reformiert und teils abgewickelt, ironischerweise unter aktiver Beteiligung von Helmut Haenel, der für das Institut ein neues Konzept erarbeitete (Haenel 1990). Nach der Auskunft der Homepage beschäftigt sich das Institut heute jedoch nur noch mit den »Zusammenhänge[n] zwischen Ernährung und Gesundheit von den molekularen Grundlagen bis zur klinischen Anwendung«, primäres Ziel ist die Erforschung »der

106 | Ulrike Thoms

molekularen Ursachen ernährungsbedingter Erkrankungen«. In interdisziplinärer Kooperation und mit Hilfe eines »breiten naturwissenschaftlichen, medizinischen und epidemiologischen Methodenspektrum[s]« sollen so »neue Strategien für Prävention, Therapie und Ernährungsempfehlungen« entwickelt werden. Damit zeigt sich, dass das Institut in der Wendezeit genau jener kultur- und gesellschaftswissenschaftlichen Kompetenzen beraubt wurde, die es sich gerade erst angeeignet hatte, weil und nachdem sich eine ausschließlich biologischchemisch-biowissenschaftliche Ausrichtung als wenig hilfreich für die Bewältigung der Ernährungsprobleme der Gegenwart erwiesen hatte.

Literatur Bielka, Heinz (2002): Geschichte der Medizinisch-Biologischen Institute in Berlin-Buch, Heidelberg: Springer. Bruch, Rüdiger vom (2000): »Wissenschaft im Gehäuse: Vom Nutzen und Nachteil institutionengeschichtlicher Perspektiven«. In: Berichte zur Wissenschaftsgeschichte 23, S. 3749. Buch, Detlef (2002): Alkoholikerhilfe in der DDR. Eine sozialpädagogische Betrachtung, Hamburg: Kovač. Deutsches Hygiene-Museum in der Deutschen Demokratischen Republik (Hg.) (o.J. [1971]): Wissenschaftliche Konferenz Gesundheitspropaganda und Gesundheitserziehung in der sozialistischen Gesellschaft anlässlich des 60. Jahrestages des Deutschen Hygiene-Museums in der Deutschen Demokratischen Republik vom 24.-25. Mai 1971, Ms., o.O. [Dresden]. Ernst, Anna-Sabine (1997): ›Die beste Prophylaxe ist der Sozialismus‹. Ärzte und medizinische Hochschullehrer in der SBZ/DDR 1945-1961, Münster u.a.: Waxmann. Feige, Hans-Uwe (1991): »Vor dem Abzug: Brain drain. Die Zwangsevakuierung von Angehörigen der Universität Leipzig durch die U.S. Army im Juni 1945 und ihre Folgen«. Deutschland-Archiv 24, S. 1303-1313. Freimuth, Ulrich (1972): »Kurt Täufel«. In: Archiv der Sächsischen Akademie der Wissenschaften zu Leipzig 1969-1970, S. 299-303.

Zum Konzept der Ernährung | 107

Gaßmann, Berthold (1991): »Das Zentralinstitut für Ernährung in Potsdam-Rehbrücke«. In: Ernährungs-Umschau 38, S. 39-42. Gaßmann, Berthold/Lewerenz, Hans-Jochen/Linow, Fritz (1996): »Zur Geschichte der institutionalisierten Ernährungsforschung in Deutschland«. Ernährungs-Umschau 43, S. 208214. Gräfe, Heinrich Karl (1967): Richtige Ernährung – gesunde Menschen. Nahrungsbedarf, Ernährungsweise und Kostpläne unter verschiedenen Lebens- und Arbeitsbedingungen, Leipzig: Fachbuchverlag. Haenel, Helmut (1970): »Grundforderung moderner Ernährungswissenschaft«. In: Spektrum 1, S. 35-36. Haenel, Helmut (1972): »Ernährungssituation und Ernährungsprognose«. In: Ernährungsforschung 17, S. 29-43. Haenel, Helmut (1973a): »Aufgaben und Ziele des Zentralinstituts für Ernährung in der DDR«. In: DDR-Medizin-Report 2, S. 99-102. Haenel, Helmut (1973b): »Der Stand der Ernährungsforschung in der DDR«. In: Das Deutsche Gesundheitswesen 28, S. 1106-1109. Haenel, Helmut (1973c): »Ernährungswissenschaft und Medizin. Der Stand der Ernährungsforschung in der DDR«. In: Das deutsche Gesundheitswesen 28, S. 1106-1109. Haenel, Helmut (1973d): Ernährung gesellschaftlich bedingt, Berlin: Akademie Verlag. Haenel, Helmut (1974): »Prof. Dr. pol. Habil. Dr. paed.h.c. Heinrich Karl Gräfe zum 70. Geburtstag am 23. September 1974«. In: Ernährungsforschung 19, S. 140-141. Haenel, Helmut (1975): »Die Akademie der Wissenschaften und ihre Beziehungen zur Ernährungsforschung«. In: Ernährungsforschung 20, S. 99-102. Haenel, Helmut/Schober, Cornelia (1983): »Ernährungsphysiologische Betrachtungen zu Ursprüngen und Bedingungen des Ernährungsverhaltens«. In: DDR-Medizin-Report 9, S. 777-809. Haenel, Helmut (1990): »Zur künftigen Entwicklung des Zentralinstituts für Ernährung«. Ernährungsforschung 35, S. 173-176. Ketz, Hans-Albrecht/Schmandke, Horst (1980): »Der Beitrag der Gesellschaft für Ernährung in der DDR zur Förderung

108 | Ulrike Thoms

einer gesunden Ernährung der Bevölkerung der DDR«. In: Zeitschrift für die gesamte Hygiene 26, S. 923-929. Ketz, Hans-Albrecht (1995): »Forschungen und Forschungsergebnisse des Instituts für Ernährung in Potsdam-Rehbrücke. Eine historische Betrachtung«. In: Ernährungsforschung 40, S. 204-242. Ketz, Hans-Albrecht (1973): Die Ernährung des gesunden Menschen, Berlin: Volk und Gesundheit. Linow, Fritz/Lewerenz, Hans-Joachim/Möhr, Manfred (1996): »Zur Geschichte des Instituts für Ernährungsforschung in Potsdam-Rehbrücke. Die Entwicklung von 1946 bis 1950«. In: Ernährungsforschung 41, S. 1-25. Mecklinger, Luwig (1973): »Die Gesundheit beginnt zu Hause«. Das deutsche Gesundheitswesen 28, S. 1105-1106. Möhr, Manfred (1985): »Entwicklung der Schülerspeisung in der DDR seit 1945«. In: Ernährungsforschung 30, S. 103-106. o.V. (1947): »Institut für Ernährung und Verpflegungswissenschaft Berlin-Dahlem«. In: Ernährung und Verpflegung 1, S. 20-21. o.V. (1956): »Buchveröffentlichungen und sonstige selbständige Druck-Erzeugnisse«. In: Ernährungsforschung 1, S. 36-57. o.V. (1959): Jahrbuch der Deutschen Akademie der Wissenschaften zu Berlin 1957, Berlin: Akademie Verlag. o.V. (1968): Prognose zur Entwicklung der biologischen Forschung für den Zeitraum 1970-1980, Ms., Berlin. o.V. (o.J. [1970]): Bericht über den Stand der Forschung und Wissenschaftsorganisation in der Medizin und die Hauptaufgaben der medizinischen Forschung im Perspektivplanzeitraum 1970, Ms., o.O. [Berlin]. o.V. (o.J. [1972]): Gesundheitsfördernde Ernährung – das Anliegen der Gesellschaftlichen Speisenwirtschaft. Ausgewählte Vorträge der Tagung des Urania-Vortragszentrums vom 17.19. April 1972, o.O. [Berlin]. Pfaff, G. (1981): »Zur Prognostik des Lebensmittelverbrauchs und der Ernährungssituation«. In: Ernährungsforschung 26, S. 40-45. Pilz, Herbert (1985): »Leistungsziele der Gemeinschaftsverpflegung«. Ernährungsforschung 30, S. 115-119; 132-137. Pilz, Herbert (1987): »Aus der Geschichte der Gemeinschaftsverpflegung«. In: Ernährungsforschung 32, S. 80-85, S. 137140.

Zum Konzept der Ernährung | 109

Rapoport, Samuel Mitja (1972): »Ernährung und Gesundheit«. In: Ernährungsforschung 17, S. 45-58. Rapoport, Samuel Mitja/Fuchs-Kittowski, Klaus/Rosenthal, Hans A. (2002): »Die Biologie-Prognose 1966-1980. Ein Trialog«. In: Christiane Floyd (Hg.), Stufen zur Informationsgesellschaft. Festschrift zum 65. Geburtstag von Klaus Fuchs-Kittowski, Frankfurt a.M. u.a.: Lang, S. 149-159. Rudolph, Gerhart (1934): »Großküchen als Beispielsküchen«. In: Zeitschrift für Volksernährung 10, S. 338. Rüstau, Hiltrud (o.J. [1970]): »Sozialistische Moral und Gesundheit«. In: Deutsches Hygiene Museum in der Deutschen Demokratischen Republik (Hg.), Wissenschaftliche Konferenz Gesundheitspropaganda und Gesundheitserziehung in der sozialistischen Gesellschaft anlässlich des 60. Jahrestages des Deutschen Hygiene-Museums in der Deutschen Demokratischen Republik vom 24.-25. Mai 1971, Ms., o.O. [Dresden], S. 94-102. Scheler, Werner (2002): »Zur Planung und Organisation der biowissenschaftlichen Forschung in der DDR«. In: Werner Scheler/Heinz David/Lothar Rohland (Hg.), Planung und Selbstbestimmung in der Forschung – Erfahrungen aus der DDR. Dokumentation der 8. Wissenschaftlichen Arbeitstagung (Berlin, den 17. November 2001), Berlin: Eigenverlag, S. 5-28. Scheunert, Arthur (1956): »Die Anstalt für Vitaminforschung und Vitaminprüfung. Potsdam Rehbrücke. Geschichte, Aufbau und Ziel«. In: Ernährungsforschung 1, S. 407-430. Schmandke, Horst (1974): »Der Beitrag der ›Gesellschaft für Ernährung in der DDR‹ zur kontinuierlichen Durchsetzung einer gesundheitsfördernden Ernährung der Bevölkerung in der Deutschen Demokratischen Republik«. In: Ernährungsforschung 19, S. 139. Schmidt, F. (1971): »Die Gestaltung der Kooperation bei der schrittweisen Herausbildung eines Systems der gesunden Ernährung in der DDR und die Aufgaben dazu im Volkswirtschaftsplan 1971 sowie im Perspektivplanzeitraum bis 1975«. In: Werner Fiebiger/Gesellschaft für Betriebsberatung des Handels der DDR (Hg.), Die Kooperation bei der Herausbildung eines Systems der gesunden Ernährung in der DDR, Berlin: GBH, S. 9-31.

110 | Ulrike Thoms

Schmidt, Hans-Eberhard (1974): »2 Jahre Ministerratsbeschluss zur gesundheitsfördernden Ernährung«. In: Ernährungsforschung 19, S. 152-155. Schmidt, Hans-Eberhard (1974): »Rationelle Ernährung als Prognoseziel. II. Internationales Ernährungswirtschaftliches Kolloquium des Zentralinstituts für Ernährung der AdW der DDR«. In: Ernährungsforschung 19, S. 59. Sefrin, Max (1967): »Vorwort«. In: Heinrich Karl Gräfe, Richtige Ernährung – gesunde Menschen. Nahrungsbedarf, Ernährungsweise und Kostpläne unter verschiedenen Lebens- und Arbeitsbedingungen, Leipzig: Fachbuchverlag, S. 5. Sefrin, Max (1972): »Die Rolle der Ernährung beim Gesundheitsschutz der Bevölkerung«. In: Ernährungsforschung 17, S. 13-28. Tandler, Agnes (2000): Geplante Zukunft. Wissenschaftler und Wissenschaftspolitik in der DDR 1955-1971, Freiberg: Diss. Täufel, Alfred (1972): »Bibliographie Kurt Täufel«. Jahrbuch der Sächsischen Akademie der Wissenschaften zu Leipzig 1969-1970, S. 303-334. Thoms, Ulrike/Malycha, Andreas (2009): »Auf bruch in eine neue Zukunft? Prognosen für die Biowissenschaften in der DDR und BRD 1964-1970«. In: Jakob Vogel/Heinrich Hartmann (Hg.), Prognosen. Zukunftswissen und Expertise in Wirtschaft, Politik und Gesellschaft, Frankfurt a.M.: Campus, S. 109-130 (i.E.). Thoms, Ulrike (2006): »›Ernährung ist so wichtig wie Munition‹. Die Verpflegung der deutschen Wehrmacht 19331945«. In: Wolfgang U. Eckart/Alexander Neumann (Hg.), Medizin im Zweiten Weltkrieg. Militärmedizinische Praxis und medizinische Wissenschaft im ›Totalen Krieg‹, Paderborn u.a.: Schöningh, S. 207-230. Thoms, Ulrike (2007): »›Vitaminfragen – kein Vitaminrummel?‹ Die deutsche Vitaminforschung in der ersten Hälfte des 20. Jahrhunderts und ihr Verhältnis zur Öffentlichkeit«. In: Sybilla Nikolow/Arne Schirrmacher (Hg.), Wissenschaft und Öffentlichkeit als Ressource füreinander, Frankfurt a.M.: Campus, S. 75-96. Ulmann, Manfred (1956): »Überblick über die Geschichte des Instituts für Ernährungsforschung von 1946 bis 1956«. In: Ernährungsforschung 1, S. 8-17.

Zum Konzept der Ernährung | 111

Ziegelmayer, Wilhelm (1936): Rohstoff-Fragen der deutschen Volksernährung, Leipzig: Steinkopff. Ziegelmayer, Wilhelm (1937): »Die Wehrmacht als Erzieher zur richtigen Verbrauchslenkung und gesunden Ernährung«. In: Zeitschrift für Volksernährung 12, S. 13-15. Ziegelmayer, Wilhelm (1937, 1939, 1941, 1943): Rohstoff-Fragen der deutschen Volksernährung, 2. verm. Aufl. Leipzig, 3. verm. Aufl. Leipzig, 4. erw. Aufl. Dresden/Leipzig: Steinkopff. Zietze, Hans-Joachim (1989): Gelenkte Ernährung. Die DDR auf dem Weg zur gesellschaftlichen Ernährung, Frankfurt a.M. u.a: Lang. Zobel, Martin (1964): »Prof. Dr. Dr. h.c. Heinrich Karl Gräfe zum 60. Geburtstag«. In: Die Nahrung 8, S. 443-444. Zobel, Martin (1985): »Die Entwicklung der Gemeinschaftsverpflegung in der DDR«. In: Ernährungsforschung 30, S. 100102. Zunft, Hans-Joachim/Möhr, Manfred/Ulbricht, Gottfried (1996): »Zur Ernährungssituation in der DDR zwischen 1980 und 1990 – Eine Materialsammlung«. In: Ernährungsforschung 41, S. 59-222.

Epidemiologische Räume der Wissensproduktion in Europa Christine Bischof

Wie ernähren sich Individuen einer Population im Durchschnitt? Welchen Lebensstil haben Einwohner einer europäischen Region? Welche Gesundheitsrisiken lassen sich im Zusammenhang mit Ernährungsverhalten und Lebensstil von Mitgliedern einer Bevölkerungsgruppe erkennen? Diese Fragen sind Gegenstand biomedizinischer Forschung und insbesondere der wissenschaftlichen Disziplin Epidemiologie.1 Die Epidemiologie hat u.a. die Verteilung von Erkrankungen sowie Sterblichkeitsraten in der Bevölkerung zum Gegenstand, die als Risikoeinschätzungen Grundlagen für die Entwicklung von Präventionsprogrammen darstellen. Dafür werden bestimmte Faktoren untersucht, die damit in Zusammenhang 1 | Der Begriff der Epidemiologie leitet sich aus dem Griechischen (epi, demos, »Volk«, logos »Lehre«) ab; die Wissenschaft Epidemiologie hat sich von ihrem historischen Fokus auf Infektionskrankheiten und »Epidemien« zu einer umfassenden gesundheitswissenschaftlichen Forschungsdisziplin gewandelt. Die heutige Disziplin der Epidemiologie gilt als Grundlagenwissenschaft von Public Health; sie wird häufig als die »Wissenschaft von der Verteilung und den Determinanten von Gesundheit und Krankheit in spezifizierten Bevölkerungsgruppen und die Anwendung dieses Wissens zur Kontrolle von Gesundheitsproblemen« definiert (vgl. z.B. Last et al. 2001).

114 | Christine Bischof

stehen können, wie z.B. Rauchen, körperliche Aktivität etc. Anhand dessen werden Rückschlüsse dieser Einflussfaktoren auf Gesundheit und Krankheit gezogen. Einen eigenen Bereich stellt darin die Ernährungsepidemiologie dar, die sich insbesondere mit der Verbindung von Ernährung und dem Auftreten von Erkrankungen beschäftigt. Im Folgenden werden epidemiologische Räume der Wissensproduktion aus ethnographischer Perspektive am Beispiel einer europäischen Ernährungsstudie – einer multizentrischen Kohortenstudie – näher erkundet. Kohortenstudien erheben anhand von Merkmalen über einen langen Zeitraum Daten von Individuen einer Population, um den Erkrankungsstatus zu messen und Erkrankungsrisiken einer Bevölkerung statistisch zu berechnen. Die Bevölkerungsstudie meines Fallbeispiels wurde in den 1990er-Jahren, im Rahmen des europäischen Programms »Europa gegen Krebs« initiiert. Die Studie ist in 10 europäischen Ländern angesiedelt und es nehmen ca. eine halbe Million Menschen aus 23 Studienzentren daran teil. Räume werden im vorliegenden Beitrag in Anlehnung an Michel Foucaults Raumkonzept sowohl als »wirkliche Räume« – als »Orte« oder »Plätze« wie epidemiologische Abteilungen – untersucht (Foucault 1991: 68) als auch als Räume der Wissensproduktion.2 Das Studiendesign der europäischen Ernährungsstudie sieht vor, dass zu Beginn Basisdaten aller Teilnehmenden entlang von Merkmalen und Expositionen erhoben werden, um anschließend das Auftreten von Erkrankungen im Rahmen einer Nachbeobachtung erforschen zu können. Diese epidemiologischen Räume der Wissensproduktion werden am Beispiel der Nachbeobachtung in Deutschland untersucht. Die Nachbeobachtung ist eine Arbeitsgruppe epidemiologischer Forschungseinrichtungen. In diesen Räumen werden kontinuierlich Nacherhebungsdaten gesammelt, gespeichert, kodiert sowie verifiziert. 2 | Neben »wirklichen Räumen«, den Heterotopien, gibt es für Foucault »unwirkliche Räume«, die Utopien. Dazwischen existieren Mischformen wie z.B. der Spiegel. Der Spiegel ist eine Mischform, weil sich Individuen im Spiegelbild sehen und diese Personen zugleich vor dem Spiegel stehen. Mischformen wie der Spiegel stellen laut Foucault die Verbindung zwischen »wirklichen« und »unwirklichen Räumen« dar (Foucault 1991: 68).

Epidemiologische Räume der Wissensproduktion | 115

Diese Daten werden in einem anderen Raum der Abteilung Epidemiologie durch den Einsatz statistischer Verfahren von Wissenschaftlern für die Berechnung von Risiken modelliert. Es wird in diesen Räumen ein Wissen über Individuen einer Bevölkerung hergestellt, indem verschiedene Messinstrumente und Praktiken medizinischer Datenerhebung sowie Selbstobservationspraktiken der Studienteilnehmenden eingesetzt werden. David Armstrong (1995) zufolge entwickelte sich im 20. Jahrhundert eine surveillance medicine, die eine Verschiebung vom klinischen Blick auf das Körperinnere, hin zur Beobachtung von Körpern in ihrer Beziehung zur Umwelt und auf kollektive Körper einer Population auslösten. Surveillance medicine basiert danach auf der Neukonfiguration der Unterscheidung zwischen gesund und krank, wobei Krankheit – wie die Kategorie »chronic illness« – als ein »temporal space« identifiziert wird (Armstrong 1995: 402). Im Zentrum steht, so Armstrong, die Problematisierung von Normalität, die ein fundamentales »remapping« von Symptomen, Zeichen und Krankheit im Zusammenhang mit Risikofaktoren bedeutet. Die Lokalisation von Krankheit findet außerhalb der »corporal spaces of the body« statt (Armstrong 1995: 393). In dem Regime der surveillance medicine werden Individuen durch den Einsatz medizinischer oder humanitärer Techniken der Observation konstituiert. Eine ebenso zentrale Rolle spielen Techniken der Beobachtung bei Michel Foucaults Auseinandersetzungen mit Subjektkonstitutionsprozessen im Zusammenhang mit Macht und Wissen, die im Folgenden diskutiert werden. In internationalen gesundheitspolitischen Diskursen nehmen Risikoabschätzungen als aussagekräftige Befunde und damit als Grundlagen für die Weiterentwicklung der Gesundheitspolitik sowie die Entwicklung von Präventionsmaßnahmen (wie z.B. für die Weltgesundheitsorganisation [WHO]) einen wichtigen Stellenwert ein. Auf Grund dieser Relevanz epidemiologischer Abschätzungen für das internationale Gesundheitsmanagement thematisiert der folgende Beitrag Räume und Praxen der surveillance medicine am Beispiel einer europäischen Studie aus dem Bereich Ernährungsepidemiologie. Erstens werden dafür Konstitutionsbedingungen von Praxen epidemiologischer Nachbeobachtung auf der Grundlage von Foucaults Raumkonzeption und seinen Analysen der Macht

116 | Christine Bischof

untersucht, um deren Effekte für die Wissensproduktion und Subjektkonstitution mit Blick auf Europa zu erörtern. Zweitens werden zentrale Messinstrumente und europäische Standards epidemiologischer Wissensproduktion skizziert und am konkreten Beispiel des Einsatzes von Fragebögen als Datenerhebungsinstrument diskutiert. Und drittens wird der Einsatz standardisierter Messpraktiken für epidemiologische Studien und deren Effekte für die europäische Wissensproduktion im Zusammenhang mit Subjektkonstitution thematisiert sowie Perspektiven von Studienteilnehmenden auf diese Messpraktiken dargelegt. Die vorliegenden Ergebnisse ethnographischer Forschung sind im Rahmen des Projektes Imagined Europeans im Zeitraum zwischen 2007 und 2009 aus dem Teilprojekt »Die (Neu-) Konstruktion des Homo Europaeus in Medizin und Nahrungsforschung« entstanden, das am Institut für Europäische Ethnologie der Humboldt-Universität zu Berlin angesiedelt war.

Epidemiologische Praxen: Die Nachbeobachtung Konkrete Einrichtungen und Orte der Nachbeobachtung sind nach Foucault geschlossene Räume. Sie sind »Orte«, »Plätze«, »wirkliche Räume« (Foucault 1991) und bei meinem Fallbeispiel handelt es sich um eine eigene Arbeitsgruppe der Epidemiologie, die aber unabhängig als selbstständiger Bereich und als eigenes Netzwerk arbeitet. Die Unabhängigkeit und die Eigenständigkeit der Nachbeobachtung liegen darin begründet, dass für die Durchführung von Bevölkerungsstudien europäische und insbesondere deutsche Datenschutzbestimmungen berücksichtigt werden müssen. Der Datenschutz ist ein wichtiger Aspekt für die Durchführung von Bevölkerungsstudien und ebenso für mein Fallbeispiel. Im Vordergrund steht die Gewährleistung der Anonymität bei einer kontinuierlichen und aktiven Erhebung personenbezogener Daten. Die Teilnahme unter Gewährleistung individueller Autonomie und Entscheidungsfreiheit der Mitwirkenden wurde hierbei im Rahmen von Prozessen von informed consent (informierte Zustimmung) geregelt und schriftlich festgehalten. Diese Einverständniserklärung ist Grundlage des wissenschaftlichen Handelns und dient

Epidemiologische Räume der Wissensproduktion | 117

dem Schutz der Persönlichkeitsrechte, um über das eigene Wohlergehen und die Gesundheit frei entscheiden zu können. Um Datenschutz und die Kontrolle des Zugangs zu ermöglichen, sind die Räume der Nachbeobachtung durch Ein- und Ausschlussmechanismen gekennzeichnet. Die Sicherung solcher Orte ist bei meinem Fallbeispiel durch das Vorhandensein einer eigenen Alarmanlage und einer zusätzlichen Glastür gegeben. Eingesetzte Beobachtungspraktiken und die Herstellung von Sichtbarkeit werden in Anlehnung an Michel Foucaults Analysen als Konstitutionsbedingungen von Räumen der Wissensgenerierung in der Nachbeobachtung verstanden. Von außen ist die Nachbeobachtung nicht einsehbar. Sie kann im Sinne Bruno Latours (1986) als eine Black Box verstanden werden – als ein »setting« oder eine Art und Weise, wie Wissen hergestellt wird, bei dem weniger die Wissensproduktion, sondern vor allem der »In- und Output« zählen (Latour 1986). Herstellungsprozesse epidemiologischer Wissensproduktion bleiben für Außenstehende in dieser Black Box verborgen. Für Latour ist diese Black Box zugleich ein technisches Objekt bzw. ein Aktant der Wissensproduktion in Aktion. »When many elements are made to act as one, this is what I will now call a black box« (Latour 1986: 131). Diese verschlossene und verdeckte Black Box soll in diesem Beitrag geöffnet werden mit dem Ziel, die Konstituierung der Nachbeobachtung und um den Zusammenhang zwischen zentralen Messinstrumenten und Praxen epidemiologischer Wissensproduktion zu untersuchen.

Funk tionsstellen der Nachbeobachtung Die Nachbeobachtung ist ein organisierter Raum. Jedem Individuum – den Mitarbeitern und den Teilnehmenden – kommt durch das Prinzip der Unterteilung dieser Räume in viele kleine Zellen sowie durch die Zuordnung zu einer Funktion ein bestimmter Platz zu (Foucault 1994: 183). Entscheidende Funktionsstellen der Nachbeobachtung sind: 1. Postausgang und Posteingang, wie z.B. der Versand von Fragebögen, 2. die Aufbereitung, Dokumentation, Überprüfung, Standardisierung der Daten und 3. die Verifizierung und Klassifizierung von Erkrankungsdaten sowie Daten zu Sterbeursachen mit Hilfe von Ärzten, Krankenhäusern, Tumorregistern oder Gesundheitsäm-

118 | Christine Bischof

tern und 4. die Speicherung aller Informationen. Eine weitere Funktionsstelle ist 5. die Telekommunikation. Diese beinhaltet die Durchführung von Erinnerungsmaßnahmen und zwar insbesondere bezüglich des Zurücksendens von Fragebögen sowie die Terminvergabe für Teilnehmende bei der Durchführung von Substudien. Ferner ist 6. die Beantwortung von Anfragen von Studienteilnehmenden oder Kooperationspartnerinnen eine Funktionsstelle. In diesen Funktionsstellen werden Informationen von den Studienteilnehmenden von den Mitarbeitern der Nachbeobachtung regelmäßig neu erfasst, überprüft und standardisiert. In Anlehnung an Michel Foucaults Analysen können diese Funktionsstellen als ein Prinzip »räumlicher Verschachtelung hierarchisierter Überwachungen« (Foucault 1994) bezeichnet werden. Zentrum der Nachbeobachtung ist die Datenbank. Alle Elemente und Funktionen der Nachbeobachtung stehen jedoch untereinander in Beziehung und bilden Beziehungsnetzwerke (Foucault 1991: 66).3 In meinem Fallbeispiel dienen diese Beziehungsnetzwerke der Wissensherstellung über den Zusammenhang von Ernährung, Gesundheit und Krankheit von Individuen einer Bevölkerung. In Anlehnung an Foucaults Raumkonzept wird die Nachbeobachtung als ein Beziehungsnetzwerk bzw. eine Lagerungsbeziehung analysiert und untersucht (Foucault 1991). Zur Konkretisierung des eher abstrakten Raumbegriffs von Foucault werden anschließend zentrale Aspekte seiner Raumvorstellung dargelegt.

Foucaults Räume: Die Nachbeobachtung als Beziehungsnet z werk Räume entstehen Michel Foucault zufolge aus einem Verhältnis – aus einer Aktivität heraus – wie z.B. durch das Lagern, das Platzieren oder das Sehen (Foucault 1991: 67). Mit seiner Raumvorstellung wendet sich Foucault gegen ein Raumverständnis, 3 | Für die Darlegung von Foucaults Raumvorstellung beziehe ich mich vorwiegend auf den 1967 geschriebenen Aufsatz Foucaults »Les espaces autres«, der 1984 in der französischem Zeitschrift Architecture, Mouvement, Continuité veröffentlicht wurde. Dieser Aufsatz Foucaults ist 1991 unter dem Titel »Andere Räume« in deutscher Sprache von Martin Wentz herausgegeben worden.

Epidemiologische Räume der Wissensproduktion | 119

die Räume als etwas essentialistisches, wie einen Trichter, ein Zimmer, als tote Materie oder als ontologische Gegebenheit betrachten. Stattdessen zielt Foucault vielmehr auf eine Verabschiedung von universellen, linearen und kausalen Vorstellungen von Räumen und Geschichtsschreibung. Er hebt hervor, dass es schon immer unterschiedliche Raumvorstellungen gegeben habe, die in Abhängigkeit der jeweiligen historischen Epoche betrachtet werden müssten. Die Verknüpfung von Raum und Zeit sind für ihn Bestandteile jeglicher Raumhistorie (Foucault 1991: 67). Räume sind danach keinesfalls etwas Fixes, sondern vielmehr etwas Bewegliches. Räume setzen sich laut Foucault aus verschiedenen Punkten zusammen, die zueinander in Beziehung stehen und eine »Vielfalt oder ein Ensemble von Beziehungen bzw. Beziehungsnetzen« bilden (Foucault 1991: 66, Löw 2001: 149). Diese Ensemble von Beziehungen können Plätze definieren wie z.B. das Zimmer, das Bett etc. Darüber hinaus sind diese Räume nicht leer oder homogen, sondern es sind heterogene Räume, die mit Qualitäten aufgeladen sind. »Mit anderen Worten: Wir leben nicht in einer Leere, innerhalb derer man Individuen und Dinge einfach situieren kann. Wir leben nicht in einer Leere die nachträglich mit bunten Farben eingefärbt wird. Wir leben innerhalb einer Gemengelage von Beziehungen, die Platzierungen definieren, die nicht aufeinander zurückzuführen und nicht miteinander zu vereinen sind.« (Foucault 1991: 67)

Mit seiner konstruktivistischen Raumvorstellung verfolgt Foucault das Interesse, auf die Bedeutung zeitgenössischer Technik und die Speicherung von Informationen durch den Einsatz von Informationstechnologien aufmerksam zu machen. Zugleich geht es ihm um die Beziehungen der Subjekte bzw. die (An-) Ordnung von Individuen, durch die »Platzierung und Klassierung von Menschen in bestimmten Lagen« (Foucault 1991: 67). Wenn mit Foucault Räume als Beziehungsnetzwerke gedacht werden, gehören zu den Elementen dieser Netzwerke nicht allein Menschen, sondern ebenfalls Dinge, die angeordnet werden. Im Vordergrund steht hierbei, die Art und Weise von Beziehungen für die Organisation des Raumes wie z.B. das Vorhandensein von »Entgegensetzungen« (Foucault 1991). Diese Entgegensetzungen sind nach Foucault als Gegebenheiten zu verstehen, die akzeptiert und ständig reproduziert werden. Es

120 | Christine Bischof

handelt sich um Entgegensetzungen, die unser Leben bestimmen (Foucault 1991: 67). Als ein konkretes Beispiel nennt er die Unterscheidung zwischen »dem privaten und dem öffentlichen Raum, dem gesellschaftlichen, dem kulturellen und dem nützlichen Raum sowie dem Raum der Freizeit und der Arbeit« (Foucault 1991: 67). Mit Blick auf die Praxen der surveillance medicine kann als zentrale Entgegensetzung die Herstellung von gesund und krank aufgefasst werden. Foucaults Raumvorstellung weist meiner Ansicht nach dadurch Parallelen zur »Actor-Network-Theory« (ANT) (Latour 2005) auf. Die Parallele besteht darin, dass Foucault Räume als Netzwerke analysiert und diese durch Aktivitäten und Praktiken kontinuierlich hergestellt werden. Eine weitere Parallele bezieht sich auf die Herstellungsprozesse von Räumen, die durch die Beziehungen von Subjekten und deren (An-) Ordnungen analysiert werden. Darüber hinaus thematisiert Foucault die Bedeutung von Dingen für die Konstituierung von Räumen – zentrales Beispiel dabei sind die Informationstechnologien. Foucaults Raumvorstellung als Beziehungsnetzwerk erlaubt es ebenso wie die »Actor-Network-Theory«, sowohl menschliche als auch nicht-menschliche Entitäten für die Wissensproduktion einzubeziehen. Schließlich beschreibt Foucault seine Perspektive auf die Welt als ein großes Oberflächennetz, das aus unterschiedlichen Beziehungsnetzwerken gewoben sei (Foucault 1991). Diese Beziehungsnetzwerke stehen bei Foucault im engen Zusammenhang mit seinen Vorstellungen zur Subjektkonstitution und Machtverhältnissen. Welche Vorstellung von Macht hat Foucault und wie hängt diese Macht mit der Konstituierung von Räumen zusammen?

Beziehungsnet z werke und Macht Macht ist für Foucault ein vielfältiges Kräfteverhältnis (Foucault 1977: 113) und zugleich ist jedes Kräfteverhältnis ein Machtverhältnis (Deleuze 1997: 99). Damit spricht sich Foucault gegen ein monolithisches Verständnis von Macht aus. Für ihn gibt es weder ein Innen noch Außen der Macht, denn Macht ist immanent und allgegenwärtig. Macht durchzieht die gesamte Gesellschaft mit ihren Ausformungen und Praktiken, die er als eine

Epidemiologische Räume der Wissensproduktion | 121

»komplexe strategische Situation einer Gesellschaft« bezeichnet (Foucault 1977: 114). Ebenso wie bei seiner Raumkonzeption zeichnet Foucault einen netzförmigen Charakter der Macht, die »sich von sehr unzähligen Punkten aus und im Spiel ungleicher und beweglicher Beziehungen vollzieht« (Foucault 1977: 113). Dabei verfolgt Foucault vor allem das Interesse, die produktiven Elemente der Macht hervorzuheben. Diese Macht, die Wirkliches produziert, verfolgt er bis ins kleinste Detail, indem er die Mikrophysik der Körper untersucht. Macht »produziert Gegenstandsbereiche und Wahrheitsrituale: Das Individuum und seine Erkenntnisse sind Ergebnisse dieser Produktion« (Foucault 1994: 250). Zugleich zielt diese Macht auf den Körper4 und ist als eine Macht zum Leben organisiert (Foucault 1976: 166). Für ihn gibt es zwei zentrale Pole, die Disziplinar- und Normalisierungsmacht und die Bio-Politik der Bevölkerung. Die Funktionsweisen der Disziplinar- und Normalisierungsmacht erörtert Foucault am Beispiel des Panopticons.5 Diese Disziplinaranlage wird häufig als seine zentrale Analyse über die Konstituierung von Räumen im Zusammenhang mit der Normalisierung von Individuen und der Herausbildung der Normalisierungsgesellschaft diskutiert. Die Hauptwirkung dieses architektonischen Modells eines Gefängnisses ist hierbei »die Schaff ung eines permanenten Sichtbarkeitszustandes bei den Gefangenen, der das automatische Funktionieren der Macht sicherstellt« (Foucault 1994: 258). Das Sehen, ohne selbst gesehen zu werden, ist die Technik der Observation. Diese Technik werde zur totalen Überwachung von Individuen eingesetzt (ebd.). Die Disziplinar- und Normalisierungsmacht zielt auf den individuellen Körper, die »Ökonomie des Körpers« (Foucault 1976: 30). Der zweite Pol, die Bio-Politik 4 | Foucault untersucht den Körper in einem politischen Feld, insbesondere innerhalb Wissens- und Macht-Komplexe. 5 | Beim Panopticon handelt es sich, um einen architektonischen Raum in der Gestalt einer Überwachungsanlage bzw. Disziplinaranlage, wie zum Beispiel ein Gefängnis, eine Klinik oder Armenhäuser (Foucault 1994). Das panoptische Modell im Sinn der ursprünglichen Idee der Disziplinaranlage wurde nicht umgesetzt. Unauf hörlich Sichtbarkeit zu schaffen und zu gewährleisten, ist jedoch Ziel vielfältiger Verfahren und Praxen beispielsweise des Monitorings.

122 | Christine Bischof

der Bevölkerung wirkt darüber hinaus massenkonstituierend und konzentriert sich auf den Gattungskörper (Foucault 1976). Hierbei stehen politische Maßnahmen zur Kontrolle und Regulierung der Bevölkerung im Mittelpunkt, die auf eine Optimierung des Lebens zielen (Foucault 1976). Diese beiden Machtmechanismen haben sich Foucault zufolge im 19. Jahrhundert zur Bio-Macht formiert, die eine Verstaatlichung des Biologischen bedeutet (Foucault 1976). Dieser Machttypus funktioniert über Kontrolle und er zielt auf die Normalisierung der Gesellschaft mittels Praxen medizinischer Wahrheitsdiskurse, die von dem »Willen zum Wissen« und durch den »Willen zum Nichtwissen« getragen werden (Foucault 1994). Diese Neukonstituierung der Macht steht laut Foucault im engeren Zusammenhang mit der Entwicklung der Humanwissenschaften, der Entstehung eines komplexen Gebildes wissenschaftlicher Diskurse, die zu einem Wissen/Macht/Justiz-Komplex miteinander verwoben sind. Mit seinen Gouvernementalitätsstudien6 entwickelt Foucault seine Machtvorstellung weiter. In ihnen wird die Kombination von Individualisierungstechniken und Totalisierungstechniken moderner Staaten thematisiert (Bröckling 2000: 19; Foucault 1987). Vor allem stellt Foucault hierbei Selbstobservationstechniken in den Mittelpunkt seiner Analysen, die er als »Technologien des Selbst« bezeichnet. Darunter ist ein individualisiertes Selbstmanagement zu verstehen, das auf (Selbst-)Aneignung und (Selbst-)Produktion von Wissen basiert. Diese Selbsttechnologien werden durch Machttechnologien an Regierungsziele geknüpft und zugleich gefördert (Bröckling 2000: 29). Die Verknüpfungen von Wissen, Macht und Subjekt sind zentrale Gegenstände von Foucaults Analysen, wobei Techniken der Observation sowie der Selbstobservation bedeutungsvolle Techniken für Wahrheits- und Wahrscheinlichkeitskonstruktionen über das Individuum und die Bevölkerung darstellen. Es stellt sich die Frage, wie und mittels welcher Messpraktiken Beziehungsnetzwerke in der epidemiologischen Forschungspraxis zum Tragen kommen.

6 | Mit der begrifflichen Kreation »gouvernementalité« diskutiert Foucault den Zusammenhang von Regierung und politischer Rationalitäten (Schulz 2006: 222f).

Epidemiologische Räume der Wissensproduktion | 123

Messprak tiken epidemiologischer Wissensproduk tion Für Bevölkerungsstudien werden eine Fülle von Daten einzelner Studienteilnehmender benötigt, die über eine lange Zeitperiode gesammelt werden. Zur Datenerhebung werden verschiedene Instrumente eingesetzt. Im Rahmen von Untersuchungen beim Studienzentrum ist der Einsatz anthropometrischer Messpraktiken Standard. Diese umfassen beispielsweise Messungen von Körpergröße, Taillen- und Hüftumfang und des Blutdrucks sowie die Berechnung des Body Mass Indexes (BMI). Darüber hinaus fi nden in den Studienzentren spezielle Untersuchungen und weitere Messungen statt wie z.B. Knochendichtemessungen. Mit dem Interesse, detaillierte Informationen über die gewohnheitsmäßige Ernährung Teilnehmender zu erhalten, werden auf der Grundlage einer Liste von Lebensmitteln oder Lebensmittelgruppen, Fragen an die Studienteilnehmenden gestellt. Diese werden durch den Einsatz von Erinnerungsprotokollen zur Ernährung am vorhergehenden Tag (»24-Stunden- Recalls«) ergänzt. Blutabnahmen dienen dem Auf bau biologischer Material- und Datenbanken. Das Lagern von Blutproben ist eine bedeutungsvolle Praxis für die Herstellung von Beziehungsnetzwerken – d.h. hier für die Verknüpfung der Informationen in der Datenbank mit an biologischem Material gemessenen Biomarkern. Außerdem spielt das Sehen für die Konstituierung der Nachbeobachtung – wie zum Beispiel für das Einscannen der Fragebögen, die Speicherung von Informationen sowie für die Kontrolle und Prüfung gesammelter Informationen über Teilnehmende – eine entscheidende Rolle. Dies erfolgt in der Nachbeobachtung bzw. an der zentralen Datenbank, durch den Einsatz von Computerprogrammen. Diese Computerprogramme sind vor allem auf Schrifterkennung ausgerichtet. Hierbei geht es vorrangig um die semantische Überprüfung der Daten. Dies beinhaltet, dass ein Computerprogramm mittels optischer und visueller Kontrolle die erhobenen Lesedaten auf ihre Konsistenz, Vollständigkeit und Plausibilität überprüft. Es wird beispielsweise anhand des Geburtsdatums oder des Geschlechts überprüft, ob es sich hierbei um den erwarteten Teilnehmer handelt. Mittels dieser Technik wird herausgefunden, inwieweit Angaben bei der Beantwortung standardisierter Fragen fehlen – beispiels-

124 | Christine Bischof

weise wenn bei Fragen ein dafür vorgesehenes Kästchen, das von Teilnehmenden angekreuzt werden soll, leer ist. Anschließend überprüft eine Mitarbeiterin der Nachbeobachtung die Fragebögen und verfolgt beantwortete oder nichtbeantwortete Fragen, erhebt diese Angaben gegebenenfalls nach und codiert diese. Die gesammelten Informationen der Studienteilnehmenden werden in verschiedenen Dateien gespeichert und entsprechend platziert. Neuerkrankungen werden beispielsweise durch den Einsatz des internationalen statistischen Klassifizierungsschlüssels von Krankheiten nach dem ›International Classification of Diseases (ICD-11 oder ICD-10)‹ codiert sowie klassifiziert. Diese Klassifi kation bedeutet, dass Tumorerkrankungen beispielsweise nach dem ICD-11-Schlüssel, entsprechend der Lokalisation der Erkrankung, einen bestimmten Code erhalten, unter dem diese Information in der Datenbank gespeichert wird. Die Klassifizierung und Standardisierung von Erkrankungen nach den Klassifizierungsschlüsseln wird aus Sicht von Medizinern international zur Erleichterung der Kommunikation und Systematisierung der Daten eingesetzt. Für die gesicherte Datenerhebung und Verifizierung medizinischer Diagnosen bestehen Kooperationen mit Gesundheitsämtern, Ärzten, Krankenhäusern und Einwohnermeldeämtern. Die Wissensproduktion in epidemiologischen Beziehungsnetzwerken beruht schließlich auf einem Zusammenspiel zwischen Mensch und Technik. Die Praxis einer kontinuierlichen Datenerhebung bedeutet für mein Fallbeispiel, der europäischen Ernährungsstudie, dass Studienteilnehmende regelmäßig, ca. alle zwei bis drei Jahre, Fragen zu aufgetretenen Erkrankungen beantworten. Außerdem werden in dem Zusammenhang auch Wiederholungsfragen zu ihrem Ernährungsverhalten und ihrem Lebensstil durchgeführt, um eingetretene Veränderungen während des Studienverlaufs festzustellen.

Die Fragebögen: Selbstobser vation Studienteilnehmender Die Fragebögen sind ein zentrales Messinstrument der Nachbeobachtung. Durch den Einsatz von Fragebögen werden persönliche Angaben von Teilnehmenden über Neuerkrankungen sowie über ihr Ernährungsverhalten und ihren Lebensstil ermittelt.

Epidemiologische Räume der Wissensproduktion | 125

Im Rahmen der Erstuntersuchungen wurden bei Studienbeginn Basisdaten von allen Teilnehmenden, die »Baseline«, auf der Grundlage eines umfassenden Fragenkatalogs erhoben. Bei den dort eingesetzten Fragebögen wird zwischen Lebensstilfragebogen und Ernährungsfragebogen unterschieden. Ausgehend davon steht bei der Nachbeobachtung insbesondere die Ermittlung von Veränderungen der Gesundheit, des Ernährungsverhaltens und des Lebensstils im Vordergrund. Häufig kommt es im Rahmen der Nacherhebung zu Wiederholungen von Fragen, die bereits während der Basisuntersuchung gestellt wurden.

Abbildung 7: Fragebögen in der Funktionsstelle Postausgang der Nachbeobachtung des DIfE (Foto: Christine Bischof, 2008) Der Fragebögen beinhalten beispielsweise Fragen zum Lebensstil, etwa zur gegenwärtigen Erwerbsarbeit, zum Gewicht (Gewichtszunahme) und über die Anzahl der im Haushalt lebenden Personen, Familienstand, Alkoholkonsum, körperliche Aktivität und Rauchen sowie zur Einnahme von Medikamenten. Die standardisierten Fragebögen enthalten dafür auszufüllende Felder, die in Form von Kästchen nebeneinander angeordnet sind. Wenn Teilnehmende ankreuzen, dass sie Medikamente einnehmen, werden sie anschließend aufgefordert, darüber eine detailliertere Auskunft zu geben. Für weitere Angaben beispielsweise zum Alkoholkonsum wird anhand einer Tabelle die Häufigkeit abgefragt und die entsprechende Portionsgröße für bestimmte aufgeführte Geträn-

126 | Christine Bischof

kearten. In der Liste alkoholische Getränke sind zum Beispiel Bier, Weißwein, Rotwein, Champagner, Likör, Cherry, Wodka und andere Getränke aufgeführt. Außerdem wird die Menge des Alkoholkonsums mittels folgender Portionen ermittelt: eine 0,5-Liter-Flasche, ein 0,25-Liter-Glas, ein 0,1-Liter-Glas usw. Fragen nach der Häufigkeit des Getränkekonsums beinhalten, ob z.B. einmal pro Monat, einmal in der Woche, mehr als zweimal pro Woche, einmal am Tag oder häufiger getrunken werde. Auf der Grundlage von persönlichen Einschätzungen der Studienteilnehmenden wird der Durchschnitt von Risiken einer Population berechnet. Im Mittelpunkt des Fragebogens der Nachbeobachtung steht die Frage nach dem Auftreten von Neuerkrankungen oder chronischen Erkrankungen, z.B. Krebserkrankungen, Herz-Kreislauf-Erkrankungen, Diabetes mellitus sowie chronische Entzündungen. Ein weiterer Teil der Fragbögen widmet sich dem Ernährungsverhalten. Die Ermittlung des Lebensmittelverzehrs und Verzehrhäufigkeiten des vergangenen Jahres stehen hierbei im Vordergrund, beispielsweise der Verzehr von Brot, Gemüse, Fleisch und Wurst, Saucen, Nudeln, Kartoffeln und Fisch. Außerdem werden Fragen zum Getränkekonsum nicht-alkoholischer Getränke wie z.B. Limonade, Saft, Kaffee oder Tee gestellt. Für Frauen gibt es einen zusätzlichen Fragebogen mit Fragen z.B. zu Schwangerschaften, Einnahme der Antibabypille, Menopause oder auch Unterleibsoperationen. Darüber hinaus enthalten die Fragebögen weitere spezifische Teile etwa zu familiären Erkrankungen oder zur Zahngesundheit. Die Mehrheit der Fragen sind standardisiert und geschlossene Fragen. Offene Fragen betreffen vor allem Angaben über einige Neuerkrankungen (für die eine genaue Bezeichnung, z.B. der Name einer Erkrankung wie bei Krebserkrankungen wichtig ist), Ernährungsumstellungen, Medikamenteneinnahme oder auch Fragen zur körperlichen Aktivität, insbesondere Fragen zu Sportarten. Für die Beantwortung von Fragen werden in der Abteilung der Nachbeobachtung Praktiken des Sehens, des Lagerns und des Platzierens eingesetzt. Auch die Studienteilnehmenden setzen diese Praktiken bei der Selbstbeobachtung ein, die ein hohes Reflexionsvermögen sowie eine intensive Auseinandersetzung mit der eigenen Körpergesundheit zur Wissensproduktion vo-

Epidemiologische Räume der Wissensproduktion | 127

raussetzt. Diese Ausfüllpraktiken der Fragebögen bedeuten Wahrheits- und Wahrscheinlichkeitsproduktionen durch den Einsatz von »Technologien des Selbst«, die eine »Selbstführung« in der Herstellung von Wissen über Gesundheit, Ernährung und Körper bedeuten. Diese Selbstführung drückt sich bei der Gruppe der Mitwirkenden7 beispielsweise in einem hohen Maß an Selbstdisziplin aus. Diese Selbstdisziplin zeigt sich u.a. daran, dass ca. 50-60 Prozent von der Gruppe, der »aktiv Teilnehmenden«8, die Fragebögen spontan, ohne Erinnerungsmaßnahmen, durch das Studienzentrum ausgefüllt zurücksenden. Ein weiterer Teil (ca. 35-45 Prozent) wird ein oder mehrere Male an die Zurücksendung der Fragebögen erinnert. Diese Studienteilnehmenden erfüllen damit die Anforderungen und Erwartungen der Forschungseinrichtung. Außerdem gibt es die Kategorie der Nicht-Antworter, die den Anforderungen des Studienzentrums nicht regelmäßig nachkommen. Ein Teil dieser Gruppe sind notorische Nicht-Antworter, die als »passiv Teilnehmende« kategorisiert werden. Bei dieser Gruppe kommt es aus recht unterschiedlichen Gründen, zum Beispiel auf Grund von Krankheit, Alter, Umzug, persönlichen Gründen oder auch fehlender Motivation, zu einer kontinuierlichen Nicht-Beantwortung der Fragen des Studienzentrums. Vor dem Hintergrund werden intensive Erinnerungsaktivitäten wie telefonische Kontaktaufnahmen und Erinnerungsbriefe von der Funktionsstelle Telekommunikation der Nachbeobachtung durchgeführt (Latza at al. 2004: 332). Es stellt sich jedoch die Frage, welche Perspektiven Studienteilnehmende auf diese Verfahren der Wissensgewinnung und auf den Einsatz standardisierter Messinstrumente haben. Welche Erfahrungen machen die Teilnehmenden mit der Beantwortung der Fragen? Folgende Perspektiven Teilnehmender basieren auf empirischen Materialien, die im Rahmen einer qualitativen sozialwis7 | Bei meinem Fallbeispiel werden die Studienteilnehmenden entsprechend ihres Verhaltens kategorisiert. Die »aktiven Studienteilnehmenden« stellen eine Gruppe von Teilnehmenden dar, die bereit ist, die Fragebögen auszufüllen und zurückzusenden. 8 | Auf Grund eines guten Gesundheitszustands müssen die »aktiven Studienteilnehmenden« auch weniger Fragen im Fragenkatalog beantworten.

128 | Christine Bischof

senschaftlichen Begleitforschung im Rahmen der Forschungskooperation erhoben wurden. In diesem Rahmen wurden ca. 20 qualitative Interviews9 mit Studienteilnehmenden der europäischen Ernährungsstudie (bzw. einer Substudie zur körperlichen Aktivität) durchgeführt und ebenso mit allen Mitarbeiterinnen aus der Arbeitsgruppe Nachbeobachtung. Außerdem konnten Protokolle aus teilnehmender Beobachtung zur Auswertung herangezogen werden. Das Material wurde im Zeitraum März/April 2008 erhoben.

Aneignungsprozesse und Perspek tiven Teilnehmender Die Studienteilnehmenden beschreiben ihre Erfahrungen mit der Beantwortung standardisierter Fragen recht unterschiedlich. Der Umfang der Fragebögen variierte bei der europäischen Studie innerhalb der vergangenen 10 Jahre zwischen 27 DINA4-Seiten oder 12- DIN-A4 Seiten. Mit dem Interesse, eine hohe Rücklaufrate (Response)10 zu erzielen, wurde der Umfang der Fragebögen in den vergangenen Jahren verringert. Die Gruppe der »aktiv Teilnehmenden« hat eine sehr positive Haltung zur Studienteilnahme. Diese Gruppe beschreibt in den Interviews den Erhalt der Post vom Forschungsinstitut teilweise als eine Freude und sie betonen, dass sie Spaß am Ausfüllen der Fragebögen gehabt hätten. Für diese Gruppe ist die Beantwortung der Fragen relativ problemlos und wird als ohne hohen Zeitaufwand beschrieben (Interview 2: 2008). Alle Interviewten heben hervor, dass die Fragebögen »nach bestem Wissen und Gewissen ausgefüllt werden« und »die Wahrheit« darin festgehalten werde. Zugleich problematisieren Teilnehmende, »was die Wahrheit überhaupt sei?« (Interview 6: 2008). Die Befragten machen ferner auf ihre Schwierigkeiten bei der Beantwortung der Fragen aufmerksam, die vor allem Fragen nach der Verzehrhäufigkeit oder dem Getränkekonsum betreffen. Als 9 | Die Interviews hatten eine Dauer zwischen 0,5 und 1,5

Stunden. 10 | Der Begriff Response bezeichnet die Bereitschaft von Studienteilnehmenden aus der Studienpopulation zur Teilnahme an der Studie (Latza et al. 2004: 328).

Epidemiologische Räume der Wissensproduktion | 129

Hauptschwierigkeit wird dabei genannt, »genaue« und »detaillierte« Angaben zu machen, die sich rückblickend auf den Zeitraum eines ganzen Jahres beziehen (Interview 6, Interview 8: 2008). Die Interviewten weisen darauf hin, dass sich nach einer so langen Zeitspanne nicht mehr so »detailliert« erinnern können, wie oft oder wie viel Fleisch, Obst oder Gemüse sie beispielsweise im Durchschnitt des vergangenen Jahres gegessen oder welche Getränke etwa alkoholischer Art sie durchschnittlich wie häufig getrunken haben. Eine Folge davon ist, dass die Befragten diese Fragen eher »gefühlsmäßig« beantworten (Interview 8: 2008). Diese genannten Schwierigkeiten der interviewten Teilnehmenden – die persönliche Einschätzung von Häufigkeiten beim Essverhalten und beim Getränkekonsum über einen langen Zeitraum – werden in der epidemiologischen Forschung als »Messfehler« bezeichnet und untersucht. Für eine große Anzahl von Wissenschaftlern u.a. aus der Ernährungsepidemiologie stellen Messfehler ein zentrales Forschungsthema dar. Durch den Einsatz verschiedener epidemiologischer Methoden versuchen Epidemiologinnen eine Verbesserung in der Erhebung von Ernährungsdaten zu erzielen. Zur Verbesserung werden zum Beispiel unterschiedliche Informationsquellen für die Erhebung von Daten eingesetzt. In dem Zusammenhang sind beispielsweise die Erinnerungsprotokolle (»24-Stunden-recalls«) zu erwähnen, durch die einen ganzen Tag lang genauere Angaben über das Ernährungsverhalten ermittelt werden. Diese Protokolle werden für die wissenschaftliche Berechnung von Risiken zu den Ergebnissen der Fragebögen hinzugerechnet. Ein weiteres Beispiel ist die »Kalibrierungsstudie«, bei der anhand bestimmter Kriterien eine Vergleichbarkeit erhobener Daten aus verschiedenen europäischen Ländern ermöglicht wird. Eine Weiterentwicklung epidemiologischer Methoden durch den Einsatz qualitativer Methoden würde sich ebenso anbieten, insbesondere weil die Interviewten nicht nur ihre Schwierigkeiten bei der Selbsteinschätzung problematisieren, sondern darüber hinaus den Einsatz standardisierter Fragen thematisierten. Diese Standardfragen würden den Interviewten zufolge, vor allem bezogen auf das Ernährungsverhalten und den Getränkekonsum, keinen Platz für »Unregelmäßigkeiten« zulassen und sich ihrer Ansicht nach im Alltag »eine Menge Abweichungen« und »Unregelmäßigkeiten« zeigen, z.B. auf Grund von Feierlich-

130 | Christine Bischof

keiten wie Geburtstagsfeiern oder Hochzeiten etc. (Interview 9, 2008: 132). Der Alltag sei vielmehr von einer Heterogenität der Ernährung und Lebenspraxen gekennzeichnet, die eine Studienteilnehmende am Beispiel des Verzehrs von Süßigkeiten in folgender Weise beschreibt: »Ich kann mal, wenn ich so im Stress bin, eine ganze Tafel Schokolade abends essen und dann ist wieder einen Monat lang Ruhe« (Interview 7, 2008: 86). Vor dem Hintergrund, dass Lebensstil und Ernährungsverhalten im Alltag heterogener verlaufen als dies Gegenstand der Fragebögen sei, problematisieren Interviewpartner den Einsatz standardisierter Fragen sowie dass dadurch individuelle Unterschiede des Ernährungsverhaltens und der Lebensstile für die Berechnung von Risikoabschätzungen durch die Fragebögen gar nicht erst erhoben würden. Folgen und Effekte davon sind, dass die Befragten ihre heterogenen Lebensstile und ihr Ernährungsverhalten den standardisierten Fragen anpassen und, wie es Teilnehmende ausdrücken, »eintakten« (Interview 6, 2008: 121), um ihre Lebenspraxen »auf einen statistischen Mittelwert zu bringen« (Interview 7, 2008: 88). Das heißt, bei den Befragten lässt sich teilweise bezogen auf ihre Angaben im Fragebogen schließlich eine Anpassung an die Standards epidemiologischer Wissensproduktion sowie eine Aneignung dessen erkennen. Durch standardisierte Beobachtungs- und Messpraktiken findet eine Selbst-Klassifizierung und auch Selbst-Normierung des Verhaltens statt (Schulz 2006: 277). Effekte sind eine Homogenisierung individueller Angaben, die als Grundlage epidemiologischen Wissens dienen und die zugleich eine Unsichtbarmachung von alltäglicher Heterogenität in den Lebens- und Ernährungspraxen der Bevölkerung zur Folge haben.

Resümee In Anlehnung an Foucaults Raumvorstellungen wurden epidemiologische Räume als Beziehungsnetzwerke analysiert, in denen am Beispiel der Nachbeobachtung ein Wissen in Form von Erkrankungsrisiken über Bevölkerungen durch das Unterteilen, Anordnen und Abschließen von Räumen und ebenso durch das Klassifizieren hergestellt wird. Diese Räume werden durch verschiedene Beobachtungspraxen – des Sehens, Lagerns und

Epidemiologische Räume der Wissensproduktion | 131

Platzierens – konstituiert. Im Zentrum epidemiologischer Wissensproduktion befindet sich die elektronische Datenbank, mit der auf diese Weise repräsentative performative Identitäten einer Bevölkerung produziert werden. Fragebögen wurden hier als ein zentrales Datenerhebungsinstrument der Nachbeobachtung konkreter erörtert. Auf Grund der Wissensproduktion mittels standardisierter Messpraktiken, lassen sich verschiedene Effekte erkennen: Aus der Perspektive von Studienteilnehmenden wurden einerseits Unsicherheiten genannt, die die Beantwortung der Fragen und insbesondere ihr Ernährungsverhalten betreffen. Diese Daten, die aus der Beantwortung der Fragebögen hervorgehen, sind jedoch grundlegend für die Berechnungen von gesundheitlichen Risiken einer Population. Andererseits problematisieren Teilnehmende an dem Einsatz vorwiegend standardisierter Fragen, dass alltägliche Unregelmäßigkeiten und somit die Heterogenität des Ernährungsverhaltens für die Durchschnittsberechnung von Erkrankungsrisiken fehlen. Anstatt Differenzierungen des Ernährungsverhaltens aufzugreifen, lassen sich als Effekte des Einsatzes standardisierter Messpraktiken bei den Teilnehmenden vielmehr Anpassungen an die vorgegebenen Standards epidemiologischer Wissensproduktion erkennen, die Kategorisierungen sowie (Selbst-)Normierungen des Ernährungsverhaltens von Studienteilnehmenden beinhalten. Dem Problem der Erhebungsdaten widmet sich eine große Anzahl von Epidemiologen, die eine Verbesserung im Hinblick auf Messfehler anstreben. In dem vorliegenden Beitrag wurden insbesondere Sichtweisen und Perspektiven von Studienteilnehmenden auf diese Art standardisierter epidemiologischer Wissensproduktion am Beispiel der Fragebögen thematisiert und damit einhergehende Effekte dargelegt. Diesen Untersuchungsergebnissen zufolge würde sich eine Weiterentwicklung des Fragenkatalogs mittels – qualitativer und verstärkt offenen Fragen – anbieten, um der Heterogenität des Ernährungsverhaltens und Lebensstils im Alltag ebenfalls gerechter zu werden. In epidemiologischen Beziehungsnetzwerken der Nachbeobachtung wird durch unterschiedliche Akteure – sowohl durch die Teilnehmenden wie auch die Durchführenden – in unterschiedlichen Räumen durch Praktiken der Beobachtung und Datenerhebung Wissen hergestellt. Obwohl die Auswertung der Daten nicht in der Nachbeobachtung, sondern in innerhalb der Abteilung Epidemiologie stattfindet, stellen diese Räume

132 | Christine Bischof

einen Teil der Beziehungsnetzwerke epidemiologischer Wissensproduktion dar. Denn für die Berechnungen von Erkrankungsrisiken bilden diese bereits standardisierten und klassifi zierten Daten der Nachbeobachtung die Grundlage. Neben dem Einsatz standardisierter Messpraktiken, bestimmter Messinstrumente und bestimmter Technologien sind es »Technologien des Selbst«, durch die ein performatives Wissen als Risikoeinschätzung hergestellt wird. Dadurch werden »performative Identitäten« (Butler 1991) der Studienpopulationen produziert, die zukunftsweisende und letztendlich performative Risikoeinschätzungen für Europa hervorbringen.

Danksagung Diese Erhebung ist durch die Kooperation mit dem »Deutschen Institut für Ernährungsforschung« (DIfE) entstanden. Dem DIfE danke ich für die Möglichkeit des Zugangs zu den Studienteilnehmenden und allen Mitarbeiterinnen der Nachbeobachtung und darüber hinaus für die zur Verfügung gestellten Materialien.

Literatur Armstrong, David (1995): »The rise of surveillance medicine«. In: Sociology of Health & Ilness 17/3, S. 393-404. Bauer, Susanne/Olsén, Jan Eric (2009): »Observing the Others, Watching Over Oneself. Themes of medical surveillance in post-panoptic society«. In: Surveillance & Society 6 (2), S. 116-127. Bergmann, Manuela/Boeing, Heiner (2001): »Datenschutz – ein Hemmschuh für prospektive Studien? Lösungswege am Beispiel einer Kohortenstudie«. In: Gesundheitswesen 63 (Sonderheft 1), S. 13-17. Boeing, Heiner/Korfmann, Andrea/Bergmann, Manuela (1999): »Recruitment Procedures of EPIC-Germany«. In: Nutrition & Metabolism 43, S. 205-215. Bröckling, Ulrich/Krasmann, Susanne/Lemke, Thomas (Hg.) (2009): Gouvernementalität der Gegenwart. Studien zur Ökonomisierung des Sozialen, Frankfurt a.M.: Suhrkamp.

Epidemiologische Räume der Wissensproduktion | 133

Bosk, Charles L. (2001): »Irony, Ethnography and Informed Consent«. In: Barry Hoffmeister (Hg.), Bioethics in Social Context, Philadelphia: Temple University Press, S. 199-220. Butler, Judith (1991): Das Unbehagen der Geschlechter, Frankfurt a.M.: Suhrkamp. Butler, Judith (1995): Körper von Gewicht, Berlin: Berlin Verlag. Foucault, Michel (1976): »Leben machen und Sterben lassen. Die Geburt des Rassismus«. In: Sebastian Reinfeldt/Richard Schwarz (Hg.), Bio-Macht, DISS-Texte 25, Duisburg: Duisburger Institut für Sprach- und Sozialforschung, S. 27-52. Foucault, Michel (1991): »Andere Räume«. In: Martin Wentz (Hg.), Stadt-Räume, Frankfurt/New York: Campus, S. 6672. Foucault, Michel (1992): Der Wille zum Wissen, Frankfurt a.M.: Suhrkamp. Foucault, Michel (1994): Überwachen und Strafen. Die Geburt des Gefängnisses, Frankfurt a.M.: Suhrkamp. Foucault, Michel (1993): »Technologien des Selbst«. In: Luther H. Martin/Huck Gutman/Patrick Hutton (Hg.), Technologien des Selbst, Frankfurt a.M.: Suhrkamp, S. 42-62. French, Martin A. (2009): »Woven of War-Time Fabrics. The globalisation of public health«. In: Surveillance & Society 6 (2), S. 101-115. Harmann, Graham (2009): Prince of Networks. Bruno Latour and Metaphysics, Melbourne: re.press. Last, John M. (2001): A dictionary of epidemiology, New York: Oxford University Press. Latour, Bruno (2005): Reassambling the Social. An Introduction in the Actor-Network-Theory, Oxford: Oxford University Press. Latour, Bruno (1987): Science in Action. How to Follow Scientists and Engineers through Society, Cambridge Massachusetts: Harvard University Press. Löw, Martina (2001): Die Raum-Soziologie, Frankfurt a.M.: Suhrkamp. Lemke, Thomas (2007): Gouvernementalität und Biopolitik, Wiesbaden: VS Verlag für Sozialwissenschaften. Mol, Annemarie (2008): »I Eat An Appple. On Theorizing Subjectivities«. In: Subjectivity 22, S. 28-37.

134 | Christine Bischof

Poster, Mark (1990): The Mode of Information. Poststructuralism and Social Context, Chicago: University of Chicago Press. Rabinow, Paul (2004): Anthropologie der Vernunft. Studien zu Wissenschaft und Lebensführung, Frankfurt a.M.: Suhrkamp. Schultz, Susanne (2006): Hegemonie – Gouvernementalität – Biomacht. Reproduktive Risiken und die Transformation internationaler Bevölkerungspolitik, Berlin: Westfälisches Dampf boot. Star, Susan Leigh/Griesemer, James R. (1989): »Institutional Ecology, ›Translations‹ and Boundary Objects. Amateurs and Professionals in Berkeley’s Museum of Vertebrate Zoology, 1907-39«. In: Social Studies of Science 19, S. 387-420.

Nahrung als E xposition. Epigenetik der Ernährung und die Molekularisierung der Umwelt Hannah Landecker

Wie Nahrung produziert, technisch gestaltet, konsumiert, beschrieben, vermarktet und erforscht wird, ist heute in einem tiefgehenden Wandel begriffen. Gleichzeitig damit verändert sich auch die Beziehung der Biomedizin zur Nahrung. Zusammen genommen sind es enorme Anstrengungen und Mittel, die in die Erforschung des Verhältnisses zwischen Ernährung und Diabetes, metabolischem Syndrom, Adipositas, Herz-Kreislauf-Erkrankungen, Krebs, Genregulation, Altern und Hormonen fließen. Dem gesamten Themengebiet kommt der Status einer deutlichen sozialen und kulturellen Priorität, wenn nicht einer Obsession zu. Der vorliegende Artikel ist ein Beitrag zur sozialwissenschaftlichen Untersuchung der derzeit entstehenden biomedizinischen Kultur des Stoffwechsels – der Schnittstelle zwischen Nahrung und Körper. Beim Stoffwechsel geht es weder um die Nahrung noch um den Körper per se, sondern um deren dynamische Wechselwirkung. Eine Biologie des Metabolismus muss daher gleichzeitig nach innen wie auch nach außen orientiert sein. Somit ist sie auch der Ort, an dem Gesellschaft und Kultur ›verdaut‹ und biologisch transformiert werden, ebenso wie die Nahrungs-Umwelten von Menschen und Tieren sozial und kulturell geformt sind. Dieser Artikel fokussiert eine der Nischen derzeitiger Metabolismusforschung und zwar ein wissenschaftliches Gebiet na-

136 | Hannah Landecker

mens Epigenetik der Ernährung (»nutritional epigenetics«). Die Epigenetik der Ernährung untersucht, wie Nahrung als ›epigenetischer‹ oder außer-/über-genetischer Faktor bei der Regulation von Gen-Expression mitwirkt; dieses Forschungsfeld ist insbesondere an der Frage interessiert, wie sich Nährstoffe auf die Regulation der Gen-Expression bei Krebs und metabolischen Störungen auswirken. Obwohl diese wissenschaftliche Entwicklung bereits an und für sich interessant ist, dient sie in dieser Analyse als ein Schauplatz, an dem ein entstehender Diskurs zu Ernährung als einer Form der Umweltexposition spezifiziert und charakterisiert werden kann – ein Phänomen, das weit breiter ist als die Epigenetik der Ernährung selbst, hier jedoch in einer besonders konzentrierten Form anzutreffen ist. Das Verständnis und die Manipulation von Nahrung als Exposition manifestiert sich in den Experimenten zur Wechselwirkung zwischen Nahrung und Genen sowie in der Popularisierung der Ergebnisse dieser Experimente. Mein Schwerpunkt liegt auf der experimentellen Formalisierung der Umwelt in diesen Forschungsfeldern. Wenn Genexpression in der Epigenetik als durch Umweltfaktoren, die auf genetische Regulationsmechanismen wirken, veränderbar angenommen wird – dann muss die experimentelle Struktur bestimmte Praktiken und Konzepte enthalten, welche ›Umwelt‹ als Teil dieses Systems formalisieren. Da Ernährung in diesem spezifischen Forschungsfeld der Schlüsselfaktor von ›Umweltfaktoren‹ ist, steht hier Ernährung in der Dyade der ›Gen-Umwelt-Interaktionen‹ für Umwelt insgesamt. Die Ergebnisse aus diesen hoch-spezifischen experimentellen Konfigurationen werden von Wissenschaft und Öffentlichkeit als Befunde über Umwelteinflüsse auf genetische Prozesse rezipiert. Einige der umfassenderen Fragen, die diese Studie motivieren, sind folgende: Welche Umwelt ist es, die in genetischen Labors als kausales Agens und Förderungsmotiv wieder aufscheint? Wie wird – nach einer so starken Phase des Reduktionismus und der Molekularisierung am Ende des 20. Jahrhunderts – die postgenomische Umwelt genutzt, imaginiert und erforscht?

Nahrung als Exposition. Epigenetik und Molekularisierung | 137

Epigenetisches Denken Bevor die Experimente zur Epigenetik der Ernährung näher erkundet werden, ist eine kurze Einführung in ihre wissenschaftlichen Grundlagen und ihre Logik erforderlich. Die Epigenetik der Ernährung ist nur eine Nische des weit grundlegenderen Phänomens innerhalb der Biologie, das unter der Bezeichnung Epigenetik firmiert. Epigenetik wird häufig als die Untersuchung vererbbarer Veränderungen der Genexpression, die ohne Veränderungen der Gensequenz stattfinden, definiert; die Betonung liegt auf ›epi‹ – auf ›über‹ der Ebene genetischer Sequenzen angesiedelten Faktoren, die beeinflussen, welche Gene an- oder abgeschaltet sind (Allis et al. 2007). Alternativ dazu wurde eine Definition über die »strukturelle Anpassung chromosomaler Regionen, um damit veränderte Aktivitätszustände zu registrieren, zu signalisieren oder aufrecht zu erhalten« (Bird 2007: 398) vorgeschlagen, um Vererbung in der Epigenetik nicht auf Mitose oder Meiose beziehen zu müssen. Wie bei vielen anderen Begriffen in der Biologie unterliegt die Definition des Begriffs der Epigenetik selbst aktiver Konstruktion; die Debatte darüber, was der Begriff selbst umfassen soll, ist Teil dessen was das Feld wesentlich ausmacht. Mein Fokus liegt hier auf Wissenschaftlern, die komfortabel innerhalb einer solchen entschieden molekularen Version der Epigenetik arbeiten – hierbei geht es darum, Mechanismen der Genregulation im Sinne von Wirkungen und Bewegungen bestimmter Moleküle in der Zelle festzumachen. Mein Ziel ist es nicht, die exakte Definition der Epigenetik in Frage zu stellen, sondern die Arbeit, die unter der Flagge der Epigenetik verrichtet wird, zu charakterisieren: Diese ist entweder als molekularbiologische Arbeit auf Moleküle, welche die Genexpression kontrollieren, ausgerichtet oder sie untersucht als epidemiologische Arbeit, welche Ernährungszustände beim Menschen mit im Erwachsenenalter auftretenden Erkrankungen korrelieren, wobei dazwischen ein molekularer Mechanismus hypothetisiert wird. Ein großer Teil der experimentellen Arbeiten in der Ernährungsepigenetik wird mit ausschließlich im Labor durch Inzucht vermehrten Mauspopulationen sowie über die Messung der Methylierungsgrade bestimmter Teile ihrer idiosynkratischen Genome durchgeführt. Beispielsweise gibt es im AgoutiMaus-Modell ein Retrotransposon – ein Stück DNA – das in die

138 | Hannah Landecker

Promoter-Region des Gens, welches für das Agouti-Signalprotein kodiert, eingefügt ist (Bultmann et al. 1992). Retrotransposons sind fremde Stücke genetischen Materials, die permanent und vererbbar in das ›Wirts‹-Genom eingefügt werden; die Agouti-Maus weist zufällig ein solches Stück DNA in einem Abschnitt auf, der nicht für das Agouti-Protein kodiert, sondern kontrolliert ob das Gen selbst exprimiert ist. In den meisten Genomen bei Tieren und Menschen ist die Retrotransposon-DNA eher stark methyliert; das heißt, dass an die Cytosin-Reste (C in der ATCG Sequenz) ein zusätzliches Kohlenstoff- sowie drei Wasserstoffatome (also eine Methylgruppe: CH3) angehängt sind. Diese kleinen Methyl-›Anhänge‹ machen die DNA für die gesamte zelluläre Maschinerie, die den Aufbau von RNA und Proteinen innerhalb der codierenden Region des Gens antreibt, weniger zugänglich; stark methylierte Bereiche des Genoms sind also ›abgeschaltet‹. Im Fall der Retrotransposons macht Methylierung auch evolutionär durchaus Sinn; ein Weg mit fremder DNA, die ins Genom eingefügt ist, umzugehen ist, sie außer Gefecht zu setzen, damit sie das vorher Vorhandene nicht beeinträchtigt. Im Fall der Agouti-Maus bedeutet die Abschaltung der Retrotransposon-Region – auf Grund der Platzierung der fremden DNA in der regulierenden Genregion – auch, das assoziierte Gen abzuschalten und damit den Verlust der Produktion des Agouti-Proteins. Umgekehrt verursacht ein Mangel an Methylierung eine anormale Expression über den gesamten Mauskörper, in einem erhöhten Umfang und auch in Zellen, wo dies normalerweise nicht auftritt. Das Agouti-SignalProtein beeinflusst sowohl die Fellfarbe als auch wie dick eine Maus ist: Mäuse mit hohen Methylierungsgraden und geringer Agouti-Proteinproduktion sind dünn und braun, während Mäuse mit niedrigem Methylierungsgrad und hoher Agouti-Proteinproduktion dick und gelb sind. Ein Grund, dass diese Mäuse als so passende Modelle für den Menschen gelten, ist, dass sie nicht nur übermäßig schwer sind, sondern auch Typ-2-Diabetes entwickeln und eine Prädisposition für Tumore haben. Die Würfe der Agouti-Mäuse sind einander genetisch sehr ähnlich, da sie über Generationen nur untereinander weitergezüchtet wurden. Das bedeutet, dass Geschwister in Bezug auf Gensequenz gleich sind, epigenetisch aber sehr unterschiedlich, mit verschiedenen Methylierungsgraden, sein können. Diese genetisch identischen, jedoch epigenetisch verschiede-

Nahrung als Exposition. Epigenetik und Molekularisierung | 139

nen Mäuse unterscheiden sich grundlegend in ihrem Phänotyp – wie sie aussehen und wie schwer sie sind. Also tragen sie offensichtliche makroskopische Zeichen dessen, was auf molekularer Ebene auf ganz bestimmten Teilen des Genoms passiert; diese Maus-Modelle wurden als ›epigenetische Biosensoren‹ bezeichnet; ihre äußere Erscheinung kann visuell auf ihren inneren molekularen Zustand hin ›gelesen‹ werden (Dolinoy 2008). Gelb und schwer ›entspricht‹ einer niedrigen Methylierung des Gen-Promotors; braun und leicht ›entspricht‹ einer hohen Methylierung. Diese Lesarten können bestätigt werden, indem man Maus-DNA extrahiert und den Methylierungsgrad am Agouti-Gen durch eine spezielle Methode der Re-Sequenzierung, welche zum Zweck der Aufdeckung von methylierten Cytosin-Residuen modifiziert wurde, misst. Mit diesen ›epigenetischen Biosensoren‹ können verschiedene Ernährungsweisen bezüglich ihrer Methylierungs- und Genexpressionseffekte auf eine hochkontrollierte Weise getestet werden. So werden diese Maus-Modelle genutzt, um Ernährungsweisen zu testen, die entweder hoch oder niedrig im Gehalt bestimmter Nährstoffe sind, welche Methylgruppen für den Methylierungsprozess liefern: Folsäure, Betain, Cholin, Methionin. Wie dann möglicherweise vorhersagbar ist, führt an schwangere Mäuse verfüttertes Essen, das mit diesen Nährstoffen angereichert ist, zu Nachwuchs, der dünner und brauner ist (Waterland/Jirtle, 2003). Diese Nachkommen zeigen am Agouti-Promotor höhere Methylierungsgrade als der Nachwuchs von Mäusen, die normale oder methylarme Nahrung bekommen haben. Der gleiche Effekt zeigt sich auch für andere Gene, insbesondere für den IGF-2 Locus – ein wegen seiner Assoziation mit Diabetes viel untersuchter genetischer Abschnitt. In diesem Fall wird IGF-2 untersucht, indem die Methylgruppengeber in der Nahrung der Mäuse direkt nach der Geburt – in den ersten 60 Lebenstagen – variiert wird (Waterland et al. 2006). Niedriger Methylgruppengehalt in der Nahrung führt zu weniger Methylierung. Wichtig ist, dass die Methylierungsmuster und damit die Genexpression, die in utero oder im Säuglingsalter gesetzt wurde, sich nicht verändern, wenn der Inhalt der Nahrung später im Leben geändert wird; die Muster sind gesetzt und bleiben so über das ganze Leben des Tiers erhalten, selbst wenn die Nahrung später dahingehend verändert wird, dass diese Nährstoffe ausreichend vorhanden sind. Andere Nährstoffe scheinen

140 | Hannah Landecker

sich auch auf Methylierung auszuwirken, beispielsweise der Sojabestandteil Genistein. Die Fähigkeit, mit Nahrung die Genexpression und damit den Phänotyp zu manipulieren, ist der erste bemerkenswerte Befund dieses Maus-Modell-Systems. Insgesamt beinhaltet die grundlegende Logik der Ernährungs-Epigenetik, dass die äußere Umwelt – in diesem Fall die Art und Quantität der von Mauseltern oder Jungtieren zu sich genommenen Nahrung – die innere Konstitution der Maus auf molekularer Ebene verändert. Dabei geht es nicht um eine Mutation – es liegt keine Änderung der genetischen Sequenz vor – sondern um eine Veränderung im Potential der Genexpression in Form von Proteinprodukten im Körper. Die Moleküle in der Nahrung beeinflussen die Art und Zahl der Moleküle an der DNA und diese wirken sich auf die Art des Körpers aus, den ein Organismus hat. Wichtig hier ist, dass der Körper als anders reguliert gesehen wird – also als ein Körper, der Nahrung über die molekularen Einstellungen des metabolischen System unterschiedlich verarbeitet, um es in der Programmiersprache auszudrücken, die in diesem Feld üblich ist. Wir haben schon immer gewusst, dass sich Ernährung auf Physiologie auswirken kann; allerdings unterscheidet sich diese Art, über Verdauung und den Körper zu denken von den üblichen Logiken des »Du bist was Du isst«. Es geht hier nicht um das gewohnte Berechnen, ob man viel oder wenig isst oder darum, Nahrungsmittel zu vermeiden, die Arterien verstopfen oder Zähne zerfallen lassen. Es geht nicht um Nahrung, die als Fett akkumuliert oder als Energie ›wegverbrannt‹ wird. Es geht vielmehr um die Systeme selbst, die Nahrung verstoffwechseln; beispielsweise kann die An- oder Abwesenheit von Nährstoffen im Körper dazu führen, dass Verdauungsorgane aus unterschiedlich vielen Zellen aufgebaut sind oder der Körper über mehr oder weniger Rezeptoren für Hormone verfügt. So haben Experimente, in denen Nahrung mit Proteinmangel an schwangere Ratten verfüttert wurde, gezeigt, dass der Nachwuchs dieser Ratten geringere Methylierungsgrade und damit mehr Expression des Glucocorticoid-Rezeptor-Gens in der Leber zeigt, was durch eine Serie molekularer Kaskaden die Fähigkeit der Tiere, Glucose abzubauen beeinflusst und an der Entwicklung von Insulinresistenz beteiligt sein kann (Burdge et al. 2007). Die Hypothese ist, dass veränderte Genexpression zu solchen Veränderungen – wie etwa mehr Zellen oder weni-

Nahrung als Exposition. Epigenetik und Molekularisierung | 141

ger Rezeptoren – führen kann; dies würde also Unterschiede im physiologischen Potential bei der Reaktion auf die gleiche Umwelt bedeuten. Ergebnisse dieses noch im Entstehen begriffenen Feldes der Ernährungsepigenetik legen also nahe, dass frühe Ernährungsumwelten – ob in utero, in vitro oder im Säuglingsalter – die Spannweite der Möglichkeiten für Genexpression im Leben eines Organismus und möglicherweise seiner Nachkommen setzen können. Der Begriff ›Möglichkeitsspannweite‹ ist ein wichtiger Teil dieses Modells, wobei das Argument recht subtil ist: Der exakte Grad der Genexpression ist nicht notwendigerweise festgelegt; möglicherweise unterscheidet sich – auf Grund epigenetischer Faktoren – der oberste und unterste Parameter der Expression von Organismus zu Organismus. Dies ist ein Modell, in welchem Nahrung den Körper betritt und ihn in gewissem Sinn nie verlässt, da die Nahrung den Organismus selbst genauso transformiert wie der Organismus die Nahrung. Daher kann man von Epigenetik als einem Modell dafür sprechen, wie soziale Dinge – Essen insbesondere – den Körper betreten, verdaut werden und, indem sie den Stoff wechsel formen, Teil des Körpers-in-der-Zeit werden – nicht indem sie Knochen und Gewebe auf bauen, sondern dadurch, dass sie eine Prägung auf einem dynamischen körperlichen Prozess hinterlassen. Diese Befunde implizieren, dass beim Menschen ein umfangreicher sozialer Wandel auch zu umfangreichen, populationsweiten, vererbbaren physiologischen Veränderungen durch das Medium Nahrung führen kann – sowie dass diese Veränderungen nachverfolgt und kartiert werden können. Medienwirksame epidemiologische Befunde zeigen, dass Nahrungsverfügbarkeit mit erhöhtem Krankheitsauftreten bei Männern, deren Vorfahren eine Hungersnot oder eine Zeit des Überflusses erfahren haben, korreliert – »Du bist, was Dein Großvater aß« (Kaati et al. 2002). Forscherinnen nutzten detaillierte Ernteaufzeichnungen des späten 19. und frühen 20. Jahrhunderts aus Nordschweden, um die Nahrungsverfügbarkeit damaliger Heranwachsender mit der Lebensspanne ihrer Enkel zu korrelieren und fanden, dass Knappheit während der so genannten ›langsamen Wachstumsphase‹ kurz vor der Pubertät des Großvaters mit einer Langlebigkeit der Enkel im Zusammenhang stand, während Überfluss in dieser Phase mit einer kürzeren

142 | Hannah Landecker

Lebensspanne assoziiert war. Diese Ergebnisse wurden später ergänzt durch einen deutlichen Zusammenhang zwischen der reichen Ernte in einer Generation und einer hohen Sterberate an Diabetes bei deren männlichen Enkeln (Pembrey 2002). Dagegen wurde bei Frauen, deren Großmütter nur über eine begrenzte Nahrungsversorgung im Alter von 0-3 Jahren verfügten, ein starker Anstieg der Mortalität festgestellt (Pembrey et al. 2006). Es wird angenommen, dass die biologische Basis für die Vererbung der physischen Manifestationen jener von entfernten Vorfahren erfahrenen externen Bedingungen, folgende im Labor erarbeiteten epigenetischen Mechanismen sind: Veränderungen in den Molekülen, die am DNA-Strang hängen, ordnen die physische Konfiguration der Chromosomen, auf denen die Gene liegen, oder wirken auf der Ebene der kleinen RNA-Moleküle, welche die Genexpression verhindern. Das Gen bleibt dasselbe aber sein Expressionspotential in der Lebenszeit des Individuums verändert sich und dieses Expressionsmuster ist erblich. Da erhöhte Nahrungsaufnahme oder Mangel an Nahrung die molekulare Kontrolle der DNA verändern kann, so die Hypothese, kann das Ernährungsmilieu von Mutter, Vater, Fötus und Kleinkind sich darauf auswirken, welche Gene bei der Generierung des Phänotyps des Kindes exprimiert sind und welche ›still gelegt‹ sind. Eine weitere Quelle epidemiologischer Evidenz beim Menschen, welche mit molekularbiologischer Laborforschung zu Ernährung und Genexpression in Verbindung gebracht wird, sind die informativen Datensätze über Kinder, deren in-utero-Entwicklung während des niederländischen Hungerwinters von 1944 stattfand. Es ist seit langem bekannt, dass Hunger langfristige Folgen auf die Gesundheit der Kinder und Enkel der niederländischen Frauen, die damals schwanger waren, hatte – wie erhöhte Inzidenzen bei komplexen Krankheiten wie Schizophrenie und Diabetes. In ähnlicher Weise sind niedriges Geburtsgewicht und pränatale Mangelernährung epidemiologisch seit langem als mit der Inzidenz von Herz-Kreislauf-Erkrankungen assoziiert nachgewiesen worden – wie durch die Arbeiten von David Barker und Kollegen, die britische Populationen untersucht haben. Die »Barker-Hypothese«, die frühe Ernährung und chronische Krankheit im Erwachsenenalter in Zusammenhang bringt, zirkuliert mindestens seit den 1980er Jahren; ein epidemiolo-

Nahrung als Exposition. Epigenetik und Molekularisierung | 143

gisches Interesse an Langzeit-Gesundheitseffekten von Unterernährung bei Kindern kann jedoch in Großbritannien bis in frühere Jahrzehnte zurückverfolgt werden – bevor Rauchen und Lebensstil als Risikofaktoren die Disziplin der Epidemiologie zu dominieren begannen (Davey-Smith/Kuh 1997). Für diese Zusammenhänge wurde nie ein spezifischer Mechanismus gefunden. Es gab keine genaue biologische Erklärung dafür, wie niedriges Geburtsgewicht (selbst ein sehr grobes Maß) sich möglicherweise Jahrzehnte später auf die Gesundheit im Erwachsenenalter beim gleichen Individuum auswirkt – lediglich ein vages Verständnis von ›Programmierung‹ des Körpers in frühen Jahren, welche die Gesundheit in späteren Jahren beeinträchtigt. Nun aber gibt es – mit dem Aufstieg der molekularen Epigenetik und insbesondere mit dem Aufstieg des oben beschriebenen Methylierungs-Paradigmas – einen direkten Pfad, über den die Moleküle, aus denen die Nahrung besteht, diejenigen Moleküle verändern (oder diese selbst darstellen), welche die Genexpression regulieren; die Muster dieser Genexpression steuern die enzymatischen und hormonellen Systeme des Stoff wechsels im Körper. Während genaues Wissen um die exakten Details dieses Systems noch in weiter Ferne liegen, gibt es nun einen plausiblen Mechanismus – artikulierbar in der Sprache der Molekularbiologie und sichtbar mit deren Werkzeugen: über die Sequenzierung, die methylierte Cytosine anzeigt, über Genexpressions-Arrays und so weiter. Über diesen technischen Erklärungen der Epigenetik der Ernährung sollten die Leser die Hauptrichtung dieser Forschung nicht aus dem Blick verlieren: die Epigenetik ist auf die Frage hin ausgerichtet, wie bei Tier und Mensch Dinge außerhalb des Körpers in die Biologie des Körpers transformiert werden. Sie schlägt eine bestimmte molekulare Route von außen nach innen vor und einen Mechanismus, mit welchem Kriege, Hungersnöte und reiche Ernten bei einer Generation die metabolischen Systeme einer anderen Generation beeinflussen können. So wurde nahegelegt, dass »racial disparities« – Ungleichheiten bezüglich Gesundheit – als soziale Unterschiede beginnen, dann jedoch durch epigenetische Mechanismen biologisch eingebettet werden: entsprechend der historisch und kulturell geformten Schichtung der Gesellschaft wirken sich Stress und Mangelernährung disproportional auf die Genregulation mancher Menschen aus (Kuzawa/Sweet 2008). Die große Hoffnung

144 | Hannah Landecker

der Epigenetik ist die grundlegende Plastizität des Körpers: Wenn der Körper der Umwelt gegenüber offen ist, so ist er auch offen gegenüber Umwelt-Interventionen. Sind wir dann möglicherweise in der Lage, die metabolischen Krankheiten von Erwachsenen – Diabetes, Adipositas – zu behandeln, indem wir die Ernährung schwangerer Frauen, Kleinkinder, Kinder und Jugendlicher optimieren? Das ist die Frage, die hinter der Epigenetik der Ernährung explizit und implizit fortbesteht.

Die experimentelle Formalisierung der Umwelt In einer 1946 gehaltenen Vorlesung mit dem Titel »Das Lebende und sein Milieu« (1952 veröffentlicht) wandte sich der Philosoph Georges Canguilhem wie folgt an seine Zuhörer: »Der Begriff ›Milieu‹ wird derzeit zu einem universellen und obligatorischen Mittel des Registrierens von Erfahrung und Existenz des Lebenden und man könnte von ihm nahezu als einer Grundkategorie zeitgenössischen Denkens sprechen.« (Canguilhem 2001: 7, Übersetzung: SB)

Weiter sprach er sich dafür aus, dass die Philosophie die unterschiedlichen Gebrauchsweisen des Milieu-Begriffs von 1800 bis heute, die vielen Umkehrungen des Verhältnisses zwischen Organismus und Milieu und schließlich den generellen philosophischen Effekt dieser Umkehrungen, insbesondere in Bezug auf die Idee des Individuums selbst, erforschen sollte. Paradoxerweise war er selbst nur wenig später genau in einer solchen Umkehrung verfangen: Mit der Entdeckung der DNAStruktur und dem Aufstieg der Genetik und Molekularbiologie, wandte sich Canguilhem der Ausarbeitung einer »Philosophie des Irrtums« zu, die er auf ein Durchdenken der DNA als Code oder Programm gründete. Der Begriff des Milieus war, kurz nach der Veröffentlichung seiner Vorlesung, zu einem Objekt geworden, das keinesfalls mehr obligatorisch war, wenn es darum ging lebende Dinge zu beschreiben oder zu verstehen. Das Pendel schwang hin zu den Extremen einer erblichen Omnipotenz der Gene, zu Mutation als Ursache von Krankheit, und der Dominanz eines Forschungsimperativs, der darauf zielte,

Nahrung als Exposition. Epigenetik und Molekularisierung | 145

das zentrale Dogma »DNA macht RNA macht Protein« auszuarbeiten. Nun ist das Pendel zurückgeschwungen; Umwelt, wenn nicht sogar Milieu, ist wieder eine wichtige Kategorie zeitgenössischen Denkens – von Biologie bis Philosophie. Epigenetiker zitieren häufig früher marginalisierte Zahlen der Biologiegeschichte, welche die Formierung von Organismen durch die Umwelt betonen, eine Genealogie, die sich auch auf JeanBaptiste Lamarck und Conrad Hal Waddington bezieht. Diese Genealogie ist an sich interessant, da sie die konventionelleren Linien – von Charles Darwin zu James D. Watson und Francis Crick – ablehnt, und da sie die Idee der Vererbung erworbener Eigenschaften, die im letzten Jahrhundert oft lächerlich gemacht wurde, nicht dämonisiert. Jedoch mag es hier nützlich sein, den Aufruf Canguilhems aufzunehmen, dass es andere Wege gibt, die Fragen der Epigenetik in der Biologiegeschichte zu konzeptualisieren und dass hier eine längere, weniger auf das Individuum zentrierte Genealogie hilfreich ist. Wir können zeitgenössische Epigenetik als eine Umkehrung in dieser langen Reihe der Inversionen zwischen Organismus und Umwelt in der Geschichte der Erklärung und Manipulierung von Leben sehen. Wir können dann nach der historischen Spezifität dieser besonderen Form von »Leben und seiner Umwelt« fragen. Eine hier wohl offensichtliche Antwort ist, dass diese Version von Umwelt extrem spezifisch für die Ära der Genomforschung ist, wie sie im späten 20. Jahrhundert entstanden ist und dass diese nicht die ›Umwelt‹ oder das ›Milieu‹ vorheriger historischer Perioden rekapituliert (Cohen 2009). Dass der Körper in den molekularen Begriffen der Nutrigenetik der Ernährung verstanden, beschrieben und (erhoff termaßen) medizinisch behandelt wird, ist Teil einer breiteren ›Molekularisierung‹ der Biologie und Biomedizin, die über das 20. Jahrhundert hinweg stattgefunden hat und das Leben im 21. Jahrhundert charakterisiert (de Chadarevian 1998; Rose 2006). Die Nutrigenetik der Ernährung signalisiert zusätzlich die entsprechende Molekularisierung der Umwelt (Shostak 2005, 2007). Die oben beschriebene experimentelle und epidemiologische Logik hängt von einem sub-zellulären Mechanismus ab, der mit den Molekülen der Welt draußen interagiert. Die Welt draußen muss dann also den Stoff wechselprozess irgendwie betreten; auch dies muss auf molekularer Ebene verstanden, erforscht und manipuliert

146 | Hannah Landecker

werden, um herauszufinden wie das Innen und Außen hier miteinander in Verbindung stehen. Sowohl in experimentellen wie auch in epidemiologischen Ansätzen ist Nahrung als Umwelt-›Faktor‹ konzipiert und wird als solcher untersucht; Nahrung nimmt den Platz der Umwelt ein. Welche Art von Umwelt stellt Nahrung nun konkret dar? Ein Weg, diese Frage material-spezifisch zu beantworten, wäre zu betrachten, was die Tiere in solchen Experimenten essen. Was genau ist Nahrung im Experimentalsystem? Es zeigt sich, dass wissenschaftliche Tiernahrung – genauso wie die Nahrung des Menschen – durch die Geschichte der Industrialisierung der Landwirtschaft und durch das Aufkommen hoch verarbeiteter Nahrungsmittel bestimmt ist. Tiernahrung für Experimente wird meist von kommerziellen Händlern gekauft. Es gibt davon verschiedene Arten: Zunächst gibt es die so genannten Nahrungsmittel mit natürlichen Bestandteilen, die aus landwirtschaftlichen Produkten wie Vollkorngetreide (Weizen, Mais, Hafer), Mahlnebenprodukten (wie Weizenkleie, Weizen-Futtermehl, Maiskleber) und hocheiweißhaltigen Mehlen (wie Sojabohnenmehl, Alfalfamehl, Fischmehl), die auch zugesetzte Minerale und Vitamine enthalten, aufgebaut sind.1 ›Purifizierte‹ Futtermittel werden aus Nahrungsmittelbestandteilen wie Casein, Sojaprotein-Isolaten, Zucker, Stärke, pflanzlichem Öl und Zellulose hergestellt. Schließlich gibt es ›chemisch-definierte‹ Nahrung, die aus chemisch reinen Verbindungen wie Aminosäuren, Zuckern, Triglyzeriden, Fettsäuren und anorganischen Salzen hergestellt ist. Nagetiere, an denen die Effekte verschiedener Ernährungsweisen getestet werden, bekommen oft chemisch definiertes Futter, in dem entweder methylgebende Gruppen vorhanden oder nicht vorhanden sind. Eine chemisch defi nierte Ernährungsweise, auch ›synthetische‹ Diät genannt, ermöglicht dem Forscher genau zu wissen, was im Tier vorgeht, da die Nährstoffe aus Grundelementen zusammengemischt wurden: aus Aminosäuren, Fettsäuren, Zucker etc. Eine ›natürliche‹ Nahrungszusammensetzung ist dagegen in gewissem Umfang unkontrolliert – Vollkorngetreide ist ein komplexes und variables Objekt. In einer Reihe von Experimenten in der Nutrigenetik wurden 1 | Diese Beschreibungen sind aus Heindel und vom Saal (2008: 389) übernommen.

Nahrung als Exposition. Epigenetik und Molekularisierung | 147

schwangere Mäuse und ihre Neugeborenen mit drei verschiedenen Futterzusammensetzungen gefüttert: eine natürliche Diät, eine synthetische Diät, bei der alle Methylgeber zuerst entfernt und dann komplett aufgefüllt wurden, sowie eine synthetische Diät, die überhaupt keine Methylgeber-Komponenten enthielt. Die natürliche und die supplementierte Diät waren Kontrollen: eine ist die synthetische Kopie der natürlichen Diät, vom Forscher nur aus den Grundbausteinen von Nahrung gemacht, so dass der Inhalt präzise spezifiziert ist. Die experimentelle Hypothese war, dass das Futter ohne Methylgeber zu geringerer Methylierung führen würde, während dies bei den beiden methylgesättigten Diäten nicht der Fall sein würde. Dabei zeigte sich jedoch, dass die beiden synthetischen Nahrungen niedrigere Methylierungsgrade nach sich zogen. Dieses gegen-intuitive Ergebnis rückte plötzlich das synthetische Futter in den Blick. Damit wurden die Forscher zum ersten Mal dazu gebracht danach zu fragen, was in dem synthetischen Futter genau enthalten war, also sozusagen dieser Bezeichnung nachzugehen. Es zeigte sich, dass die ›synthetische‹ Nahrung sich von der ›natürlichen‹ Nahrung bezüglich ihres Ballaststoff- und Zuckergehalts unterscheidet: Sie hat einen höheren Zuckergehalt, um sie den Mäusen schmackhaft zu machen. Der Unterschied in der Wirkung zwischen ›natürlichem‹ Futter und der angeblich exakten synthetischen Kopie bleibt obskur, aber weist auf die Schwierigkeiten hin, einzelne Nährstoffe isoliert auf ihre größeren epigenetischen Wirkungen zu untersuchen. Das Futter wird als Vehikel für einen Satz Moleküle behandelt; die Effekte dieser Moleküle werden gemessen, indem die Methylierung der Gen-Promotoren untersucht wird; der Rest des Inhalts der Nahrung verschwindet aus dem Blick, bis er die experimentellen Erwartungen unterbricht. Solche experimentellen Unterbrechungen haben den wissenschaftlichen Blick auf das Nagetier-Futter zurückgeworfen, was bisher ein völlig banaler Teil experimenteller Praxis war, der kaum mehr Aufmerksamkeit verdiente als Standardisierung. Genau diese black box wird nun wieder geöff net: Im Jahr 2007 veranstaltete die nationale Gesundheitsbehörde (National Institutes of Health) der USA zwei Workshops, die sich der Frage nach dem Östrogengehalt experimenteller Nagetier-Nahrung und der Variabilität zwischen einzelnen Chargen kommerziell erhältlichen Tierfutters widmete (Heindel/vom Saal 2008).

148 | Hannah Landecker

Weil die Nahrung aus pflanzlichen Quellen hergestellt wird und Pflanzen natürlicherweise hormonell aktive Substanzen produzieren, können diese Nahrungsmittel in ihren Effekten auf die Tiere variieren. Beispielsweise enthält Soja zwei Moleküle – Genistein und Daidzein – die im Zuge der Verdauung östrogen-aktiv wirken. Pflanzenbasierte Östrogene (Phytoöstrogene) aus der Tiernahrung völlig zu entfernen, scheint keine praktikable Option zu sein, da die komplette Abwesenheit von Phytoöstrogenen ebenfalls Anomalitäten zu verursachen scheint. Das Panel empfahl, dass Futterhersteller und Experimentalwissenschaftler den genauen Inhalt experimenteller Tiernahrung verstärkt im Blick behalten und eine Minimierung der Variabilität natürlich vorkommender bioaktiver Substanzen wie Soja-Isoflavone in den einzelnen Chargen anstreben sollten. Soja-basiertes Genistein ist eines der Moleküle, auf das sich die Aufmerksamkeit der Ernährungsepigenetik richtet. Im Jahr 2006 publizierte Ergebnisse zeigten, dass sich beim Zusatz von Genistein im Futter die Fellfarbe beim Nachwuchs von AgoutiMäusen zu braun verschob – was auf eine erhöhte Methylierung am Agouti-Promoter hindeutete. Genistein ist ein sozial signifikantes Molekül, unter anderem da Soja ein ökonomisch und sozial wichtiges Nahrungsprodukt ist. Nicht nur ist Soja etwas, was Menschen in Form von Sojamilch, Tofu und Edamame konsumieren – es wird gewöhnlich auch als Zusatzstoff genutzt, um den Proteinanteil zu erhöhen oder um anderen Nahrungsmitteln seine Konsistenz und Form zu leihen; darüber hinaus ist es eine zentrale Komponente in landwirtschaftlichem Tierfutter, beispielsweise in Schweinefutter. Von vielleicht größerer Bedeutung ist seine häufige Nutzung als Basis von Säuglingsnahrung; wenn Ernährung am Anfang des Lebens sich auf Genregulation auswirkt, die dann durch das Leben des Individuums weitergetragen wird, so ist Soja in Kleinkindernahrung bedenklicher als Soja in der Nahrung von Erwachsenen. Gewiss ergibt das Experiment nicht mehr als dass es signalisiert, dass Soja in der Nahrung Genmethylierung beeinflussen kann; es zeigt nicht, ob dies gut, schlecht oder neutral ist – weder welche Dosierung möglicherweise gesundheitliche Effekte hat noch ob diese Effekte genauso wie bei Mäusen auch beim Menschen auftreten. Nichtsdestoweniger scheinen die Ergebnisse durchaus anwendbar auf menschliche Belange – gerade wegen der weiten Verbreitung von Soja.

Nahrung als Exposition. Epigenetik und Molekularisierung | 149

Ein zweites sozial signifi kantes Molekül, das in das Futter der Tiere im Experiment eingeht, ist Folsäure. Nochmals zusammengefasst – in den oben beschriebenen Experimenten mit dem Agouti-Mausmodell wird den Mäusen Futter gegeben, das entweder wenig oder viel von den Substanzen enthält, welche am Methylierungsprozess beteiligt sind; zu letzteren zählen Methylgeber wie Betain, Cholin und Folat. Folat oder Folsäure ist dabei vielleicht die einem nicht-naturwissenschaftliches Publikum bekannteste Substanz – teilweise wegen der unaufhörlich an Frauen gerichteten Aufforderung sicherzustellen, dass sie vor und während einer Schwangerschaft genug davon zu sich nehmen. Da nachgewiesen ist, dass Folsäure-Supplementierung das Auftreten von Neuralrohrdefekten und Anenzephalien verringert, wurde 1998 in den USA die Anreicherung aller Weizenprodukte als eine Public Health Maßnahme verpflichtend eingeführt. Derzeit verpflichten weltweit 65 Länder zu dieser Anreicherung von Weizen- oder Maismehl oder beidem; auch in Großbritannien wird dieses Thema aktiv diskutiert, während andere europäische Länder diese Anreicherung nicht vorschreiben. Folsäure ist auch natürlich verfügbar – es ist in vielen Nahrungsmitteln vorhanden, insbesondere in grünem Gemüse, und es ist derzeit in vielen Functional-Food-Produkten sowie als Zusatzstoff in gezielt an Frauen vermarkteten Gesundheitsriegeln enthalten. Die Konsumentinnen haben wenig Kontrolle über die Menge an Folsäure, die sie zu sich nehmen, da es keine verpflichtende Kennzeichnung gibt, die anzeigen würde, wie viel eine Portion Brot oder ein Getreideprodukt enthält – nur die ursprüngliche Anreicherung ist verpflichtend. Schwangere Frauen werden indessen ermutigt, Folsäure noch zusätzlich zu ihrer üblichen Ernährung und den angereicherten Lebensmitteln zu sich zu nehmen. Zuerst schien dies ein Public Health Erfolg zu sein, da die Zahl der Neuralrohrdefekte und Anenzephalien in den USA seit der Einführung dieser Politik deutlich gesunken ist. Die Debatte ist jedoch wieder neu eröffnet, da die Frage aufkam, ob die Anreicherung für die gesamte Bevölkerung angemessen ist, nur um eine bestimmte Gruppe von Frauen im reproduktiven Alter zu erreichen. Ebenso kam die Frage auf, ob die verpflichtenden Folsäurezusätze – auch wenn sie Geburtsdefekte verhindern – möglicherweise das Entstehen von Darmkrebs bei älteren Erwachsenen verursachen oder begünstigen können (Mason et al. 2007).

150 | Hannah Landecker

Folsäure ist daher eher eine überall vorhandene Substanz als etwas klar Abgegrenztes, das konsumiert werden kann oder nicht. In Ländern mit Pflichtanreicherung gibt es keine Option, Nahrung ohne Supplementierung zu konsumieren – es sei denn, man isst keine Weizen- oder Maisprodukte. Nur wenige Menschen wissen von der Anreicherung – sie geschieht weit weg vom Konsumenten und erscheint nicht auf der Kennzeichnung. Wiederum sollte ich betonen, dass es keineswegs klar ist, ob diese bevölkerungsweite Supplementierung nützlich, schädlich, neutral oder eine Kombination von all diesem ist. Der wichtige Punkt ist, dass Folsäure etwas in der Nahrungsumwelt ist, das außerhalb der individuellen Kontrolle oder Wahrnehmung liegt. Zusammengefasst wird Nahrung in diesen Experimenten in einen Satz signifikanter Moleküle mit einem bestimmten ›messbaren Effekt‹ auf Genexpression transformiert. Wenn auch die ›gesamte‹ Nahrung auf die Forschungsagenda kommt – wie mit dem verwirrenden Unterschied zwischen natürlicher Diät und ihren synthetischen Kopien – werden die molekularen ›Übeltäter‹ für diese Differenz gesucht; derzeit wird beispielsweise betont, dass Phytoöstrogene im Experimentalsystem kontrolliert werden müssen. Ziel dieser Experimente ist es zu messen, wie bestimmte Moleküle wie Genistein oder Folsäure den molekularen Status des Agouti-Genpromotors verändert haben und damit Einblick in die Effekte pränataler und früher postnataler Ernährung auf Methylierung im sich entwickelnden Organismus zu gewinnen. Wenn also den Tieren diese ›Nahrung‹ – ob natürlichen oder synthetischen Ursprungs – gefüttert wird, ist dieses System darauf ausgerichtet, molekulare Effekte zu messen. Diese Molekularisierung hat den Effekt, Nahrung selbst zu einer unscharfen Hintergrund-Trägersubstanz für bioaktive Moleküle zu machen. Darüber hinaus sind dies keineswegs irgendwelche zufällig gewählten Moleküle: es sind Moleküle mit einer ganz bestimmten sozial vermittelten Präsenz. Im Fall von Folsäure sind Regierungen direkt in die Präsenz und den Gehalt an Folsäure in Grundnahrungsmitteln involviert; im Fall Genistein ist die Verwendung von Soja in Säuglingsnahrung mit einer komplexen Welt sozialer, ökonomischer und kultureller Faktoren verbunden, die das Stillen betreffen. Die Präsenz von Soja in vielen anderen Nahrungsmitteln ist eine kulturelle

Nahrung als Exposition. Epigenetik und Molekularisierung | 151

und ökonomische Frage industrieller Nahrungsmittelherstellung. Sowohl in ihrer besonderen experimentellen Konfiguration, die Moleküle wie diese beiden fokussiert, als auch in der Hypothesengenerierung wird Nahrung als ein ›Trägermedium‹ für diese Moleküle dargestellt. Mit den Worten eines Forschers ausgedrückt, ist Ernährung der »Wind, der über die Landschaft der Entwicklung bläst«; diese Landschaft hat durch die genetische Möglichkeit ihre Konturen erhalten, aber die Ernährung bläst in kritischen Momenten der Entwicklung darüber (Waterland 2006).

Die Molekularisierung der Nahrung Das spezifische Beispiel der Ernährungsepigenetik mit ihrer Fokussierung auf methylgebende Mikronährstoffe und Genistein ist sowohl Ergebnis als auch gleichzeitig Antriebskraft einer generellen Molekularisierung der Nahrung – in der Wissenschaft wie in der Konsumkultur. Nahrungsherstellung und -design sind in mehrerlei Hinsicht einer intensiven Molekularisierung unterworfen. Genetisch veränderte Nahrungsmittel sind die vielleicht am besten bekannten Beispiele dafür, wie Nahrung auf molekularer Ebene manipuliert, diskutiert und in diesem Fall auch zum Objekt von Protesten wird. Während genetisch veränderte Nahrung und Epigenetik der Ernährung nicht notwendigerweise in irgendeiner Weise in Verbindung stehen – es gibt beispielsweise keine Hinweise, dass genetische Manipulierung von Nahrung ihre epigenetischen Wirkungen verändert – ist es hilfreich, sie als separate Schauplätze desselben Phänomens zu denken, welches wir als eine lebhafte molekulare Imagination bezeichnen können. Diese molekulare Imagination wurde teilweise durch die öffentlichen Kontroversen über gentechnisch veränderte Nahrungsmittel etabliert, gerade weil hier die molekulare Struktur der Nahrung betont wird. Die genetische Konstitution der Nahrung wird betont, weil sie teilweise menschengemacht ist; die umstrittene, potentiell gefährliche Verdauung entspricht dem Aufnehmen dieses von Menschen gemachten genetischen Konstrukts. Was das genetische Material im Körper, der es isst, macht und inwieweit dies eine Rolle spielt, ist gewiss ein viel diskutiertes Thema, aber genau in diesem imaginären Akt des Denkens, Visualisierens

152 | Hannah Landecker

und Kontrollierens von Nahrung als Moleküle, die mit unseren inneren Molekülen interagieren, liegt eine besonders grenzauflösende Wirkung: Durch den notwendigen Akt des Essens kann die eigene Körperlichkeit leicht als etwas imaginiert werden, das von der Landschaft und der sozialen Natur der Landwirtschaft nicht getrennt ist, sondern in sie übergeht. Weil wir essen müssen, verdauen wir auch die sozialen Entscheidungen über Eingriffe in die Nahrung. Gentechnologie bringt Konsumenten dazu – unabhängig von ihrer Position in diesem Punkt – Gene in der Nahrung zu ›sehen‹, wo sie dies vorher nicht taten und nach den Effekten dieser Gene auf die Verdauung zu fragen. Kennzeichnungen, die lautstark proklamieren, dass ein Produkt frei von genetisch modifizierten Zusätzen ist, betonen die genetische Konstitution der Nahrung paradoxerweise gerade durch das Identifizieren als ›gentechnik-frei‹. Mit dem Aufstieg der Functional Foods wird die Betonung eher auf besondere biologisch aktive Substanzen als auf Gene (oder deren Fehlen) gelegt, zudem wird jedoch dabei die molekulare Sicht intensiv kultiviert. Ernährungswissenschaftlerinnen, Firmen und Verbraucher drängen zunehmend auf Nahrungsmittel, die – zusätzlich zum Nährwert durch den enthaltenen Energiegehalt, Vitamine oder Mineralien – einen gesundheitlichen Nutzen in sich tragen sollen. Anti-Oxidantien sind ein gutes Beispiel für Functional Foods; unabhängig vom Nährwert des Nahrungsmittels sollen Anti-Oxidantien im Körper Zell- und DNA-Schäden durch freie Radikale reduzieren und dadurch die Verbraucherin vor Krebs oder anderen Krankheiten schützen. Es ist fast unerheblich, ob ein beliebiger Verbraucher überhaupt versteht, was ein Anti-Oxidant ist; viele Verbraucher können eine Liste von Substanzen von Omega-3-Fettsäuren zu Polyphenolen, die ihrer Gesundheit zu Gute kommen sollen, aufsagen – wie sie es durch alltägliche Exposition gegenüber Supermarktkennzeichnungen lernen.2 Der Marktanteil von 2 | Eine informelle Übung, die ich mit Studierenden in den letzten Jahren durchführte, hat dies noch unterstrichen: Bittet man Studierende, Moleküle in der Nahrung zu nennen, die gesundheitsfördernd oder -schädigend sind, zeigt sich, dass sie in der Terminologie der Functional Foods bestens bewandert sind und ohne Mühe die Sprache des Gesundheitsmarketing reproduzieren können. Wenn nach der Definition einer beliebigen dieser Substanzen

Nahrung als Exposition. Epigenetik und Molekularisierung | 153

Functional Foods steigt in entwickelten Ländern stetig an, angeführt von Erfolgen wie dem des probiotischen Joghurts, Haferprodukten, die mit positiven Effekten auf Cholesterinspiegel beworben werden, und Produkten, die Omega-3-Fettsäuren enthalten. Probiotik betriff t zwar nicht Moleküle, sondern Bakterienkulturen, aber die Wahrnehmung, dass Nahrung auf Grund ihrer mikroskopischen Konfiguration medizinisch aktiv ist, ist die gleiche. Für all diese Nahrungsmittel ist die Unterscheidung zwischen Nahrung und Medikament und damit ebenso die Unterscheidung zwischen ›Essen‹ und ›medizinisch Behandeln‹ verschwommen. Der Aufstieg der Functional Foods steht in deutlichem Zusammenhang mit einer Nahrungsmitteloptimierung, da das Ziel der Intervention ja ist, Nahrungsmittel um einen gesundheitlichen Nutzen aufzuwerten oder ihnen einen solchen hinzuzufügen. Genetische Veränderung und Probiotik bei Nahrungsmitteln operieren auf mikroskopischer Ebene; nun betritt die Nanotechnologie dieses Feld mit seinem besonderen ›Bottom-up‹-Ansatz bei der Herstellung, welche mit molekularen Entitäten beginnt und deren Selbst-Arrangement zum Aufbau neuer Dinge nutzt. Wenn man beispielsweise das Enzym eines bestimmten Bakteriums (Bacillus licheniformus) nimmt und es mit dem Milchprotein Alpha-Laktalbumin zusammenbringt, bekommt man »Bausteine, die von selbst Röhrchenstrukturen im Nanometergrößenbereich ausbilden«. Diese von Milch abgeleiteten Nanoschläuche können, da sie steif sind, als Verdickungsmittel oder, da sie hohl sind, als ›Liefermechanismus‹ für Nährstoffe oder Medikamente dienen. Als zusätzlicher Nutzen ist Alpha-Laktalbumin das Hauptprotein in Muttermilch; wie erwartet werden kann, ist es sehr gut verdaulich und hat einen relativ hohen Tryptophan-Gehalt, eine Aminosäure, die gefragt wird, nennen Studierende oft funktionelle Definitionen, die ebenfalls vom Marketing abgeleitet sind: »eine Substanz, die Cholesterin reduziert«, oder »etwas, das Krebs vorbeugt« oder »ein schlechtes Fett«. Nur Studierende mit recht fortgeschrittenen Chemie- und Biologiekenntnissen sind in der Lage, eine spezifischere Antwort zu Substanzklassen oder ihrer biologischen Wirkungsweise zu geben; niemand konnte ein Bild von ihnen zeichnen, mit Ausnahme eines Studierenden, der die molekulare Struktur einer trans-Fettsäure kannte.

154 | Hannah Landecker

– in der gereinigten Sprache der Ernährungswissenschaft – »in Verbindung steht zu positiven Effekten auf Sättigung und Stimmung«. Dies kann jedes Baby bestätigen. Also – so geht dieses Denken weiter – hat man ein gutes Ausgangsmaterial, das als Wirkstoff genutzt werden kann, um schmackhaftes, nahrhaftes Essen mit zusätzlichen ›funktionellen‹ Eigenschaften zu konstruieren (Graveland-Bikker/de Kruif 2006). Forschung zu diesen Beispielen für Nahrungs-Nanotechnologie ist sowohl auf Verpackungen als auch auf Nahrungsmittel selbst ausgerichtet; manchmal auch auf die Grenze zwischen beidem, z.B. mit der Entwicklung essbarer Verpackungen. Die Hoffnung ist, dass Moleküle mit antibakteriellen Eigenschaften durch selbstreinigende Verpackungen zur Lebensmittelsicherheit beitragen können – sowie dass Nahrungsmittel zerkleinert oder sich selbst (in einer Art high-tech-Vorverdauung) zu einer optimalen Größe für die Absorption im Darm konfigurieren. Ferner wird gehoff t, dass unterschiedlicher Geschmack des gleichen Nahrungsmittels möglicherweise dadurch entsteht, dass seine Moleküle in unterschiedlicher Größe geliefert werden und dass Nanostrukturen dazu genutzt werden können, Nährstoffe kontrolliert in den Körper abzugeben. Wenig überraschend haben Meinungsumfragen gezeigt, dass die Aussicht auf Nanotechnologien in der Verpackung zurzeit für Verbraucher eher akzeptabel sind als Nanotechnologie in den Nahrungsmitteln selbst, obwohl es derzeit keine Regelungen für eine Kennzeichnung gibt, die Verbraucherinnen auf die Verwendung von Nanotechnologie für ein Produkt hinweisen würde. Nanotechnologie ist Teil des Drangs, Nahrungsmittel funktional zu machen – ein Verdickungsmittel sollte nicht nur verdicken, es sollte auch Proteine liefern und die Laune verbessern. Die kritischen Geografen Pierre Stassart und Sarah Whatmore haben folgendes beobachtet: »The metabolic impressions that the flesh of others imparts to our own are an enduring axiom of social relations with the nonhuman world and the porosity of the imagined borders which mark ›us‹ off from ›it‹. The potency of this vector of intercorporeality seems to grow as the moments and spaces of cultivating and eating, animal and meat, plant and fruit, become ever more convoluted.« (Stassert/ Whatmore 2003: 449)

Nahrung als Exposition. Epigenetik und Molekularisierung | 155

Nutrigenomik, Functional Foods, genetisch veränderte Organismen und Nahrungsmittelnanotechnologie sind erstklassige Beispiele der Rekonfiguration solcher »Räume des Kultivierens und Essens«, in einer Art und Weise, die den molekularen Charakter dieser Aktivitäten betont. Der breite Trend dazu, Nahrungsmittel als Vehikel für wichtige und ›gesund machende‹ Moleküle anzusehen, verwischt die Grenze zwischen Innen und Außen des Körpers wie auch die zwischen Menschen und den von ihnen konsumierten Pflanzen und Tieren.3 Darüber hinaus wird der physische Akt des Essens zu einem Inkorporationspunkt für Objekte, die gleichzeitig materiell und sozial sind. Wir können nicht anders als Nahrung aufzunehmen und im Akt der Nahrungsaufnahme und Verdauung sind wir in die sozialen, technischen und politischen Netzwerke von Nahrungsmittelherstellung, -regulierung und -konsum mit hineingezogen. Während die Epigenetik der Ernährung nicht notwendigerweise etwas mit Functional Foods, genetisch veränderten Organismen oder Nahrungsmittelnanotechnologie zu tun hat, ist es wichtig, ihren gemeinsamen Kontext zu durchdenken: die Molekularisierung von Nahrungsmitteln in Wahrnehmung, Konstruktion, Produktion, Vermarktung, Konsum und Forschungspräsenz. Wir leben in einer Zeit der Rekonfiguration von Nahrung – als Medizin, als kurative oder präventive Therapie. Sogar Biokost und ›Vollwert‹-Ernährung werden gerade wegen ihrer nützlichen Moleküle vermarktet. Umgekehrt kann Nahrung auch als Träger molekularer Substanzen, die als Toxine oder Signale an falscher Stelle wirken und die Regulation des Körpers stören, eine Rolle spielen. Dass in dieser Zeit Nahrung in der Ernährungsepigenetik als eine Art ›massenmolekulares‹ Milieu für die epigenetische Topografie von Populationen erscheint, ist dann nur eine bestimmte Manifestation dieser Verschiebung.

3 | Der Ernährungsjournalist Michael Pollan hat das Kon-

zept von Nahrung als Träger für diejenigen Nährstoffe, die durch wissenschaftliche Analysen herausgehoben werden, als »Nutritionism« bezeichnet, was er als ein tiefgreifendes Missverstehen der intrinsischen Komplexität von Nahrung beschreibt (Pollan 2007).

156 | Hannah Landecker

Schluss: Nahrung als E xposition Die Molekularisierung der Nahrung hat tiefgreifende Folgen für Ernährungspolitik sowie für individuelle Ernährungspraxen. Politisch am signifikantesten ist bei Genistein und Folsäure, dass diese Substanzen als Nahrungsbestandteile eher ubiquitär und unsichtbar als klar abgegrenzt und offensichtlich sind. Ob Nahrungsmittel diskrete Objekte sind, die verweigert werden können, oder ob Nahrung wie ein Miasma ist, in das die Menschen eintauchen, hat Konsequenzen. Der erste Rahmen – Essen als kontrolliert durch individuelle Wahl – impliziert, dass personalisierte Ernährung ein Teil der personalisierten Medizin sein wird; ferner treibt er die Produktion von Konsumgütern für Gesundheit an und steigert den Imperativ, Nahrungsaufnahme auf molekularer Ebene zu überwachen und damit die Empfänglichkeit der Öffentlichkeit für molekularisiertes Marketing zu erhöhen. Dies ist der Rahmen, in dem viele Functional Food-Produkte operieren: Verbraucher werden ermutigt, sich um sich selbst zu kümmern, indem sie Nahrungsmittel mit diskretem und fassbaren Gesundheitsnutzen kaufen und essen. Das Versprechen ist, dass ein Becher Joghurt pro Tag mit einer verbesserten Verdauung oder besserer Immunfunktion einer Person gleichgesetzt werden kann. Der zweite Rahmen – Essen als Milieu – tendiert eher zu kollektiver oder sozialer Verantwortung für Gesundheit und behördlich-regulatorischen Ansätzen, da es um Dinge geht, die außerhalb unserer Kontrolle als Individuen liegen. Wenn Menschen von diesen Umwelten durchdrungen sind, dann ist alles was zu tun bleibt, an diesen Umwelten und der Verbesserung ihrer Wirkungen zu arbeiten und dies so zu tun, dass es sich auf mehr als ein Individuum gleichzeitig auswirkt. Beide Richtungen sind in Diskussionen der Implikationen von Epigenetik einleuchtend; ein populärer Artikel über das Feld lässt einen Wissenschaftler die Sprache der persönlichen Verantwortung nutzen, wenn er sagt, dass die Effekte der Ernährung und Rauchen auf Methylierung zeigen, dass »Epigenetik nur beweist, dass wir Verantwortung für die Integrität unseres Genoms« tragen, und nur einige Sätze später denkt ein anderer Wissenschaftler über Elternzeit-Regelungen nach als einem Beispiel dafür, »wie die Struktur der Gesellschaft kognitive Entwicklung über epigenetische Mechanismen strukturiert« (Watters 2006). Jedoch haben diese beiden Narrative nicht die gleiche

Nahrung als Exposition. Epigenetik und Molekularisierung | 157

Stärke im Feld; die Experimente, Hypothesen und Übersichtsartikel zu Epigenetik der Ernährung tendieren zu einer Repräsentation von Nahrung als einer alles durchdringenden Umwelt. Molekularisierung erklärt einen Teil dieses Narrativs – der molekulare Blick auf Nahrung ist weniger an bestimmte Nahrungsmittel in ihrer Makroform gebunden und die experimentelle Auswahl der Moleküle für Tierexperimente bezieht sich bisher auf bestimmte sozial verbreitete Substanzen. Die oben diskutierte breitere Molekularisierung von Nahrung intensiviert nur diese Bedeutung von Essen als immersive Umwelt. Die epidemiologische Arbeit, die mit molekularen Studien einhergeht, trägt zu diesem Rahmen bei, da Forscherinnen die Information darüber, was einzelne Individuen in einem bestimmten Jahr in Nordskandinavien aßen oder wie knapp an Nahrungsmitteln eine bestimmte Mutter während des niederländischen Hungerwinters war und wie diese mit den Nachkommen dieses Individuums korreliert, nicht zugänglich ist. Was zugänglich ist, ist die Information über den Umfang der Ernte, die kollektive Erfahrung dieser Bevölkerung – Individuen werden hier als »in den historischen Bedingungen eingetaucht« behandelt; als Gruppe können sie zu der Gesundheit ihrer Nachkommen (ebenso als einer Gruppe) – in Beziehung gesetzt werden; dies ist der statistische Charakter der Epidemiologie. Folsäure und Genistein sind also Umweltexpositionen in dem Sinn, dass Verbraucher nicht unbedingt wissen können, wie viel sie konsumieren – diese bioaktiven Substanzen sind in so vielen Nahrungsmitteln vorhanden und man kann durch ihr Aussehen, ihren Geschmack oder ihre Kennzeichnung nicht wissen, wie viel genau dieser Substanzen darin enthalten ist. Proteinmangel oder Überernährung werden als Bedingungen untersucht, die eine ganze Gruppe von Menschen wie eine Wolke umgeben. Eine explizitere Form der Umweltexposition kommt durch einen zweiten Satz an molekularen Substanzen, die derzeit intensiv auf ihre epigenetische Effekte hin erforscht werden: endokrin wirksame Chemikalien wie das landwirtschaftliche Fungizid-Spray Vinclozolin und das in Kunststoffen vorkommende Toxin Bisphenol A. Waren schwangere Ratten im Entwicklungs-Fenster der Geschlechtsausbildung mit Vinclozolin exponiert, wies ihr männlicher Nachwuchs niedrige Spermakonzentrationen und geringe Fertilität auf. Als diese Ratten ausgewachsen waren, wurden sie mit nicht-exponierten weib-

158 | Hannah Landecker

lichen Ratten gepaart, jedoch blieb die beeinträchtigte Fertilität bei ihrem männlichen Nachwuchs und wiederum bei deren Jungen, über vier Generationen, bestehen. Diese Effekte wurden also über die männliche Linie übertragen und die Mechanismen der Schädigung der männlichen Reproduktionsorgane schien epigenetisch bedingt zu sein (Anway et al. 2006). Die endokrin-disruptiven Effekte von Bisphenol A gerieten erst zufällig in die Aufmerksamkeit der Wissenschaft, obwohl die Substanz ursprünglich in den 1930er Jahren als synthetisches Östrogen erforscht worden war (Vandenberg et al. 2009). In den späten 1990er Jahren begannen Mäuse, die in der Erforschung der Ovulation als experimentelle Tiere gehalten wurden, plötzlich nicht erklärbare Reproduktionsschwierigkeiten zu zeigen (Hunt et al. 2003). Eine genaue Untersuchung des Laborprotokolls deckte die Tatsache auf, dass die PolykarbonatKäfige und die Wasserflaschen, die genutzt wurden um die Tiere unterzubringen, Bisphenol A abgaben, besonders nachdem sie eine Weile benutzt oder bei hohen Temperaturen gewaschen worden waren. Eine ähnliche Entdeckung wurde in den 1980er Jahren über den Effekt von Plastik-Petrischalen auf kultivierte Brustzellen gemacht; das ins Kulturmedium geratene Bisphenol A war östrogen aktiv. Nachfolgende Untersuchungen ergaben, dass Bisphenol A in niedrigen Konzentrationen Kulturen von Brustkrebszellen resistent gegenüber Chemotherapie machen kann (LaPensee et al. 2009). Tiere, die gezielt mit Bisphenol A exponiert wurden, zeigten Veränderungen ihrer reproduktiven Systeme und ein höheres Körpergewicht (Gross 2007). Man geht davon aus, dass diese Veränderungen über epigenetische Umbildungen in den Genomen der Zellen zustande kommen. Toxine oder Schadstoffe wie Vinclozolin und Bisphenol A beginnen mit Nahrungsmittelsubstanzen zu überlappen, die in Experimenten zur Epigenetik der Ernährung getestet werden. Tatsächlich wird in vielen Übersichtsarbeiten die Ernährungsepigenetik unter der Kategorie ›Umwelt-Epigenetik‹ subsumiert und die Arbeit an epigenetischen Effekten von Schadstoffen findet manchmal in den selben Labors statt, die auch zu Ernährung arbeiten. Insbesondere das Labor von Randy Jirtle4 hat 4 | Dieses von Randy Jirtle geleitete Labor an der Duke University war besonders produktiv im Hinblick auf Experimente, die als konstitutiv für die »Umwelt-Epigenetik« gelten.

Nahrung als Exposition. Epigenetik und Molekularisierung | 159

die Ernährungs- und Umwelt-Epigenetik gleichzeitig verfolgt, insbesondere in einem Versuch, am Agouti-Mausmodellsystem einer durch Bisphenol A-Exposition bedingten Untermethylierung durch eine Folsäure-Supplementierung entgegenzuwirken (Dolinoy et al. 2007b). Die Daten aus Experimenten mit Toxinen und Schadstoffen werden zusammen mit Daten der Ernährungsepigenetik abgehandelt – sie verschaffen sich wechselseitig Unterstützung, indem sie beide anzeigen, dass Substanzen außerhalb des Körpers lang anhaltende und vererbbare Veränderungen der Genexpression ohne Mutation verursachen. Weder Vinclozolin noch Bisphenol A sind selbst Nahrungsmittel, sie werden jedoch als Fungizid und Umweltschadstoff zusammen mit Nahrung verdaut. Vinclozolin ist ein verbreiteter fungizider Wirkstoff, der beim Anbau von Weintrauben angewandt wird, wohingegen Bisphenol A für Beläge bei Dosennahrung und -getränken sowie in Nahrungsbehältern aus Plastik, für Zahnversiegelungen und in medizinischen Röhrenmaterial breit genutzt wird. Essen kann also in seinem ›natürlichen‹ Zustand, in seinem optimierten Zustand oder in seinem unbeabsichtigt kontaminierten Zustand biologisch aktiv sein. Auf diese Weise wird Nahrung zu einer Umweltexposition unter anderen. Nahrung wurde immer verstanden als Teil der Umwelten, in denen Mensch und Tier leben; jedoch ist das historisch spezifische unseres Moments, dass Nahrung als ein Satz von Molekülen – wie eine Wolke um uns herum, über die wir nur begrenzte individuelle Kontrolle haben – verstanden, untersucht, dargestellt, technisch manipuliert und verdaut wird. Stoff wechsel ist nicht mehr der innere Ort der Verdauung von Nahrung; vielmehr wird das Wesen der Systeme selbst, die verdauen und auf Verdauung reagieren, durch diese molekulare Exposition neu konfiguriert. Damit wird Metabolismus ein wesentlicher Ort für die soziale Neu-Formierung des Körpers und für die Hoffnung auf therapeutische Intervention. Aus dem Englischen von Susanne Bauer

160 | Hannah Landecker

Literatur Allis, C. David/Jenuwein, Thomas/Reinberg, Danny (Hg.) (2007): Epigenetics, Cold Spring Harbor: Laboratory Press. Anway, Matthew D./Leathers, Charles/Skinner, Michael K. (2006): »Endocrine Disruptor Vincolozolin Induced Epigenetic Transgenerational Adult-Onset Disease«. In: Endocrinology 147 (12), S. 5515-5523. Bird, Adrian (2007): »Perceptions of Epigenetics«. In: Nature 447, S. 396-398. Bultman, Scott J./Michaud, Edward J./Woychik, Richard P. (1992): »Molecular characterization of the mouse agouti locus«. In: Cell 71, S. 1195-1204. Burdge, Graham C./Hanson, Mark A./Slater-Jefferies, Jo L./Lillycrop, Karen A. (2007): »Epigenetic regulation of transcription: a mechanism for inducing variations in phenotype (fetal programming) by differences in nutrition during early life?«. In: British Journal of Nutrition 97 (6), S. 1036-1046. Canguilhem, Georges (2001): »The Living and its Milieu«. In: Grey Room 3, S. 7-31. Cohen, Ed (2009): A Body Worth Defending. Immunity, Biopolitics, and the Apotheosis of the Modern Body, Durham: Duke University Press. Davey-Smith, George/Kuh, Diana (1997): »Does Early Nutrition Affect Later Health? Views from the 1930s and 1980s«. In: David F. Smith (Hg.), Nutrition in Britain: Science, Scientists, and Politics in the Twentieth Century, London/New York: Routledge, S. 214-237. De Chadarevian, Soraya/Kamminga, Harmke (1998): Molecularizing Biology and Medicine. New Practices and Alliances 1910s-1970s, Amsterdam: Harwood Academic Publishers. Dolinoy, Dana C. (2008): »The agouti mouse model. An epigenetic biosensor for nutritional and environmental alterations on the fetal epigenome«. In: Nutrition Reviews 66, S. 7-11. Dolinoy, Dana C./Huang, Dale/Jirtle, Randy L. (2007a): »Maternal nutrient supplementation counteracts bisphenol A-induced DNA hypomethylation in early development«. In: Proceedings of the National Academy of Sciences 104, S. 13056-13061. Dolinoy, Dana C./Weidman, Jennifer/Jirtle, Randy L. (2007b): »Epigenetic gene regulation. Linking early developmental

Nahrung als Exposition. Epigenetik und Molekularisierung | 161

environment to adult disease«. In: Reproductive Toxicology 23 (3), S. 297-307. Graveland-Bikker, Joanke/De Kruif, Cornelis (2006): »Unique milk protein based nanotubes. Food and nanotechnology meet«. In: Trends in Food Science & Technology 17 (5), S. 196-203. Gross, Liza (2007): »The Toxic Origins of Disease«. In: PLoS Biology 5 (7), e193. Heindel, Jerrold J./vom Saal, Frederick F. (2008): »Meeting report: batch-to-batch variability in estrogenic activity in commercial animal diets. Importance and approaches for laboratory animal research«. In: Environmental Health Perspectives 116 (3), S. 389-393. Hunt, Patricia A./Koehler, Kara E./Susiarjo, Martha/Hodges, Craig A./Ilagan, Arlene/Voigt, Robert C./Thomas, Sally/ Thomas, Brian F./Hassold, Terry J. (2003): »Bisphenol A exposure causes meiotic aneuploidy in the female mouse«. In: Current Biology 13 (7), S. 546-553. Kaati, Gunnar/Bygren, Lars Olov/Edvinsson Sören (2002): »Cardiovascular and diabetes mortality determined by nutrition during parents’ and grandparents’ slow growth period«. In: European Journal of Human Genetics 10, S. 682-688. Kuzawa, Cristopher W./Sweet, Elizabeth (2009): »Epigenetics and the embodiment of race. Developmental origins of US racial disparities in cardiovascular health«. In: American Journal of Human Biology 21 (1), S. 2-15. LaPensee, Elizabeth W./Tuttle, Traci R./Fox, Sejal R./Ben-Jonathan, Nira (2009): »Bisphenol A at low nanomolar doses confers chemoresistance in estrogen receptor-positive and negative breast cancer cells«. In: Environmental Health Perspectives 117 (2), S. 175. Mason, J./Dickstein, A./Jacques, P.F./Haggarty, P./Selhub, J./ Dallal, G./Rosenberg, I.H. (2007): »A temporal association between folic acid fortification and an increase in colorectal cancer rates may be illuminating important biological principles. A hypothesis«. In: Cancer Epidemiology Biomarkers & Prevention 16 (7), S. 1325. Pembrey, Marcus E./Bygren, Lars Olov/Kaati, Gunnar/Edvinsson, Sören/Northstone, Kate/Sjöström, Michael/Golding, Jean and The ALSPAC Study Team (2006): »Sex-specific,

162 | Hannah Landecker

male-line transgenerational responses in humans«. In: European Journal of Human Genetics 14 (2), S. 159-166. Pembrey, Marcus E. (2002): »Time to Take Epigenetic Inheritance Seriously«. European Journal of Human Genetics 10, S. 669-670. Pollan, Michael (2007): »Unhappy Meals«. In: New York Times Magazine, 28. Januar. Rose, Nikolas (2006): The Politics of Life Itself. Biomedicine, Power, and Subjectivity in the Twenty-First Century, Princeton: Princeton University Press. Shostak, Sara (2005): »The emergence of toxicogenomics. A case study of molecularization«. In: Social Studies of Science 35 (3), S. 367-403. Shostak, Sara (2007): »Translating at work. Genetically modified mouse models and molecularization in the environmental health sciences«. In: Science, Technology & Human Values 32 (3), S. 315-338. Stassart, Pierre/Whatmore, Sarah (2003): »Metabolizing Risk. Food Scares and the Un/Re-making of Belgian Beef«. In: Environment and Planning A 35, S. 449-462. Susiarjo, M./Hassold, T.J./Freeman, E./Hunt, P.A. (2007): »Bisphenol A Exposure In Utero Disrupts Early Oogenesis in the Mouse«. In: PLoS Genet 3 (1), S. e5. Vandenberg, Laura N./Maffini, Maricel V./Sonnenschein, Carlos/Rubin, Beverly S./Soto, Ana M. (2009): »Bisphenol-A and the great divide: a review of controversies in the field of endocrine disruption«. In: Endocrine Reviews 30 (1), S. 75. Waterland, Robert A. (2006): »Epigenetic mechanisms and gastrointestinal development«. In: The Journal of Pediatrics 149 (5S), S. 137-142. Waterland, Robert A./Jirtle, Randy L. (2003): »Transposable elements. Targets for early nutritional effects on epigenetic gene regulation«. In: Molecular and Cellular Biology 23 (15), S. 5293-5300. Waterland, Robert A./Lin, Juan-Ru/Smith, Charlotte A./Jirtle, Randy L. (2006): »Post-weaning diet affects genomic imprinting at the insulin-like growth factor 2 (Igf2) locus«. In: Human Molecular Genetics 15 (5), S. 705. Watters, Ethan (2006): »DNA is not destiny«. In: Discover 27 (11).

Nutrigenomik. Technowissenschaf tliches Fine-Tuning von Nahrung und Körper Susanne Bauer

Wie und was wir essen (sollen) ist nicht nur Thema von Lifestylemagazinen – es wird auch von Ernährungsforschung und Gesundheitswissenschaften immer wieder neu bewertet. Derzeit verändern die Biowissenschaften das Ernährungswissen, was sich nicht nur innerhalb sondern auch außerhalb des Labors niederschlägt: Nahrungsmittel werden auf molekularbiologischfunktioneller Ebene neu geordnet – wie beispielsweise nach ihrer Kapazität, freie Sauerstoff radikale im Körper zu binden; darüber werden Nahrungsmittel in Bezug auf Präventionseffekte oder Anti-Aging-Potentiale – neben der gezielten Herstellung von Functional Foods – neu klassifiziert und vermarktet.1 Gleichzeitig richtet sich der biomedizinische Blick auf individuelle biologische Variationen der Konsumenten selbst: Im Hinblick auf Ernährungsempfehlungen wird zunehmend gefragt, inwieweit Obst und Gemüse für alle gleich gesund sind. Unter dem Schlagwort »Essen Sie nicht irgendwas, denn Sie sind nicht

1 | In Ernährungsratgebern wird z.B. zunehmend auf »ORACWerte« (Oxygen Radical Absorbance Capacity) als Vergleichsmaß für die »antioxidativen Potentiale« von Nahrungsmitteln Bezug genommen.

164 | Susanne Bauer

irgendwer!«2 werden nutrigenetische Tests kommerziell angeboten; wenn auch bereits auf dem Markt, werden diese Tests jedoch von Ernährungsmedizinern als noch zu wenig aussagekräftig angesehen (vgl. Joost 2005). Differentielle und diversifizierte Konzepte von Ernährung im Zuge einer »individualisierten Medizin« sind an die Technologien der Genomik und Postgenomik geknüpft. Fragen von Ernährung und Gesundheit werden als Gegenstände molekularer Epidemiologie, Bioinformatik und Ernährungssystembiologie bearbeitet – und dabei werden Körper wie Nahrung transformiert. Die Infrastrukturen und Forschungsplattformen,3 die diese Transformationsprozesse bewirken – also die materiellen und digitalen Technologien und Gefüge der Forschung – stehen im Mittelpunkt dieses Beitrags. Konkret werden hierzu einige bio-technowissenschaftliche Assemblagen4 aktueller Ernährungsforschung näher betrachtet. Während sich die klassischen Technology Studies (vgl. Bijker et al. 1987) vor allem in der Auseinandersetzung mit großtechnischen Systemen entwickelt haben, liegen im Fall der Nutrigenomik – wie in der biomedizinischen Forschung generell – Arrangements miniaturisierter Artefakte wie z.B. DNA-Chips (Microarrays)5 vor. Diese Mikro-Konstellationen im Labor sind gleichzeitig Teil hoch vernetzter Strukturen; diese zugleich materiellen und digitalen Netzwerke können – trotz ihrer Mikro- bzw. Nano-Dimensionen – als produktive sozio-technische Systeme untersucht werden. Neben molekularbiologischen Labortechniken im engeren Sinn 2 | Diese Slogans sind Teil der Vermarktungsstrategien in Broschüren für nutrigenetische Tests. 3 | Zum Begriff der Infrastrukturen, vgl. Bowker/Star 1999; Bowker 2005; zum Begriff biomedizinische Plattform vgl. Keating/ Cambrosio 2003. 4 | Zum Konzept der Technowissenschaft (technoscience), vgl. Latour 1987; Haraway 1997. Der Begriff der ›Assemblage‹ wurde (von Gilles Deleuze und Félix Guattari übernommen) von Paul Rabinow (1996) und Aihwa Ong/Steven Collier (2005) aufgegriffen – insbesondere um heterogene und emergente Konfigurationen u.a. in der Biomedizin zu beschreiben (vgl. Marcus/Saka 2006). 5 | Microarrays (auch: DNA-Chips) sind Glas- oder Kunststoffträger mit Tausenden definierter Genfragmente, mit denen u.a. Sequenz und Aktivität genetischen Materials aus Proben untersucht werden können.

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 165

sind mit biomedizinischer Ernährungsforschung auch Datensammlungen zu Lebens- und Ernährungsgewohnheiten im ›Labor der Bevölkerung‹ verbunden. An der Schnittstelle zu epidemiologischer Gesundheitsforschung hat sich hier im Zuge der Genomforschung die Forschungsrichtung »Public Health Genomics« herausgebildet. Um robuste Ergebnisse zu Interaktionen zwischen einer immer größeren Zahl an Einflussfaktoren mit potentieller Relevanz für Public Health zu liefern, werden diese Studien zunehmend in großen Konsortien durchgeführt. In den letzen Jahren sind Mittel aus der Forschungsförderung der EU verstärkt in Projekte geflossen, die solche koordinierten europäischen Infrastrukturen aufbauen. Durch eine Fokussierung von Infrastrukturen lässt sich zeigen, wie diese aktiv an »ontological politics« (Mol 1999) teilnehmen – und dabei mit konstituieren, was Ernährung für ›europäische Bürger‹ ist und in der Praxis ausmacht. Häufig wird das Feld der Nutrigenomik über die Anwendung einer Reihe von Technologien – der Transkriptomik, Proteomik, Metabolomik, Nutrigenetik und Epigenomik – umrissen (Önning et al. 2009). Während bereits die Genomik neben der Forschung zur Gesamtheit der Gene (des Genoms) auch die ›Expressionen‹ dieses Genoms zu untersuchen begann, umfassen die ›Omics-Technologien‹ der Postgenomik weitere Komplexitätserweiterungen: Hier kommen ebenso die Gesamtheit der Proteine (des Proteoms) und ihrer Strukturen und Wechselwirkungen sowie darüber hinaus die Gesamtheit aller Stoff wechselprodukte – das Metabolom6 – ins Spiel. Für die biostatistische Verarbeitung solcher Daten werden kontinuierlich Software-Tools entwickelt; diese Tools sind hochgradig mobil und erfahren z.B. auch im Marketing Verwendung – im Data Mining von Kundendaten und der Erstellung von Profilen. Dass die in der Genomik entwickelten digitalen Techniken auch – u.a. als »Soziomik« (McNally 2005) – in die Sozialwissenschaften wandern und dort produktiv eingesetzt werden, unterstreicht die Mobilität dieser Verfahren. Im Zuge zunehmender Prominenz von Komplexität, Integration und Multi6 | Das Metabolom eines Organismus umfasst die Gesamtheit aller im Zuge der Verstoff wechslung von Nahrung entstehenden Verbindungen zu einem bestimmten Zeitpunkt. (vgl. z.B. Winning et al. 2009).

166 | Susanne Bauer

Level Ansätzen haben die in der Genomforschung etablierten Technologien weiterhin eine Schlüsselfunktion inne: Auch die post-genomische Forschung ist durch eine Vervielfältigung der Datenströme durch Hochdurchsatz-Verfahren und Chip-Technologien, durch das Vorhalten großer Biobanken und Datenbanken sowie durch das Generieren von Expressionsdaten über Microarrays, die simultan eine Vielzahl genetischer Marker erfassen können, charakterisiert. Angewandt auf die Ernährungsforschung sind mit den Omics-Technologien neue Subdisziplinen und Forschungsnischen entstanden – hier wären insbesondere die neueren Entwicklungen der Ernährungs-Epigenetik (vgl. Landecker in diesem Band) sowie das im Folgenden näher betrachtete Feld der Nutrigenomik zu nennen. Wissenschaftlerinnen eines europäischen Forschungsverbundes zur Nutrigenomik beschreiben ihr Forschungsgebiet wie folgt: »Nutrigenomics is the science that examines the response of individuals to food compounds using post-genomic and related technologies (e.g. genomics, transcriptomics, proteomics, metabol/nomic etc.). The long-term aim of nutrigenomics is to understand how the whole body responds to real foods using an integrated approach termed ›systems biology‹. The huge advantage in this approach is that the studies can examine people (i.e. populations, sub-populations – based on genes or disease – and individuals), food, life-stage and life-style without preconceived ideas.«7

Nutrigenomik wird hier über zwei Charakteristika definiert – die Anwendung der Omics-Technologien und die Individualisierung der Ernährung über interindividuelle Unterschiede im Stoff wechsel. Die Idee, mit einem systembiologischen Ansatz den Gegenstand – das Zusammenspiel von Menschen, Nahrung, Lebensphase und Lebensstil – »ohne vorgefasste Ideen« neu definieren und inventarisieren zu können, wirft die Frage danach auf, wie diese neuen Werkzeuge, Objekte und Fragestellungen der Ernährungsforschung produktiv werden – auf welche Art und Weise sie sowohl die Arbeit der beteiligten Forschenden wie auch ihre Gegenstände neu organisieren. 7 | Website NuGO, www.nugo.org/everyone/28383/24023 (20.11.

2009).

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 167

In die molekulargenetische Erforschung der Ernährung werden beträchtliche Ressourcen investiert – auch weil das heterogene Feld der Nutrigenomik als marktrelevant gilt. Zu den Anwendungsvisionen zählen die gezielte Herstellung von Functional Foods (vgl. Chadwick et al. 2003) und die Manipulation landwirtschaftlicher Erzeugnisse in der so genannten ›grünen Gentechnologie‹8 – mit denen die Grenze zwischen ›Farming‹ und ›Pharming‹ (Spök 2006) und der Produktion von Nahrungsmitteln und Medikamenten verschwimmt. Weniger kontrovers scheint derzeit die so genannte ›rote Gentechnologie‹, die potentiell klinisch relevantes molekularbiologisches Wissen verspricht. Dies wird als Weg zu einer »personalisierten« oder »individuell maßgeschneiderten Medizin« und – im Fall der Ernährungswissenschaften – individualisierten Ernährungsempfehlungen beworben. Weitreichende Anwendungsvisionen – von neuen Medikamenten und optimierten Therapien durch rote Gentechnologie bis hin zur Abhilfe beim ›Welternährungsproblem‹ durch optimierte Produktion mithilfe grüner Gentechnologie – haben die Biowissenschaften stets begleitet. Als in die Zukunft gerichtete ›Ökonomien des Versprechens‹ (vgl. Fortun 1999) funktionieren diese Visionen als Kristallisationsflächen von hype und hope – oder auch von politischem Protest wie bei der grünen Gentechnologie. Aus sozialwissenschaftlicher Perspektive wurden – im Zuge von Analysen zur Genomforschung – hierzu die Ansätze einer »sociology of hope« bzw. »sociology of expectations« (Brown/Michael 2003; Brown 2003; Borup et al. 2006) entwickelt. Insbesondere arbeiten diese heraus, dass die in Erwartungen umrissene Zukunft bereits in der Gegenwart präsent und wirksam ist. Anders als die Anfangsvisionen des Humangenompojekts, in deren populärwissenschaftlicher Version meist von einzelnen »Genen für etwas« die Rede war, gehen aktuelle Konzepte von weit komplexeren nicht gen-deterministischen Wechselwirkungen aus, bei denen die molekularen ›Umwelten‹ sowie die Frage nach präventiven Umwelt- und Lebensstil-Adjustierungen eine zentrale Rolle spielen. Für das Feld der Ernährungswissenschaft erkundet dieser Beitrag einige Konstellationen der Postgenomik; im Mittelpunkt stehen die konkreten tech8 | Gleichzeitig sind Obst und Gemüse Objekt von Züchtungstechnologie und grüner Gentechnologie.

168 | Susanne Bauer

nologischen Infrastrukturen und Forschungssysteme, ihre jeweilige Standardisierungs- und Stabilisierungsarbeit sowie ihre Koproduktion der Differenzierungen in Public Health und individualisierten Präventionskonzepten. Ein europäisches Nutrigenomik-Netzwerk dient als Beispiel für eine solche Verdichtung emergenter Infrastrukturen und Technologien, über die das Feld Nahrung und Ernährung – parallel in vitro, in vivo und in silico – transformiert wird. Ähnlich wie die Eingangskapitel (vgl. Garcia-Parpet; Hegnes; Haufe in diesem Band) folgt dieser Text dabei einer konkreten Nahrungsmittelgruppe: Wie werden Obst und Gemüse – in diesem Fall Beeren und Äpfel – in den technologischen Assemblagen an den Kreuzungspunkten von Ernährungsforschung, Postgenomik und Epidemiologie experimentell mobilisiert? Der Artikel versucht, Technologien und Grundlagenwissen in the making auch von den lokalen Knotenpunkten sozio-technischer Netzwerke aus zu denken – hierbei stellten sich lokale Standort- und Modernisierungsstrategien wie europäische und nationale Strukturförderung als zentrale Momente heraus. Damit rückt neben den Transformationen der Infrastrukturen auch das Verhältnis zwischen Technologie, Ökonomie, Subjektivität und citizenship mit in den Blick.

Infrastruk turen im Wandel Reiste man zur Nutrigenomik-Woche (NuGO-Week)9 mit öffentlichen Verkehrsmitteln an, zeigten sich gleich mehrere Schichtungen ökonomisch-technologischen Wandels. Der auf der Anreisebeschreibung ausgewiesene Weg führte von Potsdam mit der Regionalbahn Richtung Flughafen Schönefeld zum Bahnhof »Pirschheide«; dieser war bis 1991 ein Knotenpunkt des Fernund Nahverkehrs – zu sehen an der weitläufigen Anlage und inzwischen teilweise abgeblätterten Lettern »Potsdam Hbf«. In der DDR war dieser Bahnhof ein wichtiger Verkehrsknotenpunkt des Regional- und Fernverkehrs; mit den veränderten 9 | Im Herbst 2008 wurde die Jahrestagung des europäischen

Nutrigenomik-Verbundes vom Deutschen Institut für Ernährungsforschung (DIfE) koordiniert. Zur Geschichte der Ernährungsforschung am Rehbrücker Institut vor 1989, vgl. den Beitrag von Ulrike Thoms (in diesem Band).

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 169

Infrastrukturplanungen nach der Wende wurde der Bahnhof immer mehr aufgegeben – heute halten die Züge dort nur noch »im Bedarfsfall«; die in den 1950er Jahren gebaute Haupthalle ist zugemauert, die oberen Bahnsteige sind nicht mehr zugänglich. Wege von hier führen vorbei an von der DB abgesperrten Bahnsteigen und vermauerten Treppenaufgängen. Neben einigen Flachbauten, einem Imbiss und einer Bowling-Gaststätte am Bahnhof befinden sich in der bewaldeten Umgebung eine verlassene DB-Logistik-Liegenschaft und ein Leistungszentrum für Rudersport. In dieser Umgebung überrascht die Dimension des weitläufigen Kongresshotels; auf der Website ist nachzulesen, dass der nach der Wende gebaute Komplex im Sommer 1996 als Ostdeutsche Sparkassen-Akademie eröffnet worden war.10

Abbildung 8: Kongresshotel, 1996 als Ostdeutsche SparkassenAkademie eröff net (Foto: Susanne Bauer, 2008). Mit mehr als 400 Zimmern und über 40 Seminarräume und mehreren Restaurants, Business-Services, Bars, Lounges, Terrassen und Sport-, Wellness- und Gartenanlagen fungiert das Gebäude seit 2004 als Kongresshotel. Die Hotelanlage steht auf dem Gelände des ehemaligen Potsdamer Luftschiff hafens;11 auf der Website wird die Anlage als »drei futuristische, scheinbar 10 | Ein Rückblick auf der Website verweist auf einen »erhöhten Schulungsbedarf« nach der Wende. Vgl. www.kongresshotelpotsdam.de/5-jahre-kongresshotel.html (20.10.2009). 11 | Die Potsdamer Luftschiff werft war von 1910-1917 in Be-

170 | Susanne Bauer

frei schwebende Hotelgebäude« beworben; Teile einer historischen Shedhalle waren integriert worden und bilden das äußere Gehäuse für direkt aneinander gereihte kleine Seminarräume. Im weitläufigen Foyer des sonst still wirkenden Hotelkomplexes begann die Welt der Nutrigenomik – ein Bereich war für die European Nutrigenomics Organisation (NuGO), ein anderer für ein Sparkassenseminar, ein weiterer für eine Innovationskonferenz reserviert. An der kurz vor Tagungsbeginn betriebsamen Rezeption tauchte man in die Gesprächsfetzen der überwiegend 25-30-Jährigen aus ganz Europa angereisten Gruppen von Doktorandinnen und Postdocs ein: Wer ist gerade in welchen Labors angekommen, wie war der letzte Urlaub, die Frustration über noch nicht eingetroffene Mäuse für das Dissertationsprojekt, Erfahrungen mit Visualisierungssoftware usw. Dem Konferenzprogramm waren unterschiedliche Formate zu entnehmen – Keynote Lectures und Short Talks durch eingeladene externe sowie im NuGO-Verbund organisierte Wissenschaftlerinnen, Präsentationen in Parallelsessions sowie PosterBegehungen. Zu den aktuellen Schwerpunkten gehörten u.a. Omics-Technologien, Ernährung und Darmkrebs und Prädiktion komplexer ernährungs-assoziierter Erkrankungen. Einige der Veranstaltungen waren als Focus Team Sessions ausgewiesen; hier wurden insbesondere Ergebnisse der bestehenden Forschungskooperationen diskutiert – z.B. zu »Nutritional Epigenomics« oder »Comparative Nutritional Systems Biology«.12 Bei weitem die meisten Teilnehmenden, insbesondere die jüngeren Forscher, waren dem Format der Posterpräsentation zugeordnet.13 Der eigentlichen Tagungswoche gingen Satelliten-Workshops zu »Human Studies« und »Ethics in Nutrigenomics« voraus – nach Voranmeldung waren die Abstracts vorab per email an Teilnehmende verschickt worden.

trieb; nach Ende des ersten Weltkriegs wurde dort der Bau von Luftschiffen eingestellt. 12 | Vgl. Tagungsprogramm NuGO Week 2008. 13 | Die Posterpräsentation fand an Ständen im Foyer in der Nähe des Mittags-Buffets statt; die Möglichkeit zu gemeinsamen Begehungen und zu individuellen Diskussionen wurde intensiv genutzt.

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 171

Das in den Seminarräumen ausliegende Notizpapier des Kongresshotels war überschrieben mit »Willkommen an Bord unserer Luftschiffe«. Der Schauplatz technischer Infrastrukturen im Wandel – vom Luftschiff hafen zu Multifunktions-Kongresshotel – bildet die Marketing-Strategie für das Zukunftsinvestment Weiterbildung und Qualifi kation genutzt. Wird dieser konkrete Ort als zusätzliches Prisma auf Technologien in the making herangezogen, lassen sich Fragen nach ›technischen Architekturen‹ sowie deren Reichweiten, Umnutzungen und Performativitäten fokussieren. Welche Art von technischen Infrastrukturen und Konstellationen sowie Transportsysteme und Mobilitätsbedingungen sind hier im Entstehen begriffen? Welche Infrastrukturen bezüglich Ätiologien werden im Zuge der Genomik aufgebaut, welche Strukturanpassungen werden hier koproduziert? Welche Relationen und Ökonomien von Technologie und Subjektivität ergeben sich im Zeitalter der Postgenomik?

E xperimentelle Anordnungen postgenomischer Ernährungsforschung Nutrigenomische Forschungspraxen sind nicht uniform; vielmehr werden unterschiedliche Forschungsplattformen jeweils um bestimmte Fragestellungen verbunden. Die experimentellen Konstellationen, in denen Omics-Technologien im Feld der Ernährungswissenschaft eingesetzt werden, reichen von Zellkulturen, Tiermodellen, Studien mit freiwilligen Probanden zu bevölkerungsbasierten Interventionsstudien und an der Schnittstelle von Genomforschung und Epidemiologie initiierten Biobankprojekten. Die postgenomische Spielart der Ernährungsforschung – insbesondere die Metabolomik – wird auf der Website des Forschungsnetzwerkes wie folgt umrissen: »Metabolomik untersucht den gesamten Metabolismus, was letztlich das Verhalten verschiedener Genmuster charakterisiert« (The European Nutrigenomics Network 2009).14

14 | Vgl. The European Nutrigenomics Network (2009), www. nugo.org/everyone/28383/24029 (letzter Zugriff: 20.11.2009).

172 | Susanne Bauer

So können beispielsweise die Untersuchung des Apfelmetaboloms an Mäusen, molekulare Assays zur Verdauung von Beeren an Zellkulturen sowie epidemiologische Studien zu Gen-Lebensstil-Interaktionen parallel untersucht und verglichen werden. In der Nutrigenomik überlagern sich in vitro Experimente (im Reagenzglas) mit parallel durchgeführten in vivo Studiendesigns, in denen mit Tieren sowie mit Probanden oder epidemiologisch mit Interventionsstudien in der Bevölkerung gearbeitet wird. Gleichzeitig damit findet ein immer größerer Teil quasi-experimenteller Forschung – als Bioinformatik und Systembiologie – auf in-silico-Plattformen statt, also in elektronischen Speichermedien bzw. informationstechnischen Infrastrukturen. Diese umfassen u.a. internetbasierte Datenbanken zu genetischen Polymorphismen und Haplotypen (beides Marker genetischer Variation), virtuelle Plattformen eines Forschungsnetzwerkes; teilweise werden auch Risikomodellierungen an den Datensätzen ernährungsepidemiologischer Kohortenstudien dazu gerechnet. Anhand dieser technischen Assemblagen der Forschung sollen Nahrung und Organismus als symmetrisch operationalisierte Konstellationen in den Blick genommen werden.

Beeren in vitro: Verdauung im Reagenzglas Um die Verdauung von Obst und Gemüse als molekulare Prozesse in ihrem Durchgang durch den menschlichen Organismus zu untersuchen, werden diese Prozesse außerhalb des Organismus im Labor (in vitro) simuliert: Zentrale Mechanismen der Verdauung werden in einem Experimentalaufbau im Labor näherungsweise in Stufen ›nachgebaut‹ und die dabei entstehenden Stoff wechselprodukte analysiert. Vereinfacht dargestellt werden im in-vitro-System einzelne Komponenten, die jeweils die Stoff wechselvorgänge im Magen und in einzelnen Darmabschnitten (einschließlich Temperatur, pH-Wert, Zugabe von Gallensäuren) simulieren, nacheinander geschaltet; die untersuchten Beeren durchlaufen einen ›Verdauungsprozess‹ außerhalb des Organismus, womit auch ihre Effekte auf die im Labor ›nachgebauten‹ molekularen Prozesse messbar werden. Solche Laborkonstellationen sind auch daraufhin ausgerichtet, die in einigen epidemiologischen Studien aufgezeigten

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 173

protektiven Effekte von Obst und Gemüse – beispielsweise in Bezug auf Herz-Kreislauf- und Krebsrisiken – auf molekularer Ebene näher zu charakterisieren. Insbesondere Darmkrebs gilt als besonders durch Ernährung beeinflussbar (vgl. Coates et al. 2007). Welche Effekte Obst und Gemüse auf Mechanismen der Tumorentstehung haben kann, wird dabei folgendermaßen gedacht: Freie Radikale schädigen die DNA und wenn diese Schäden nicht repariert werden, kann dies schrittweise in einen karzinogenen Prozess münden. Als protektive Komponente gelten daher so genannte »Antioxidantien« – bioaktive Stoffe, die selbst keine Nährstoffe sind, aber Schädigungen der DNA, z.B. durch Absorption von freien Sauerstoffradikalen, verhindern; sie wirken, indem sie »oxidativen Stress der DNA senken« und Reparaturmechanismen fördern. In-vitro-Systeme sollen diese Wirkungsmechanismen charakterisieren und ›bioaktive‹ Substanzen identifizieren. Beeren beispielsweise weisen einen hohen Gehalt an Phytochemikalien, insbesondere Polyphenolen, auf. Coates et al. (2007) haben Himbeeren auf diese Weise untersucht. Für Himbeeren ist ein besonders hoher Gehalt an Antioxidantien bekannt und protektive Effekte waren in früheren Studien bereits nachgewiesen worden – jedoch mit reinen Phytochemikalien, was physiologisch wenig realistisch ist. Ziel der Forscherinnen war es, die realen physiologischen Bedingungen in einem nächsten Schritt in vitro zu simulieren – also Bedingungen zu schaffen, die den physiochemischen Mechanismen eher entsprachen. Zu diesem Zweck wurden von lokalen Farmern schottische Himbeeren gekauft; diese werden dann über in-vitro-Verdauungssysteme geschickt, um ein realistisches Gemisch an Phytochemikalien herzustellen, welche die Verdauung bis in den Darm ›überleben‹. Indem die Beeren über zwei in-vitro-Stufen, die Bedingungen im Magen bzw. im oberen Dickdarm simulieren, ›verdaut‹ wurden, wurde ein »dickdarmverfügbarer Himbeer-Extrakt« gewonnen. In vitro verdauter Beeren-Extrakt – so genannter »colon-available raspberry extract« (kurz: »CARE«) – wurde mit »in-vitro-Zellsystemen« auf seine Effekte in den molekularen Mechanismen der Tumorentstehung untersucht; hierfür verwendeten die Forscherinnen unter anderem menschliche Dickdarmtumorzellen, die als Zelllinien von der European Collection of Cell Cultures in Salisbury, UK, bezogen wurden. Zellkulturen wurden angelegt und Himbeerextrakts in verschiedenen Konzentrationen zuge-

174 | Susanne Bauer

geben, um dann verschiedene Prozesse und unterschiedliche Stadien der Tumorgenese isoliert zu betrachten; die Effekte des Extraktes auf DNA bzw. Schädigungen der DNA in diesen Zellsystemen wurde mit einer Reihe molekularbiologischer Tests erfasst (vgl. Coates et al. 2007). Die untersuchten Stadien umfassen dabei Suszeptibilität gegenüber Mutationen, Tumor-Initiation und Zellvermehrung sowie Metastasenbildung und Ausbreitung der Tumorzellen im Körper; für jedes dieser Stadien wurde der Effekt des Extrakts über molekulare Testsysteme (u.a. der COMET-Assay) für ausgewählte daran beteiligte Mechanismen untersucht. Auf diese Weise werden nicht nur Einzelstoffe, sondern auch synergistische Effekte mehrerer Substanzen berücksichtigt. Bei der Untersuchung ihrer protektiven Wirkungen wurden auch weitere – erst im Zuge der ›Verdauung‹ entstandenen – Polyphenole gefunden (Coates et al. 2007). Manche Nutrigenomiker sehen in der Aufmerksamkeit gegenüber physiologisch realistischer Komplexität und Synergieeffekten eine »holistische« Komponente; für andere liegen die interessanten Anwendungspotentiale in der Identifikation von Einzelsubstanzen, die dann als Nutraceuticals vermarktet werden können.

Äpfel in vivo: E xperimentelle Standardisierungen Wenn auch Gesundheitskampagnen für mehr Obst und Gemüsekonsum (beispielsweise die »Fünf pro Tag« Kampagne) inzwischen etabliert sind, ist der molekularbiologische Nachweis der Effekte von Obst und Gemüse auf den menschlichen Metabolismus alles andere als trivial. Es sind meist Forschungen an Modellorganismen – in der Metabolomik reichen diese von z.B. Hefe über Pflanzen zu Mäusen – aus denen erste Schlüsse auch bezüglich des menschlichen Stoff wechsels gezogen werden. Effekte einzelner Substanzen auf den Metabolismus fallen in das Forschungsgebiet der Toxikologie und Pharmakologie. Das Denken in Dosis-Wirkungs-Beziehungen bringt die untersuchten Äpfel bzw. Zwiebeln in eine Reihe mit den von Pharmakologie und Toxikologie untersuchten Einzelstoffen wie Therapeutika und Schadstoffe, für die Dosis-Wirkungsbeziehungen abgeleitet werden. Jedoch ist ein Apfel biochemisch hoch komplex und

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 175

vor allem ist ein Apfel stofflich nicht dasselbe wie ein daneben liegender ›gleicher‹ Apfel – was die exakte biochemische Zusammensetzung der in ihnen enthaltenen Stoffen und deren quantitatives Verhältnis angeht. Bezüglich des Experimentalsystems stellt sich für Forschende die Frage, ob und wie DosisWirkungs-Beziehungen für Nahrungsmittelgruppen wie Obst und Gemüse abgeschätzt werden können – vor allem, wie dies im relevanten Bereich physiologisch plausibler Dosen aussehen kann. Auch die Spezifizierung der Wirkungsmechanismen ist komplex; so geht es zunächst um die Charakterisierung des Metaboloms – also der Charakterisierung aller am Zellstoff wechsel beteiligten Verbindungen. Erklärtes Ziel ist es auch hier, möglichst »holistisch« vorzugehen und komplexe Information auch über diejenigen Stoff wechselprozesse zu integrieren, welche sich nicht in der Transkription der RNA oder in der Expression von Proteinen niederschlagen. Die Zusammensetzung und Konzentrationen der dabei zu erfassenden biochemischen Verbindungen im Organismus ändern sich teilweise von Sekunde zu Sekunde – daher ist die interindividuelle wie auch die intraindividuelle Variation äußerst groß.15 Für jegliche Vergleiche sind daher auf beiden Seiten – der Nahrungszufuhr und der Messung im Organismus – genaue Standardisierungen erforderlich. Soll das Essen von Äpfeln im Labor untersucht werden, geht es um ein komplexes variables Stoffgemisch – daher muss zunächst eine exakte Definition des Apfels für dieses Experiment festgehalten werden; der Apfel muss im Hinblick auf seine chemischen Bestandteile standardisiert werden. Soll das Metabolom qualitativ und quantitativ analysiert werden, müssen diese Bedingungen – die Beschaffenheit des gegessenen ›Apfels‹ – genau spezifiziert und kontrolliert sein. Dies erfordert eine Vielzahl an Entscheidungen im Experimentalsystem – ist der Apfel-Standard etabliert, isst ein standardisiertes Kollektiv von Ratten oder Mäusen definierte Dosen standardisierten Apfelpräparats als Zusatzfutter für ca. vier Wochen. Hierbei werden jeweils Veränderungen der Kon15 | Bei der Kontrolle von Variabilität werden insbesondere

analytische und biologische Variabilität – innerhalb eines Labors, zwischen Laboren sowie Variabilität zwischen Individuen und innerhalb eines Individuums (abhängig von Organ bzw. Zelle sowie als Variation über die Zeit) unterschieden.

176 | Susanne Bauer

zentrationen von Metaboliten bzw. Biomarkern im Vergleich zu Kontrollgruppen erfasst. Später werden analoge Versuche mit Apfeldiäten an möglichst homogenen Gruppen von Probanden durchgeführt, wobei insbesondere weitere Einflüsse (durch unterschiedliche Ernährung, Lebensstile, Umwelteinflüsse) auf die untersuchten Parameter zu berücksichtigen sind. Ähnlich wie in pharmakologischen Studien führen Nutrigenomikerinnen parallel zu Tierversuchen auch Studien mit Probanden durch. Bei diesen »Human Studies« geht es um die ›direkte‹ Erforschung des Einflusses von Ernährung und Nährstoffen ohne Umweg über Modellsysteme bzw. im Vergleich mit Ergebnissen aus Tiermodellen.16 Als materielle Verschränkung von Nahrung und Organismus aufgefasst, kann beispielsweise das Metabolom einer standardisierten Apfeldiät organismusübergreifend parallel von Maus bis Mensch untersucht werden (Dragsted et al. 2009). Präsentationen von Studien mit Probanden sind oft analog zu den vorher vorgestellten Tierexperimenten aufgebaut;17 die experimentelle Tätigkeit dieser Wissenschaftlerinnen springt zwischen Tier und Mensch hin und her; es wird sowohl mit Tieren – meist Ratten oder Mäusen bzw. »humanized mouse models« – als auch mit Probanden gearbeitet. Dazu müssen die Forscherinnen mit und zwischen den je unterschiedlichen Konventionen und Protokollen navigieren können. Der Aufbau und die Übertragung einer experimentell sinnvollen Fragestellung in ein machbares ethisches Protokoll für Versuche mit Probanden werden – im Vergleich zu Tierexperimenten – oft als schwierig problematisiert. Auch die lange Dauer der Studien ist für viele Laborwissenschaftler ungewohnt; statt Experimente über wenige Wochen haben sie es nun mit längerfristigeren »case-crossover designs« über Mona16 | Als längerfristige, auch methodologisch relevante Anwendungen in der Forschung selbst wird diskutiert, solche Biomarker eines Tages zur Validierung der Fragebogenangaben von Teilnehmenden an epidemiologischen Studien einsetzen zu können. 17 | Eine Präsentation begann beispielsweise mit »We let 4 healthy men fast for four days« – als Teil der Methodenbeschreibung wurde scherzhaft hinzugefügt »and of course they were not sacrificed at the end«. Am Ende wurde nicht nur der gesamten Arbeitsgruppe sondern explizit auch den (oft als »heroes« bezeichneten) Probanden gedankt.

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 177

te oder mit Interventionsstudien über Jahre zu tun. Einige der Sessions auf der Jahrestagung enthielten Ratschläge für Forscherinnen, die zum ersten Mal vom Tier zum Menschen wechseln – wie beispielsweise immer Fallzahl- und Power-Berechnungen für die zu untersuchende Fragestellung zu machen, um die Studien in statistisch optimaler Größe durchzuführen, und so keine Ressourcen für derart aufwändige Arbeiten zu verschwenden. Parallel zum Panel »Human Studies« wurde ein Satellitenworkshop zu ethischen Fragen der Nutrigenomik angeboten, neben biostatistischen Fragen ging es auch um das Ziel, gemeinsame ethische Richtlinien zu erarbeiten. Auf der Website sind einige Prinzipien dazu in Form eines »BioethicsTools« verfügbar. Im Workshop zu »Human Studies« wurden die Studien an Probanden in der Praxis als ein – besondere Aufmerksamkeit erfordernder – Sonderfall in den sonstigen Routinen vieler Forschenden sichtbar, in denen sonst großenteils auf Modellsysteme zurückgegriffen wird.

Biobanking, Data Pooling und Ernährungssystembiologie in silico Viele Zusammenhänge und Nachweisverfahren der Nutrigenomik sind noch im Stadium der ›Proof of Principles‹-Studien; in dieser Phase werden grundlegende Mechanismen etabliert – z.B. Biomarker entlang von Expositionseffekten oder Biomarker der Pathogenese – sowie entsprechende Messverfahren geprüft und validiert, bevor sie in größerem Maßstab zum Einsatz kommen. Haben sie diesen Schritt durchlaufen, stehen oft mehrjährige Phasen der Untersuchung entsprechender Hypothesen in Tierexperimenten, mit Probanden und schließlich in größeren epidemiologischen Studien, meist Interventionsstudien, an. Forschung zu diagnostischen Tests, klinischer Medizin und Public Health sind epistemologisch – jedoch oft auch institutionell-rechtlich – epidemiologisch-biostatistischen Methoden verpflichtet. Wird ein Risikofaktor als relevant postuliert, ist dieser Nachweis auch über epidemiologische Studiendesigns – und in Anlehnung an die Evidenzhierarchien der »evidenzbasierten Medizin« – zu führen, bevor z.B. Präventionsmaßnahmen als gerechtfertigt gelten. Entsprechende Studiendesigns – wie klinische Studien und deren Metaanalysen, randomisierte Inter-

178 | Susanne Bauer

ventionsstudien und Kohortenstudien – setzen individuelle Expositions- und Gesundheitsdaten (im Gegensatz zu regionalen Durchschnittsdaten) voraus. Großangelegte epidemiologische Studien sammeln daher systematisch Daten zu Lebensstil, Umwelt und Umfeld sowie zu Diagnosen; parallel dazu werden etwa seit den 1990er Jahren Biobanken initiiert, in welchen biologische Proben der Studienteilnehmenden, z.B. DNA, Serum oder Plasma für spätere Untersuchungen z.B. neuer Biomarker gelagert werden. Zusammen mit den epidemiologischen Datenbanken bilden diese äußerst dynamische Ressourcen für Forschungssysteme, an denen durch Omics-Technologien generierte Hypothesen andocken sowie neue Fragestellungen entstehen und im Sinn einer molekularen Epidemiologie – quasiexperimentell – empirisch-statistisch getestet werden können.18

Abbildung 9: Biobank einer ernährungsepidemiologischen Studie (Foto: Susanne Bauer, 2008). In klassischer ernährungsepidemiologischer Perspektive stellt ›Ernährung‹ die zu untersuchende ›Exposition‹ dar, die statistisch ins Verhältnis zu ›Outcomes‹ (›Krankheit‹) gesetzt wird; nach Expositionsklassen stratifiziert werden dann Risikoschät18 | Zum Konzept der Experimentalsysteme und der Produktion von Neuem in diesen Systemen, vgl. Rheinberger 2001.

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 179

zer berechnet. Beispielsweise werden Obst- und Gemüsekonsum über Fragebögen erhoben, in eine Datenbank überführt und als Ernährungsvariablen (Expositionsfaktoren) für epidemiologische Risikoabschätzungen operationalisiert. Während diese Studien vorwiegend auf Effekte von Ernährung ausgerichtet sind, fokussieren Studiendesigns der genetischen Epidemiologie gezielt auf Marker genetischer Variation wie Polymorphismen. In Assoziationsstudien werden Kandidatengene auf ihren statistischen Zusammenhang mit Krankheitsinzidenzen untersucht; auch betreten – neben Ernährung und weiteren Faktoren – zunehmend genetische Marker das klassische »web of causation« (McMahon et al. 1960) und die multivariaten statistischen Modellierungen der Risikofaktorenepidemiologie. Neuere Verfahren der »whole genome association studies« durchkämmen systematisch das gesamte Genom nach Markern, die mit der untersuchten Krankheit assoziiert sein können.

Abbildung 10: DNA Microarray (Ausschnitt), The Sanger Institute. Wellcome Images. Im Zuge der Omics-Technologien finden epidemiologische Analysen zunehmend über molekulare Marker von Exposition, Suszeptibilität und Krankheit statt – anstelle klassischer epidemiologischer Kategorien werden nun deren molekulare Spuren im Verhältnis zueinander mit epidemiologischen Techniken untersucht. Das aktuell meist angewandte Studiendesign bei der Untersuchung von Gen-Lebensstil-Interaktionen sind ›randomisierte Interventionsstudien‹, in denen – epidemiologisch gesprochen – die Intervention selbst die in der Studie untersuchte Exposition darstellt (vgl. Larsen et al. 2009). Da besonders für Studien zu multiplen Gen-Umwelt-Interaktionen große Fallzahlen erforderlich sind, werden diese häufig als multi-

180 | Susanne Bauer

zentrische Studien durchgeführt. Oft werden diese noch weiter vernetzt und für ätiologische Fragestellungen gemeinsam mit anderen Studien »gepoolt« ausgewertet; hierfür werden internationale Konsortien gebildet, die einen Teil ihrer Daten für spezifische Analysen zusammen führen. Koordinierte EU-weite Studien gelten in der Ernährungsepidemiologie gerade auf Grund unterschiedlicher Ernährungsweisen z.B. in Bezug auf Obst- und Gemüsekonsum, der zwischen Nord- und Südeuropa variiert, als besonders interessant. So werden über Ernährungs- und Lebensstilfragebögen erhobene Differenzen (beispielsweise im Konsum von Zitrusfrüchten) mit Erkrankungen statistisch in Beziehung gesetzt. Anhand von Langzeitbeobachtungen solcher Studienbevölkerungen werden die Einflüsse von Ernährung – z.B. Obst- und Gemüsekonsum auf chronische Erkrankungen wie Herz-Kreislauf-Erkrankungen oder Krebs – berechnet.19 Ausgehend von diesen Daten – einzeln oder gepoolt mit ähnlichen Studien – werden so für ätiologische Variablen relative Risiken und Risikoanteile an der analysierten Krankheit berechnet. Eine wichtige Verschiebung der Forschungspraxis in Gebieten wie der Nutrigenomik liegt in der Ausweitung datenbankbasierten Arbeitens. Der in diesem Zusammenhang oft verwendete Begriff der Systembiologie bezeichnet eine Bewegung innerhalb der Biowissenschaften, die biologische Mechanismen verschiedener Organisationsebenen integriert, indem sie diese mithilfe der Bioinformatik mathematisch modelliert. Diese Modellierungen repräsentieren dann biologische Systeme – mit ihnen wird als »quasi-Organismen« in silico gearbeitet. In den Focus Team Sessions zu »Nutritional Systems Biology« werden verschiedene Modellorganismen als experimentelle Systeme der Ernährungsforschung untersucht; bioinformatisch erfasste Modellsysteme wie Hefe dienen in der Nutrition Systems Biology für ein Screening bezüglich des Einflusses bestimmter Substanzen, Marker und Gene. Systembiologinnen wenden sich dabei explizit gegen Reduktionismen und plädieren für integrierte Zugänge – da auf diese Weise Daten aus verschie19 | In der Europäischen Studie zu Ernährung und Krebs ist eine Datenbasis über ein bevölkerungsbezogenes Sample vorhanden, für welche mit standardisierten Methoden Daten erhoben wurden (vgl. Bischof in diesem Band).

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 181

denen Untersuchungsebenen über statistische Modellierung zusammengeführt werden können. Beispielsweise baut das ›Sysdiet‹-Projekt – ein Forschungsverbund der Nordischen Länder – eine Plattform der Ernährungssystembiologie auf. Als Ziel dieses Projekts wird formuliert, Biomarker für ein frühes Stadium der Pathogenese zu finden und die Interaktion genetischer Variation und ernährungsbezogener Veränderungen im Metabolismus – hier insbesondere auf Ernährungsmuster der Nordischen Länder bezogen – zu charakterisieren. Das Projekts arbeitet hoch arbeitsteilig und vernetzt: Während sich eine erste Arbeitsgruppe dem Aufbau der konkreten systembiologischen Datenplattform selbst widmet, organisiert eine zweite Gruppe die Studienpopulationen, an denen dann gemeinsam geforscht wird; darunter fallen Untersuchungen an Zelllinien, Tieren und kleinere Interventionsstudien mit Probandinnen. Eine dritte Gruppe organisiert eine große multizentrische Interventionsstudie, um die identifizierten physiologischen und ernährungsbezogenen Biomarker im Hinblick auf ihre Rolle bei der Entstehung von Krankheiten zu untersuchen. Schließlich kümmert sich eine vierte Gruppe um die Koordination begleitender Aus- und Weiterbildung im Rahmen jährlicher Workshops sowie um Seminare für Promovierende – eine zentrale Komponente verteilter, kooperativer Forschungspraxen. In ähnlicher Weise wurde für den gesamten NuGO-Verbund das Ziel einer integrierten Systembiologie der Ernährung formuliert. Gegenwärtig fungiert die webbasierte Forschungsplattform als Infrastruktur an Softwaretools und methodologischen Leitlinien. Auch dient die Plattform bereits dem Datenaustausch, der Vorhaltung von Protokollen, standardisierten Methoden und Software sowie dem Community Building.20 Die Entwicklung und Bereitstellung experimenteller Protokolle, von Software-Technologie und Infrastrukturen spielt eine zentrale Rolle – virtuelle Querschnittsressourcen umfassen zudem einen E-Newsletter, eine NuGOwiki sowie gemeinsame Strategien und Protokolle zur Bioethik. 20 | Für die Nutzung dieser virtuellen Plattform wurden während der Konferenzwoche Einführungen und Tutorials angeboten. Über einen Newsletter erhalten Abonnenntinnen mehrmals im Monat E-Mails, die auf einschlägige Artikel und Themen hinweisen.

182 | Susanne Bauer

Die Arbeitsgruppen und webbasierten Plattformen bilden dabei ›Verkehrsknotenpunkte‹, an denen heterogene Praxen aufeinander treffen und Hypothesen zwischen den konkreten Laborkonstellationen ›umsteigen‹ können. Die zuvor dargestellten Forschungssysteme stehen dabei insofern miteinander in Verbindung, als dass sie jeweils für die anderen Systeme Hypothesen generieren, die zwischen den jeweiligen Assemblagen in vivo, in vitro und in silico wandern. Beispielsweise wurden bisherige sozial- oder umweltepidemiologische Befunde zum Teil – da kein biologischer Mechanismus nachgewiesen war – als wenig plausibel betrachtet; im Zuge der Omics-Technologien sind weitere Mechanismen experimentell verifizierbar geworden (vgl. Landecker in diesem Band). Andererseits wird auch der umgekehrte Weg – von der Molekularbiologie in die Epidemiologie eingeschlagen – wenn Biomarker als ›Risikofaktoren‹ anhand bestehender Daten- und Biobanken mittels analytischer Epidemiologie geprüft werden. Forschungssysteme in vitro, in vivo und in silico werden durch die Nutrigenomik performativ zusammengebracht – diese Integration verschiedener Analyseebenen geht jedoch nicht ohne Widerstände und Interessenkonflikte in der disziplinären Organisation der Forschung vonstatten. Ebenso sind die konkreten Forschungssysteme Teil der ›Gesellschaft außerhalb des Labors‹, z.B. über die Politik der Nahrungsherstellung in Landwirtschaft und Industrie, das Gesundheitssystem oder die praktische Durchführung großangelegter Bevölkerungsstudien. Letztere erfordern nicht nur epistemologische, sondern insbesondere soziale, logistische, institutionelle und rechtliche Aushandlungen; auch finden erste breite Anwendungen der Nutrigenomik weniger in der Klinik als auf dem Markt statt, da genetische Tests, in denen der Stoffwechsel des Individuums mit Omics-Datensätzen abgeglichen und klassifiziert wird, kommerziell angeboten und erprobt werden.

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 183

Außerhalb des Labors: Neuklassifikationen und nutrigenetische Tests Wie steht es nun um erste Anwendungen der Nutrigenomik und deren Reichweite? Bezüglich direkter genomischer Marker hat sich bisher nur begrenzte Relevanz für Verbraucherinnen und Medizin eingestellt – große Erwartungen werden jedoch weiterhin in sie gesetzt. Molekularbiologische Neubewertungen von Lebensmitteln wie Blaubeeren oder Granatäpfeln werden bereits in gezielte Vermarktungen umgesetzt; Nahrungsmittel mit hohen ORAC-Werten (Oxygen Radical Absorbance Capacity) werden als Anti-Aging-Lebensmittel vermarktet, Trockenpflaumen als Vorbeugung unter anderem gegen Herzinfarkt und Krebs. Eine Anpassung der Ernährung wird darin als frühzeitige Weichenstellung verstanden, lange bevor sich Symptome bemerkbar machen. Berücksichtigt Ernährung die ORACWerte, kann – so das Versprechen – Körperzeit verlangsamt und damit Lebenszeit verlängert werden. Analog zu »Pharmaceuticals« stellt die Industrie nun auch »Nutraceuticals« her – die Grenze zwischen Medikament und Ernährung verschwimmt; zumindest eine breite Mittelschicht scheint einem entsprechenden Selbstmanagement durchaus aufgeschlossen. Auch erste nutrigenetische Tests sind kommerziell erhältlich – und werden auf Gesundheitsmessen wie im Internet beworben. Für den Test wird – je nach den Angaben in einem Lebensstil-Fragebogen – eine Auswahl an 16-24 genetischer Polymorphismen an Genen getestet, die im Zusammenhang mit relevanten Stoff wechselprozessen stehen – und beispielsweise für Enzyme kodieren, die beim Abbau von Fetten oder Kohlehydraten eine Rolle spielen. In der Broschüre eines kommerziellen Testanbieters wird unaufhörlich die Einzigartigkeit des individuellen Stoff wechsels betont; einige der Gene erhalten anschauliche populärwissenschaftliche Namen wie z.B. »Stress-Gen«: »Das Genmuster wird aus mindestens 10-35 Genen bestimmt. Jedes Gen beeinflusst einen bestimmten Teil des Stoff wechsels. Das Zusammenspiel der Gene macht Ihren Stoff wechsel so einzigartig. Auf dieser Grundlage erhalten Sie wirklich Gewissheit, welcher Stoff wechseltyp Sie sind.«

184 | Susanne Bauer »Das Stress-Gen verlangsamt den Stoff wechsel bei hohen Belastungen. Der Körper greift nicht auf seine Fettreserven zurück, verbrennt ausschließlich Zucker (Heißhunger auf Süßigkeiten) oder reagiert mit Antriebsarmut (viel Kaffee und Zigaretten), ausbleibendem Hunger auf ausgewogene Mahlzeiten und Übersäuerung des Magens.«21

Aus dem genetischen Muster erfolgt dann eine Zuordnung zu Stoff wechseltypen; dabei wird die genetische Typisierung meist als Ergänzung bzw. ein Mittel zur Präzisierung bereits vorhandener Klassifi kationen in »Stoff wechseltypen« beschrieben. Während diese Form genetischer Tests inzwischen auch in das Servicespektrum der Alternativmedizin eingeht,22 raten Schulmediziner und Epidemiologinnen bisher davon ab: Eine Veröffentlichung im Deutschen Ärzteblatt bewertete die kommerziell erhältlichen Tests als verfrüht und nicht belastbar; die Zahl der getesteten Gene sei zu gering und die Vorhersagekapazität gegenwärtiger Tests zu niedrig – erst müsse weitere Forschung erfolgen (vgl. z.B. Joost 2005). Diese müsse zeigen, inwieweit nutrigenetische Tests den Anforderungen an diagnostische Tests gerecht werden. Es werden mehr Mittel für epidemiologische Studien und Biobanken gefordert, um die Wechselwirkung von Genen und Ernährung im Zusammenhang mit chronischer Krankheit zunächst ätiologisch zu erforschen, damit darauf aufbauend entsprechende wissenschaftlich fundierte Tests (mit hoher prädiktiver Kapazität) entwickelt werden können. Ob für oder gegen nutrigenetische Tests zum jetzigen Zeitpunkt – gemeinsam ist beiden Positionen, dass sie die Tests nicht gen-deterministisch sondern in einem weiteren Kontext individualisierter »Ernährungstypisierungen« konzeptualisieren, diese jedoch trotzdem für die Ernährungsmedizin für bedeutsam halten. Dabei wird die potentielle Relevanz für Prävention und klinische Praxis sowie die Nachfrage nach Tests durch Konsumenten betont und so die Forschung und Anwendung auch aus einer gesellschaftlichen Nachfrage begründet. 21 | Broschüre eines Berliner Instituts, das nutrigenetische

Tests – sowohl über ein Netzwerk aus Beratungspraxen als auch für internationale Privatkunden – anbietet. 22 | Neben anderen Verfahren integrieren auch manche Heilpraktiker nutrigenetische Tests in die Ernährungsberatung.

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 185

Schluss: Ökonomien der Nutrigenomik Während soziale Relevanz, technologische Anwendungen und Innovation öffentlich diskutiert werden, sind die Visionen und Erwartungen an die Zukunft bereits in der Gegenwart präsent. Der Forschung selbst verleiht dies einerseits eine gewisse Nachträglichkeit jedoch auch erheblichen Anschub, indem – wie bei nutrigenetischen Tests – auf Nachfrage durch Konsumentinnen und damit auf Bedarf sowie auf ökonomische Relevanz verwiesen werden kann. Aus dieser Logik entsteht die Notwendigkeit weiterer Forschung, auch um den Grad der Präzision bewerten und optimieren zu können. Während Gesundheitswissenschaft sich insbesondere im Zuge der ›New Public Health‹ programmatisch gerade im Gegensatz zur Individualmedizin als an der ›Bevölkerungsgesundheit‹ ansetzend verstanden hatte, setzt die Nutrigenomik dezidiert auf ein ›postgenomisches‹ Individuum. Dieses Individuum ist jedoch über eine Reihe von Typisierungen und statistischen Wahrscheinlichkeiten, die sich auf Gruppen beziehen, konzipiert – technisch wird das Individuum als ein statistisches Profi l produziert. Stets bleibt es dabei gleichzeitig Teil vieler statistischer Substrata – ›individuell‹ meint hier über eine Serie von Subgruppenklassifi kationen ›individualisiert‹. Dies stellt eine Operationalisierung des Individuums der klinischen Medizin einerseits wie auch ein iteratives Generieren eines Individuums der Biostatistik andererseits dar – beide Konzepte und Prozesse rasten dabei so ineinander ein, dass sie zu einer robusten Praxis werden. Von hier aus kann dann Ernährung den immer genaueren Profi len – die jedoch immer statistisch unterlegt bleiben – ›individualisierend‹ angepasst werden. Molekulare, digitale und biostatistische Technologien der Postgenomik fungieren hier als Forschungsmedium, das den Modus der wissenschaftlichen Praxis nachhaltig strukturiert. Soll Nutrigenomik relevant für Public Health werden, kommen – jenseits der Komplexitätserhöhung durch die vielfältigen Daten der Omics-Technologien – die Formalisierungen der »evidenzbasierten Medizin« zum Tragen. Auf Grund ihrer statistischen Anforderungen an Evidenz schränken diese den Grad möglicher Komplexität wiederum ein. In der epidemiologischen Präventionsforschung zu komplexen Zusammenhängen wie Gen-Ernährungs-Interaktionen stellt sich so ein

186 | Susanne Bauer

notwendiges operationales Reduzieren der Variablen ein, um biostatistisch plausibilisierbares Wissen herzustellen. Im Zuge der Postgenomik haben sich »biomedizinische Plattformen« (Keating/Cambrosio 2003) zu web-basierten Cyberinfrastrukturen der Ernährungssystembiologie weiter entwickelt. Es sind vernetzte bioinformatische Plattformen, über die Standardisierungen produktiv werden und ein stetiger Verkehr von Daten zwischen unterschiedlichen Ebenen biomedizinischer Forschung möglich wird. Auch das Community Building europäischer Nutrigenomiker beispielsweise durch Newsletters und Tutorials findet auf webbasierten Plattformen statt. Eines der expliziten Ziele des für sechs Jahre von der EU geförderten europäischen NuGO-Verbundes ist es, eine jüngere Generation europäischer Wissenschaftlerinnen in der Anwendung postgenomischer Technologien auszubilden. Das erfolgreiche europäische Netzwerk ist ein Ort der Qualifi zierung von Promovierenden und Postdocs und der Entwicklung ihrer zukünftigen europäischen Netzwerke.23 Diese wissenschaftlichen Arbeits- und Qualifikationsstrukturen einerseits sowie die im Zuge europäischer Public Health Statistiken implementierten Dateninfrastrukturen (vgl. Bauer 2008) sind indirekt an einer Hervorbringung und Neu-Konstitution des Europäers beteiligt. Im Feld der Ernährungswissenschaften sind Industrie wie öffentlich geförderte Forschung eng miteinander verzahnt; viele der Wissenschaftlerinnen kennen die industrielle Forschung von innen – sei es aus Forschungsaufenthalten oder durch Praktika; auch bei Konferenzen sind Firmen insbesondere aus den Sparten Software und Bioanalytik präsent. 24 So wurden die neuesten Chip-Generationen und das Angebot von Firmen für biochemische Analytik präsentiert: »alles was Sie in eine Flüssigkeit verwandeln können – wir analysieren es« (z.B. auf 23 | Damit wird eine gemeinsame Forschungskultur um die Anwendung der Omics-Technologien auf Ernährung aufgebaut. Ebenso kann das Netzwerk den Sprung vom Postdoc zum Senior Researcher mit eigener Arbeitsgruppe ermöglichen – beispielsweise in der Übernahme eines Teilprojekts in langfristig angelegten ›Proof of Principle‹-Studien. 24 | Auch in der wissenschaftlichen Programmkommission von NuGO sind Repräsentantinnen der industriellen Ernährungsforschung vertreten.

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 187

Metaboliten und Biomarker). Oft stehen die Servicefirmen in engem Kontakt mit Forschern und haben ihr Angebot auf deren Bedürfnisse zugeschnitten; aufwändige Analytik kann so ausgelagert werden. Im Raum Potsdam wurde – insbesondere auch in Zeiten nach der ›Transition‹ zur Marktökonomie – auf die Biotech-Forschung als standort- und zukunftsrelevant gesetzt. Der europäische Sozialfond und das Land Brandenburg haben die Einrichtung eines auf Führungskräfte ausgerichteten Studiengang »MBA Biotech« an der Universität Potsdam gefördert. Zur Transformation und ›Standortpolitik‹ der Region gehören Biowissenschaft wie Weiterbildungs-Industrie – Ernährungsforschung wie Nutrigenomik, Sparkassen-Akademie wie Kongresshotel. Mit der Netzwerkförderung im Rahmen des Programms »BioProfil Nutrigenomik«, erhielt die Region Potsdam/Berlin als eine von drei Regionen in Deutschland 2001 den Status der »Biotech-Region«25; das Netzwerk umfasst 60 institutionelle Partner in der Region Berlin/Brandenburg. War die heute als lokale Marketing-Kuriosität eingesetzte Luftschiff technologie Anfang des 20. Jahrhunderts nationales Symbol und Mythos – Luftfahrt hatte damals »nationenbildende« Funktion (vgl. Höhler 2001) – scheint es am Anfang des 21. Jahrhunderts die biowissenschaftliche Infrastrukturbildung, über die Firmen, Ernährungs- und Gesundheitspolitik sowie europäische Nachwuchsforscherinnen zusammenkommen. Nicht zuletzt durch Capacity Building und einen Biotech-Forschungsbetrieb mit europäischen Ausbildungs- und Qualifi kationsschemata konstituiert sich, oft nahezu unbemerkt, auch ein europäisches citizenship – über gemeinsame spezifische Wissensformen wie ›evidenzbasierte‹ Rationalitäten und Leitlinien26 sowie über die Aushandlung und Ausarbeitung eines gleichzeitig sozial-präventiven wie individualisierenden Risikomanagements. Wenn auch die Nutrigenomik nicht die Bedeutung und Durchschlagkraft anfänglicher Erwartungen erreicht hat, sind ihre – zum Teil indirekten – Effekte nicht zu unterschätzen. Die 25 | Vgl. BioProfi l Nutrigenomik/BioTOP Berlin-Brandenburg

(2006). 26 | Diese statistisch informierte Form des citizenship formiert sich auch durch die zunehmenden Routinedaten-Infrastrukturen z.B. von EuroStat (vgl. Bauer 2008).

188 | Susanne Bauer

Infrastrukturen von Postgenomik, Biostatistik und digitalen Plattformen wirken als Mikro-Technologien der Differenzproduktion und ordnen das Wissensfeld neu: Differenzierende Risikoabschätzungen rekonfigurieren die Praxen der Governance in Sachen Nahrungsmittel- und Gesundheitspolitik in Wissenschaft und Alltag. Unter dem Label der Diversifizierung und Individualisierung kommen hier machtvolle Mikro-Standardisierungen zum Tragen – mit ihnen gehen jeweils spezifische Regimes der Intervention in Ernährung und Körper einher.

Literatur Bauer, Susanne (2008): »Transparency or Surveillance. The Datascapes of European Public Health Statistics«. In: Claudia Reiche/Andrea Sick (Hg.), do not exist. europe, woman, digital medium. Bremen: thealit, S. 189-203. Bijker, Wiebe/Hughes, Thomas W./Pinch, Trevor (1987): The Social Construction of Technological Systems. New Directions in the Sociology and History of Technology, Cambridge MA: MIT Press. BioProfi l Nutrigenomik/BioTOP Berlin-Brandenburg (2006): Nutrigenomik Forschung in Deutschland. Nuthetal: Deutsches Institut für Ernährungsforschung. Borup, Mads/Brown, Nik/Konrad, Kornelia/Van Lente, Harro (2006): »The Sociology of Expectations in Science and Technology«. In: Technology Analysis & Strategic Management 18 (3), S. 285-298. Bowker, Geoffrey C. (2005): Memory Practices in the Sciences, Cambridge MA: MIT Press. Bowker, Geoffrey C./Star, Susan Leigh (1999): Sorting Things Out. Classification and its Consequences, Cambridge MA: MIT Press. Brown, Nik (2003): »Hope Against Hype – Accountability in Biopasts, Presents and Futures«. In: Science Studies 16 (2), S. 3-21. Brown, Nik/Michael, Mike (2003): »A Sociology of Expectations: Retrospecting Prospects and Prospecting Retrospects«. In: Technology Analysis and Strategic Management 15, S. 3-18. Chadwick, Ruth/Henson, S./Moseley, B./Koenen, S./Liakopolous, M./Midden, C./Palou, A./Rechkemmer, G./Schröder,

Nutrigenomik. Technowissenschaftliches Fine -Tuning | 189

D./Von Wright, A. (2003): Functional Foods, Berlin: Springer. Coates, Emma M./Popa, Gina/Gill, Chris I.R./McCann, Mark J./ McDougall, Gordon J./Stewart, Derek/Rowland, Ian (2007): »Colon-available Raspberry Polyphenols Exhibit Anti-Cancer Effects on in vitro Models of Colon Cancer«. In: Journal of Carcinogenesis 6, S. 4. Dragsted, Lars O./Kristensen, M./Ravn-Haren, G./Bügel, S. (2009): »A Metabolomics Study on Human Dietary Intervention with Apples«. In: Siân Astley/Linda Penn (Hg.), Design of Human Nutrigenomics Studies, Wageningen: Wageningen Academic Publishers, S. 21-29. Fortun, Michael (1999): »Projecting Speed Genomics.« In: Michael Fortun/Everett Mendelsohn (Hg.), Practices of Human Genetics: International and Interdisciplinary Perspectives, Kluwer, S. 25-48. Haraway, Donna (1997): Modest_Witness@Second_Millenium. FemaleMan©_Meets_OncoMouse. Feminism and Technoscience, New York: Routledge. Höhler, Sabine (2001): Luftfahrtforschung und Luftfahrtmythos. Wissenschaftliche Ballonfahrt in Deutschland, 18801910, Frankfurt a.M.: Campus. Joost, Hans-Georg (2005): »Genotyp-basierte Ernährungsempfehlungen. Noch im experimentellen Stadium.« In: Deutsches Ärzteblatt 102 (39), S. A2608–A2610. Keating, Peter/Cambrosio, Alberto (2003): Biomedical Platforms. Realigning the Normal and the Pathological in LateTwentieth-Century Medicine, Cambridge MA: MIT Press. Larsen, T.M./Dalskov, S./van Baak, M./Jebb, S./Kafatos, A./ Pfeiffer, A./Martinez, J.A./T., Handjieva-Darlenska./Kunešová, M./Holst, C./Saris, W.H./Astrup, A. (2009): »The Diet, Obesity and Genes (Diogenes) Dietary Study in eight European Countries – a Comprehensive Design for LongTerm Intervention.« In: Obesity Reviews, EPub ahead of print. Latour, Bruno (1987): Science in Action. How to Follow Scientists and Engineers through Society, Cambridge: Harvard University Press. Marcus, George E./Saka, Erkan (2006): »Assemblage«. In: Theory, Culture & Society 23 (2-3), S. 101-109.

190 | Susanne Bauer

McMahon, Brian/Pugh, Thomas F./Ipsen, Johannes (1960): Epidemiologic Methods, Boston: Little, Brown & Company. McNally, Ruth (2005): »Sociomics! Using the IssueCrawler to Map, Monitor and Engage with the Global Proteomics Research Network«. In: Proteomics 5 (12), S. 3010-3016. Miller, A. B./Altenburg, H. P./Bueno-de-Mesquita, B./Boshuizen, H. C./Agudo, A./Berrino, F./Gram, I. T./Janson, L./Linseisen, J./Overvad, K./Rasmuson, T./Vineis, P./Lukanova, A./Allen, N./Amiano, P./Barricarte, A./Berglund, G./Boeing, H./Clavel-Chapelon, F./Day, N. E./Hallmans, G./Lund, E./Martinez, C./Navarro, C./Palli, D./Panico, S./Peeters, P. H./Quiros, J. R./Tjonneland, A./Tumino, R./Trichopoulou, A./Trichopoulos, D./Slimani, N./Riboli, E. (2004): »Fruits and Vegetables and Lung Cancer: Findings from the European Prospective Investigation into Cancer and Nutrition«. In: International Journal of Cancer 108 (2), S. 269-276. Mol, Annemarie (1999): »Ontological Politics. A Word and Some Questions«. In: John Law/John Hassard, Hg. Actor Network Theory and After London: Blackwell. Ong, Aihwa/Collier, Stephen J. (2005): Global Assemblages: Technology, Politics, and Ethics as Anthropological Problems, Malden/Oxford: Blackwell. Önning, Gunnar/Bergmann, Manuela M./Mathers, John C. (2009): »Introduction.« In: Siân Astley/Linda Penn (Hg.), Design of Human Nutrigenomics Studies, Wageningen: Wageningen Academic Publishers, S. 9-14. Rheinberger, Hans-Jörg (2001): Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Göttingen: Wallstein. Spök, Armin (2006): »Von ›Farming‹ zu ›Pharming‹. Die nächste Generation von genetisch veränderten Pflanzen«. In: Soziale Technik 2, S. 6-8. The European Nutrigenomics Organization. www.nugo.org/ (letzter Zugriff: 20.11.2009)

Autorinnen und Autoren

Susanne Bauer studierte Umweltwissenschaften in Berlin und Odessa und promovierte 2004 in Public Health an der Universität Bielefeld. Ihre aktuellen Forschungsinteressen liegen in den Science & Technology Studies, darin insbesondere Wissensgeschichte/Wissensanthropologie der Epidemiologie und Biomedizin. Seit Ende 2009 ist sie Research Scholar am MaxPlanck-Institut für Wissenschaftsgeschichte; von 2008-2009 war sie wissenschaftliche Mitarbeiterin im Projekt »Imagined Europeans« am Institut für Europäische Ethnologie der Humboldt-Universität zu Berlin. Von 2005-2009 arbeitete sie als Postdoctoral Fellow am Medicinsk Museion der Universität Kopenhagen (Projekt: »Biomedicine on Display«). Aktuelle Publikationen: Contested Categories, Life Sciences in Society, Ashgate, 2009 (Hg., mit Ayo Wahlberg) und »Mining data, gathering variables, and recombining information: the flexible architecture of epidemiological studies.« In: Studies in History and Philosophy of Biological and Biomedical Sciences 39 (2008): 415-426. Stefan Beck ist Professor für Europäische Ethnologie an der Humboldt-Universität zu Berlin. Er arbeitet aus sozialanthropologischer Perspektive über Wissenskulturen, materielle Kultur und Lebenswissenschaften. Thema aktueller Veröffentlichungen sind die kulturvergleichende Analyse des Umgangs mit genetischer Diagnostik, die Auswirkungen von Reproduktionstechnologien auf Konzepte von Familie und Vererbung, sowie Entstehung und Konsequenzen von Präventionsregimes in der (Spät-)Moderne.

192 | Essen in Europa

Christine Bischof ist Diplom-Soziologin und war von 20072009 als wissenschaftliche Mitarbeiterin am Institut für Europäische Ethnologie an der Humboldt-Universität zu Berlin in dem Forschungsprojekt »Imagined Europeans« tätig. Vorher arbeitete sie für das Deutsche Zentrum für Altersfragen (2006) zum demografischen Wandel und bürgerschaftlichen Engagement. Interkulturelle Öffnungsprozesse diakonischer Sozialstationen gehörten zum Gegenstand ihrer Projektmitarbeit beim Diakonischen Werk Neukölln Oberspree e.V. (2003-2005). Ihre Forschungsschwerpunkte liegen in Public Health, der Migrationsforschung, dem demografischen Wandel sowie der Geschlechterforschung. Vorwiegend arbeitet sie mit qualitativen sozialwissenschaftlichen Methoden. Seit Ende 2009 begleitet sie sozialwissenschaftlich u.a. das Neuköllner Stadtteilmütterprojekt für die Camino gGmbH, Werkstatt für Fortbildung, Praxisbegleitung und Forschung im sozialen Bereich. Marie France Garcia-Parpet ist Sozialanthropologin und seit 1994 am Institut National de la Recherche Agronomique (INRA) in Paris tätig. Zu ihren Forschungsschwerpunkten zählt die Wirtschaftssoziologie, dabei insbesondere die soziale Konstruktion von Märkten. Sie unterhält zahlreiche Kontakte zu wissenschaftlichen Einrichtungen in Brasilien, wo sie die meiste Zeit ihrer Lauf bahn verbrachte. Ausgewählte Publikationen: Le marché de l’excellence: les grands crus à ’épreuve de la mondialisation, Paris: Seuil, 2009. »The Social Construction of a Perfect Market: The Strawberry Auction at Fontaines-en-Sologne, et postface.« In: MacKenzie et al. 2007: Do economists make markets? On the performativity of economics. Princeton University Press, 2007. Stephan Gabriel Haufe studierte Europäische Ethnologie, Geografie und Nordistik in Berlin, Oslo und Rom. Am Institut für Europäische Ethnologie der Humboldt-Universität promoviert er zu Qualitätskonzepten traditionaler Nahrungsmittel. Sein wissenschaftliches Interesse gilt der Nahrungs- und Wissensanthropologie, Themen der Politischen Geografie sowie den Methoden Qualitativer Sozialforschung. Als freier Hörfunkredakteur betreute er zahlreiche Sendungen zu Ernährungs-, Umwelt- und Verbraucherthemen. Heute arbeitet er in der Presseabteilung des Umweltbundesamtes.

Autorinnen und Autoren | 193

Atle Wehn Hegnes (Cand. polit.) lehrt und forscht am Instituttet for Sosiologi og Humangeografi an der Universität Oslo. Von 2005 bis 2006 war er wissenschaftlicher Mitarbeiter am Norwegischen Institut für Konsumforschung (SIFO). Sein Dissertationsprojekt trägt den Arbeitstitel: »Modern global rules for traditional local products – A study of implementation, comprehension and practicing of ›Regulation on the Protection of Designations of Origin, Geographical Indications and Designations of Specific Traditional Character of Foodstuffs‹ in Norway«. Hannah Landecker ist Associate Professor of Sociology am Center for Society and Genetics der UC Los Angeles. Zu ihren Forschungsschwerpunkten zählen die Zellbiologie im 20. Jahrhundert, Biologie und Film sowie zelluläre Biotechnologien. Ihre derzeitige Forschung konzentriert sich auf Nährmedien und die Analogien von in vivo- und in vitro-Umgebungen in der Stoff wechsel- und Ernährungsforschung. Publikationen (Auswahl): Culturing Life: How Cells Became Technologies, Harvard University Press, 2007; »Cellular Features: Microcinematography and Early Film Theory« In: Critical Inquiry 31 (2005): 903937. Leonore Scholze-Irrlitz, Dr. phil., ist Leiterin der Landesstelle für Berlin-Brandenburgische Volkskunde am Institut für Europäische Ethnologie an der Humboldt-Universität zu Berlin. Sie hat sich in ihren Arbeiten mit wissens- und wissenschaftsgeschichtlichen Fragen im bereich der Historiografie sowie der Volks- und Völkerkunde auseinandergesetzt. Weiterhin untersucht sie, mit welchen Wissensressourcen Individuen und soziale Gruppen in Transformationsgesellschaften agieren. Hier gilt das besondere Interesse der anthropologischen Erforschung ländlicher Räume in Ostdeutschland und im deutsch-polnischen Grenzgebiet. Sie forscht und lehrt zur Geschichte der Volks- und Völkerkunde, zur historischen Anthropologie sowie zur Anthropologie ländlicher Räume, zu historischen Fragen von Migration und Zwangsarbeit in Berlin und Brandenburg sowie zum Museums- und Archivwesen in der Region. Ulrike Thoms studierte Geschichte, Germanistik und Publizistik an der Westfälischen Wilhelms-Universität Münster. 2000 promovierte sie mit ihrer Arbeit »Rationalisierung der Anstalts-

194 | Essen in Europa

kost. Die Ernährung in Krankenhäusern und Gefängnissen im 18. und 19. Jahrhundert«. Seit 2001 ist sie Mitarbeiterin am Institut für Geschichte der Medizin in Berlin, wo sie Projekte zur Geschichte des klinischen Menschenversuchs im 19. Jahrhundert, zur Geschichte der Ernährungsforschung zwischen 1933 und 1964, zu den Biowissenschaften der 1960er und 1970er Jahre und zur Geschichte des Medikamentes bearbeitete. Derzeit ist sie Mitarbeiterin des deutsch-französischen Kooperationsprojektes »From advertisement to marketing. Pharmaceutical enterprises, patients, physicians and the construction of medical markets« (GEPHAMA).

VerKörperungen/MatteRealities – Perspektiven empirischer Wissenschaftsforschung Martin Lengwiler, Jeannette Madarász (Hg.) Das präventive Selbst Eine Kulturgeschichte moderner Gesundheitspolitik August 2010, ca. 352 Seiten, kart., zahlr. Abb., ca. 29,80 €, ISBN 978-3-8376-1454-1

Katharina Liebsch, Ulrike Manz (Hg.) Leben mit den Lebenswissenschaften Wie wird biomedizinisches Wissen in Alltagspraxis übersetzt? Juli 2010, 282 Seiten, kart., 28,80 €, ISBN 978-3-8376-1425-1

Thomas Mathar Der digitale Patient Zu den Konsequenzen eines technowissenschaftlichen Gesundheitssystems Oktober 2010, ca. 320 Seiten, kart., zahlr. Abb., ca. 29,80 €, ISBN 978-3-8376-1529-6

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

VerKörperungen/MatteRealities – Perspektiven empirischer Wissenschaftsforschung Jörg Niewöhner, Christoph Kehl, Stefan Beck (Hg.) Wie geht Kultur unter die Haut? Emergente Praxen an der Schnittstelle von Medizin, Lebens- und Sozialwissenschaft 2008, 246 Seiten, kart., 25,80 €, ISBN 978-3-89942-926-8

Sonja Palfner Gen-Passagen Molekularbiologische und medizinische Praktiken im Umgang mit Brustkrebs-Genen. Wissen – Technologie – Diagnostik 2009, 390 Seiten, kart., 33,80 €, ISBN 978-3-8376-1214-1

Willy Viehöver, Peter Wehling (Hg.) Entgrenzung der Medizin Von der Heilkunst zur Verbesserung des Menschen? Oktober 2010, ca. 300 Seiten, kart., zahlr. Abb., ca. 29,80 €, ISBN 978-3-8376-1319-3

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de