Nanotechnologie – Aufbruch ins Reich der Zwerge, 2. Auflage 3834901946, 9783834901941


471 57 758KB

German Pages 237

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Nanotechnologie – Aufbruch ins Reich der Zwerge, 2. Auflage
 3834901946, 9783834901941

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Klaus Jopp Nanotechnologie – Aufbruch ins Reich der Zwerge

Widmung Im Gedenken an meinen Vater, der mir das naturwissenschaftliche Studium ermöglichte, und mit Dank an meine Familie, die große Geduld beim Schreiben dieses Buches aufbrachte. Klaus Jopp

Klaus Jopp

Nanotechnologie – Aufbruch ins Reich der Zwerge 2., überarbeitete Auflage

Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

1. Auflage 2003 2. Auflage März 2006 Alle Rechte vorbehalten © Betriebswirtschaftlicher Verlag Dr. Th. Gabler | GWV Fachverlage GmbH, Wiesbaden 2006 Lektorat: Ulrike M. Vetter Der Gabler Verlag ist ein Unternehmen von Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: Nina Faber de.sign, Wiesbaden Satz: Fotosatz-Service Köhler GmbH, Würzburg Druck und buchbinderische Verarbeitung: Wilhelm & Adam, Heusenstamm Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 3-8349-0194-6

Inhaltsverzeichnis Vorwort

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Einleitung: Das Orakel von Delphi

. . . . . . . . . . . . . . . . . . . . . . .

Zwischen Science-Fiction und Wirklichkeit . . . . . . . . Deutschlands Straßennetz auf einem Fingernagel . . . . . Nano – ein Thema mit überragender Querschnittsfunktion Strukturen nach dem Plopp-Effekt . . . . . . . . . . . . . Erfolgskonzept Miniaturisierung . . . . . . . . . . . . . . Wie die Nadel eines Plattenspielers . . . . . . . . . . . . Auf dem Sprung in die Kommerzialisierung . . . . . . . . Kapitel 1: Vorbild Natur – Vorbild Zelle

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

15

. . . . . . .

15 17 18 19 21 22 23

. . . . . . . . . . . . . . . . . . . .

27

Die effektivste Fabrik ist winzig klein . . . . . . . . . . . . . . . Der Evolution auf der Spur – Selbstorganisation und Replikation Erfolgsstrategie Miniaturisierung – der Abstieg vom Mikroin den Nanokosmos . . . . . . . . . . . . . . . . . . . . . . . . . Der Nanokosmos hat eigene Spielregeln . . . . . . . . . . . . . . Effekte und ihre Grundlagen . . . . . . . . . . . . . . . . . . . . Der interdisziplinäre Ansatz . . . . . . . . . . . . . . . . . . . .

. . . . . . .

11

. . . . . . . . . . . .

27 28

. . . .

. . . .

29 31 32 34

Kapitel 2: Kleinste Teilchen – größte wirtschaftliche Bedeutung . . . . . . .

37

Alte Märkte mit neuen Lösungen . . . . . . . . . . . . . . . Mit Nanopartikeln und -composites wird schon Geld verdient Die Banken haben das Thema Nano entdeckt . . . . . . . . . Flache Displays vor weiterem Boom . . . . . . . . . . . . . . Neue Märkte durch neue Lösungen . . . . . . . . . . . . . . Ultrafeine Pulver für Pigmente, Katalysatoren und Keramiken

. . . . . .

37 39 40 44 45 46

Kapitel 3: Der Forschungswettlauf . . . . . . . . . . . . . . . . . . . . . . .

51

Das Gerangel um die Poleposition in den Märkten der Zukunft . . . . Überraschend großes Innovationspotenzial in Deutschland . . . . . . Die nächste Industrielle Revolution . . . . . . . . . . . . . . . . . . . Die meisten US-Fördermittel gehen in die Grundlagenforschung . . .

51 52 53 55

. . . . . .

. . . . . .

. . . . . .

. . . .

. . . . . .

. . . .

. . . . . .

. . . .

. . . . . .

. . . .

. . . .

. . . . . .

. . . .

. . . .

5

Stärken und Schwächen der Triade . . . . . . . . . . . . . . . Die japanische Herausforderung . . . . . . . . . . . . . . . . . Bei Patenten USA und Deutschland vorn . . . . . . . . . . . . Europäische Programme . . . . . . . . . . . . . . . . . . . . . Europa in der Nanotechnologie schon stark vernetzt . . . . . . Förderung durch das BMBF . . . . . . . . . . . . . . . . . . . Nachwuchswettbewerb Nanotechnologie . . . . . . . . . . . . Netzwerk für den Fortschritt – die deutschen Kompetenzzentren „Magnete des Wissens“ . . . . . . . . . . . . . . . . . . . . . . Die deutschen Kompetenzzentren im Überblick . . . . . . . . . „Projekthaus Nanomaterialien“ – eine neuartige Kooperation . Start für das Start-up „Degussa Advanced Materials“ . . . . . . Schneller zu neuen Nanoprodukten . . . . . . . . . . . . . . . Kapitel 4: Einsatz der Zwerge in Medizin, Pharmazie und Biologie

. . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

56 57 59 62 63 64 65 67 68 74 76 78 79

. . . . . .

83

Spannende Überschneidungen zwischen Nano- und Biotechnologie Neuartige medizinische Heinzelmännchen . . . . . . . . . . . . . Perfekte Biowerkstoffe . . . . . . . . . . . . . . . . . . . . . . . . Mit winzigen Magneten gegen den Krebs . . . . . . . . . . . . . . Medikamente mit Tarnkappe . . . . . . . . . . . . . . . . . . . . . Biokompatible Nanoschichten für Implantate . . . . . . . . . . . . Maßgeschneiderte neue Wirkstoffe . . . . . . . . . . . . . . . . . . Verbesserte Analyse von DNA-Proben . . . . . . . . . . . . . . . . Nanosilber statt Antibiotika . . . . . . . . . . . . . . . . . . . . . Neuartiges Werkzeug zur Entwicklung von Diagnostika . . . . . . Nanotechnologie in aller Munde . . . . . . . . . . . . . . . . . . . Grundsätzlicher Technologiewandel bei der Zahnpflege . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

83 85 86 87 89 89 91 93 94 97 98 99

Kapitel 5: Inspiration für Chemie und neue Materialien . . . . . . . . . . . . 103 Schlüsselbranche für Nanowerkstoffe und -strukturen . . . . . . . Polymerdispersionen – Nanoteilchen in Megatonnen . . . . . . . . Nanocomposite mit unterschiedlichen Morphologien . . . . . . . . Neue Katalysatoren für getaktete Polymere . . . . . . . . . . . . . Organische Metalle – eine ganz neue Werkstoffklasse . . . . . . . Wenn Weißmacher durchsichtig werden . . . . . . . . . . . . . . . Die Erfolgsstory vom Sand . . . . . . . . . . . . . . . . . . . . . . Nanostrukturen mit Lotus-Effekt – Bausteine für superhydrophobe Beschichtungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . Doppelte Struktur gegen den Schmutz . . . . . . . . . . . . . . . . Lotus-Spray in der Pipeline . . . . . . . . . . . . . . . . . . . . . Kunststoffe mit Lotus-Effekt . . . . . . . . . . . . . . . . . . . . . Extrem wasserabweisende Zeltbahnen und Textilien . . . . . . . .

6

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

103 103 105 106 108 111 114

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

116 117 118 119 121

Katalysatoren, Zeolithe und Klebstoffe . . . . . . . . . . . Schaltbare Kleber . . . . . . . . . . . . . . . . . . . . . . . Keine Mikrosysteme ohne geeignete Fügetechnik . . . . . . Nanomaterialien mit neuen funktionellen Eigenschaften . . Das Geheimnis der Wunderskier . . . . . . . . . . . . . . . Geheimtinten aus Hamburg . . . . . . . . . . . . . . . . . Verbünde, Composite und Pulver . . . . . . . . . . . . . . Fullerene – Fußbälle, Röhren und andere Merkwürdigkeiten Nobelpreis für Chemie in nur elf Tagen . . . . . . . . . . . Künstliche Diamanten aus Fulleren . . . . . . . . . . . . . Heißes Eisen Supraleiter . . . . . . . . . . . . . . . . . . . Ionentriebwerke für Satelliten . . . . . . . . . . . . . . . . Verbundwerkstoffe mit Nanoröhren . . . . . . . . . . . . . Energiesparende Styrolsynthese . . . . . . . . . . . . . . . Molekulare Drähte für die Mikroelektronik . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

Kapitel 6: Neuer Schub für Elektronik und Informationstechnik Von den Energiemonstern zum Transistor . . . . . . . . . Durchbruch des PC per Bausatz . . . . . . . . . . . . . . Strukturen immer kleiner, Wafer immer größer . . . . . . Die „Pizza-Bäcker“ kommen . . . . . . . . . . . . . . . . Miniaturmagneten als Datenspeicher . . . . . . . . . . . Auf dem Sprung zu postoptischen Lithographieprozessen Nanoröhrchen in Y-Form aus Berlin . . . . . . . . . . . . BSE-Erreger als Stromkabel . . . . . . . . . . . . . . . . Baukasten für Nanowerkzeuge . . . . . . . . . . . . . . . Laser aus atomaren Schichtstapeln . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

122 123 124 125 128 128 130 134 136 138 139 140 141 142 143

. . . . . . . 145 . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

145 146 148 149 151 153 155 157 157 159

Kapitel 7: Heinzelmännchen für Feinmechanik, Optik und Analytik . . . . . . 161 Hohe Ausgaben für Forschung und Entwicklung . . Muskeln aus nanoporösem Metall . . . . . . . . . . Das Photon als Technologieträger . . . . . . . . . . Das Zeitalter der OLEDs hat begonnen . . . . . . . . OLEDs auch für Beleuchtungszwecke . . . . . . . . Polymerelektronik gewinnt an Gewicht . . . . . . . Technologiewechsel bei der Chipherstellung . . . . Über 100 Schichten bis zum Spiegel . . . . . . . . . Meilenstein für neue Technologie zur Chipfertigung Dosiersysteme für wenige Nanoliter . . . . . . . . . „Augen und Finger“ für die Nanotechnologie . . . . Analytik – auch im Nanokosmos unverzichtbar . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

161 162 162 166 169 171 172 174 175 177 179 180

7

Zwergeninstrumente: Pinzetten, Heizer und Pipetten . . . . . . . . . . . . . 180 Auf dem Weg zur magnetischen Nanofestplatte . . . . . . . . . . . . . . . . 181 Kapitel 8: Potenzial für die Automobilindustrie

. . . . . . . . . . . . . . . . 183

Nanos im Fahrzeug – zum Teil ein „alter Hut“ . . . . . . Zwerge sollen helfen, den Flottenverbrauch zu senken . . Leichtbau ist Trumpf . . . . . . . . . . . . . . . . . . . . Endlich kratzfeste Lacke . . . . . . . . . . . . . . . . . . Der Wettlauf zur Kratzfestigkeit ist noch nicht entschieden Ferrite, Chamäleons und Lotus . . . . . . . . . . . . . . . Kapitel 9: Auch die Umwelt profitiert

. . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

183 187 189 190 191 192

. . . . . . . . . . . . . . . . . . . . . 195

Neue Chancen für die Ressourcenschonung . . . Warmes Wasser von der Sonne . . . . . . . . . . Nanoporen und -membranen . . . . . . . . . . . Neue Technologie zur Salzgewinnung . . . . . . Metallische Nanofilter . . . . . . . . . . . . . . Automobillackierung: Es geht auch ohne Chrom Halogenfreie Flammschutzmittel auf Nanobasis Organisches Metall hilft auch im Umweltschutz Ultimativer Roststopper . . . . . . . . . . . . . . Baustoffe mit Nanoappeal: Beton und Lehm . . Kapitel 10: Die Energie der Zukunft

. . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

195 195 196 197 198 198 200 201 202 204

. . . . . . . . . . . . . . . . . . . . . . 207

Von der Sonnenwärme bis zu hocheffizienten Dämmstoffen . . Nanoskalige Solarzellen für mehr Power aus der Sonne . . . . Die Nanobatterie . . . . . . . . . . . . . . . . . . . . . . . . . Der eigentliche Clou: Niedertemperatur-Sintern bei nur 250°C . Alle Sicherheitstests mit Bravour bestanden . . . . . . . . . . Was die Brennstoffzelle mit Nanotechnologie zu tun hat . . . . Nanoröhren als Wasserstoffspeicher – Wunsch und Wirklichkeit Nanowürfel als Speichermedien . . . . . . . . . . . . . . . . . Hoffnungsträger Metal Organic Frameworks . . . . . . . . . . Starkes Duo für die Wärmedämmung . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

207 207 209 210 211 212 213 214 215 216

Kapitel 11: Die Visionen von der Nanomaschine . . . . . . . . . . . . . . . . 219 Ray Kurzweil und K. Eric Drexler – Propheten oder Spinner? Es geht um elementare Fragen der menschlichen Existenz . . Nanoroboter, die sich selbst replizieren . . . . . . . . . . . . Schwärme von künstlichen Kreaturen . . . . . . . . . . . . . Umweltschützer fordern ein Nano-Moratorium . . . . . . . . EU-Projekte: NanoDerm, NanoSafe und NanoTox . . . . . .

8

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

219 220 222 224 225 227

Auch das Militär will Nanotechnik . . . . . . . . . . . . . . . . . . . . . . . 229 Ängste ernst nehmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 Namenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Stichwortverzeichnis

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

9

Vorwort

Sauberkeit zum Aufsprühen, Zahnpasta mit Reparatureffekt, Farbdisplays in beliebiger Größe und zu günstigen Preisen, Brennstoffzellen für leistungsfähigere Handys und Laptops – Vision oder Realität? Nanomaterialien sind große Hoffnungsträger von Industrie und Wissenschaft und faszinieren Fachwelt und Laien gleichermaßen. Selten hat eine Technologie so viel Publicity innerhalb weniger Jahre erfahren wie die Nanotechnologie. Sie gilt als eine der Schlüsseltechnologien des 21. Jahrhunderts. Nanoteilchen, das sind winzige Partikel mit einem Durchmesser von nur wenigen Millionstel Millimetern. Materialien aus solchen Nanoteilchen besitzen häufig andere Eigenschaften als die „klassische“ Materie, obwohl sie aus den gleichen chemischen Bausteinen bestehen. Beim Verkleinern können sich sprunghaft die mechanischen, optischen, chemischen, magnetischen und elektronischen Eigenschaften ändern. Auch Härte, Zähigkeit und Schmelzpunkt können deutlich variieren. Das Interesse an den Nanoteilchen hängt genau mit diesen überraschenden und ungewöhnlichen Eigenschaften zusammen. So sind etwa viele Vitamine wasserunlöslich. Macht man Nanopartikel daraus, werden sie bereits mit kaltem Wasser gut mischbar und für den menschlichen Organismus biologisch verfügbar. Das Charakteristische der Nanoteilchen ist ihre riesige spezifische, also auf das Gewicht bezogene, Oberfläche. Diese Tatsache nutzt man beispielsweise bei der heterogenen Katalyse. Interessante Effekte zeigen sich auch bei der Wechselwirkung der winzigen Teilchen mit elektromagnetischer Strahlung. In Sonnencremes filtert nanopartikuläres Zinkoxid ultraviolette Strahlung aus dem Sonnenlicht. Die Partikel bleiben wegen ihrer geringen Größe unsichtbar für das menschliche Auge. Daher ist die Creme auf der Haut transparent. Erste kommerzielle Anwendungen haben sich also bereits auf dem Markt etabliert. Nanoprodukte sind heute in den Bereichen Elektronik, Optoelektronik, Biotechnologie, Pharmazeutik, Kosmetik, Energie, Katalyse und Maschinenbau vertreten. Darüber hinaus eröffnen sich neue attraktive Märkte – etwa bei Textilien für den Outdoor- und Freizeitbereich. Dort sorgen Nanopartikel in einem Vorprodukt für Textilfasern, einem speziellen Polyamid der BASF, für eingebauten UV-Schutz. Großes Interesse erregen darüber hinaus unsere Nanocubes, die Energie für trag-

11

bare Computer speichern könnten. Die Wissenschaftler der BASF testen derzeit ein Material, das ein hochporöses Raumgitter aus Zinkoxid und Terephthalsäure mit vielen offenen Poren und Kanälen besitzt. Diese Nanowürfel könnten in Zukunft als Wasserstoffspeicher für kleine Brennstoffzellen dienen und Laptops oder Handys mit Strom versorgen. Eine zauberhafte Zukunft verspricht auch die BASF-Entwicklung, der die Lotus-Pflanze Pate stand. Für die entwickelte Oberflächenbeschichtung sind zwei Eigenschaften charakteristisch – die Superhydrophobie, eine starke Wasserabweisung, und die Selbstreinigung. Wassertropfen auf einer entsprechend behandelten Oberfläche können nicht mehr anhaften und rollen einfach ab. Schmutzpartikel werden dabei von der Oberfläche entfernt. Das Beschichtungsmittel lässt sich durch Sprühen leicht auf jede Oberfläche aufbringen. Während des Trocknens bilden sich dann die Nanostrukturen durch Selbstorganisation und verändern die Oberflächeneigenschaften wie gewünscht. Stein-, Holz- oder Kunststoffoberflächen könnten beispielsweise in Zukunft den Schmutz einfach abperlen lassen. Auch die staatliche Förderung hat das immense Potenzial dieser Technologie erkannt und unterstützt diverse Forschungsprojekte. Im Jahr 2001 wurden weltweit 1,6 Milliarden Euro an Fördergeldern für Nano-Projekte gezahlt, fast ein Drittel davon in den Vereinigten Staaten. 2003 waren es bereits 4,6 Milliarden Euro, wovon 1,3 Milliarden auf Japan und 1,25 Milliarden auf die USA entfielen. Dies spiegelt sich jedoch nicht in der Bewertung der Technologieführerschaft wider: Bei der regionalen Verteilung von Nanotechnologiekompetenzen sehen Teilnehmer einer Umfrage von 3i, einer der größten international agierenden Venture-KapitalGesellschaften, Europa als führend in den Bereichen Pharma, Materialien und Chemie. Die größte Elektronikkompetenz wird Japan und Korea knapp vor den USA zugeschrieben. Im Bereich der Nanostrukturierung werden die USA als weltweit führend angesehen. Doch was ist alles „nano“? Eine klare Abgrenzung von Nanoprodukten ist schwierig. Zählt etwa ein Polymer, dessen typische Eigenschaften auf teilkristallinen Nanostrukturen beruhen, bereits dazu? Dies macht es nicht einfach, das Weltmarktvolumen in Zahlen zu fassen. Klar ist, dass derzeit Nanopartikel und Composite sowie Beschichtungen die wichtigsten Anwendungsgebiete sind – Felder, die insbesondere für die chemische Industrie interessant sind. Bei den Partikeln machen etablierte Produkte wie Pigmente und Dispersionen den Löwenanteil aus. Das trifft heute zu, wird aber auch in zehn Jahren noch so sein. Ultradünne Schichten finden größtenteils Anwendungen in Elektronik und Informationstechnologie. Sie dürften auch zukünftig der größte Markt für Beschichtungen sein. Überproportionales Wachstum wird für funktionale und optische Beschichtungen erwartet, also Schichten, die zu Kratzfestigkeit, Antibeschlag- oder Selbstreinigungseffekten verhelfen. Hier ist die deutsche Industrie führend. Für die Eroberung der Nanomärkte gibt es allerdings noch Hemmschuhe: Häufig sind die Zwergenprodukte zu teuer und damit gegenüber dem Stand der Technik nicht konkurrenzfähig. Die For-

12

schung ist meist zu technologiegetrieben, es wird zu viel auf faszinierende Abmessungen und zu wenig auf das Eigenschaftsprofil geachtet. Die BASF stellt schon seit Jahrzehnten viele Produkte her, deren Eigenschaften von Nanopartikeln beziehungsweise Nanostrukturen geprägt sind. Wir setzen die Nanotechnologie jedoch nicht um ihrer selbst willen ein. Vielmehr nutzen wir die Technologie, um Produkte mit völlig neuen oder überlegenen Eigenschaften zu erzeugen und damit unseren Kunden zu einem zusätzlichen Nutzen zu verhelfen. In Anwendungen wie Polymerdispersionen, Farbpigmenten und Katalysatoren besitzt die BASF heute ein gut etabliertes Geschäft. Zum Einfärben von Kunststoffen werden beispielsweise Nanopigmente verwendet. Auch viele BASF-Lacke und Farben sind ohne die Zwergentechnologie nicht mehr denkbar. Durch eine im Nanometerbereich strukturierte Architektur können die Eigenschaften des Kunststoffs Styrolux, ein Styrol-Butadien-Blockpolymer, beeinflusst werden. So lässt sich bei der Herstellung dieses Kunststoffs ganz gezielt sein Eigenschaftsprofil einstellen. Und daraus hergestellte Lebensmittelverpackungen erhalten die optimale Mischung aus Schlagfestigkeit und Transparenz. Für die Zukunft gibt es reichlich Pläne, damit die kleinen Wunder, die auf Nanostrukturen beruhen, Wirklichkeit werden. Fest steht: Die Nanotechnologie ist eine echte Querschnittstechnologie, sowohl aus Sicht der Wissenschaftler als auch der Anwender, und sie wird künftig in allen Bereichen der Technik eine Rolle spielen.

Dr. Stefan Marcinowski, Mitglied des Vorstands der BASF Aktiengesellschaft und Sprecher der Forschung

13

Einleitung

Das Orakel von Delphi

Zwischen Science-Fiction und Wirklichkeit „Die Produkte einer hochentwickelten Technologie sind für Angehörige weniger fortgeschrittener Kulturen nicht von Zauberei zu unterscheiden.“ Diesen Satz prägte der bekannte britische Science-Fiction-Schriftsteller Arthur C. Clarke, der auch das Drehbuch zum Filmklassiker „2001 – Odyssee im Weltraum“ schrieb. Produkte, wie Datenspeicher im Miniformat, die das Wissen der gesamten Deutschen Bibliothek aufnehmen können – und die verfügt an den Standorten Frankfurt a. M. und Leipzig über mehr als zehn Millionen Bände, 800.000 Dissertationen und 24.000 Tonträger –; Chips, die die 500 besten Spielfilme aller Zeiten enthalten; Solarzellen, die das Prinzip der natürlichen Photosynthese nutzen; Werkstoffe, deren Eigenschaften man an- oder abschalten kann, erinnern in der Tat stark an Zauberkräfte oder die Hilfe von Außerirdischen. Doch Visionen dieser Art sind auf dem Weg zur Realität und fest verbunden mit einem neuen Arbeitsgebiet, das Wissenschaft und Wirtschaft inzwischen gleichermaßen in Spannung versetzt: die Nanotechnologie. Wenn man sich mit Prognosen beschäftigt, die die Entwicklung von Wissenschaft und Technik im 21. Jahrhundert beschreiben, fallen Begriffe mit der Vorsilbe „nano“ immer häufiger: Nanokosmos oder Nanostrukturen, Nanochemie und Nanoelektronik, Nanomaterialien oder Nanozentren – die kurze Buchstabenreihe, die im Griechischen für Zwerg steht, hat offensichtlich Konjunktur. Die Schilderungen von Chancen, aber auch von Risiken erinnern teilweise an Folgen aus der Science-Fiction-Serie „Raumschiff Enterprise“, sind indes auf der anderen Seite bereits alltägliche Produkte, wie z. B. Zusätze in Sonnencremes oder Beschichtungen von Waschbecken. Spannend für den unvoreingenommenen Betrachter ist nicht nur die wissenschaftliche Forschung, sondern auch die personifizierte Auseinandersetzung schillernder Persönlichkeiten „aus der Szene“. Besondere Beachtung haben hier die „Propheten“ Ray Kurzweil und K. Eric Drexler mit ihrer bejahenden, der „Skeptiker“ Bill Joy mit seiner mahnenden Position gefunden (siehe Kapitel 11, Seite 219 ff.). Einige Kritiker bemängeln, dass heute nahezu alles „nano“ ist, dass mit dem Begriff inflationär umgegangen wird – eine schicke Marke, die Aufmerksamkeit erregt. Der Materialwissenschaftler Rustum Roy von der Pennsylvania State University, der

15

selbst an Nanowerkstoffen forscht und nach eigenen Angaben mehr neue keramische Materialien entwickelt hat als jeder andere seiner Mitstreiter, hält die gegenwärtige Aufregung für gewaltig übertrieben: „Ich erwarte keine großen Ergebnisse vom aktuellen Nanoboom. Auf diesem Gebiet gibt es kaum neue Resultate. Stattdessen viel Gerede, Wiederholungen und Übertreibungen. Für mich ist das ein Megahype für Nanoprodukte.“ Sicher hat der engagierte Denker und Streiter recht, wenn er manche Auswüchse verurteilt, doch die tatsächliche Entwicklung in ihrer gewaltigen Breite spricht gegen ihn. Deshalb trifft der Vergleich des gebürtigen Inders Roy mit den Hochtemperatursupraleitern auch nicht so recht. Zwar stimmt es, dass die überschäumende Euphorie um diese keramischen Stoffe (siehe Kapitel 10, Seite 209) seinerzeit große Forschungsprogramme lostrat und Fördergelder in Bewegung setzte, aber dann wieder mehr oder minder sang- und klanglos verpuffte. Doch dies bezog sich auf ein viel kleineres, abgegrenztes Forschungsgebiet, das längst nicht den Querschnittscharakter der Nanotechnologie aufweisen kann. So hält Professor Helmut Dosch, Direktor am Max-Planck-Institut für Metallforschung in Stuttgart, gegen die Thesen seines Kollegen Roy: „Die Entwicklung von neuen Materialien, den darauf aufbauenden Nanoarchitekturen und HightechProdukten ist in den vergangenen Jahrzehnten geradezu mit atemberaubendem Tempo verlaufen. Man denke an die Halbleitertechnologie, die uns im HalbjahresTakt immer schnellere, kleinere und gedächtnisstärkere Computer beschert. Schon eine singende Geburtstagskarte hat heute mehr Rechnerleistung als die Alliierten bei der Landung in der Normandie.“ Dennoch: Auch die wissenschaftliche Gemeinde ist sich nicht immer einig darüber, was denn alles „nano“ ist. Und in der Tat ist es schwierig, die Begriffe Nanotechnologie oder Nanotechnik scharf zu fassen. So wird darunter heute alles subsumiert, was noch gar keine Technik, sondern noch Grundlagenforschung über Strukturen zwischen einem und einigen hundert Nanometern ist. Manchmal sind die Nanoobjekte noch so groß, dass sie eigentlich in den Mikrometerbereich gehören – alles eine Frage des Bezugsystems, ob man tausend Nanometer oder ein Mikrometer sagt. Erschwerend kommt noch hinzu, dass einige Dinge aus unserem täglichen Leben sozusagen schon immer „nano“ waren (obwohl das nur die wenigsten gewusst haben dürften) – Rußpartikel z. B., die von Beginn des Automobils an ein wichtiges Additiv in den Gummimischungen unserer Reifen waren und es weiterhin sind. Das „Nanofieber“ hängt sicher auch damit zusammen, dass heute nahezu jede Organisation zur Forschungsförderung Geldmittel für dieses Gebiet zur Verfügung stellt. Das heizt die Goldgräberstimmung an, jeder will ein Stück vom Kuchen. Mehr denn je steht auch die Wissenschaft im Wettbewerb nicht nur in Bezug auf den Wissenszuwachs, sondern auch um die Fördertöpfe; da gehört das Klappern zum Handwerk. Deutsche Wissenschaftler sind an dieser Stelle noch sehr viel

16

zurückhaltender als ihre Kollegen jenseits des Atlantiks. Dazu kommt die Erkenntnis, dass es kaum ein Gebiet gibt, das so breit aufgestellt ist wie die Nanotechnologie – entsprechend viele Bojen gibt es denn auch, um es zu markieren.

Deutschlands Straßennetz auf einem Fingernagel Wie schon erwähnt, bedeutet „Nanos“ im Altgriechischen Zwerg und um kleine Dinge geht es tatsächlich, denn in Physik, Chemie und Technik steht die Vorsilbe „nano“ für Milliardstel von verschiedensten Einheiten wie Meter oder Sekunde. Ein Nanometer (nm) ist der Millionste Teil eines Millimeters und damit immer noch rund 50.000 mal kleiner als der Durchmesser eines menschlichen Haares. Wer ein solches aus der Suppe fischt oder sich vom Haupt reißt, um den Versuch zu machen, es nochmals 50.000fach zu zerlegen, dürfte schon in der bloßen Vorstellung scheitern. Selbst wenn es gelänge, das gesamte Straßenverkehrsnetz Deutschlands mit einer Länge von über 230.000 Kilometern auf die Größe eines Fingernagels zu bringen, so entspräche die dann resultierende Breite einer Landstraße (von einer Autobahn ganz zu schweigen) im Nanokosmos noch immer einer ziemlich groben Struktur. Ein Nanometer ist eben unvorstellbar klein und bewegt sich im Bereich von Atomen und Molekülen. In seiner Promotionsarbeit mit dem Titel „Eine neue Bestimmung der Moleküldimension“ berechnete Albert Einstein 1905 unter anderem die Größe von Zuckermolekülen, indem er ihre Auflösung in Wasser beobachtete. Als Resultat veröffentlichte er, dass der Durchmesser etwa ein Nanometer beträgt. Für den Normalbürger ist ein Stecknadelkopf bereits ein Synonym für klein – der millionste Teil davon misst ein nm. Ein durchschnittliches Bakterium ist immer noch eintausendfach größer. Aufgereiht wie Perlen auf einer Kette ergeben auch zehn Wasserstoffatome, das chemische Element mit der geringsten Größe, das neue Maß aller Dinge in der Zwergenwelt. Bei derartig winzigen Systemen treten völlig neue Effekte auf. Werden Materialien auf atomare Dimensionen herunterskaliert, ändern sich gleichzeitig mit der Struktur auch etliche physikalische Eigenschaften. Zum Beispiel lassen sich ursprünglich spröde, harte Werkstoffe plötzlich formen, während anders herum weiche Metalle hart werden. Das Charakteristische an Nanostrukturen sind vor allem diese bemerkenswerten mechanischen, optischen, magnetischen, elektrischen und chemischen Eigenschaften, die nicht allein von der Art des Ausgangsmaterials, sondern in besonderer Weise von ihrer Größe und Gestalt abhängen. In der makroskopischen Welt gibt es ein anschauliches Beispiel: Graphit (das „Blei“ im Bleistift) ist weich, schwarz, elektrisch leitfähig und preiswert. Diamant ist extrem hart, durchsichtig, elektrisch nicht leitfähig und sehr teuer. Beide Materialien bestehen aus reinem Kohlenstoff und unterscheiden sich „nur“ in ihrem atomaren Aufbau – mit weitreichenden Konsequenzen. Eine dritte Modifikation des Elements Kohlenstoff

17

wurde 1985 entdeckt. Diese Verbindungen, zu denen unter anderem Fullerene und Nanotubes (siehe Kapitel 5, Seite 134 bzw. 141) gehören, haben wieder gänzlich andere Eigenschaften als Graphit oder Diamant. So gibt es gleich mehrere Ansätze für Nanotechnologien. Zum einen werden neue Instrumente und Verfahren entwickelt, um auf dem Wege der stetigen Miniaturisierung von der derzeitigen, schon vorhandenen Mikro- zur künftigen Nanotechnik zu kommen. Dieser Pfad liefert im wesentlichen Erkenntnisse, die zu Beiträgen in den Bereichen Elektronik, Optoelektronik und Sensorik führen. Zum anderen gibt die belebte Natur Anleitungen zum selbstorganisierenden Aufbau von Materie, der zumindest teilweise auch technisch nutzbar ist. Das zunehmende Wissen um sich selbst organisierende Strukturen und Funktionseinheiten ist insbesondere für die Life Sciences und die Entwicklung neuer Materialien interessant. Hier geht es dann nicht um die einfache Fortsetzung von Mikrotechnik, sondern um die interdisziplinäre Integration biologischer Prinzipien, physikalischer Gesetze und chemischer Stoffeigenschaften. Nanotechnik ist also nicht nur die weitere Verkleinerung von Bekanntem, sondern gerade auch die Nutzung ganz neuer Phänomene, wie sie insbesondere durch das Schlagwort Quanteneffekte beschrieben werden. Die Quantentheorie, die um 1900 vom deutschen Physiker Max Planck begründet wurde, beschreibt das physikalische Verhalten im „Reich der Zwerge“, also von Molekülen, Atomen, ihren Kernen und den Elementarteilchen. Dabei wird berücksichtigt, dass das Geschehen hier nicht stetig, sondern sprunghaft, in Quanten eben, verläuft. Die Wissenschaft unterscheidet deshalb zwischen der Kontinuums- und der Quantenphysik.

Nano – ein Thema mit überragender Querschnittsfunktion Weltweit wird der Nanotechnologie eine Schrittmacher- und Querschnittsfunktion zugeschrieben, die auf nahezu alle Felder von Wissenschaft und Technik Auswirkungen hat. Dabei verschwinden die bisher verwendeten Abgrenzungen zwischen Biologie, Chemie, Physik und Ingenieurswesen – hier ist die intensive, interdisziplinäre Zusammenarbeit der Forschung insgesamt gefordert, die auch eine neue Organisation der wissenschaftlichen Arbeit notwendig macht. Schon 1993 veröffentlichte das seinerzeit noch BMFT genannte Bundesministerium für Forschung und Technologie (inzwischen in BMBF, Bundesministerium für Bildung und Forschung, umgewandelt) seine Studie „Technologie am Beginn des 21. Jahrhunderts“. Auch in ihr spielen die Zwerge eine große Rolle: „Die Nanotechnologie besitzt für die Technikentwicklung der 90er-Jahre und der ersten Jahrzehnte des 21. Jahrhunderts eine Schlüsselfunktion. Sie ermöglicht die Ingenieurwissenschaft auf atomarer und molekularer Ebene. Damit die neue Basistechnologie zukünftige Inno-

18

vationsprozesse und Technikgenerationen in voller Breite befruchten kann, ist das interdisziplinäre Zusammenwirken mit der Elektronik, der Informationstechnik, der Werkstoffwissenschaft, der Optik, der Biochemie, der Biotechnologie, der Medizin und der Mikromechanik eine wichtige Voraussetzung.“ Anfang der 90er-Jahre wurde Nanotechnologie vor allem in Zusammenhang mit der Elektronik gesehen. Das war insofern verständlich, als dass die Chipproduzenten ohnehin auf dem Weg der permanenten Verkleinerung waren – und im übrigen weiterhin sind. Der Trend zur Miniaturisierung in der Technik ist in diesem Bereich am deutlichsten und bekanntesten. Hier war der Übergang von der Mikroin die Nanowelt also schon vorgezeichnet. Die Vorstellungen auf diesem Gebiet reichen von atomaren Speichern, also Systemen mit höherer Speicherdichte, über so genannte Quantenbauelemente bis hin zu perfekt selektierenden Sensoren. Eine hohe Affinität wurde auch mit dem Feld der neuen Materialien gesehen. Man hat schon vor rund zehn Jahren eindeutig erkannt, dass innovative Werkstoffe durch gezielte Beeinflussung ihrer inneren Struktur auf ein vorgegebenes Anwendungsprofil hin maßgeschneidert werden können. Mit nanokristallinen Werkstoffen entsteht eine völlig neue Materialklasse mit gänzlich neuartigen Eigenschaften, die z. T. dadurch bedingt sind, dass die entstehenden Teilchen im Verhältnis zu ihrer Größe eine sehr hohe Oberfläche haben. Nanowerkstoffe haben z. B. eine erhöhte Wärmekapazität, eine sehr gute Löslichkeit für Fremdatome und eine erstaunliche Festigkeit. Im Februar 1998 hat das BMBF die neue Delphi-Studie vorgestellt, die die globale Entwicklung von Wissenschaft und Technik beschreibt und sich dabei auf mehr als 2.000 Fachleute aus Unternehmen, Dienstleistung und Verwaltung, von Hochschulen und Forschungsinstituten abstützt. Die Eroberung des Nanokosmos ist eine der Visionen im Delphi-Report 98, die noch nicht den Rang eines eigenständigen Fachgebiets hat, aber schon aus verschiedenen Ansätzen gespeist wird. Wie immer bei einem neu entstehenden Gebiet versteht nicht jeder Fachwissenschaftler exakt das gleiche unter dem Oberbegriff „Nanotechnologie“. Simpel gefragt: Beginnt der Nanokosmos bei 100 nm, bei zehn nm oder noch darunter? Im Delphi ’98 finden sich immerhin schon 21 Thesen, die sich unzweifelhaft mit Aspekten der Nanotechnologien beschäftigen – sie stammen aus den Fachgebieten „Chemie und Werkstoffe“, „Information und Kommunikation“ sowie „Management und Produktion“.

Strukturen nach dem Plopp-Effekt Bei den Nennungen geht es um Herstellungsverfahren für sehr komplexe Strukturen bis in molekulare und atomare Bereiche hinein, Speicherdichten, die Größenordnungen über den heutigen liegen, und Prozesstechniken, die sich industriell für Strukturen in den Abmessungen von einigen nm eignen. Es geht aber auch um die Aufklärung von Phänomenen der stofflichen Selbstorganisation in anorganischen

19

und organischen Werkstoffen, um zerstörungsfreie Prüfverfahren zur Auffindung winzigster Risse, um praktische Anwendungen wie transparente Solarzellen auf der Basis von nanoskaligen Materialien und um die berühmten Fensterscheiben, die Strom erzeugen. Das Phänomen Selbstorganisation ist auf den ersten (und zweiten) Blick schwer zu verstehen. Eine Ahnung können vielleicht neuartige Wölbstrukturen aus der Makrowelt vermitteln. Der Waschmaschinenhersteller Miele wendet in Zusammenarbeit mit Professor Frank Mirtsch von der Technischen Fachhochschule Berlin dieses Prinzip für die Blechformgebung an. Die Selbstorganisation, die in der Natur seit Tausenden von Jahren bekannt ist, erzeugt regelmäßige, hexagonale Strukturen nach dem Beispiel der Bienenwabe, die auch sehr dünnen Materialien eine hohe mechanische Stabilität und weitere positive Eigenschaften verleihen. „Wir haben festgestellt, dass sich dünnes Material, wie Blech und Folien aller Art, am einfachsten und besten versteift, wenn es sich unter minimaler hydraulischer Belastung quasi von selbst in die dritte Dimension verformt“, so Experte Mirtsch. Miele nutzt diesen „PloppEffekt“ zum Bau von innovativen Wäschetrommeln, die besonders schonend waschen und zudem höchste Schleuderzahlen (1.800 Umdrehungen pro Minute) erreichen. Derartige Vorgänge, die ab einer bestimmten Rahmenbedingung wie von selbst ablaufen, finden auch und gerade auf nanoskaliger Ebene ab. Delphi ’98 hat einige überraschende Ergebnisse zu Tage gefördert: 27 Prozent der befragten Experten erwarten die Erweiterung des Wissens durch die Erforschung der Nanotechnologie – eher überraschend wenig. Fast ebenso viele Fachleute (24 Prozent) – und das ist dann positiv überraschend – weisen auf das ökologische Potenzial hin, jeweils 22 Prozent auf die Bedeutung für Arbeit und Beschäftigung sowie für den gesellschaftlichen Fortschritt (Mehrfachantworten waren zugelassen). Schon vor fünf Jahren waren 88 Prozent der Antwortgeber von den großen wirtschaftlichen Möglichkeiten der Nanos überzeugt. Inzwischen hat sich die Sicht der Dinge weiter verschoben – die Nanotechnologie hat ihr Spektrum deutlich verbreitert. So gibt es kaum noch ein Gebiet, das nicht mit ihr in Verbindung gebracht wird bzw. von ihr profitieren könnte. Auch bei den Banken hat offenbar ein Umdenken eingesetzt – brutal formuliert: Bio ist out, „nano“ ist in. Kein Wunder, wenn man bedenkt, dass die amerikanische National Science Foundation – sicher keine Organisation überschäumender Phantasten – in zehn bis 15 Jahren das Wirtschaftspotenzial der Nanotechnologie auf rund 700 bis 800 Milliarden Dollar prognostiziert. Andere Quellen erwarten sogar 2.400 Milliarden Dollar im Jahre 2015. Angesichts derartiger Zahlen kommen nicht nur Finanzfachleute ins Grübeln. Nach Überzeugung von vielen Experten wird die Nanotechnologie eine ähnliche Entwicklung nehmen, wie sie die Informationstechnik nach der Erfindung des Transistors und der Herstellung integrierter Schaltkreise (IC) zu verzeichnen war. Bereits 1928 hatte der deutsche Physiker Julius Lilienfeld aus rein theoretischen

20

Erkenntnissen die Funktion des Feldeffekttransistors hergeleitet und damit einen wichtigen Grundstein für die spätere Halbleitertechnik gelegt. Nach rund 20-jähriger weltweiter Forschungsarbeit auf diesem Gebiet gelang es den amerikanischen Wissenschaftlern John Bardeen, Walter Houser Brattain und William Shockley in den berühmten Bell Laboratories in Murray Hill (New Jersey), den Transistor technisch nutzbar zu machen. 1956 wurden ihre „Untersuchungen über Halbleiter und die Entdeckung des Transistoreffektes“ mit dem höchsten wissenschaftlichen Lorbeer, dem Nobelpreis für Physik, ausgezeichnet. John Bardeen ist im Übrigen einer der ganz wenigen Wissenschaftler, der den Nobelpreis gleich zweimal gewinnen konnte: 1972 wurde er zusammen mit zwei Kollegen für die Theorie gekürt, die das Phänomen der Supraleitung erklärt (siehe Kapitel 5, Seite 139 f.).

Erfolgskonzept Miniaturisierung Die aus der Transistorentwicklung abgeleitete Mikroelektronik, die den Computer ebenso ermöglichte wie den „großen Schritt für die Menschheit“, die Mondlandung 1969, ist ein exzellentes Beispiel für das Erfolgskonzept Miniaturisierung. Denn inzwischen haben die Chipbauer den Bereich „Mikro“ längst verlassen und sich Richtung „Nano“ vorgearbeitet. So wird derzeit die nächste Generation der Halbleiterbauteile vorbereitet, die mit Laserlicht einer Wellenlänge von 157 nm erzeugt werden sollen. Die untere Grenze der resultierenden Strukturelemente wird damit auf bis zu 70 nm sinken. Und auch der nächste Schritt ist bereits vorgezeichnet. Bei der „Extremen Ultraviolett Lithographie“ werden künftig Wellenlängen zwischen elf und 13 nm genutzt, um die Chipentwürfe auf die Siliziumwafer zu schreiben. Mit dem Einsatz dieser weichen Röntgenstrahlung besteht die Möglichkeit, die Strukturbreiten nochmals auf nur noch etwa 30 nm zu verringern. Das Vordringen in die Nanowelt im ständigen Wettbewerb mit der Konkurrenz generiert nicht nur immer kleinere Schaltkreise und kapazitätsreichere Speicherbausteine, sondern auch die Erkenntnis, dass beim Kauf eines Personalcomputers dieser eigentlich schon wieder veraltet ist. Als wegweisender Visionär à la Jules Verne hat sich Richard Phillips Feynman in Sachen Nanotechnologie erwiesen. Auf einer Tagung der Amerikanischen Physikalischen Gesellschaft am 29. Dezember 1959 hielt er eine wegweisende Rede, in der er – ungewollt – einen wesentlichen Grundstein für dieses Gebiet legte, lange bevor der Begriff überhaupt existierte. Den prägte der Japaner Norio Taniguchi erst 1974 mit seinem Vorschlag, Fertigungsmethoden mit Abweichungen unter einem Mikrometer als „Nanotechnologien“ zu bezeichnen. Auch K. Eric Drexler, unermüdlicher Vordenker und Befürworter der Nanotechnologie, reklamiert für sich selbst, Schöpfer dieses Begriffs gewesen zu sein. Wie auch immer, zurück zu Feynman und dem California Institute of Technology (Caltech) in Pasadena, wo er Physik lehrte und auch seinen berühmt gewordenen Vortrag unter dem Titel

21

„There’s Plenty of Room at the Bottom“ hielt: „Ich möchte darüber sprechen, wie man Dinge kleiner Größenordnung manipuliert und kontrolliert. Sobald ich das erwähne, fangen die Leute an, mir etwas über Miniaturisierung zu erzählen und wie weit sie heute bereits fortgeschritten sei. Sie berichten mir von elektrischen Motoren, die nicht größer als der Nagel ihres kleinen Fingers sind. Beispielsweise ist ein Apparat auf dem Markt, mit dessen Hilfe man das ganze Vaterunser auf einer Nadelspitze unterbringen kann. Doch das ist gar nichts; das sind die allereinfachsten, zögerlichen Schritte auf dem Gebiet, über das ich sprechen will. Die Welt da unten ist atemberaubend klein. Wenn die Leute im Jahr 2000 auf unsere Zeit zurückblicken, werden sie sich wohl fragen, warum sich erst 1960 jemand ernsthaft in diese Richtung vorzuwagen begann.“ Seinem staunenden Publikum stellte Feynman, der „für fundamentale Leistungen in der Quantenelektrodynamik“ 1965 den Nobelpreis für Physik erhielt, die Frage: „Warum sollten wir nicht alle 24 Bände der Encyclopaedia Britannica auf einer Nadelspitze unterbringen können?“ Und das nur, um schlüssig nachzuweisen, dass der Platz in der Tat ausreicht. Mehr noch: Feynman führte aus, dass sämtliche Informationen, die der Mensch sorgsam in allen Büchern der Welt zusammengetragen hat, in einem Würfel mit einer Außenkante von 0,5 Millimetern Platz finden würden – ein Würfel, nicht größer als ein Staubkorn, den man gerade noch mit bloßem Auge erkennen kann. „Es ist also in der Tat jede Menge Platz da unten! Und kommen Sie mir jetzt nicht mit Mikrofilm!“, so Feynman. Im weiteren Verlauf seines Vortrags ließ der „Vater der Nanotechnologie“ seine gebannten Zuhörer, die von der Geschichtsträchtigkeit der Stunde sicher nichts ahnten, auch an seinen Überlegungen zur Erzeugung von Schaltkreisen mit nur noch atomar breiten Leiterbahnen und Bauteilen im Submikrometerbereich teilnehmen. Seine Weitsichtigkeit verblüfft auch heute noch: So fanden in seiner Rede bereits vor über 40 Jahren mikroelektromechanische Systeme, so genannte MEMS, Herstellungsverfahren mit Elektronen- und Ionenstrahlen, Nanostrukturierung mit Präge-Lithographie, die Manipulation einzelner Atome oder die Projektionselektronenmikroskopie Erwähnung, also Instrumente und Methoden, die heute absolut en vogue sind.

Wie die Nadel eines Plattenspielers Feynman war ein Wegbereiter, doch erst die Entwicklung des Rastertunnelmikroskops in den IBM-Laboratorien im schweizerischen Rüschlikon bei Zürich zu Beginn der 80er-Jahre schuf die benötigten Beobachtungsmöglichkeiten, um Manipulationen auf atomarer und molekularer Ebene zu kontrollieren und weitere innovative Forschungen in Gang zu setzen. Dem Deutschen Gerd Binnig und dem Schweizer Heinrich Rohrer gelang es 1981, das erste Instrument zur Feinuntersuchung der Oberflächen von Leitern und Halbleitern zu entwickeln. Ähnlich wie die

22

Nadel eines Plattenspielers tastet die Spitze die Oberfläche ab und liefert ein exaktes Bild des analysierten Gegenstandes. Die neuartige atomare Auflösung wird durch Anwendung des Tunneleffekts erreicht, bei dem Elektronen zwischen der Probe und der Spitze einer Sonde aus feinem Wolframdraht tunneln. Die Auflösung beträgt lateral etwa 0,2 nm und vertikal 0,001 nm. Die Spitze besteht aus nur wenigen Atomen, im Idealfall aus nur einem Atom. Dabei tastet sie ihre Untersuchungsobjekte Atom für Atom ab, daher der Begriff Raster. Die ultrascharfe Spitze wird sehr dicht über die atomaren Berge und Täler einer Oberfläche geführt, wobei Ströme bzw. Kräfte auftreten, deren Größe abhängig ist vom Abstand zwischen Nadel und Objekt. Wichtige Vorarbeiten hatten schon 50 Jahre vorher der deutsche Elektrotechniker Max Knoll und sein Student Ernst Ruska geleistet, die das erste Elektronenmikroskop bauten, das Teilchen sichtbar machte, die kleiner sind als die Wellenlänge des Lichts. Ruska, Binnig und Rohrer erhielten den Nobelpreis für Physik im Jahre 1986. Der Vorstoß in den Nanokosmos war also für eine ganze Reihe von Spitzenforschern überaus einträglich. Inzwischen verfügt die Wissenschaft über eine ganze Reihe von weiteren Instrumenten für die Beobachtung und Manipulation auf atomarer Ebene, die in Folge der Rüschlikon-Konstruktion erarbeitet wurden. Dazu gehören das Atom-KraftMikroskop, gemäß dem englischen Begriff „atomic force microscop“ als AFM abgekürzt, sowie darauf aufbauende zusätzliche Rastersonden. Das gesamte Spektrum dieser hochentwickelten Geräte kann nicht nur als Analyseinstrumente, sondern auch als Strukturierungswerkzeuge eingesetzt werden. So kann die Spitze beispielsweise Atome zu winzigen Häufchen zusammenschichten oder auch einzelne Atome absondern. Berühmt geworden ist die Werbung der besonderen Art von Donald M. Eigler und Erhard Schweizer, die im IBM-Labor Almaden in Kalifornien zu Hause sind: 1989 arbeiteten die beiden Forscher mit der Sonde eines Rastertunnelmikroskops und insgesamt 35 Xenon-Atomen auf einem Nickelkristall solange, bis der Schriftzug von „Big Blue“ zu lesen war.

Auf dem Sprung in die Kommerzialisierung Die Nanotechnologie ist immer noch ein sehr junges Arbeitsgebiet, wichtige, wahrscheinlich entscheidende Entwicklungsschritte hat sie noch vor sich. Wie bei einer so umfassenden Querschnittstechnologie nicht ungewöhnlich, variieren zeitlicher Entwicklungsstand und Dynamik der verschiedenen Teilbereiche noch erheblich. Im Mittel befindet sich die Nanotechnologie im Stadium einer breit angelegten wissenschaftlichen Grundlagenforschung, wobei die industrielle Forschung inzwischen schnell aufholt und sich erste kommerzielle Anwendungen etablieren. Schätzungen gehen davon aus, dass das weltweite Marktvolumen für Produkte, die auf Nanotechnologie beruhen, 2001 bereits rund 40 bis 50 Milliarden

23

US-Dollar erreicht haben. Für 2005 dürfte sich dieser Wert inzwischen verfünffacht haben. Auch in der Nanotechnologie ist das Vorbild Natur unverzichtbar – schon die Evolution hat Strategien hervorgebracht, von denen wir jede Menge lernen können und müssen. Dazu gehören Selbstorganisation und Replikation, deren Erfolgsrezept jetzt auf menschliche Technik übertragen werden soll. Auch bei der Miniaturisierung ist die Natur uns noch weit voraus, damit spart sie Rohstoffe, Energie und Platz. Erfolgreich kopiert hat diesen Ansatz in gewisser Weise die Mikroelektronik, die demnächst auf der atomaren Ebene angekommen ist. Kein Industriezweig in der gesamten Technikgeschichte hat derartige Leistungssteigerungen bei gleichzeitig ständig fallenden Preisen vorzuweisen. Doch Nanotechnologie bietet mehr als eine dramatische Verkleinerung von Systemen, sie eröffnet ein weites Feld von Effekten und Prinzipien, die völlig neu sind. Hier sind Wissenschaft, Forschung und Industrie gleichermaßen gefordert, über alte Grenzen von Disziplinen hinweg neue Allianzen zu schmieden, um die entstehenden Chancen beim Schopf zu packen. Näheres zu diesen Themen findet sich in Kapitel 1. Welche wirtschaftliche Bedeutung die Nanotechnologie hat, macht eine Zahl schlagartig deutlich: Der Markt für Nanoprodukte wird bis etwa 2013 rund 1.000 Milliarden Dollar betragen, schätzt die amerikanische Nano Business Alliance. Neuere Schätzungen erwarten für 2015 sogar 2.400 Milliarden Dollar. Dazu tragen alte wie neue Märkte bei. Entscheidend hier ist die enorme Querschnittsfunktion der Zwerge, die in sämtliche Forschungs- und Anwendungsgebiete ausstrahlen. Denn auch das ist eine Besonderheit der Nanos, nie zuvor gab es eine derartige Breite einer Technologie. Alle Schlüsselindustrien sind involviert – von der Chemie über Pharmazie und Medizin, von der Luft- und Raumfahrt zum Automobilbau, von der Optik über die Feinmechanik bis zur Mikroelektronik, sie alle profitieren von den neuen Errungenschaften. Wie sich die Märkte im einzelnen entwickeln, wo schon Geld verdient wird und wo es noch länger dauert, ist in Kapitel 2 nachzulesen. Wie in vielen anderen Wirtschaftsbereichen gibt es auch in der Nanotechnologie einen intensiven Wettstreit zwischen den USA, Europa und Japan. Doch die so genannte Triade ist in diesem Feld nicht allein, auch Länder wie die Schweiz, Korea oder China unternehmen große Anstrengungen. Um den interdisziplinären Charakter der Nanotechnologie abzubilden, werden neuartige Kompetenznetzwerke geknüpft, Allianzen zwischen Hochschulen und Industrie forciert, Kooperationen international ausgerichtet. Wer hat die beste Ausgangssituation im Gerangel um die Poleposition? Wer hat in der Grundlagenforschung die Nase vorn, wer ist bei den Anwendungen stark, wer dominiert den Patentbereich? Antworten auf diese Fragen gibt Kapitel 3. Bis Nano-U-Boote in unserem Körper Viren jagen oder Ablagerungen in Herzkranzgefäßen beseitigen, dürften noch viele Jahre vergehen, wenn denn derartige

24

phantastische Reisen überhaupt je Realität werden. Dennoch liefert die Nanotechnologie im Bereich von Medizin, Pharmazie und Biologie eine große Anzahl an neuen Möglichkeiten. Dazu zählen perfekte Biowerkstoffe, neue Therapien gegen Krebs oder deutlich effizientere Medikamente. Das Zusammenspiel von Gentechnik und Analytik lässt auf Verbesserungen bei der Behandlung vieler Krankheiten hoffen. Kapitel 4 handelt auch davon, wie Nanosilber Antibiotika ersetzen könnte oder nanoskaliger Hydroxylapatit die Zahnpflege revolutioniert. Die Chemie beschäftigt sich intensiv mit Atomen und Molekülen sowie der Umwandlung von Stoffen, die sich ebenfalls auf atomarer Ebene abspielen. Kein Wunder also, dass gerade diese Wissenschaft eine besondere Nähe zur Nanotechnologie hat. Das gilt im Übrigen auch für viele Werkstoffe, die hier ganz neue Funktionen aufweisen. Von durchsichtigen Weißmachern, ganz speziellem Sand und dem überraschenden Geheimnis hinter dem Lotus-Effekt, von Katalysatoren, Fullerenen und Polymeren berichtet Kapitel 5. Die folgenden beiden Kapitel hängen eng zusammen. Denn die Entwicklung der Mikroelektronik (Kapitel 6), die den direkten Weg zur Nanoelektronik beschreitet, ist zwingend verbunden mit innovativen optischen Verfahren (Kapitel 7). Winzige Magneten als Datenspeicher könnten eines Tages das Wissen der Welt auf dem Platz einer Briefmarke festhalten, BSE-Erreger als Stromkabel dienen oder Laser aus atomaren Schichtstapeln riesige Informationsmengen übertragen (Kapitel 6). Ein Hoffnungsträger in der Optik sind organische Leuchtdioden (OLEDs), die für Displays und Beleuchtungszwecke gleichermaßen interessant sind. Daneben gibt Kapitel 7 einen Überblick über neue analytische Verfahren, die im Nanokosmos besonders aufwändig sind. Nanotechnologie im Automobilbau (Kapitel 8) bedeutet neue Beschichtungsmöglichkeiten für Reflektoren, Spiegel oder Scheiben. Sie dienen u. a. dazu, dass sich Autos im Sommer nicht mehr aufheizen oder Kunststoffe Glas ersetzen können. Zwerge werden auch dabei helfen, den Kraftstoffverbrauch zu senken, Lacke endlich kratzfest zu machen oder den Leichtbau voranzubringen. Großes Potenzial besitzen sie ebenso im Umweltschutz (Kapitel 9), wo künftig verstärkt Nanomenbranen, -poren und -filter zum Einsatz kommen werden. Das bedeutet u. a. neue Chancen für die Trinkwassergewinnung oder Abwasseraufbereitung. Ein zentrales Thema bleibt die Energieversorgung einer wachsenden Weltbevölkerung. Nanotechnik wird die Photovoltaik, die direkte Umwandlung von Sonnenstrahlung in Strom, verbessern, neuartige Batterien und Brennstoffzellen ermöglichen sowie unverzichtbare Speichermedien für eine künftige Wasserstoffnutzung zur Verfügung stellen. Auch wie dünne Wärmedämmschichten für maximalen Nutzen sorgen, erklärt Kapitel 10. Werden eines Tages Nanoroboter die Welt regieren? Welche gesundheitlichen Risiken gehen von Nanopartikeln aus? Brauchen wir ein Nano-Moratorium? Im letzten Kapitel geht es um Protagonisten und Eiferer, um Skeptiker und Mahner der

25

Nanotechnologie. Denn eines dürfte feststehen, diese umwälzende Technologie braucht eine kritische Begleitung im Sinne einer Technikfolgenabschätzung, um die Auswirkungen auf die Gesellschaft rechtzeitig zu erkennen und darauf angemessen zu reagieren.

26

Kapitel 1

Vorbild Natur – Vorbild Zelle

Die effektivste Fabrik ist winzig klein Moderne Fabriken sind Gebilde mit hohem Organisationsgrad, sie folgen den Prinzipien von Wirtschaftlichkeit und Effizienz und sollen beim Einsatz von Energie und Rohstoffen möglichst sparsam sein. Dabei sind Nebenprodukte weitgehend einzuschränken bzw., wenn nicht vermeidbar, einer sinnvollen Nutzung (Recycling) zuzuführen. Für all diese Ansätze gibt es ein unübertroffenes Beispiel im Nanomaßstab, von dessen Umsetzung in technische Prozesse die Menschheit trotz aller Anstrengungen noch „Lichtjahre“ entfernt ist – die lebende Zelle. Trotz der ungeheuren Vielfalt in der uns bekannten Pflanzen- und Tierwelt ist sie der kleinste, immer gleichbleibende Nenner des Lebens, die Grundeinheit aller Lebewesen von den Einzellern bis zum Menschen. Doch wie kam es zu dieser perfekten Nanofabrik? Vor rund vier Millionen Jahren trat ein Ereignis ein, das den Zustand der Erde langfristig radikal veränderte – der erste Ansatz von Leben entwickelte sich. In dieser fernen Vergangenheit bedeckten warme Ozeane die Oberfläche unseres Planeten. Das Wasser war reich an Mineralien, deren Zusammensetzung fortwährend variierte – je nach Stärke der ultravioletten Strahlung von der Sonne, die noch völlig ungehindert auf den „blauen Planeten“ niederprasselte, weil keine Ozonschicht ihr Bombardement abmilderte. Sie setzte in der ursprünglichen Atmosphäre chemische Reaktionen in Gang, die aus den vorhandenen einfachen Gasen wie Wasserstoff, Methan, Ammoniak, Wasser und Schwefelwasserstoff nach und nach komplexere Verbindungen entstehen ließen. Regen wusch sie dann in den noch flachen Ozean. In dieser Ursuppe bildeten die verschiedenen Moleküle kleine Kügelchen im Nanoformat, die entfernt einfachen Zellen ähnelten, die sich aber erst viel später entwickelten. Ihre Vorboten, so genannte Mikrosphären, besaßen die Fähigkeit, gelöste Stoffe aus ihrer Umgebung aufzunehmen und sich zu teilen – also eine Art „Fortpflanzung“ zu betreiben. Ausgehend von solchen Überlegungen entwarf der russische Biochemiker Alexandr Iwanowitsch Oparin 1924 eine Theorie zum Ursprung des Lebens. Demnach bildeten sich die chemischen Verbindungen, die für die Entstehung von Leben unabdingbare Voraussetzung sind, wie Aminosäuren, Zucker, Lipide und Stickstoffbasen, spontan in der Ursuppe. Dem Amerikaner Stanley L. Miller gelangen an der

27

University of Chicago 1953 bahnbrechende Experimente, die die Bedingungen der Uratmosphäre im Labor nachstellten und die Annahmen von Oparin eindrucksvoll bestätigten. Von den Mikrosphären bis zu den ersten echten Zellen war es dann wieder ein langer Weg, der rund eine halbe Million Jahre dauerte. Im Laufe der Evolution schuf die Natur damit ein biologisches System, das auch heute noch die kühnsten Fantasien von Nanofabriken übertreffen. Die Zelle ist in diesem Sinne das ultimative Vorbild für entsprechende Vorstellungen und Ziele des menschlichen Forscherdranges.

Der Evolution auf der Spur – Selbstorganisation und Replikation Die Zelle ist die kleinste lebens- und vermehrungsfähige Einheit und wird deshalb auch als Elementarorganismus bezeichnet. Sie erfüllt eine ganze Reihe von Lebenskriterien. Dazu zählt das Genom, in dem die gesamte genetische Information enthalten ist – eine Art Speicher für alle Baupläne der Produkte, die herzustellen sind. In sämtlichen heute vorhandenen Organismen übernimmt die Doppelstrang-DNS (Desoxyribonucleinsäure) diese Aufgabe. Sie sorgt für die Herstellung der zum Überleben benötigten Proteine, wobei die Verfahren der Transkription und Translation eingesetzt werden – wenn man so will, besonders effektive Fließbandprozesse. Die Zelle kann sich selbst kopieren, sie verarbeitet Moleküle (Rohstoffe) aus ihrer Umgebung, nutzt sie teilweise zur Energiegewinnung oder setzt sie in Bestandteile um, mit denen sie sich selbst vervielfältigt, repariert, bewegt oder schützt. Zur Ausführung all dieser Arbeiten verfolgt die Zelle zwei relativ simple, dafür aber umso erfolgreichere Strategien: zum einen die Polymerisation, die aus einfachen Bausteinen größere, wie eine Kette angelegte Moleküle macht. Zum anderen nutzt sie das Prinzip der Selbstorganisation, indem sie Moleküle aufbaut, die sich spontan selbst zu funktionellen, dreidimensionalen Gebilden umformen. So werden Aminosäuren wie Perlen auf eine Schnur aus Polypeptiden aufgefädelt, die sich dann von allein in eine effektive Maschine, das Protein, verwandeln. Der Bauplan, also alle notwendigen Informationen für die Ausrichtung im Raum, ist in der Abfolge der „Perlen“ versteckt. So werden alle wichtigen Moleküle, die DNS, die RNS und die Proteine hergestellt, letztere sind dann wieder die Produktionseinheiten für die anderen Moleküle in der Zelle. Auch sie haben die Fähigkeit, sich mit anderen Proteinen, Nucleinsäuren oder weiteren kleineren Molekülen zu verbinden und so größere Funktionseinheiten zu kreieren. „Für die Herstellung komplexer, räumlicher Gebilde ist diese Methode der linearen Synthese, gefolgt von verschiedenen Stufen der molekularen Selbstordnung, an Effizienz wohl nicht zu übertreffen“, konstatiert George M. Whitesides, Chemieprofessor an der HarvardUniversität in Cambridge (Massachusetts, USA).

28

Chemisch betrachtet ist die Zelle vor allem ein Ort höchster katalytischer Aktivität. Katalysatoren ermöglichen oder beschleunigen chemische Reaktionen, ohne dabei selbst verbraucht zu werden. Zudem ist der Elementarorganismus ein Tummelfeld für andere funktionale Bauteile, die als Sensoren, Pumpen oder Motoren agieren. Die wichtigsten Nanomaschinen in der „Fabrik Zelle“ sind aber die molekularen Katalysatoren, die unter anderem die Energieversorgung übernehmen, die Komponenten zur Selbstvermehrung erzeugen und die Informationsspeicherung für alle Aufgaben bewerkstelligen. Eine entscheidende Nanomaschine für unser Leben sind die Chloroplasten in Algen und Pflanzenzellen, die als „grüne Kraftwerke“ arbeiten. In ihnen läuft die Photosynthese ab, bei der Sonnenlicht in chemische Energie umgewandelt wird, mit deren Hilfe dann die Zellprozesse mit Power versorgt werden. Aber die Chloroplasten erzeugen bei der Umsetzung von Lichtquanten aus Wasser und Kohlendioxid auch den Sauerstoff, von dem unsere Atmung und damit unser Leben abhängt – obwohl der Sauerstoff eigentlich also ein Abfallprodukt ist. Tierische Zellen haben keine Chloroplasten, bei ihnen übernehmen die Mitochondrien die Kraftwerksfunktion. Als Brennstoff dienen meist Glucosemoleküle. Die Powerstationen in diesen Zellen kommen ohne Turbinen und Generatoren aus, sie bilden vielmehr „Energiemoleküle“ (Adenosintriphosphat, ATP), die sich mittels Diffusion durch die Zellen fortbewegen und so viele biologische Reaktionen ermöglichen.

Erfolgsstrategie Miniaturisierung – der Abstieg vom Mikro- in den Nanokosmos Die Zelle hat ganz klein angefangen und ist auch klein geblieben – trotz ihrer großen Leistung. Der Mensch hat dagegen den umgekehrten Weg eingeschlagen. Er kommt vom Großen ins Kleine. „Die Miniaturisierung gehört zu den wichtigsten Strategien – sie ist vielleicht sogar die herausragende Erfolgsstrategie der modernen Technik“, bestätigt Professor Dr.-Ing. Wolfgang Ehrfeld, der 1990 das Institut für Mikrotechnik Mainz (IMM) aus der Taufe hob und ganz wesentlich zur erfolgreichen Etablierung Deutschlands in der Weltspitze dieses wichtigen Arbeitsgebietes, sozusagen die Vorstufe zur Nanotechnologie, beigetragen hat. Die Gründe für den Vorstoß in immer kleinere Dimensionen sind so vielfältig wie einleuchtend: Die Miniaturisierung schont Ressourcen, spart Platz, Rohstoffe und Energie. Sie senkt die Stückkosten – denn je kleiner die Komponenten, Bauteile oder Systeme werden, umso größere Stückzahlen kann man im so genannten „batch processing“ herstellen. Sie führt zu dramatischen Leistungssteigerungen, denn nur bei miniaturisierten Gebilden macht es wirklich Sinn, Tausende, Millionen oder gar Milliarden von Einzelkomponenten zu einem System mit ganz neuer

29

Leistungsfähigkeit und Zuverlässigkeit zu integrieren. Das gilt für Speicherchips und Mikroprozessoren ebenso wie für die hochgeordneten Zellkonglomerate in der Natur, ganz gleich ob man nun höhere Lebewesen oder Pflanzen betrachtet. Typisch für Erfolgsstrategien sind an ihrem Anfang zumindest auch das Misstrauen oder die Phantasielosigkeit, mit der Bedenkenträger den Innovationen und Möglichkeiten einer technischen Entwicklung begegnen. Das galt, man kann es heute kaum glauben, auch für die Mikroelektronik vor 50 Jahren. Damals hätten uns „seriöse Experten“ unmissverständlich klar zu machen versucht, dass es nie einen Gigabit-Speicherchip geben könnte, weil man für seinen Betrieb ein Großkraftwerk zur Stromversorgung bräuchte und etwa fünf Millionen Arbeitskräfte für ein Jahr einsetzen müsste, um die benötigten Lötarbeiten für etwa 200 solcher Speicherelemente durchzuführen. Heute passt eine derartige Menge locker auf einen Wafer, der vollautomatisch hergestellt wird. Merke: Auch Experten können irren. Der Erfolg der Miniaturisierung in der Elektronik ist in der Tat faszinierend, das Innovationstempo in der Halbleiterindustrie bleibt unverändert hoch. Gemäß dem Mooreschen Gesetz erhöht sich die Leistung von Computerchips etwa alle 18 Monate, indem sich ihre Transistormenge verdoppelt – oder anders ausgedrückt – indem ihre Strukturen immer weiter verkleinert werden. Gordon Moore war einer der Gründer des amerikanischen Chip-Riesen Intel (Intel Corporation, Santa Clara, Kalifornien) und entdeckte 1968 die nach ihm benannte Gesetzmäßigkeit, die sich mit dem Preisverfall und Leistungsexplosion in der Mikroelektronik befasst. Auch wenn es Abweichungen von den 18 Monaten gegeben hat, in der Tendenz hat sich die Aussage von Moore als richtig erwiesen. Der damit beschriebene Kostenrückgang von Speicherchips – alle sechs Jahre verringert sich der Preis auf ein Zehntel seines Ausgangswerts – ist beispiellos in der Geschichte menschlicher Technik; hier liegt die Ursache für die immer stärkere Durchdringung unseres Lebens mit dem Computer. Die Strategie der permanenten Verkleinerung und ihre positiven Resultate sind aber nicht auf die Elektronik und Mutter Natur beschränkt, sie hat längst auch viele andere Bereiche erobert: die Optik ebenso wie die Mechanik, die Chemie ebenso wie die Analytik und die Medizin. Es ist unbedingt zu erwarten, dass die Nanotechnologie auf dem Weg „von oben nach unten“ (Top-down-Strategie) neue Meilensteine setzen wird. Alternativ entwickeln Wissenschaftler so genannte „Bottomup-Techniken“, die also auf dem Aufbau Atom für Atom oder auf ihrer Selbstorganisation beruhen. Um mit diesem Ansatz beliebig große Systeme herzustellen, die in ihrer Komplexität heutigen Mikroelektronik-Bausteinen entsprechen, wird aber wohl noch etliche Zeit vergehen.

30

Der Nanokosmos hat eigene Spielregeln Die Objekte im Nanometerbereich sind millionenfach kleiner als die uns vertrauten Gebrauchsgegenstände des täglichen Lebens. Selbst die derzeit kleinsten Mikromotoren sind noch tausendfach größer, auch die Wellenlänge des sichtbaren Lichts übersteigt noch deutlich den Größenbereich der Nanowelt, die einen bizarren Übergang vom Bereich einzelner Atome und Moleküle in den Makrokosmos darstellt. In dieser „Mesozone“ herrschen einerseits die Gesetze der Quantenmechanik, wo es nicht mehr kontinuierlich, sondern sprunghaft zugeht, andererseits bestimmt das kollektive Verhalten von Billionen von Molekülen in Festkörpern das Geschehen. Und Festkörper in diesem Sinne sind nicht nur Stahlträger und Hartkeramik-Schleifscheiben, sondern auch nasenfreundliche Papiertaschentücher vom Typ „Supersoft“ oder sogar Gummibärchen. Die Eigenschaften der Materie in dieser seltsamen Zwischenwelt werden also weder von der klassischen noch von der quantenmechanischen Physik allein bestimmt, sondern von einer Mischung aus beiden Elementen – und diese ist noch weitgehend unerforscht. Erst wenn wir die hier herrschenden Regeln deutlich besser kennen, werden wir in der Lage sein, zuverlässige und optimierte Nanogeräte zu bauen. Derzeit läuft diese notwendige Grundlagenforschung über die besonderen Gesetzmäßigkeiten der Mesozone sehr intensiv: Wissenschaftler „komponieren“ immer wieder neue, komplexe Systeme aus Atomen und Molekülen, um deren faszinierendes Verhalten zu untersuchen, das immer wieder neue Überraschungen bereit hält. Bei Bauteilen aus der Zwergenwelt spielen oftmals einzelne Atome und Moleküle bzw. kleinere Aggregate von ihnen eine entscheidende Rolle. Die Größe von Atomen liegt im Bereich zwischen 0,25 und 0,5 nm, die von Molekülen etwa bei einem bis einigen nm und die von Makromolekülen erreicht einige zehn nm. Nanotechnologie befasst sich im Allgemeinen mit der definierten Erzeugung von Strukturen derartiger Größenordnungen, die neue spezielle Eigenschaften aufweisen. Dabei ist der Nanokosmos durchaus vielschichtig, bei den Baueinheiten haben wir es mit Grenzflächen, Schichten und Strukturen zu tun. Bei Materialien handelt es sich um Substrate und Formkörper, miniaturisierte Festkörper und um funktionale Einheiten, die selbstorganisierend sind. Im Bereich der Werkzeuge lassen sich zum einen Herstellverfahren und zum anderen Charakterisierungsmethoden unterscheiden. So schön diese Ordnung auf den ersten Blick ist, die Dinge werden rasch wieder kompliziert: Ein Substrat z. B., also ein Trägermaterial, kann sowohl eine Schichtstruktur als auch eine Oberflächenstruktur oder eine Grenzfläche ausbilden – und all diese Phänomene sind dann immer noch „nano“. Ähnliche Zusammenhänge lassen sich für nahezu all diese Begriffe „durchdeklinieren“, was das Verständnis nicht unbedingt erleichtert. Wir lernen also: Nanostrukturen sind sowohl entsprechend geformte Oberflächen (z. B. Rillen, wie sie in der Haifischhaut vorliegen; kleine, regelmäßige Ergebungen

31

wie beim Lotus-Effekt, der selbstreinigende Oberflächen ermöglicht etc.), dünnste Schichtanordnungen, die manchmal nur aus wenigen Atomen pro Lage bestehen, als auch kleinste Partikel. Die Herstellungsverfahren umfassen einerseits Techniken zur Strukturerzeugung, andererseits auch zur Strukturvermeidung, wo besonders glatte Oberflächen gefragt sind. Die Materialeigenschaften an sich, so wie leitend oder isolierend, spröde oder duktil usw., sind durchaus aus dem Makrokosmos bekannt, aber häufig anders als gedacht. So werden Halbleiter zu Nichtleitern, Metalle, die aus unserem Physikunterricht als beste Leiter des elektrischen Stroms (Kupferkabel) in Erinnerung sind, ändern ihren Auftritt zu Halb- oder Nichtleitern, wenn sie nicht als größerer Festkörper, sondern in Form von Nanopartikeln daherkommen. Die Materialien und Systeme lassen sich mit Prozessen herstellen, durch die die physikalischen und chemischen Eigenschaften von Strukturen molekularer Größe kontrolliert werden können, die dann unter anderem ein definiertes thermisches, elektrisches oder magnetisches Verhalten zeigen. Das große Interesse von Forschung und Industrie an der Erzeugung derartiger Nanostrukturen resultiert aus der Idee, dass sie überlegene Merkmale zeigen könnten. „Mixt man z. B. atomare Pulver nach raffinierten Kochrezepten wieder zu größeren Einheiten zusammen, ohne dabei ihre nanospezifische Eigenheit zu verändern, so lassen sich völlig neue und unter normalen Bedingungen unmöglich herstellbare Legierungen und Werkstoffe mit phantastischen mechanischen, thermischen, magnetischen oder elektrischen Eigenschaften generieren und auch gezielt durch äußere Einwirkungen schalten“, erklärt Dr. Gerd Bachmann vom VDI Technologiezentrum in Düsseldorf, der zu den renommiertesten Kennern der weltweiten Nanoszene zählt. Von ihm stammt die wegweisende Studie „Innovationsschub aus dem Nanokosmos – Analyse & Bewertung zukünftiger Technologien“, die im Auftrag des Bundesministeriums für Bildung und Forschung (BMBF) erstellt und im Oktober 1998 veröffentlicht wurde. Ein Beispiel dafür, was möglich ist, bietet der „Riesen-Magnetowiderstand“. So entwickelte man Sensoren für Diskettenlaufwerke, die aus einer Abfolge von unmagnetischen Schichten – jede weniger als ein nm dick – und magnetischen Filmen bestehen. Diese Stapel sind um ein Vielfaches empfindlicher als frühere Bauteile, was den Entwicklern erlaubt, auf die Oberfläche von Disketten noch mehr Daten zu platzieren. Solche Schreib-LeseKöpfe wurden bereits 1997 eingeführt und waren ein Milliardengeschäft für die Hersteller von Plattenspeichern.

Effekte und ihre Grundlagen Bisher bewegte sich die Miniaturisierung von Bauelementen z. B. zur Herstellung immer leistungsfähigerer Chips im Mikrometerbereich, in dem Wirkung und Funktion kleinerer Systeme durchaus denen größerer Systeme entspricht. Hier waren einzelne Teilchen des Systems, also Atome, Ionen, Moleküle oder Elektronen, ohne

32

große Bedeutung. Setzt man aber diesen Weg immer weiter fort, kann man auf Dauer die Partikelgröße nicht mehr vernachlässigen. Auch die „Größe“ von Informations- oder Energieeinheiten, die zur Steuerung und Versorgung der winzigen künstlichen Objekte benötigt werden, führt zu großen Problemen, wenn man die klassische Sichtweise der Dinge als Maßstab anlegt. Deshalb werden nicht nur passende Nanowerkzeuge benötigt, sondern auch eine neue Philosophie für diesen Kleinstbereich. Wir stehen erst am Anfang, die kühne Vision von Richard Feynman in die Tat umzusetzen und komplexe Maschinen oder neuartige Schaltkreise Atom für Atom aufzubauen. Verringert man den Querschnitt eines Kupferkabels, sodass die Größe der Ladungsträger vergleichbar wird mit den Querschnittdimensionen des Drahtes, können in der Folge nur noch einzelne Ladungsträger durch den Leiter wandern. Dadurch hat man z. B. die Möglichkeit, nur aufgrund von Dimensionseffekten Metalle zu Isolatoren zu machen oder den Stromtransport nur in quantisierten Einheiten zuzulassen. Eng wird es auch mit dem Abstand von Leitungen für den Informationstransport, weil die Datenpakete eine gewisse Ausdehnung besitzen, so dass eine Überlagerung und Verfälschung der Information erfolgen könnte. Zur Abhilfe müsste man die Informationsleitungen energieabhängig trennen. Um Energie und Information geht es auch bei Nanomaschinen. Die sind so klein, dass es Probleme machen dürfte, sie mit den notwenigen Kontakten zu versehen. Zudem würden nach herkömmlichen Prinzipien gebaute Maschinchen derartig heiß, dass sie ganz einfach verdampfen würden. Ein Lösungsansatz könnte darin liegen, die benötigte Energie aus den Molekülschwingungen der Maschinenbestandteile selbst zu entnehmen. An diesen Beispielen lässt sich schon ersehen, welch ungeahnten Fragen und Schwierigkeiten sich ein Nanoforscher aussetzt. Professor Uri Merav, der am israelischen Weizmann-Institut in Rehovot (bei Tel Aviv) Submikrometer-Forschung betreibt und als begehrter Partner bei internationalen Kooperationen gilt, gehört zur wachsenden Zahl von Wissenschaftlern, die die Nanoelektronik vorbereiten. Sein Kommentar zu den ungewöhnlichen Regeln in der Nanowelt lautet: „Es zeigt sich, dass – wenn die Dinge wesentlich kleiner werden als jetzt – sehr merkwürdige Sachen passieren. Da gelten für die Elektronik einfach andere physikalische Gesetzmäßigkeiten und die sind den ElektronikIngenieuren von heute nicht bekannt. Diese Gesetze müssen also sehr sorgfältig studiert werden, wenn man auf dieser kleinen Skala die Elektronik beherrschen will.“ Selbst das grundsolide Ohmsche Gesetz verliert im Nanomaßstab seine Verlässlichkeit. In unserer alltäglichen Welt besagt es, dass sich der Stromfluss verdoppelt, wenn man auch die Spannung verdoppelt. Streng genommen, gilt die grundlegende Erkenntnis des deutschen Physikers Georg Simon Ohm (1789–1854) nur für die Massen von Elektronen und Atomen, die in einem elektrischen Leiter miteinander kollidieren, ist demnach also ein statistischer Effekt. Da ein einzelnes Elektron aber in Nanostrukturen über längere Strecken unbehelligt fliegen kann, gilt hier die Grundregel von Ohm nicht mehr. Die Nanowelt wird vielmehr von der

33

Quantentheorie bestimmt, die nicht nur entmutigend kompliziert ist, sondern auch sehr merkwürdige Effekte zulässt. So kann ein Atom an mehreren Orten zugleich sein, was in der Tat äußerst schwer zu verstehen ist. „Ich denke, die Grundregeln der Quantenmechanik sind solide, da wird man keine Widersprüche sehen. Rein quantentheoretisch läuft aber nichts, man muss wirklich etwas Praktisches realisieren. Nur wenn wir unendlich smart wären, müsste man keine Experimente machen. Wir hätten eine Theorie und aus der würde alles folgen, aber so ist das nicht“, versucht Uri Merav Trost zu spenden. Es ist ungemein spannend nachzulesen 1, was unser Freund Feynman schon vor 40 Jahren über die seltsame Spielwiese der Physik wusste: „Begäben wir uns in eine sehr, sehr kleine Welt – beispielsweise Stromkreise aus sieben Atomen –, träte eine Menge andersartiger Phänomene auf, die völlig neue Möglichkeiten eröffneten, etwas zu konstruieren. In kleinem Maßstab verhalten Atome sich wie nichts in einem großen Maßstab, da sie den Gesetzen der Quantenmechanik gehorchen. Wenn wir also die Größe reduzieren und mit den Atomen herumspielen, haben wir es mit anderen Gesetzmäßigkeiten zu tun und können damit rechnen, völlig andere Dinge zuwege zu bringen. Wir können uns anderer Herstellungsverfahren bedienen. Wir können nicht nur mit Kreisläufen arbeiten, sondern beispielsweise auch mit einem System, das die quantisierten Energieniveaus oder die Wechselwirkungen gequantelter Spins usw. einbezieht.“ Das ist zwar für den Quanten-Laien auch nicht besonders erhellend, aber wir erkennen, dass Feynman mit typisch amerikanischem Enthusiasmus vor allem die Chancen der „neuen Welt“ und der daraus abgeleiteten Technologie gesehen hat.

Der interdisziplinäre Ansatz Die wissenschaftlichen Grundlagen der Nanotechnologien speisen sich aus sehr verschiedenen Quellen. Wichtige Beiträge leisten ohne Frage Physik, Chemie und Biologie, wobei die disziplinären Unterschiede immer weiter verschwimmen. In der Physik hat es in den letzten Jahrzehnten einen ständigen Wettlauf zur Erzeugung immer kleinerer Schaltkreise und leistungsfähigerer Datenspeicher gegeben, der sich zunehmend näher an die Nanowelt herantastet. Erkenntnisse aus der Komplexund der funktionalen supramolekularen Chemie haben zum Aufbau von kleinsten Bausteinen mit neuen Funktionen in den Anwendungsfeldern Katalyse, Membrantechnik, Sensorik und Schichttechnologien geführt. Die Biologie in der Natur ist ohnehin von andauernden atomaren und molekularen Prozessen bestimmt; sie 1

Richard P. Feynman, „The Pleasure of Finding Things Out“, Helix Books/Perseus Books, Cambridge, Massachusetts, 1999 (Deutsche Übersetzung im Piper Verlag, München: „Es ist so einfach“ – Vom Vergnügen, Dinge zu entdecken, 2001).

34

noch besser zu verstehen, ist einer der bedeutendsten Schlüssel zum Zwergenreich. Bei der praktischen Umsetzung der vielfältigen naturwissenschaftlichen Erkenntnisse sind auch die Ingenieurwissenschaften unter anderem der Elektrotechnik und des Maschinenbaus von großer Bedeutung. Auf der Anwendungsseite sind wiederum zahlreiche Gebiete involviert: Sie reichen von der Analytik der Strukturen und Teilchen über den Aufbau neuer Werkstoffe, die neuartige, zum Teil in der Natur nicht vorhandene Eigenschaften aufweisen, bis hin zur Optik, die unter anderem die ultrapräzise Bearbeitung von Linsen verfolgt und mit nanowelligem Licht ungewöhnliche Effekte hervorruft. Die Optik schlägt zudem bei optischen Halbleitern die Brücke zur Elektronik, die wiederum auf die Nanotechnologie zur Herstellung von Bauelementen zurückgreift, die nicht nur schneller und kleiner sind, sondern auch weniger störanfällig beim Transport elektronischer Impulse. Große Potenziale hat der Nanobereich in Medizin und Pharmazie, wo die Entwicklung neuer Wirkstoffe, Oberflächen für Implantate oder künstlicher Organe ansteht. Auch hier ist die Analytik unverzichtbar, um den Einfluss kleinster Partikel hinsichtlich ihrer Bioverträglichkeit bzw. möglicher gesundheitsrelevanter Wirkungen zu untersuchen. Zudem leistet sie Beiträge zur Entwicklung neuer Geräte wie die Rastersondenmikroskope, die die Voraussetzung für viele Methoden und Arbeitsmöglichkeiten in der Nanotechnologie schaffen. Nanotechnologie hat aber nicht nur eine breite Basis in den klassischen Naturwissenschaften, sondern auch eine ganze Reihe von Berührungspunkten mit aufstrebenden Arbeitsgebieten wie der Biotechnologie oder – noch genereller ausgedrückt – mit den so genannten Life Sciences. Ein wichtiger Weg bei der Forschung und Entwicklung von Nanosystemen ist der Versuch, die in der belebten Natur ablaufenden Vorgänge zu verstehen und die gewonnenen Erkenntnisse für technische Fragestellungen bzw. ihre Antworten zu nutzen. Wir kennen diese Vorgehensweise aus der Bionik, die im Mikro- und Nanobereich z. B. zur Entwicklung von strukturierten Folien nach dem Vorbild der Haifischhaut oder von selbstreinigenden Flächen geführt hat, die den Lotus-Effekt nutzen. Welch große Bedeutung die Nanofabrik Zelle, der Informationsträger DNA oder die Energiegewinnung über die Photosynthese haben, wurde bereits geschildert. Unter dem Strich vereint Nanotechnologie die Möglichkeiten physikalischer Gesetze, chemischer Stoffeigenschaften und biologischer Prinzipien. Aus diesem Spannungsfeld und der Anwendungspalette, die sich über sämtliche uns heute bekannten technischen Gebiete erstreckt, ergibt sich quasi der Zwang zur Zusammenarbeit über den eigenen Tellerrand hinweg.

35

Kapitel 2

Kleinste Teilchen – größte wirtschaftliche Bedeutung Alte Märkte mit neuen Lösungen „Nanotechnologie entwickelt sich rasch zur industriellen Revolution des 21. Jahrhunderts. Die Wichtigkeit dieser Technologie kann gar nicht hoch genug eingeschätzt werden. Sie wird nahezu alle Bereiche unseres Lebens berühren – von der Medizin, die wir nutzen, über die Leistungsfähigkeit unserer Computer und die Energieversorgung, die wir benötigen, über die Nahrung, die wir essen, und die Autos, die wir fahren, bis hin zu den Gebäuden, in denen wir leben, und der Kleidung, die wir tragen.“ So beschreibt die Nano Business Alliance (NBA), New York die Bedeutung der Nanotechnologie, nicht ohne darauf hinzuweisen, dass die amerikanische Regierung nach konservativen Schätzungen von einem globalen Markt für Nanotechnologie in Höhe von über 1.000 Milliarden Dollar innerhalb nur einer Dekade ausgeht. NBA ist die erste Handelsvereinigung der Nanotechnologie-Industrie und wird von Newt Gingrich, dem ehemaligen Sprecher des amerikanischen Kongresses, und Steve Jurvetson, einem Spezialisten für Venture-Kapital, geführt. Derzeit sind über 250 Unternehmen in der NBA organisiert. „Auf lange Sicht“, so das Resümee der NBA, „wird der Einfluss der Nanotechnologie so bedeutsam sein wie die Erfindung der Dampfturbine, die Nutzbarmachung der Elektrizität und die Entwicklung des Transistors.“ Die optimistischen Prognosen der Amerikaner haben inzwischen auch in Europa ihre Bestätigung gefunden: Ende Mai 2003 fand in Berlin eine Top-Konferenz mit Experten aus Wissenschaft und Wirtschaft unter der Bezeichnung NAMIX (1st Nano-Micro-Interface Conference) statt. Eingeladen hatte unter anderem die Deutsche Bank, die eine aktuelle Studie präsentierte. Die Schätzungen für 2003 gehen von einem durch nanotechnologische Erkenntnisse beeinflussten Weltmarktvolumen von 100 Milliarden Euro aus, was etwa 500.000 Arbeitplätzen entspricht. Für 2015 soll dieser Wert auf 1.000 Milliarden Euro steigen, was sich dann mit den amerikanischen Annahmen deckt. Nach einem Bericht der VDI Nachrichten von Ende 2004 dürfte das weltweite Marktvolumen in Sachen Nanotechnologie inzwischen bei über 500 Milliarden Euro liegen (Stand 2005) und 2015 sogar auf etwa 2.000 Milliarden Euro ansteigen. Die Teilbereiche der Nanotechnologie sind in der Tat äußerst vielfältig – sie reichen von der Analytik und neuen Werkstoffen über Elektronik, Optik und Automobil-

37

technik bis zu Pharmazie und Medizin. Diese Aufzählung ist keinesfalls vollständig: Dank der durchgängigen Querschnittsfunktion wird Nanotechnolgie letztlich in jedem technischen Arbeitsgebiet Anwendung finden. Schon heute befassen sich weltweit unzählige Forschungseinrichtungen mit entsprechenden Fragestellungen. Auch wenn die Nanotechnologie insgesamt noch sehr jung ist, hat sie den Sprung von der Grundlagenforschung in die industrienahe Forschung bzw. sogar in Entwicklung und Anwendung bereits geschafft. So verfolgen viele Konzerne Nanothemen in ihren F&E-Abteilungen, aber auch in marktreifen Produkten. Im Bereich der kleinen und mittelständischen Unternehmen (KMU) haben sich zudem eine Reihe von Start-ups etabliert, die sich ausschließlich mit Nanotechnologie beschäftigen. VDI-Experte Bachmann geht davon aus, dass in Deutschland inzwischen rund über 450 Firmen in diesem Bereich aktiv sind. Damit und mit zahllosen TopProdukten gehört die Bundesrepublik zu den weltweiten Marktführern. Die steigende Bedeutung der Nanotechnologie lässt sich an zwei Indikatoren festmachen: an der Anzahl der Patente in diesem Bereich und an dem zur Verfügung stehenden Kapital. Die Zahl der Nanopatente steigt dem Derwent World Patent Index zufolge weltweit rasch an, von 776 im Jahr 1996 auf nahezu 2.000 im Jahr 2001. Gemäß der Innovations-. und Technikanalyse „Nanotechnologie als wirtschaftlicher Wachstumsmarkt“ des VDI-TZ (November 2004) haben sich die Patentanmeldungen in der Nanotechnologie seit 2000 etwa alle zwei Jahre verdoppelt. Die hier führenden 15 Länder kamen zusammen zuletzt auf rund 13.000 Patente. Dabei hatten die USA mit 4.500 die Nase vorn vor Japan (3.440) und Deutschland (1.300). Auch die Kapitalmengen, die in Start-ups investiert wurden, sind rapide gewachsen: von 100 Millionen US-Dollar 1999 über 500 Millionen in 2000 auf 800 Millionen für das Jahr 2001. Bedingt durch die Börsensituation seit dem 11. September 2001 hat sich dieser Trend allerdings inzwischen deutlich abgeflacht. Der Zugang für junge Nanotech-Unternehmen ist heute sicher schwerer als noch zu Beginn des Jahrhunderts. So wird kaum noch in Firmen investiert, die sich in einer frühen Marktphase befinden. Eine Frage, die immer wieder gestellt wird, lautet: Wie viel Hype ist tatsächlich in der Nanotechnologie? Oder – anders gesagt – in welchem Ausmaß lässt sich die allemal spannende und faszinierende Grundlagenforschung in industriell verwertbare Technologien umsetzen, die am Ende zu verkaufbaren, innovativen Produkten führen? Dazu liegt eine interessante Umfrage unter 100 Wissenschaftlern, Kapitalgebern und Industrieführern vor. So sagt Richard Whiting von DynaFund Ventures (Torrance, Kalifornien): „Für uns ist die Nanotechnologie kein Gebiet zukünftiger Investitionen, weil es einfach zu forschungslastig ist. Es fehlen die kommerziellen Anwendungen, in denen die Nanotechnologie den kompetitiven Unterschied schafft.“ Eine andere, eher sarkastische Stellungnahme besagt, dass die größte Herausforderung für die Nanotechnologie die Identifizierung konkreter Einsatzgebiete sein dürfte. Wieder andere sehen die Gefahr, dass die Nanotechnologie zu viel verspricht und der Unterschied zwischen

38

diesen vollmundigen Zusicherungen und mangelnden technologischen Erfolgen das Feld finanziell zum Erliegen bringen könnte.

Mit Nanopartikeln und -composites wird schon Geld verdient Doch die Optimisten sind deutlich in der Überzahl: „Die Nanotechnologie wird in den nächsten Jahren mehr bewegen als Biotechnologie und Internet im vergangenen Jahrzehnt zusammen“, betont z. B. Berndt Samsinger von der Capital Stage AG, einem Hamburger Investmenthaus, das sich auf Nanotechnik spezialisiert hat. So steht fest, dass mit Nanomaterialien, insbesondere mit Nanopartikeln und Nanocomposites, bereits viel Geld verdient wird. So schätzt BCC das Marktvolumen für oxidische und metallische Nanopartikel im Jahr 2005 auf 900 Millionen Dollar. Nach einer Übersicht des VDI-TZ erreicht der Wert aller Nanomaterialien 2006 rund 40 Milliarden Dollar. In den kommenden fünf Jahren werden vor allem Farbmittel, Pigmente, Coatings und Waschmittel auf Nanobasis verkauft werden. Auch die Investitionen der Mitsubishi Chemicals sind ein exzellentes Beispiel dafür, welche Chancen in der Nanotechnologie liegen. So sehen die Japaner große Möglichkeiten für die Anwendung von Fulleren und Kohlenstoffnanoröhren (siehe Kapitel 3, Seite 57), für letztere vor allem in molekularen Schaltkreisen, die für die japanische Halbleiter- und Elektronikindustrie von besonderem Interesse sind. Die Mitsubishi Corporation und Mitsubishi Chemicals haben deshalb Ende 2001 die Spin-off-Firma Frontier Carbon Corp. (FCC, Tokio) gegründet und eine Pilotfabrik zur Fullerenherstellung aufgebaut, die auf dem Benzolverbrennungsverfahren des Massachusetts Institute of Technology (MIT, Cambridge, USA) beruht. Die Fullerenproduktion sollte von 40 Tonnen im Jahr 2002 auf 300 Tonnen 2005 ansteigen. Eine größere Anlage wird dann ab 2007 jährlich 1.500 Tonnen dieses Materials herstellen. Das Mitsubishi Research Institut sagt für 2020 einen Markt von 3,6 Milliarden US-Dollar hierfür voraus. Diese Summe dürfte allerdings nur zu erreichen sein, wenn sich Nanoröhren wirklich als Lösung der Wahl für zukünftige molekulare Schaltkreise und Computer herausstellen. Andererseits betont Professor Dr. François Diederich, Vorsteher des Departments Chemie an der Eidgenössischen Technischen Hochschule Zürich: „Es besteht für mich kein Zweifel, dass die durch die großtechnische Gewinnung demnächst stark verbilligten Fullerene für Anwendungen interessant werden, die bisher aus Kostengründen nicht in Frage kamen.“ Inzwischen hat auch die Politik das enorme Innovationspotenzial erkannt und unterstützt Forschung und Industrie mit Millionenbeträgen (siehe Kapitel 3, Seite 52ff.). „Der Markt für Nanotechnologie und Nanomaterialien wächst rasant“, bekräftigt

39

Dr. Alfred Oberholz, für Forschung zuständiges Vorstandsmitglied der Degussa AG (Düsseldorf), die große Aktivitäten in der „nanoworld“ unternimmt (siehe Kapitel 3, Seite 78). „Es gibt einen harten Wettkampf zwischen den USA, Japan und Europa. Alle unternehmen enorme Anstrengungen, um in der Nanotechnologie nicht den Anschluss zu verlieren. Für die kommenden Jahre weisen die Wachstumsprognosen Zuwächse zwischen 15 und 20 Prozent aus. In einigen Bereichen rechnen die Experten sogar mit einem Plus von 30 Prozent“, setzt Oberholz hinzu. Viele Produkte auf Nanobasis sind bereits Realität, auch wenn allgemein Konsens dahingehend besteht, dass die Nanotechnologien erst am Beginn ihrer Entwicklung stehen. Das führt zu dem Phänomen, dass auf der einen Seite noch die physikalischen Grundlagen erforscht werden, auf der anderen Seite bereits erste Produktgruppen die Weltmärkte betreten. Nach Aussage von Gerd Bachmann spricht diese Konstellation für das hohe Innovationstempo in diesem Gebiet. Unter dem Begriff Nanotechnologie werden letztlich völlig unterschiedliche Einzeltechnologien zusammengefasst, die wiederum in sehr differenzierten Feldern Anwendung finden. Häufig erfolgt der Einsatz der Nanotechnologie allerdings nicht als klar umrissene Komponente, sondern als integrierter Bestandteil innerhalb eines Bauelements oder eines Prozesses. Deshalb ist es schwierig, den Part der Nanotechnologie exakt abzugrenzen oder zu beschreiben, zumal sich manche Einsatzmöglichkeit erst in Kombination mit der weiteren Entwicklung anderer Bereiche, wie z. B. der Biotechnologie, realisieren lässt. Die Marktpotenziale sind deshalb heute nur bedingt bekannt und lassen sich nicht immer einfach quantifizieren. Diese Querschnittswirkung der Nanotechnologie lässt sich auch klar aus den Umfrageresultaten der amerikanischen Industrievereinigung Nano Business Alliance herauslesen: Von 150 teilnehmenden Start-up-Unternehmen und Spin-offs in diesem Bereich wurde eine Vielzahl unterschiedlichster Betätigungsfelder genannt, die nahezu alle Lebensbereiche abdecken. Einen großen Anteil von fast einem Drittel (31 Prozent) nehmen Nanomaterialien und Produktionstechniken ein, gefolgt von Medizin und Pharmazie (21 Prozent), Forschung (14 Prozent) und Elektronik (elf Prozent). Kleinere Anteile von sieben Prozent haben Verbraucherprodukte sowie Telekommunikation, Analytik, Informationstechnologie und Energiespeicherung (jeweils vier Prozent).

Die Banken haben das Thema Nano entdeckt Welchen Aufschwung die Zwergentechnik nimmt, lässt sich auch mit zwei anderen Fakten belegen: Nahezu alle Unternehmen, die auf der Fortune-Liste der wichtigsten 500 US-Firmen stehen, haben bereits eigene Forschungs- und Entwicklungsaktivitäten in diesem Gebiet gestartet. Zudem hat sich die Zahl der Start-ups in den Vereinigten Staaten allein 2002 auf über 1.200 Unternehmen verdoppelt. Es wird

40

erwartet, dass dieser Trend anhält und der Wert auch 2003 in derselben Größenordnung zulegen wird. Die WGZ-Bank (Düsseldorf) hat im April 2002 unter dem Titel „Mikro- und Nanotechnologie – Branchenreport aus Sicht des Kapitalmarktes“ eine Studie vorgelegt, an der auch die Unternehmensberatung Ernst & Young (Düsseldorf), IVAM NRW e. V. (Interessengemeinschaft zur Verbreitung von Anwendungen der Mikrostrukturtechniken, Dortmund), Micro Venture (Köln) und die WGZ Venture-Capital Gesellschaft (Münster) beteiligt waren. Zum Thema Marktvolumen und -potenzial halten sich ausgerechnet die Banker aber weitgehend zurück: „Das Datenmaterial zur wirtschaftlichen Bedeutung der Mikro- und Nanotechnologie ist noch sehr lückenhaft. Die derzeitigen offiziellen Wirtschaftsstatistiken erfassen mikro- und nanotechnologische Produkte nicht als gesonderte Kategorien, und es werden keine Aussagen darüber getroffen, wir groß der Anteil der Mikro- und Nanotechnologie an diesen Produkten und Produktgruppen tatsächlich ist bzw. welcher Mehrwert für Produkte durch Veredelung mit mikro- und nanotechnisch hergestellten Produkten generiert wird. Dies liegt unseres Erachtens zum einen an der Tatsache, dass die Mikro- und Nanotechnologie als Querschnittstechnologien in den unterschiedlichen Märkten zur Anwendung kommen oder kommen werden. Zum anderen ist aufgrund der noch sehr frühen Forschungs- und Entwicklungsphase besonders in der Nanotechnologie noch gar nicht abzuschätzen, welche Möglichkeiten sich jenseits der bisher absehbaren oder bereits im Markt befindlichen Anwendungen in der Zukunft erschließen werden. Aus diesen Gründen verzichten wir in diesem Report bewusst auf die Schätzung von Marktvolumina und -potenzialen, immer mit dem Wissen im Hintergrund, dass sowohl die Mikrosystemtechnik als auch die Nanotechnologie das Potenzial besitzen, unser Leben im neuen Jahrtausend so zu beeinflussen, wie es die Mikroelektronik in den letzten 40 Jahren getan hat.“ Auch wenn die WGZ-Banker sich um klare Prognosen herumgemogelt haben, zwei Dinge bleiben festzuhalten: Die Banken haben das Thema Nano entdeckt, was schon allein für die wirtschaftliche Relevanz spricht, und sie erwarten eine Bedeutung von ihm in der Größenordnung der Mikroelektronik, deren weltweiter Umsatz derzeit bei 1.400 Milliarden Dollar liegt (Quelle Dataquest, Gartner, Inc. Stanford, Connecticut, USA), wobei allein der Bereich der Halbleiterchips auf 270 Milliarden Dollar kommt. Für 2008 erwartet der Branchenverband SIA (Semiconductor Industry Association, San Jose) sogar einen Weltumsatz von über 200 Milliarden Dollar. Wenn das keine Aussichten sind. Präzisere Einschätzungen nehmen die DG-Bank (Frankfurt a.M.) und die NBA vor: In 2001 betrug demnach das Volumen für Nanoprodukte bereits über 50 Milliarden Euro. Ausgehend von jährlichen Steigerungsdaten von 15 bis 17 Prozent erwartet die DG-Bank für 2010 einen Markt von 220 Milliarden Euro, die NBA ist deutlich optimistischer und prognostiziert diese Summe schon für 2005. Eine Dekade später,

41

so die NBA, wird der Umfang der von Nanotechnologie beeinflussten Produkte und Dienstleistungen sogar schon bei 1.100 Milliarden Euro pro Jahr liegen. Die deutlichen Unterschiede der beiden Schätzungen kommen vor allem durch die abweichende Abgrenzung darüber zustande, was der Nanotechnologie überhaupt zuzurechnen ist. Die DG-Bank bezieht im wesentlichen Materialien und Systeme in ihre Überlegungen mit ein, die NBA dagegen die von Nanotechnologie beeinflussten Produkte als Ganzes. Wie groß der Wertschöpfungsanteil der Nanotechnologie daran ist, bleibt aber in der Tat schwierig abzuschätzen, lediglich für originäre „Nanos, also Partikel z. B., kann relativ zuverlässig ein Marktvolumen prognostiziert werden. Die „Seher“ der Branche stehen aber auch vor dem Problem, dass Nanotechnologie in den jeweiligen Anwendungsfeldern einen sehr unterschiedlichen Reifegrad aufweist. So sind z. B. Geräte zur Analyse von Nanostrukturen bereits weit entwickelt – und machen den Fortschritt in anderen Bereichen überhaupt erst möglich –, während der Einsatz der Zwerge in Medizin und Pharmazie, Biotechnologie und Maschinenbau vielfach noch in den Kinderschuhen steckt. Wie verteilen sich die aktuellen Umsätze in der Nanotechnologie von rund 100 Milliarden Euro? Den größten Brocken mit 44 Prozent, so die DG-Bank, stellen ultradünne Schichten, gefolgt von Oberflächenbearbeitungsverfahren mit 24 Prozent sowie Nanopartikeln und -composites mit 23 Prozent. Kleinere Anteile besitzen Systeme zur Analyse von Nanostrukturen (sechs Prozent) und laterale Strukturen (drei Prozent), wie sie z. B. durch Lithographieverfahren bei der Chipherstellung erzeugt werden. Bis 2010 soll sich das Weltmarktvolumen auf 220 Milliarden Euro mehr als verdoppelt haben, wofür im Wesentlichen neue Nanoprodukte verantwortlich sein werden, für die die DG-Bank Steigerungsraten zwischen 20 bis 30 Prozent erwartet. Dabei verschieben sich die Schwerpunkte vor allem in Richtung Partikel und Composites, für die sich neben den Schichtsystemen besonders die chemische Industrie interessiert. Bemerkenswert daran ist, dass 2001 von den 13 Milliarden Euro, die auf Nanopartikel und -composites entfielen, rund 95 Prozent noch mit etablierten Produkten wie Pigmenten und Dispersionen verdient wurden. Inzwischen verschiebt sich das Verhältnis immer mehr in Richtung auf neue Entwicklungen. Der Einfluss nanotechnologischer Erkenntnisse auf verkaufbare Waren besteht schon seit Jahren in den Bereichen Elektronik, Datenspeicherung, funktionelle Schichten und Präzisionsoptiken. Die Firma Gewiplan (Gesellschaft für Wirtschaftsförderung und Marktplanung mbH, heute GEWIPLAN Projektmanagement GmbH, Berlin) hat bereits 1991, das perspektivische Marktpotenzial der Nanotechnologie für das Jahr 2000 anhand von Expertenbefragungen ermittelt. Rechnet man die Produktbereiche Speicherbausteine, Halbleitersubstrate, Analysegeräte, Optiken, Sensoren und Materialien summarisch zusammen, die sich weitgehend mit den angegebenen „verkaufbaren Produkten“ decken, weist die Marktanalyse knapp 40 Milliarden Euro aus, wobei die „größten Brocken“ auf Elektronik und Informationstechnik entfallen. Kein Zweifel, dass dieser Lauf der Dinge ohne Ein-

42

schränkungen weiter anhält, die Elektronik ist in absehbarer Zeit auf dem Weg von der Mikro- in die Nanowelt. So entwickelt sich die Mikroelektronik seit Jahrzehnten zu immer kleineren Strukturen und höher integrierten Schaltungen, wobei für die Lithographie der Halbleiterbauelemente immer kurzwelligeres Licht verwendet wird. Mit Hilfe lithographischer Verfahren wird das Chipdesign auf die Siliziumwafer übertragen. Anfang der 90er-Jahre legten die führenden Halbleiterhersteller einen Entwicklungszeitplan fest, die so genannte roadmap (International Technology Roadmap for Semiconductors, ITRS), nach deren Vorgabe alle drei Jahre eine Strukturverkleinerung von 30 Prozent stattfinden sollte. Alle benötigten Komponenten wie z. B. die Stepper, die den lithographischen Prozess bewältigen, sollten darauf abgestimmt werden. Angetrieben vom weltweiten Wettbewerb, überholte sich die Branche selbst: Im Durchschnitt der vergangenen acht Jahre erfolgte die angestrebte Verkleinerung bereits alle zwei Jahre oder – anders gesagt – in diesem Zeitraum wechseln die Chipgenerationen. Auch wenn die weltweite wirtschaftliche Talfahrt 2001 selbst die verwöhnten Chip- und PC-Produzenten getroffen hat – was den Zeitplan der roadmap sicher gestreckt hat – wird bereits intensiv an den nächsten Chipgenerationen gearbeitet. So wird derzeit der Schritt zur 157-nm-Lithographie von allen wichtigen Komponenten-Herstellern vorbereitet, die mit Fluorlasern erfolgen wird. Technologie aus Deutschland spielt hierbei eine bedeutende Rolle (siehe Kapitel 7, Seite 172). Der nachfolgende Step, die so genannte „Next Generation Lithography“, führt zur Belichtung mit extremen UV-Licht (EUV) von elf bis 13 nm Wellenlänge. Sie wird zu Strukturabständen auf den Chips unter 35 nm führen – spätestens dann dürfte es heißen: Willkommen in der Nanowelt. Die Lithooptik entwickelt eine enorme wirtschaftliche Hebelwirkung. Dataquest schätzt, dass 2004 für optische Systeme rund 1,73 Milliarden Dollar aufgebracht werden, die bei Wafer-Steppern und -Scannern einen Ausrüstungswert von 6,18 Milliarden Dollar mit sich bringen. Das damit hergestellte Halbleiter-Equipment hat bereits einen Wert von 65,1 Milliarden Dollar, der sich im Bereich der Integrierten Schaltkreise auf 294,4 Milliarden Dollar erhöht. Am Ende der umgekehrten Pyramide stehen elektronische Geräte von 1.433 Milliarden Dollar. Im Vergleich zu 1998 (935 Milliarden Dollar) wäre das ein Zuwachs von über 50 Prozent, eine jährliche Quote von über 8,3 Prozent. Dieses Beispiel zeigt nicht nur beeindruckende Zahlen, sondern macht auch deutlich, welche wirtschaftliche Bedeutung Schlüsseltechnologien entwickeln – nach allen Expertenprognosen wird die Nanotechnologie die Mikroelektronik, die in absehbarer Zeit ja eine Nanoelektronik sein wird, weit in den Schatten stellen. Bereits vorhandene Märkte, in denen Nanotechnologie zumindest schon eine Rolle spielt, existieren in den Bereichen Optoelektronik, Displays und Speichertechnologien. Nach Analysen von Siemens (München), Dataquest (Stanford, Connecticut,

43

USA) und ElectroniCast (San Mateo, Kalifornien) betrug der Weltmarkt für optoelektronische Systeme 1999 rund 1,5 Milliarden Euro und wuchs bis 2002 auf gut 2,5 Milliarden Euro. Darunter fallen optische Festplattenspeicher, Optokoppler, Laserkomponenten und optische Datenüberträger. Nicht eingeschlossen sind hierbei Diodenlaser, für die Laser Fokus World ein Volumen von 4,3 Milliarden Dollar für das Jahr 2000 angibt. Einsatzfelder dieser vielseitigen Werkzeuge sind Materialbearbeitung, die medizinische Diagnostik und Therapie, Datenspeicherung in Form von CD und DVD, Telekommunikation, Qualitätskontrolle und Unterhaltungselektronik. In einer Zehnjahresprognose hat BPA Technology and Management (Dorking, GB) dem gesamten optoelektronischen Weltmarkt im Jahre 2006 ein gigantisches Volumen von 1.000 bis 5.000 Milliarden Dollar vorhergesagt. Die Bedeutung der Nanotechnologie wird in diesem Zeitraum auch für die Optoelektronik deutlich ansteigen. Diodenlaser, deren Funktion auf den elektronischen Eigenschaften von nur fünf bis 15 nm dicken „Quantenfilmen“ (siehe Kapitel 6) beruhen, wurden 1996 weltweit bereits für 1,6 Milliarden Dollar gehandelt. Die meisten Marktforscher erwarten Wachstumsraten von 15 Prozent pro Jahr. Für ihre Weiterentwicklung ist vor allem die Verringerung der Defekte bei der Schicht- oder Strukturherstellung bedeutend. Siemens veranschlagte den Weltmarkt für Optohalbleiter im Jahre 2000 mit 6,2 Milliarden Dollar. Das Produktspektrum umfasst dabei Photo- und Laserdioden, Optokoppler (Bauelemente zur Übertragung von elektrischen Signalen), Detektoren (Nachweisgeräte), Leuchtdioden und Anzeigeelemente. Das VDI-TZ schätzt das Volumen der Nanooptik für 2006 auf 8,5 Milliarden Dollar – ein Mittelwert zwischen den extremen Prognosen, die von 3,5 bis 16 Milliarden Dollar reichen. High Electron Mobility Transistors (HEMTs) und Vertical Cavity Surface Emitting Lasers (VCSELs) werden bereits erfolgreich am Markt verkauft. HEMTs sind wichtige Bauteile für Hochfrequenzsender und -empfänger und hatten 1997 ein Marktpotenzial von 140 Millionen Dollar. Die Studie der amerikanischen National Nanotechnology Initiative hat für das Jahr 2002 eine Steigerung auf 800 Millionen Dollar vorhergesagt, was einem Wachstum von fast 100 Prozent pro Jahr entspricht. VCSELs werden in optischen Sensoren, in der immer wichtiger werdenden Datenübertragung per Glasfaser und als reine Lichtquellen eingesetzt. 1999 betrug das Marktvolumen für diese Hightech-Bauteile „nur“ etwa 100 Millionen Dollar, die Experten der NNI-Studie gehen davon aus, dass dieses 2004 auf über eine Milliarde Dollar angewachsen ist.

Flache Displays vor weiterem Boom Das schmerzvolle Jahr 2001 hat die erfolgsgewöhnte Branche inzwischen weggesteckt, als erstmals die Umsätze und Erlöse bei flachen Bildschirmen einbrachen.

44

Fünf Jahre später zur Fußballweltmeisterschaft in Deutschland erwartet sie neue Rekordwerte auf Spitzenniveau – Monitore und vor allem Fernseher der schmalen Bauart boomen bereits wieder seit einem halben Jahrzehnt. „Auf dem Markt vollzieht sich ein Generationswechsel bei den Geräten. Erstmals wurden 2005 mehr LC- und Plasmabildschirme verkauft als herkömmliche TV-Röhrengeräte“, bestätigt Rainer Hecker, Aufsichtsratsvorsitzender der Gesellschaft für Unterhaltungsund Kommunikationselektronik (gfu, Frankfurt a. M.). Vor diesem Hintergrund erwartet Ross Young, Präsident von DisplaySearch in Austin (Texas), für 2006 weltweite Umsätze von rund 62 Milliarden Dollar, die bis 2008 sogar auf 70 Milliarden steigen sollen. Die verkauften Einheiten Notebooks, Monitore und Fernseher dürften 2006 die Marke von 230 Millionen erreichen – wobei die Liquid Crystal Displays mit nahezu 80 Prozent Marktanteil gegenüber anderen Technologien (Plasma, OLED) deutlich vorn liegen. Sowohl bei Monitoren wie bei TV-Geräten geht der Trend eindeutig zu größeren Abmessungen und besserer Auflösung. Dazu wird sicherlich beitragen, dass die öffentlich-rechtlichen Sender bei der WM 2006 den ersten Schritt zur Breitbildübertragung im HDTV-Format machen wollen. Bei all diesen flachen Bildschirmen jedweder Größenordnung – von der „Fernsehtapete“ angefangen über Computer- und Laptopschirme bis hin zu den kleinen Einheiten im Auto, in Mobiltelefonen oder PDAs (Personal Digital Assistants) – ist der Einsatz von Nanotechnologie unverzichtbar. Derzeit dominieren in diesem Gebiet Flüssigkristalldisplays das Geschehen zu rund 90 Prozent. In Zukunft werden Displays grundsätzlich noch bunter, flacher und wahrscheinlich sogar biegsam. Große Hoffnungen setzen Wissenschaftler ebenso wie Marketing-Strategen in die so genannten OLEDs (Organic Light Emitting Diodes). Diese neuartigen Leuchtdioden aus organischen Halbleitern mit ihrer hohen Lichtintensität sind, zu Tausenden zusammengefasst, ideale Flachbildschirme für Computer, Laptops oder Handys. Vor allem die Eigenschaften Flexibilität (künftige Displays müssen also nicht länger starr sein, sondern lassen sich womöglich sogar aufrollen), Langlebigkeit und geringer Energieverbrauch sprechen für derartige Lösungen. Das Marktforschungsunternehmen Stanford Resources (Kalifornien, USA) rechnet damit, dass der „new-display“-Bereich schon 2005 ein Volumen von fünf Milliarden Dollar erreicht hat.

Neue Märkte durch neue Lösungen Ihre bestechenden Eigenschaften prädestinieren die organischen Moleküle aber noch für einen ganz anderen Bereich – die Beleuchtung. Erste Unternehmen arbeiten bereits intensiv in diesem attraktiven Feld (siehe Kapitel 7, Seite 165 ff.). Detaillierte Untersuchungen zum OLED-Beleuchtungsmarkt liegen zwar noch nicht vor, aber das United States Display Consortium (USDC, San Jose/Kalifornien) hat das Thema Anfang 2001 erkannt und in die strategische Planung (roadmap) mit auf-

45

genommen. Falls es gelingt, die Effizienz der Systeme weiter zu steigern, die Materialkosten für die noch teuren organischen Substanzen zu reduzieren und materialsparende Beschichtungsverfahren zu entwickeln, wird das ohnehin vorhandene Interesse potenzieller Anwender rasch steigen. Unter diesen Annahmen wird das Marktvolumen für OLEDs in der Beleuchtung im Jahr 2005 schon auf einige 100 Millionen Dollar geschätzt. Apropos Optoelektronik – dieses Technologiegebiet ist gegenwärtig der größte Wachstumsmarkt der Welt. Experten schätzen allein das Marktvolumen für Diodenlaser auf bis zu fünf Milliarden Euro. Leuchtdioden selbst dürfen noch einmal einen ähnlichen Wert erreichen. Die Dynamik erklärt sich daraus, dass optoelektronische Bauelemente und Systeme in vielen wichtigen Feldern zum Einsatz kommen und dort wesentliche technologische Durchbrüche erst ermöglicht haben bzw. noch ermöglichen werden. Besonders zuwachsstarke Sparten sind optische Nachrichtentechnik und optische Datenspeicher sowie Unterhaltungselektronik und Computertechnik. Neue Produkte hat auch der Fortschritt von Gen- und Biotechnologie hervorgebracht, der in den vergangenen Jahren stetig zugenommen und immer wieder zusätzliche Anwendungen ermöglicht hat. So sind verschiedene Biochips entwickelt worden, die DNA- bzw. Protein-spezifisch wirken. Zudem gewinnen so genannte Lab-on-a-chip-Systeme immer mehr an Bedeutung. Das Marktforschungsunternehmen Front Line aus Foster City (Kalifornien) hat Prognosen für den Zeitraum zwischen 1998 und 2005 erstellt, wonach DNA-Chips von 40 auf 455 Millionen Dollar, Protein-Chips von 2,5 auf 114 Millionen Dollar und Lab-on-a-chip-Systeme von null auf 63 Millionen Dollar in den Umsätzen ansteigen. Derartigen Analyse-Einheiten wurden im Analytical Instrument Industry Report von 1999 schon für Anfang dieses Jahrhunderts ein mögliches Umsatzvolumen im MilliardenDollar-Bereich zugewiesen, der Gesamtmarkt für Analyse-Labor-Instrumente wird auf zehn Milliarden Dollar taxiert.

Ultrafeine Pulver für Pigmente, Katalysatoren und Keramiken Nach Angaben der Freedonia Group, Cleveland (Ohio, USA) betrug die weltweite Nachfrage nach hochwertiger Keramik im Jahr 2000 bereits 25 Milliarden Dollar. Die Business Communications Corporation (BCC, Norwalk, Connecticut, USA) sieht den Markt für keramische Pulver in 2003 auf 2,1 Milliarden Dollar ansteigen, wobei der Anteil im nanoskaligen Bereich stetig zunimmt. Die besonders harten Siliziumnitrid- und Siliziumkarbidwerkstoffe werden heute z. B. für nanokristalline Schneidkeramiken, Kugeln oder Walzen für hochbelastete Lager, Spinndüsen, Fasern oder Schleifmittel großtechnisch hergestellt und vertrieben. Außer kerami-

46

schen werden auch metallische, halbleitende und diamantartige Materialien zunehmend eingesetzt. Bei bisherigen pulverbasierten Verfahren geht die Zielrichtung dahin, kleinere und größeneinheitliche Partikel herzustellen. Anwendung finden insbesondere ultrafeine Pulver bei Pigmenten, Katalysatoren, Feuerschutzmitteln, magnetischen Fluiden, keramischen Composites (hier lag der Umsatz gemäß Angaben von BCC für 2000 bereits bei 400 Millionen Dollar und soll 2009 bis zu 1,8 Milliarden Dollar erreichen), Magnetspeicherplatten, Tonern und Schleifmitteln. Auch für die Kunststoffverarbeitung werden neuerdings nanoskalige Füllmaterialien verwandt. Nach BCC sollen sie 2003 ein Volumen von 70 Millionen Dollar erreichen. Schätzungen gehen davon aus, dass alle Nano-Pulver zusammengerechnet 2001 schon einen Verkaufswert von 156 Millionen Dollar hatten und inzwischen deutlich über einer Milliarde Dollar liegen. Auch bei diesen Angaben zeigt sich das Dilemma, eine genaue Abschätzung vorzunehmen, was schon in die „Nano-Schublade“ gehört und was noch nicht. Insgesamt belegen die Zahlen aber, dass der Trend auch im Materialsektor eindeutig ins Zwergenreich weist. Insbesondere Pigmente mit völlig neuen funktionellen Eigenschaften, die für Farbeffekte, Kosmetik und Videobänder zum Einsatz kommen, sind schon heute von großer wirtschaftlicher Bedeutung. Auch Präparate im UV-Schutz, die Titandioxid-Partikel von etwa 20 Nanometern Größe oder auch organische Lichtfiltersubstanzen enthalten, gewinnen immer mehr an Gewicht. Sie werden nicht nur in Sonnencremes, Lacken oder Kunststoffen verwendet, sondern neuerdings auch in Textilien „eingewebt“. Gerade in der Kosmetikindustrie wächst der Bedarf an Nanopartikeln verschiedenster Art für Lippenstifte, Pflegecremes und Emulsionen. Der Marktwert für Nanopartikel in Sonnenschutzmitteln betrug 2005 über 86 Millionen Dollar. Katalysatoren, die Reaktionen beschleunigen oder sogar erst ermöglichen, haben eine enorme Bedeutung für die chemische Industrie. Rund 90 Prozent aller Produktionsprozesse in dieser Branche basieren auf Katalyse. Das Chemical Institute of Canada gibt den Wert der Festkörperkatalysatoren mit zwei Milliarden Dollar pro Jahr an, der Wert der damit erzeugten Chemikalien liegt dagegen bei 900 Milliarden Dollar weltweit. Die besondere Marktbedeutung der Katalysatoren liegt in ihren niedrigen Produktionskosten. Ein besseres Verständnis der atomaren Abläufe von katalytischen Prozessen, das ein Ergebnis von Nanoforschung sein dürfte, wird künftig eine weitere Effektivitätssteigerung ermöglichen und so die Kostenseite noch einmal verbessern. Nach Aussagen der amerikanischen Nanotechnologie-Studie wird der neue Forschungs- und Entwicklungszweig auch einen bedeutenden Einfluss auf die Arzneimittelproduktion nehmen. Der Report geht davon aus, dass die Hälfte der Weltpharmaproduktion in einer Gesamthöhe von 380 Milliarden Dollar von Nanotechnologie beeinflussbar ist. Das betrifft unter anderem die Verwendung von Systemen, die Wirkstoffe gezielt an bestimmte Wirkorte transportieren, die Adressierung von

47

Tumoren oder die Erkennung von Krebszellen schon in einem sehr frühen Stadium. SkyePharma PLC (London), führender Anbieter und Entwickler von ArzneimittelDarreichungsformen, beziffert den Marktwert von oralen, transdermalen und intradermalen Nanosuspensionen, lipidischen (fettartigen oder fettähnlichen) Nanopartikeln und festen polymeren Nanoteilchen für 2005 auf zehn Milliarden Dollar. Die gesamten so genannten Drug Delivery Systeme haben schon 2000 ein Gesamtvolumen von etwa 40 Milliarden Dollar erreicht. Nanoskalige Wirkstoffe werden es künftig möglich machen, viele Arzneimittel per Inhalation einzunehmen, ohne dass diese an Wirkung verlieren. Der Marktwert von Medikamenten für Diabetes steigen nach Angaben von Lehman Brothers (New York, USA) allein in den USA von drei Milliarden Dollar in 1998 auf ca. 20 Milliarden in 2006. Bis dahin werden inhalierbare Substanzen in diesem Teilmarkt schon einen Anteil von 50 Prozent haben. Seit der Contergan-Katastrophe ist bekannt, welch verheerende Wirkung so genannte enantiomere Moleküle haben können, die grundsätzlich chemisch identisch sind, sich aber wie Bild und Spiegelbild verhalten. Seinerzeit wurden diese auch als chiral bezeichneten Verbindungen nicht voneinander getrennt, eine von beiden war dann für die Missbildungen verantwortlich. In Zukunft wird die gezielte Synthese von Enantiomeren mit chiraler Auflösung stärker an Bedeutung gewinnen. Ihr Marktwert wird im Bereich von 26 Milliarden Dollar angegeben. Ein außerordentlich wichtiges Thema in der zellulären Medizin sind biokompatible Beschichtungen. Eine Studie vom Marktforschungsunternehmen Frost & Sullivan (London, New York) weist für 2001 ein Marktpotenzial von rund drei Milliarden Euro aus. Deutlich größere Möglichkeiten erwartet die Pittsburgh Tissue Engineering Initiative (USA) für künstliche Haut. Für diesen Bereich wird ein Weltmarkt von 400 Milliarden Dollar vorhergesagt, davon ein Fünftel für das Produkt künstliche Haut selbst. Erste Entwicklungen sind bereits erhältlich, für den breiten klinischen Einsatz sind aber noch einige Jahre zusätzlicher Forschung notwendig. Die Verfügbarkeit von sauberem, hygienisch einwandfreiem Wasser gehört zu einem der größten Probleme, die es in diesem Jahrhundert zu lösen gilt. Experten sagen voraus, dass künftige Kriege um Wasser geführt werden. Es ist zu hoffen, dass Nanotechnologie dabei helfen wird, diese Entwicklung zu unterbinden. An die Stelle der bisher eingesetzten Verdampfungstechnik zur Entsalzung von Meerwasser, die sehr viel Energie benötigt, könnten Nanofilter treten, die über hocheffiziente Trennmembranen verfügen. Die Business Communications Corporation beziffert den entsprechenden Markt für die nächsten 20 Jahre auf 70 Milliarden Dollar. Allein für die Aufbereitung von Laborwasser, das unter anderem in der Chipherstellung anfällt, werden Membranen im Wert von 160 Millionen Dollar benötigt. Darüber hinaus werden sie zur Trennung von superkritischen Fluiden, für magnetische und elektrische Trennprozesse sowie Zentrifugal-Chromatographie benötigt. BCC erwartet, dass die Aufwendungen hierfür bis 2006 auf eine Milliarde Dollar ansteigen.

48

Trennmembranen und optimierte Ionenleiter sind auch für Brennstoffzellen unverzichtbar. Da die Brennstoffzelle nach Meinung der meisten Experten vor ihrem wirtschaftlichen Durchbruch steht – entsprechende Entwicklungen werden sowohl von der Automobilindustrie als auch im stationären Bereich von Heizungs- und Kraftwerksherstellern intensiv verfolgt –, dürfte die Nachfrage nach Membranen stark ansteigen. BCC erwartet, dass der Brennstoffzellenmarkt 2003 etwa 1,3 Milliarden Dollar erreichen wird. Auch wenn sich viele nanotechnologischen Entwicklungen hinsichtlich ihrer wirtschaftlichen Relevanz noch gar nicht abschätzen lassen, weil sie gerade erst oder noch gar nicht begonnen haben, ist es sicher nicht übertrieben, insgesamt von einem Mega-Milliarden-Markt zu sprechen. Absehbar sind heute schon beträchtliche Potenziale bei der Herstellung und Anwendung ultradünner Schichten, der Erzeugung und dem Einsatz lateraler Strukturen von Abmessungen unter 100 Nanometern, der Fabrikation, Kombination und Applikation von Nanomaterialien und molekularen Architekturen, bei der ultrapräzisen Bearbeitung von Oberflächen sowie der Vermessung und chemischen Analyse von Nanostrukturen. Diesen industriell wichtigen Anwendungsfeldern folgt im Wesentlichen der Aufbau der deutschen Kompetenzzentren (siehe Kapitel 3, Seite 74 ff.). Kein Zweifel, Nanotechnologie wird durch ihre Querschnittsfunktion in praktisch allen Bereichen der Technik und Wirtschaft eine bedeutende Rolle spielen. Dabei darf aber nicht vergessen werden, dass die Goldgräberstimmung häufig noch verfrüht ist – rund 85 Prozent des Umsatzes in 2001 für Nanomaterialien und Beschichtungen, die zusammen immerhin 67 Prozent des gesamten Markts ausmachen, wurden mit dem Verkauf bereits etablierter Produkte gemacht. Die größten Hemmschuhe bei der Eroberung des Zwergenreichs sind zwei Faktoren: 쑺 Nanoforschung läuft häufig technologiegetrieben. Es wird zu sehr auf die – zugegebenermaßen – faszinierenden Abmessungen geachtet und zu wenig auf das benötigte Eigenschaftsprofil, was die Entwicklung zu verkaufbaren Produkten möglich machen würde. 쑺 Lösungen auf Basis der Nanotechnologie sind oft (noch) zu teuer. Bei Alternativen passt häufig das Preis-Leistungs-Verhältnis besser. Daraus ergeben sich zwei wichtige Schlussfolgerungen: Mit Nanotechnologie schon heute Geld zu verdienen, ist schwieriger, als viele in der verständlichen Euphorie glauben. Und: Auch in zehn Jahren wird noch ein beträchtlicher Umsatzanteil mit klassischen Nanotechnologien, also z. B. Pigmenten und Dispersionen, erwirtschaftet.

49

Kapitel 3

Der Forschungswettlauf

Das Gerangel um die Poleposition in den Märkten der Zukunft In den meisten Hightech-Bereichen gibt es schon traditionell einen Wettkampf der „großen Drei“, womit die USA, Japan und Deutschland gemeint sind. An die Stelle der Bundesrepublik tritt zunehmend Gesamteuropa, das auch in dieser Hinsicht weiter zusammenwächst, nicht zuletzt seitdem es aus Brüssel entsprechende Programme zur Forschungsförderung gibt. Häufig hat aber Deutschland wenigstens bei Forschung und Entwicklung eine Lokomotivfunktion innerhalb Europas. Der Wettbewerb der „Triade“ um die besten Startpositionen auf den künftigen Märkten findet unter anderem beim Automobil- und Maschinenbau, in Chemie und Pharmazie, in der Mikroelektronik und Mikrosystemtechnik, in Luft- und Raumfahrt statt – es gibt kaum eine Hochtechnologiebranche, die hier nicht berührt wäre. Das unaufhörliche Rennen um die Poleposition gilt aber nicht nur für die Umsetzung von Forschung und Entwicklung in verkaufbare Produkte, sondern auch für die davor liegende Grundlagenforschung selbst, auf deren Ebene sich derzeit noch viele Bereiche der Nanotechnologie befinden. Zwangsläufig kommen sich hier und auch in den Anwendungen die drei „Big Player“ in die Quere, gerade weil die Nanotechnologie die schon häufig angesprochene überragende Querschnittsbedeutung hat. Zum Kongress „NetWorlds“ im September 2002 hat der Verband der Elektrotechnik, Elektronik und Informationstechnologie (VDE, Frankfurt a.M.) eine interessante Studie unter dem Titel „Schlüsseltechnologien 2010“ vorgelegt, die von der Solid Marketing Research GmbH (Frankfurt a.M.) im Auftrag des VDE erarbeitet wurde. Involviert waren 300 Verantwortungsträger vor allem aus Forschung, Entwicklung, Technologie oder Geschäftsführung. Gefragt nach der Technologie mit dem größten Innovationspotenzial kam die Mikrosystem- und Nanotechnik mit 57 Prozent klar auf Position eins, gefolgt vom Bereich IT, Mobile Computing und Networking (50 Prozent) sowie Biotechnologie und Life Science (47 Prozent). Erstaunlicherweise kommt Elektronik bzw. Mikroelektronik bei dieser Fragestellung nur auf Platz 4. Noch eindeutiger fällt die Bewertung der Experten von Universitäten und aus der Forschung aus: Hier hat die Mikrosystem- und Nanotechnik mit 80 Prozent noch deutlicher die Nase vorn. Im Vergleich mit einer ähnlichen Studie aus dem Jahr

51

2000 wird der Mikro- und Nanotechnik nun erheblich mehr Potenzial zugetraut, Wissenschaftler in Hochschulen und Instituten sehen dieses Feld sogar als Schrittmacher des Fortschritts weit vor Informationstechnologie und Elektronik.

Überraschend großes Innovationspotenzial in Deutschland Unerwartet für viele fällt der Vergleich zwischen den USA, Europa bzw. Deutschland und Asien aus, wenn es um die Frage nach der höchsten Innovationskraft in der Mikrosystem- und Nanotechnik geht. Schon für das Jahr 2002 sehen die Fachleute Europa mit 57 Prozent vor den USA (41 Prozent) und Asien (22 Prozent). Für 2010 sehen sie den alten Kontinent sogar noch weiter an der Spitze und weisen ihm 59 Prozent zu, die USA mit nur noch 34 bzw. Asien mit 20 Prozent büßen dagegen an Innovationsvermögen ein. Bemerkenswert gerade für die Forschung und den Einsatz von Nanotechnologie ist auch die Frage nach der Vernetzung von Wissenschaft und Industrie, die ein typisches Merkmal in der Nanoszene und in keinem anderen Bereich derart stark ausgeprägt ist. Zwischen 73 (Vertreter mit Firmensitz in Deutschland) und 79 Prozent (Firmensitz in den USA) der Befragten erwarten „entscheidende Impulse für Innovationen aus der Vernetzung“. Nach Überzeugung von 43 Prozent der eigenen Entscheidungsträger hat Deutschland hierbei ziemliche bzw. große Vorteile. Noch positiver fällt das Urteil von Befragten aus, die ihren Firmensitz in den USA haben: 56 Prozent weisen Deutschland hier eine gute Position zu. Insgesamt lässt die VDE-Studie den Schluss zu, dass die Bundesrepublik schon heute eine führende Stellung in der Nanotechnologie erreicht hat und bis 2010 sogar noch mit einer Verbesserung rechnen darf. Wenn man die derzeitige Wirtschaftslage bedenkt, die zum Zeitpunkt der Befragung im Herbst 2002 nicht sehr viel ermutigender war, mag dieses Resultat überraschend sein. Die Annahme liegt nahe, dass die Fakten in Deutschland viel positiver sind als die derzeitige Stimmung. Gerade die große Bedeutung, die weltweit übereinstimmend der Nanotechnologie zugemessen wird, setzt ein deutliches Ausrufezeichen für den Standort Deutschland, der in diesem wichtigen Gebiet offenbar in einer wesentlich besseren Verfassung ist, als die Innenansicht vermuten ließe. Auch die jedes Jahr neu erstellte Studie „Innovationsmonitor“ des VDE kommt 2005 nach Befragung von 1.250 Unternehmen zu einem ähnlichen Schluss: „Bei Innovationen der Mikro- und Nanotechnik liefert sich die Bundesrepublik ein Kopf-an-Kopf-Rennen mit den USA.“ So behauptet sich Amerika nur knapp vor Deutschland mit 42 zu 40 Prozent als Spitzenreiter bei den Nennungen. Ebenfalls interessant: 70 Prozent aller Befragten sehen in diesem Feld generell die stärkste Innovationslokomotive.

52

Schon seit Jahren ist weltweit eine starke Zunahme von internationalen Konferenzen und Kongressen zu Nanothemen zu beobachten. Auch das Internet wird für den Austausch von Informationen und zur wissenschaftlichen Diskussion immer stärker genutzt. Wer heute in die Suchmaschine Google die vier magischen Buchstaben nano eingibt, erhält deutlich über 67 Millionen Treffer. In der Grundlagenforschung von Universitäten und in Großforschungseinrichtungen werden immer mehr Arbeiten erstellt, die Relevanz zur Nanotechnologie haben. In gewisser Weise ist das ein sich selbst beschleunigender Prozess: Das größere Interesse der Forschung auf diesem Gebiet und die wirtschaftlichen Aussichten veranlassen immer mehr staatliche und nichtstaatliche Institutionen, Forschungsgelder zu bewilligen oder zu beschaffen, was dann wieder mehr Wissenschaftler dazu bringt, in diesem Bereich aktiv zu werden. Und letztlich ist es keinem Forscher zu verübeln, dass er Themen anpackt, die eine breite Unterstützung auch finanzieller Art finden.

Die nächste Industrielle Revolution Eine von Bill Clintons letzten Amtshandlungen als Präsident der Vereinigten Staaten von Amerika war Anfang 2000, die National Nanotechnology Initiative (NNI) unter dem Motto „Leading to the Next Industrial Revolution“ auf den Weg zu bringen. Bereits 1992 hatte K. Eric Drexler, amerikanischer Physiker und einer der bekanntesten Protagonisten der Nanotechnologie, eine Rede vor dem Amerikanischen Senat zu diesem Thema gehalten. Viele Kommentatoren gehen davon aus, dass damit eine Trendwende bei der Beurteilung der Zwergenwelt eingesetzt hat. Die NNI soll eine langfristige Unterstützung von Forschung und Entwicklung in diesem Gebiet realisieren und zu möglichen Durchbrüchen insbesondere in den Bereichen „Materialien und Fertigung, Nanoelektronik, Medizin und Gesundheitsvorsorge, Umwelt und Energie, chemische und pharmazeutische Industrie, Biotechnologie und Landwirtschaft, Computer- und Informationstechnologie sowie Nationale Sicherheit“ führen. An dieser Aufzählung ist schon unschwer abzulesen, dass im Prinzip die gesamte amerikanische Volkswirtschaft profitieren soll, wobei der Begriff Nationale Sicherheit eine etwas wolkige Umschreibung für den Einsatz von Nanotechnologie zu militärischen Zwecken ist. In den begleitenden Texten, die die Ziele der NNI beschreiben, findet sich der Satz: „Die Auswirkung von Nanotechnologie auf die Gesundheit, den Wohlstand und das Leben der Bevölkerung könnte letztlich so signifikant sein wie die kombinierten Einflüsse der Mikroelektronik, der bildgebenden Verfahren in der Medizin, dem computergestützten Engineering und der Entwicklung neuer Kunststoffe (Polymere) aus dem letzten Jahrhundert.“ John Armstrong, früher Chefwissenschaftler bei IBM, hat bereits 1991 für sein Arbeitsfeld keinen Zweifel gelassen: „Ich glaube, dass Nanowissenschaft und Nanotechnologie von zentraler Bedeutung für die nächste Epoche des Informationszeitalters und dabei so revolutionär sein werden, wie Wissenschaft und Technik auf

53

der Mikrometerebene seit den frühen 70er-Jahren gewesen sind.“ Kein Wunder also, dass bei einer Technologie von so immenser Bedeutung alle führenden Industrieländer ganz vorn mit dabei sein wollen. Dabei ist der künftige Kuchen derartig groß, dass am Ende wahrscheinlich für alle etwas abfallen wird – aber die besten Stücke werden bereits verteilt. Deshalb haben die USA, die bis zur NNI keinen eigenständigen Förderschwerpunkt zur Nanotechnologie hatten, ihre Strategie geändert. Spätestens mit dem Brief vom 14. Dezember 1999, den „The President’s Committee of Advisers on Science and Technology (PCAST)“ verfasst hat, haben die Amerikaner damit begonnen, ihre schon zuvor bestehenden Aktivitäten in einer schlagkräftigen Initiative zu bündeln. Die Kernaussage des PCAST an Präsident Clinton ist der Satz: „Es ist Zeit zu handeln“. Offensichtlich ist die Botschaft angekommen. Am 21. Januar 2000 erklärte Präsident William J. Clinton am berühmten California Institute of Technolgy (CALTECH): „Mein Budget unterstützt eine neue große nationale NanotechnologieInitiative in Höhe von 500 Millionen Dollar. Damit sollten vor allem fünf Aktivitäten etabliert werden: eine langfristig angelegte Grundlagenforschung in den Nanowissenschaften, die Teilnahme großer nationaler Ministerien und Institutionen (Grand Challenges genannt) an diesem Bereich, Kompetenzzentren und Netzwerke, eine Infrastruktur vor allem im Bereich Messwesen, Forschungsgeräte, Modelling und Simulation sowie die Untersuchung der ethischen, gesetzlichen und sozialen Auswirkungen der Nanotechnologie auf die Gesellschaft.“ Involviert in die Anstrengungen sind alle Einrichtungen, die bisher schon auf diesem Gebiet aktiv waren – also die Ministerien für Handel (Department of Commerce, DOC) über das ihm unterstellte National Institute of Standards and Technology (NIST), Verteidigung (DOD) und Energie (DOE), die Raumfahrtbehörde NASA (National Aeronautics and Space Agency), die National Institutes of Health (NIH) sowie die National Science Foundation (NSF). Die Fördermittel für diese Institutionen, die wie erwähnt unter dem Begriff Grand Challenges zusammengefasst werden, betrugen im Bereich der Nanotechnologien 255 bzw. 270 Millionen Dollar für 1999 bzw. das Jahr 2000. Aufgrund der NNI sind die Zuwendungen für 2001 sprunghaft auf 495 Millionen Dollar gestiegen und für 2002 nochmals um über 20 Prozent auf über 600 Millionen Dollar angehoben worden. Für 2003 haben die USA dann erneut zugelegt und einen Betrag von 920 Millionen Dollar an öffentlichen Mitteln aufgebracht. 2004 wurden die Mittel erneut auf knapp 990 Millionen Dollar aufgestockt. 2005 erreichten die Aufwendungen erstmals über eine Milliarde Dollar (1.081 Millionen), für 2006 sind 1.054 Millionen Dollar vorgesehen.

54

Die meisten US-Fördermittel gehen in die Grundlagenforschung An der Verteilung der Gelder lässt sich unschwer ablesen, wo die Amerikaner Schwerpunkte in der Anwendung ausgemacht haben. Die National Science Foundation erhält für 2006 insgesamt Mittel in Höhe von 344 Millionen Dollar, was den höchsten Betrag innerhalb der geförderten Institutionen ausmacht und seit 2004 nochmals um fast 90 Millionen Dollar angehoben wurde. 2005 lag der Betrag bei 338 Millionen Dollar. Die NSF betreibt insbesondere Grundlagenforschung und untersucht Methoden zur Herstellung, Entwicklung und Zusammenführung von Nanomaterialien. Ein neuer Fokus liegt auf dem Gebiet Nanobiotechnologie, auch das erfolgt im Gleichschritt mit anderen führenden Ländern wie Deutschland, wo die Verknüpfung von Nano- und Biowissenschaften ebenfalls stark an Gewicht gewinnt. Ein „großer Brocken“ geht auch an das US-Verteidigungsministerium (Department of Defense, DOD), dessen Mittel zur Förderung von Nanoforschung 2006 bei 230 Millionen Dollar liegen soll, gegenüber den Vorjahren ein Minus von 27 (2005) bzw. 61 (2004) Millionen Dollar. Das Interesse der Militärs liegt vor allem in der Informationstechnologie, also Datengewinnung, -weiterverarbeitung, -speicherung und -anzeige (Displays), bei preiswerten Hochleistungsmaterialien sowie bei der Bekämpfung von chemischen und biologischen Waffen. An dritter Stelle folgt das Energieministerium (Department of Energy, DOE), das 2006 über 207 Millionen Dollar verfügen kann, ähnliche Beträge standen auch in den beiden Vorjahren zur Verfügung. Dem DOE geht es – kein Wunder – um Grundlagenforschung und -entwicklung im Energiebereich, um Energieeffizienz und Umwelteinflüsse, die bei der Energieumwandlung entstehen. Zu den bereits bestehenden Forschungsfeldern wurden für 2003 zusätzlich drei neue Schwerpunkte eingerichtet, die von allen Ministerien und auch der NASA mitgetragen werden. Dabei handelt es sich um „Produktionsprozesse auf Nanometerebene“, „Nanotechnologie zur Erkennung und zur Abwehr von chemischen, biologischen, radioaktiven und explosiven Stoffen“ sowie „Instrumente und Messtechnik für die Nanoskala“. Steigende Bedeutung hat die Gesundheitsforschung, die vom NIH (National Institute of Health) vorangetrieben wird. Hier zeigt sich eine zunehmende Tendenz, auch die Risiken der Nanotechnologie stärker in den Fokus zu rücken und entsprechende Forschung zu betreiben. Für 2006 sind 144 Millionen Dollar vorgesehen, gegenüber 2004 ein Plus von 38 Millionen Dollar. An fünfter Stelle der Zuwendungen steht das National Institute of Standards und Technology, das seit 2004 pro Jahr über rund 75 Millionen Dollar verfügen kann. Die Standardisierung ist eine häufig unterschätzte Arbeit, die aber grundsätzlich eine wesentliche Voraussetzung für die globale Vermarktung von Produkten und die internationale Zusammenarbeit ist. Die National Science Foundation, die seit dem Start der NNI immer die meisten Mittel erhalten hat, finanziert die Nanowissen-

55

schaften und -technik mit mehr Geld, als Physik, Mathematik und Ingenieurswissenschaften gemeinsam an Unterstützung erhalten – was deutlich unterstreicht, welche Bedeutung man in den USA der Zwergenwelt beimisst. Die Verteilung der Mittel in den nachfolgenden Jahren erfolgte nach einem ähnlichen Schlüssel. Mit der NNI haben die Amerikaner auch begonnen, die Zusammenarbeit auf diesem Gebiet zu koordinieren. Einbezogen sind einerseits die Universitäten des Landes, andererseits die vier führenden Forschungslabors Oak Ridge National Laboratory (Oak Ridge, Tennessee), Argonne National Laboratory (Argonne, Illinois), Lawrence Berkeley National Laboratory (Berkeley, Kalifornien) und Sandia National Laboratory (Albuquerque, New Mexico). Die Zusammenarbeit zwischen diesen Zentren, Universitäten, der Industrie und einzelnen Forschern sollen derartig forciert werden, dass sie ein eng geknüpftes Netzwerk erzeugt. Interessant in diesem Zusammenhang ist die Tatsache, dass in Deutschland bereits 1998 sechs Kompetenzzentren für verschiedene Gebiete der Nanotechnologie gegründet worden sind (siehe Seite 74 ff. in diesem Kapitel), die inzwischen weltweit große Anerkennung erfahren haben. Auch die USA folgen diesem Beispiel: So sind allein an den Universitäten des Landes mehr als 30 Forschungszentren und interdisziplinäre Gruppen für nanotechnologische Fragestellungen gebildet worden – 1999 waren es noch nicht einmal zehn. Inzwischen fördert die NNI mehr als 100 nationale Nanozentren und -netzwerke. Die Amerikaner haben eine Reihe von Themen ermittelt, die schwerpunktmäßig angegangen werden sollen. Dazu zählen unter anderem Nanoelektronik und Informationstechnologie, das Modellieren und Simulieren von Nanostrukturen und -prozessen, die Entwicklung von Verfahren und Bauteilen zur Messung von nanoskaligen Eigenschaften und zur Herstellung entsprechender Strukturen und die Verbindung zur Biologie, wobei es um bionische Systeme geht, bei denen die Natur Vorbild ist.

Stärken und Schwächen der Triade Die NNI räumt ohne wenn und aber ein, dass die Vereinigten Staaten die Nanoforschung nicht dominieren. Andere Regionen, insbesondere Japan und Europa, unterstützen entsprechende Arbeiten sowohl in der Qualität als auch in der Breite in gleicher Weise wie die USA. Der Grund dafür ist leicht nachzuvollziehen: Wissenschaftler und Politiker haben auch hier erkannt, dass die Nanotechnologie das Potenzial hat, in den kommenden Dekaden ein wesentlicher ökonomischer Faktor zu werden. Hier hat sich die Situation zu anderen technologischen Revolutionen nach 1945 deutlich geändert, denn hier hatten die USA immer sehr früh eine führende Stellung eingenommen. Geradezu bescheiden stellt die NNI fest, dass die Vereinigten Staaten im ersten Schritt eine Forschungsinfrastruktur aufbauen müssen, die mit schon existierenden Netzwerken beim „Rest der Welt“ mithalten kann.

56

Erstaunlich genug: Die Verfasser des NNI-Papiers („Leading to the next industrial Revolution“) empfehlen ausdrücklich, mit anderen Ländern durch intensiven Informationsaustausch, gemeinsame Forschungsaktivitäten und sogar in der Form zu kooperieren, dass junge US-Wissenschaftler an ausländischen Kompetenzzentren studieren. Wollte man diese Aufforderung etwas böswillig kommentieren, müsste man annehmen, dass die USA einen erheblichen Nachholbedarf entdeckt haben. Positiv ausgedrückt heißt das, die Ausgangssituation für den Vorstoß in den Nanokosmos ist unter anderem in Deutschland sehr gut. Gedeckt werden diese Annahmen auch durch Aussagen der National Business Alliance (NBA): „Anders als bei vielen Wellen der technologischen Entwicklungen über die letzten 70 Jahre wird die Nanotechnologie nicht von den Vereinigten Staaten dominiert. Japan, China, die Europäische Union, die Schweiz, Russland, Südkorea, Kanada, Australien und andere Länder sind bedeutende Spieler auf dem Nanotechnologiefeld.“

Die japanische Herausforderung Auch im „Land der aufgehenden Sonne“ hat man die Zeichen der Zeit erkannt. Schon seit geraumer Zeit gibt es in Japan einerseits grundlagenorientierte, andererseits industriell geprägte finanzkräftige Fördermaßnahmen. Bereits Ende der 80erJahre wurden zwei Projekte („Yoshida-Nano-Mechanism Project“ und „Aono-Atomcraft Project“) gestartet, um Analyse- und Strukturierungsverfahren für die Nanotechnologie zu erforschen. Kurz darauf hob das mächtige MITI (Ministry of International Trade and Industry) das Programm „Basic Research opens the Future of Mankind“ aus der Taufe, innerhalb dessen das Thema Quanten-Funktionsbausteine mit 40 Millionen Dollar gefördert wurde. Verantwortlich für solche Entwicklungen ist die Research & Development Association for Future Electron Devices. Nach Auswertung dieser ersten Arbeiten hat das prinzipiell stark anwendungsorientierte MITI eine Kurskorrektur vorgenommen. So wurde auch in Tokio zur Kenntnis genommen, dass zur weiteren „Beackerung des Nanofeldes“ noch intensive und interdisziplinäre Grundlagenforschung notwenig war und weiterhin ist – auch wenn diese Einsicht schon rund zehn Jahre zurückliegt. So wurde 1992 das Angström Technology Project eingerichtet. Angström war früher ein gebräuchliches Maß im atomaren Bereich, das inzwischen aber keine gesetzliche Längeneinheit mehr ist. Es wurde nach dem schwedischen Physiker und Astronom Anders Jonas Angström (1814 –1874) benannt und entspricht 0,1 nm. Zur Vorbereitung des Projekts wurde in der Wissenschaftsstadt Tsukuba das Joint Research Center for Atom Technology (JRCAT) gegründet, das von zwei ebenfalls neuen Einrichtungen geführt wird, einerseits dem National Institute for Advanced Interdisciplinary Research (NAIR) und andererseits der Angström Technology Partnership (ATP), der über 30 in- und ausländische Unternehmen angehören. Zudem wurde ein umfangreiches Forschungsprogramm aufgelegt, dessen Titel „Ultimate Manipulation of Atoms and Molecules“ schon deutlich macht, worum

57

es geht. Das MITI hat von 1992 bis 2002 circa 250 Millionen Dollar dafür investiert, weitere 150 Millionen Dollar werden von der engagierten Industrie beigesteuert. Interessant ist auch hier, dass die Japaner Forscher und Firmen aus aller Welt zur Teilnahme eingeladen und eine intensive Beteiligung angeboten haben, also eine ganz ähnliche und ebenso ungewohnte Öffnung wie in den USA. Großes Interesse haben unter dem Fujiyama auch so genannte Nanoröhren gefunden, eine besondere Spezifikation des Kohlenstoffs, die in der Nachfolge zur Entdeckung der Fullerene die Forscher nicht nur in Japan fasziniert hat. Mit insgesamt rund 50 Millionen Dollar will das MITI das Potenzial dieser besonderen Röhrchen erkunden und die Entwicklung neuer Werkstoffe und Strukturen für Halbleiter und elektronische Bauteile bis zur Anwendungsreife vorantreiben. Aktiv in der Nanoszene sind in Japan nahezu alle Firmen, die für Elektrotechnik, Unterhaltungselektronik und optische Produkte bekannt sind, dazu gehören im einzelnen NEC, NTT, Sony, Hitachi, Fujitsu, Toshiba, Nikon und Canon (alle Tokio) sowie Matsushita (Osaka). Japan hat in den zurückliegenden Jahren sogar mehr Mittel der öffentlichen Förderung als die USA aufgebracht. Wenn man die Aufwendungen in Europa, den Vereinigten Staaten und Japan vergleicht, ergibt sich in einer groben Abschätzung ein ähnliches Fördervolumen. In der Innovations- und Technikanalyse „Nanotechnologie als wirtschaftlicher Wachstumsmarkt“ des VDI-TZ vom November 2004 gibt es eine interessante Gegenüberstellung der Förderaufwendungen in Deutschland, Europa, USA und Japan, die zeigt, dass der Wettbewerb in der Triade auch über die Mittelbereitstellung geführt wird. Die Werte für 2005 und 2006 wurden ergänzt: Internationaler Vergleich (Angaben in Mio. €)

2002

2003

Deutschland 210 Europa (inkl. nation. Förderung) 360 USA (zzgl. States-Förderung) 420

240 480 570

600

720

260 270 310 320 1150 1400 1450 1450 720 800 870 860 (+240) (+320) (+320) (+320) 750 750 800 800

Japan

2001

2004

2005

2006

Währungsumrechnung 2003 ff.: 1 US-$ = 0,8 €; 100 Yen = 0,75 € (vor 2003: 1 € = 1 US-$ = 100 Yen) Quellen: EU: EU-Kommission Brüssel; geringe Steigerung angenommen für 2005 und 2006 USA: www.nsf.gov/nano (zusätzlich zur US-Gov-Förderung werden geschätzt 300 Mio $ der Nanotechnologie-Förderung der Staaten für 2003 und 400 Mio $ ab 2004 hinzugerechnet)

58

Japan: diverse Quellen (ATIP, nABACUS; nanomat.jp); geringe Steigerung angenommen für 2005 und 2006 Inzwischen ist die Triade aber auf dem Zukunftsfeld Nanotechnologie längst nicht mehr allein. Große Investitionen tätigen auch die asiatischen Länder, allen voran China und Südkorea, die 2003 bereits Mittel in der Höhe von 480 bzw. 280 Millionen Dollar investiert haben. Während in China die Förderquote mit 58 Prozent in etwa dem Vorbild von USA, Japan und Deutschland (Quoten um die 50 Prozent) entspricht, liegt sie in Südkorea mit über 70 Prozent weltweit am höchsten. Seit 2004 gibt es auch eine eigene Initiative der britischen Regierung, die für zunächst sechs Jahre 130 Millionen Euro per anno zur Unterstützung britischer Firmen und Projekte zur Verfügung stellt. Zu den „Top Ten“ – gemessen an den Fördermitteln – gehören auch Australien, Taiwan, Frankreich und Israel. In jedem Fall geht das Rennen, wissenschaftlich wie ökonomisch, mit hohem Tempo weiter. Derzeit werden die Teilnehmer eher mehr als weniger.

Bei Patenten USA und Deutschland vorn Ein Indikator für wissenschaftliche Exzellenz sind Fachpublikationen. Angela Hullmann hat für die Jahre 1997 bis 1999 eine entsprechende Analyse 2 vorgenommen. Als Basis diente der am häufigsten verwendete Science Citation Index (SCI) des Institute of Scientific Information in Philadelphia. Der Ländervergleich zeigt, dass auf das Spitzentrio USA, Japan und Deutschland fast die Hälfte aller Publikationen entfallen. Die USA liegen dabei mit 24 Prozent eindeutig vor der Konkurrenz aus Fernost mit 13 Prozent und der Bundesrepublik mit elf Prozent. China, Frankreich, Großbritannien und Russland folgen mit Abstand auf den weiteren Plätzen. Eine weitere Möglichkeit ist das Ranking nach Patentanmeldungen, für das das Europäische Patentamt (EPA) und das Patent Cooperation Treaty (PCT) herangezogen wurden. Auch hier liegen die USA im Zeitraum von 1991 bis 1999 absolut mit 40 Prozent vorn. Deutschland hält mit 15 Prozent den zweiten Platz noch vor Japan (zwölf Prozent). Eine weitere Erhebung aus dem Jahr 2004 bestätigt die genannten Zahlen und Fakten. Von Anfang der 80er Jahre des letzten Jahrhunderts wuchsen die Patentanmeldungen nur langsam mit unter 100 Neuanträgen pro Jahr bis etwa 1996. Seitdem gibt es einen sprunghaften Anstieg auf bis zu mehreren 1.000 Patenten per anno. Zur Zeit der Recherche (März 2004) gab es rund 13.000 Patente, von denen mit nahezu 4.500 die meisten auf die USA entfielen. An zweiter Stelle folgte Japan mit 3.400 Anmeldungen, gefolgt von Deutschland mit 1.300. Hier ist also schon ein beträchtlicher Abstand festzustellen. Allerdings ist die reine Anzahl kein abso2

Angela Hullmann, Internationaler Wissenstransfer und technischer Wandel; Bedeutung, Einflussfaktoren und Ausblick auf technologische Implikationen am Beispiel der Nanotechnologie in Deutschland; Schriftenreihe des Fraunhofer-Instituts für Systemtechnik und Innovationsforschung (ISI, Karlsruhe), 2001.

59

luter Indikator, die zahlenmäßige Aussage müsste durch eine inhaltliche gestützt werden, die die erfolgreiche Anwendung von Patenten betrifft. Eine solche Untersuchung wird allerdings erst in einigen Jahren sinnvoll durchzuführen sein. Bei der Bewertung der angegebenen Reihenfolge ist auch nach Ansicht der Experten des European Patent Office (EPO) Qualität und inhaltlicher Umfang zu berücksichtigen. Nach Aussagen des EPO ist es demnach im Durchschnitt angemessen, eine europäische bzw. deutsche Anmeldung als gleichwertig mit sieben bis neun japanischen und drei bis fünf US-amerikanischen Anmeldungen zu sehen. Multipliziert man die deutschen Anmeldungen mit den durchschnittlichen Faktoren acht bzw. vier, liegt Deutschland in diesem Wettstreit sogar vor den USA und Japan. Direkt hinter Deutschland sind China und Korea platziert, die bereits 1.009 bzw. 952 Patente auf dieser Liste führen. Die beiden asiatischen Staaten haben also zahlenmäßig dicht zur Bundesrepublik aufgeschlossen. Auch hier gelten allerdings die inhaltlichen Einschränkungen, wodurch der Abstand deutlich größer wird. An sechster und siebter Stelle kommen mit größerem Abstand Frankreich (497 Patente) und Großbritannien (249). Auch wenn die Triade einen wesentlichen Anteil am Nanogeschehen hat, beackern die USA, Japan und Deutschland dieses spannende Entwicklungsfeld längst nicht mehr allein. So haben unsere Nachbarn in der Schweiz gleich zwei Wissenschaftsprogramme ins Leben gerufen, die vom Schweizerischen Nationalfonds zur Förderung der Wissenschaft initiiert wurden: das Top-Nano-21-Programm, das sehr technologisch und auf Industriekooperation ausgerichtet ist, und das Nationale Nanoscale Science Kompetenzzentrum Basel (National Center for Competence in Research, NCCR). In Basel wird in einer Mischung aus Grundlagen- und Technologie-Forschung an zehn Projekten gearbeitet. Dabei handelt es sich im einzelnen um 쑺 Nanotechnologie in der Medizin, 쑺 Nanowerkzeuge, 쑺 Nanotechnologie für die Zell- und Molekularbiologie, 쑺 Quantencomputer und Information auf der Nanoskala, 쑺 Nanomaterialien und Selbstassoziationsprozesse, 쑺 Nanochemie, 쑺 Molekulare Maschinen und Funktionseinheiten, 쑺 Spin-Elektronik und Quanteninformationsverarbeitung, 쑺 ultimative Messgrenzen 쑺 sowie Molekulare Elektronik: Aufbau und Prinzip von Nanofunktionseinheiten. Das NCCR wurde 2001 gegründet und wird von Professor Hans-Joachim Güntherodt (Universität Basel) geleitet. Die Laufzeit soll zunächst zehn Jahre betragen. Es wird je zur Hälfte vom Schweizerischen Nationalfonds und von verschiedenen Dritt-

60

mittel- und Hochschulquellen finanziert. An den Forschungsprojekten sind rund 100 Wissenschaftler aus unterschiedlichen Disziplinen und Institutionen beteiligt. Dazu zählen neben der Universität Basel die beiden Eidgenössischen Technischen Hochschulen in Zürich und Lausanne, die Universität Zürich, das Paul-ScherrerInstitut, das Mikroelektronikzentrum Neuenburg sowie IBM Rüschlikon. Das TopNano-21-Programm ist viel stärker auf industrielle Kooperation ausgerichtet und intensiv vernetzt. Die viel größere Nähe zur Anwendung wird daraus ersichtlich, dass hier mit deutlichem Fokus auf Nanopartikeln, Nanokeramik- und Nanocomposit-Materialien gearbeitet wird. Beide Programme ergänzen sich, Top-Nano-21 ist kurz- und mittelfristig, das NCCR mittel- bis langfristig angelegt. Mitte 2002 hat die ETH Zürich ihr so genanntes FIRST-Lab gegründet, wobei das Kürzel für „Frontiers In Research, Space and Time“ steht. Das Reinraumzentrum auf dem neuesten Stand der Technik ist für interdisziplinäre Forschung verschiedener Fachrichtungen vorgesehen. „Im Bereich der Nanowissenschaften ist die ETH Zürich bereits heute führend vertreten. Mit dem FIRST-Lab werden wir auch in Zukunft im internationalen Maßstab vorne mit dabei sein“, erklärt Professor Klaus Ensslin, Mitbegründer der Einrichtung, in die rund zehn Millionen Schweizer Franken investiert wurden. Am Aufbau des Labors sind die ETH-Departments Physik, Maschinenbau und Verfahrenstechnik, Informationstechnologie und Elektrotechnik sowie Werkstoffe beteiligt. Auch Biochemiker und Molekularbiologen werden künftig an gemeinsamen Projekten arbeiten. Neben vielen Ländern in Europa haben auch Staaten wie China, Korea, Taiwan, Israel oder Australien eigene Programme aufgelegt. Beispiel Südkorea: 2003 hat das asiatische Land 280 Millionen Dollar aufgebracht, um damit das NanotechnologieEntwicklungsprogramm zu finanzieren. Mit einer Staatsquote von 71 Prozent ist die öffentliche Hand hier stärker beteiligt als in anderen Ländern, in denen die Quote um 50 Prozent herum schwankt. Beteiligt sind unter anderem die Ministerien für Wissenschaft und Kommunikation bzw. für Industrie und Technologie. Ähnlich wie im Fall Südkorea ist auch in den anderen Ländern ein starker Anstieg der Fördermittel zu verzeichnen. Wichtig bei ihrer Beurteilung ist die Tatsache, dass Kaufkraftunterschiede in den einzelnen Ländern eine abweichende Ausgestaltung der Vorhaben bewirken können. So kann in Niedriglohnländern wie z. B. China trotz deutlich geringerer Förderausgaben ein Vielfaches an Personenjahren investiert werden. Bei allen differierenden Ansätzen, im weiten Gebiet der Nanotechnologien möglichst erfolgreich zu agieren, lassen sich eine ganze Reihe von Gemeinsamkeiten feststellen. Dazu zählen hohe Investitionen und der interdisziplinäre Ansatz, die gleichzeitige Förderung von Grundlagen- und angewandter Forschung, die Initiierung von Netzwerkaktivitäten und die Diskussion über eine weitgehende internationale Zusammenarbeit. Ähnliche Zielsetzungen bestehen auch bei Fragen der Aus- und Weiterbildung, bei der Prüfung der gesellschaftlichen Relevanz der Nanotechnolgien und beim Bestreben, eine schnelle Erkenntnisumsetzung zur Standortsicherung zu realisieren.

61

Europäische Programme Im Februar 2001 hat die Kommission dem Europäischen Parlament und Rat ihre Vorschläge für das mehrjährige Rahmenprogramm im Bereich Forschung und technologische Entwicklung gemacht, das von 2002 bis 2006 läuft und eine neue Ausrichtung beinhaltet: So stand die Verwirklichung des Europäischen Forschungsraums (European Area of Research and Innovation, ERA) an – ähnlich wie der schon existierende Binnenmarkt und die Gemeinschaftswährung Euro. Dieses Konzept soll der Europäischen Union und ihren Mitgliedsstaaten eine gemeinsame Strategie verschaffen, um die Wirtschaft und Technologie Europas im weltweiten Vergleich zu stärken. Die Haushaltsmittel für dieses 6. Forschungsprogramm betragen 17,5 Milliarden Euro, eine Steigerung von immerhin 17 Prozent gegenüber dem vorhergehenden Ansatz. Im Maßnahmenblock „Bündelung der europäischen Forschung“ sind Nanotechnologien explizit enthalten und werden mit 1,3 Milliarden Euro gefördert. Mit dieser Unterstützung sollen die Herausforderungen auf wissenschaftlichem und technischem Gebiet gemeistert werden. Auch innerhalb der EU ist man sich darüber einig, dass die Nanotechnologie auf verschiedenen Ebenen angegangen werden muss: im Grundlagenverständnis der Nanowelt, bei der Entwicklung neuer Materialien ebenso wie bei der Etablierung von Prozessen und Werkzeugen für die industrielle Fertigung. Auch im strukturellen Bereich gibt es zahlreiche Aufgaben: So soll die Effizienz der mit öffentlichen Geldern geförderten vorwettbewerblichen Phase von F + E deutlich verbessert werden, darüber hinaus ist die Nanotechnologie in der Ausbildung auf allen Ebenen zu verankern sowie ihre gesellschaftlichen und sozialen Auswirkungen zu ergründen. Diese „Challenges“, so die Europäische Kommission, verlangen nach Allianzen zwischen Industrie und Forschung. Nur mit einem europaweiten Herangehen sind diese Herausforderungen zu bewältigen. Dabei soll die ERA, die strategische wie strukturelle Ziele verfolgt, auch dabei mithelfen, das „europäische Paradoxon“ zu lösen: den Widerspruch zwischen guter Grundlagenforschung auf der einen Seite und ihre mangelhafte Umsetzung in technischen und wirtschaftlichen Nutzen auf der anderen Seite – ein Phänomen, das auch immer wieder speziell Deutschland vorgeworfen wird und ihm tatsächlich zu schaffen macht. Das 6. Rahmenprogramm umfasst im Unterpunkt „Bündelung der Forschung (Fokusing and Integrating Community Research)“ insgesamt acht thematische Schwerpunkte, von denen einer direkt der Nanowissenschaft und -technologie zuzuordnen ist. Aber auch die Felder „Genomik und Biotechnologie für Gesundheitszwecke“ (Förderung 2,0 Milliarden Euro) und „Technologien für die Informationsgesellschaft“ (Förderung 3,6 Milliarden Euro) beinhalten entsprechende Fragestellungen. Innerhalb der Informationstechnologien betrifft das insbesondere die Gebiete „Mikro-, Nano- und Opto-Elektronik“ sowie „Mikro- und Nanotechnologien, Mikrosysteme und Displays“. Im Bereich Elektronik sollen vor allem Kosten

62

reduziert, die Leistung erhöht sowie Konfigurationsänderungen, Skalierbarkeit und Selbstjustierung elektronischer Komponenten und von „On-a-chip-Systemen“ ermöglicht werden. Im zweiten Feld ist es das Ziel, Intelligenz und Funktionalität durch den Einbau von Sensoren und Aktuatoren in vielfache Anwendungen zu bringen – von modern-hipper Kleidung bis hin zu kleinen, tragbaren Geräten aller Art.

Europa in der Nanotechnologie schon stark vernetzt Mitte Juni 2002 hat die EU am CEA-MINATEC in Grenoble (Frankreich), Europas größtem Zentrum für Mikro- und Nanotechnologie, eine Informationsveranstaltung zum Thema Nanotechnologie organisiert. Dabei lehnten sich die Fachleute aus Brüssel weit aus dem Fenster, denn das Motto des Treffens hieß: „EU-Forschung führt die Revolution der Nanotechnologie an“. „Nanotechnologie bietet goldene Möglichkeiten für europäische Wissenschaftler und Unternehmer“, verkündete denn auch Philippe Busquin, bis 2004 Forschungskommissar der EU. Risikokapitalgesellschaften in den USA, aber eben auch in Europa richten ihr Augenmerk immer stärker auf die Nanotechnologie – und der Alte Kontinent nimmt diese Herausforderung entschlossen an. Gemäß einer kürzlich durchgeführten Erhebung bestehen bereits 86 grenzüberschreitende Netze im Bereich Nanotechnologie, an denen rund 2.000 Organisationen beteiligt sind. 2003 standen hierfür rund 200 Millionen Euro öffentliche Gelder zur Verfügung, die durch weitere 100 Millionen von privater Seite ergänzt wurden. Im 6. Rahmenprogramm war eine Erhöhung der Förderung um den Faktor zwei bis drei vorgesehen. „Die Komplexität wissenschaftlicher und technologischer Aufgaben und der Umfang der notwendigen Investitionen wird entschlossene internationale Bemühungen und stabile Partnerschaften zwischen dem öffentlichen und privaten Sektor erforderlich machen. Wir werden die nötige kritische Masse schaffen, um in diesem neuen und spannenden Bereich die europäische Forschung zu sichern“, betonte Busquin vor den Start des Forschungsprogramms. Dazu gibt es zwei neue Instrumente: Integrierte Projekte und Netzwerke für hervorragende Leistungen. Integrierte Projekte sollen Europas Wettbewerbsfähigkeit stärken bzw. zu wichtigen gesellschaftlichen Entwicklungen beitragen. Zudem beabsichtigt die EU mit dieser Maßnahme, deutlich mehr Teilnehmer an den anstehende Forschungsarbeiten zu generieren, als das bisher der Fall war. Die „networks of excellence“ sind daraufhin angelegt, die Kompetenz in ausgewählten Fachgebieten durch eine Bündelung der Kräfte zu stärken und so eine globale Bedeutung zu erreichen. Die Förderung variiert dabei je nach Größe des Netzwerks und zielt dabei insbesondere darauf ab, eine kontinuierliche Arbeit über fünf und mehr Jahre sicher zu stellen.

63

Förderung durch das BMBF Schlüsseltechnologien versprechen sowohl weitreichende Zukunftsvisionen als auch unmittelbaren Einfluss auf unser Leben, also einerseits Chancen für die nächste Generation, andererseits evidente kurz-, mittel- und langfristige Möglichkeiten am Markt. Schlüsseltechnologien in diesem Sinne sind heute schon Informations- und Biotechnologie, die Nanotechnologie beginnt sich als „dritte Kraft“ zu etablieren. Eine wesentliche Hilfestellung in Deutschland gibt dabei das Bundesministerium für Bildung und Forschung (BMBF), dessen zentrale Aufgabe darin besteht, Forschung zu initiieren und über die Anfangsklippen hinweg zu fördern. Bis zum Beginn der 90er-Jahre wurden die Aktivitäten von Universitäten, Instituten und der Industrie im Hinblick auf die Zwergenwelt nahezu ausschließlich disziplinär durchgeführt – mit wenig Kontakt und Durchlässigkeiten von Fach zu Fach. Zur Einleitung von nanotechnologisch-orientierter Forschung war diese Vorgehensweise richtig und notwendig. Entsprechend hatte das BMBF vor über zehn Jahren im Rahmen der Programme „Materialforschung“ und „Physikalische Technologien“ damit begonnen, auch nanotechnologische Themen zu unterstützen. Schwerpunkte dabei waren zunächst die Herstellung von Nanopulvern, die Erzeugung lateraler Strukturen auf Silizium sowie die Methodenentwicklung zur Nanoanalytik. Später waren auch z. B. die Programme „Laserforschung“ und „Optoelektronik“ involviert, die ebenfalls einen Nanobezug hatten. Einen deutlichen Schub erhielt die Förderung vor allem durch die BMBF-Initiative zur Gründung von Kompetenzzentren für Nanotechnologie 1998. Seither bündeln sie die Kräfte und vernetzen die Akteure aus Wissenschaft und Wirtschaft. Die Aufwendungen des BMBF sind in den vergangenen Jahren kontinuierlich gestiegen. 1998 lagen sie in der Projektförderung bei 27,6 Millionen Euro, 2002 bereits bei 73,9 Millionen Euro. Von 2003 auf 2004 war der bisher größte Sprung von 88,2 auf 123,8 Millionen Euro zu verzeichnen – ein Plus von über 40 Prozent. Für 2005 standen Mittel in einer Höhe von 129,2 Millionen Euro zur Verfügung. Die größten Beiträge gingen und gehen dabei in die Felder Nanoelektronik (2005, 46,2 Millionen Euro), Nanomaterialien (38,1 Millionen Euro) und Optische Technologien (26 Millionen Euro) – der Gesamtbetrag erreichte 2005 gut 129 Millionen Euro. Projektbezogene Förderung erbringt auch das Bundeswirtschaftsministerium. Die zur Verfügung gestellten Mittel schwanken zwischen 21 und 24,5 Millionen Euro pro Jahr für die Zeit zwischen 2002 und 2005. Im Rahmen der institutionellen Förderung des BMBF werden gemeinsam mit den Ländern weitere Mittel für Nanoforschung aufgebracht. Die Gesamtzuwendungen lagen in den Jahren 2002 bis 2005 nahezu gleich bleibend bei gut 140 Millionen Euro. Die höchsten Fördermittel erhält die Deutsche Forschungsgemeinschaft (DFG, 2005: 60 Millionen Euro), gefolgt von der Hermann-von-Helmholtz Ge-

64

meinschaft Deutscher Forschungszentren (HGF: 37,8 Millionen Euro) und der Wissensgemeinschaft G.W. Leibniz (WGL: 23,5 Millionen Euro). Geringere Summen erhalten die Max-Planck-Gesellschaft (MPG: 14,8 Millionen), die Fraunhofer Gesellschaft (FhG: 4,9 Millionen Euro) und Caesar (Center of Advanced European Studies and Research, Bonn: 4,4 Millionen Euro). Inzwischen werden an nahezu allen deutschen Universitäten mit technisch-wissenschaftlichen Studieninhalten F+E-Aktivitäten mit Bezug zur Nanotechnologie durchgeführt. An einigen Einrichtungen wurden bereits eigene Studiengänge für das Zwergenfach eingerichtet. Hier ist die interdisziplinäre Zusammenarbeit unterschiedlichster Fakultäten besonders wichtig. Hervorzuheben in diesem Zusammenhang sind die Universitäten in Aachen, Berlin, Freiburg, Hamburg, Kaiserslautern, Karlsruhe, Kassel, Marburg, München, Münster, Saarbrücken und Würzburg. Auch zahlreiche Fachhochschulen wenden sich verstärkt dem Thema zu. Darüber hinaus gibt es eine ganze Reihe von weiteren Forschungseinrichtungen mit Schwerpunkten in der Nanotechnologie, wozu z. B. die Physikalisch-Technische Bundesanstalt (PBT, Braunschweig) oder Bessy II in Berlin gehören. Aufbauend auf der guten Ausgangssituation Deutschlands will das BMBF Forschung und Entwicklung in der Nanotechnologie und ihren Anwendungsfeldern zielgerichtet und schwerpunkthaft weiter unterstützen. Das Motto der eingeschlagenen Strategie heißt „Stärken der Stärken“. Den Auftakt zur Neuausrichtung bildete der Kongress NanoDE Anfang Mai 2002 in Bonn, auf dem rund 600 Experten von Hochschulen, Forschungseinrichtungen, Instituten und Industrie den Stand der Nanowissenschaften in der Bundesrepublik analysierten und diskutierten. Die Ergebnisse der zweitätigen Zusammenkunft sind eine wichtige Grundlage für das weitere Rahmenkonzept des BMBF. „In einem offenen Suchprozess sollen die konkrete Bedeutung der Nanotechnologie für die Industriebranchen erfasst, Möglichkeiten einer effizienten Verwertung nanotechnolgischen Know-hows erkannt sowie entscheidende Innovationssprünge und Meilensteine identifiziert werden“, so das Strategiepapier des Ministeriums.

Nachwuchswettbewerb Nanotechnologie Auf der groß angelegten Konferenz NanoDE im Jahre 2002 wurde der BMBFNachwuchswettbewerb „Nanotechnologie“ gestartet. Insgesamt 80 Gruppen beteiligten sich an diesem Wettbewerb. Die eingereichten Vorschläge wurden durch eine unabhängige Jury bewertet, die aus renommierten Wissenschaftlern und IndustrieExperten bestand. Als Ergebnis wurden dem BMBF 17 Nachwuchswissenschaftler zur Förderung vorgeschlagen. Die aufzubauenden Gruppen können über einen Zeitraum von bis zu fünf Jahren gefördert werden. Nahezu alle Forschungsfelder der Nanotechnologie sind in den unterstützten Teams vertreten. Schwerpunkte bilden Nanostrukturmaterialien, Nanoelektronik und Nanoanalytik. Für die 17 ent-

65

stehenden Gruppen stellt das BMBF bis 2008 insgesamt 30 Millionen Euro an Fördermittel zur Verfügung. Hervorragende junge Nachwuchskräfte aus dem In- und Ausland bekommen hierdurch erstmals als eigenverantwortliche Projektleiter direkten Zugang zu Fördermitteln. So soll ihnen der Weg in eine wissenschaftliche Spitzenkarriere oder in aussichtsreiche Unternehmensgründungen geebnet werden. Zudem ist es Ziel des Wettbewerbs, die Durchdringung der beteiligten Grundlagen- und Ingenieursdisziplinen derart zu fördern, dass neue Impulse für die Entwicklung und Nutzung der Nanotechnologie entstehen. Der zweite Punkt betrifft so genannte „Leuchtturmprojekte“. Weil die Zwergenwelt wie kaum eine andere Hochtechnologie Chancen für erfolgreiche Produktentwicklungen bietet, die Gewicht, Volumen, Rohstoff- und Energieverbrauch, aber auch Fertigungszeiten minimieren, müssen rechtzeitig Schlüsselfelder identifiziert und potenzielle Patente abgesichert werden. Da Teilgebiete der Nanotechnologie bereits eine gewisse Reife erlangt haben, ist ein stärkerer Abgleich der öffentlichen Forschung mit den strategischen Interessen der deutschen Industrie notwendig. Auch hierbei ist eine Konzentration auf die Stärken der deutschen Wirtschaft zwingend, um eine möglichst große volkswirtschaftliche Hebelwirkung zu erzielen. Vor diesem Hintergrund hat das BMBF mit der Wirtschaft und der breiten Öffentlichkeit einen Dialog gestartet, um Anwendungsfelder mit hohem Marktpotenzial und gesellschaftlichem Nutzen zu identifizieren. Auf dieser Basis wurden strategisch angelegte Forschungskooperationen unter führender Mitwirkung der Industrie angelegt, die als „Leuchttürme“ die Innovationskraft und wirtschaftliche Bedeutung der Nanotechnologie aufzeigen. Ein wichtiger Faktor in diesem Feld ist der immer noch unterschätzte Zusammenhang zwischen Normen bzw. Standards und der breiten Umsetzung von Basiswissen in Anwendungen, der nicht zuletzt vom Deutschen Institut für Normung e. V. (DIN, Berlin) in der Studie „Gesamtwirtschaftlicher Nutzen der Normung“ nachgewiesen wurde. Kurz gesagt: Wer zuerst kommt, gibt die Norm vor und besetzt den Markt. Auch hier will das BMBF Kooperationen verstärkt unterstützen, die das Ziel haben, Standards für nanotechnologische Fertigungsverfahren und Kenngrößen von Oberflächen, Schichten, Partikeln und chemischen Zusammensetzungen zu setzen. Hier bietet der europäische Binnenmarkt schon aufgrund seiner Größe besondere Chancen, die wahrgenommen werden sollen. Zudem besteht die Notwendigkeit, strategische Allianzen mit anderen Wirtschaftsräumen aufzubauen. Der dritte Schritt besteht darin, kleine und mittelständische Unternehmen (KMU) verstärkt einzubinden, da sie ein wichtiger Innovationsmotor für den Standort Deutschland sind. Ihr Interesse an der Nanotechnologie ist auffallend groß: Weit über 100 KMU sind Mitglieder bestehender Netzwerke in diesem Gebiet (siehe unten). Aber gerade sie sind auf den Zugang zu aktuellen Forschungsergebnissen angewiesen, da sie derartige Arbeiten häufig nicht aus eigener Kraft stemmen können, in der Umsetzung aber besonders agil und pfiffig sind. Deshalb hat das BMBF eine Reihe von Maßnahmen ergriffen, die die Fachprogramme für KMU noch attraktiver

66

machen: Durch die Einführung von thematischen Öffnungsklauseln für KMU wird eine Förderung auf breiter Grundlage ermöglicht. Der so genannte „Quereinstieg“ gibt den KMU ein von Stichtagen unabhängiges, permanentes Antragsrecht. Transfer- und Diffusionsmaßnahmen werden verstärkt, wodurch die Forschungsergebnisse der Fachprogramme einem breiten Kreis interessierter KMU zugänglich gemacht werden. Durch weitere Verfahrenserleichterungen, wie vereinfachte Bonitätsprüfung, Reduzierung externer Begutachtungen oder die Erweiterung von Pauschalierungsmöglichkeiten, wird der Zeitraum zwischen Projektidee und Förderentscheidung deutlich verkürzt.

Netzwerk für den Fortschritt – die deutschen Kompetenzzentren Obwohl einzelne Wurzeln weit zurückreichen, bleibt die Nanotechnologie ein junges, innovatives Forschungsgebiet, das sich durch hohe Komplexität auszeichnet und das sich aus vielen Fachdisziplinen zusammensetzt. Die besondere Querschnittsfunktion macht es erforderlich, neue Wege in der Forschungsförderung zu beschreiten und dabei die Voraussetzungen zu schaffen, das ohne Zweifel hohe Potenzial der Nanotechnologie für wirtschaftliche Anwendungen nutzbar zu machen. Um tatsächlich Innovationen zu generieren, reicht eine wettbewerbsfähige Forschung allein nicht mehr aus. Vielmehr ist eine möglichst frühzeitige Vernetzung aller Akteure notwendig. Dazu zählen nicht nur Wissenschaftler, Entwickler und Anwender, sondern auch Investoren sowie Fachleute für Normung, Marketing, Ausbildung und Öffentlichkeitsarbeit. Insbesondere kommt es darauf an, Forschungs- und Entwicklungsanstrengungen im vorwettbewerblichen Bereich gemeinsam durchzuführen. Erst die Kompetenzbündelung bringt Vorteile durch kürzere Produktinnovationszyklen, Kosten- und Risikoteilung, Know-how-Zugewinn und ein verbessertes Zeitmanagement. Im industriellen Umfeld sind die Tätigkeiten und Interessen von großen Unternehmen (GU) einerseits, kleinen und mittleren Unternehmen andererseits durchaus verschieden. Bezogen auf die Nanotechnologie bedeutet das, dass sich KMU in der Regel um die Erforschung und Fertigung von Werkzeugen für die Nanometerwissenschaft kümmern. Das betrifft z. B. Geräte für die Analytik oder die Herstellung geeigneter Sonden zur Strukturierung und Charakterisierung. Großkonzerne sind dagegen eher auf Systemlösungen mit hoher Umsatzerwartung ausgerichtet, wozu unter anderem elektronische Bauteile, Datenspeicher, großflächige Beschichtungen, Kosmetika und Pharmaka gehören. KMU verfügen häufig nicht über die Möglichkeiten und Mittel, um interdisziplinäre Aufgaben anzupacken und sich daraus ergebende Marktchancen wahrzunehmen. Für GU sind auf der anderen Seite neue Tätigkeitsfelder zunächst nicht interessant, weil es sich zumindest kurz- bis mit-

67

telfristig nur um Nischenmärkte handelt, die keine große Tonnagen, Serienprodukte und entsprechende Umsätze erwarten lassen. Unter diesen Voraussetzungen werden viele Forschungs- und Entwicklungsarbeiten erst gar nicht begonnen, obwohl sie auf lange Sicht sehr wohl angemessene Gewinnaussichten haben könnten. Das alles führt in der Konsequenz zu der Notwendigkeit, neue Strukturen für Wissenschaft und Forschung aufzubauen.

„Magnete des Wissens“ Genau das war das Ziel einer Förderinitiative, die schon 1998 vom BMBF ins Leben gerufen wurde. Gemeinsam mit Industrie und Wissenschaft wurde beschlossen, einen Wettbewerb zur Findung von Kompetenzzentren der Nanotechnologie (CCN) auszuschreiben und die anwendungsorientierte Projektförderung in diesem Bereich zu intensivieren. Hauptaufgabe dieser Zentren ist die Bildung einer NetzwerkInfrastruktur, in der Kompetenzen sowohl horizontal – also branchenübergreifend und interdisziplinär – als auch vertikal zusammengeführt werden. Vertikal meint hier entlang der Wertschöpfungskette Ausbildung, Forschung, Entwicklung, Produktion und Vermarktung. Merkmale solcher Netze sind eine intensive multilaterale Kommunikation der Teilnehmer, die Einrichtung und Nutzung gemeinsamer Foren, die Verwendung gemeinsamer Ressourcen wie etwa Großrechenanlagen, Messapparaturen und Datenbanken sowie die gemeinschaftliche arbeitsteilige Lösung von Problemen durch F+E-Einsatz. Noch im Oktober 1998 nahmen sechs Kompetenzzentren ihre Arbeit auf, die im einzelnen als „Magnete des Wissens“ folgende Themen abdecken: 쑺 Laterale Strukturen (Nanoclub Lateral), Federführer: AMICA (Advanced Microelectronic Center Aachen), Aachen, 쑺 Funktionalität durch Chemie (NanoChem), Federführer: Universität Kaiserslautern und das Institut für Neue Materialien GmbH (INM, Sarbrücken), 쑺 Nanotechnologien in der Optoelektronik (NanOp), Federführer: Technische Universität Berlin, 쑺 Ultradünne funktionale Schichten, Federführer: Fraunhofer-Institut für Werkstoff- und Strahltechnik (IWS, Dresden), 쑺 Nanoanalytik, unter wechselnder Federführung der Universitäten Münster, Hamburg und München, 쑺 Ultrapräzisionsbearbeitung (UPOB), Federführer: UPOB e. V. und PhysikalischTechnische Bundesanstalt (PTB) in Braunschweig. Diese Zentren sind eine regionale und virtuelle Agglomeration von F+E-Kapazitäten, Rahmenbedingungen und Infrastruktur auf einem Gebiet mit Marktrelevanz bzw. -potenzial, in dem bereits Weltniveau vorhanden ist bzw. kurz- oder mittel-

68

fristig erreichbar erscheint. Sie sollen ein wirtschaftlich attraktives Umfeld z. B. in Form von Kapital für Start-up-Unternehmen schaffen und gezielt die Kooperation von Wirtschaft, Wissenschaft und Finanzwelt befruchten, sind also auch ein guter Nährboden für Ausgründungen. Die ausgewählten Nanozentren wurden mit rund zwei Millionen Euro pro Jahr gefördert. In der nächsten Phase haben ab Herbst 2003 neun Kompetenzzentren als bundesweite Netzwerke ihre Arbeit fortgesetzt bzw. neu aufgenommen. Sie sind thematisch strukturiert und bilden regionale Cluster auf den wichtigsten Gebieten der Nanotechnologie. Im Einzelnen handelt es sich um folgende Zentren: 쑺 Ultradünne funktionale Schichten in Dresden, 쑺 Nanomaterialien: Funktionalität durch Chemie in Saarbrücken, 쑺 Ultrapräzise Oberflächenbearbeitung in Braunschweig, 쑺 Nanobioanalytik in Münster, 쑺 HanseNanoTec in Hamburg, 쑺 Nanoanalytik in München, 쑺 Naostrukturen in der Optoelektronik (NanOp) in Berlin, 쑺 NanoBioTech in Kaiserslautern und 쑺 NanoMat in Karlsruhe, das vom Forschungszentrum Karlsruhe eingerichtet wurde und auch über das FZK finanziert wird. Ziel dieser Einrichtungen ist eine optimale Zusammenführung potenzieller Anwender und Forscher der Nanoszene. Dabei soll das nanotechnologische Fachwissen der Mitglieder Innovationsprozesse in Gang setzen und eine industrielle Entwicklung anschieben. Weitere Aufgaben der Kompetenzzentren sind Aktivitäten auf dem Gebiet der Aus- und Weiterbildung, die Mitarbeit an Fragen zur Standardisierung und Normung, die Beratung von Unternehmensgründern und der Dialog mit der Öffentlichkeit. Die einzelnen Zentren sind entlang thematischer Wertschöpfungsketten in ihrem jeweiligen Themenbereich strukturiert. Im gesamten Netzwerk sind derzeit etwa 440 Akteure aus dem Universitätsbereich (29 Prozent), Großunternehmen (12 Prozent), kleinen und mittleren Unternehmen (KMU, 31 Prozent) sowie Dienstleister, Berater und Verbände (insgesamt fünf Prozent) organisiert. Mit voller Absicht ist der Anteil der KMU besonders hoch. Sie sollen von dem durchgängigen Austausch derart profitieren, dass sie über aktuelle Entwicklungen informiert sind und sie für eigene Vorhaben richtig einschätzen können. Zusätzlichen Auftrieb haben die Zentren dadurch erhalten, dass sie nicht nur durch das BMBF, sondern auch durch eine regionale Finanzierung aus den Ländern in gleicher Höhe gefördert werden. Ziel dabei ist es, dass die Netze nach Ablauf des Förderzeitraums selbstständig und mit einem klar umrissenen Profil im Forschungs- und Marktumfeld der Nanotech-

69

nologie bestehen können. Schon am Ende der ersten Phase, so die Feststellung der begleitenden Evaluation durch das Fraunhofer-Institut für Systemtechnik und Innovationsforschung (ISI, Karlsruhe) und mundi consulting AG (Bern, Siegen), lassen sich deutlich positive Effekte hinsichtlich der Netzwerkbildung feststellen. So ist in der Gründungsphase bereits eine Vielzahl neuer Kooperationsbeziehungen entstanden, wobei nicht nur Großunternehmen, sondern auch KMU gut in die Netzwerke integriert sind. Allerdings bleibt die Beteiligung gerade der kleinen Partner an den strategischen Entscheidungen und auch an den Finanzströmen verbesserungswürdig – je nach CCN in unterschiedlichem Maße. Belegt werden die positiven, stimulierenden Wirkungen auch dadurch, dass sich weitere Netzwerke und -zentren etabliert haben. Dazu zählen inzwischen zahlreiche Einrichtungen wie: 쑺 BINAS – Bielefeld Institute for Biophysics and Nanoscience, Zentrum an der Universität Bielefeld mit dem Fokus auf Nanowissenschaften und Biophysik, 쑺 CeNS, Center for NanoScience an der Ludwig-Maximilians-Universität, München, 쑺 CeOPP – Zentrum für Optoelektronik und Photonik, Interdisziplinäres Research Center für Optoelektronik und Photonik an der Universität Paderborn, 쑺 CFN DFG – Center for Functional Nanostructures, das von der Deutschen Forschungsgemeinschaft (DFG) gegründet wurde, 쑺 CINSAT Center for Interdisciplinary Nanostructure Science and Technology, Universität Kassel, 쑺 CNI – Center for Nanoelectronic Systems for Information Technology, am Forschungszentrum Jülich, 쑺 Cμ – Center for Microchemistry, Nanochemistry and Engineering, Multidisziplinäres Forschungsinstitut an der Universität Siegen, 쑺 NanoBioNet – The Center of Exellence of Nanobiotechnology, NanoBioNet e. V., 쑺 Nanocenter „Nanostrukturen und Nanomaterialien”, Zentrum an der Universität Bochum mit dem Schwerpunkt der anorganischen Materialien mit charakteristischen Abmessungen im Submikrometerbereich, 쑺 Research Centre Microtechnology and Nanostructures, Zentrum an der Universität Dortmund mit dem Schwerpunkt Technologien und Anwendungen von Mikro- und Nanostrukturen und der 쑺 RWTH-NanoClub, Promotion of Science and Technology, RWTH Aachen. Im Folgenden werden einige ausgewählt Zentren näher vorgestellt: An NanoMat sind verschiedene Großforschungszentren, Universitäten, Fraunhofer- und MaxPlanck-Institute und Firmen beteiligt. Genereller Arbeitsschwerpunkt sind die „Synthese und Untersuchung von metallischen und keramischen nanostrukturier-

70

ten Materialien und Werkstoffen und den Funktionen, die sich aus der Nanoskaligkeit ergeben“. Das Netz NanoMat steht auf einer soliden wissenschaftlichen und wirtschaftlichen Grundlage, dafür sorgen insgesamt über 70 Patente, rund 20 Lizenzen sowie knapp 90 Kooperationsverträge mit der Industrie. Das CeNS (Center of NanoScience an der Ludwig-Maximilian-Universität in München), wurde 1998 gegründet und hat 1999 seine Aktivitäten begonnen. Über 100 Wissenschaftler arbeiten auf insgesamt sechs Schwerpunktfeldern, wozu unter anderem Photonik und Optoelektronik, Biophysik im Nanometer-Bereich oder Halbleiterphysik und -bauteile auf Nanoebene gehören. Kurz vor Weihnachten 2002 war es so weit: Die Minister für Wissenschaft und Wirtschaft des Bundeslands Rheinland-Pfalz gaben gemeinsam den Startschuss für den Aufbau des NanoBioZentrums in Kaiserslautern. Das Zentrum für Nanostrukturtechnologie und Molekularbiologische Technologie soll bis 2006 an der Universität der Pfalzmetropole entstehen, Land und EU stellen dafür Mittel in Höhe von 5,4 Millionen Euro zur Verfügung. Im NanoBioZentrum werden insbesondere Biologen und Physiker interdisziplinär eng zusammenarbeiten, um anspruchsvolle Forschungs- und Technologietransferprojekte durchzuführen. Sie sollen die Grundlage für die Umsetzung in neue Produkte und Dienstleistungen bilden, wobei der Schwerpunkt auf der Einbindung von kleinen und mittleren Unternehmen liegt. Das Zentrum wird über die modernsten Strukturierungs- und Analysemethoden verfügen und diese zum Teil weiterentwickeln, um biologische und nicht-biologische Nanostrukturen herzustellen und zu untersuchen. Solche Strukturen werden in der Lasertechnik, Opto- und Magnetoelektronik benötigt. In diesen Bereichen ist die Miniaturisierung der einzelnen Bauelemente von absolut entscheidender Bedeutung. Das andere wichtige Feld ist die Nanobiotechnologie, der ein besonders großes Zukunftspotenzial zugesprochen wird und die als Wachstumsmarkt in Forschung und Wirtschaft gilt. „Deutschland setzt alles daran, den Zug Nanobiotechnologie nicht zu verpassen. Zu deutlich zeigen die negativen Erfahrungen in der Biotechnologie-Branche, wie wichtig es ist, von Anfang an zielgerichtet und nutzenorientiert Innovationen voranzutreiben“, schreiben Vlad Georgescu und Marita Vollborn in ihrem 2002 erschienenen Buch Nanobiotechnologie als Wirtschaftskraft 3. Und schon in der Einleitung ist nachzulesen: „Im Gegensatz zu anderen wittern die Deutschen auf einem Teilgebiet der Nanotechnologie beste Chancen. Längst haben sich nämlich Biotechnologie und Nanotechnologie zur Liebesheirat entschlossen. Ihr Sprössling erscheint geradezu omnipotent.“ So wird es möglich sein, immer feinere Detektionsverfahren zum Beispiel zum hochempfindlichen Nachweis von Krankheitserregern, Antibiotikaresistenzen und Schadstoffen zu entwickeln, die zur Qualitätskontrolle und -verbesserung in der pharmazeutischen Industrie oder 3

Vlad Georgescu, Marita Vollborn: „Nanobiotechnologie als Wirtschaftskraft – Neue Märkte, neue Produkte, neue Chancen“, Campus Verlag, Frankfurt/New York, 2002.

71

auch in der Wasserwirtschaft beitragen werden. Auch bei der Entwicklung neuer innovativer Materialien kommt es darauf an, kleinste Unregelmäßigkeiten auf molekularer Ebene zu erkennen und zu vermeiden. Der Standort Universität Kaiserslautern ist ideal für den Aufbau eines solchen Zentrums geeignet. So ist im Fachbereich Physik eines der sechs bundesweiten Kompetenzzentren zur Nanotechnologie beheimatet. In den beiden Fachbereichen Biologie und Physik wurden vom Land außerdem die beiden Kompetenzzentren „Biowissenschaften im Technischen Umfeld“ und „Strukturwissenschaften“ sowie die Forschungsschwerpunkte „Materialwissenschaften“ und „Lasermesstechnik und Diagnostik“ gefördert, die thematisch stark mit dem neuen Zentrum überlappen. Eine der jüngeren Gründungen in Deutschland ist das „Center for Nanotechnology“ (CeNTech) in Münster, das nach Überzeugung der Initiatoren die westfälische Universitätsstadt zu einer der ersten Adressen für Nanotechnologie in Europa macht. Sie ist eng mit dem Namen des Physikers Professor Dr. Harald Fuchs verbunden. Fuchs gehört zu den renommiertesten Nanoforschern in Deutschland. Die Westfälische Wilhelms-Universität hat die Errichtung des Zentrums für insgesamt 8,3 Millionen Euro gemeinsam mit dem Land Nordrhein-Westfalen, der Stadt Münster und der Sparkasse Münsterland-Ost gefördert. Bei der Eröffnung des neuen Gebäudes am 2. Juni 2003 im Technologiepark Münster wies der Rektor der Universität Münster auf die enge Verflechtung des Zentrums mit der Universität hin: „CeNTech liegt eingebettet im dichtesten Hochschul-Netzwerk Europas“, erklärte Professor Dr. Jürgen Schmidt mit Blick auf nordrhein-westfälische und niederländische Partner. Exzellente internationale Kooperationen reichen bis nach China. Das CeNTech ist weltweit eines der ersten Zentren für Nanotechnologie mit Schwerpunkt Forschungstransfer. In dem neuen Gebäude finden neben jungen Unternehmen auch wissenschaftliche Experten aus Physik, Biophysik, Biochemie, Materialwissenschaften und Medizin auf 2.400 Quadratmetern ideale Bedingungen. Schwingungsfreie Fundamente erlauben die Weiterentwicklung so genannter Rastersonden-Mikroskopiemethoden, mit denen einzelne Atome sichtbar gemacht werden können. Ein hochmoderner Gerätepool steht Forschern aus Hochschulen und Unternehmen zur Verfügung. So werden optimale Forschungsbedingungen geschaffen, etwa für die Entwicklung neuer Speicherchips, extrem widerstandsfähiger Lacke oder von abstoßungsfreien Implantaten. Das neue Zentrum bietet eine optimale Infrastruktur für eine enge, interdisziplinäre Zusammenarbeit im Bereich der Nanotechnologie. Die Herausforderungen auf dem Gebiet nanoskaliger Technologien verlangen nach einer fachübergreifenden und synergetischen Annäherung. Die Forschung bei CeNTech basiert auf der Zusammenarbeit verschiedener Fakultäten der Universität Münster. In Kooperation mit der CeNTech GmbH wollen die Forscher des CeNTech (CeNTech F&E) für einen erfolgreichen Wissens- und Technologietransfer sorgen, sowohl für neue Start-up Unternehmen als auch für Partner aus der Industrie (CeNTech Netzwerk).

72

Die Vision in Münster besteht darin, dass die Nanotechnologie aus der universitären Grundlagenforschung heraus neue Perspektiven für technologische Innovationen und Unternehmensentwicklungen eröffnet. In enger Kooperation mit Partnern unterstützt CeNTech Firmengründungen mit fachlichem Know-how (CeNTech Start-up-Factory). Ein weiteres wichtiges Ziel von CeNTech ist der Ausbau von Aus- und Weiterbildungsmaßnahmen auf dem Gebiet der Nanotechnologie, um den professionellen Austausch zu fördern. Das CeNTech hat im wesentlichen zwei Schwerpunkte: Der erste ist die Nanoanalytik, das heißt die Anwendung und Optimierung von Rastersonden- und abbildenden Mikroskopiemethoden, mit denen neue Materialien und nanoskalige Strukturen untersucht werden sollen. Den zweiten Fokus bildet die Nanobiotechnologie. Sie bietet bedeutende, neue Einblicke in die Funktion von biologischen Systemen, mit ihrer Hilfe ist es möglich, intra- und interzelluläre Prozesse zu verstehen und gegebenenfalls für industrielle Prozesse zu nutzen. Der Einsatz von Mikrofabrikationsverfahren dient dem Auf- und Nachbau biologischer und biochemischer Systeme und Technologien, die insbesondere von der Industrie nachgefragt werden. Ein weiteres Beispiel ist die molekulare Nanotechnologie mit deren Hilfe Selbstorganisationsprozesse, das heißt das kontrollierte Wachstum geordneter Strukturen, erforscht werden, um neue Anwendungen bei der Beschichtung, bei dünnen Filmen oder Interface-Strukturen zu ermöglichen. Forschungs-Schwerpunkte im CeNTech sind im einzelnen: 쑺 die Optimierung von Rastersonden- und abbildenden Mikroskopiermethoden, 쑺 die Untersuchung neuer Materialien und nanoskaliger Strukturen, 쑺 interdisziplinäre Forschung: von nanoskaliger Physik und Chemie zu Biologie und Medizin sowie 쑺 der Einsatz von Nanopartikeln und deren kontrolliertes Wachstum geordneter Strukturen für zahlreiche Anwendungsbereiche. Aber CeNTech soll weit mehr sein als ein Speziallabor: „Uns geht es neben der Besetzung von Schlüsselpatenten vor allem um die Überführung wissenschaftlicher Erkenntnisse in marktfähige Anwendungen“, erläutert Geschäftsführer Dr. Frank Schröder-Oeynhausen die Zielsetzung. Deshalb ist das Zentrum konsequent auf den Forschungstransfer ausgerichtet. Enge Kooperationen mit Start-ups und etablierten Großunternehmen sollen besonders die anwendungsorientierte Forschung befruchten. Den von Kapitalgebern geforderten Weg in die Praxis zeigt z. B. die Firma ION-TOF GmbH in Münster, die mit Standardverfahren zur chemischen Oberflächenanalyse Weltmarktführer ist. Zwei weitere Unternehmen sind im CeNTech Münster bereits aktiv: ChemBioTech untersucht die Erkennung von DNA-Bausteinen im Hinblick auf ihren Einsatz in der medizinischen Diagnostik, nanoAnalytics ist ein Labor, das sich auf die Charakterisierung von Oberflächen im Mikro- und Nanometerbereich spezialisiert hat.

73

Die deutschen Kompetenzzentren im Überblick „Aus der Perspektive des BMBF ist es gelungen, in dem bis dato wenig strukturierten Feld der Nanotechnologie Kompetenzen zu bündeln und in Gestalt der CCN sowie der übrigen parallel entstandenen Netzwerke Ansprechpartner für die weitere Organisation der Forschungsförderung zu gewinnen“, konstatiert der Evaluationsbericht „Die Kompetenzzentren der Nanotechnologie in der Frühphase der Bundesförderung“. Alles in Butter, könnte man also meinen. Ganz so begeistert ist z. B. Dr. Dieter Distler, Senior Vice President in der Polymerforschung der BASF AG in Ludwigshafen, Mitglied des CC Nanochem, denn doch nicht: „Der Fokus des Ministeriums liegt ganz eindeutig bei den kleinen und mittleren Unternehmen, bei Start-up-Companies und Nischen-Märkten. Wir denken bei Nanotechnologie aber weiterhin wenigstens zum Teil im Tonnenmaßstab, unter anderem im Bereich der Polymerdispersionen oder bei Pigmenten – völlig grundlos wird das als „alte Nanotechnologie“ abgestempelt. Dabei laufen gerade in unserem Haus erfolgsversprechende Innovationen, die sehr wohl zu neuen Produkten und mehr Beschäftigung führen können.“ (Mehr darüber in Kapitel 5.) Zentrales Thema des Kompetenzzentrums „Nanoclub Lateral“ und seiner F+EAktivitäten ist die Erzeugung und Anwendung von lateralen Nanostrukturen unter 100 nm als Basis von neuen Produkten in der Informations- und Nanobiotechnologie, in der Sensorik und Medizintechnik. Die Arbeiten sind in acht Themenbereiche gebündelt: Ultra- und Megnetoelektronik, Extended CMOS (Complementary Metal Oxide Semiconductor), Lithographie, Selbstorganisation, Simulation, Analytik und Nanowerkzeuge. Innovative Strukturierungs- und Manipulationstechniken im atomaren Maßstab bieten unter anderem Möglichkeiten für einen Generationswechsel bei tragbaren, intelligenten Elektroniken, der Satellitenkommunikation sowie der komplexen Datenverarbeitung. Diese Optionen für die Zukunft nimmt ein Konsortium aus 50 Forschergruppen, 16 Unternehmen, Wirtschaftsförderern und Risikokapitalgebern wahr, das von vier Landesministerien und dem Bundeswirtschaftministerium (BMWi) unterstützt wird. Ziel der Forschungsprojekte ist es, möglichst viele Stufen der Wertschöpfungskette abzudecken, um so das vorhandene und zu erarbeitende technische Wissen möglichst effektiv umzusetzen. Chemische Nanotechnologien eröffnen eine ganz neue Materialwelt – obwohl in der Chemie derartige Systeme unter anderer Bezeichnung wie Kolloide schon sehr lange bekannt sind. Die Basis für die branchenübergreifenden Wettbewerbschancen sind Strukturen und Partikel im Nanometer-Maßstab, die im Verbund neuartige, für industrielle Anwendungen maßgeschneiderte Materialeigenschaften ermöglichen. Nanostrukturierte Werkstoffe lassen sich insbesondere bei der Herstellung von Pharmazeutika, Dispersionsfarben oder der Optimierung von Katalysatoren sowie bei Klebe-, Lackier- und Schmierprozessen einsetzen. Das NanoChem ist in der Lage, die gesamte Prozesstechnik von den wissenschaftlichen Grundlagen über

74

die Verarbeitungs- und Formgebungs- bis hin zur Anwendungstechnik zu erarbeiten. Im CC NanoChem haben sich 48 Forschungseinrichtungen und 86 Firmen, darunter über 40 klein- und mittelständische Betriebe und Großunternehmen wie Opel, BASF, Bayer, DaimlerChrysler, Degussa, Henkel, Merck, Robert Bosch, Siemens und Volkswagen sowie sechs Dienstleister zu einem virtuellen Kompetenznetz zusammengeschlossen. Das Kompetenzzentrum NanOp arbeitet an der Erforschung und Entwicklung von lateralen Nanostrukturen und nanoanalytischen Techniken für die Optoelektronik. Einer der wichtigsten Ansätze für die Produktion neuartiger Lichtemitter und Photodetektoren ist das selbstorganisierte Wachstum von Quantenpunkten. Durch den Einsatz dieser Quantenpunkte lassen sich preiswerte, neuartige Halbleiterlaser entwickeln, die in Wellenlängenbereichen arbeiten können, die mit konventionellen Halbleiterlichtquellen bisher nicht erschlossen werden konnten. Zukünftige optoelektronische Komponenten werden in zunehmendem Maße Quanteneffekte nutzen. Dadurch eröffnen sich Möglichkeiten für leistungsfähigere Produkte in der Kommunikationstechnik, der Umweltüberwachung oder für Konsumgüter wie CDPlayer, Laser-TV oder Displays. In NanOp sind derzeit elf Unternehmen, sieben Forschungsinstitute und dreizehn Universitäten zusammen. Hervorzuheben ist die Zusammenarbeit mit dem Abraham F. Ioffe Physico-Technical Institute in St. Petersburg, das von dem Nobelpreisträger Zhores I. Alferov geleitet wird, der im Jahr 2000 zusammen mit dem Deutschamerikaner Herbert Kroemer und dem Amerikaner Jack St. Clair Kilby die höchste Auszeichnung der Physik für die bahnbrechende Konstruktion von Halbleitern erhielt. Die Anwendungspalette ultradünner Schichten bietet hohe Marktpotenziale vor allem bei elektronischen Bauelementen, Sensoren, Implantaten und künstlicher Haut sowie bei Verschleiß- und Korrosionsschichten. Entsprechend dieser Bedeutung verfügen die Mitglieder des Zentrums „Ultradünne funktionale Schichten“ (UFS) über besondere Kompetenz bei der Herstellung, Charakterisierung und Anwendung von Schichten im Nanobereich. An dem virtuellen Knoten sind 41 Unternehmen, vierzehn Hochschulinstitute, 19 Forschungseinrichtungen und sechs Verbände beteiligt. Regionaler Schwerpunkt ist der Raum Dresden/Chemnitz in Sachsen, der insbesondere von der Ansiedlung mehrerer internationaler Firmen (AMD Saxony Manufacturing GmbH Dresden, Infineon Technologies Dresden GmbH) aus der Mikroelektronik profitiert hat, zum Kristallisationspunkt der Halbleiterbranche in Deutschland geworden ist und nun auch die Zuliefererindustrie anzieht. Schwerpunkte der Forschungsarbeiten sind zum einen Entwicklungen für die Mikroelektronik wie „Advanced CMOS“ und neuartige Bauelemente, zum anderen aber auch biomolekulare Schichten für medizinische und technische Anwendungen, dünnste Schichten für Optik und Photonik sowie für Nanosensorik, -aktorik und -reaktorik. Die Vermessung und Analyse nanoskaliger Bauelemente sind hinsichtlich Qualitätskontrolle, Standardisierung und Normung sowie für eine reproduzierbare

75

Massenproduktion von herausragender Bedeutung. In diesem Sinne nimmt das Kompetenzzentrum Nanoanalytik eine Querschnittsfunktion wahr. Es entwickelt und vermittelt Messverfahren und -geräte sowohl im Bereich der gesamten Kompetenzzentren als auch in Kooperationen, die über diesen Rahmen hinausgehen. Die experimentellen Methoden umfassen neben Rastersondenverfahren wie Rastertunnel- (STM), Rasterkraft- (AFM) und optische Nahfeldmikroskopie (SNOM) alle Möglichkeiten, die eine laterale Auflösung von 100 nm und eine vertikale Auflösung von zehn nm zulassen. Dazu zählen die Elektronenmikroskopie und -spektroskopie, die Sekundärionen-Massenspektrometrie und eine Vielzahl anderer, zum Teil kombinierter Verfahren. Es wurden drei Koordinierungsstellen eingerichtet, die auf die Bereiche Physikalische Technologien an der Universität Hamburg, Chemische Technologien an der Uni Münster und Biotechnologien an der Uni München spezialisiert sind. Im Analytiknetzwerk haben sich die leistungsfähigsten Forschergruppen Deutschlands, anerkannte Dienstleister, Gerätehersteller und Anwender aus der Industrie zusammengeschlossen. Wie schon erwähnt, haben die zunächst sechs durch das BMBF geförderten Zentren inzwischen zu weiteren Aktivitäten geführt. So hat das Forschungszentrum Karlsruhe gemeinsam mit den Universitäten Karlsruhe und Straßburg einen neuartigen Forschungsverbund „NanoMat“ gegründet, der bisher ungelöste Fragestellungen von wirtschaftlicher Bedeutung in großer fachlicher Breite vor allem im Status der Vorlaufforschung bearbeitet. NanoMat besteht aus drei Forschungszentren der Hermann von Helmholtz-Gemeinschaft (Forschungszentren Jülich, Karlsruhe und Geesthacht), elf Universitäten, dem Max-Planck-Institut für Metallforschung (Stuttgart), drei Instituten der Fraunhofer-Gesellschaft (FI für Fertigungstechnik und Angewandte Materialforschung, IFAM, Bremen; FI für Keramische Technologien und Sinterwerkstoffe, IKTS, Dresden; FI für Silicatforschung, ISC, Würzburg) sowie vier Unternehmen (Degussa AG, Düsseldorf; Merck KgaA, Darmstadt; Robert Bosch Gmbh, Stuttgart; SusTech GmbH & Co. KG, Darmstadt). Darüber hinaus ist das Hochdruck Forschungszentrum der Polnischen Akademie der Wissenschaften in-tegriert. Alle Partner koordinieren ihre Forschungsprojekte zum Thema „Synthese und Untersuchung von metallischen und keramischen nanostrukturierten Materialien und Werkstoffen und den Funktionen, die sich aus der Nanoskaligkeit ergeben“.

„Projekthaus Nanomaterialien“ – eine neuartige Kooperation „Wir wollen, dass die Experten aus Wissenschaft und Wirtschaft ihre Kräfte bündeln“, konstatierte Dr. Reinhard Grunwald, Generalsekretär der Deutschen Forschungsgemeinschaft (DFG, Bonn), zum Auftakt des Projekthauses Nanomaterialien. Dem Wollen folgten Taten: So haben die Partner DFG und die Degussa AG ein

76

bislang einmaliges strategisches Forschungsprojekt im Jahr 2000 gestartet. Die Degussa ist mit einem Umsatz von 12,9 Milliarden Euro und 53.400 Mitarbeiten (Angaben für 2002) drittgrößter deutscher Chemiekonzern und in der Spezialchemie weltweit die Nummer Eins. Bis Februar 2003 haben am Degussa-Standort Hanau-Wolfgang ein Team aus 14 Mitarbeitern des Unternehmens und Wissenschaftlern von neun deutschen Universitäten gemeinsam zum Thema Nanomaterialien geforscht. Die Wissenschaftler aus dem DFG-geförderten Schwerpunktprogramm „Handhabung hochdisperser Pulver“ und ihre Industriependants haben gemeinsam Verfahren und Pilotanlagen für maßgeschneiderte Nanopulver entwickelt, die ein „scale up“, also die Herstellung in deutlich größeren Mengen als unter Laborbedingungen, erlauben. Die Projektkosten lagen bei rund 12,8 Millionen Euro, die nahezu 50:50 geteilt werden. Die Förderung einer Industriekooperation mit einem derartigen Betrag ist bislang einmalig in der Geschichte der DFG, die bisher eindeutig auf den Hochschulbereich konzentriert war. Das Besondere am „Projekthaus Nanomaterialien“ war einerseits die enge Anbindung an potenzielle Kunden, die aus den Bereichen Automobil, Elektronik, Kosmetik und Chemie stammen, andererseits an die Grundlagenforschung der Universitäten. Die Hochschulen brachten insbesondere dieses Basiswissen, aber auch modernste Messtechnik ein. Die Grundlagenergebnisse wurden an den Pilotanlagen der Degussa im konkreten technischen Prozess – sozusagen „live“ – überprüft. Im Gegenzug konnte sich die Degussa die aktuellen Resultate der Hochschulszene erschließen und so die Entwicklungszeiten für Nanomaterialien deutlich verkürzen – da das Projekt von vornherein auf drei Jahre angelegt war, standen die Wissenschaftler unter großem Erfolgsdruck. Im „Projekthaus Nanomaterialien“ haben Chemiker, Materialwissenschaftler, Verfahrensingenieure und Betriebswirte eng zusammengearbeitet, wobei zudem die Ressourcen und Kompetenzen der zentralen Verfahrenstechnik der Degussa intensiv genutzt wurden. Als weltweit tätiger Dienstleister für den gesamten Konzern bündelt die Verfahrenstechnik Know-how für einzelne Grundoperationen sowie für spezielle Technologien und Methoden – und genau darum ging es im „Nanohaus“. Die gewünschten Nanomaterialien werden grundsätzlich in der Gasphase hergestellt (es gibt auch alternative Produktionswege, siehe dazu Kapitel 5, Seite 111ff.), die dafür benötigten Temperaturen liegen bei bis zu 10.000 °C. Um bestmögliche Prozesse zu realisieren, hat die Degussa gleich mehrere verschiedene GasphasenReaktoren (Flammen-, Heißwand-, Plasma- und Laserreaktoren) erprobt. In Kooperation mit der DFG und der Universität Jena hat die Degussa einen neuartigen Laserverdampfungsreaktor entwickelt, der auf einem ursprünglichen Ansatz von der Universität Jena beruht, auf einen halb-technischen Maßstab heraufskaliert wurde und europa- wie weltweit bislang einmalig ist. Das System besteht aus drei CO2-Lasern, von denen jeder eine Leistung von zwei Kilowatt bei einer Wellenlänge von 10,59 Mikrometern aufweist, einer Reaktionskammer sowie einer Vorrichtung, um die erzeugten Nanopartikel abzutrennen.

77

Im September 2002 wurde der Laserverdampfungsreaktor mit dem Innovationspreis des Arbeitskreises Lasertechnik (AKL e.V., Aachen) ausgezeichnet. Dem Projekthaus Nanomaterialien und der Arbeitsgruppe an der Friedrich-Schiller-Universität Jena wurde der Preis gemeinsam in der Kategorie „Anwendungsnahe Wissenschaft“ zuerkannt. Ein wesentliches Kriterium für die Preisvergabe war die zielgerichtete Umsetzung wissenschaftlicher Erkenntnisse in eine Pilotanlage und die Erschließung der Synthese nanoskaliger Pulver für Laser, die sich auch in diesem speziellen Gebiet wieder einmal als universelles Werkzeug erwiesen haben. Die Laserstrahlen werden auf die Reaktionskammer fokussiert und konzentriert, so dass im Inneren eine Energiedichte von sechs Kilowatt auf wenigen Kubikmillimetern Raum entsteht. Hier, im Zentrum der Kammer, wird das Material durch einen Fluidisier-Luftstrom in Schwebe gehalten. Im Regelfall besteht es aus einem vorgemahlenen Metalloxid-Pulver, das dann von der gebündelten Laser-Energie verdampft wird. Aus der Dampfphase kondensiert es anschließend als nanofeines Pulver, das mit dem Luftstrom in einen Zyklon überführt wird, der gröberes Material abscheidet. Durch Zuführung von Quenchgas wird das Nanopulver danach extrem schnell abgekühlt, abschließend kann es mit Hilfe herkömmlicher Filtrationsverfahren gewonnen werden. Durch die hohe Leistung der Laser lässt sich eine große Bandbreite an Ausgangsmaterialien einsetzen, selbst solche mit hohen Verdampfungstemperaturen. Dazu zählen im Allgemeinen keramische Stoffe und Metalloxide, die durch StandardGasphasenprozesse nicht als Nanopulver erzeugt werden können. Aufgrund der raschen Abkühlung unterscheidet sich die Morphologie der Laser-synthetisierten Partikel deutlich von der typischer pyrogener Oxide. Das eröffnet ein weites Feld potentieller Anwendungsmöglichkeiten. Die Art des Herstellungsverfahrens und seine Randbedingungen entscheiden über Größe und Form der Partikel und damit über ihre Eigenschaften. „Wenn es gelingt, diese Merkmale gezielt einzustellen, lassen sich die Eigenschaften eines Materials verbessern oder sogar neue Eigenschaften erzeugen“, bestätigt Dr. Alfred Oberholz, Vorstandsmitglied der Degussa AG. „Und damit werden völlig neue Märkte erschlossen. Pigmente, multifunktionelle Füllstoffe, keramische und metallische Werkstoffe, Sensoren gehören ebenso dazu wie Katalysatoren, Kondensatoren, Gläser und Lacke.“ Die Absatzmöglichkeiten für nanoskalige Pulver wachsen bereits heute im zweistelligen Bereich. „Es ist unser Ziel, das Potenzial dieser globalen technologie- und innovationsgetriebenen Märkte gewinnbringend und dauerhaft zu erschließen“, so Oberholz.

Start für das Start-up „Degussa Advanced Materials“ Im Februar 2003 wurde das Projekthaus Nanomaterialien geschlossen und in das eigenständige interne Start-up Degussa Advanced Nanomaterials überführt. Die

78

neue Unternehmenseinheit soll innovative, nanoskalige Stoffe produzieren und neue attraktive Geschäftsfelder erschließen. Wie bisher das Projekthaus hat auch diese Einheit ihren Sitz im Industriepark Hanau-Wolfgang. Sie soll sich bis 2006 mit neuen Produkten am Markt etablieren und die Profitabilitätsgrenze erreichen. Das interne Start-up hatte bei Gründung 20 Mitarbeiter und erhält als Anschubfinanzierung bis zu 25 Millionen Euro von der Degussa-Corporate-Venture-Gesellschaft Creavis Technologies & Innovation und der Geschäftseinheit Aerosil & Silanes. „Advanced Nanomaterials ist ein Beweis dafür, dass bei Degussa Forschung und Entwicklung feste Erfolgskonstanten sind, die wir auch in wirtschaftlich schwierigen Zeiten quantitativ und qualitativ unverändert auf hohem Niveau halten“, erklärt Professor Utz-Hellmuth Felcht, Vorstandsvorsitzender der Degussa AG. Im Sommer 2003 hat die Einheit Produktionskapazitäten für Nanomaterialien im Tonnenmaßstab in Betrieb genommen. Darüber hinaus verfügt das Start-up über die vom Projekthaus entwickelten Pilotanlagen, mit denen mehrere 100 Kilogramm „Zwerge“ pro Jahr hergestellt werden können. Die ersten Produkte, die Degussa Advanced Nanomaterials auf den Markt bringen wird, sind nanoskaliges Zinkoxid, Ceroxid und Indiumoxid für die Kosmetik-, Elektronik-, Optik- sowie Lack- und Pharmaindustrie. Weitere neue Verbindungen sind bereits in der Pipeline. Die Degussa AG gilt unter Fachleuten als führend in der Produktion von Nanopartikeln, insbesondere bei Metallen, Metalloxiden und Kohlenstoff (Industrieruß, häufig auch als Carbon Black bezeichnet). Pigmente, Lackrohstoffe, funktionalisierte Oberflächen, modifizierte Füllstoffe und Chemiekatalysatoren gehören ebenso zur Nano-Anwendungspalette der Degussa wie Dentalwerkstoffe. Pyrogene Metalloxide unter dem Markennamen Aerosil dienen als Füllstoffe für Silikonkautschuk, Kunststoffe sowie Farben und Lacke. Das Anwendungsspektrum der Lackrohstoffe reicht darüber hinaus zu technischen Kunststoffen für die Wachstumsbranchen Automobil, Elektro und Telekommunikation bis zu Farbpigmentdispersionen für Industriefarben und dekorativen Gebäudeanstrich. Bei den Füllstoffsystemen und Pigmenten bietet Degussa mit Gummirußen, Gummisilanen und gefällten Kieselsäuren als einziges Unternehmen alle drei Komponenten für den rollwiderstandsreduzierten „Grünen Reifen“ an. Die Degussa AG ist zudem wichtiger Partner im NanoMat-Netzwerk.

Schneller zu neuen Nanoprodukten Im Sommer 2004 legte die Degussa den Grundstein für ihr neues Science to Business Center Nanotronics, das rund ein Jahr später seinen Betrieb aufnahm. Rollbare, flexible Displays, innovative Batteriemembranen und druckbare Elektronik für RFID-Etiketten – all diese Themen gehören zu den ersten Projekten in der neuen Einrichtung. Sie alle benötigen zur Realisierung Nanomaterialien mit sehr speziellen Eigenschaften. Und sie stehen vor einem stürmischen Wachstum: Nach

79

einer Studie der Business Communications Company, Inc. (Norwalk, Connecticut), wird der Markt für derartige Werkstoffe auf über 20 Milliarden Dollar bis 2008 ansteigen. Im westfälischen Marl hat das Spezialchemieunternehmen 50 Millionen Euro in sein Entwicklungszentrum investiert, das erstmals in Deutschland die gesamte Wertschöpfungskette von der Grundlagenforschung über die Anwendungstechnik bis zum Produktmarketing unter einen Hut bringt. Daher auch die Bezeichnung „Science to Business“. „Mit diesem Konzept werden wir auf dem Weg von der Wissenschaft zum Geschäft nochmals an Geschwindigkeit zulegen, also Erkenntnisse aus der Forschung schneller als bisher in innovative Produkte umsetzen“, erklärt Andreas Gutsch, Leiter der Creavis, der Forschungseinrichtung der Degiussa. Erst kürzlich hat das Bundesministerium für Bildung und Forschung eingestanden, dass in der Nanotechnologie ein „gewisser Nachholbedarf bei der industriellen Umsetzung erkennbar“ ist. Genau diese Lücke will das Nanotronics Center schließen. Schon weit dabei gekommen sind die Wissenschaftler bei neuartigen Membranen für LithiumIonen-Batterien. Diese Powerpakete beherrschen inzwischen nahezu komplett das Feld der Handys, Computer und Camcorder. Nun soll der Schritt von der mobilen Kommunikation in die automobile Zukunft erfolgen. So sind die Batterien für Hybridfahrzeuge vorgesehen, die in den USA bereits einen Boom erleben. Doch in diesem Markt liegt die Messlatte bei den Produkteigenschaften sehr hoch. Die bisherigen Separatoren, die Anode und Kathode voneinander trennen, bestehen aus Kunststoffen. Diese sind jedoch brennbar, verlieren ihre Temperaturstabilität oberhalb von 140°C, zudem ist ihre Lebensdauer begrenzt. All diese Nachteile überwindet die „wickelbare“ Keramik der Creavis. Sie besteht aus einem hochflexiblen Polymervlies, das von beiden Seiten mit einem hauchdünnen Keramikfilm einer speziellen nanoskaligen Metalloxidmischung beschichtet ist. Dieser Prozess erfolgt kontinuierlich, ebenso die anschließende Sinterung, bei der die Keramik auf der Matrix verankert und verfestigt wird. „Uns gelingt dieser Schritt bei nur 250°C, bis zu 1.000°C weniger als bei bisherigen Verfahren“, freut sich Gerhard Hörpel, Projektleiter für die keramischen Folien, die unter dem Namen Separion angeboten werden und bei Batterieherstellern auf großes Interesse stoßen. Flexibilität ist auch bei künftigen Displays ein gefragtes Merkmal. Bildschirme von heute werden noch auf einem starren Glassubstrat aufgebaut, auf das dann Indium-Zinn-Oxid-Schichten (ITO) aufgesputtert werden. Derartige Lagen haben zwar sehr gute elektrische und optische Eigenschaften, ihre Herstellung ist aber rohstoff- und energieintensiv – ergo teuer. „Was heute in einem aufwändigen Lithographie-Prozess abläuft, wollen wir morgen per Druckverfahren machen“, erklärt Ralf Anselmann, Forschungsleiter im Nanotronics Center. Basis für die leuchtend blauen Flüssigkeiten sind ITO-Partikel aus dem „Zwergenreich“, deren Aufbrin-

80

gung auch auf biegsamen oder sogar rollbaren Untergründen gelingt. „Die Ausrichtung des Zentrums passt perfekt auf unsere eigenen Strukturen, die wir entlang der Kette Materialien – Prozesse – Funktionen aufgebaut haben“, so Wolfgang Peukert, Inhaber des Lehrstuhls für Feststoff- und Grenzflächenverfahrenstechnik der Universität Erlangen. Peukert hat erst kürzlich den Leibniz-Preis für die Erforschung von Nanopartikeln gewonnen und kooperiert mit Marl im Bereich der druckbaren Elektronik. Parallel läuft die ITO-Entwicklung auch in Richtung OLED-Anwendung. Diese organischen Leuchtdioden sind ein wichtiger Hoffnungsträger der Elektronikindustrie. Mit den besonderen Farbmolekülen könnte der Fernseher von morgen dünn wie eine Tapete und handhabbar wie ein Rollo sein. Fest steht schon heute, dass auch in diesem Fall ITO-Schichten zur Stromversorgung der aktiven organischen Schichten nötig sein werden, die nur etwa 100 Nanometer dick sind. Sie taugen im Übrigen auch für innovative Beleuchtungen, die nicht nur Energie sparen, sondern eine neue Freiheit im Design kreieren. Flach, flexibel, kostengünstig – dieser Eigenschaftsmix zieht sich wie ein roter Faden durch das Zentrum in Marl. Er gilt auch für RFID-Tags, die unser Einkaufen durch Funkerkennung (Radio Trequency Identification) revolutionieren sollen. Künftig wird auf jeder Milchtüte, auf jeder CD ein Chip angebracht sein, der die wichtigsten Informationen wie Preis, Hersteller oder gegebenenfalls das Verfallsdatum an einen Empfänger sendet. Derartige Massenprodukte lassen sich nicht herstellen wie ein Pentium 4. Vielmehr ist die Fertigungstechnik der Schlüssel zur Wegwerfelektronik, die in mehreren 100 Milliarden Stück pro Jahr produziert werden müsste. „Deshalb arbeiten wir auch hier daran, das Chipmaterial Silizium in nanofeiner Form druckbar zu machen“, so Anselmann. Dazu müssen neben den elektrischen Eigenschaften auch die Drucktechnologien weiterentwickelt werden. Diese Herausforderungen werden gemeinsam mit Hochschul- und Industriepartnern angegangen. „Ich halte das Vorhaben in Marl für sehr weitsichtig und bin beeindruckt, dass Degussa in diesen Zeiten ein derartiges Investment vornimmt“, kommentiert Peter Schütz, ehemaliger Forschungschef von CIBA und heute Präsident des Verwaltungsrates der Erfindungs Verwertungs AG in Basel, die auch NanotechnologieStart-ups auf den Weg bringt. Etwa in fünf Jahren will Lenker Gutsch Produkte präsentieren. Spätestens.

81

Kapitel 4

Einsatz der Zwerge in Medizin, Pharmazie und Biologie Spannende Überschneidungen zwischen Nanound Biotechnologie Wer erinnert sich nicht an den Film „Die phantastische Reise“, den Richard Fleischer 1966 für die 20th Century Fox gedreht hat. Eine U-Boot-Besatzung wird zusammen mit ihrem Gefährt auf die Größe einer Mikrobe geschrumpft und in die Blutbahn eines Wissenschaftlers injiziert, um dort ein lebensbedrohliches Blutgerinnsel zu beseitigen. Für die Crew beginnt in der Tat eine phantastische Reise, die zu einem dramatischen Wettlauf mit der Zeit gerät, denn nur 60 Minuten bleiben zur Erfüllung der Mission. In plastischen Bildern wird deutlich, welche Vorgänge im Körper ablaufen – wobei man nie vergessen darf, dass Hollywood bei diesem Vorgriff auf das Nanozeitalter Regie geführt hat. Propheten der Nanotechnologie träumen ähnlich wie in dem Film-Epos von winzig kleinen, intelligenten Maschinen, die in unserem Körper ganz gezielt Viren, Bakterien oder Krebszellen attackieren, bedrohliche Plaques-Ablagerungen in unseren Adern auflösen oder als interne Messsonden z. B. für Temperatur, Bluthochdruck oder Körperfunktionen fungieren. Derartige omnipotente Nanoroboter wird es wahrscheinlich nie geben – und geschrumpfte U-Boot-Besatzungen schon gar nicht. Viele Fachleute sind dennoch davon überzeugt, dass Zwerge im Bereich der Medizin, Pharmazie und Biologie sehr hilfreich sein werden. Erste Ansätze in der medizinischen Diagnostik und Therapie, in Analytik und Sensorik sind bereits realisiert, auch wenn viele Entwicklungen den Bereich der Grundlagenforschung noch nicht verlassen haben. Drei Technologietrends markieren den Beginn des 21. Jahrhunderts und prägen die künftige industrielle und wirtschaftliche Entwicklung: die Informations-, die Biound die Nanotechnologie. Besonders spannende Gebiete für die Forschung sind die Überlappungsbereiche. Gerade die Schnittmenge der Nano- mit der Biotechnologie soll auf vielen Gebieten geradezu revolutionierende Erkenntnisse und umfassende neue Anwendungen generieren. Die Nanobiotechnologie macht sich sowohl die rasante Miniaturisierung (Top-down-Strategie) als auch die gewachsenen Möglichkeiten zu eigen, künftig auf molekularer Ebene hantieren zu können

83

(Bottom-up-Strategie). Gleichzeitig erfolgt eine verstärkte Nutzung biologischer Prozesse für die technische, hier besonders für die physikalisch-chemische Entwicklung. Zwei Schlagzeilen skizzieren diese parallele Vorgehensweise: „Biology meets Nanotechnology“ lautet die erste. Sie zielt darauf ab, dass Prinzipien der Biologie verstärkt auf nanotechnologische Verfahren übertragen und biologische Nanoobjekte für die Technik nutzbar gemacht werden. Hier sind insbesondere molekulare Motoren und molekulare Bioelektronik gemeint. Der zweite Slogan heißt genau umgekehrt: „Nanotechnology meets Biology“. Dahinter verbirgt sich der Einsatz nanotechnologischer Verfahren in der Biologie, im speziellen zur Steuerung und Behandlung biologischer Systeme. So sollen unter anderem Nanopartikel biokompatible und biofunktionale neue Werkstoffe sowie die Früherkennung und Therapie von Krankheiten ermöglichen. Deutschland hat im Gegensatz zu anderen Ländern schon relativ früh auf einen Schwerpunkt Nanobiotechnologie gesetzt, das Forschungsministerium BMBF sieht hier offenbar sehr gute Chancen zur Profilierung. Ende Juni 2001 wurde das neue Förderprogramm mit dem Titel „Nanobiotechnologie, Forschung an der Schnittstelle von Physik, Biologie, Chemie, Material- und Ingenieurwissenschaften, zwischen Nano- und Biotechnologie“ in Berlin vorgestellt. Die Fördermaßnahmen sollen bis 2006 ein Volumen von bis zu 50 Millionen Euro erreichen. In einer ersten Runde wurden rund 20 Millionen Euro für 21 Projekte bewilligt. Das Ministerium sah sich schnell bestätigt, denn die Unternehmensberatung Ernst & Young hatte in ihrem europäischen Life Sciences Report die Nanobiotechnologie als eine Schlüsseltechnologie des 21. Jahrhunderts identifiziert. Die zahlreichen Einsatzfelder versprächen ein erhebliches wirtschaftliches, medizinisches und technologisches Potenzial. So wurde Ende 2002 das CC-NanoBio-Tech-Kompetenzzentrum Nanobiotechnologie in Kaiserslautern gegründet In den Disziplinen Medizin, Pharmazie und Biologie geht es derzeit um folgende Themenschwerpunkte, die vom BMBF gefördert werden: 쑺 Die Entwicklung von Nanopartikeln für die therapeutische und diagnostische Anwendung zum einen als Transportsystem für Wirkstoffe über biologische Barrieren hinweg, zum anderen zur gezielten Anreicherung in Tumoren zu ihrer lokalen Bekämpfung. 쑺 Die gezielte Herstellung und Nutzung biologisch-nanostrukturierter Oberflächen, insbesondere zur Organisation und Manipulation von technisch relevanten Biomolekülen. 쑺 Dafür erforderlich sind die Entwicklung von Verfahren, die die Beobachtung und Optimierung solcher Moleküle zum Einsatz in Biochips für eine ultraschnelle Diagnostik sowie für extrem kleine und hochpräzise Sensoren im lebenden Organismus erlauben.

84

Darüber hinaus soll die Nanotechnologie für die Zell-, Proteom- (komplette Proteinausstattung einer Zelle) und Wirkstoffforschung, für neuartige Materialien in medizinischen Implantaten sowie für die Herstellung von Biosensoren nutzbar gemacht werden, die z. B. zum Nachweis von Immunparametern bzw. als Frühwarnund Therapiesysteme für Krebs-, Herz-Kreislauf- und Stoffwechselerkrankungen dienen könnten.

Neuartige medizinische Heinzelmännchen In vielen Bereichen steckt die Nanotechnologie noch in der interdisziplinären Grundlagenforschung (ist also, streng genommen, noch gar keine Technologie). Dennoch gibt es auch gerade in der Medizin teils visionäre, teils phantastische Vorstellungen über die Zwergenzunft. So könnte man eines (wohl doch noch relativ fernen) Tages mit nanochirurgischen Werkzeugen, man könnte auch sagen mit Nanorobotern, von innen an den jeweiligen Krankheitsort gelangen, um dort direkt und ohne operativen Eingriff ins Geschehen einzugreifen. Das ForesightInstitut von K. Eric Drexler in Palo Alto (Kalifornien) hat auf seiner Internetseite bereits eine Reihe von Illustrationen veröffentlicht, wie diese Realität aussehen könnte. Die medizinischen Heinzelmännchen können sich z. B. durch einen ATPgetriebenen Motor (Mitochondrien sind die Kraftwerke der Zelle. Sie verbrennen kontrolliert organische Moleküle und erzeugen so Energie für das System, die über das Adenosintriphosphat, ATP, verteilt wird.) in den Gefäßen fortbewegen, um gezielt Manipulationen an Zellen und Geweben durchzuführen oder auch um Krebsherde zu zerstören. Dennoch gehört auch in diesem Zusammenhang nicht alles in den Science-Fiction-Bereich. Einerseits wird an entsprechenden Teillösungen bereits intensiv geforscht und entwickelt, andererseits gibt es schon seit Jahren Präparate, die in der medizinischen Anwendung und die nach heutigem Verständnis zur Nanotechnologie zu zählen sind. Seit Jahrzehnten treibt Mediziner die Möglichkeit um, Wirkstoffe mit „Intelligenz“ auszustatten, damit sie selbständig, selbsterkennend und spezifisch an ihren eigentlichen Wirkort gelangen. Fachleute sprechen hier von „drug targeting“ und „controlled release“. Die Vorteile liegen auf der Hand: Nicht der gesamte Organismus wird unter ein Medikament gesetzt, sondern nur ein eng umgrenzter erkrankter Bereich. Dadurch lassen sich deutlich niedrigere Dosierungen verwenden, weil es keine Streuverluste gibt und so Nebenwirkungen eingeschränkt werden. Schon lange wird vor diesem Hintergrund versucht, Partikel bzw. Carrier (Trägermaterialien) zum Transport von Wirkstoffen und Nucleinsäuren einzusetzen und sie z. B. in der Krebstherapie unmittelbar in den Tumor zu schleusen. In den kommenden fünf bis zehn Jahren sind wesentliche Entwicklungen in folgenden Anwendungsfeldern zu erwarten: Nanoskalige Sensoren werden zur Mes-

85

sung physiologischer Parameter im Inneren des Körpers zur Diagnostik und Steuerung von Therapiemaßnahmen von außen eingesetzt. Implantierbare oder über die Blutbahn applizierte Biochips (Nanodevices), die von außen kontrollierbar sind, ermöglichen eine zeitlich gesteuerte Abgabe von Wirkstoffen. Künftig werden Nanoventile, -pumpen, -manipulatoren und -sensoren in den Körper eingebracht, die mit Hilfe einer externen Elektronik gesteuert werden. Nanopartikuläre Trägersysteme mit von außen beeinflussbarer Beladung übernehmen den Transport und die Freigabe biologischer Wirkstoffe und Therapeutika und ermöglichen die Erkennung von kleinsten Tumorläsionen, wobei trägergebundene Isotope oder superparamagnetische Teilchen verwendet werden, die sich mittels Magnetresonanztomographie auffinden lassen. Nanostrukturierte Werkstoffe generieren neuartige Beschichtungen als Grenzschichten zwischen biologischem Material und Prothesen bzw. Implantaten, die Abstoßungsreaktionen verringern, für die rekonstruktive Chirurgie, den Organersatz und das Tissue Engineering.

Perfekte Biowerkstoffe Zahlreiche Forschergruppen weltweit arbeiten daran, die Bauprinzipien der Natur nachzuahmen, um perfekt angepasste Biowerkstoffe zu entwickeln. Beispielsweise sind Seidenfäden, von Spinnen lediglich aus Proteinen und Wasser gesponnen, unglaublich reißfest: Ihre Belastbarkeit ist um den Faktor 100 höher als bei Stahl, die Dehnungsfähigkeit übertrifft die des Kunststoffs Nylon um das Vierzigfache. Ein anderes Vorbild ist die filigrane Architektur des Knochens. Er besteht aus elastischen Kollagensträngen, die sich selbst umschlingen und dabei spiralige Säulen bilden. Sie sind säuberlich gestapelt und miteinander so vernetzt, dass regelmäßige Hohlräume entstehen. Winzige Kristalle aus Hydroxylapatit, einem Mineral, aus dem auch unsere Zähne bestehen, füllen diese Lücken. Im Ergebnis entsteht eine lebende Keramik mit Poren und Gängen, in denen Zellen sitzen. Der Aufbau aus weichem Protein (Kollagen) und hartem Mineral verleiht dem Knochen seine scheinbar widersprüchlichen Eigenschaften. Der Knochen ist hart, aber eben nicht spröde wie normale Keramik, er ist starr und doch zumindest in größeren Grenzen biegsam, mechanisch belastbar, dabei doch leicht und porös, stabil, aber dennoch immer im Umbau und, falls nötig, sogar selbstheilend. Entsprechend diesem Muster nutzen Materialentwickler Zellen, Biomoleküle oder Konzepte aus der Natur für ihre neuen Werkstoffkreationen. „Die Natur hat ihre Materialien in Millionen von Jahren der Evolution optimiert. Davon wollen wir profitieren“, erklärt Rainer Nies, bei Siemens Corporate Technologies in Erlangen mit dem Anwendungspotenzial des Bioengineerings beschäftigt. Biologische Materialien sind bis in den Nanometerbereich hinein präzise strukturiert. Professor Dr. Peter Greil von der Friedrich-Alexander-Universität ErlangenNürnberg und seine Mitarbeiter nutzen Biomaterialien als Schablone für techni-

86

sche Werkstoffe. Dazu zersetzen sie etwa ein Stück Holz bei rund 1.800 °C in einer Stickstoffatmosphäre, sodass nur das Kohlenstoffgerüst übrigbleibt. Anschließend wird flüssiges oder gasförmiges Silizium in das „Skelett“ eingebracht, das sich mit dem Kohlenstoff zum extrem harten Siliziumcarbid verbindet. Der besondere Clou dabei ist, dass die Zellstruktur des Holzes erhalten bleibt. Es entsteht sozusagen ein „versteinertes“ Abbild. Eine vergleichbare Anordnung von Poren ist anders in einer Keramik kaum herzustellen. Derartige biomorphe Keramiken ließen sich in Zukunft vielfältig für Katalysatorträger, Filter, Hochtemperatur-Isoliermaterial oder Leichtbauwerkstoffe verwenden. Einen anderen Ansatz verfolgt das Team von Professor Dr. Wolfgang Pompe, der an der Technischen Universität Dresden arbeitet. Mit Hilfe von Bakterienproteinen erzeugt es dicht gepackte Nanocluster aus Edelmetallen, die für Katalysatoren und Sensoren interessant sind. Viele Bakterien besitzen in ihrer Proteinhülle zahlreiche Poren gleicher Größe, durch die Stoffe in die Zellen hinein- und herausgelangen. Diese Oberflächenschicht wirkt wie ein molekulares Sieb. Zunächst werden die Proteinmoleküle isoliert und dann ihre Fähigkeit zur Selbstorganisation genutzt. Unter geeigneten chemischen Bedingungen ordnen sich die Eiweiße auch in künstlicher Umgebung wieder zu zweidimensionalen Schichten mit perfekter Porenstruktur an. Diese Flächen können deutlich größer sein als die Oberfläche einer Bakterie. Zudem lassen sie sich auf festen Unterlagen aufbringen, etwa auf Halbleitermaterial oder auf Metalle. Im Ergebnis erhält man gewissermaßen einen nanoskaligen „Eierkarton“, in dessen Vertiefungen sich ganz gezielt katalytisch aktive Edelmetalle wie Platin oder Palladium abscheiden lassen. Die in den Hohlräumen fixierten Metallkomplexe können nicht größer werden, als es die biomolekularen Käfige – also die Bakterienporen – zulassen. Daraus resultiert eine regelmäßige Anordnung von Partikeln mit Durchmessern von nur zwei nm. Da dies an Millionen Stellen gleichzeitig geschieht, lässt sich dieser Effekt für eine künftige Massenfertigung von Nanostrukturen einsetzen. Zudem ist die spezifische Oberfläche der Metallteilchen, nur wenige nm jeweils vom nächsten entfernt, riesengroß, was die katalytische Wirkung deutlich fördert. Siemens will dieses Konzept unter anderem für hoch empfindliche Gassensoren nutzen, indem die Proteinstruktur mit „Metallfüllung“ auf einem Pyrosensor eingesetzt wird. Die winzigen Katalysatoren sollen z. B. die Oxidation von giftigem Kohlenmonoxid beschleunigen. Der Pyrosensor misst die dabei freiwerdende Reaktionswärme und setzt sie in ein elektrisches Signal um, das dann die Konzentration des gefährlichen Gases angibt.

Mit winzigen Magneten gegen den Krebs Millionstel Millimeter kleiner Partikel aus Eisen sollen die Bekämpfung bisher unheilbarer Krebsarten verbessern. Forschern des Berliner Universitätsklinikums Charité und des Leibniz-Instituts für Neue Materialien (INM) in Saarbrücken ist es

87

gelungen, derartige Partikel zu entwickeln, die Grundstoff für eine neuartige Therapie in Kombination mit Operation, Chemo- und Strahlentherapie sein können. Seit Mitte 2000 wird dieser Ansatz in Berlin erprobt, wobei zunächst Menschen behandelt wurden, die an einem schnell wachsenden, bösartigen Tumor (Glioblastom) leiden. Die Eisenkörnchen, noch tausendmal kleiner als rote Blutkörperchen, durchströmen wegen ihrer geringen Größe auch die feinsten Blutgefäße und werden von Tumorzellen millionenfach aufgenommen. Die Wissenschaftler in Saarbrücken unter Leitung von Institutschef Professor Helmut Schmidt haben es geschafft, in industriellen Mengen gefertigte Nanopartikel an ihrer Oberfläche biochemisch so zu gestalten, dass sie von Krebszellen als vermeintliche Nahrung „gefressen“ werden. Dadurch ist es möglich, die von Dr. Andreas Jordan entwickelte Magnetflüssigkeits-Hyperthermie einzusetzen. Die Behandlung besteht darin, in Wasser gelöste Eisenoxid-Teilchen direkt in den Tumor zu spritzen. Die Hyperthermie, also die Übererwärmung auf 42 °C, wird in der Krebsbekämpfung seit langem genutzt, weil Zellen und Gewebe auf diese Weise erheblich geschädigt werden. Dieses Verfahren erhöht die Empfindlichkeit von Tumorgeweben gegenüber zellzerstörenden Medikamenten und Strahlen. Der Erfolg ist aber oft unvollkommen, weil es häufig nicht gelingt, den Tumor in allen Teilen gleichmäßig zu erwärmen, zumal wenn er in tieferen Schichten des Körpers liegt. Dieser Mangel an Homogenität ist vor allem darauf zurückzuführen, dass die Wärme bisher mit elektrischen Feldern erzeugt wird und die einzelnen Gewebe, also z. B. Knochen, Muskeln oder Drüsen, unterschiedliche elektrische Eigenschaften aufweisen. Mit Unterstützung der Deutschen Forschungsgemeinschaft (DFG, Bonn) hat Jordan deshalb ein Konzept entwickelt, das zur Erwärmung des Tumors anstelle von elektrischen magnetische Wechselfelder verwendet. Der Vorteil dabei ist, dass diese Methode unabhängig von der Tiefe des Tumors ist. Voraussetzung ist allerdings, dass in das Krebsgewebe magnetisierbare Substanzen eingebracht werden. Geeignet dafür sind die Eisenoxid-Teilchen, die von Zuckermolekülen (Dextran) umhüllt sind. Die Partikel werden in Wasser gelöst und ohne Narkose in den Tumor eingebracht, wo sie nicht ausgeschieden werden, weil sie bei aller Winzigkeit größer sind als die Zellmoleküle. Beim Anlegen des magnetischen Wechselfelds heizen sich selektiv die Depots der Magnetflüssigkeit auf. Dabei wird das Magnetfeld so gewählt, dass Temperaturen von 45 bis 47 °C entstehen. Das gesunde Gewebe um den Tumor herum erwärmt sich nur unwesentlich und wird so wenig belastet. Inzwischen hat die Firma MFH Hyperthermiesysteme GmbH (Berlin), die mit der Charité über einen Kooperationsvertrag verbunden ist, ein eigenes Magnetwechselfeld-Therapie-Gerät (MFH®-300F) entwickelt. Es erzeugt ein homogenes magnetisches Wechselfeld mit einer Frequenz von 100 Kilohertz und einer Feldstärke bis 15 Kiloampere pro Meter. Das MFH-300F wird derzeit in der Arbeitsgruppe von Dr. Jordan am Centrum für Biomedizinische Nanotechnologie (CBN) in Berlin intensiv erprobt. Insgesamt könnte sich die Magnetwechselfeld-Therapie zum vierten Stand-

88

bein in der Krebsbekämpfung neben Chirurgie, Chemo- und Strahlentherapie entwickeln. Allerdings ist das bisher verwendete Verfahren insbesondere für Glioblastomkarzinome geeignet, für andere Tumorarten sind neue Partikel nötig, deren Herstellung weder einfach noch billig ist.

Medikamente mit Tarnkappe In den vergangenen Jahren wurde eine Fülle von neuartigen Polymerpartikeln als Carrier erzeugt, die insbesondere geeignet sind, bestimmte Wirkstoffe an Zielorte im Körper zu bringen. Solche Strategien des so genannten „controlled release“ haben schon eine längere Tradition und werden bereits klinisch getestet. Die wohl ältesten Nanoteilchen für Therapiezwecke sind Liposomen, in denen sich vor allem Chemotherapeutika, aber auch Nucleinsäuren für die Gentherapie „verstecken“ lassen. Liposomen sind künstlich hergestellte, typische Transportvehikel, die mit unterschiedlichsten Wirkstoffen beladen werden können. Die Wirkstoffe liegen dann in verkapselter Form vor und sind wesentlich unempfindlicher gegenüber äußeren Einflüssen. Je nach Zusammensetzung, Oberflächengestaltung und Größe der Teilchen erreicht man eine Dispersivität der ansonsten in Wasser unlöslichen Wirkstoffe, sodass eine Applikation über die Körperflüssigkeiten möglich wird. Auch eine oberflächenabhängige Verlängerung der Bluthalbwertszeit sowie eine verringerte systematische Toxizität werden erreicht, weil durch die geschickte Tarnung die Zeitspanne für die Anreicherung der Wirkstoffe in der Zielregion gegenüber dem Immunsystem deutlich verlängert wird. Durch eine veränderte chemische Zusammensetzung können Liposomen in Abhängigkeit von einem äußeren Reiz „durchlässig“ werden und so ihren Inhalt an die Umgebung abgeben. Derartige Reize können über pH-, Temperatur- oder Enzymeinwirkung oder elektromagnetische Felder ausgelöst werden. So wird eine gewisse Steuerbarkeit erreicht, die allerdings davon abhängig ist, wie gut sich die Liposomen in der Zielregion anreichern.

Biokompatible Nanoschichten für Implantate Ein weiteres Anwendungsfeld der Nanotechnologie in der Medizin liegt in der Herstellung von ultradünnen Beschichtungen, dem Einbau von Nanopartikeln bzw. der topographischen Strukturierung im Nanometerbereich von Medizin- und Dentalwerkstoffen, um die Biokompatibilität zu verbessern. Durch eine möglichst dünne, biokompatible Schicht erfolgt z. B. bei passiven Implantaten eine gute mechanische Ankopplung des biologischen Gewebes an das künstliche Material (Herzschrittmacher, neuronale Implantate) sowie eine zuverlässige elektrische

89

Simulation bzw. Ableitung von elektrischen Signalen. Die Verwendung von Nanopartikeln für Beschichtungen ist dann von Vorteil, wenn sie als Kompositematerialien einerseits mechanisch beanspruchbar sind und andererseits bei guter Gewebeverträglichkeit mit hoher Oberfläche die Ankopplungsmöglichkeiten verbessern. Eine gezielte topographische Strukturierung ist zurzeit noch nicht realisiert. Natürliche Knochen und Zähne weisen aber Rauigkeiten und Porositäten auf, die in Nanometerdimensionen liegen, sodass die Nachahmung solcher Oberflächen sicher zu verbesserten Gewebereaktionen und mechanischem Verhalten führen könnten. „Gerade bei hochbelasteten Implantaten wie künstlichen Knie- oder Hüftgelenken sind Titanwerkstoffe die metallischen Biomaterialien der ersten Wahl“, erklärt Professor Dr. Jürgen Breme, Werkstoffwissenschaftler an der Universität des Saarlandes. Die neuen Titanlegierungen sind fest, korrosionsbeständig, biokompatibel und bioadhäsiv. Das heißt, sie werden besonders gut vom menschlichen Körper angenommen und ermöglichen das Anwachsen von Gewebezellen am Implantat. Begünstigt wird diese Eigenschaft durch den niedrigen Elastizitätsmodul. Durch die erwünschte Beanspruchung des umliegenden Gewebes wird z. B. die Knochenneubildung stimuliert. Vor allem die neu entwickelten so genannten Beta-Legierungen weisen einen Elastizitätsmodul auf, der gegenüber den bisherigen Legierungen noch einmal um circa 20 Prozent vermindert ist. Die gute Verschleißbeständigkeit und Biokompatibilität der Titanwerkstoffe ergeben sich aus der an der Oberfläche stets vorhandenen Oxidschicht. Ein wesentlicher Schwerpunkt für die Anwendung von Nanotechnologie in der Pharmazie ist die Miniaturisierung von Analysesystemen. Diese ist unter anderem von Vorteil, wenn nur sehr wenig zu analysierende Substanz vorliegt, also beim Testen von teuren Wirkstoffen oder der biochemischen Analyse von Molekülen, wie Proteinen oder DNA aus einzelnen Zellen. Sie ist z. B. erforderlich, wenn nur wenige Zellen zur Verfügung stehen (wie bei Keimzellen) oder wenn die Wirkung von Medikamenten auf Zellen mit einer bestimmten Position im Gewebe optimiert werden soll. Ein weiterer Anlass für die fortschreitende Verkleinerung liegt in der einfachen Parallelisierung von Analysen. In allen Fällen muss eine möglichst effektive Wechselwirkung der Moleküle mit dem Detektor des Analysesystems in kleinsten Probenvolumina gewährleistet sein. Verschiedene Typen von Biosensoren, die z. B. auf elektrisch aktiven Zellen beruhen, sind umso empfindlicher, je näher diese aktiven Einheiten an die Detektoroberfläche gebracht werden. Deshalb ist es zwingend, kontrollierte Schichtdicken im Nanometerbereich einzustellen. Eine zusätzliche laterale Nanostrukturierung dieser biologischen Schichten erlaubt eine hohe Parallelisierung der Analytik und damit z. B. hohen Durchsatz für das so genannte High-Throughput-Screening.

90

Maßgeschneiderte neue Wirkstoffe Die Fortschritte in den so genannten Life Sciences hängen direkt zusammen mit neu entwickelten Test- und Arbeitsmethoden. Sie haben insbesondere den Wirkstoff-Forschern große Möglichkeiten eröffnet, Ideen und Konzepte in innovative Produkte umzusetzen. Welchen Aufschwung in den „Lebenswissenschaften“ gemacht wurden, lässt sich auch an der „Nobelpreis-Bilanz“ allein im Bereich Chemie ablesen: Seit 1975 wurden von insgesamt 28 Auszeichnungen nicht weniger als zwölf für Arbeiten auf diesem Gebiet verliehen, das sind immerhin nahezu 43 Prozent. Ähnlich sieht es auch bei den Nobelpreisen für Medizin und Physiologie aus. Der Wandel in der Wirkstoff-Forschung ist eng verknüpft mit den Erfolgen der Molekularbiologie, vor allem der Gentechnik. Ihre Werkzeuge eröffnen die Möglichkeit, die patho-physiologischen Abläufe bei Krankheiten auf molekularer und damit auf der Nanoebene zu untersuchen. Vor allem bei der Suche und erfolgreichen Identifizierung von neuen Wirkstoffleitstrukturen und deren Optimierung haben die gentechnischen Methoden ein ganzes Arbeitsgebiet radikal verändert. Mit so genannten molekularen humanen oder pflanzlichen Targets, wie Forscher die eigentlichen Zielorte der Wirkung nennen, lassen sich effiziente, schnell arbeitende und einfach zu bedienende Screening-Systeme aufbauen, mit denen mehrere hunderttausend Substanzen pro Jahr getestet werden können. Auf diese Weise haben sich die Verhältnisse umgedreht: War bisher der biologische Test auf die gewünschte Auswirkung der entscheidende Engpass in der Wirkstoffforschung, ist es jetzt die Bereitstellung der vielen Testsubstanzen. Targets für Wirkstoffe sind in den meisten Fällen Proteine, die Funktionen als Enzyme, Rezeptoren, Ionenkanäle oder als Bestandteile von Transportsystemen ausüben. Auch die Erbsubstanzen DNA und RNA können Ziele für Wirkstoffe sein. Bereits 1960 machte sich der amerikanische Chemiker Robert Bruce Merrifield Gedanken darüber, wie sich Peptide aus Aminosäuren aufbauen lassen. Peptide sind relativ kurze Ketten aus diesen Säuren, die untereinander über die so genannte Amidbindung verknüpft werden. Überschreiten derartige Peptidketten eine gewisse Länge und falten sich in charakteristischer Weise, erhält man dreidimensionale Gebilde, die lebenswichtigen Proteine (Eiweiße). Drei Jahre nach den ersten Überlegungen hatte Merrifield eine Methode, die nach ihm benannte Merrifield-Technik, zur Verfügung, die die Peptidsynthese in großem Stil ermöglichte – und dem Amerikaner den Chemienobelpreis 1964 einbrachte. Die Merrifield-Technik bildete dann auch die Grundlage für die kombinatorische Chemie. Grundsätzlich besteht bei diesem Zusammensetzen von „chemischen Legosteinen“ das Ziel darin, die Strukturen der Startmoleküle zu variieren und dadurch Verbindungen mit neuen Eigenschaften zu kreieren. Ein System aus drei mal drei Bausteinen generiert, jeder mit jedem kombiniert, schon 27 Verbindungen, geht man beispielsweise von jeweils 50 Startern aus, sind es bereits 125.000. Dabei besteht

91

jeweils eine strukturelle Verwandtschaft, aber eine unterschiedliche Gestalt. Dadurch lässt sich eine große Bandbreite von physikalisch-chemischen Eigenschaften erzeugen, wobei schon eine kleine chemische Varianz große Unterschiede in der biologischen Wirkung hervorrufen können. Damit folgt die Wissenschaft wieder einmal dem Vorbild der Natur, die das ganz ähnlich macht. Heute stehen Roboter zur Verfügung, die täglich 100.000 Verbindungen und mehr auf ihre potenzielle biologische Aktivität prüfen. Seit dem Jahr 2000 gibt es Systeme für das Ultra-Hochdurchsatz-Screening, die mit Mikrotiterplatten arbeiten, die über 1.500 Vertiefungen enthalten. In jede dieser Vertiefungen werden winzige Substanzmengen der synthetisierten Probesubstanzen vorgelegt und dann mit ihren Targets zusammengebracht. Als solche Wirkorte fungieren meist Proteine, also die Produkte ganz bestimmter Gene. Mit dem ungebremsten Aufschwung der Gentechnik werden die Targets aus diesem Forschungszweig immer dominierender. Trotz aller Robottechnik: Das Entwickeln und Aufbauen von geeigneten Testsystemen, auch Assays genannt, bleibt die Sache von Molekularbiologen. Assays müssen verschiedene Anforderungen erfüllen. Zum einen sollen sie möglichst genau die Verhältnisse des späteren Anwendungsgebiets simulieren, zum anderen müssen sie aber auch in das Volumen von zehn bis 100 Mikrolitern Flüssigkeit passen. Bei der Prüfung eines neuen Pharmawirkstoffs wird mit gentechnischen Methoden das Gen des molekularen Angriffspunkts in eine tierische Zelle geschleust, wo es dann ähnliche Reaktionen auslöst wie in den Zellen des menschlichen Organismus. Um die Reaktion sichtbar zu machen, benutzt man ein so genanntes Reportergen, das mit dem Targetgen gekoppelt wird, das in einen Rezeptor umgesetzt wird. In dieser Form dient er als Andockstation für die Testsubstanz. Das Reportergen ist in der Lage, Änderungen des Stoffwechsels in der Zelle anzuzeigen. Gebräuchlich sind z. B. Gene, die für die Biolumineszenz von Tieren verantwortlich sind, wie unter anderem das Leuchtgen des Glühwürmchens. Sobald die Testsubstanz eine Wirkung erzielt hat, sendet „der Reporter“ Lichtblitze aus, die mit einem Messgerät aufgenommen und ausgewertet werden. Dabei gilt die Faustregel: Je intensiver das Licht, desto besser ist die Wirkung. Kein Zweifel, kombinatorische Chemie, Hochdurchsatzscreening und Gentechnik haben die Wirkstoffforschung enorm verändert und beschleunigt. Zu diesem Ergebnis kommt auch eine Studie der Geschäftsbereich Technical Insights der Unternehmensberatung Frost & Sullivan (London) vom Juli 2002: „Die kombinatorische Chemie wird erheblichen Einfluss auf die Wirkstoffforschung haben.“ Pharmaunternehmen brauchen in der Regel drei neue Wirkstoffe pro Jahr, um wettbewerbsfähig zu bleiben. „Deshalb stellt die kombinatorische Chemie mit ihrer Fähigkeit, schon in der Testphase bessere Ergebnisse zu liefern, ein wertvolles Instrument für die Wirkstoffforschung und -entwicklung dar. Um Zeit und Kosten zu sparen, arbeiten deshalb auch Pharma- und Biotechnologieunternehmen immer enger zusammen“, bestätigt Miriam Nagel, Research Analyst bei Technical Insights. Im Gefolge des Humangenomprojekts dürfte sich

92

das Interesse an der Kombinatorik noch einmal enorm ausweiten. Denn die computergestützte Untersuchung von geschätzten 30.000 Genen und Tausenden von Proteinen wird eine Fülle von Informationen über bisher unbekannte Wirkstoffziele liefern. Nur mit Hilfe kombinatorischer Techniken wird es möglich sein, diese Datenflut effizient aufzuarbeiten.

Verbesserte Analyse von DNA-Proben Unter der Bezeichnung „Schott Slide A“ hat das Business Segment „Health“ von Schott Glas (Mainz) ein beschichtetes Substrat für Microarrays auf den Markt gebracht, das eine verbesserte Analyse von DNA-Proben ermöglicht. Im Bereich der pharmazeutischen Forschung und Entwicklung kommt diesen Analysen eine Schlüsselfunktion zu. Sie ermöglichen es, aus einer Flut von Daten Informationen über die Funktionen der Gene zu gewinnen. Je zuverlässiger diese initialen Ergebnisse sind, desto zielgerichteter kann die weitere Entwicklung eines Medikaments erfolgen. Für die pharmazeutische Industrie gestaltet sich die Suche nach neuen Arzneistoffen immer noch als langwieriger und oftmals dornenreicher Weg. Ähnlich wie die alten Goldgräber, die einst Tonnen von Sand wuschen, um auf ein paar Goldkörner zu stoßen, müssen Chemiker und Biologen Myriaden von Verbindungen testen, um nur wenigen potenziellen Wirkstoff-Kandidaten auf die Spur zu kommen. Zurzeit befindet sich die stark forschungsorientierte Branche an der Schwelle einer völlig neuen Ära: Einerseits explodieren die Kosten für die Entwicklung eines neuen Medikaments, andererseits werden an die Genomforschung größte Erwartungen geknüpft. Ziel ist es, nicht nur eine große Anzahl von potenziellen Wirkstoffkandidaten zu kreieren, sondern den Prozess der medizinalchemischen Entwicklung, der für die pharmazeutische Industrie immer noch das größte zeitliche Nadelöhr darstellt, zu beschleunigen. Denn nach wie vor vergehen von der Identifizierung eines potenziellen Wirkstoffs bis zum fertigen Medikament durchschnittlich zwölf bis 15 Jahre. Welche Möglichkeiten gibt es, diese Entwicklungszeiten, die in anderen Schlüsseltechnologien völlig inakzeptabel wären, zu reduzieren? Zeiteinsparungen im Bereich der klinischen Tests sind nur bedingt vorhanden und im Hinblick auf die Sicherheit des Patienten auch nicht wünschenswert. Vielmehr muss die Strategie lauten, den Hebel in einer möglichst frühen Phase der Wirkstoffforschung anzusetzen. Einen primären Ansatzpunkt liefert die Identifizierung von Genen, die für die Entstehung von Krankheiten ursächlich verantwortlich sind. An dieser Stelle setzt die Technologie der DNA-Microarrays ein. Bei diesem aus der Halbleitertechnik adaptiertem Verfahren wird ein Substrat mit einem bekannten Genmaterial bedruckt – eine Verfahrensweise, die an das Prinzip des Tintenstrahldruckers erinnert. Die resultierende Anordnung von DNA-Fragmenten in einer Matrix gestattet

93

es nunmehr, eine Vielzahl von Hybridisierungsexperimenten parallel durchzuführen und Genexpressionen zu untersuchen. Dabei werden die mit einem Fluoreszenzfarbstoff markierten Targets mit dem bedruckten Substrat zusammengeführt, wobei komplementäre DNA-Stränge zur Doppelhelix hybridisieren und im monochromatischen Licht eines Scanners ein Signal liefern. Mit der Markteinführung von „Slide A“ ist es Schott gelungen, der pharmazeutischen Industrie ein beschichtetes Substrat zur Verfügung zu stellen, das die Auswertung von Expressionsexperimenten vereinfacht und gleichzeitig zu zuverlässigeren Ergebnissen führt. Kern der Innovation ist eine patentierte Multi-AminoSilan-Beschichtung im Nanometerbereich auf einem speziellen Borosilicat-Glas. Dabei bewirkt diese Beschichtung im Gegensatz zu herkömmlichen Produkten über eine vermehrte Anzahl von „Andockstellen“ eine verstärkte Anbindung des DNAMoleküls, was einer höheren Empfindlichkeit gleichkommt. „Bei der Auswertung der Expressionsexperimente schlagen wiederum die exzellenten Materialeigenschaften des eingesetzten Borosilicat-Glases positiv zu Buche,“ ergänzt Dirk van den Broek, Leiter des Business Segments „Health“ bei Schott. Dieses spezielle Glas besitzt nur eine sehr geringe Eigenfluoreszenz, was sich in einem ausgezeichneten Signal-Rausch-Verhältnis dokumentiert. Zusammen mit einer extrem ebenen Glasoberfläche, die Unregelmäßigkeiten beim Bedrucken weitgehend unterbindet, lassen sich die Ergebnisse von DNA-Microarray-Anwendungen rascher und fehlerfreier als bisher auswerten. Die Zuverlässigkeit der initialen Daten ist für die pharmazeutische Industrie von großer wirtschaftlicher Bedeutung, da alle weiteren Untersuchungen und Selektionsmechanismen auf ihnen beruhen. So dürfte bereits eine Herabsetzung der Fehlerquote um nur wenige Prozent – auch vor dem Hintergrund einer möglichen Fehlerfortpflanzung in Folgeexperimenten – unter dem Strich mit einer Kostenersparnis in Millionenhöhe verbunden sein. Resonanzen von Testkunden aus den USA bestätigen die hohe Reproduzierbarkeit der gemessenen Werte. Die Pilotanlage für die Produkte befindet sich am Standort der Schott Glass Technologies in Duryea (Pennsylvania, USA). Hier fanden in Zusammenarbeit mit amerikanischen Universitäten und europäischen Biotech-Unternehmen auch die Forschungs- und Entwicklungsaktivitäten in eigens dafür eingerichteten biologischen Labors mit Reinräumen statt.

Nanosilber statt Antibiotika Seit rund 50 Jahren werden Antibiotika eingesetzt, um Infektionskrankheiten in Schach zu halten. Bedauerlicherweise sind mittlerweile einige Mikroorganismen gegen diese Medikamente resistent. Über kontaminierte Katheter oder Skalpelle können sie in den Körper gelangen, was dramatische Folgen hat: Fachleute schät-

94

zen, dass allein in Deutschland jedes Jahr etwa 600.000 Patienten an nosokomialen Infektionen erkranken und deshalb länger im Krankenhaus behandelt werden müssen. „Durch Entzündungen aufgrund infizierter Katheter sterben mehr Menschen als im Straßenverkehr“, betont Dr. Michael Wagner vom Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung (IFAM) in Bremen. Die Hanseaten entwickeln in Zusammenarbeit mit der Firma Bio-Gate Bioinnovative Materials GmbH (Nürnberg), einer Ausgründung der Friedrich-Alexander-Universität Erlangen-Nürnberg, neuartige Nanocompositwerkstoffe, um solche gefährlichen bakteriellen Infektionen zu vermeiden. Dabei hilft ihnen ein Material, aus dem früher Könige und andere Herrschaften gegessen und getrunken haben: Silber. Das edle Geschirr war Ausdruck für Reichtum, Wohlstand und Macht, doch zugleich schützte das besondere Metall die feinen Damen und Herren auch vor Infektionen, weil es antimikrobiell wirkt – was seit rund 3000 Jahren bekannt ist. Ende des 19. Jahrhunderts setzten Ärzte Silber und Silberverbindungen zur aktiven Behandlung von Brandwunden und zur Desinfektion ein. Und in vielen Gegenden war es guter Brauch, eine Silbermünze in die Blechkanne zu legen, damit sich die Milch länger hielt. Diesen Effekt haben die deutschen Wissenschaftler jetzt aufgegriffen. Sie integrieren metallisches Silber in die Oberflächen von medizinischen Komponenten. Wenn Pinzetten, Katheder oder Implantate mit nanoskaligem Silber fein und gleichmäßig beschichtet sind, haben Bakterien und auch Pilze kaum eine Chance zum Überleben. „Die winzigen Silberpartikel geben kontinuierlich ausreichend positiv geladene Ionen ab, um es den Bakterien ungemütlich zu machen“, bekräftigt Wagner. Heute kennt man den Mechanismus, mit dem die Nanoteilchen an mehreren Stellen zugleich die Bakterienzellen attackieren: Sie zerstören die Enzyme, die die Nährstoffe für die Zelle transportieren, destabilisieren die Zellmembran, das Zellplasma oder die Zellwand und stören deren Zellteilung und -vermehrung. Diesen geballten Angriff überstehen die Bakterien nicht. Entsprechend beschichtete medizinische Geräte bleiben deshalb keimfrei, wobei der Wirkungsgrad von Silber breiter ist als der von Antibiotika. Allerdings muss die Silberkonzentration im Material exakt bestimmt werden, für eine Prothese wird eine andere Silbermenge gebraucht als für eine Pinzette. Für die Bestimmung des richtigen Silbergehalts hat Bio-Gate ein empfindliches Messverfahren entwickelt. An bis zu 1.000 Proben pro Tag können die Forscher das bakterielle Wachstum auf verschiedensten Materialien wie Kunststoffen, Zementen, Folien, Granulaten, Metallen, Tüchern und Beschichtungen exakt bestimmen. Die patentierte Technologie ist klinisch erprobt für Produktentwicklung, -optimierung und Qualitätskontrolle. Die Herstellung der benötigten kleinen Partikel ist hoch komplex. Bio-Gate erzeugt das nanoporöse Silberpulver in exklusiver Kooperation mit dem IFAM. Der Primärteilchendurchmesser dieses Silbers liegt im Bereich von 50 bis 100 nm. Da die Teilchen sofort miteinander aggregieren, entsteht daraus ein Pulver mit Nanoporen.

95

Die hohe Porosität des Materials erlaubt, unter anderem beim Einarbeiten in Kunststoff, einen besonders innigen Kontakt mit dem Polymer. Noch kleinere Partikel lassen sich durch Vakuumverdampfung auf einen kontinuierlichen Flüssigkeitsfilm erzeugen. Die Teilchen sind so winzig (bis fünf nm mittlerer Durchmesser), dass es sich eher um kleine Anhäufungen von Atomen handelt. Als Suspension in Flüssigkeiten wie z. B. Siliconölen oder Weichmachern kann so Silber in feinster Verteilung in verschiedene Kunststoffrezepturen eingearbeitet werden. Die resultierenden Werkstoffe enthalten das Nanosilber in gleichmäßiger Verteilung, was zu erhöhter Produktqualität und -sicherheit führt. Das Nanosilber von Bio-Gate ist weltweit einzigartig und weist besondere Produkteigenschaften auf: Die winzigen Teilchen entwickeln extrem hohe Oberflächen und zeigen eine exzellente Wirkung gegen Bakterien und Pilze. Diese Aktivität besteht bereits bei kleinsten Mengen. Das Material lässt sich weitgehend problemlos in viele Werkstoffe einarbeiten, wobei keine zusätzlichen Trägerstoffe notwendig sind. In der Regel müssen bestehende Produktionsabläufe nicht umgestellt werden. Von großem Vorteil ist auch die gleichmäßige Verteilung der Partikel in den Werkstoffen. Die Anwendungsmöglichkeiten des Nanosilbers gehen weit über den Einsatz in Krankenhäusern und Arztpraxen hinaus. So entwickeln Bio-Gate und IFAM Werkstofflösungen, die auf die Bedürfnisse der Kunden maßgeschneidert sind. „Die antibakteriellen Eigenschaften sind für viele Produkte, besonders in hygieneintensiven Bereichen der häuslichen Pflege, in der Lebensmittelproduktion, im Haushalt und in der Kosmetik von Nutzen, beispielsweise in Textilfasern für Heftpflaster, Unterwäsche und Damenbinden oder als Werkstoff für Filter und Dichtungen“, erklärt Dr. Peter Steinrücke, Geschäftsführer von Bio-Gate, die vielen Optionen der Silberionen. Gerade auch Kleidung soll mit ihnen ausgerüstet werden. Die neue Hygienefaser könnte bei Neurodermitis helfen oder bei Berufskleidung vor unerwünschten Mikroben schützen. Da die textilen Fasern waschbeständig ausgestattet sind, lassen sich in Krankenhauswäschereien zudem Desinfektionsmittel einsparen. In den vergangenen Jahren wurde die Silbertechnologie vor allem in Japan intensiv verfolgt, zahlreiche Hygieneprodukte sind dort bereits mit Silber oder Silberverbindungen erhältlich. Auch in den USA ist ein eindeutiger Trend in diese Richtung, insbesondere bei Wundauflagen, erkennbar. Ebenso wie das Nanosilber zeigen auch Nanoschichten aus Kohlenstoff verblüffende Effekte. So hat NTTF – new technologies in thin films GmbH (Rheinbreitbach) – neuartige Beschichtungen im Nanometerbereich entwickelt. Gerade einmal 30 bis 40 Nanometer dünn sind die Lagen aus amorphem Kohlenstoff, die auf urologische Katheter aufgebracht werden. Sie verhindern offenbar sehr zuverlässig die Ausbildung von Anhaftungen, die als Bestandteile des Harns auf dem Instrument auskristallisieren (so genannte Inkrustationen) und schmerzhafte Verletzungen beim Herausziehen des Katheters verursachen. „Auch wenn wir den Effekt noch

96

nicht endgültig verstanden haben, so bewirkt der dünne Kohlenstoff-Film wahre Wunder. Auch nach dreimonatiger Liegezeit wurde an Patienten keinerlei Inkrustation festgestellt“, freut sich Heinz Busch, Geschäftsführer von NTTF.

Neuartiges Werkzeug zur Entwicklung von Diagnostika Um Viren und Bakterien geht es auch bei einer Entwicklung des Naturwissenschaftlichen und Medizinischen Instituts (NMI) der Universität Tübingen in Reutlingen. Die gezielte Manipulation und Analyse biologischer Nanopartikel, wie sie z. B. Viren und Bakterien darstellen, eröffnet neue Möglichkeiten unter anderem im Bereich geeigneter Diagnostika. Hierzu arbeitet das NMI zusammen mit den Partnern Evotec (Hamburg), Mediagnost (Reutlingen) und dem Fraunhofer-Institut für Biomedizinische Technik (IBMT, St. Ingbert) an einem komplexen Mikrofluidiksystem mit integrierten Anordungen (Arrays) von Elektroden zur dielektrophoretischen Manipulation von sub-μm Partikeln. Das System mit der Bezeichnung NanoVirDetect wird als Verbundprojekt vom BMBF gefördert. Derzeit wird es an biologischen Modellsystemen und realen Proben getestet. Das Mikrosystem ist geeignet, Manipulationen und Analysen an biologischen Nanopartikeln durchzuführen. Dazu wird eine Partikelsuspension durch Mikrokanäle gepumpt, an deren Wänden Mikro- und Nanoelektroden aufgebracht sind. Legt man an diese Elektroden eine hochfrequente elektrische Wechselspannung an, wirken dielektrophoretische Kräfte auf die Partikel. Auf diese Weise gelingt es, Mikro- und Nanopartikel anzureichern, sie bezüglich ihrer Größe zu trennen und sogar in einem so genannten Feldkäfig einzufangen. Das NanoVirDetect System soll als neuartiges Werkzeug bei der Entwicklung von Diagnostika helfen und zum Monitoring der Viruslast während der Therapie von entsprechenden Erkrankungen beitragen. Bevor es soweit ist, sind aber noch einige technologische Hürden zu überwinden. Dazu gehören 쑺 die Abtrennung biologischer Nanopartikel aus komplexen Gemischen wie Serum, 쑺 die typischerweise sehr niedrige Konzentration, die nachzuweisen ist und folglich sehr effektive Methoden zur Abtrennung und Anreicherung des Analyten erfordert, 쑺 die unspezifische Adsorption des Analyten an den Wänden des Mikrosystems, 쑺 die Entwicklung hochaffiner Antikörper und 쑺 die Erzeugung ausreichend hoher Kräfte auf die Nanopartikel im Feld nanostrukturierter Elektrodenarrays.

97

Nanotechnologie in aller Munde Ein strahlendes Lächeln ist eine gute Visitenkarte. Aus diesem Grund hat die Zahnkosmetikindustrie eine Reihe von Produkten auf den Markt gebracht, die das Weiß der Zähne wieder herstellen, ihre mikroskopische Struktur verbessern und sie dadurch gesund halten. Das physikalische Prinzip der verwendeten Reinigungstechnologie hat sich seit der Anfangszeit der Zahnkosmetik nicht geändert – der Schmutz wird abgeschliffen. Dabei handelt es sich zwar um eine Schleiftechnik auf höchstem Niveau, aber dennoch wird ohne Zweifel die Zahnoberfläche angegriffen. Glücklicherweise gehören der Zahnschmelz, chemisch betrachtet handelt es sich um Hydroxylapatit (HAP), und seine fluorierte Modifikation, der Fluorapatit, zu den härtesten Substanzen, die in der Natur vorkommen. Die Kristallstruktur des Hydroxylapatits weist eine natürliche Porosität auf. Sie ist der Grund dafür, dass sich z. B. beim Rauchen oder Teetrinken Farbstoffe einlagern können, die sich nur durch chemische Bleiche oder intensives Abschleifen der Zahnoberfläche wieder entfernen lassen. Bei einer Veranlagung zu besonders großen Poren sind die Zähne sehr kälte- und wärmeempfindlich und können schützende Hohlräume für Kariesbakterien bilden, die dann auch mit dem Schleifmittel der Zahnpasta nicht mehr abgetragen werden. Konnte die Bleichprozedur bis 2001 nur beim Zahnarzt durchgeführt werden, gibt es inzwischen auch chemische Mittel für den häuslichen Gebrauch – z. B. Bleichmittel-haltige Streifen –, die für eine bestimmte Zeit auf die Zähne geklebt werden („white stripes“). Eine Alternative besteht darin, optische Aufheller, wie sie in Waschmitteln eingesetzt werden, oder weiße Farbstoffe, die auch in Wandfarben enthalten sind, auf die Zähne aufzutragen – derartige Lösungen sind weit verbreitet. Der Markt für Zahnpflegeprodukte ist riesig: Allein die Aufwendungen für Zahnpasta werden derzeit weltweit auf 1,3 bis 1,6 Milliarden Dollar geschätzt. Weil sich jeder um seine Visitenkarte optimal kümmern möchte, gibt es eine Vielzahl von Pflegephilosophien, die durch noch mehr Produkte unterstützt werden. So gibt es Spezialpräparate gegen Plaque und Zahnstein, Pasten mit Wirkung gegen Karies, Paradentose und Zahnbelag, Raucherzahnpasta und Zahnpasta mit einformuliertem Mundwasser. Der Markt ist also bezüglich Marken und Produkten sehr stark fragmentiert – die eine Zahnpasta gibt es nicht. Allen Produkten gemeinsam ist aber ein Schleifmittel in etwa fünf bis zehn Gewichtsprozenten, das insbesondere nach Kosten/Wirkungs-Gesichtspunkten ausgewählt wird. Preisgünstige Zahnpasten enthalten Kalk als Schleifmittel, besonders stark abrasive Zahnpasta Kalziumphosphate, die auch als Kalziumquelle für die Remineralisierung von Zähnen dienen. Die qualitativ hochwertigen Produkte enthalten speziell oberflächenmodifizierte Silikatpartikel, die deutlich weicher sind als der Zahn, aber härter als der meiste Schmutz. Für die Emulgierung von Schmutz, insbesondere aber für das Schäumen werden Tenside eingesetzt, wobei es sich zumeist um Natriumlaurylsulfat (anionisches Tensid aus der Gruppe der Fettalkoholsulfate) handelt.

98

Um der Bildung von erweiterten Poren vorzubeugen, wurde eine Technologie vorgeschlagen, bei der beim Zähneputzen Fluorapatit und Apatit in die Poren ausgefällt wird. Damit sollen die Poren teilweise verschlossen werden. Sie hat sich bisher aber nicht durchgesetzt. Gegen Karies wird nach dem Stand der Technik Fluorid eingesetzt, das die Härte des Zahnschmelzes erhöht; es gibt mittlerweile aber auch Zahnpasta, bei der für den Menschen harmlose bakterizide Mittel im Mundraum verankert werden, die die Einlagerung von Bakterien verhindern. Wichtig ist zudem der Gelbildner, der nicht nur für die Handhabbarkeit, sondern auch für das Schaumvolumen und das -gefühl im Mund verantwortlich ist. Außerdem wird der schlechte Geschmack der Tenside und Polymere durch Geschmacksstoffe wie z. B. Sorbitol (Zuckeralkohol mit süßem, kühlen Geschmack, der auch in vielen Nahrungsmitteln mit reduziertem Kaloriengehalt verwendet wird) überdeckt.

Grundsätzlicher Technologiewandel bei der Zahnpflege Kein Zweifel, der Endverbraucher hat großes Interesse an der Zahnhygiene. So liegen Überlegungen nahe, modernste Forschung einzusetzen, um die Probleme zu lösen, die durch die Struktur des Zahnschmelzmaterials entstehen. Offenkundig sind Prinzipien der Nanotechnologie in der Lage, einen grundsätzlichen Technologiewandel bei der Zahnpflege herbeizuführen, woran unter anderem die BASF AG in Ludwigshafen intensiv arbeitet. Die Angriffe auf den Zahnschmelz und seine Schäden durch das Zähneputzen, die natürliche Veranlagung oder persönliche Gewohnheiten wie das Rauchen lassen sich nicht oder nur schwer aufhalten. Die Idee besteht darin, den angegriffenen Zahnschmelz aus Nanopartikeln, die in die Zahnpasta einformuliert sind, wieder aufzubauen. Auf diese Weise können große Poren verschlossen werden, das natürliche Zahnweiß wird wieder hergestellt und die durch das Schleifen angegriffene Zahnoberfläche wird restauriert. Die Apatitkristalle in Nanogröße, die hier eingesetzt werden, haben eine Oberfläche, die praktisch den gesamten Partikel ausmacht. Sie ordnen sich immer so an, dass sie mit der Umgebung die niedrigste Energie haben – und das ist im „Reich der Zwerge“ nicht die Kristallordnung eines Festkörpers, sondern ein aufgequollenes Gel. Dementsprechend muss auch weniger Kristallenergie beim Schmelzen aufgebracht werden, das heißt die Schmelz- und Sublimationstemperaturen liegen sehr viel tiefer – nur eine Besonderheit der Nanodomäne. Der hohe Energieinhalt der Kristallitoberfläche bietet auch die Möglichkeit von besonderen Reaktionen, z. B. des Verwachsens von Nanopartikeln unter Bildung eines Films, also einer dünnen, zusammenhängenden Schicht. Hergestellt werden solche Nanopartikel im so genannten Bottom-up-Verfahren, das heißt ausgehend von atomaren und molekularen Vorstufen. Die Partikel werden in einem Hydrothermalprozess, den die BASF seit der Herstellung der Chromoxid-

99

Magnetpigmente (z. B. für die Beschichtung von Audiokassetten) perfekt beherrscht, aus einfachen Chemikalien ohne Hilfsstoffe synthetisiert. Die Stabilität der Suspension hängt sehr stark von den Herstellbedingungen ab. Sie exakt zu kennen, ist wertvolles Know-how, das der BASF einen Wettbewerbsvorsprung sichert. Die Suspension kann sprühgetrocknet und mit geeigneten Hilfsmitteln redispergiert werden. Dass diese Idee kein Hirngespinst ist, konnte das BASF-Team unter Leitung von Dr. Ralf Nörenberg an echten Zähnen zeigen. Taucht man den Zahn in eine konzentrierte Suspension des nanoskaligen Hydroxylapatits und trocknet ihn danach, so erkennt man unter dem Elektronenmikroskop eine scharfe Grenze zwischen dem eingetauchten und dem nicht eingetauchten Teil des Zahns, der hier als Referenz dient. Die Struktur dieses Referenzabschnitts zeigt die Schädigung, die durch normales Zähneputzen hervorgerufen wird. Die Oberfläche des eingetauchten Teils unterscheidet sich dramatisch. Sie ist aufgrund der hohen Konzentration der Dispersion dominiert von Aggregaten der HAP-Nanopartikel und deren ungeordneten Strukturen. Die hohe Belegung zeigt, dass der Nanoapatit eine hohe Affinität zum Zahnschmelz hat. „Das machte uns zuversichtlich, dass wir auch aus verdünnten Formulierungen eine hohe Adsorption erreichen können“, erklärt Nörenberg. Um diese Zielsetzung anwendungsnäher zu untersuchen, wurde nanoskaliger Hydroxylapatit zu fünf Prozent in eine Zahnpasta einformuliert. Diese wurde im Verhältnis 1:10 verdünnt, dann mit einem Tuch auf den Zahn aufgetragen und mit Wasser abgerieben. Im Elektronenmikroskop sieht man deutlich, dass sich ein zusammenhängender dünner Film ausgebildet hat, der die Fehlstellen des Zahnschmelzes teilweise überdeckt. Für diesen überraschenden Befund ist offenbar die Selbstorganisation der Nanopartikel verantwortlich. Den größten Energiegewinn ergibt die parallele Anordnung dieser Teilchen – ein Bauplan, den auch die Natur zur Strukturbildung z. B. bei der Biomineralisation verwendet. Dass dieser Mechanismus plausibel ist, lässt sich anhand elektronenmikroskopischer Aufnahmen an Aggregaten auf Oberflächen zeigen. Die eingetrocknete Suspension zeigt ausgedehnte Bereiche, in denen eine dichte Packung der stäbchenförmigen Kristallite zu sehen ist. Geradezu atemberaubend aber ist, dass die Vergrößerung eine fast fehlerlose Anordnung solcher Stäbchen über mehrere Quadratmikrometer zeigt. Die Zahnkosmetikindustrie zeigt großes Interesse an der BASF-Entwicklung. In Ludwigshafen arbeitet man fieberhaft daran, diesen Effekt so umzusetzen, dass man dem Kunden eine echte Alternative zur derzeitigen Technologie anbieten kann. Die Vorteile sind bestechend: 쑺 Reparatur von Fehlstellen mit naturidentischem Material statt einer körperfremden Schicht im Mund. 쑺 Ausgleich des Zahnschmelzverlusts nach der Reinigung anstelle einer milden Zahnpasta mit geringerer Reinigungswirkung. 쑺 Weiße Zähne durch den Aufbau von neuem Zahnschmelz statt durch Abtrag.

100

Doch bei allem Optimismus gibt es noch eine Vielzahl von Fragen, die es zu klären gilt. Dazu zählen unter anderem: 쑺 Wie stabil ist die neu aufgetragene Hydroxylapatitschicht bezüglich der üblichen mechanischen Belastungen beim Beißen, Kauen und Zähneputzen? 쑺 Gelingt es, empfindliche Zähne innerhalb so kurzer Zeit unempfindlich zu machen, dass der Kunde den Effekt mit dem Gebrauch der Zahnpasta verbindet? „Wir stehen hier sicher noch an einem sehr frühen Zeitpunkt der Entwicklung. Dem Nachweis, dass eine Anwendung im Kosmetikbereich grundsätzlich möglich ist, stehen noch ungelöste Fragen gegenüber. Andererseits haben wir bereits Vorstellungen entwickelt, den nanoskaligen Hydroxlapatit auch in weiteren Anwendungen außerhalb der Zahnkosmetik einzusetzen“, so Nörenberg. Bei der BASF ist man zuversichtlich, mit dem nanokristallinen Hydroxylapatit ein Material in der Hand zu haben, das ein Potenzial für eine technologische Revolution in der Zahnpflege aufweist. Ähnliche Forschungen betreibt auch ein Wissenschaftler-Team der Forschungsgesellschaft SusTech Darmstadt und der Henkel-Gruppe, das auf Basis der Nanotechnologie den zahnverwandten Wirkstoff Nanit(r)aktiv entwickelt hat. Ansatzpunkt sind hier schmerzempfindliche Zähne, ein weit verbreitetes Problem in der heutigen Gesellschaft. Häufige Ursache sind freiliegende Zahnhälse, die entstehen, wenn das Zahnfleisch zurückgeht. Mit bioanalogen Nanocompositen werden von Grund auf neue Generationen von Zahnpflegeprodukten möglich: Winzig kleine Wirkstoffpartikel sorgen für einen naturidentischen Schutzfilm auf der Zahnoberfläche, der die Schmerzempfindlichkeit der Zähne deutlich verringert. Daneben ist Nanit(r)aktiv für eine Reihe weiterer Anwendungen denkbar und eröffnet neue Geschäftsmöglichkeiten.

101

Kapitel 5

Inspiration für Chemie und neue Materialien Schlüsselbranche für Nanowerkstoffe und -strukturen „Chemie ist die Naturwissenschaft, die sich mit dem Aufbau und der Umwandlung von Stoffen beschäftigt“, definiert der Brockhaus. Sowohl das innere Gefüge der Stoffe als auch ihre Wechselwirkung mit anderen basiert auf Atomen und Molekülen, deren Abmessungen grundsätzlich im Nanometerbereich liegen, auch wenn es gewaltige Unterschiede zwischen einem einzelnen Wasserstoffatom und einem im Vergleich dazu riesigen Makromolekül z. B. eines Kunststoffs gibt. Auf diese Weise hat die Chemie eine Art „natürliche Affinität“ zum Nanokosmos. Dabei stehen zwei Wege offen: Zum einen erzeugt Chemie Nanomaterialien, die sie an Anwender verkauft, zum anderen setzt dieser Industriezweig diese selbst wiederum in Systemen ein, um bestimmte Eigenschaften oder Funktionalitäten zu schaffen. So ist die Nanostrukturierung beispielsweise für Composite bzw. Verbundwerkstoffe, für das Feingefüge von Polymeren oder auch für ultradünne Schichten von großer Bedeutung. Deshalb ist die Chemie per se eine Schlüsselbranche für die industrielle Erschließung von Nanostrukturen, insbesondere, wenn es um kostengünstige Herstellungsverfahren geht“, konstatiert der Bericht des BMBF „Nanotechnologie in Deutschland – Standortbestimmung“. Schon heute basieren viele Produkte, wie Katalysatoren, Pigmente oder Dispersionen, auf der Herstellung von Teilchen, die kleiner als zehn nm sind. Die Nanotechnologie wird häufig als Erfindung unserer Zeit dargestellt. Das ist aber nur bedingt richtig, denn die chemische Industrie erzeugt derartige Produkte bereits seit Jahrzehnten, also schon bevor der neue Begriff überhaupt geprägt wurde. Dennoch sind ihre besonderen Eigenschaften eindeutig von Nanopartikeln bzw. -strukturen geprägt.

Polymerdispersionen – Nanoteilchen in Megatonnen Wenn man so will, war die so genannte Kolloidchemie ein Vorläufer des heutigen Booms. Allerdings hatte sie es schon immer schwer, ihre Bedeutung einem breiten Publikum zu vermitteln. Nicht umsonst hat sie Wolfgang Ostwald „Die Welt der

103

vernachlässigten Dimensionen“ genannt. Anlass dazu war die 1913 abgehaltene Einführungsvorlesung in die Kolloidchemie, als deren Mitbegründer der Sohn des deutschen Chemienobelpreisträgers Wilhelm Ostwald gilt. Ein Grund dafür dürfte darin liegen, dass der Bereich der Nanometer- und Mikrometerstrukturen damals messtechnisch schwer zu erreichen war. Heute gehört dieses Arbeitsgebiet ohne Zweifel zur Nanotechnologie, denn Teilchen in einer Größe zwischen fünf und 800 nm bestimmen hier das Geschehen – unter dem Ostwaldschen Blickwinkel ist die Nanowelt, überspitzt formuliert, nichts anderes als erweiterte Kolloidchemie. Was mit der „vernachlässigten Welt“ begann, hat inzwischen enorme wirtschaftliche Bedeutung: So schätzt die BASF das Marktvolumen für synthetische Nanopartikel, die im Tonnenmaßstab produziert werden, für 2002 auf 40 Milliarden Euro, wobei daraus hergestellte Systeme und Produkte in der Einführung noch nicht berücksichtigt sind. Den größten Wert erreichen dabei Polymerdispersionen mit 15 Milliarden Euro, gefolgt von Katalysatoren und Anorganischen Pigmenten mit jeweils zehn Milliarden Euro sowie organische Pigmente (vier Milliarden Euro) und so genannte Mikronisierte Compounds, wozu z. B. Vitamine in einer bestimmten wasserlöslichen Form gehören. Wässrige Polymerdispersionen (Dispersionen von feinverteilten Kunststoffen meist in Wasser) sind eine besonders vielseitige Produktklasse und bilden so mit einem Anteil von 37,5 Prozent das größte Stück der Torte bei den synthetischen Nanos. Als Dispersionen werden grundsätzlich Systeme aus mehreren Phasen bezeichnet, von denen eine das Dispergierungsmittel und mindestens eine weitere fein verteilt ist. Gebraucht werden sie für die Papierveredelung und für Fassadenfarben, für Etiketten- und Fliesenkleber, für Möbellacke, Faserformteile und die Kaschierung von Verbundfolien. Die BASF gehört zu den drei führenden Anbietern solcher Systeme, die größten Konkurrenten sind die Dow Chemicals Company (Midland, Michigan, USA) und DuPont (Wilmington, Delaware, USA). Schätzungen gehen davon aus, dass in 2002 etwa elf Millionen Tonnen wässrige Polymerdispersionen vermarktet wurden – auch Produkte, die sehr kleine Dinge enthalten, können also in gewaltigen Mengen vertrieben werden. Für die Bedeutung der Polymerdispersionen gibt es viele gute Gründe: So können sie trotz eines hohen Feststoffgehalts doch noch wasserdünn sein. Anders gesagt, die Viskosität (Zähigkeit) bei Dispersionen hängt nicht von der Molmasse der Polymere ab, die beträchtlich sein kann. Wie die Natur mit der zwei Meter langen DNA-Kette verfährt, haben Chemiker Möglichkeiten entwickelt, die Polymerketten zu falten und zu knäueln und so die Viskosität zu reduzieren. Polymerdispersionen sind einfach herstellbar und ermöglichen umweltfreundliche Produkte, weil sich Wasser als Dispergiermittel benutzen lässt und damit in vielen Anwendungen (Anstriche, Lacke, Klebstoffe) organische Lösungsmittel ersetzt werden. Über 98 Prozent der heute hergestellten Polymerdispersionen werden mit Hilfe der radikalischen Emulsionspolymerisation (Spezialverfahren, bei dem unlösliche

104

Kunststoffbausteine in Wasser verteilt und durch Initiatoren zum Kunststoff polymerisiert werden), einem einfachen und variablen Verfahren, erzeugt. Aus diesem Baukasten kreiert die chemische Industrie immer wieder neue Anwendungen. Nahezu 20 Prozent des deutschen Klinikpersonals sind inzwischen gegen Proteine in Latexhandschuhen aus Naturkautschuk allergisch. Heute ist es möglich, ersatzweise Polymerdispersionen ohne sensibilisierende oder allergieauslösende Proteinstabilisatoren herzustellen. In dieser wichtigen Eigenschaft sind die Erzeugnisse der Chemie sogar der Natur überlegen. Leider hat diese Option noch einen entschiedenen Haken: Bislang ist es der Chemie nicht gelungen, Naturkautschuk synthetisch so kostengünstig nachzustellen, dass der Gummibaum nicht mehr „gemolken“ werden muss. Eine wichtige Zielsetzung der Nanoforschung innerhalb der Chemiebranche ist das Bemühen, einen möglichst großen Feststoffgehalt in Dispersionen einzubringen, ohne an Verarbeitungsfähigkeit zu verlieren. Die Teilchengrößenverteilung (TGV) ist ein wichtiges Kriterium, den Feststoffgehalt über 60 Prozent hinaus zu erhöhen und doch niedrigviskos zu bleiben. Eine Möglichkeit, an der auch die BASF intensiv arbeitet, liegt darin, eine Mischung von einheitlich größeren und kleineren Teilchen zu verwenden. Diese bimodal genannten Dispersionen erlauben eine höhere Festkörperkonzentration, ohne dass sich die Teilchen berühren und so das Fließen verhindern. Eine neues BASF-Produkt für Haftklebstoffe nutzt diesen Effekt aus. Mit Computersimulationen, die in Kooperation mit der Universität Clausthal erstellt werden, sollen die günstigsten Teilchengrößenverteilungen ermittelt werden, um die Eigenschaften derartiger Systeme weiter zu optimieren.

Nanocomposite mit unterschiedlichen Morphologien Ein großes Betätigungsfeld für die Chemie sind auch Modifikationen auf Teilchenebene. So lassen sich sogar anorganische und polymere Nanoteilchen zu Nanocompositen verbinden. Auch dabei können unterschiedliche Morphologien (Formen) erzeugt werden, indem die anorganischen Teilchen auf die Oberfläche der Polymerteilchen oder auch in deren Inneres eingebaut werden. Auf diese Weise lassen sich transparente, zähe oder wasserdampfdurchlässige Filme erhalten. Produkte dieser Art werden gerade für eine Reihe von Anwendungen optimiert, z. B. als Primer für die Bauchemie und Beschichtungssystem für Leder. Setzt man metallisches Silber als anorganischen Bestandteil ein, lassen sich Schichten mit biozider Wirkung (abtötende Wirkung z. B. auf Bakterien, Pilze etc.) herstellen, bei denen das Biozid weder ausgewaschen noch ausgedampft werden kann. Derartige Lösungen benötigt man z. B. bei Hausanstrichen in Tropenländern. Weil unter den dort herrschenden Witterungsbedingungen bisher verwendete Biozide ausgelaugt werden, veralgen und vergrauen die Anstriche zur Zeit noch sehr schnell. Aufgrund des hohen Silberpreises wird das Metall möglichst sparsam eingesetzt.

105

Grundsätzlich kommen als Monomere für Polymerdispersionen Produkte und Folgeprodukte aus dem Steamcracker infrage. Der Crackprozess ist das übliche Verfahren in der Petrochemie, um Erdöl aufzuarbeiten und durch Anwendung von Hitze, Druck und Katalysatoren in verschiedene Fraktionen aufzuspalten. Hauptprodukte dabei sind Ethylen, Propen und Butadien (reaktives Monomer mit zwei Doppelbindungen) – Polymerdispersionen aus diesen Verbindungen waren aber bisher schwer zugänglich. So sind Polyethylendispersionen wirtschaftlich kaum erreichbar, weil man dazu extrem hohe Drücke braucht. Obwohl die BASF in einer kontinuierlichen Polymerisationsanlage Polyethylendispersionen bei 2.000 Atmosphären herstellt, wurden nur niedrige Molmassen und wachsähnliche Produkte erreicht, die ein entsprechend geringes Einsatzpotenzial aufweisen. Propen lässt sich überhaupt nicht radikalisch polymerisieren, und im Butadien bleiben so viele Doppelbindungen erhalten, dass die Gebrauchseigenschaften eingeschränkt sind. Keine gute Ausgangslage also. Dennoch ist es der BASF als erstem Chemieunternehmen gelungen, butadienhaltige Dispersionen zu hydrieren und so Polyolefinstrukturen in Dispersionen herzustellen. Butadienhaltige Dispersionen zeichnen sich durch hohe Bindekraft aus, haben aber den Nachteil, noch Doppelbindungen zu enthalten und dadurch lichtund temperaturempfindlich zu sein, das heißt sie vernetzen leicht. Deshalb verspröden und vergilben die Filme, entsprechende Dispersionen sind nur für Produkte mit kurzer Gebrauchsdauer wie Papier einsetzbar. Durch die Hydrierung kann man den Butadien-Dispersionen diese schlechten Eigenschaften aber „aberziehen“. In Ludwigshafen läuft eine kontinuierliche Pilotanlage zur Herstellung von Mustern aus diesen hydrierten Dispersionen. Einsatzmöglichkeiten für diese neue Stoffklasse liegen unter anderem bei Anstrichfarben und im Korrosionsschutz.

Neue Katalysatoren für getaktete Polymere Rund 98 Prozent der synthetischen Polymerdispersionen werden nach wie vor über radikalische Emulsionspolymerisation erzeugt. Doch jetzt gibt es zumindest im Labor eine Alternative, denn die BASF hat neue metallorganische Katalysatoren mit Zentralatomen aus Titan und Zirkonium, Eisen und Kobalt, Nickel und Palladium hergestellt, mit denen sich Dispersionen z. B. aus Propen, Buten und Kohlenmonoxid als Comonomere herstellen lassen. Diese Art der Polymerisation ermöglicht – anders als die radikalische Variante – die Herstellung von Taktizität in Polymeren. Darunter verstehen Chemiker die Regelmäßigkeit, mit der bestimmte Untereinheiten innerhalb der Hauptkette eines Polymermoleküls aufeinander folgen. Dabei ist die tatsächliche räumliche Anordnung ein wichtiges Kriterium. Die Taktizität ist deshalb so wichtig, weil dadurch neue Eigenschaften und teilkristalline Polymere erreicht werden. Teilkristalline Polymere können harte und weiche

106

Blöcke nebeneinander enthalten und so weiche, elastische Eigenschaften ermöglichen. Dabei gilt: Je höher die Taktizität, desto höher die Kristallinität, desto härter also das Material. „Auf diese Entwicklung sind wir schon ein wenig stolz, denn die bisher für Polyolefine entwickelten Katalysatoren sind an Luft instabil und Wasser können sie schon gar nicht vertragen“, erklärt Dr. Dieter Distler, bei der BASF verantwortlich für die Polymerforschung. Dabei bezeichnet der Sammelbegriff Polyolefine eine Gruppe von gradlinigen oder verzweigten Kunststoffen. Dennoch ist es den Spezialisten in Ludwigshafen zumindest im Labor gelungen, wässrige Dispersionen katalytisch herzustellen. Diese Arbeiten werden in enger Kooperation mit den Universitäten Freiburg, Tübingen, Heidelberg und Ulm durchgeführt. Der Chemiekonzern arbeitet aber auch mit innovativen Kunden eng zusammen. „Dadurch gelingt es uns, die Zeit zwischen erstem Labormuster und wirklich kommerziellem Einsatz zu verkürzen. Time to market ist für den Erfolg ein besonders wichtiges Kriterium“, so Distler. Katalyse ist ohnehin eine Nanodomäne. Auch im Kompetenzzentrum CC-Nanochem beschäftigt sich eine Arbeitsgruppe mit der Entwicklung und Anpassung nanoporöser Katalysatormaterialien für die Anwendung in Mikroreaktoren. Mit diesen Bauelementen erreicht der Trend zur Miniaturisierung auch das Chemielabor in Form von briefmarkengroßen Mischern, Reaktionsgefäßen und Wärmetauschern, die im Prinzip aus Plättchen mit haarfeinen Kanälen für Gase oder Flüssigkeiten bestehen. Der große Vorteil dieser Verfahren liegt darin, dass auch Reaktionen mit starker Wärmeentwicklung oder großem Wärmeentzug der Umgebung (exotherme oder endotherme Reaktionen) gezielter und sicherer geführt werden können. Das gilt sogar für chemische Umsetzungen, die in herkömmlichen Reaktionsgefäßen explosiv ablaufen würden und deshalb so überhaupt nicht durchgeführt werden könnten. Zudem lassen sich in der Regel wesentlich bessere Ausbeuten des gewünschten Produkts realisieren, weil kein wesentlicher Temperaturgradient (Temperaturunterschied) zwischen Innenteil und Außenwand auftritt, wie das bei größeren Reaktoren nahezu unvermeidbar ist. Mikroreaktoren waren anfänglich hauptsächlich Werkzeuge zur Untersuchung chemischer Reaktionen. Zunehmend finden sie aber jetzt auch Eingang in die Produktion, wobei die durchführbaren Umsetzungen sehr vielfältig sind. Reaktionen in Mikroreaktoren finden in der Regel in Kanälen mit einem Querschnitt von 30 bis 500 Mikrometern statt. Die Kanallängen liegen bei rund einem cm. Bei Mikroreaktoren der ersten Generation erfolgte die Kanalpräparation aus einem per se katalytisch wirksamen Material, z. B. aus Silber oder Nickel. Derartige Anordnungen sind aber auf den Einsatz mechanisch stabiler und dennoch katalytisch wirksamer Stoffe begrenzt, was die Reaktionsmöglichkeiten deutlich einschränkt. Deshalb wird eine neue, zweite Generation von Mikroreaktoren entwickelt, die mit definierten, nanostrukturierten Katalysatoren als Füllmaterial ausgerüstet sind und eine hohe innere Oberfläche für große Stoffdurchsätze aufweisen. Dies ermöglicht

107

den Einsatz einer breiten Palette von alternativen, komplex aufgebauten Reaktionsvermittlern. Dank der kombinatorischen Chemie kann die Auswahl dieser neuen nanoporösen Materialien deutlich gesteigert und systematisch durchgeprüft werden. Die angestrebte Funktion derartiger Mikroreaktoren erfordert die perfekte Beherrschung von Strukturen und vor allem von Grenzflächen der katalytisch aktiven nanokristallinen Materialien, die kalkulierbare und homogene Eigenschaften bei einem ausreichend schnellen Stofftransport besitzen. Von großer Wichtigkeit ist dabei die Stabilisierung gegen thermische Belastungen und gegebenenfalls eine Fixierung auf dem Träger der ausgewählten Katalysatoren. Im Kompetenzzentrum CC-Nanochem arbeiten verschiedene Partner in einem Verbundprojekt an diesen Problemen, wobei insbesondere die Gebiete neue Herstellungstechnologien, Analytik und Testverfahren verfolgt werden. Die Anwendungen von Polymerdispersionen sind heute schon unübersehbar vielfältig. So wirken sie z. B. dekorativ und gleichzeitig schützend gegen Witterungseinflüsse als Bindemittel in Anstrichen oder Putzen sowie als Beschichtung von Betondachsteinen. Werden sie weich und klebrig eingestellt, eignen sie sich als Haftklebstoffe für Etiketten oder Klebebänder. Sind sie dagegen hart und widerstandsfähig, erfüllen sie die Anforderungen an Bindemittel für Lacke oder machen Textilien wasch- und reinigungsbeständiger. Thermisch verformbar werden sie zur Herstellung von Vliesstoffen aller Art verwendet. Als Bindemittel für Papierstreichfarben ermöglichen sie eine brillante Qualität für unterschiedlichste Druckerzeugnisse. Weitere Einsatzgebiete sind unter anderem Beschichtungssysteme für Textilien, Holz bzw. Leder sowie Modifizierungsmittel für Mörtel, Beton und Asphalt.

Organische Metalle – eine ganz neue Werkstoffklasse Als Ende der 70er-Jahre des letzten Jahrhunderts Hideki Shirakawa, Alan G. MacDiarmid und Alan J. Heeger an der Universität von Pennsylvania (Philadelphia) das erste von sich aus leitfähige Polymer (mit Jod „dotiertes“ Polyacetylen) entdeckten, stürzte sich die Wissenschaftsgemeinde mit großer Euphorie auf das Thema. Fachleute wie Medien glaubten, dass in kürzester Zeit eine ganze Reihe von praktischen Anwendungen erfolgen würden: Von der superleichten Autobatterie bis zum chemischen Speicher für Solarenergie reichten die Träume. Zahlreiche Institute und Großkonzerne wie BASF und Hoechst, IBM oder General Electric versuchten sich an der Herausforderung, die schwierige Materie in die Anwendung zu bringen. Vor allem die leichte Kunststoffbatterie beflügelte die Phantasie vieler, die sich einen Durchbruch für das saubere Elektroauto erhofften. Zwar erhielten die drei Forscher aus Philadelphia 2000 den Nobelpreis für Chemie, doch zu diesem Zeitpunkt waren die hochfliegenden Pläne der Industrie längst verflogen, selbst die ausgezeichneten Wissenschaftler hatten sich schon länger neuen Aufgaben zugewandt. Die neuen Werkstoffe waren instabil, zudem unlöslich und nicht schmelz-

108

bar – sie verhielten sich eben nicht wie herkömmliche Kunststoffe und konnten auch mit chemischen Tricks nicht dazu gebracht werden. Nur ein deutscher Mittelständler hielt hartnäckig an seiner Entwicklungsstrategie fest, die sich von Anfang an seit 1978 wesentlich von den Konzepten der Goliaths der Chemiebranche unterschieden hatte. Diese hatten darauf gesetzt, eine Verarbeitung der leitfähigen Polymere auf Basis von Löslichkeit oder Schmelzbarkeit zu erreichen. Doch eine Verbesserung dieser beiden Eigenschaften ging immer wieder zu Lasten der Leitfähigkeit und Stabilität – oder umgekehrt. Gegen Ende der 80er-Jahre führten die ungelösten Probleme, das widerspenstige Material auf einen gangbaren Verarbeitungspfad zu zwingen, zu einer Ernüchterung bei den beteiligten Arbeitsgruppen – die Forschung in diesem Feld begann zu stagnieren. Bei dem engagierten „David“ handelt es sich um die Ormecon Chemie GmbH & Co. KG aus Ammersbek, eine 100-prozentige Tochter von Zipperling Kessler & Co (Ahrensburg), in der über 15 Jahre lang die Grundlagenforschung betrieben wurde. Vor sieben Jahren setzte Dr. Bernhard Weßling, geschäftsführender Gesellschafter der Zipperling Kessler und Geschäftsführer von Ormecon, alles auf eine Karte. So wurde der glänzend laufende Compoundierbereich der Muttergesellschaft Zipperling Kessler & Co mit über 100 Millionen Mark Umsatz – den er selbst mit aufgebaut hatte und der zuletzt knapp 300 Mitarbeiter beschäftigte – an das Schweizer Chemieunternehmen Clariant verkauft. Polymercompounds sind verarbeitungsfähige Mischungen von Polymeren mit allen Additiven wie z. B. Flammschutzmitteln, Füllstoffen oder Weichmachern. Mit dem Erlös wurde das Grundkapital auf zwölf Millionen Mark erhöht, sodass die weiteren Forschungsarbeiten und die Markteinführung der neuen Produkte zunächst zu 100 Prozent aus eigenen Mitteln finanziert werden konnten – sicherlich außergewöhnlich für ein kleines Privatunternehmen. Im Februar 2003 schloss Ormecon dann aber doch einen Investment-Vertrag mit Venture-Kapitalgebern, die eine Minderheitsbeteiligung in Höhe von 7,5 Millionen Euro an dem jetzt als Ormecon GmbH firmierenden Unternehmen erworben haben. Die Investition wurde von der SAM Equity Holding (Zürich), der Future Capital AG (Frankfurt a.M.) und CDP Capital Technology Ventures (Montreal, Kanada) getätigt und soll Ormecon zu einem schnelleren Wachstum verhelfen. „Innovative Materialien sind eines der interessantesten Gebiete der Nanotechnologie, weil sie von marktfähigen Anwendungen oft nicht mehr weit entfernt sind“, urteilt Christian Schmidt-Maag, Inhaber der Investmentfirma Capital Stage (Hamburg). Die Weßling-Crew setzte von Ende der 1970er-Jahre an auf ihren eigenen Weg. Die Alternative besteht darin, das leitfähige Material (Polyanilin) in einem geeigneten Medium zu dispergieren. Dabei handelt es sich nicht um einfaches Verteilen oder Einmischen von Teilchen, vielmehr zerteilt man Agglomerate und erzeugt damit große Oberflächen, die zwischen 50 und 300 Quadratmeter pro Kubikzentimeter erreichen. Diese müssen wiederum durch das Dispersionsmedium benetzt werden. Die Dispersionstechnik wurde ebenso ständig weiter verbessert wie die Strukturauf-

109

klärung. Der Naturwissenschaftler Weßling beschäftigt sich seit nunmehr 25 Jahren mit leitfähigen Polymeren. Unerbittlich ist er dem Geheimnis dieser ungewöhnlichen Chemie auf der Spur, die bisher in keinem Lehrbuch zu finden ist. Das mittelständische Unternehmen vom Hamburger Stadtrand ist weltweit das einzige, das Polymere kommerziell herstellt und vertreibt, die echte „organische Metalle“ sind. „Unsere Verbindungen sind weder Kunststoffe noch Metalle im gewöhnlichen Sinn, sondern gleichzeitig Kunstoff, Metall und Katalysator. Sie bieten also Eigenschaften, die es in dieser Kombination bei keinem anderen Material gibt“, so Weßling. Der Dispersionsansatz hat ihm zunächst nicht viel Anerkennung eingebracht, die Reaktionen der Kollegen reichte von großer Skepsis bis zur offenen Ablehnung. Trotzdem blieb Weßling seiner Überzeugung treu und hat seine Ziele erreicht. Seine Produkte sind nun dabei, wichtige Aufgaben bei der Lösung zahlreicher technischer und ökologischer Probleme zu übernehmen. Der erste Vertreter der organischen Metalle, das Poly-Phenylenamin (kurz auch als PAni bezeichnet), wird seit 1996 nach über 15 Jahren Grundlagenforschung unter dem Handelsnamen ORMECON in den Weltmarkt eingeführt. Organische Metalle sind Polymere, die einige für Metalle charakteristische Eigenschaften aufweisen. Im Unterschied zu konventionellen Metallen treten noch Nanoeffekte auf. So hat die umfangreiche Forschung von Ormecon nachgewiesen, dass alle Primärpartikel der verschiedenen leitfähigen Kunststoffe – neben PAni auch Polypyrrol, verschiedene Polythiophene, Polyperinaphthalin, Polyphthalocyanine oder Polyparaphenylen – einen Durchmesser von deutlich unter 20 nm aufweisen. „Bei PAni konnten wir sogar zehn nm Größe nachweisen“, so Weßling. Derartige Teilchen bilden ab kritischen Konzentrationen in der Dispersion spontan feinste Ketten und Netzwerke. Sie sind zudem von einer 15 bis 20 nm dicken monomolekularen adsorbierten Schicht des Matrixpolymers umgeben, die an den Kontaktstellen desorbiert und den Elektronenübergang ermöglicht. Überraschend war dabei die Erkenntnis, dass der Elektronentransport im pulverförmigen Rohstoff vor der Dispersion eher dem eines Isolators ähnelt, nach der Dispersion in einer thermoplastischen Matrix aus PVC, Polyester oder PMMA sich aber eindeutig metallisch verhält. Der Metallcharakter von PAni zeigt sich darin, dass es über freie Elektronen in einem metallischen Leiterband verfügt. Ihr Transport ist allerdings auf die Größe des Primärpartikels beschränkt, von Partikel zu Partikel vermögen sie sich aufgrund des Tunneleffekts zu bewegen. Somit bestimmt die Teilchengröße wesentlich die Leitfähigkeit, ganz so wie bei nanokristallinen Metallen. Polyanilin ist aufgrund seiner Stellung in der Spannungsreihe eines der edleren Metalle, es steht zwischen Kupfer und Silber. Darüber hinaus hat PAni besondere Merkmale: Im Gegensatz zu allen anderen Metallen kann es nicht nur oxidiert, sondern auch reduziert werden. Anders als bekannte Metalle verliert es dabei aber nicht seine Form, sondern ändert nur seinen Oxidationszustand und büßt dabei (wie auch Kupfer oder Eisen) seinen metallischen Charakter ein.

110

Wie schon angedeutet, besteht das Problem der organischen Metalle darin, dass sie nicht schmelzbar und nicht löslich, also mit metallurgischen oder Kunststoffverarbeitungsverfahren nicht verarbeitbar sind. Die Leistung von Ormecon ermöglichte es, diese Schwierigkeit zu überwinden, auf chemischem Wege eine dispergierbare Form des Poly-Phenylenamins herstellbar zu machen sowie Dispersionsmethoden und Formulierungen zur Applikation des neuen Stoffs zu entwickeln. Inzwischen bietet das Unternehmen eine ganze Reihe unterschiedlicher Produkte kommerziell an. Dazu zählen innovative Lösungen zur Leiterplattenfertigung und zum Korrosionsschutz – insgesamt Märkte, die nach Angaben von DuPont (Wilmington, Delaware, USA), dem größten Chemiekonzern der USA, zwischen neun und 15 Milliarden Dollar pro Jahr umsetzen. Auch bei der Herstellung von OLEDSystemen spielen Materialien aus Ammersbek eine wichtige Rolle. (Nähere Angaben zu diesen Einsatzgebieten im Umweltschutz finden Sie in Kapitel 9 bzw. für die optische Anwendung in Kapitel 7). Inzwischen kann Ormecon wichtige Kooperationen vorweisen. Schon vor fünf Jahren begann eine Zusammenarbeit mit DuPont. Die Amerikaner wollten den Bereich der leitfähigen Polymere als Zukunftsmarkt mit großen strategischen Aussichten erschließen und mussten die Geschichte vom Hasen und Igel nachvollziehen: Das gesamte Umfeld war bereits von Ormecon mit über 200 Patenten abgesteckt. Gerade die Tatsache, dass die Deutschen bereits marktfähige Produkte vorweisen konnten, führte zu einem Lizenzabkommen. Seit 2001 bestehen entsprechende Verträge auch mit der Bayer AG (Leverkusen), dem Unternehmen Panipol (Porvoo, Finnland), das leitfähige Polymere herstellt, und der Covion Semiconductors GmbH (Frankfurt a.M.) im Bereich der OLEDs und Avecia (Manchester, GB) für Polymerelektronik.

Wenn Weißmacher durchsichtig werden Lacke oder Farben, Synthesefasern, Kunststoffe und Papier – wann immer diese so unterschiedlichen Materialien ein weißes Gewand tragen, ist Titandioxid (TiO2) im Spiel. Die mit Abstand technisch bedeutendste Verbindung des edlen Metalls mit Sauerstoff ist der Weißmacher schlechthin. Pigmente dieser Art gelten inzwischen sogar als zuverlässiger Wohlstandsindikator: Je höher ihr Verbrauch, desto moderner die Volkswirtschaft. Seit rund 40 Jahren werden große Mengen des begehrten Pulvers auch bei der Sachtleben Chemie GmbH, einer Tochter der Rockwood Specialties Group, Inc. (Princeton, New Jersey), in Duisburg-Homberg hergestellt. Sachtleben ist schon seit über 120 Jahren im Chemiegeschäft tätig und hat sich vor allem auf Nischen mit hoher Wertschöpfung spezialisiert. Dazu zählen auch Nanopartikel auf Basis von Titandioxid. Sie machen besonders deutlich, welche Effekte allein durch die Partikelgröße zustande kommen. In „normaler Größe“ (300 bis 500 nm) wird die Verbindung als Weißpigment genutzt, in

111

der Zwergenausführung, also Kristallitgrößen zwischen drei und fünf nm, zeigen sie deutlich geänderte physikalische und chemische Eigenschaften. Im Gegensatz zu ihren „großen Brüdern“, den Pigmenten, reflektieren sie kein sichtbares Licht, sondern sind transparent. So wirkt nanoskaliges Titandioxid als unsichtbare, physikalische Barriere für UV-Strahlung und eröffnet so innovative, ungeahnte Möglichkeiten, Schäden durch aggressives Licht zu verringern. Die energiereiche Ultraviolettstrahlung ist durch kürzere Wellenlängen charakterisiert als das sichtbare Licht, das zwischen 400 und 800 nm mit dem menschlichen Auge wahrgenommen wird und nur einen kleinen Ausschnitt aus dem weiten Spektrum elektromagnetischer Wellen darstellt. Der Schutz vor der unerbittlichen Wirkung unseres Zentralgestirns ist nur eine Option, die Anwendungsbereiche der TitandioxidNanopartikel sind deutlich breiter gefächert – ob für den Life-Science-Sektor, die Biotechnologie, Pharma- oder Kosmetikindustrie, ob für die Farben- und Lackindustrie, die Automobilbranche, für Möbelhersteller oder sogar für Kohlekraftwerke, das nanofeine Titandioxid bietet immer neue Einsatzmöglichkeiten. In der Tat ist es wichtige Grundlage für die neueste Generation von effizienten Sonnenschutzpräparaten der kosmetischen Industrie. Sachtleben kooperiert hier bereits seit mehreren Jahren exklusiv mit der Merck KGaA in Darmstadt. „Für unser Unternehmen gehört dieses spannende Gebiet der Nanotechnologie zu den Schlüsseltechnologien, bei denen wir in Zukunft überproportional wachsen wollen“, erklärt Professor Thomas Schreckenbach, zuständiges Mitglied der Geschäftsleitung. Merck hat auf Basis der nanoskaligen Titandioxid-Pulver die Eusolex®-TProduktlinie entwickelt. Die Effizienz eines kosmetischen Sonnenschutzes wird im wesentlichen durch den Typ und die Menge des UV-Absorbers geprägt. Dabei stehen mineralische UV-Filter, wie die Eusolex® T-Produkte, immer mehr im Mittelpunkt des Interesses. Im Gegensatz zu organischen UV-Absorbern werden diese mineralischen Filter nicht von der Haut aufgenommen und zeichnen sich deshalb durch eine besonders gute Hautverträglichkeit und hervorragende Stabilität aus. Das exklusive Herstellungsverfahren in der so genannten Nanotec-Anlage von Sachtleben ermöglicht die enge Partikelgrößenverteilungen im Bereich von zehn bis 15 nm der Eusolex-Produkte. Die Primärkristalle der Mikrorutile (Titandioxid kristallisiert in drei verschiedenen Modifikationen, darunter in den beiden tetragonalen Formen Anatas und Rutil, die auch technisch wichtig sind) können sich stäbchenförmig zusammenlagern und erreichen dann Ausdehnungen von bis zu 100 nm. Die Streuung des sichtbaren Lichts durch die Sekundärpartikel ist dabei so gering, dass für den Betrachter die Formulierung mit dem nanofeinen Titandioxiden transparent erscheint, was für die kosmetische Industrie einen enormen Vorteil gegenüber Konkurrenzprodukten bedeutet. Auch um die Schönheit sorgen sich die Darmstädter. So haben sie flache Nanopartikel aus Glimmer mit dünnsten Schichten aus Titan- und Eisenoxid überzogen, die zwischen 60 und 240 Nanometer dick sind. Sogar mehrlagige Systeme lassen sich herstellen. Im Ergebnis entstehen so genannte Perlglanz-Pigmente, die nicht

112

nur in Automobillacken, sondern auch für Kosmetikfarben verwendet werden. „Dabei entscheidet die Filmdicke über die Farbe, mehrere Schichten erzeugen besondere optische Effekte, wobei sich die Farbe z. B. abhängig vom Betrachtungswinkel verändert“. Besonders interessant gerade für kosmetische Anwendungen ist die Verbindung Wismutoxichlorid, das selbst ein Glanzpigment ist. Doch die rosenartigen Kristalle wirken zudem mattierend, erhöhen die Haftung und erzeugen ein besonders gutes Gefühl auf der Haut. Vor allem die letzte Eigenschaft ist ein exzellentes Verkaufsargument. Auch kugelförmiger „Sand“ mit sehr kleinen Abmessungen, so genanntes Ronasphere-Siliziumdioxid, vermittelt ein gutes Feeling auf der Haut. Wenn dieses Material zusätzlich mit Eisen- oder Titanoxid beschichtet wird, kann es als „Füllstoff“ dienen, um Falten zu verdecken. Die Wirkung beruht auf einem optischen Effekt: Die Kugeln in den Vertiefungen verursachen eine diffuse Reflektion, was die Falten weniger sichtbar macht. Zudem erzeugt die Beschichtung eine durchaus erwünschte Mattierung. Große Kosmetikfirmen, wie Dior und L’Oreal, die zu den besten Kunden von Merck gehören, setzen derartige Nanos in verschiedenen Produkten ein. Sonnenschutz ist keinesfalls nur ein Thema für die empfindliche menschliche Haut. Auch viele Gebrauchsgegenstände zeigen beim ständigen Bombardement mit Sonnenstrahlen Wirkung, der man mit Nano-Titandioxid begegnen kann. So absorbiert es auch in Holzschutzmitteln energiereiches UV-Licht und wirkt so dem Ausbleichen und Vergilben entgegen. Der für Holz und deren Anstrichstoffe kritische Bereich liegt zwischen 315 und 350 nm. Da erst Wellenlängen unterhalb von 315 nm durch Fensterglas absorbiert werden und auch von künstlichen Lichtquellen schädigende Strahlen ausgehen, kommt es zu kontinuierlichen Veränderungen des Holzes und der Anstrichstoffe. An vielen Gegenständen des täglichen Lebens, wie z. B. an Naturholzmöbeln, Küchenfronten oder Parkett, ist dieses „Phänomen“ in Form von Vergilben oder Nachdunkeln zu beobachten. Entsprechende Schutzprodukte bietet Sachtleben unter der Bezeichnung Hombitec® an. Eine spezielle Oberflächenbehandlung der Nano-Partikel in Beizen oder Klarlacken verleiht dem behandelten Holz eine warme Nuance. Modifizierte Möbellacke können Abweichungen in der Holzmaserung und Holzfärbung kaschieren. Seit neuestem wird dieser UV-Schutz auch für Lebensmittel-Folien und hochwertige Synthesefasern eingesetzt. Gute Transparenz, keine Migrationsgefahren sowie das sehr gute Absorptionsverhalten zeichnen diese Systeme aus. Insbesondere für den UV-Schutz im Bereich Verpackung ist dieses Eigenschaftsprofil unerlässlich. Erreicht wird die außerordentliche Leistungsfähigkeit durch ein gezieltes Modifizieren der Nanopigmente an die speziellen technischen Forderungen (UV-Absorption, Transparenz) in diesem speziellen Anwendungsgebiet. Sowohl die Effektivität als auch die Transparenz des Gesamtsystems sind stark von der Dispergierung des Nanopigments im Polymer abhängig. Deshalb hat Sachtleben eine angepasste organische Nachbehandlung entwickelt, die dem Anwender ein leichtes Einarbeiten und eine ausgezeichnete Dispergierung des Pigments in Polyolefinen oder

113

PVC ermöglicht. Wie alle anorganischen Titandioxid-Mikrokristalle, sind auch diese Systeme in den gängigen Polymeren unlöslich und zeigen daher auch keinerlei Migration. Aber die transparenten Nano-Titandioxide können noch mehr: Durch selektive Blaulichtstreuung setzen sie aufgrund des so genannten Flip-Flop-Effekts farbige Akzente z. B. in der Lackierung von Automobilen. Die vielseitigen Nanopartikel sind auch für eine ganze Reihe von katalytischen Prozessen bestens geeignet. So optimieren sie unter anderem die Zersetzung von Stickoxiden in Kraftwerken und Automobilen. In der synthetischen industriellen Chemie katalysieren sie den Aufbau komplexer organischer Systeme. Als effektiver Photo-Katalysator wird ein Produkt für Abbaureaktionen z. B. in der Wasseraufbereitung eingesetzt, die von UV-Licht induziert werden.

Die Erfolgsstory vom Sand Im Bereich der Nanochemie tummeln sich neben den ganz Großen wie der BASF aber auch innovative Mittelständler, zu denen sicher die hanse chemie in Geesthacht zählt, die Anfang 2003 zur ersten Aktiengesellschaft in dem kleinen Elbort bei Hamburg umgewandelt wurde. Das weltweit tätige Unternehmen mit rund 90 Mitarbeitern stellt seit 1987 hochwertige Produkte in den Arbeitsgebieten Material- und Werkstofftechnologie her und kooperiert dabei eng mit dem benachbarten Forschungszentrum GKSS. Letzter Coup ist die Entwicklung eines chemischen Verfahrens zur Erzeugung von Dispersionen aus Nanopartikeln und Kunstharzen im industriellen Maßstab. „Diese Nanopartikel sind chemisch betrachtet nichts weiter als Sand“, erklärt Hermann Block, Vorstandsmitglied der hanse chemie. „In Werkstoffe eingebracht, haben diese jedoch eine revolutionäre Wirkung. Kratzfeste Möbel, Autos oder Brillengläser sind nur einige der möglichen Anwendungsgebiete unserer Nanoprodukte“, so der Chemiker. Unter dem Warenzeichen Nanocryl vertreibt hanse chemie eine neue Klasse von kolloidalen Siliziumdioxid-Dispersionen in ungesättigten Acrylaten. Diese Harze der besonderen Art basieren auf herkömmlichen Acrylat-Monomeren und Oligomeren, die mit synthetischem Siliziumdioxid modifiziert sind. Die SiO2-Nanopartikel haben einen Durchmesser von unter 50 nm und eine extrem schmale Größenverteilung. Die winzigen Teilchen bilden keine Agglomerate und verteilen sich homogen. Deshalb sind die Nanocryl-Harze hoch transparent (der Sand ist kleiner als der Wellenlängenbereich des sichtbaren Lichts), niedrigviskos und weisen selbst dann keine Sedimentation auf, wenn der Sandgehalt über 50 Prozent beträgt. Somit werden die vorteilhaften Eigenschaften von anorganischen und organischen Materialien nahezu perfekt kombiniert, wobei das Siliziumdioxid sowohl als Performance-Additiv als auch als Füllstoff wirkt.

114

Insgesamt resultieren daraus eine Reihe von bemerkenswerten Eigenschaften, die direkt mit dem nanoskaligen Sand zusammenhängen. Dazu zählen 쑺 die beträchtliche Steigerung der Oberflächenhärte, der Kratz- und Abriebfestigkeit; 쑺 die Verbesserung der mechanischen Merkmale wie Zähigkeit, Steifigkeit, Schlagund Scherfestigkeit bei unveränderter Wärmeformbeständigkeit; 쑺 gesteigerter Flammschutz und 쑺 die verbesserte elektrische Isolierung und thermische Leitfähigkeit. Bei all diesen Vorteilen bleiben die positiven Eigenschaften des ausgehärteten Basisharzes weitgehend unverändert erhalten. Dazu gehören insbesondere die Temperatur- und Witterungsbeständigkeit sowie die Chemikalienresistenz. Auch die Verarbeitbarkeit und die Aushärtungsgeschwindigkeit verschlechtern sich nicht durch den Sandzusatz. Ein ganz ähnliches Eigenschaftsspektrum erreicht die hanse chemie auch bei einer zweiten Produktgruppe mit dem Namen Nanopox. Diese Composite bestehen aus Epoxidharzen und wiederum SiO2-Nanoteilchen, die ganz ähnlich wie bei den Acrylaten aus oberflächenmodifizierten Kügelchen von weniger als 50 nm Durchmesser und geringer Teilchengrößenverteilung gebildet werden. Diese Harze eignen sich für Faserverbundwerkstoffe, insbesondere für Elektro- und Konstruktionslaminate, für lösemittelfreie Beschichtungen, Klebstoffe sowie Elektro- und Elektronikgussmassen. In Geesthacht wird im industriellen Maßstab gedacht, immerhin 300 Tonnen pro Jahr kann die hanse chemie produzieren. Damit hat man an der Elbe durchaus den Weltmarkt im Visier, erste ernsthafte Interessenten aus den USA haben sich schon gemeldet. Dabei will man sich aber nicht mit den großen Massenproduzenten messen, sondern setzt auf kundenspezifische Lösungen, die in relativ kleinen Mengen nachgefragt werden. Ein großes Einsatzfeld hierbei könnten z. B. maßgeschneiderte Industriekleber werden, die durch die Sandbeimischung zäher werden, deshalb besser kleben und zudem hitzebeständiger sind. Gerade beim Einsatz verschiedener Werkstoffe wird das Kleben immer wichtiger. Epoxidharze sind so eine optimale Lösung für Kohlefaserverbundwerkstoffe, wie sie unter anderem im Flugzeug-, aber auch im Sportwagenbau immer mehr an Bedeutung gewinnen. Auch eine neue Parkettlackierung, die mit UV-Licht gehärtet wird, könnte zum Hit werden. Sie trocknet statt in Stunden in Minutenschnelle, setzt keine Lösemittel frei und bietet eine konkurrenzlos harte Oberfläche. Innovative Ideen sind offenbar erfolgreich, deshalb hat die hanse chemie ihre Kapazitäten auf inzwischen 600 Tonnen erweitert. 2005 wurden bereits 100 Tonnen verkauft, 2006 sollen es dann schon 250 Tonnen sein. Zum ersten Januar 2006 hat das Unternehmen die Nanoaktivitäten in eine eigene Aktiengesellschaft unter dem Namen Nanoresins AG eingebracht. Mit diesem Schritt konnte eine Investorengruppe gewonnen werden, die

115

mehr Geld für Forschung und Entwicklung bereitstellt. Bis 2010 soll der Umsatz auf 100 Millionen Euro steigen – kein utopisches Ziel bei Wachstumsraten von über zehn Prozent pro Jahr.

Nanostrukturen mit Lotus-Effekt – Bausteine für superhydrophobe Beschichtungen Nanotechnologie ist immer dann besonders interessant, wenn es gelingt, bisher unerreichte Eigenschaften und Funktionen über die Teilchengröße zu realisieren. Während chemische Eigenschaften, wie z. B. biologische Wirksamkeit, Geruch, Geschmack, Farbe, Reaktivität etc., auf die Merkmale von einzelnen Molekülen zurückzuführen sind, werden Materialcharakteristika, wie z. B. Härte, Zähigkeit, Flexibilität oder Hydrophobie, von Molekülverbänden und Strukturen im Nanometerbereich bestimmt. Ein schönes Beispiel hierfür ist der Lotus-Effekt, der auf der geschickten Kombination hydrophober Materialien und Oberflächenstrukturen beruht. Eigentlich ging es – völlig zweckfrei – um systematische Botanik. Mehr als 10.000 Pflanzenarten untersuchte Professor Wilhelm Barthlott von der Universität Bonn mit dem Raster-Elektronenmikroskop, um Gemeinsamkeiten und Unterschiede vor allem in der Oberflächenbeschaffenheit zu entdecken. Unter die leistungsstarke „Lupe“ geriet auch der Lotus. Der gilt in Asien als heilig, als Symbol der Reinheit. Seine großen schildförmigen Blätter sind stets makellos sauber. Wasser perlt von ihnen ab wie von einer heißen Herdplatte, dabei werden Staub und Schmutz mitgerissen. Dank der mikroskopischen Arbeiten konnte Barthlott zusammen mit Dr. Christoph Neinhuis die Mikrostrukturen erkennen und ihre Wirkung erklären – den so genannten Lotus-Effekt, den unter anderem auch Kohlrabi und Kapuzinerkresse zeigen. Gegen landläufige Meinungen sind die selbstreinigenden Flächen nicht besonders glatt, sondern im Gegenteil rau, wenn auch nur im Bereich winzigster Strukturen. Aufgebaut ist diese Berg- und Talstruktur, auf der Dreckpartikel keinen längeren Halt finden, aus Wachskristallen, die zudem wasserabweisend (hydrophob) sind. Der Lotus-Effekt, benannt nach der Lotus-Blüte und von Barthlott und seinem Team technisch nutzbar gemacht, vereinigt zwei wesentliche Eigenschaften: die Superhydrophobie und die Selbstreinigung. Die Superhydrophobie zeigt sich in einem extrem wasserabweisenden Verhalten. Wassertropfen auf einer entsprechenden Oberfläche bilden runde Perlen und rollen schon bei geringster Neigung von ihr ab, ohne Wasserspuren zu hinterlassen. Die Kontaktwinkel sind deutlich größer als 140°, in extremen Fällen können sogar 170° erreicht werden. Die Superhydrophobie bewirkt, dass Oberflächen selbst bei einem Regenschauer trocken bleiben. Schmutzpartikel wie z. B. Staub oder Ruß werden von den abrollenden

116

Wassertropfen aufgenommen und so von der Oberfläche entfernt – die perfekte Selbstreinigung. Botaniker Barthlott erhielt für seinen detektivischen Spürsinn an den Blattoberflächen 1999 den renommierten Philip-Morris-Forschungspreis und im selben Jahr auch den Deutschen Umweltpreis. Nach umfangreichen analytischen Arbeiten konnte er die chemisch-physikalischen Zusammenhänge entschlüsseln und einen technischen Prototypen mit Lotus-Effekt realisieren. Er ist Inhaber eines Basispatents und der Marke Lotus-Effekt®, das heißt alle Nutzer müssen Lizenzgebühren an den findigen Professor entrichten.

Doppelte Struktur gegen den Schmutz Wie kommt es nun zu den ungewöhnlichen Eigenschaften der Lotus-Pflanze? Wie schon erwähnt, ist Rauheit und nicht Glätte der Schlüssel zum Erfolg. Auf ihren Blättern sind im mikroskopischen Bereich mehrere aufeinander aufbauende Strukturebenen vorhanden. Der Wachsüberzug der Blätter (Cuticula) hat Noppen, die fünf bis zehn Mikrometer (μm) hoch und zehn bis 15 μm voneinander entfernt sind. Auf dieser Struktur ist eine weitaus feinere Nanostruktur realisiert. Wachskristalle mit Durchmessern von ca. 100 nm überziehen die Noppen und auch die Räume zwischen den Noppen. Die Wachse sind chemisch nicht einheitlich, sondern Mischungen verschiedener hydrophober Pflanzenwachse mit einer eingebauten Steuerung des Kristallwachstums. Obwohl der Lotus-Effekt bei Pflanzen entdeckt wurde, ist er doch primär kein biologischer, sondern ein physiko-chemischer Effekt. Hinweise dafür wurden schon früh erhalten, als man feststellte, dass auch abgestorbene und getrocknete Blätter der Lotus-Pflanze den Effekt zeigen. Mit strukturierten Oberflächen, die also eine Mikro- oder Nanorauigkeit aufweisen, kann jedoch eine weitaus stärkere Hydrophobie erreicht werden. Kontaktwinkel von bis zu 170° sind möglich. Hierbei ist es wichtig, die Kontaktfläche zwischen Wasser und Feststoff zu minimieren. Bei der Lotus-Pflanze beträgt die tatsächliche Kontaktfläche nur zwei bis drei Prozent des von Wassertropfen bedeckten Blattes. Durch die geringe Kontaktfläche werden auch die Adhäsionskräfte minimiert und die Wassertropfen nehmen eine kugelförmige Gestalt an. Bei geringstem Neigungswinkel oder angestoßen durch einen Windhauch rollen die Wassertropfen von solchen Oberflächen ab und entfernen sehr effizient Schmutzpartikel, wie z. B. Ruß oder Staub. Auf glatten hydrophoben Oberflächen können die Tropfen nicht rollen, sondern lediglich gleiten. Dabei findet keine bzw. nur eine geringfügige Schmutzentfernung statt. Von der Natur lernen ist natürlich nur der erste Schritt. Der zweite, die Übertragung in technische Systeme, ist oft sehr arbeitsintensiv und zeitaufwendig.

117

Lotus-Spray in der Pipeline Die BASF verfolgt den Ansatz, durch geschickte Kombination von Nanopartikeln mit stark hydrophoben Polymeren, wie sie beispielsweise Polypropylen, Polyethylen oder technische Wachse darstellen, superhydrophobe Materialien und Beschichtungen zu realisieren. Ein Resultat dieser Entwicklungen ist ein Aerosol mit Lotus-Effekt. Dieses „Lotus-Spray“ lässt sich sehr leicht applizieren. Die Nanostruktur der Schicht bildet sich durch einen Selbstorganisationsprozess während des Trocknens. Das Spray basiert auf einem Lösungsmittelsystem und ist mit Treibgas, ähnlich wie ein Haarspray, formuliert. Die Lotus-Schichten können auf beliebige Substrate gesprüht werden, vorteilhaft sind raue Flächen, wie Papier, Leder, Textilien oder Mauerwerk. Wenn die Wirkung des Lotus-Sprays nachlässt, z. B. durch Abrieb der dünnen Schichten oder durch längere Witterungseinflüsse, kann die Wirkung durch einfache Reapplikation wieder hergestellt werden. Auf dunklen Substraten kommt es derzeit noch zu einer geringfügigen Beeinträchtigung des Farbeindrucks, da die Schichten etwas opak sind. Ein möglicher Einsatz ist die Imprägnierung von Leder, also z. B. von Schuhen. Ähnlich wie eine Schuhcreme muss der Schutzfilm regelmäßig erneuert werden. „Genaue Preisvorstellungen haben wir noch nicht. Nur so viel: Sehr viel teurer als heute zur Hydrophobierung verwendete Fluorcarbonharze dürfte unser Spray auch nicht werden“, erklärt Dr. Harald Keller, in der Polymerforschung der BASF AG für Beschichtungssysteme zuständig. Bei den Systemen mit Lotus-Effekt sind noch nicht alle Schwierigkeiten gelöst. Beim Kontakt von superhydrophoben Oberflächen mit tensidhaltigen wässrigen Lösungen kann es zu einer Benetzung kommen, da die Tenside die Oberflächenspannung des Wassers stark reduzieren. Auch öl- und fetthaltiger Schmutz wird nur schwer entfernt. Öle können unter Umständen sogar in die Nanostrukturen migrieren und sie damit wirkungslos machen. Die derzeitigen Schichten mit Lotus-Effekt sind optisch noch nicht völlig transparent, sodass die Oberflächen opak und seidenmatt aussehen. Die Nanostrukturen sind auch mechanisch wenig stabil, sodass die Schichten relativ leicht abgerieben oder zerkratzt werden können. An der Überwindung dieser Nachteile wird intensiv gearbeitet. So bemüht man sich bei der BASF insbesondere um ein Material, das auch mal grob behandelt werden kann, ohne gleich die Superhydrophobie zu verlieren. Dieses als Lotus-Stein bezeichnete Material kann sogar mit Schleifpapier abgeschliffen werden, ohne dass der Lotus-Effekt an Wirkung einbüßt. Mögliche Anwendungen liegen vor allem im Baubereich, z. B. könnten daraus Fassadenplatten hergestellt werden. Aus der grundlegenden Forschung an der Universität Bonn sind inzwischen weitere innovative Produkte und eine Menge zukunftsweisender Ideen entstanden.

118

Bereits erhältlich für Malereifachbetriebe ist die Fassadenfarbe Lotusan, die die Ispo GmbH (Kriftel) in vierjähriger Arbeit entwickelt hat. Die ispo GmbH wurde 2003 mit der Sto AR (Stühlingen, Baden-Württemberg) verschmolzen. Das Fraunhofer-Institut für Bauphysik in Holzkirchen hat in Freilandversuchen den LotusEffekt des Anstrichmittels eindrucksvoll nachgewiesen. Das Wasser haftet praktisch nicht an der Oberfläche, sondern perlt sichtbar ab. Auch nach einem Jahr Bewitterung einer Westfassade mit hoher Regenlast und abtröpfelndem Wasser von einer Giebelverkleidung gab es keine visuell feststellbaren Schmutzspuren. Nach dem Erfolg mit den Fassaden wurde das Prinzip des Lotus-Effektes auch auf Putz übertragen, der keinen Anstrich mehr benötigt. Auch die weltweit ersten Tondachziegel mit eingebauter Selbstreinigung sind inzwischen erhältlich. „Wir sind davon überzeugt, dass damit zehn Prozent des gesamten Marktes erreichbar sind. Vor allem im Ein- und Zweifamilienhaus sehen wir große Chancen“, erklärt Manfred Rauser, Vertriebsvorstand der Erlus Baustoffwerke AG (Neufahrn), die eine exklusive Lizenz auf den Lotus-Effekt im Dachbereich hält. Über 100 Millionen Quadratmeter geneigte Dachflächen wurden 2000 neu verlegt, allein der Markt für Tonpfannen hat ein Volumen von über 750 Millionen Euro. Wie auch im Fall von Ispo waren die mittelständischen Niederbayern schneller und risikofreudiger als ihre z. T. deutlich größeren Wettbewerber und investierten eine zweistellige Millionensumme in die Umsetzung. Jetzt könnte sich der Lotus-Ziegel, der nie richtig naß wird, keine Moose und Flechten wachsen lässt und schmutzresistent ist, zum Renner entwickeln – zumal sein Materialpreis mit etwa 15 Euro pro Quadratmeter nicht wesentlich höher ist als bei herkömmlicher Ware.

Kunststoffe mit Lotus-Effekt Große Pläne mit dem Lotus-Effekt hat auch die Creavis Technologies & Innovation (Marl), die Forschungs- und Entwicklungsschmiede der Degussa AG (Düsseldorf). Die Creavis soll für den Aufbau neuer Geschäfte sorgen und mit der Bereitstellung zukunftsorientierter Technologie-Plattformen zum Wachstum der Degussa beitragen, die nach ihrem Umbau inzwischen das weltweit größte Unternehmen für Spezialchemie ist – ein innovativer Bereich, in dem Nanotechnologien bestens aufgehoben sind. Mit Hilfe der „Pfadfinder“ in Marl sollen Projekte definiert und durchgeführt werden, die Marktsegmente mit überdurchschnittlichen Wachstums- und Ertragspotenzialen erschließen, die heute noch außerhalb des bestehenden Portfolios der Degussa liegen. Der Innovationsprozess reicht dabei von der Ideenfindung und -bewertung über die Umsetzung der erfolgversprechenden Idee bis hin zur Markteinführung der neu entwickelten Produkte und Technologien. Nach Überzeugung der Creavis-Kreativen gehört der Lotus-Effekt und seine vielfältigen Möglichkeiten genau in diese Kategorie. Deshalb hat auch die Degussa für

119

ihre Forscher in Marl eine exklusive Lizenz erworben, die den Bereich selbstreinigender Polymeroberflächen abdeckt. Im Fokus der Anstrengungen stehen Kunststoffprodukte wie Folien, Platten und Komponenten. Einen Schwerpunkt der Arbeiten bilden selbstklebende, weitgehend transparente Folien, für die es eine riesige Zahl von Anwendungsmöglichkeiten gibt: Straßen- und Verkehrsschilder, die stets lesbar bleiben, Duschvorhänge, Trennwände und andere Oberflächen im Bad, die sich mit einem Wasserstrahl reinigen lassen, Gartenmöbel, Sonnenschirme oder Markisen, die bei jedem Regenguss wie neu werden, Solarzellen, deren Wirkungsgrad nicht mehr durch eine Schmutzschicht verschlechtert wird, sind nur einige davon. Ende 2002 hat zudem ein gemischtes Team der Creavis und der Degussa-Geschäftseinheit Aerosile (Geschäftsbereich Aerosile und Silane, Frankfurt a. M.) den Degussa Innovation Award – sozusagen einen internen „Chemie-Oscar“ – in der Kategorie „Neue Anwendungen“ gewonnen. Der gemeinsamen Arbeitsgruppe ist es gelungen, für die im Portfolio der Degussa bereits vorhandene hydrophobe pyrogene Kieselsäure (Markenname Aerosil® R 8200) ein ganz neues Anwendungsspektrum zu erschließen. Aufbauend auf diesem Produkt, einem besonders modifizierten und nachbehandelten Siliziumoxid, wurde ein Verfahren entwickelt, um Polymerflächen mit dem Lotus-Effekt® auszurüsten. Während das Aerosil bisher vor allem in der Herstellung von Siliconkautschuk, Kleb- und Dichtstoffen sowie als Entschäumer verwendet wurde, ist die Neuentwicklung unter dem Produktnamen Aeroxide LE 1 für völlig andere Einsatzgebiete wie die Veredelung von Textilien und Polymeren, die Folienbeschichtung oder den Kunststoffspritzguss geeignet. Am Anfang der Entwicklung stand die Fragestellung, welche Chemie geeignet ist, das an der Lotus-Pflanze gefundene Prinzip auf technische Oberflächen zu transferieren. Zunächst wurde auch mit externen Partnern von Hochschulen, Fraunhofer-Instituten und anderen Unternehmen ein Strukturscreening durchgeführt. Als wesentliches Ergebnis fand die Gruppe, dass die Nanostrukturen ein bestimmtes Verhältnis von Höhe zu Breite aufweisen müssen. Die Strukturabstände für eine optimale Wirkung liegen im Bereich zwischen maximal zehn Mikrometer und nur einigen Nanometern. Erst die Kombination aus der Hydrophobie, die der von Teflon (der Kunststoff mit der chemisch korrekten Bezeichnung Polytetrafluorethylen, PTFE, wurde 1938 durch den Amerikaner Roy Plunkett entwickelt und 1954 von seinem Landsmann Louis Hartmann für die Teflonbratpfanne verwendet, deren Verkaufserfolg auf der sehr hohen Hydrophobie beruht – die im übrigen trotz immer wieder vorgebrachter Behauptungen nachweislich keine Errungenschaft der Raumfahrt ist) vergleichbar ist, und der Nanostruktur ermöglichen den Lotus-Effekt, denn nur unter dieser Voraussetzung wird die Kugelgestalt von Wassertropfen auf der Oberfläche entsprechend behandelter Schichten erhalten. Sie ist dann in der Lage, Schmutzpartikel vollständig aufzunehmen und quantitativ abzuspülen.

120

Durch die Vorarbeiten der Geschäftseinheit Aerosile waren wesentliche Fragen bereits beantwortet. Bekannt war der Weg der Partikelerzeugung, wobei die Primärteilchen aus amorphen SiO2 bestehen und eine Größe im Bereich von sieben nm erreichen. Zudem lagen die notwendigen toxikologischen Daten vor, die – wie nicht anders zu erwarten – das Aerosil als inert ausweisen. R 8200 wurde insbesondere verwendet, um die rheologischen Eigenschaften zu verändern, also die Fließmerkmale bzw. die Zähigkeit von Pulvern und Dispersionen gezielt einzustellen. Der neue Ansatz bestand dann darin, die modifizierte Kieselsäure auch für die Modifikation von Oberflächen zu nutzen.

Extrem wasserabweisende Zeltbahnen und Textilien Nachdem die grundsätzliche Machbarkeit durch das Suspensionsverfahren demonstriert worden war, wurde gezielt nach bestmöglichen Anwendungen gesucht. Zusammen mit namhaften Herstellern aus den jeweiligen Branchen wurden Lösungen für drei verschiedene Ansätze gefunden und in ersten Produktionsversuchen evaluiert: Im einzelnen werden die Nassbeschichtung von Textilien, der Spritzguss z. B. von Pipettenspitzen sowie die Trockenbeschichtung von Vliesen erprobt. Auf Vliesen und Geweben sind wasserabweisende Eigenschaften erstmals ohne die Verwendung von Fluorcarbonharzen oder Silikonölen zugänglich – die vom Creavis/ Degussa-Team gefundenen Lösungen sind z. B. deutlich hydrophober als Goretex®. Zudem sind sie uneingeschränkt umweltverträglich, die Toxikologie ist eindeutig im positiven Sinne geklärt. Hier sind vielfältige Einsatzmöglichkeiten von Zeltbahnen über Outdoor-Kleidung bis hin zu textilem Schuhwerk denkbar. Derartige Gewebe wurden sogar schon in der chemischen Reinigung getestet, wobei sieben Durchläufe ohne Wirkungseinschränkung geschafft worden sind. Das ist deutlich mehr, als die Ausrüstung bisheriger Sport- oder Freizeitkleidung verträgt. Zudem kann ein mehrfaches Aufbringen der „Imprägnierung“ problemlos erfolgen. Die Möglichkeiten einer Wäsche sind allerdings eindeutig eingeschränkt, weil die hohe Tensiddichte der heutigen Waschmittel zu einer Belegung der Oberfläche führen würde und dadurch die Hydrophobie verloren ginge. Die Verwendung von Aeroxide LE 1 im Spritzguss von Pipettenspitzen und Reaktionsgefäßen hat große Vorteile. Aufgrund des Lotus-Efekts rollen die Flüssigkeitstropfen nahezu ideal auf der Oberfläche ab. Das führt dazu, dass die Volumina beim Pipettieren deutlich verringert werden können bzw. Kontaminationen durch das Verschleppen von anderen Flüssigkeiten unterbunden werden, weil die Pipette restfrei ausläuft. Diese Vorteile sind gerade bei den vielfachen automatisierten Analytik- und Screening-Verfahren von unschätzbarem Wert. Entsprechendes gilt für Gefäße aller Art, die keine Wandhaftung mehr für ihre enthaltenen Flüssigkeiten aufweisen und sich deshalb ebenfalls vollständig entleeren lassen. Sozusagen als Nebeneffekt der modifizierten Oberflächen ergibt sich im Spritzguss ein sehr

121

gutes Entformungsverhalten. Viele Anwendungspotenziale, die sich aus diesen besonderen Eigenschaften ergeben, sind noch nicht endgültig ausgelotet. In der nächsten Stufe geht es um die Entwicklung von Pulvern mit Lotus-Effekt, die sich trocken aufbringen lassen, was die Einsatzchancen noch einmal deutlich erhöhen würde. Die Beschichtung könnte z. B. elektrostatisch erzeugt werden. Grundsätzlich stehen verschiedenste Beschichtungsverfahren zur Verfügung, wozu neben der elektrostatischen Variante auch Sprüh- und Tauchprozesse sowie die vollflächige Bedruckung gehören. Polymeroberflächen mit Lotus-Effekt – mit diesem Projekt ist dem Creavis/Degussa-Team eine technisch wie wirtschaftlich vielversprechende Entwicklung gelungen, die genau der Intention des Innovation Award entspricht und inzwischen mit einer ganzen Reihe von Schutzrechten abgedeckt ist. Entgegen der allgemeinen Annahme existieren derzeit lediglich sehr wenige kommerzielle Anwendungen des Lotus-Effektes, durch die erfolgreiche Arbeit in Frankfurt und Marl dürfte sich das bald ändern. „Das Potenzial ist nicht annähernd ausgeschöpft, große Möglichkeiten warten z. B. noch im Textilbereich“, bestätigt auch Zdenek Cerman, Mitarbeiter im „LotusTeam“ von Barthlott. „Der Lotus-Effekt existiert nur in der Phantasie der Autoren“, schrieb seinerzeit ein Gutachter, als die Bonner Pflanzenforscher ihren ersten Fachbeitrag veröffentlichen wollten. Inzwischen hat die Selbstreinigung dank Mikro- und Nanostruktur rasant Karriere gemacht – auch Gutachter können eben irren. Wie das Beispiel Lotus-Effekt zeigt, ist das Wissen um die physikalischen und chemischen Zusammenhänge im Nanometerbereich entscheidend für die Entwicklung von Materialien mit neuen bzw. drastisch verbesserten Eigenschaften.

Katalysatoren, Zeolithe und Klebstoffe Die Düsseldorfer Henkel KGaA wird in der Öffentlichkeit in erster Linie als Waschmittelkonzern gesehen – Persil lässt grüßen. Doch das Traditionsunternehmen ist in vielen aktuellen Hightech-Feldern aktiv: „Die Nano- und Biotechnologien haben sich als hochattraktive und zukunftsweisende Forschungsgebiete entwickelt, die enorme Chancen für völlig neue Produkte und Dienstleistungen eröffnen. Hier wollen wir auch für Start-ups als Venture Capital-Geber sichtbar werden“, verkündete schon im Jahr 2000 Dr. Wolfgang Gawrisch, Leiter Forschung und Technologie der Henkel-Gruppe. „Um das hohe Innovationspotenzial dieser Technologien zu nutzen, müssen wir neue Wege gehen.“ 100 bis 150 Millionen Euro hatten die Düsseldorfer für Venture Capital, Start-ups und neue Formen der Hochschulkooperationen vorgesehen. Inzwischen wurde diese Absicht mit verschiedenen Maßnahmen umgesetzt. Als erstes wurde die SusTech GmbH noch im Jahre 2000 gegründet, die nach dem Prinzip des „Public Private Partnership“ konzipiert ist, mit

122

dem Grundlagenforschung und Industrieentwicklung eng verzahnt werden sollen. Mutter Henkel und das BMBF haben eine Anschubfinanzierung von rund 13 Millionen Euro für die ersten fünf Jahre aufgebracht. In dem Kompetenzzentrum für Nanotechnologie erarbeitet ein internationales Team von rund 30 Wissenschaftlern neue Materialien, Systeme und Produkte. Der Firmensitz auf dem Campus der Technischen Universität Darmstadt hat einen guten Grund, denn er ermöglicht den Chemikern, Physikern, Ingenieuren und Materialwissenschaftlern von SusTech die effiziente Nutzung der vielfältigen Forschungseinrichtungen in unmittelbarer Nachbarschaft. SusTech führt in ihrem Namen eine wichtige Zielsetzung, denn die Abkürzung steht für sustainable technologies, also für nachhaltige und umweltverträgliche Technologien.

Schaltbare Kleber Auf dem Darmstädter Campus geht es neben vielen anderen Dingen um die Optimierung von Klebstoffen, in diesem Bereich ist Henkel Weltmarktführer. Neue Werkstoffe und neue Anforderungen an Werkstoffe treiben auch die Entwicklung der Klebstoffe voran, weil viele Materialien nur einsetzbar sind, wenn für sie ein maßgeschneidertes Fügesystem zur Verfügung steht. SusTech stellt unter anderem undotierte und dotierte Ferrite (oxidkeramische Werkstoffe, die Eisen enthalten) unterschiedlicher Struktur und Zusammensetzung her und passt sie auf spezielle Anwendungen an. Nanoferrite zeichnen sich durch Superparamagnetismus sowie eine große spezifische Oberfläche aus und lassen sich transparent in nahezu allen flüssigen Medien formulieren. SusTech bietet Nanoferrite in drei Produktformen an: als Pulver mit einer Primärteilchengröße von zehn bis 50 nm, als Paste, also beschichtete Pulver, die in wässrigen und organischen Matrizes dispergierbar sind, und als Ferrofluide (eisenhaltige Flüssigkeiten), also als stabile magnetische Ferritdispersionen in wässrigen oder organischen Lösemitteln. Mit den Nanoferriten werden ein- und abschaltbare Klebstoffe (Bond/Disbond-on-Command) möglich. Die nanopartikuläre Ferrite nehmen Energie aus elektromagnetischen Wechselfeldern auf und geben diese in Form von Wärme an die unmittelbare Umgebung ab. Dies lässt einen schnellen, gezielten und lokal definierten Eintrag von Energie und dadurch das „Schalten“ von Eigenschaften der umgebenden Matrix (z. B. aus Polymeren) zu. Auf Basis dieser Nanoferrite hat SusTech für Bond-on-Command mikrowellenhärtende Klebstoffsysteme entwickelt. Zusätzlich stehen Partikel mit Absorbiereigenschaften für Hochfrequenzfelder zur Verfügung. Da die Wärme direkt in der Klebeschicht freigesetzt wird, sinkt die Aushärtezeit im Vergleich zu herkömmlichen Methoden signifikant. Nach dem gleichen Wirkprinzip lässt sich durch Zufuhr weiterer Energie auch eine Trennung der Verklebung als Disbond-on-Command realisieren. Voraussetzung für eine schnelle Verklebung bei gleichzeitigem intrinsischen

123

Überhitzungsschutz ist die maßgeschneiderte Kombination von Ferritzusammensetzung, Magnetisierung, Feststoffgehalt, Partikelgröße und Partikelverteilung (Dispergierung) im Klebstoff. Neben der Synthese der winzigen Ferritpartikel entwickelt SusTech auch zugehörige Applikationsgeräte (Mikrowellen- und HochfrequenzGeneratoren), sodass Komplettlösungen angeboten werden können. Auch außerhalb von SusTech unternimmt Henkel eine ganze Reihe von weiteren Aktivitäten in Sachen „Zwergenchemie“. Eine Schlüsselrolle nimmt dabei das Forschungszentrum Henkel Kindai Laboratories (HKL) im japanischen Fukooka ein, das in Kooperation mit der Kinki University 2001 gegründet wurde. Die Zusammenarbeit wurde zunächst für zehn Jahre vereinbart, das Investment von Henkel beträgt etwa 25 Millionen Euro. Gemeinsame Forschgungsgebiete sind 쑺 Indikator-Oberflächen, die spezielle Effekte vor allem für die Automobilindustrie, Hygiene, dekorative Kosmetik und Produktsicherheit generieren; 쑺 neue Sensoren, die noch winzige Spuren von Wirk- und Schadstoffen erkennen können und auf neuartigen Materialien beruhen; 쑺 Mikroverkapselung, um Wirkstoffe mit Hilfe von intelligenten und schaltbaren Stoffsystemen gezielt und gesteuert freizusetzen, wobei der Zeitpunkt der Freisetzung bedarfsgerecht eingestellt werden kann, und 쑺 innovative Polymersysteme z. B. für alternative, materialschonende Fügetechniken wie das Kleben.

Keine Mikrosysteme ohne geeignete Fügetechnik In einer Analyse des Verbands der Elektrotechnik, Elektronik und Informationstechnik (VDE, Frankfurt a. M.) zeigt sich ganz deutlich: Die deutschen Schlüsselbranchen, also Maschinenbau, Chemie, Elektronik und Informationstechnik, machen regen Gebrauch von Mikrosystemtechnik (MST). Schon 65 bis 69 Prozent der jeweiligen Industriezweige nutzen derartige Komponenten und komplette Bauteile intensiv, weitere 15 bis 17 Prozent wollen sie künftig einsetzen. Dr. Uwe Kleinkes, Geschäftsführer der IVAM Service GmbH (Dortmund), geht davon aus, dass die Zeit der Visionen erst einmal beendet ist: „Die MST wird sich noch stärker auf Produkte konzentrieren.“ Bei ihrer Herstellung sind Aufbau- und Verbindungstechnologien von entscheidender Bedeutung. In der Mikroproduktion ebenso wie in der Elektronikfertigung werden neben dem Laserlöten und -schweißen Klebeverfahren immer bedeutender, bei denen die richtige Dosierung der Lötpaste bzw. des Klebstoffs existenziell wichtig ist. Besonders hohe Ansprüche an diese Applikation stellen dabei Leitklebstoffe, die mit metallischen Partikeln durchsetzt sind und so für elektrisch leitfähige Verbindungen zwischen Bauelementen und Leiterbahnen sorgen. Und grundsätzlich gilt: Wenn es um die Verklebung von Mikrosystemkomponenten geht, ist zumindest der Kleber selbst Nanotechnologie. So gibt das

124

Institut für Schweißtechnische Fertigungsverfahren (ISF, Aachen) an, dass es mit speziellen Dosiereinrichtungen in der Lage ist, Klebstoffmengen zwischen etwa 20 Nano- und zehn Femtolitern zu applizieren. Wenn man schon Probleme hat, die Nanodimension zu begreifen, ist der Femtobereich überhaupt nicht mehr fassbar, denn er ist noch einmal sechs Zehnerpotenzen kleiner. Oder um es anders zu sagen: Nanoliter sind Milliardstel, Femtoliter Billiardstel Liter. Europas führendes Kleblabor gerade auch für die Mikrotechnik ist Bestandteil des Fraunhofer-Instituts für Fertigungstechnik und Angewandte Materialforschung (IFAM) in Bremen. Hier wird intensiv an neuen Klebstoffen, aber auch an neuen Verfahren auf Nanoebene geforscht. Deshalb haben die Bremer eine komplette Mikroproduktion aufgebaut, an der Produktentwicklungen für die Industrie bis zur Serientauglichkeit vorangetrieben werden. „Speziell in der Mikrotechnik gibt es eine große Materialvielfalt, darunter viele hochgezüchtete Hochleistungswerkstoffe. Hier müssen immer wieder neu geeignete Klebprozesse gefunden werden“, erläutert Dr. Thomas Gesang, verantwortlich am IFAM für die Klebetechnik in der Mikroproduktion, die Aufgabenstellung. Dazu gehören auch Vorbehandlungen der zu klebenden Oberflächen und besondere Aushärtetechniken z. B. durch UV- und Infrarotstrahlung, aber ebenso die Entwicklung von Zusatz- und Hilfsstoffen. Zudem sind im Vorweg die Anforderungen an das Endprodukt zu berücksichtigen, also unter anderem Schlag- und Vibrationsbelastungen, die herrschenden Temperaturen bei Lagerung, Transport und Betrieb, die Umgebungsparameter wie Feuchtigkeit, aggressive Gase, Säuren oder Laugen und die geforderte Lebensdauer der Bauteile. Auf diese Weise wurden in Bremen bereits eine ganze Reihe von Produkten auf den Weg gebracht, darunter elektrooptische Stecker, FaserChip-Kopplungen oder Mini-Endoskope. Für sie alle gilt: ohne Kleben keine Mikrotechnik, ohne Nanotechnik kein Kleben (zumindest im Gebiet der Mikrosystemtechnik).

Nanomaterialien mit neuen funktionellen Eigenschaften Innovative Technologien brauchen nicht nur staatliche Förderprogramme und wohlmeinende Politikerreden, sie benötigen nicht nur Großkonzerne und Netzwerke, sondern vor allem kleine, flexible Firmen, die den Spirit der Erneuerung in Verfahren und Produkte tragen. Zu diesen Vertretern gehört die Nanogate Technologies GmbH in Saarbrücken, die 1998 im universitären Umfeld als Nanogate GmbH gegründet wurde und seit Mitte 1999 operativ tätig ist. Vor dem Hintergrund der steigenden globalen Bedeutung der Nanotechnologie in allen Bereichen der Wissenschaft haben die Saarbrücker ihre Technologie- und Produktkompetenz ausgebaut und sich mit der Colloid Surface Technologies GmbH (Wiesbaden) zusammengeschlossen. Colloid bietet besondere Expertise im Bereich selbstorganisierender Nanostrukturen und generiert mit Nanogate weitreichende Synergien

125

in nahezu allen Unternehmensbereichen. Seit November 2000 firmiert das Team unter dem Namen Nanogate Technologies GmbH. Das Unternehmen konzentriert sich auf anorganisch-organische Nanocomposite, die über chemische Nanotechnologie hergestellt werden, und selbstorganisierende Nanostrukturen. Ein Schwerpunkt sind werkstoffbasierte Verfahren zur Entwicklung, Produktion und Vermarktung multifunktionaler Materialien. Je nach Anforderung besitzen sie vielfältige Funktionen wie z. B. Transparenz, Haft- und Abriebfestigkeit oder Korrosionsschutz. Nanogate bietet spezifische Komplettlösungen für Industriekunden oder Endanwender. Das Unternehmen versteht sich dabei als „complete solutions provider“, das Leistungsspektrum reicht von der Innovationsberatung über das Werkstoff-Engineering, Produktion, Applikationsunterstützung bis hin zum technischen Support. Größter Gesellschafter bei Nanogate ist die britische Venture-Capital-Fima 3i (London), eine der weltweit führenden Unternehmen in diesem Bereich mit über 40 Büros und Investmentteams in Europa, Fernost und den USA. Mitte 2001 wurde unter Führung von Sal. Oppenheim jr. & Cie. KGaA (Köln) eine Finanzierungsrunde mit einem Volumen von 9,3 Millionen Euro erfolgreich abgeschlossen. Im Rahmen dieser Aktion haben sich neben Sal. Oppenheim – eine der führenden deutschen Investmentbanken für Wachstumsbranchen – auch die equinet Venture Partners AG (Frankfurt a. M.) an Nanogate beteiligt. equinet Venture Partners AG investiert bevorzugt in aussichtsreiche Technologieunternehmen auch im Bereich der Frühphasenfinanzierung. Bereits kurz nach seinem Start 1999 führte das Unternehmen gemeinsam mit Kooperationspartnern Nano-Produkte in den Markt ein. So wurde innerhalb von nur vier Monaten mit der Duravit AG (Hornberg) die Beschichtung „Wondergliss“ entwickelt, durch die sich Sanitärkeramik wie Waschbecken, Dusch- oder Badewannen leicht reinigen lassen. Durch diese so genannte Easy-to-clean-Oberfläche wird die Haftung von Öl, Wasser und Schmutz erheblich reduziert. Entsprechend kann eine Reinigung seltener und ohne aggressive Mittel erfolgen. Basis für diesen Erfolg sind extrem feinkörnige und spröde Partikel aus Silizium- oder Aluminiumoxid in Abmessungen von zehn bis 20 nm, die in eine kunststoffartige Matrix eingebettet sind. Diese Matrix besteht aus Silanen, also Verbindungen mit einem anorganischen Teil (Siliziumatome) und einem organischen Teil (Kohlenstoffatome). Über letztere baut man weiche, flexible, über die Siliziumatome eher glasartige, harte Netzwerke auf. Die Strukturen werden in einer alkoholhaltigen oder wässrigen Lösung gezüchtet und auf einer Oberfläche aufgetragen. Nachdem das Lösungsmittel verdampft ist, bleibt die gewünschte netzartige Struktur zurück. Was zunächst nur industriell möglich war, steht seit Ende 2000 auch dem Endverbraucher zur Verfügung. Mit dem von Nanogate entwickelten WonderGliss Fluid Set lässt sich Sanitärkeramik auch nachträglich gegen Verkalkung und Verschmutzung schützen. Eine Reinigung der Flächen ist danach nur in größeren

126

Abständen notwendig, was sowohl Zeit als auch Reinigungsmittel einspart. Die Beschichtung ist nicht aufwändiger als der wöchentliche Badputz. Das Set besteht aus einer Reinigungsflüssigkeit, mit dem im ersten Schritt aller Schmutz entfernt wird. Die Nanopartikel sind in einem Lösemittel enthalten, das mit einem Tuch aufgetragen wird. Die Schutzwirkung bleibt mehrere Monate erhalten. Auch bereits eingebaute Duschkabinen lassen sich mit dem System „Cleartec Fluid by Nanogate“ nachrüsten, hier arbeiten die Saarbrückener mit der Duscholux GmbH zusammen. In Zusammenarbeit mit der Torrecid SA (Barcelona, Spanien), ein international führender Hersteller von keramischen Fliesen, hat Nanogate die chemische Nanobeschichtung Sekcid® entwickelt, die in Küche und Bad nachhaltigen Schutz vor Kalk-, Wasser- und Fettablagerungen bietet. Das Weltmarktpotenzial ist mit vier Milliarden Quadratmetern Fliesen pro Jahr gigantisch, wobei Torrecid 90 Prozent aller weltweiten Fliesenhersteller beliefert. Nanogate ist es somit gelungen, sich auf dem globalen Fliesenmarkt zu positionieren. Easy-to-clean-Beschichtungen spielen aber nicht nur im Badezimmer eine wichtige Rolle, sondern in völlig anderen Bereichen: So hat Nanogate zusammen mit der Axel Springer Verlag AG (Hamburg) und der MAN Roland Druckmaschinen AG (Offenbach) eine Oberflächenveredelung für Papierleitwalzen entwickelt, die den Reinigungsaufwand und die Servicekosten erheblich reduziert. Die Beschichtung mit der Bezeichnung NanoE2C® minimiert in Kombination mit einer angepassten Strukturierung der Oberfläche die Verschmutzung der Walzen und reduziert den Farbaufbau. Das Potenzial zur Kostensenkung liegt in Millionenhöhe, da die Laufzyklen der Druckmaschinen ohne Reinigung deutlich verlängert werden. NanoE2C® ist sowohl als Nachrüstsystem für bestehende Walzen als auch für die Neuausstattung erhältlich. Die Reinigung von Anlagen spielt in der Industrie grundsätzlich eine große Rolle. Einerseits entsteht dadurch ein Entsorgungsproblem der zum Teil aggressiven Reiniger, andererseits verursacht der Reinigungsaufwand bedeutende Kosten. In der Druckindustrie, insbesondere im Rollen-Offsetdruck, ist das ein wesentlicher Faktor. Nach Schätzungen des „Modell Hohenlohe-Fördergemeinschaft betrieblicher Umweltschutz e. V.“ werden in der deutschen Druckindustrie immer noch jährlich 70.000 Tonnen organische Lösungsmittel verarbeitet, was eine hohe Emissionsund Entsorgungsproblematik verursacht. In einem der größten Druckhäuser des Axel Springer Verlags in Berlin-Spandau betrug der Rüstaufwand im Jahr 2001, bei einer gedruckten Auflage von einer Million Zeitungen pro Tag, 2,8 Millionen Euro. Die glasartige, ultradünne Beschichtung optimiert die Oberfläche der Leitspindel derart, dass die Haftung der Farbe erheblich eingeschränkt ist. Die Anschmutzung wird auf diese Weise so stark reduziert, dass die Säuberungszyklen von einmal täglich auf einmal wöchentlich umgestellt werden konnten. Weniger Reinigung bedeutet auch weniger Stillstand und entsprechend weniger Kosten. So konnten für die Papierleitspindeln im Druckhaus Spandau, die ein Sechstel des

127

gesamten Rüstaufwands verursachen, durch das neue System Einsparungen von rund 400.000 Euro pro Jahr erzielt werden.

Das Geheimnis der Wunderskier Genaues wissen nur wenige Eingeweihte, aber die Szene munkelt schon eine Weile, dass der eine oder andere überraschende Erfolg in der Skiloipe mit dem neuen Cerax Nanowax zusammenhängt. Selbstorganisierende Polymere und Nanopartikel sind auf jeden Fall das Geheimnis der Nanogate Coating Systems GmbH, einem Tochterunternehmen der Nanogate Technologies. In enger Zusammenarbeit mit Anwendern und weltcuperfahrenen Technikern hat Nanogate ein innovatives und zudem kostengünstiges Produkt entwickelt, das einfach mit einem Schwamm in dünnen Schichten aufgetragen wird und durch den sparsamen Einsatz die skieigenen Strukturen erhält. Im Gegensatz zu herkömmlichen Fluorwachsen baut Cerax Nanowax auf der Selbstorganisation von Fluorpolymeren und multifunktionalen Nanopartikeln auf. Durch die einheitliche Reaktion von Belag und Wachs auf Temperaturveränderungen drehen und gleiten Skier und Snowboards besser, zudem sind sie auf Grund der besseren Haftung der Polymere auch aggressiven Schneearten gegenüber stabil. Das Sortiment bietet Produkte für Freizeit- und Rennsport und deckt die Disziplinen Alpin, Snowboard und Nordic ab. Nanogate ist offizieller Lieferant der Deutschen und der Schweizer Skinationalmannschaft, des US-Skiteams und des Kanadischen Skilanglaufverbandes. Im Spätherbst 2002 wurde die Markendivision Holmenkol der Loba Chemie Pvt. Ltd. (Mumbai, Indien) und die Wintersportsparte der Nanogate Technologies in der Holmenkol Sport-Technologies GmbH & Co. KG (Ditzingen) verselbständigt. „In diesem Joint-Venture verbindet sich die weltweit älteste und renommierteste Skiwachsmarke Holmenkol mit der jüngsten Skiwachsgeneration auf Basis chemischer Nanotechnologie“, freut sich Ralf Zastrau, Geschäftsführer der Nanogate. Das Unternehmen mit inzwischen 60 Mitarbeitern baut seine Technologie- und Produktkompetenz kontinuierlich aus. Inzwischen wurden in der Hochleistungsoptik, im Bereich Solarenergie und im Automobilbau neue Anwendungsgebiete und Märkte erschlossen.

Geheimtinten aus Hamburg „Wir sind ein klassisches Chemieunternehmen“, betont Stephan Haubold, Geschäftsführer der Hamburger Nanosolutions GmbH. Doch so klassisch ist die Unternehmensentwicklung gar nicht, denn die Hanseaten sind ein „Kind“ des Existenzgründungsprogramms hep, einer Initiative der Hamburger Hochschulen und ihrter Partner aus Wirtschaft und Politik. Vater der Gründung war im Juni 2000 Profes-

128

sor Horst Weller, Leiter des Instituts für Physikalische Chemie der Universität Hamburg. Seitdem entwickelt das Start-up Nanomaterialien, insbesondere so genannte REN-X (Rare Earth Nano, also Verbindungen von Seltenerden-Metallen, wobei X für ein variables Kristallgitter steht), und macht sie für kommerzielle Anwendungen nutzbar. Auch den Hamburgern ist es nicht gelungen, den jahrhundertealten Traum von Alchemisten und Druiden, von Magiern und Chemikern – das Machen von Gold – zu verwirklichen. Aber so wertvoll wie Gold sind die Verbindungen aus den Hamburger Labors allemal. Beispiel Geheimtinte: In diesen lassen sich Nanopartikel homogen dispergieren, sodass sie farblos und völlig transparent erscheinen. Allerdings unter Beleuchtung mit UV-Licht der Wellenlänge 255 nm fluoresziert das Druckbild. Die geheimnisvollen Flüssigkeiten können mittels Tintenstrahldrucker appliziert werden und sind auf verschiedensten Untergründen wie Papier, Hologrammen, Photos, CDs oder Glas mit bloßem Auge nicht zu erkennen. Sowohl das Design als auch die Funktion einer mit Nanopartikeln markierten Oberfläche bleiben völlig unbeeinflusst. Dieser Effekt ist ausschließlich mit Zwergen zu erzeugen und bedeutet für einen potentiellen Fälscher eine enorme Hürde. Markierungen dieser Art haben eine Menge Vorteile, unter anderem sind sie preiswert, lassen sich kontinuierlich verändern, enthalten einen spektroskopischen Fingerabdruck, das verwendete Farbpigment ist bis 1.000 °C hitzefest und säure- bzw. laugenbeständig. Zudem ist die Echtheitsprüfung sehr einfach durchzuführen. Nur rund 150 Gramm pro Tag dieser Substanzen stellt Nanosolutions her, die reichen aber für 15 Liter oder umgerechnet 300 Kartuschen eines Tintenstrahldruckers, „damit lassen sich etwa 150.000 Seiten bedrucken“, so Haubold. BaSOlute ist ein neuartiges, nanoskaliges Bariumsulfat, das in einem nasschemischen Verfahren gewonnen wird. Die Partikel agglomerieren nicht, sondern sind gleichmäßig verteilt und lassen sich in wässrigen Medien ohne zusätzliche Mahlprozesse leicht dispergieren. Die Partikelgröße variiert zwischen 20 und 60 nm, wobei Nanosolutions derzeit an einer Methode arbeitet, eine Größe von unter zehn nm zu erreichen. Das ultrafeine Bariumsulfat wird in der Lack- und Kunststoffindustrie als Füllmaterial verwendet. Zudem lässt sich BaSOlute durch chemische Dotierung mit neuen Eigenschaften wie z. B. Fluoreszenz ausstatten. Forschungen dieser Art wurden von der Hamburger Innovationsstiftung bisher mit 400.000 Euro unterstützt, insgesamt wurden rund 2,5 Millionen Euro in das Unternehmen investiert. Wichtigster Auftraggeber ist bisher die Bayer AG (Leverkusen), für die Nanosolutions Fluoreszenzmarker für das so genannte Biolabelling entwickelt. Derartige Biomarker werden in der medizinischen Diagnostik unter anderem als Kontrastmittel bei Röntgenuntersuchungen eingesetzt. Sie sollen auch bei der Krebsbekämpfung helfen, indem sie die Krankheit nachweisen. Dabei werden fluoreszierende Nanopartikel an Antikörper gekoppelt, die sich zielsicher mit Krebszellen verbinden und dann mit UV-Licht sichtbar gemacht werden. Mit anderen „Fängern“ ausgerüstet, sollen zusätzliche Biomoleküle detektiert werden, im einzelnen handelt es sich um Antigene, Eiweiße oder Hormone. Mit bisherigen

129

Markern (vor allem dem Farbstoff Fluorescein) gelingt es bislang nicht, in einem einzigen Test verschiedene Biomoleküle nachzuweisen – hier könnten Nanopartikel deutliche Fortschritte bringen. Derzeit plant Nanosolutions, ihre Materialentwicklungen auf industriellen Maßstab zu erweitern und somit Nanoteilchen in Tonnenmengen herzustellen. Weitere Anwendungsgebiete hat das Unternehmen bereits erschlossen. Dazu zählen Infrarot-Emitter für die Lichtleitung und optische Verstärker, Kontrastmittel für die Computertomographie, Effektpigmente mit hoher Stabilität für besondere Leuchteffekte, Katalysatoren auf Basis von seltenen Erden und Korrosionsschutz für Stahlbleche mit besonderen Verbindungen des Seltenerdmetalls Cer.

Verbünde, Composite und Pulver Von Nanopartikeln oder aus ihnen aufgebauten Nanopulvern war schon mehrfach die Rede, unter anderem bei der „Sonnenbrille“ als Schutz gegen die UV-Strahlung für zahlreiche Produkte aus Titandioxid. Noch einmal zur Erinnerung: Unter Nanopartikeln sind kleinste Materiebausteine aus nur wenigen bis zu einigen hundert Atomen oder Molekülen zu verstehen. Sie haben gegenüber „normalen“ Festkörpern deutlich veränderte Eigenschaften, was sie für innovative Entwicklungen so interessant macht. Neue Verfahren zur Herstellung – über die besonderen Gasphasen-Prozesse mit Flammen-, Heißwand-, Plasma- und Laserreaktoren bei der Degussa wurde bereits berichtet – der nanoskaligen Partikel und Festkörper ermöglichen z. B. Werkstoffkombinationen, die es zuvor nie gegeben hat. So lassen sich zum Beispiel die Metalle Kupfer und Wolfram erst in der Nanowelt dazu bringen, eine Legierung miteinander einzugehen. Bei der Erzeugung von „Zwergenstaub“ spielt die Verfahrenstechnik eine ganz wichtige Rolle, denn erst die Reproduzierbarkeit der Partikelgrößenverteilung entscheidet über die Qualität und Verwendbarkeit der Pulver für bestimmte Zwecke. Neben dem Arbeitsgebiet „Ultradünne Schichten“ konzentriert sich die Chemieindustrie besonders auf die Bereiche Partikel bzw. Pulver und Composite. 2001 betrug der Weltmarkt für die hauchdünnen Schichten nahezu 24 Milliarden Euro, Nanopartikel und -composite erreichten ein Volumen von fast 13 Milliarden Euro. Die DG-Bank schätzt, dass 2010 diese Summen auf 61 bzw. 81 Milliarden Euro ansteigen werden – was das Interesse der Chemieunternehmen nachdrücklich erklärt. Heute dominieren bekannte und bewährte Produkte noch eindeutig das Gebiet der Nanopulver und -composite, wozu Pigmente, Katalysatoren und Verbraucherartikel ebenso gehören wie Dispersionen für Kleber, Beschichtungen und Farben. In der Öffentlichkeit wird das Bild der Nanos aber eher durch Metall- und Oxidpartikel bestimmt. Nach Angaben des amerikanischen Marktforschungsunternehmens Business Communication Corporation (BCC) lag ihr Anteil im Jahr 2000 bei 493

130

Millionen Dollar, das entspricht gerade einmal vier Prozent des Weltmarkts für Partikel und Composite von 13 Milliarden Euro insgesamt. Das belegt, dass „traditionelle“ nanotechnologische Produkte heute noch eindeutig marktbestimmend sind. Partikel mit Primärteilchengrößen von unter 100 nm zeichnen sich durch ein extrem großes Verhältnis von Oberfläche zu Volumen aus: Während bei Teilchengrößen von einem Mikrometer, also 1.000 nm, nur etwa 1,5 tausendstel Prozent aller Atome an der Oberfläche liegen, sind dies bei zehn nm Durchmesser schon etwa 15 Prozent. Die Eigenschaften entsprechender Pulver werden damit wesentlich durch das Verhalten der Oberfläche bestimmt. Daraus ergeben sich interessante Anwendungen: 쑺 In der Pulvermetallurgie ermöglichen Nanopartikel eine Energieeinsparung durch niedrigere Sintertemperaturen. Zudem werden höhere Dichten erreicht. 쑺 In der Kosmetikindustrie werden Titandioxid-Partikel als UV-Absorber für Sonnenschutzcremes eingesetzt, wie in diesem Kapitel schon beschrieben. 쑺 Beim Glätten von Substraten für die Produktion von Computerchips, Speicherplatten oder Hochleistungsoptiken werden mit Nanopulvern bessere Oberflächenqualitäten erzeugt und so der Ausschuss verringert. Ausgehend von 493 Millionen US-Dollar im Jahr 2000 hat sich das Marktvolumen für diese Produkte bis 2005 auf 900 Millionen Dollar nahezu verdoppelt. Dies entspricht einem Wachstum von immerhin 13 Prozent pro Jahr. Bei den heute käuflichen Nanopartikeln handelt es sich zum überwiegenden Teil um vier oxidische Verbindungen, im einzelnen Siliziumoxid, Titandioxid, Aluminiumoxid und Eisenoxid. BCC geht davon aus, dass insbesondere nanoskaliger Sand (Siliziumoxid) sein Verkaufsvolumen bis 2005 nahezu verdreifacht hat und auf einen Marktanteil von fast 44 Prozent angewachsen ist. Begründet ist diese Annahme durch die breite Anwendbarkeit des Sandes und seinen günstigen Preis. Wo bleibt der ganze Sand? Hauptabnehmer für solche Partikel ist nach BCC die Elektronik- und Informationstechnologie-Branche, die bis 2005 fast drei Viertel der gesamten Produktion in Anspruch genommen hat. Die größte Einzelanwendung hier sind so genannte CMP-Slurries, wobei CMP für Chemical Mechanical Planarisation steht. Diese Pulversuspensionen, vor allem aus Silizium- und Aluminiumoxid, werden zum chemisch-mechanischen Abtragen und Polieren von Silizium-Wafern, dem Ausgangsmaterial für Computerchips, eingesetzt. Die zweitgrößte Anwendung für Nanopartikel derzeit sind Magnetspeichermedien (Magnetpigmente). Der Anteil von Biomedizin und Pharmazeutik hat im Jahr 2005 bei 16 Prozent (144 Millionen Dollar) gelegen, für Energie, Katalyse und strukturelle Anwendungen (Maschinenbau) bei etwa zehn Prozent (90 Millionen Dollar). Innovationen im Bereich neuer Materialien finden häufig in kleinen Firmen statt. Deshalb werden große Wachstumsraten insbesondere bei Start-up-Unternehmen erwartet, die heute erst wenig oder noch gar keinen Umsatz machen. Viele Anwen-

131

dungen bedienen sicher Nischen, einige aber haben auch das Potenzial, große Umsätze zu generieren. Der Markt für die schon mehrfach erwähnten TitandioxidPartikel als anorganische UV-Absorber in der Kosmetik hat z. B. derzeit eine Größe von etwa 140 Millionen Dollar, das weltweite Volumen für Biomarker gibt das amerikanische Marktforschungsunternehmen Thetareports (New York), das auf die Branchen Medizin, Pharmazie und Biotechnologie spezialisiert ist, dagegen bereits mit vier Milliarden Dollar an. Wie die Technikgeschichte schon vielfach bewiesen hat, beginnen zukunftsweisende Entwicklungen häufig in kleinen Firmen. Die Garagen im Silicon-Valley sind ja inzwischen Legende. Auch in der Nanotechnologie sind zahlreiche Start-ups aktiv. Da sich der Weg über diese innovativen Unternehmen in anderen Bereichen schon als äußerst erfolgreich erwiesen hat, suchen Branchenführer häufig bereits frühzeitig den Kontakt und vereinbaren Kooperationen. Beispiel BASF: Der größte Chemiekonzern der Welt hat speziell für diese Zwecke die BASF Venture Capital GmbH (Ludwigshafen) gegründet, die unter anderem an der Oxonica (Oxford, Großbritannien) direkt beteiligt ist. Oxonica entwickelt UV-Absorber für die Kosmetik sowie fluoreszierende Nanopartikel als Biomarker und für die Katalyse. Ein Beteiligungsunternehmen des Fonds NextGen Enabling Technologies (Santa Barbara, Kalifornien) ist die Catalytic Solutions Inc. (Oxnard, Kalifornien). An diesem Fonds ist die BASF Venture Capital GmbH aktiver Limited-Partner. Der Catalytic Solutions ist es gelungen, den teuren Edelmetallanteil in ihren Automobilkatalysatoren deutlich zu reduzieren. Zudem sind sie wesentlich preiswerter und langlebiger als herkömmliche Typen. Kunden der Kalifornier sind bereits die Honda Motor Company und der Automobilzulieferer Car Sound Exhaust Systems. „Die Leistung der von Catalytic Solutions entwickelten Produkte ist so gut, dass etablierte Hersteller von Automobilkatalysatoren aufgrund dieser überlegenen neuen Technik von Analysten abgewertet wurden“, berichtet Dr. Axel Ebenau, Projektmanager der BASF Future Business GmbH. Am Fonds NextGen Enabling Technologies sind neben der BASF auch Bayer, Henkel und Schott Glas aus Deutschland sowie unter anderem Boeing, DuPont, Unilever, Honda und Canon beteiligt, also ein erlesenes Feld führender Wirtschaftsunternehmen. Die Synthese von nanoskaligen Pulvern, ihre Oberflächenmodifizierung sowie Konditionierung für die Weiterverarbeitung zu innovativen Produkten mit gängigen Verarbeitungs- und Fertigungstechniken ist ein Schwerpunkt des Kompetenzzentrums „Funktionalität durch Chemie“ (CC-Nanochem). Vordringlich geht es um die Beherrschung der einzelnen pulvertechnologischen Verfahrensschritte in die Nanodimension. Die Bereitstellung dieser Methoden ist eine enorme wissenschaftlich-technologische Herausforderung und zugleich die unabdingbare Voraussetzung dafür, das ohne Zweifel große Innovationspotenzial der neuen Materialien einer gewerblichen Nutzung zuzuführen. Am CC Nanochem werden insbesondere nasschemische Verfahren wie Fällungsreaktionen, Mikroemulsionstechniken und Solvothermalsynthesen sowie Gasphasenreaktionen eingesetzt. Bei der Solvother-

132

malsynthese handelt es sich um eine spezielle Methode der Kristallzüchtung aus Lösungen. Eine weitere Einsatzmöglichkeit für Nanopartikel ist die Verwendung als Füllmaterial in Kunststoffen, woraus zahlreiche Vorteile resultieren. So weisen diese Lösungen bessere mechanische, Diffusionsbarriere- und Oberflächeneigenschaften auf, lassen sich leichter verarbeiten, sind transparent und elektrisch leitfähig und zeigen ein besseres Brandverhalten. Das ermöglicht eine Reihe von Anwendungen wie Flaschen für kohlensäurehaltige Getränke, antistatische Verpackungen für empfindliche Elektronikteile oder Automobilkomponenten mit verringerter Wandstärke und dadurch reduziertem Gewicht. Doch es gibt auch Schattenseiten: Das Compoundieren ist hinsichtlich der homogenen Füllstoffverteilung problematisch, die Composite neigen zum Verspröden und vor allem sind die Kosten noch zu hoch. Nach einer Schätzung der Fachzeitschrift „Plastic News“ lag der Umsatz mit Nanocompositen 2001 bei etwa drei Millionen Euro. Bis 2009 aber, so Plastic News und auch Chemical Business Newsbase, ist mit einer deutlichen Zunahme des Umsatzes auf bis zu 1,5 Milliarden Euro zu rechnen, das entspricht einer Menge von 500.000 Tonnen pro Jahr. „Diese Steigerungsraten von etwa 100 Prozent im Jahr erscheinen uns aber als zu optimistisch, da die Eigenschaftsverbesserungen bisher hinter den hohen Erwartungen zurückgeblieben sind und die Preise für Füllstoffe in Massenanwendungen noch zu teuer sind“, so Fachmann Ebenau. Nach Einschätzung des amerikanischen Marktforschungsunternehmens Bins & Associates (Sheboygan, Wisconsin, USA) wird der Füllstoffmarkt von Nanoclay-Compositen dominiert werden, die nanoskalige Tonplättchen enthalten. Andere Nanofüllstoffe wie Calciumcarbonat oder Carbon-Nanotubes werden dagegen eine untergeordnete Rolle spielen. Das Fachmagazin „European Chemical News“ erwartet bis 2009 ein starkes Wachstum für Füller insbesondere im Bausektor sowie in den Bereichen Verpackung und Automobil. Erste Produkte dieser Art sind bereits auf dem Markt. So liefert Basell, ein Joint Venture zwischen BASF und Shell, ein mit nanoskaligem Ton verstärktes Polypropylen für die Fußraste eines Minivans von General Motors. Aufgrund der besseren mechanischen Eigenschaften des Werkstoffs lässt sich das Gewicht des Bauteils um knapp 20 Prozent reduzieren. Neben Pulvern und Compositen sind insbesondere ultradünne Schichten von großer Bedeutung in der Nanochemie. 2001 betrug ihr Anteil am Gesamtmarkt von 54 Milliarden Euro 44 Prozent, war also mit 24 Milliarden der größte Einzelmarkt (zur Erinnerung: Pulver und Composite lagen bei 23 Prozent Anteil). Die DG-Bank erwartet einen Anstieg auf 81 Milliarden Euro in 2010, das bedeutet eine jährliche Steigerungsrate von 14 Prozent. Diese Prognose ist deshalb von besonderem Gewicht, weil die deutsche Industrie führend auf dem Gebiet der ultradünnen Beschichtungen und der dazu gehörigen Auftragungstechnik ist. Wesentlichen Anteil daran haben die herausragenden Forschungskapazitäten in diesem Bereich,

133

wozu unter anderem das Institut für Neue Materialien in Saarbrücken sowie die Fraunhofer-Institute für Werkstoffmechanik (IWM), für Angewandte Festkörperphysik (IAF), beide in Freiburg/Breisgau, und für Silicatforschung (ISC) in Würzburg beitragen. Nach Angaben des Vereins Deutscher Ingenieure (VDI, Düsseldorf) machen bei dünnen Schichten etablierte Anwendungen in der Elektronik und Informationstechnologie mit etwa 56 Prozent den größten Teil des Umsatzes von 2001 aus, wozu Beschichtungen von Datenspeichern (acht Milliarden Euro) ebenso wie Dünnschichten in Bauelementen für die Informationstechnologie (rund sechs Milliarden Euro) gehören. Das Volumen für Hartbeschichtungen schätzte der VDI für 2001 bereits auf etwa 3,5 Milliarden Euro. Traditionell stark ist auch der Bereich der optischen Beschichtungen auf Glas und Kunststoffen, der auf etwa 900 Millionen Euro gerechnet wurde. Wie bei Nanopartikeln wird auch bei Beschichtungen heute noch ein wesentlicher Anteil des Geschäfts durch bereits erprobte Anwendungen realisiert. Überdurchschnittliche Wachstumsraten werden im Bereich neuartiger funktionaler Beschichtungen erwartet. Beispiele für solche innovativen Systeme sind einfach zu reinigende oder selbstreinigende Oberflächen nach dem Lotuseffekt, der bereits erwähnt wurde. Von einer Verwirklichung noch relativ weit entfernt sind Oberflächen mit schaltbaren Eigenschaften, die z. B. ihre Farbe oder ihre Adhäsionswerte ändern können, oder photoelektrische Oberflächen, die den Betrieb von Aggregaten (z. B. Klimaanlagen) auch ohne weitere Energiezufuhr ermöglichen. Eine zusätzliche Option sind optische Beschichtungen, die Reflexionsfreiheit und Kratzschutz ermöglichen. Eine weitere Beteiligung von NextGen Enabling Technologies ist das Nanotechnologie-Start-up Optiva (San Francisco), das unter anderem Dünnschichtpolarisationen entwickelt, die grundlegend für die Funktionsweise des Flachbildschirms sind. Im Vergleich zu herkömmlicher Technik weisen diese Bauteile eine ganze Reihe von Vorteilen auf: Sie sind wesentlich preiswerter, haben eine geringere Dicke sowie eine hohe Beständigkeit und Leistungsfähigkeit.

Fullerene – Fußbälle, Röhren und andere Merkwürdigkeiten Sie waren die Stars der Chemieszene Anfang der 90er-Jahre und machten sogar Schlagzeilen außerhalb der Fachzeitschriften. Die faszinierenden Kugeln aus reinem Kohlenstoff, Fullerene genannt, lösten ein Fußballfieber der besonderen Art in Labors rund um den Globus aus. Das renommierte Wissenschaftsmagazin „Science“ wählte das ursprüngliche Fulleren C60 zum Molekül des Jahres 1991. Das mit dem Fußball ist durchaus wörtlich gemeint, denn die Riesenmoleküle weisen

134

eine in sich geschlossene, polyedrische Struktur mit einer geraden Anzahl von Kohlenstoffatomen auf. Allen voran der bekannteste Vertreter, C60, hat hohe Ähnlichkeit mit dem weltweit beliebtesten Spielgerät. Er besteht aus einem Netzwerk von zwölf Fünf- und 20 Sechsecken. Auch das C70 erinnert stark an einen Ball, es ist etwas gestreckter und hat so die Form eines Rugby-Eis oder des amerikanischen Football. Generell sind die Fullerene eine Klasse strukturell verwandter Moleküle, die in sich geschlossene Käfige bilden und immer aus Fünf- und Sechsecken zusammengesetzt sind, wobei die Kohlenstoff-Atome an den jeweiligen Eckpunkten sitzen. Wie schon der berühmte Schweizer Mathematiker Leonhard Euler (1707–1783) bewiesen hatte, müssen für derartige Körper immer exakt zwölf Fünfund eine beliebige Zahl von Sechsecken vorhanden sein. Der Name Fullerene geht auf den amerikanischen Architekten Richard Buckminster Fuller zurück, der ganz ähnlich anmutende Kuppeln und Gewölbe konstruierte – wenn auch in ganz anderer Größe als die Nanokugeln. Kohlenstoff ist eines der wichtigsten Elemente auf der Erde. Er hat eine Schlüsselstellung in allen lebenden Systemen und ermöglicht auch zum großen Teil die Vielfalt moderner Materialien. Bereits seit langem sind die beiden anderen Modifikationen des reinen Kohlenstoffs bekannt, die unterschiedlicher nicht sein könnten. Der schwarz glänzende Graphit ist weich und metallisch leitend. Er besteht aus übereinander liegenden Schichten von Kohlenstoffatomen, die in Sechsecken angeordnet sind. Die einzelnen Schichten sind nicht durch chemische Bindungen untereinander verknüpft. Auf diese Weise sind sie gegeneinander verschiebbar, also sehr weich, deshalb wird Graphit häufig als Schmiermittel benutzt. Daneben gibt es verschiedenste Anwendungen von der Bleistiftmine bis zu carbonfaserverstärkten Compositwerkstoffen. Ganz anders sind die Eigenschaften von Diamanten, die auch aus reinem Kohlenstoff bestehen. Diamant gehört zu den härtesten Materialien überhaupt. Der Grund dafür liegt in der molekularen Struktur, in der jedes Kohlenstoffatom mit vier Nachbarn im Raum verbunden ist. So entsteht ein dreidimensionales, festes Netzwerk. Im Gegensatz zu Graphit ist Diamant transparent und fungiert als Isolator. Aufgrund seiner Härte wird Diamant technisch als Schleifmittel und in Form dünner Filme als abriebfeste Schutzschichten eingesetzt. So ist er bevorzugter Werkstoff zum Zerspanen (abtragende Bearbeitung) von Nichtmetallen. Diamantbeschichtete Werkzeuge dienen zur Bearbeitung von Elektrodenmaterialien, Kupfer, Aluminium-Silizium-Legierungen und faserverstärkten Kunststoffen, aber auch für seine „Verwandten“ Graphit und Hartkohle. Rund 400 Millionen so genannte Wendeschneidplatten setzt die Industrie pro Jahr ein, dabei sind über 70 Prozent beim Drehen und 50 Prozent beim Fräsen mit Diamant beschichtet – das zeigt die Bedeutung von Diamant außerhalb des Schmucksektors. Die ersten beiden Fullerene, C60 und C70, wurden 1985 von einem Forscherteam unter Leitung von Richard E. Smalley an der Rice University in Houston (Texas) und Harold W. Kroto von der University of Sussex (Großbritannien) entdeckt. Sie

135

experimentierten seinerzeit mit dem Ziel, die Form des Kohlenstoffs zu bestimmen, der im Spektrum des interstellaren Staubs vorkommt, auf der Erde aber unbekannt ist. Bestimmte Kohlenstoff-haltige Verbindungen werden von so genannten Roten Riesen, den Kohlenstoffsternen, ausgestoßen. Beim Versuch, diese Chemie nachzustellen, tauchten die Fullerene als überraschend stabile Verbindungen erstmals auf. Die beteiligten Wissenschaftler schlugen eine geschlossene, kugelförmige Käfigstruktur, den „Buckyball“, vor. „Es dauerte fünf Jahre, bis man ausreichende Mengen der Substanz zur Verfügung hatte, um die Richtigkeit dieser Vermutung zu beweisen“, berichtet Kroto. Die Annahme war auf jeden Fall zutreffend, das Fulleren stellt gewissermaßen eine kugelartig gebogene Graphitfläche dar. Seine chemischen und physikalischen Eigenschaften unterscheiden sich allerdings dramatisch von den bekannten Graphit- und Diamantmerkmalen. So ist es elektronisch betrachtet ein Halbleiter, nimmt also eine Zwischenstellung zwischen dem metallischen Graphit und dem Isolator-Diamant ein. Die technisch wohl bedeutendste Eigenschaft ist aber die Löslichkeit in organischen Lösemitteln. Der Rummel um die seltsamen Fußbälle ging erst richtig los, als Wolfgang Krätschmer vom Max-Planck-Institut für Kernphysik (Heidelberg) und Don Huffman von der University of Arizona, beide Astrophysiker und keine Chemiker, 1990 ein neues Herstellungsverfahren für Fullerene vorstellten. Dabei wird Graphit in einer Atmosphäre aus Edelgas, z. B. Helium, in einem Lichtbogen verdampft. So entsteht ein rußähnlicher Niederschlag, aus dem sich die Fullerene mit Lösemitteln extrahieren lassen. Allerdings erhält man hierbei eine bunte Mischung verschiedener Verbindungen, die anschließend chromatographisch getrennt werden müssen. Mit 75 bis 85 Prozent ist C60 das Hauptprodukt, C70 ist zu etwa zehn bis 20 Prozent vertreten. Das Lichtbogenverfahren war dann auch die Grundlage für eine kommerzielle Produktion von Fullerenen der Hoechst AG im Werk Knapsack, mit der insbesondere C60 und C70 in hoher Reinheit hergestellt und zum Verkauf angeboten wurde. In der Folge etablierte sich eine Fullerenchemie, an der Arbeitsgruppen in aller Welt forschen.

Nobelpreis für Chemie in nur elf Tagen Auftrieb erhielt diese Forschung noch durch die Verleihung des Chemie-Nobelpreises 1996 an Robert F. Curl und Richard E. Smalley, beide Professoren an der chemischen Fakultät der Rice University, sowie Sir Harold W. Kroto, Chemieprofessor an der School of Chemistry and Molecular Science an der University of Sussex. Die drei Wissenschaftler hatten die entscheidenden Experimente innerhalb von nur elf Tagen durchgeführt und ihre Ergebnisse im renommierten Wissenschaftsmagazin Nature veröffentlicht. Zunächst ernteten die Forscher gleichermaßen beides: ablehnende Kritik ebenso wie begeisterte Zustimmung. Inzwischen steht fest, dass die Entdeckung der Fullerene und ihre Bestätigung durch die glo-

136

bale Wissenschaftsgemeinde zu einem neuen, faszinierenden Gebiet der Chemie geführt haben. Graphit und Diamant haben große technische Bedeutung – ob das bei den Fulleren auch der Fall ist, lässt sich noch nicht endgültig sagen. Nach der Entdeckung der Buckyballs wurden ziemlich schnell euphorische Erwartungen an den Einsatz dieser neuen Stoffklasse geknüpft, die inzwischen aber einer eher nüchternen Betrachtung gewichen sind. Dennoch bleiben die Kohlenstoffkugeln, deren Präparation und Charakterisierung schon frühzeitig vom BMBF gefördert wurden, ein wichtiges Forschungsgebiet. Mitte der 90er-Jahre erstellte das VDI Technologiezentrum eine Technologieanalyse, in der die damals diskutierten technischen Anwendungen zusammengestellt wurden. Anwendungsmöglichkeiten wurden unter anderem in den Bereichen Katalyse, Supraleitung, Pharmazie, Sensorik, Schmierstoffe und Solarzellen gesehen. Ein Statusseminar im November 1996 in Berlin machte dann aber schnell deutlich, dass von den Optionen nur sehr wenige den Vergleich mit bestehenden Verfahren überstanden haben, sodass die technische Einführung derartiger Stoffe zunächst nicht ansteht. Die ungewöhnlichen Eigenschaften der Fullerene lassen aber durchaus Hoffnungen und Spekulationen offen auf interessante Anwendungen, auch die inzwischen vielfältigen Forschungsergebnisse lassen grundsätzlich auf ein großes Potenzial schließen. Bisher bilden ketten- und ringförmige Verbindungen die Grundlage für das enorme Produktangebot der chemischen Industrie. Dabei hat der Benzolring aus sechs Kohlenstoffatomen, der das Grundgerüst für die Aromaten- und einen Großteil der Erdölchemie bildet, „nur“ sechs Möglichkeiten zum Knüpfen von chemischen Bindungen – schon das ermöglicht einen beachtlichen Teil der organischen Chemie. Betrachtet man das C60-Molekül im Vergleich, gibt es hier zumindest theoretisch sogar 60 Verknüpfungspunkte. Rick Smalley hat deshalb einmal gesagt, wenn er beim Aufwachen an Fullerene denke, sei ihm so, als wäre das Benzol neu erfunden worden. Ob sich diese Vision erfüllt, muss sich erst noch erweisen. Immerhin ist der Hohlraum im Inneren der Kohlenstoffkäfige so groß, dass nahezu jedes der 92 natürlichen chemischen Elemente, die auf der Erde bekannt sind, darin Platz findet. Von diesen Einschlussverbindungen sind zum Beispiel bereits solche mit Edelgasen und Stickstoff, aber auch mit Metallen hergestellt worden. In die größeren Fullerene sind vor allem Lanthanidenmetalle „eingesperrt“ worden. Interessant sind diese geschlossenen Käfige vor allem deshalb, weil sie erstaunliche elektronische Eigenschaften zeigen. Eine wichtige Reaktion für die chemische Industrie ist die Hydrierung. Wird Fulleren mit den Edelmetallen Palladium oder Ruthenium dotiert, resultieren Katalysatoren, die bei der Hydrierung bessere Ergebnisse erzielen als herkömmliche Systeme auf Basis von Aktivkohle. Ein interessantes Einsatzgebiet von C60 ist die Photokatalyse zur Erzeugung von Singulett-Sauerstoff, eine energetisch angeregte und extrem reaktive Form dieses Gases. Zum einen ist der Einsatz für chemische Synthesen denkbar, zum anderen zielt ein Forschungsvorhaben darauf ab, Fulle-

137

renderivate herzustellen, die Krebszellen von gesunden Zellen unterscheiden und in sie eindringen können. Durch Lichtbestrahlung in Gegenwart von Sauerstoff würde sich dann die Singulett-Form bilden, die die Krebszelle zerstört. Die Fullerenderivate haben den Vorteil, dass sie unter den erforderlichen Bedingungen sehr beständig sind. Selbst bei Abwesenheit von Sauerstoff können Fullerene unter Lichteinwirkung ähnliche Effekte zeigen.

Künstliche Diamanten aus Fulleren Auch bei der Herstellung künstlicher Diamanten bedeutet die Entdeckung der Fullerene einen bedeutenden Fortschritt, weil die Umwandlung erheblich energiesparender und damit kostengünstiger verläuft. Zwar müssen ähnlich hohe Drücke von etwa 100.000 bar wie beim Graphit aufgebracht werden, der Prozess gelingt aber schon bei Raumtemperatur, während bei der „schmierigen“ Kohlenstoffvariante 1.500 bis 1.800 °C erforderlich sind. Auch bei der Abscheidung von Diamantschichten mit der chemischen Dampfabscheidung (CVD, Chemical Vapor Deposition) erzielt man mit Fullerenen deutlich bessere Ergebnisse. Neben den schon erwähnten Anwendungen dieser harten Schichten bei der Bearbeitung erlangen sie zunehmend Bedeutung in der Halbleitertechnik, da Diamant-beschichtete Silizium-Wafer entstehende Wärme wesentlich besser abführen. Möglicherweise gelingt es dem Diamanten sogar, Silizium in der Hochtemperatur- und Hochfrequenzelektronik ganz zu ersetzen. Wissenschaftlern vom Institut für Physik an der Universität Augsburg ist es kürzlich gelungen, eine wesentliche Hürde auf dem Weg zu derartigen Bauteilen zu nehmen, indem sie Diamant in einkristallinen Schichten der nötigen Größe herstellen konnten. Neue Anwendungen lassen sich durch den Einbau von Fulleren in Polymere generieren. So entstehen fotoleitende Filme, wenn man z. B. Polyvinylcarbazol mit einem Gemisch von C60 und C70 versetzt. Eine technische Nutzung dafür sind in Fotokopiergeräten gegeben. Die amerikanische Xerox Corporation (Stanford, Connecticut) hat hierzu bereits ein erstes Patent angemeldet. Xerox entwickelt und vertreibt eine große Vielzahl von Geräten rund um den Druckprozess und hat sich nach eigenen Angaben eine führende Position speziell bei innovativen Werkstoffen erreicht. Den Grund dafür formuliert Hervé J. Gallaire, Präsident der Xerox Innovation Group und Chief Technology Officer, so: „Xerox wendet stets neuste Werkstofftechnologie bei der Herstellung seiner Geräte an. Damit konnten Kostensenkungen erzielt, schnellere Arbeitsabläufe erreicht und mehr umweltfreundliche Produkte auf dem Markt eingeführt werden. Der gebündelte Effekt dieser Technologie und das dazugehörende Know-how haben eine Revolution in Bezug auf die Dokumentenproduktion ausgelöst. Dies kann potenziell auch auf eine Vielzahl anderer Branchen übergreifen.“

138

Xerox verfügt über mehr als 1.000 grundlegende Patente im Bereich innovativer Werkstoffe. Die Kernkompetenzen von Xerox bilden Technologien, die eng mit der Partikelherstellung im Mikro- und Nanometerbereich mit kontrollierter Oberfläche und triboelektrischen, magnetischen, mechanischen und chemischen Eigenschaften verknüpft sind. Diese Partikel gewinnen auch in der Biotech-, Chemie- und Umweltindustrie immer mehr an Bedeutung. Xerox ist damit ein Beispiel dafür, wie der Einsatz von Nanotechnologien aus einem Kernbereich heraus schnell weitere Anwendungsmöglichkeiten erobern kann. Das wird in Zukunft sicher auch für die innovative Kohlenstoffmodifikation gelten. Große Chancen werden auch Alkalimetall-Fulleren vom Typ MC60 eingeräumt, wobei das Metall (M) aus Kalium, Rubidium oder Cäsium bestehen kann. Diese Verbindungen bilden polymere Ketten, die im Kristall alle in dieselbe Richtung zeigen und in dieser Richtung elektrisch leitend sind. Fachleute sprechen deshalb von eindimensionalen Metallen.

Heißes Eisen Supraleiter Seit Jahren sind Supraleiter ein „heißes“ Forschungsthema, auch wenn entsprechende Systeme erst bei extrem kalten Temperaturen funktionieren. Nach der Entdeckung neuer Supraleiter auf keramischer Basis durch den Deutschen Johannes Georg Bednorz und den Schweizer Karl Alexander Müller, die am 2. März 1987 im Vortragssaal des IBM-Forschungslabors in Rüschlikon am Zürichsee verkündet wurde, setzte ein wahrer „Run“ auf immer neue Verbindungen ein, deren so genannte Sprungtemperatur noch ein paar Kelvin höher liegen. Ein Material wird supraleitend, wenn sein elektrischer Widerstand auf Null absinkt. Dies geschieht in der Regel erst nahe dem absoluten Nullpunkt bei 0 Kelvin, was minus 273°C entspricht. Seit Anfang der 80er-Jahre wurden spezielle metallische Legierungen benutzt, die eine Sprungtemperatur von 23,3 Kelvin aufweisen. Die Sprungtemperatur ist der bei Widerstandsmessungen auftretende Punkt auf der Temperaturskala, von dem an der elektrische Widerstand plötzlich rapide zusammenbricht. Selbst die Schwedische Akademie der Wissenschaften, für die Verleihung der Nobel-Preise in Chemie und Physik zuständig, waren von diesem Fortschritt derartig begeistert, dass sie schon am 14. Oktober 1987 – nur gut sechs Monate nach Bekanntgabe der Entdeckung in Rüschlikon – den höchsten Lorbeer in Sachen Physik an das deutsch-schweizerische Team verteilte. Supraleitende Materialien sind deshalb von so großem Interesse, weil sie als idealer Leiter den elektrischen Strom ohne Verluste transportieren, aber auch den Wirkungsgrad von Maschinen und Anlagen erhöhen und die Herstellung von Permanentmagneten mit extrem hohen Magnetfeldstärken ermöglichen. Weitere Anwendungen sind im Bereich der Digitalelektronik und der Hochfrequenztechnik

139

vorgesehen. Ein besonders zukunftsträchtiges Feld sind Kurzschlusssicherungen, mit denen sich Beschädigungen von Energieverteilungsanlagen durch Kurzschlussströme verhindern lassen. Bei einem Kurzschluss im Netz wird ein Supraleiter zum Isolator und begrenzt dadurch die sonst ausufernde Stromstärke. Mit entsprechenden Bauteilen ließen sich Stromnetze deutlich kleiner auslegen, was Milliardenbeträge einsparen würde. Im April 2004 hat RWE Energy in Netphen bei Siegen den weltweit ersten supraleitenden Strombegrenzer in Betrieb genommen. Das Bauteil ist das Ergebnis eines industriellen Gemeinschaftsprojektes und wurde vom BMBF mit 2,6 Millionen Euro gefördert. Die Federführung des Projektes hatte die Nexans SuperConductors GmbH (NSC, Hürth), die auch die 90 rohrförmigen, supraleitenden Bauteile entwickelt und gefertigt hat. Fachleute sind davon überzeugt, dass die Strombegrenzer der besonderen Art einen erheblichen Qualitätsgewinn für die elektrische Stromversorgung bringen werden.

Ionentriebwerke für Satelliten Eine futuristisch anmutende Einsatzmöglichkeit für Fullerene untersucht die amerikanische Raumfahrtbehörde NASA (National Aeronautics and Space Administration), die damit Ionentriebwerke betreiben möchte. Derartige Antriebe beruhen auf dem Prinzip, Elektronen aus Treibstoffmolekülen abzuspalten und die daraus entstehenden positiv geladenen Teilchen in einem elektrischen Feld zu beschleunigen. Auf diese Weise lassen sich Geschwindigkeiten von bis zu 50 Kilometern pro Sekunde erzielen, während herkömmliche Treibstoffe, z. B. Wasserstoff/Sauerstoffgemische, nur etwa vier Kilometer pro Sekunde schaffen. Ionentriebwerke werden schon seit geraumer Zeit zur Steuerung von Satelliten in ihrer Umlaufbahn um die Erde verwendet, da man hier mit sehr geringen Treibstoffmengen eine sehr große Schubleistung erzielen kann. Dabei gilt: Je schwerer die erzeugten Ionen sind, desto größer ist dieser Schub. Deshalb „feuert“ die NASA ihre Erdtrabanten bisher mit Xenon, einem schweren Edelgas. Hier liegt die Chance für C60, das eine fünfmal größere Masse in die Wagschale werfen kann, zudem ist es leicht ionisierbar und dennoch stabil. Unter dem Strich könnte der Fulleren-Treibstoff die Leistungsfähigkeit von Ionentriebwerken deutlich erhöhen. Die potenzielle Bedeutung der Fullerene hat dazu geführt, dass das Max-PlanckInstitut für Festkörperforschung in Stuttgart, das auch im Bereich der Supraleiter auf Fullerenbasis aktiv ist, eine neue Technik zur Herstellung von leeren und endohedralen („gefüllten“) Kohlenstoffbällen entwickelt hat. Anstelle des Lichtbogens wird ein Hochfrequenzofen verwendet, mit dem Strom in einen Verdampfungskörper induziert und dieser so erhitzt wird. Insbesondere die Temperatur der Kohlenstoffquelle, die beim Lichtbogen wesentlich höher als nötig und schlechter regelbar ist, kann beim Hochfrequenzprozess über die Strommenge sehr exakt geregelt und mit einer entsprechenden Messvorrichtung überprüft werden. Das

140

ermöglicht es, die Ausbeuten an Fulleren zu optimieren und ihre Zusammensetzung in den Rußen zu steuern. Wichtig ist diese Kontrolle bei der Darstellung von endohedralen Fullerenen, die Metalle mit niedrigen Schmelz- und Siedepunkten enthalten. Mit dem Hochfrequenzofen ist es möglich, Kohlenstoff und Metalle gleichzeitig zu verdampfen, wobei die Ausbeuten bis zu 20 Gewichtsprozente an den gewünschten Verbindungen betragen.

Verbundwerkstoffe mit Nanoröhren Von den Fullerenen abgeleitet sind Nanoröhren, in denen die Kohlenstoffatome ebenfalls in Form von Sechsecken angeordnet sind. Entdeckt wurden diese merkwürdigen Fäden vom japanischen Physiker Sumio Iijima, der im NEC Elektronikkonzern eigentlich an der Herstellung von Kohlenstoff-Bällen arbeitete. Sie waren mehrwandig und bestanden aus ineinander gesteckten Zylindern mit wachsender Größe – ähnlich dem Aufbau der russischen Puppen. Später wurden dann auch einzelne Tubes hergestellt. Für diese Nanoröhren werden derzeit eine Vielzahl von Anwendungen diskutiert, von der Wasserstoffspeicherung über Flachbildschirme, Verbundwerkstoffe, Katalysatoren und Membranen bis hin zu Quantendrähten. Die im Amerikanischen „Bucky- oder Nanotubes“ genannten stäbchenförmigen Moleküle entstehen ebenfalls beim Verdampfen von Graphit. Sie sind zwischen ein und 30 Nanometer dick, haben aber eine Länge bis in den Millimeterbereich. Je nach Durchmesser, so zeigten theoretische Berechnungen, verhalten sich die Stäbchen entweder wie Isolatoren oder wie metallische Leiter. Eine wichtige Anwendung der Kohlenstoffnadeln dürften Materialien mit großer Härte werden. Die Hoffnung begründet sich unter anderem darauf, dass bereits aus Polymeren hergestellte Kohlenstofffasern gute Ergebnisse in dieser Hinsicht zeigen. Kohlenfaserverstärkte Verbundwerkstoffe gehören heute bereits zu den stabilsten Werkstoffen, die unter anderem im Flugzeugbau und in der Raumfahrt, in der Meerestechnologie und in der Energietechnik immer größere Bedeutung gewinnen. Da Nanotubes um den Faktor 1.000 dünner sind als gewöhnliche Kohlefasern, besitzen sie auch eine viel höhere Bruchfestigkeit, da diese Eigenschaft von der Größe des maximal möglichen Risses der inneren Struktur abhängt. Eine Faser mit einem Durchmesser von 30 nm kann keinen Riss in transversaler Richtung besitzen, der länger als 30 nm ist. Das bedeutet, dass mit Hilfe von Nanotubes Materialien großer Steifheit und hoher Festigkeit hergestellt werden können, weil in einem Bauteil gleicher oder ähnlicher Größe die angreifende Kraft bei den Nanoröhren auf mehr Fasern verteilt wird als bei „normalen“ Kohlefasern. Seit der Entdeckung der Fullerene und den wegweisenden Arbeiten zu ihrer Herstellung durch Professor Wolfgang Krätschmer am Heidelberger Max-Planck-Institut für Kernphysik steht der Forschung eine ganze Familie von neuartigen Koh-

141

lenstoffmolekülen zur Verfügung. Neben den Nanokugeln und -röhren handelt es sich dabei auch um so genannte Nanozwiebeln. Ähneln die Nanotubes mit ihrer Sechseckstruktur nach dem Vorbild der Bienenwaben aufgerollten Zylindern, bestehen die Nanozwiebeln aus einem Fulleren im Kern, um den sich – wie die Schichten einer Zwiebel – weitere Kohlenstoffkugeln anordnen. Derartig strukturierte Kohlenstoffmaterialien spielen offenbar eine entscheidende katalytische Rolle bei der Styrolsynthese. Dem tatsächlichen Ablauf dieses wichtigen Reaktionswegs sind Grundlagenforscher um Professor Robert Schlögl, Direktor am Berliner Fritz-Haber-Institut der Max-Planck-Gesellschaft, auf die Spur gekommen.

Energiesparende Styrolsynthese Styrol ist ein wichtiger Grundstoff der chemischen Industrie, aus dem sich der weit verbreitete Kunststoff Polystyrol aufbaut. In geschäumter Form ist er unter den Markennamen Styropor und Styrodur das wichtigste Material zur Wärmedämmung oder für wärmeisolierende Verpackungen. Etwa 1.500 Anlagen rund um den Globus erzeugen derzeit rund 25 Millionen Tonnen Styrol und erzielen etwa 66 Milliarden Euro Umsatz. Das Verfahren, nach dem diese Produktion abläuft, ist bereits 60 Jahre alt und dehydriert Ethylbenzol zu Styrol mit Hilfe eines Katalysators, der aus Kalium- und Eisenoxid besteht. Dehydrierung meint an dieser Stelle, das dem Ethylbenzol, einer flüssigen Ausgangssubstanz aus Erdöl, zwei Wasserstoffatome entzogen werden. Diese industrielle Synthese gehört zu den zehn wichtigsten Chemieprozessen überhaupt und benötigt sehr viel Energie, was schlicht einen Kostenfaktor darstellt. So ist, gemessen am eingesetzten Ethylbenzol, die neunfache Menge an überhitztem Wasserdampf von 580 bis 650 °C notwendig, damit die gewünschte Reaktion in Gang kommt. Nach 15 Jahren mühsamster Kleinarbeit, in denen abertausende diffizile Experimente durchgeführt wurden und modernste oberflächenphysikalische Analyseverfahren zum Einsatz kamen, schafften die Max-Planck-Wissenschaftler jetzt den Durchbruch. „Es ist uns gelungen, das Puzzle aus den unterschiedlichsten Einzeluntersuchungen bei der Styrol-Synthese zu einem widerspruchsfreien Ablauf von Elementarschritten zusammenzufügen – ein Ablauf, der sich auf funktionales Wissen und nicht nur auf empirische Fakten stützen kann“, erklärt Schlögl. Das Ergebnis ist außerordentlich überraschend. So muss von einer gänzlich neuen Vorstellung über den Reaktionsverlauf und die Rolle des Katalysators ausgegangen werden. Entscheidend ist vor allem, dass der energieintensive Einsatz von Wasserdampf überflüssig ist. Auf Basis dieser Forschungsergebnisse war die Idee naheliegend, den bisher verwendeten Katalysator durch geordnete Kohlenstoffstrukturen zu ersetzen. Die Forscher des Fritz-Haber-Instituts fanden heraus, dass sich Nanoröhren oder Nano-

142

zwiebeln für diese Aufgabe ideal eignen. Sie erzielen mit 60 Prozent Ausbeute an Styrol nicht nur ein Plus von immerhin 15 Prozent gegenüber dem herkömmlichen Reaktionsweg, sondern erlauben eine völlig neue Reaktionsführung mit Luft statt mit Wasserdampf. Der Clou an dieser Variante: Sie verläuft exotherm, das heißt es wird sogar Energie freigesetzt. Deshalb kann das Temperaturniveau insgesamt etwa um 150 °C abgesenkt werden, ohne dass die Reaktion Einbußen an Ausbeute oder Selektivität erleidet – ein enormer wirtschaftlicher Vorteil. Laut Schlögl sind „die Grundzüge eines preisgünstigen Verfahrens bekannt, das den Weg zu großen Mengen von Nano-Kohlenstoffen mit hervorragenden katalytischen Eigenschaften ebnet.“ Damit sind die Grundlagen für eine neue Styrolsynthese gelegt, „jetzt beginnt der Übergang von der Grundlagenforschung zur technischen Anwendung“, so Schlögl. Die Münchner Entwicklungsfirma NanoScape AG, die Professor Thomas Bein vom Center for Nanoscience (CeNS) der Ludwig-Maximilians-Universität (LMU) im Winter 2001 gegründet hat, soll nun die noch ausstehenden Arbeiten übernehmen. Das Fritz-Haber-Institut der Max-Planck-Gesellschaft hat sein gesamtes Knowhow zur Verfügung gestellt sowie die Patentrechte für den Katalysator und ein zusätzliches Schutzrecht zur Herstellung von besonders nanostrukturierten Kohlenstoffen übergeben. Die Zielsetzung ist eindeutig: NanoScape soll das neue Styrol-Verfahren zur technischen Reife entwickeln und weitere Katalyseprozesse erforschen, die von nanostrukturierten Kohlenstoffen gesteuert werden.

Molekulare Drähte für die Mikroelektronik Auch im Bereich Mikroelektronik sehen Fachleute große Chancen für die Nanoröhren. Aufbauend auf dem Zufallsfund von Iijima hat die japanische NEC Corporation ein besonderes Herstellverfahren hierfür entwickelt, die schnell von der Idee fasziniert war, aus ihnen molekulare Drähte zu erzeugen. Und in der Tat wäre eine Anwendung als „Nanowires“ denkbar, also einer elektrischen Verbindung von Molekülen durch die winzigen Tubes. Bei ihrer Herstellung entsteht ein Mix aus metallischen und halbleitenden Einheiten, wobei der letztere Zustand für die Entwicklung elektronischer Schaltkreise besonders interessant ist, weil die Tubes damit als Feldeffekt-Transistoren verwendet werden können. Doch bis 2001 existierte kein Verfahren, mit dem die gewünschten Strukturen gezielt erzeugt werden konnten. Vielmehr mussten die Wissenschaftler ihr Material unter dem Rasterelektronen-Mikroskop von Hand sortieren, eine extrem aufwendige und kostenintensive Methode – zumal wenn man bedenkt, dass elektronische Schaltkreise mehrere 100 Millionen Transistorfunktionen aufweisen. Forschern von IBM am Thomas J. Watson Research Center in Yorktown Heights (New York) gelang es dann, diesen Prozess wesentlich zu vereinfachen. Zunächst

143

wird eine Lage der unsortierten Tubes auf einem Siliziumträger aufgetragen. Per Elektronenstrahllithographie werden dann die Anschlüsse an die Transistoren angebracht und der halbleitende Teil der Strukturen mit einer angelegten Spannung auf nicht leitend geschaltet. Die metallischen Röhrchen bleiben dagegen leitend und werden durch einen starken elektrischen Impuls weggedampft. Nach dieser Prozedur bleiben nur die gewünschten Transistoren stehen, die allerdings um den Faktor 500 kleiner sind als herkömmlich hergestellte Schaltelemente in Silizium. Die Ausbeute an den gewünschten Nanotubes ist mit über 90 Prozent sehr gut. Dank ihrer Winzigkeit sollten derartige Schaltelemente viel weniger Energie verbrauchen und zudem viel schneller schalten. Wissenschaftler träumen bereits von Terahertz und mehr, das ist tausendfach schneller, als heutige Prozessoren arbeiten. „Das ist ein Meilenstein auf dem Weg zu Chips mit molekularen Strukturen“, freute sich seinerzeit Phaedon Avouris, Direktor des IBM-Forschungsinstituts. Bis etwa 2006 sollen nun erste Hybridschaltkreise gebaut werden, die die herkömmliche Silizium- mit der innovativen Nanotechnik verbinden. Erste Vertreter könnten Speicherchips sein, bei denen die Nanotubes die Speicherelemente stellen, die externe Ansteuerung und Peripherie dann aus Silizium bestehen. Bei IBM denkt man bereits über Speicherbausteine im Terrabitbereich nach, das entspricht mehr als der 1.000fachen Kapazität heutiger Speicherchips. Von großem Vorteil ist in diesem Zusammenhang, dass die Nanorörchen eine exzellente Wärmeleitfähigkeit aufweisen und deshalb die entstehende Wärme in den Schaltungen sehr gut abführen können. Die ersten Produkte erwartet Fachmann Avouris allerdings nicht vor dem Jahr 2010. Die vielfältigen Beispiele zeigen, dass die Nanotechnologie auch in der Chemie immer wichtiger wird. Denn die hier erwähnten Produkte sind erst der Anfang – in den Entwicklungslabors wird längst an einer ganzen Reihe weiterer gearbeitet. Dazu zählen kratzfeste Lacke, selbstreinigende Beschichtungen für Fassaden und Dächer, hocheffiziente Solarzellen, Flammschutz mit dünnsten Schichten, erstaunlich aufnahmefähige Wasserstoffspeicher oder hitzbeständige Klebstoffe. Das Zeitalter der Zwerge in der Chemie hat gerade erst begonnen.

144

Kapitel 6

Neuer Schub für Elektronik und Informationstechnik Von den Energiemonstern zum Transistor Die erste Computergeneration hatte noch erhebliche Mängel: Die Rechner benötigten unendlich viel Platz, verwendeten klobige Elektronenröhren und waren wahre Energievernichter. Auf der anderen Seite erzeugten sie jede Menge Abwärme, was wiederum eine aufwändige und kostenintensive Kühlung erforderte, also den Energiebedarf noch einmal vermehrte. Auch mit der Zuverlässigkeit war es nicht weit her, ständige Ausfälle trieben die Reparaturkosten in die Höhe. Einen gewaltigen Fortschritt brachte die Verwendung von Transistoren, die William Shockley und seine Kollegen 1947 von Bell Laboratories erfunden hatten. Sie erfüllten die gleiche Aufgabe wie die Röhren, nahmen deutlich weniger Platz ein und waren vor allem wesentlich günstiger. Auch ihr Energiehunger war weitaus geringer, was das Problem der Wärmeerzeugung und die daraus resultierenden Notwendigkeiten der Kühlung gleich mit reduzierte. Der erste mit Transistoren bestückte Computer war 1955 einsatzbereit, der TRADIC (Transistorized Airborne Digital Computer) wurde für die amerikanische Luftwaffe gebaut und war mit 11.000 Dioden aus dem halbleitenden Metall Germanium sowie mit 800 Transistoren bestückt, seine Leistungsaufnahme betrug nicht einmal mehr 100 Watt. Einen noch größeren Schritt auf dem Weg der fortschreitenden Miniaturisierung bedeuteten die integrierten Schaltkreise der dritten Computergeneration, die Ende der 50er-Jahre vom Physiker Jack Kilby für die Texas Instruments, Inc. (Houston, Texas) und Robert Noyce von Fairchild Semiconductor erfunden wurden. Damit konnte eine schwierige Herausforderung der bisherigen Computertypen erfolgreich eliminiert werden, die umfangreiche Verdrahtung zwischen den immer zahlreicher werdenden Bauelementen. Kilby, der 1959 ein Patent auf den integrierten Schaltkreis (IC, Integrated Circuit) angemeldet und 1964 erhalten hatte, und Noyce, der sechs Monate nach Kilby ein eigenes Patent erhielt, legten die Grundlagen für die prinzipiell heute noch gültige Chiptechnologie. Kilby vertrat die Idee, dass sich nur Halbleiter zur Schaltungsintegration eigneten, dass man also die passiven Bauelemente (Widerstände und Kondensatoren) aus demselben Material fertigen sollte wie die aktiven (Transistoren). Zudem hielt er es für sinnvoll, die einzelnen Elemente an Ort und Stelle, direkt auf dem Chip, herzustellen und so zu einer funktionsfähigen Einheit zu integrieren.

145

Robert Noyce hatte das eingereichte Schutzrecht von Kilby sofort angefochten, denn er hatte mit der so genannten Planardiffusion ein Verfahren entwickelt, mit dem die Bauelemente innerhalb eines Chips noch einfacher verbunden werden konnten. Noyce schuf alle Grundlagen für die Massenfertigung von Chips, also Fotomaske und Fotolithographie, Passivierung der Halbleiteroberfläche und das Aufdampfen von Metallwiderständen und -anschlusskontakten. Eine bedeutende Entwicklung innerhalb dieser Evolutionsphase war der Minicomputer, den die Digital Equipment Corp. (DEC, 1998 von der Compaq Computer Corp. für 9,6 Milliarden Dollar übernommen, seinerzeit die teuerste Akquisition in der Geschichte der Computerindustrie) 1965 herausbrachte und der nur noch (!) 18.000 Dollar kostete, weit weniger als die Großrechner zuvor. Waren die ersten drei Computergenerationen jeweils durch spektakuläre Fortschritte in Technik und Leistung gekennzeichnet, geht es in der vierten Generation insbesondere um die Verbesserung der integrierten Schaltkreise und eine drastische Reduzierung der Kosten. Der Weg der Integration ging vom SSI-Chip (SmallScale Integration Chip) mit rund 100 Bauelementen über MSI- und LSI-Bauteile (Medium- bzw. Large-Scale Integration), die bis zu 1.000 bzw. 10.000 Komponenten enthielten. Inzwischen verfügt man über VLSI- und ULSI-Chips (Very-LargeScale-, Ultra-Large-Scale-Integration), die mehr als 10.000 bzw. 100.000 Bauelemente besitzen. Diese Fähigkeit, immer mehr Komponenten auf einem Chip zu vereinigen, führte dann auch zur Entwicklung des Mikroprozessors. Mit diesem neuen Bauteil ließ sich das ganze Schaltsystem eines Computers mit geringen Kosten auf einem einzigen Chip verwirklichen. Heute besteht ein moderner Pentium-Prozessor der Intel Corp. (Santa Clara, Kalifornien) aus über drei Millionen verbundener Transistoren und zahlreichen weiteren Komponenten.

Durchbruch des PC per Bausatz Intel stellte seinen ersten Mikroprozessor 1971 her und verkaufte ihn für 200 Dollar, nicht einmal mehr die Hälfte des Preises, den Texas Instruments für den ersten integrierten Schaltkreis verlangt hatte, obwohl die Innovation mehr als zwanzigmal so viele Bauelemente enthielt. Wenig später waren auch die Texaner mit ihrem ersten eigenen Mikroprozessor auf dem Markt. Diese parallele Entwicklung schuf die Voraussetzungen für den Mikrocomputer, den erschwinglichen Rechner für jedermann, den wir heute unter der Bezeichnung PC (Personal Computer) kennen. Mitte der 70er-Jahre begannen Unternehmen wie MITS, Radio Shack und Apple Computer, Inc. erste PCs anzubieten. Einen ersten Durchbruch in der Verbreitung des heute universell eingesetzten Geräts war zweifellos der Altair des Unternehmens MITS. Im Dezember 1974 erschien in der Zeitschrift Popular Electronics ein Artikel, der die Anleitung zum Selbstbau eines Computers enthielt. Er basierte auf dem Mikroprozessor 8080 von Intel und kostete gerade einmal 397

146

Dollar – der Bausatz erwies sich als durchschlagender Erfolg, bereits am Erscheinungstag der Fachzeitschrift gingen bei MITS (Albuquerque, New Mexico) 200 Bestellungen ein. Welche Bedeutung der Altair für die weitere Entwicklung der Computerbranche hatte, lässt sich der Jones Telecommunications & Multimedia Encyclopedia entnehmen: „Der Altair Computer von MITS war der erste erfolgreiche kommerzielle Personal Computer. Er wurde als Bausatz für professionelle Nutzer und Hobbyanwender entwickelt, um ihn für zu Hause oder den Arbeitsplatz zu bauen und zu verwenden. Obwohl er in seinen Möglichkeiten sehr stark eingeschränkt war, gab die Entwicklung dieses Computers der jungen Branche eine völlig neue Richtung.“ MITS steht eigentlich für Micro Instrumentation Telemetry Systems und war von Ed Roberts und einer Gruppe von Airforce-Offizieren gegründet worden, um RadioTransmitter für Modellflugzeuge zu verkaufen. Ähnlich wie die berühmt gewordene Gründung von Apple durch Stephen Wozniak und Steve Jobs (die beiden Protagonisten und ihre Mitstreiter waren Absolventen der Stanford University und benannten ihre Firma nach dem, was es in der Garage häufig zu essen gab) war auch MITS anfangs eine typische Garagen-Firma. Kaum zu glauben, aber wahr, die Modellbaufreaks und der Chefredakteur für Technik von Popular Electronics, Les Soloman, sorgten für die Initialzündung bei der Verbreitung des PC. Seit diesen Anfängen hat der Computer dank der unaufhaltsamen Miniaturisierung seiner Bauelemente seinen unwiderstehlichen Siegeszug angetreten. Fast jeder Besitzer eines schlauen Rechners hat schon die irgendwie bittere Erfahrung gemacht, dass das eigene gerade erworbene Gerät schon wieder veraltet ist, wenn man zu Hause den Karton ausgepackt und alle Stecker angeschlossen hat. Hinter dieser in der Industriegeschichte einmaligen Erfolgsstory steckt das so genannte Moorsche Gesetz. 1970 kostete es einen amerikanischen Cent, um ein bit zu speichern. 1990 war dieser Preis auf ein Tausendstel eines Cents gefallen. Mit geradezu verblüffender Übereinstimmung folgt diese Kostenreduktion einer Gesetzmäßigkeit, nach der sich alle sechs Jahre der Preis auf ein Zehntel des ursprünglichen Werts verringert. Diese Zusammenhänge sind einmalig in der menschlichen Technik und die wesentliche Ursache dafür, dass die Mikroelektronik heute alle Lebensbereiche durchdrungen hat. Gordon Moore, der zur Entwicklungscrew der Bell Labs um Transistorerfinder Shockley gehörte, entdeckte diese Gesetzmäßigkeit. Formuliert man sie im Hinblick auf den technischen Fortschritt, ergibt sich, dass sich die Leistung von Computerchips etwa alle 18 Monate verdoppelt, indem ihre Strukturen immer weiter miniaturisiert werden. Vor diesem Hintergrund führt ein direkter Weg von den vergleichsweise klobigen Elektronenröhren des ENIAC, der ersten Großrechenanlage der Welt von 1945 (Electronic Numerical Integrator and Computer), in die Strukturen modernster Hochleistungschips, deren Abmessungen bereits in der Zwergenwelt angekommen sind und weiter in immer kleinere Dimensionen vordringen. Voraussetzung für

147

diesen Erfolgspfad war die ungeheure Dynamik der Mikrolithographie, dem Herstellungsprozess für die Chips, die im nachfolgenden Kapitel 7 beschrieben werden. Insgesamt haben Ingenieure und Techniker drei Hebel in der Hand, das Chipmaterial Silizium weiter zu optimieren. Zum einen lässt sich die Fläche des einzelnen Transistors und Speicherbausteins immer kleiner machen. Bedingung dafür sind präzise Instrumente, die die beabsichtigten Strukturen auf die Halbleiterkristalle übertragen. Hier geht die Entwicklung der benötigten Strahlenquellen und Optiken mit unvermindertem Tempo voran. Schon heute zeichnet sich ab, dass die Lithographie mit Extremer Ultravioletter Strahlung (EUV) Belichtungswellenlängen von elf bis 13 nm zur Verfügung stellen wird, die Strukturgrößen bis hinab zu 30 nm erlauben. Fachleute gehen davon aus, dass derartige Methoden ab 2009 etabliert werden, an denen bereits intensiv geforscht wird. Begleitend dazu müssen die Herstellungsbedingungen für die Chips immer sauberer werden, weil in den angestrebten Dimensionen bereits ein einzelnes Staubkorn zu einem bedrohlichen Meteoriten wird, das in seinen Auswirkungen dem Film „Deep Impact“ entspricht.

Strukturen immer kleiner, Wafer immer größer Der zweite Hebel liegt darin, die Siliziumscheiben, die so genannten Wafer, immer größer zu machen. Denn diese einzelne Siliziumscheibe ist es, die in den Ofen geschoben wird, mit Photolack besprüht und an die Atomkanone angeschlossen wird, mit deren Hilfe die wichtige Dotierung mit Fremdatomen durchgeführt wird. Alle diese Hightech-Handgriffe verschlingen eine Menge Geld, wobei die Aufwendungen aber weitgehend unabhängig davon sind, ob die Scheibe größer oder kleiner ist. Voraussetzung ist allerdings, dass man die fehlerfreie Herstellung der großen Scheiben uneingeschränkt beherrscht. Zu den großen dieser besonderen Zunft gehört die Wacker Chemie GmbH (München) mit ihrem selbstständigen Geschäftsbereich, der Wacker Siltronic AG (Burghausen), die schon 1953 mit den Entwicklungen zur Herstellung von Reinstsilizium begann. Dr. Eduard Enk, seinerzeit Werksleiter von Wacker in Burghausen, setzte weitsichtig auf dieses Element, obwohl die ersten elektronischen Bauelemente aus Germanium hergestellt worden waren. 1958 ging mit Hilfe von Siemens-Lizenzen die erste Produktion von Halbleitersilizium in Betrieb. Die Kosten waren hoch, der Markt in diesen Pionierjahren extrem unzuverlässig. In manchen von ihnen waren die Verluste größer als die Umsätze. Dennoch entwickelte sich der Bedarf rasant: 1959 wurden bei Wacker 530 Kilogramm Polysilizium hergestellt, ein Jahrzehnt später bereits schon nahezu 60 Tonnen. Noch dramatischer ist der Vergleich zwischen Einkristallen: Im gleichen Zeitraum stieg die Produktion von 22 Kilogramm auf über 14 Tonnen. Ein wesentlicher Impuls für diesen rasanten Anstieg beim Bedarf war die Vorstellung des ersten integrierten Schaltkreises 1959 durch Texas Instruments. 1968

148

wurde die „Wacker-Chemitronic Gesellschaft für Elektronik-Grundstoff mbH“ ins Handelsregister eingetragen und agiert seitdem als eigenständige Entwicklungsund Produktionsschmiede für Silizium. Das komplette Spektrum vom Trichlorsilan bis zur epitaxierten Scheibe (unter Epitaxie ist das Aufwachsen einer Kristallschicht auf einer Kristalloberfläche zu verstehen, ein gebräuchliches Verfahren zur Herstelllung von Bauelementen der Mikroelektronik) ist bis heute gleich geblieben – im Prinzip jedenfalls. Die Halbleiterindustrie und mit ihr die Herstellung von Reinstsilizium steckte damals noch eindeutig in den Kinderschuhen. Der normale Scheibendurchmesser betrug 30 Millimeter, vereinzelt wurden auch „sehr große“ Scheiben verlangt – mit stolzen 38 Millimetern. Die Endreinigung der polierten „Rundlinge“ war weitgehend Handarbeit, ein eingeübter Wischer mit einem acetongetränkten Papiertuch entfernte die letzten Restverunreinigungen. Anschließend wurden die glänzenden Scheiben zwischen Lagen aus Filterpapier verpackt. Die Filterverpackungen sind längst passé – inzwischen gehört Wacker Silitronic zu den drei Top-Anbietern von Reinstsilizium und beliefert die weltweit führenden Hersteller von Halbleiter-Bauelementen. Die Produktpalette umfasst heute polykristallines Reinstsilizium, tiegel- und zonengezogene Siliziumkristalle sowie Wafer bis zu 300 Millimetern Durchmesser – also das Zehnfache dessen, was den Beginn des Materials bei Wacker markiert. Das weitere Wachstum im Wafer-Bereich wird sich technologiebedingt zunehmend auf die 300 Millimeter Durchmesser verlagern. Im Vergleich mit den 200-Millimeter-Wafern erhöht sich die Fläche um den Faktor 2,25 und ermöglicht den Chipfabrikanten einen erheblichen Produktivitätsgewinn. Die Kostenvorteile erreichen bis zu 30 Prozent. Damit tragen die neuen Großscheiben wesentlich dazu bei, die Herstellaufwendungen für die nächste Generation von Mikroprozessoren und Speicherbausteinen im Gigabit-Bereich zu senken.

Die „Pizza-Bäcker“ kommen Seit Ende der 90er-Jahre des letzten Jahrhunderts steigt die Nachfrage nach den 300-mm-Wafern, weil auf den pizzagroßen Scheiben mehr als doppelt so viele Chips gefertigt werden können wie auf den herkömmlichen Wafern. Ende 2002, so schätzen Experten, war der weltweite Bedarf an den „Elektronik-Pizzen“ bereits auf über 60 Millionen Stück angestiegen. Als eines der ersten Unternehmen hatte Infineon Technologies Ende 2001 in seinem Werk in Dresden die Fertigung von 300-mm-Wafern aufgenommen, wofür Investitionen von rund 1,1 Milliarden Euro nötig waren. Die Volumenproduktion startete Infineon mit 256-Mbit-SDRAMs, die auf weniger als 64 Quadratmillimetern Fläche fast 540 Millionen elektronische Bauteile wie Transistoren und Kondensatoren unterbringen. Schon zuvor hatte Chipgigant Intel erste Halbleiterprodukte mit 130 nm Strukturbreite auf 300-mmWafern hergestellt. „Wir erwarten, dass Chips, die auf den großen Wafern produ-

149

ziert werden, 30 Prozent weniger kosten als bei kleineren Wafern“, sagt Tom Garrett, Programm-Manager bei Intel für die 300 mm. Im August 2002 konnte dann auch IBM den Einstieg in die neue Technik vollziehen. Die Fertigungsstätte in East Fishkill (Staat New York, USA) umfasst 13.000 Quadratmeter und hat 2,5 Milliarden Dollar gekostet. Mit den größeren Pizza-Wafern läutet die Industrie auch die nächste Runde noch kleinerer Strukturen ein, die im Bereich von nur noch 70 nm liegen. Auch die Siltronic AG (München), ein Geschäftsbereich der Wacker-Chemie GmbH (München), intensiviert weiter ihre Fertigung für 300 mm Siliziumwafer. Im Juni 2004 wurde in Freiberg (Sachsen) planmäßig der Betrieb in einem der modernsten Fertigungszentren dieser Art weltweit aufgenommen. „Freiberg ist ein Meilenstein bei der Neuausrichtung von Siltronic. Damit bleiben wir weiterhin ein Schrittmacher für die Branche“, sagte der Siltronic-Vorstandsvorsitzender Dr. Wilhelm Sittenthaler. Das Werk war mit einer Investition von etwa 430 Millionen Euro das größte Einzelinvestitionsprojekt in der Geschichte der Siltronic-Muttergesellschaft Wacker-Chemie GmbH. Mit dem Anfahren des Werks in Freiberg konnte Siltronic schon 2004 rund 125.000 Wafer mit dem Durchmesser 300 mm pro Monat liefern, zusätzlich stellte das Werk Burghausen etwa 75.000 Wafer her. Bis 2007 soll der Ausstoß insgesamt auf etwa 350.000 Wafer (300 mm) steigen. Sittenthaler: „Dafür müssen wir zusätzliche Kapazitäten aufbauen. Wir denken bereits jetzt an den Bau einer weiteren Fertigung.” Die Nachfrage nach 300 mm Scheiben steigt kontinuierlich an, da diese Wafer eine unverzichtbare Grundlage für die moderne Elektronik sind. Den Chipherstellern bietet ein 300 mm Wafer, der gegenüber dem Vorgängerprodukt mit 200 mm eine mehr als doppelt so große Fläche hat, eine deutlich höhere Produktivität mit Kostenvorteilen von rund 30 Prozent. Nach einer Erhebung des Elektronik-Branchenanalysten Gartner Dataquest betrug die Nachfrage nach Wafer mit einer Größe von 300 mm Ende des Jahres 2004 bereits etwa 700.000 Scheiben im Monat. Für 2007 rechnet Gartner Dataquest sogar mit fast 1,5 Millionen 300 mm Wafer monatlich. Der Wafermarkt insgesamt repräsentierte 2004 ein Volumen von fast sechs Milliarden Dollar und wird nach den Prognosen der Experten weiter zulegen. Ende 2005 hat die Siltronic AG angekündigt, die Fertigung von 300 mm Wafern in Deutschland weiter auszubauen. Siltronic will hierfür insgesamt rund 136 Millionen Euro an den Produktionsstandorten Burghausen (Oberbayern) und Freiberg (Sachsen) investieren. Im Zuge dieses Ausbauprogramms sollen bis zu 225 neue Arbeitsplätze geschaffen werden. „Die Nachfrage nach 300 mm Wafern nimmt weltweit kontinuierlich zu. Mit der Konzentration auf die Fertigung von Wafern dieses Durchmessers liegen wir genau richtig“, erklärt Sittenthaler. Siltronic zählt im Zukunftssegment 300 mm als größter Volumenhersteller außerhalb Japans zu den weltweiten Marktführern. In keinem anderen Technikfeld wie in der Elektronik bzw. Mikroelektronik hat es eine derartige Steigerung von Funktionalität und Produktivität zugleich gegeben.

150

Ein wichtiger Grund dafür ist die positive Rückkopplung: Elektronik hilft bei der Entwicklung von Elektronik, Computer bauen Computer, wobei das dennoch Lichtjahre entfernt ist von den phantastischen Vorstellung des Visionärs Drexler und seinen sich selbst reproduzierenden Nanorobotern oder Nanomaschinen. In den Industriestaaten ist Elektronik heute ohne Zweifel allgegenwärtig, allein elektronische Bauelemente hatten 2005 einen Marktwert von etwas 275 Milliarden Euro. Bereits 2002 wurden 27 Milliarden Quadratzentimeter Silizium weltweit erzeugt, das entspricht der Fläche von etwa 500 Fußballfeldern. Allein der Materialwert hierfür betrug sechs Milliarden US-Dollar. Derzeit werden immer noch 95 Prozent aller integrierten Schaltkreise auf Basis von Silizium hergestellt. Wenn man so will, erzeugt dieser Werkstoff – aus Sand hergestellt – eine enorme Wertschöpfung, das Volumen aller Produkte auf Basis von Mikroelektronik erreicht zur Zeit 1.100 Milliarden Dollar und soll in 2005 bereits 1.500 Milliarden Dollar betragen. Diese beispiellose Erfolgsstory lässt gelegentlich vergessen, welch enormer Forschungsaufwand hinter diesem Resultat steckt. In ähnlicher Form muss auch der Übergang in die Nanoelektronik begleitet werden. Schon frühzeitig hat sich das BMBF deshalb für eine Förderung entschlossen, die Bestandteil des umfassenden Konzepts IT-Forschung 2006 ist. Dabei konzentriert sich das Ministerium vornehmlich auf solche Forschungsfelder der Nanoelektronik, die im Erfolgsfall das Kompetenzprofil des Standorts stärken und die Ansiedlung der entsprechenden Produktion in Deutschland nach sich ziehen. Der Begriff Nanoelektronik ist ähnlich wie der der Nanotechnologie nicht streng und exakt definiert. Beispielsweise könnte man ihn auf alle Zweige der Elektronik anwenden, bei denen Strukturen im Nanometerbereich von Bedeutung sind. Das trifft aber schon auf heutige Bauteile zu, denn die Steuerungselektroden von Transistoren moderner Chips sind schon jetzt nur noch wenige Atomlagen dick. Im engeren Sinne ist unter Nanoelektronik eine Technik zu verstehen, die im weiterhin wichtigsten Halbleitermaterial, Silizium, mit Strukturbreiten arbeitet, die kleiner als 100 nm sind. Allerdings gibt es erste Alternativen in Form der Magnetound Spinelektronik, die neueste Erkenntnisse auf dem Gebiet des Magnetismus nutzt. Mittelfristig stellt diese Option einen aussichtsreichen Ansatz dar, die Silizium-basierte Elektronik zu ergänzen. Erste Produkte dieser Art standen 2004 zur Verfügung.

Miniaturmagneten als Datenspeicher So untersucht ein Projektteam bei Siemens Corporate Technologies (CT) in Erlangen dünne magnetische Mehrfachschichten für Speicherchips, die nur wenige Atomlagen dick sind. In solchen Bauelementen werden Datenbits nicht mehr in kleinen Kondensatoren gespeichert, sondern in Miniaturmagneten, die durch einen schwachen Stromimpuls umgepolt werden und deren Speicherinhalt elektrisch

151

ausgelesen wird. Die so genannten MRAMs (Magnetic Random Access Memory) haben einen großen Vorteil: Sobald das Informationsbit gespeichert ist, bleibt es unbeschränkt erhalten. Heutige PC-Speicher müssen dagegen viele Male pro Sekunde aufgefrischt werden und benötigen deshalb mehr elektrische Energie. Ein Speicher, der sein Gedächtnis behält, würde auch das Hochfahren von Computern nach dem Einschalten drastisch verkürzen. Das Siemens-Team will herausfinden, wie klein man die magnetischen Strukturen machen kann. Rein rechnerisch liegt die Grenze bei 25 nm, weil dann die Magnetisierung der winzigen Magnete bereits durch die Umgebungswärme verloren geht und die gespeicherten Daten unlesbar werden. Ziel der Siemens-Arbeiten sind unter anderem Magnetfeldsensoren für bildgebende Verfahren in der Medizin oder für Sensoren im Auto. Eine andere Anwendung wären rekonfigurierbare Logikbausteine. In heutigen Mikroprozessoren sind Millionen von Transistoren fest verdrahtet, so dass Korrekturen an der Schaltung für neue Aufgaben nicht möglich sind. Viele Produkte würden aber davon profitieren, wenn man die Hardware nachträglich verändern könnte. Aus einem Audioprozessor ließe sich ein Videoprozessor machen oder Prozessor und Speicher könnten auf einem Chip vereint werden, dessen Ressourcen sich den jeweiligen Anforderungen anpassen würden. Doch zurück zur Siliziumtechnologie: Die heute bereits realisierten Strukturbreiten von integrierten Schaltkreisen auf Chips der letzten Generation liegen bei 130 nm. Fachleute gehen davon aus, dass dieser Wert durch die fortschreitende Miniaturisierung bis etwa 2020 auf nur noch 23 nm zu senken sind. Pro Struktureinheit lägen dann nur noch rund 100 Siliziumatome nebeneinander. Diese Vorgabe hat zwei Ziele im Visier: Zum einen geht es darum, die Kosten der Chipfertigung weiter zu senken, zum anderen die Chips noch schneller zu machen, da durch die kürzeren Abstände auch die Signallaufzeiten auf einem Chip abnehmen. Welche dramatische Entwicklung sich auf der Kostenseite vollzogen hat, macht ein Blick zurück deutlich: 1973 kostete ein Megabit bei Speicherchips (DRAM, Dynanmic Random Access Memory, dabei handelt es sich um Schreib-Lese-Speicher in MOSTechnik, wobei DRAM die am meisten verbreitete Bauart ist) 75.000 Euro, gut zehn Jahre später war dieser Betrag auf nur noch 130 Euro gesunken. 1995 lag er dann bei nur noch drei Euro, derzeit bei etwa fünf Cent. Die heute noch eingesetzten Herstellungsverfahren dafür gehören in den Bereich der optischen Lithographie, die heute mit Wellenlängen im tiefen Ultraviolett (193 nm, DUV) arbeitet. Die Ablösung zur nächsten Stufe von 157 nm ist eingeleitet und wird bis etwa 2009 Anwendung finden. Danach enden die Möglichkeiten der klassischen Optik und es muss ein Technologiesprung zu den so genannten post-optischen Verfahren vollzogen werden. Überlappend ab 2009 dürfte Extremes Ultraviolett (EUV) eingeführt werden, bei dem vertraute optische Elemente wie Linsen durch strukturierte Spiegelsysteme ersetzt werden müssen. Danach gelangt man in den Bereich weicher Röntgenstrahlung, wo mehrlagige Spiegelsysteme zur Strahlungsreflektion benötigt werden. Alternativ oder parallel zur EUV ist auch der Einsatz von Elektronen-

152

strahlen denkbar (SCALPEL), die mit magnetischen „Optiken“ gesteuert werden müssen. Gemäß dem Gesetz von Moore verdoppelt sich etwa alle 18 Monate die Zahl der Transistoren pro Chip. 1970 lag dieser Wert bei rund 4.000, zwei Jahrzehnte später waren es bereits eine Million und bis 2007 erwarten Fachleute, dass es eine Milliarde Transistoren je Prozessor sein werden. Bis dahin wird es aber noch ein steiniger Weg, denn es sind noch eine Reihe von gravierenden technologischen Hindernissen (so genannte roadblocker) aus dem Weg zu räumen. Dazu zählen unter anderem die Entwicklung neuer Materialien für Leiterbahnen (Kupfer als Leitungsmaterial wird bereits produziert und erprobt), neue Isolierstoffe mit hohen bzw. niedrigen Dielektrizitätskonstanten (high k bzw. low k), neue Silizium-adäquate Materialkombinationen und Architektur-Konzepte für Transistoren oder Speicherelemente. Ständig zunehmende Anforderungen an die Gesamtperformance von elektronischen Bauteilen zwingen dazu, neben der Integration auf dem Chip auch die direkte Umgebung mit einzubeziehen und dafür neue Aufbau- und Verbindungstechniken zu schaffen. Ein weithin unterschätzter Bereich ist der Chipentwurf bzw. die notwendige Produktivität dieser Tätigkeit, die sich jedes Jahr verdoppeln muss, um mit den in Silizium geätzten Möglichkeiten Schritt zu halten. Diese Herausforderung wird noch dadurch verschärft, dass bei Annäherung an die Nanowelt so genannte parasitäre Elemente im Entwurf zu berücksichtigen sind. Durch das stetige Näherrücken der Leiterbahnen ergeben sich etwa kapazitive Kopplungen, ein Effekt, der mit den früheren Geisterstimmen in Telefonverbindungen zu vergleichen ist, der aber auf modernen Chips nichts zu suchen hat. Ein weiterer Punkt ist die wachsende Heterogenität der Systeme, die von den vielen unterschiedlichen Umgebungen verursacht wird, unter denen heute und vor allem künftig Chips betrieben werden. Die gleichzeitige Verfügbarkeit von Technologie-, System- und Schaltungswissen im Stadium des Entwurfs wird zu einer zwingenden Voraussetzung, diese Schwierigkeiten zu meistern.

Auf dem Sprung zu postoptischen Lithographieprozessen Seit einigen Jahren hat sich die Entwicklung der Mikroelektronik entlang der Roadmap nochmals beschleunigt. So bestätigt sich ein Trend zu zwei- statt bisher dreijährigen Zyklen von einer Generation integrierter Schaltkreise zur nächsten. Parallel dazu hat sich die Zeitspanne von der ersten wichtigen Publikation bis zur Marktreife des Verfahrens im Bereich der Lithographieprozesse auf fünf Jahre halbiert (157 nm im Vergleich zu 248 nm). Dieses enorme Tempo stößt jetzt allerdings auf fundamentale Grenzen bei den Material- und Gerätetechnologien, weil nun ein Sprung von den optischen zu den postoptischen Lithographieprozessen erfolgen muss. Brauchen wir die Nanoelektronik überhaupt, welche Innovationen wird sie möglich machen? Fachleute erwarten eine Reihe von neuen Errungenschaften wie

153

쑺 die laufende und unauffällige Kontrolle gesundheitsrelevanter Körperfunktionen, 쑺 persönliche Informations-, Kommunikations- und Unterhaltungsgeräte mit erweiterten multimedialen Funktionen bis hin zur Realisierung einer virtuellen Umgebung, 쑺 Sicherheitserkennung über biometrische Merkmale, 쑺 Automobile mit erhöhter Sicherheit durch Assistenz in allen Fahrsituationen, 쑺 das sichere und vernetzte Haus sowie 쑺 die einfache und sichere Kommunikation zwischen Mensch und Technik. Noch vor rund 20 Jahren hatte die Wissenschaft geglaubt, in der Welt des Kohlenstoffs sei alles geklärt – eine gründliche Täuschung. Denn dann kam die Entdeckung der Fullerene (siehe Kapitel 5, Seite 129ff) und die staunende Öffentlichkeit erfuhr, dass es neben Diamant und Graphit noch eine weitere Modifikation des Elements C gibt. 1991 präsentierte der Japaner Sumio Iijima die ersten Nanoröhren, winzige langgestreckte Hohlzylinder aus Kohlenstoffatomen. Sie bestehen aus einem Gerüst von C-Sechsecken – etwa so, als würde man eine Graphitschicht zusammenrollen. Nanoröhren erreichen Längen bis zu 100 Mikrometern, durch Schachtelung mehrerer Röhren ineinander können auch Durchmesser weit über 100 nm entstehen. Von besonders großem Interesse für die weitere Miniaturisierung der Mikroelektronik sind die einwandigen Röhrchen. Aufgrund der starken Stellung der japanischen Elektronikindustrie und der Entdeckung im eigenen Land hatte das fernöstliche Inselreich von Anfang an ein großes Interesse an den Nanotubes. Ende 2001 wurde die Frontier Carbon Corporation (FCC) mit Sitz in Tokio gegründet, ein 50:50 Joint Venture zwischen der Mitsubishi Corporation und der Mitsubishi Chemical Corporation. Das Unternehmen ist nicht nur das weltweit erste zur kommerziellen Herstellung von Fullerenen inklusive der Nanotubes, sondern wurde auch mit Unterstützung des weltweit ersten privaten Aktienfonds für Nanotechnologie, Nanotech Partners, aus der Taufe gehoben. FCC soll zum führenden Entwickler von Hochtechnologieprodukten auf Basis von Fullerenen und Nanotubes werden, aber auch als Hersteller und Anbieter dieser Materialien agieren. FCC hat als erster Anbieter die wirtschaftliche Produktion von Fullerenen in großem Maßstab realisiert. Dazu wurden die Patente und das Fertigungs-Knowhow der Mitsubishi Corporation mit der Produktionstechnologie im Bereich Carbon Black (Industrieruß) von Mitsubishi Chemical Corporation kombiniert. Im Februar 2002 wurde der Bau einer Pilotanlage in Kitakyusyu City gestartet, die Menge liegt derzeit bei 40 Tonnen Fullerenen jährlich. Unter dem Markennamen nanom vertreibt FCC nach eigenen Angaben Fullerene etwa zum Zehntel des bisher üblichen Preises. Über 200 Unternehmen haben bereits Proben angefordert bzw. arbeiten schon mit dem besonderen Kohlenstoff. NEC, dank ihres Forschers Sumio Iijima sozusagen „Vater der Nanoröhren“, hat unterdessen eine Fertigungstechnik zur Herstellung von Nanostrukturen ent-

154

wickelt, die eine neue Ära von elektronischen Bauteilen ermöglichen soll. Aufgrund der ganz besonderen Eigenschaften der Kohlenstoffröhren haben sie eine Halbleitercharakteristik ähnlich wie die von Silizium, zudem haben sie faszinierende Merkmale wie die Möglichkeit zur Transistorfunktion, eine extrem hohe Konduktivität (elektrische Leitfähigkeit) und eine große Widerstandsänderung im Magnetfeld, was das Potenzial für elektronische Feldemitter (Elektronenquellen) ebenso in sich birgt wie für mechanische Aktuatoren (Stellelemente).

Nanoröhrchen in Y-Form aus Berlin Einen besonders interessanten Ansatz verfolgte das Berliner Max-Born-Institut für Nichtlineare Optik und Kurzzeitspektroskopie (MBI). Mit Hilfe des Rastertunnelmikroskops ist den Berlinern gelungen, das Wachstum von Y-förmigen Nanoröhrchen nachzuweisen. Die winzigen Kohlenstoffmoleküle haben einen Durchmesser von etwas mehr als einem nm, die einzelnen Zweige dagegen sind einen bis mehrere Mikrometer lang. Die Entdeckung der Y-Röhren könnte besonders für den Einsatz in der Elektronik – als Schalter, in Transistoren oder zur Vernetzung von Bauteilen – von Bedeutung sein. Grundlage für diesen Nachweis ist die Entwicklung eines neuen Herstellungsverfahrens am MBI. Das große Interesse an den Kohlenstoffzylindern ist grundsätzlich darauf zurückzuführen, dass sie einerseits geradezu ideal der Vorstellung eines Quantendrahts entsprechen und deshalb bestens für die physikalische Grundlagenforschung geeignet sind, andererseits bereits verschiedene Anwendungen diskutiert werden. Einsatzgebiete jenseits der Elektronik sind unter anderem extrem reißfeste Verbundmaterialien, in denen die Tubes als Verstärkung dienen, Wasserstoffspeicher z. B. als Tanks für Brennstoffzellen oder als Feldemissionsquellen aus Nanoröhren für Flachbildschirme, die schon realisiert wurden. Der Erfolg der Berliner Forscher um Dr. Rudolf Ehlich beruht vor allem auf einem alternativen Herstellungsverfahren, das sich grundlegend von den heute üblichen Methoden unterscheidet und zusammen mit dem Institut für Technische Physik und Materialforschung in Budapest (Ungarn) entwickelt wurde. Bei den bisher eingesetzten Standardprozessen wird gepresstes Graphitpulver, meist zusammen mit einem metallischen Katalysator, in einer Gasentladung oder mit einem Laserstrahl verdampft. Die Nanoröhren entstehen in einer Reaktionskammer bei Temperaturen um etwa 1000 °C. Zusammen mit Resten von amorphem Kohlenstoff schlagen sie sich auf einer Trägerscheibe nieder. Die Nanoröhren werden dann von den übrigen Bestandteilen in einem Reinigungsvorgang mit Hilfe von chemischen Lösungsmitteln voneinander getrennt. Einwandige Y-Röhren wurden bei dieser Prozedur noch nie gefunden. Die MBI-Methode arbeitet anders: Die Nanoröhren wachsen auf einer Graphitschicht, die durch ihre ebenfalls sechseckige Grundstruktur quasi als Schablone

155

dient. Als Ausgangsmaterial verwenden die Physiker vom MBI Fullerene, die zusammen mit katalytisch wirkendem Nickelpulver bei etwa 400 °C aus einem Tiegel verdampft werden. Durch das Nickel werden die Kohlenstofffußbälle zum Teil zersetzt. Der Kohlenstoff trifft auf das Graphitsubstrat, auf dem er sich in Form von Nanoröhren abscheidet, wobei die Sechseckstruktur die Bildung der Röhren wesentlich erleichtert. Die Anlagerung von störenden, amorphen Kohlenstoffpartikeln wird zudem drastisch reduziert. Untersucht man die Graphitscheiben unter dem Rastertunnelmikroskop, findet man neben den bekannten ein- und mehrwandigen Tubes auch die einwandige Y-Variante. In einer Weiterentwicklung des Verfahrens werden die Röhren durch den Einsatz einzelner Laserpulse an einem definierten Ort erzeugt, der durch den Laserfokus vorgegeben ist. Dadurch sollen die Nanoröhren so arrangiert werden, dass sie auf einem Substrat alle gleich ausgerichtet sind. Die Laser-gesteuerte Deposition könnte auch zur Herstellung geordneter Matrizen von Nanoröhren dienen, die als Elektronenemitter für Flachbildschirme Verwendung finden. Doch auch das ist Wissenschaft: Das erfolgversprechende Projekt in Berlin wird nicht weitergeführt. „Eine Politik, die ein längerfristig angelegtes Konzept vermissen lässt, wird sicherlich den Wettbewerbsrückstand der Forschung in Deutschland zementieren“, klagt „Macher“ Ehlich frustriert. Wie schon erwähnt beträgt das Weltmarktvolumen für aktive und passive elektronische Bauelemente etwa 275 Milliarden Euro. Der Bauelementemarkt in Deutschland ist zuletzt (2005) um nur 1,3 Prozent auf 17,4 Milliarden Euro gewachsen, 2004 legte er noch um 8,5 Prozent auf 17,2 Milliarden Euro zu. Nach Angaben des Fachverbands Electronic Components and Systems im ZVEI spricht diese Entwicklung allerdings für die Reife des Marktes, der erstmals nach starkem, fast zweistelligem Wachstum nicht zusammengebrochen sei. Für 2006 erwartet der Verband ein Plus von fünf Prozent. Wachstumstreiber des deutschen Bauelementemarktes ist eindeutig die Kraftfahrzeugelektronik. In diesen Bereich gehen in Deutschland bereits 34 Prozent aller Bauteile, ihr Wert lag 2005 bei 5,9 Milliarden Euro. An zweiter Stelle folgt die Datentechnik mit 4,3 Milliarden Euro, ein Plus gegenüber 2004 von fast zehn Prozent. Den dritten Rang nimmt die Telekommunikation mit 3,4 Milliarden Euro ein. Das Minus von acht Prozent resultiert u. a. aus der Produktionsverlagerung im Endgerätebereich nach Osteuropa. Gute Aussichten für Sensoren im Fahrzeugeinsatz sieht auch das Marktforschungsinstitut Strategy Analytics (Boston, USA), das für 2012 ein Marktvolumen von 15,8 Milliarden Dollar prognostiziert. Das bedeutet ein jährliches Wachstum von elf Prozent. Die Studie „Automotive Sensor Demand Forecast“ sieht vor allem Anwendungen zur Leistungssteigerung und -kontrolle des Fahrzeugs, Komfort und Sicherheit als prosperierende Einsatzgebiete für die Sensorik voraus. Das stärkste Wachstum wird dabei auf Siliziumsensoren entfallen. Für den weltweiten Halbleitermarkt erwartet Future Horizons (Blakes Green Cottage, Kent, Großbritannien), Europas führendes Analysehaus im Bereich Halbleiter, ein Wachstum für 2006 von bis zu 20 Prozent. Im Jahr 2005 erreichte dieses Seg-

156

ment mit einer Zunahme von 8,2 Prozent auf 231 Milliarden Dollar nicht ganz die Vorhersagen.

BSE-Erreger als Stromkabel Einen besonders ungewöhnlichen Ansatz haben Forscher vom Whitehead Institute in Cambridge (USA) gewählt: Sie wollen mit Prionen Stromkabel im Nanometerbereich kreieren. Prionen sind die Erreger von BSE und der Creutzfeld-JakobKrankheit und haben entsprechend einen denkbar schlechten Ruf. Die winzig kleinen Eiweißmoleküle sind außerordentlich widerstandsfähig und hitzebeständig. Zudem weisen sie eine besondere Eigenschaft auf, die bisher nur in lebenden Systemen zu beobachten war: Sie reproduzieren sich ständig selbst, indem sie gewöhnliche Eiweiße dazu bringen, sich in die „bösen“ Prionen umzufalten. Auf diese Weise entstehen die so genannten Amyloid-Plaques, extrem zähe Ablagerungen im Gehirn, die der Körper nicht mehr abbauen kann. Aber genau diese Merkmale machen Prionen für ganz andere Zwecke interessant. So ist es den USForschern gelungen, feinste Eiweißstränge aus Prionen mit Gold zu beschichten und so zu einem leitenden „Elektrokabel“ zu machen. Dabei ist die Eigenschaft dieser speziellen Eiweiße, sich selbst zu Ketten zusammenzulagern, von großem Vorteil. „Diese molekulare Selbstvervielfältigung hat uns einen wirklich schwierigen Arbeitsschritt abgenommen“, bestätigt Dr. Susan Lindquist, Biologin am Whitehead Institute. Die winzigen Stromleiter könnten in der Nanoelektronik, also in Computerbauteilen und in optischen Schaltungen, aber auch in der Medizintechnik, eine wichtige Rolle spielen.

Baukasten für Nanowerkzeuge Beim Vorstoß in die Nanowelt werden neuartige Verfahren benötigt, mit denen Bauteile von der Größe weniger Atome gezielt geformt und positioniert werden können. Einen genialen Werkzeugkasten für diese Dimensionen hat der Physiker Dr. Oliver Schmidt am Max-Planck-Institut für Festkörperforschung zusammen mit seinen Kollegen Dr. Karl Eberl und Christoph Deneke entwickelt, was den drei Wissenschaftlern den Philip-Morris-Forschungspreis 2002 eingebracht hat. Ihre Leistung ermöglicht die maßgeschneiderte Herstellung und Positionierung von winzigsten Röhrchen, Stangen, Membranen, Pipelines, Ringen und Nano-Inseln auf einer Chipoberfläche. Diese Bauteile entstehen durch geschickte Kombination von physikalischer Selbstorganisation in dünnsten Schichten mit Techniken, wie sie heute auch bei der Produktion von Computerchips angewandt werden.

157

So stellten die Physiker ein Nanoröhrchen mit einem Durchmesser her, der nur ein Tausendstel der Dicke eines Haars beträgt, indem sie eine hauchdünne Schicht – nur wenige Atome dick – von der Oberfläche eines Chips abätzten. Diese beginnt sich zu biegen und rollt sich dann von selbst auf – wie Papier, das man über eine Kante zieht. Die abgelösten, hauchfeinen Filme lassen sich auch zu verschiedenen Formen biegen und falten, wie bei der japanischen Papierfaltkunst Origami. Die Filme können aus unterschiedlichsten Materialien bestehen, die spezielle elektrische oder mechanische Eigenschaften haben, sodass eine Reihe neuer Anwendungsmöglichkeiten in der Nanoelektronik denkbar sind. „Top-down- und Bottom-up-approach müssen zusammenfinden, um die volle Leistungsfähigkeit der Nanotechnologie freizusetzen. Dazu haben wir konventionelle Methoden der Halbleiterprozesstechnologie mit selbstorganisierten Bildungsprozessen verbunden“, beschreibt Preisträger Oliver Schmidt selbst seinen Ansatz. Unter Top-down versteht man in diesem Zusammenhang Prozesstechnologie aus Lithographie und Ätzverfahren, unter Bottom-up Selbstorganisation. Sein Ergebnis generiert die Möglichkeit, Nanoobjekte in definierter Form, Größe und Beschaffenheit an festgelegten Positionen zu erzeugen. Damit könnten unter anderem Milliarden von individuellen Nanostrukturen in höchstintegrative Technologien wie die Siliziumtechnologie eingesetzt werden. Ein konkretes Beispiel ist die Verwendung von angeordneten selbstorganisierten Nanoinseln aus SiliziumGermanium zur Verbesserung des konventionellen MOSFET (Metal-Oxide-Semiconductor Field-Effect-Transistor), der in nahezu allen heutigen elektronischen Geräten zu finden ist, vom Computer bis zum Rasierapparat. „Unsere Gruppe arbeitet bereits eng zusammen mit dem Unternehmen Motorola, um in den nächsten Jahren diesen neuartigen und patentierten Transistor auf den Prüfstand zu bringen“, so Schmidt. Im Falle einer erfolgreichen Realisierung könnte ein bedeutender Teil der mehrere 100 Milliarden Dollar schweren Silizium-Technologie auf diese neuen Bauelemente zurückgreifen. Mit ihnen ließen sich doppelt so schnelle Schaltungen herstellen wie bisher. Durch das Ablösen, Umfalten und Aufrollen von ultra-dünnen Folien können eine Vielzahl von sich selbst bildenden Nanostrukturen erzeugt werden. Dazu gehören Mikro- und Nanoröhren aus verschiedensten Materialien und Wandstärken. Mögliche Anwendung sind Rohrleitungen in einer nur fingernagelgroßen Chemiefabrik oder selbsttätige Analysesysteme, die den Kapillareffekt zum Ansaugen von Flüssigkeiten nutzen. Auch das Einrollen von Metallen verspricht innovative Bauelemente, wie Mikro- und Nanospulen, Transformatoren und Kondensatoren. Durch die Arbeiten der drei Max-Planck-Forscher wird in Zukunft ein großer Baukasten von neuartigen Werkzeugen und Nanokomponenten zur Verfügung stehen, gefüllt mit Bohrern, Pinzetten, Kanülen und Spritzen sowie Hüllen, Flossen, Spiegeln oder Pumpen. Sie könnten Teile von komplexen Nanomaschinen werden, die in Zukunft einen festen Platz in unserem Alltag einnehmen. „Aber auch Visionen

158

sind erlaubt“, sagt Physiker Schmidt. „Vielleicht wird die Hülle des vielbeschworenen Nano-U-Boots eines Tages aus einer dünnen abgelösten Halbleiterfolie bestehen und der Antrieb aus einer sich hin- und herbewegenden Halbleiterflosse.“

Laser aus atomaren Schichtstapeln Fast jeder zweite Amerikaner, gut jeder dritte Westeuropäer verfügt über einen eigenen Computer und immer mehr Nutzer wollen ins Netz. Internet- und Intranet-Verkehr verzeichnen einen sprunghaften Anstieg und haben in ihrem Datenstrom bereits die Sprachkommunikation per Telefonie übertroffen. „Der weltweite Datenfluss im Internet summiert sich derzeit auf rund ein Terabit pro Sekunde“, bestätigt Alastair M. Glass von den Bell Labs in Murray Hill (New Jersey, USA). Tera steht für eine Billion und ein Terabit entspricht etwa dem Inhalt von 300.000 dicken Büchern. Setzt sich diese rasante Entwicklung fort – und alle Vorzeichen sprechen dafür – wird das Internet schon 2005 allein in den Vereinigten Staaten eine Bandbreite von 280 Terabit pro Sekunde benötigen. Diese gewaltige Daten-Flut ist nur noch mit der optischen Signalverarbeitung in den Griff zu bekommen. Das gilt nicht nur für die weiten Entfernungen der Wide Area Networks, sondern im zunehmenden Maße auch für die kürzeren Verbindungen in regionalen und örtlichen Netzen bis hinab zur Verkabelung von Großrechnern und Mehrprozessorsystemen. Eine Schlüsselrolle in diesen Systemen kommt Halbleiterlaserdioden zu, die besondere Eigenschaften als Lichtemitter aufweisen. Mit ihrer Hilfe können elektrisch gespeicherte Informationen in optische Signale umgewandelt werden. Dies macht es möglich, große Datenmengen in Form von Licht effektiv und schnell über Glasfasern zu transportieren. Die Daten werden in die Glasfaser eingeschleust, indem man einen Laser an- und abschaltet. Diese ‚Glühbirnen‘, so genannte VCSEL, stellt u. a. die U.L.M photonics GmbH in Ulm her. Das Start-up, das einige Jahre vom Technologiekonzern Schott (Mainz) mitfinanziert wurde, hat sich auf die komplizierte Fertigung besonders erfolgversprechender Lichtquellen spezialisiert. Es entwickelt und produziert die jüngste Generation so genannter VCSEL (Vertical Cavity Surface Emitting Laser). Diese oberflächenemittierenden Laserdioden haben gegenüber den bisher dominierenden Streifenlasern, die ihr Licht seitlich über die Kante aussenden, erhebliche Vorteile. So kann man sie einfacher prüfen und montieren, zudem verfügen sie über bessere optische Eigenschaften zur Einkopplung des Lichts in die Leiter. 2003 hat die U.L.M. photonics neue Reinräume mit Epitaxieeinrichtungen in Betrieb genommen, mit denen sich fünf Gallium-Arsenid-Scheiben gleichzeitig beschichten lassen oder – anders gesagt – auf denen fast eine halbe Million Laserdioden auf einen Streich hergestellt werden können. Seit Juli 2005 hat sich die U.L.M. photonics im Zuge eines Management-Buy-Outs von Schott getrennt. „Wir

159

haben uns mit unserem Partner Schott während der letzten Jahre sehr gut entwickelt, jetzt ist an der Zeit, auf eigenen Füßen zu stehen,“ begründete Dr. Dieter Wiedenmann, Geschäftsführer von U.L.M., diesen Schritt. Obwohl sich auch im Bereich der VCSEL nicht alle Hoffnungen erfüllt haben, werden weiter große Umsätze prognostiziert: So erwarten Marktforscher für 2010 ein Volumen von 450 Millionen Dollar.

160

Kapitel 7

Heinzelmännchen für Feinmechanik, Optik und Analytik Hohe Ausgaben für Forschung und Entwicklung Mit einem Gesamtumsatz von annähernd 40 Milliarden Euro im Jahr 2005 gehört die optische, medizinische und mechatronische Industrie zu den wichtigsten Branchen in Deutschland. Sie zeichnet sich durch eine Exportquote in Teilbereichen von fast 70 Prozent, eine hohe Wachstumsdynamik und durch erhebliche Potenziale in Zukunftsmärkten wie der Nanotechnologie, der Telekommunikation oder der Medizintechnik aus. Mit einem weit überdurchschnittlichen Investitions- und Innovationsniveau kann sie als Paradebeispiel dafür gelten, den Erhalt und Ausbau des Wissensvorsprungs zum zentralen Erfolgsfaktor für die wettbewerbsfähige Positionierung Deutschlands im Weltmarkt zu machen. Als erfreuliches Signal für die Zukunft und die internationale Wettbewerbsfähigkeit der Branche sind überdurchschnittlich hohe Ausgaben für Forschung und Entwicklung von etwa neun Prozent des Umsatzes zu werten. Im Teilmarkt Laser und Optische Komponenten (Photonik), in dem Deutschland mit Weltmarktanteilen bis zu 40 Prozent traditionell stark ist, wird für die kommenden Jahre bis 2010 ein Wachstum von rund zehn Prozent erwartet. Die Anwendungsfelder der optischen Technologien sind wie die Medizintechnik oder die Halbleiterfertigung selbst Zukunftsmärkte. Deshalb sind kurze Innovationszyklen hier kennzeichnend. Dank ihrer guten Position bietet sich der deutschen Industrie die Chance, auch die nachgelagerten Technologiebereiche zu erschließen. Dafür sorgt auch die mittelständische Prägung der gesamten Branche, die eine vitale Gründerkultur mit vielen Start-ups aufweist, die oftmals aus Spin-offs entstanden sind. Im Ergebnis hat Deutschland so auch in der Medizintechnik eine führende Position. Auch wenn optische Technologien derzeit im Fokus des Interesses stehen, bleibt die Feinmechanik ein ebenso wichtiges wie innovatives Feld. Erst kürzlich hat das Forschungszentrum Karlsruhe ein nanostrukturiertes Material entdeckt, das direkt elektrische in mechanische Energie umwandelt. Muskeln aus Metall für Miniaturroboter oder Kleinprothesen – das ist eine der Visionen, die durch diese Entdeckung Wirklichkeit werden könnte. Projektleiter Dr. Jörg Weissmüller und sein Team entwickelten ein neuartiges nanoporöses Platin, das sich beim Anlegen einer elektrischen Spannung reversibel ausdehnt. Weltweit erstmalig lassen sich damit

161

an einem Metall makroskopisch messbare Längenänderungen durch das Anlegen von geringen elektrischen Spannungen hervorrufen. Durch diesen Durchbruch können verschiedene mikrotechnische Komponenten realisiert werden, die inzwischen zum Patent angemeldet worden sind: Schalter und Regler, direkte Spannungsanzeiger oder andere Sensoren, Aktuatoren sowie Bewegungswandler, die die Umkehrung des Effekts ausnutzen.

Muskeln aus nanoporösem Metall „Wir haben zunächst nanostrukturiertes Platin hergestellt. Dabei wird ein Festkörper aus kleinen Nanopartikeln mit vielen dazwischen liegenden Poren aufgebaut“, so Weissmüller. Diese spezielle Form des Edelmetalls ändert unter dem Einfluss einer elektrischen Spannung ihre Ausdehnung in einer Stärke, die bisher mögliche Werte bei Metallen um ein Vielfaches übertrifft. Dadurch wird eine Vielzahl von Anwendungen realisierbar, die vorher unerreichbar schienen. So lassen sich Bauelemente herstellen, die elektrische Arbeit direkt in Bewegung umsetzen. Die technischen Möglichkeiten reichen von mikroskopischen Ventilen, die entweder von außen oder – abhängig von ihrer Umgebung – auch selbständig geschaltet werden können, über adaptive Optiken und intelligente Materialien, die bei Bedarf ihre Form ändern, bis hin zu den schon erwähnten künstlichen Muskeln. Weitere Anwendungen sind Dosiereinheiten, Schalter und Regler, z. B. zum Öffnen und Schließen eines Stromkreises, oder Messgeräte für Ionen oder elektrische Spannungen. Der umgekehrte Effekt, also die Umwandlung von Beschleunigung in einem Stromimpuls, lässt sich für Bewegungs- und Kraftsensoren nutzen, wie sie z. B. für die Auslösung von Airbags im Auto verwendet werden. Bereits auf der Hannover Messe 2002 hat das Max-Planck-Institut für Festkörperforschung in Stuttgart einen künstlichen Muskel vorgestellt, der aber auf dem Einsatz von Nanotubes (siehe Kapitel 5, Seite 134ff.) beruht. Die Kohlenstoff-Nanoröhrchen haben einen Durchmesser von einem nm und verhaken zu einem Vlies. Durch das Anlegen einer elektrischen Wechselspannung können sie zur „Zuckung“ angeregt werden, die wie eine künstliche Muskelbewegung erscheint. Ihre besonderen Vorteile liegen in der hohen Zugfestigkeit und Temperaturresistenz. Die einzelnen Röhrchen können in der Nanorobotik zur Bewegungsanregung bzw. als Sensoren zum Bewegungsnachweis in winzig kleinen Maschinen und Bauteilen eingesetzt werden.

Das Photon als Technologieträger Optische Technologien übernehmen für Innovationen im 21. Jahrhundert eine Schlüsselrolle – das gilt nicht nur erkennbar in der Kommunikation, sondern eben-

162

so in Medizin und Gentechnik, in Mikroelektronik, Verkehr und Fertigung. Seit Herbst 1999 haben Wirtschaft, Wissenschaft, Verbände und Organisationen in einer bisher einmaligen Aktion einen Strategieprozess in Gang gesetzt, der die Forschungs- und Wettbewerbsfähigkeit Deutschlands im Bereich der Optik erhalten und ausbauen soll. „Das Photon löst das Elektron als Technologieträger ab“, begründet Gerd Litfin, Geschäftsführer der Linos Photonics GmbH & Co. KG (Göttingen) und zugleich einer der Sprecher des Lenkungskreises, die breit angelegte Initiative. Sie erfolgt auf der Basis folgender Definition: „Die Optischen Technologien umfassen die Gesamtheit physikalischer, chemischer und biologischer Naturgesetze und Technologien zur Erzeugung, Verstärkung, Formung, Übertragung, Messung und Nutzbarmachung von Licht.“ Die durchgängige Anstrengung aller Beteiligten ist auch eine Antwort auf die amerikanische Herausforderung. Die USA widmen diesem Themenfeld erhebliche Aufmerksamkeit. Schon 1998 veröffentlichte der National Research Council die Studie „Harnessing Light – Optical Science and Engineering for the 21st Century“, die unter der Federführung des hierfür gegründeten Committee of Optical Science and Engineering (COSE) erarbeitet wurde. Der COSE-Report gab nicht nur eine Bestandsaufnahme des Gebietes, sondern auch eine Vision für die Zukunft, identifizierte Chancen und Potenziale dieser Schlüsseltechnologie für die amerikanische Wirtschaft und zeigte Strategien und Ansätze für eine optimale Erschließung der künftigen Märkte auf. Die Bedeutung der Optik ist gar nicht hoch genug einzuschätzen: So hat die Datenspeicherung durch die Nutzung von Photonen einen gewaltigen Sprung nach vorn gemacht. Kostengünstige Halbleiterlaser waren die Voraussetzung für den Siegeszug der CD und der DVD (Digital Versatile Disk), die seit 1996 auf dem Markt ist und die dank des rot emittierenden Lasers eine Speicherkapazität von knapp fünf Gigabyte hat – fast das Zehnfache der CD. Noch im Jahr 2000 entfielen 75 Prozent auf Audio Compact Discs (CDs) und CDROMs, 21 Prozent auf bespielbare CD-Rs und nur vier Prozent auf Digital Versatile Disks (DVDs) – insgesamt wurden knapp 21 Milliarden Datenträger hergestellt. 2005 hat sich das Blatt gewendet: Die Zahl der Datenträger hat sich mehr als verdoppelt, allerdings haben sich in dieser kurzen Zeitspanne die Marktanteile deutlich verschoben: Während bei CDs und CD-ROMs ein Rückgang auf 40 Prozent zu beobachten ist, nehmen die anderen beiden Segmente auf 37 Prozent (CD-Rs) bzw. 23 Prozent (DVDs) zu. Ursache für diese rasante Entwicklung war die Nachfrage nach immer höheren Speicherdichten – und ähnlich wie in der Mikroelektronik geht das Rennen um höhere Leistungen immer weiter. Deshalb wird bereits seit einigen Jahren an den Nachfolgern der DVD gearbeitet. Zur Wahl stehen zwei Alternativen: die Blu-ray Disc und die HD DVD (HD steht hier gleichermaßen für high density und high definition). Welche Lösung das Rennen machen wird, ist noch nicht entschieden. Zwei

163

Konsortien mit wichtigen Playern der Unterhaltungselektronik konnten bisher keine Einigung über einen gemeinsamen Standard erzielen und verfolgen jeweils das eigene Projekt weiter. Auf längere Sicht halten aber viele Fachleute die Blu-rayVersion für aussichtsreicher, weil sie höhere Datenmengen ermöglicht. Treiber für noch mehr Speicherkapazität ist in erster Linie das hochauflösende Fernsehen (High Definition TV), das für das Abspielen z. B. von Filmen größere Datenübertragungsraten benötigt. Der maximale Wert beträgt beim HDTV rund 19,40 Megabits pro Sekunde, doch eine DVD schafft höchstens 10,08 Megabits pro Sekunde. Bei allen optischen Speichermedien sind die später auszulesenden Informationen im Kunststoffmaterial Polycarbonat in einer Art Barcode gespeichert, der auf unterschiedlich langen Vertiefungen (Pits) entlang einer spiralförmigen Spur beruht. Das eingeprägte Muster, das mit einem Laserstrahl abgetastet wird und das durch Heißabformung einer Master-CD im Spritzguss entsteht, besitzt Dimensionen im Nanometermaßstab. Bei der CD wird rotes Laserlicht mit einer Wellenlänge von 780 Nanometern (nm) verwendet, bei der DVD sind es 650 nm immer noch im roten Bereich und bei der Blu-ray 405 nm. Von diesem blauen Laser leitet sich auch die Bezeichnung ab. Die Datendichte beträgt bei der CD 0,8 Gigabyte (GB), bei der DVD 4,5 GB und bei der einschichtigen Blu-ray 25 GB. Später sollen die Scheiben in einer zweischichtigen Version dann bis zu 54 GB fassen, was zwölf Mal mehr Speicherplatz zur Verfügung stellt, als herkömmliche DVDs momentan zu bieten haben. Zustande kommt dieser Kapazitätssprung durch engere Abstände der Pits sowohl hinter- als auch nebeneinander. Das macht eine bessere optische Auflösung erforderlich. Sie wird durch den Einsatz eines stärker fokussierten Lasers mit einer geänderten numerischen Apertur (0,85 statt 0,6 bei der DVD) und die Verlagerung der Informationsebene näher an die Oberfläche erreicht. Auch in Pharmazie und Wirkstoffforschung bahnen sich revolutionäre Fortschritte an. Bisher dauert die Entwicklung eines Arzneimittels über zehn Jahre und verursacht Kosten von über 250 Millionen Euro. Hochleistungs-Screening-Verfahren mit optischen Markern gestatten die Messung von 200.000 Proben pro Tag. Somit lassen sich eine Million Substanzen pro Woche für die Wirkstoffsuche durchtesten – bei minimalem Substanzeinsatz durch Miniaturisierung der Reaktionskammern. Unter dem Strich werden so Entwicklungszeiten und Kosten halbiert. Zudem sind die neuen Methoden empfindlich, vielfältig und zuverlässig. Photonen sind auch in der industriellen Fertigung ein leistungsfähiges Werkzeug – ganz gleich ob für Makro- oder Mikrotechnik. Licht zum Erhitzen beim Schneiden und Schweißen, zum Bohren feinster Löcher, zum unverwischbaren Beschriften, zum Belichten in der Lithographie zur Chipherstellung ist unentbehrlich geworden und dabei, sich in der Produktion aller Branchen zu etablieren. Erhebliches Potenzial in der Materialbearbeitung wird Kurzpulslasern zugeschrieben. Aus Forschungsergebnissen kennt man die Leistung, die so genannte Femtosekundenlaser (Femto = Billiardstel) abgeben können: Sie erreicht Petawatt (Peta = Billiarde) und entspricht – wenn auch nur sehr, sehr kurzzeitig – der 300fachen Leistung aller

164

Großkraftwerke der Welt. Der Markt für Gas- und Festkörperlaser in der Materialbearbeitung wächst seit Jahren zweistellig – deutsche Firmen haben hier mit über einem Weltmarktanteil von über 30 Prozent eine besondere Erfolgsstory geschrieben. Auch das Gebiet der Optik, das gerade in Deutschland eine enorme Tradition aufweisen kann, gerät in immer mehr Bereichen ins Reich der Zwerge. Das gilt sicher für die Mikrolithographie zur Herstellung kontinuierlich kleinerer Strukturen auf den Computerchips, das gilt aber unter anderem ebenso für die optische Messtechnik, die im Mikro- und Nanometerbereich wichtige Voraussetzungen für die Fertigungssteuerung und Qualitätssicherung schafft, für neuartige Strahlquellen (Leuchtdioden und Halbleiterlaser) und Beleuchtungskörper z. B. auf Basis von so genannten OLEDs sowie in Bearbeitungs- und Beschichtungstechnologien, wo immer häufiger der Nanometermaßstab regiert. Die chemische Nanotechnologie gewinnt auch im Bereich der Hochleistungsoptik an Gewicht. Durch eine Oberflächenbehandlung der Werkstoffe auf Nanoebene wird die vorhandene Lücke zwischen modernen optischen Systemen und einer sicheren Massenfertigung geschlossen. Nanotechnologisch angepasste Materialien erfüllen die Werkstoffanforderungen für innovative optische Hightech-Produkte. Daraus resultiert eine maßgebliche Effizienzsteigerung der optischen Systeme sowie eine spürbare Kostenreduktion. Die heutige Technik in diesem Bereich weist trotz der jahrelangen Erfahrung immer noch optische und konstruktive Nachteile auf. Linsen sowohl aus Glas als auch aus Kunststoff zur Lenkung von Licht sind entweder mit großem fertigungstechnischen Aufwand verbunden oder ihre Abbildungsleistung ist begrenzt. Diese Nachteile lassen sich durch Nanotechnologie ausgleichen. Entsprechende Beschichtungen können so verarbeitet werden, dass dadurch hauchfeine Oberflächenstrukturen mit optimalen optischen Funktionalitäten verfügbar werden. Erreicht wird dieses Ziel durch die extrem präzise Strukturierungsfähigkeit der Werkstoffe im Nanometerbereich. Durch die maßgeschneiderten Eigenschaften der Nanomaterialien erhält eine Vielzahl von Beleuchtungssystemen eine wesentlich effizientere Lichtausnutzung. Das Licht wird besser gelenkt und gesteuert, die Anzahl der Bauteile, aus denen die Beleuchtungskörper bestehen, wird deutlich verringert. Das Ergebnis sind extrem wirksame optische Systeme mit einfacher, für die Massenproduktion geeigneter Verarbeitung und unter dem Strich erhebliche Kostensenkungen. Vor diesem Hintergrund ist auch die Nanogate Technologies GmbH (Saarbrücken, siehe auch Kapitel 5, Seite 125ff.) im Bereich der Optik aktiv: „Für einen profitablen Markteintritt sind insbesondere optische Komponenten interessant, die bisherige Systeme ablösen und so die Wertschöpfungskette zur Herstellung des Endproduktes verkürzen. Ein derart attraktiver Markt ist z. B. der Flachbildschirmsektor, der ständig neue technische Innovationen benötigt“, erklärt Dr. Rüdiger Naß, Chief Technology Advisor der Nanogate Technologies GmbH (Saarbrücken).

165

Das Zeitalter der OLEDs hat begonnen Seit über einem Jahrzehnt faszinieren sie Forschergruppen, Industriebosse und Marktanalysten gleichermaßen – OLEDs (Organic Light Emitting Diodes) sind zum Hoffnungsträger für viele geworden. Wichtiger Bestandteil sind organische Moleküle und Polymere, die leuchten, wenn sie unter Strom gesetzt werden. Einer der Markt- und Forschungsführer für die polymeren Halbleiter ist die Covion GmbH, die im März 2005 von dem Darmstädter Chemieunternehmen Merck kfaA übernommen wurde und seitdem als Merck OLED Materials GmbH (Frankfurt a. M.) firmiert. Sie ist Bestandteil des Merck Unternehmensbereichs Liquid Crystal. Der weltweite Umsatz mit entsprechenden Displays betrug 2002 bereits 80 Millionen Dollar. Bis 2008, so Prognosen von Fachleuten, sollen es schon 2,3 Milliarden Dollar sein. DisplaySearch erwartet sogar ein Wachstum auf drei Milliarden Dollar bis 2007. Viele Experten gehen davon aus, dass OLEDs allmählich Flüssigkristalldisplays (LCD) ersetzen werden, die derzeit noch viele Anwendungen von Uhren über Handys, von flachen Monitoren bis zu Fernsehern dominieren. Zunächst wird der weltweite Durchbruch in Handys, PDAs und im Auto für Navigationssysteme oder andere Anzeigen erwartet. Andere sehen eher ein friedliches Nebeneinander beider Technologien voraus. Forschung und Entwicklung werden unter anderem von den großen Namen der Elektronikindustrie vorangetrieben – in diesem spannenden Gebiet tummeln sich Konzerne wie Kodak und Philips, Sony und IBM, Samsung und Chi Mei Optoelectronics, aber auch Chemieunternehmen wie DuPont oder BASF. Erste Produkte, z. B. Displays für Handys, sind am Markt, auch größere Bildschirme etwa für PDA-Computer gibt es ebenso wie Prototypen für 15- und 17Zoll-Monitore, ihre Marktreife wird für etwa 2010 erwartet. OLED-Fernseher sollen dann einige Jahre später einsatzbereit sein. Noch ist die Leistungsfähigkeit der OLEDs begrenzt, weil nach etwa 10.000 Betriebsstunden ihre Leuchtkraft nachlässt. Die Lebensdauer speziell von blauen Dioden liegt sogar noch unter 1.000 Stunden, dann verschieben sich die Farben der blauen Dioden in Richtung Magenta. Ein Problem, das Industrie und Forschung aber mit Nachdruck zu lösen versuchen. Die Entwicklung begann 1979, als der Kodak-Wissenschaftler Chin Tang während seiner Arbeiten mit Solarzellen ein blaues Abstrahlen des verwendeten organischen Materials entdeckte. 1987 konnte er mit seinem Kollegen Steve van Slyke erstmals Elektrolumineszenz an sehr dünnen organischen Multischichten bei niedrigen Einsatzspannungen von unter zehn Volt aufzeigen. Dies forcierte eine weltweite Forschung, die 1990 zur Entdeckung der Elektrolumineszenz in Polymeren und innerhalb von zehn Jahren zu ersten Anwendungen führte. Insbesondere die Displayindustrie zeigt starkes Interesse an den OLEDs, zumal bei dieser Technologie keine Reflexionen und Farbverfälschungen entstehen. OLEDs könnten laut Expertenmeinung künftig fast alle Anforderungen erfüllen, die an ein Display gestellt werden. Inzwischen arbeiten mehr als 100 Firmen an der Weiterentwicklung. „Was einen nicht mehr loslässt bei den OLEDs, ist das Gefühl, dass ein Dis-

166

play nicht nur funktional, sondern auch schön sein kann“, meint Les Polgar, der Ende der 80er Jahre den entsprechenden Geschäftsbereich für die Eastman Kodak Co. (Walnut Creek, Kalifornien) aufgebaut hat. Leuchtdioden aus anorganischen Halbleitern, wie z. B. Galliumarsenid und verwandten Systemen, sind seit Jahrzehnten bekannt. Doch für viele Anwendungen haben sie empfindliche Nachteile: Da sie auf einkristallinen Substraten realisiert werden, können nur relativ kleine Leuchtflächen hergestellt werden, auch die Nutzung gewölbter oder flexibler Flächen ist unmöglich. Als Alternative haben Leuchtdioden auf der Basis organischer Halbleiter in den vergangenen Jahren große Fortschritte gemacht. Wesentliche Vorteile der organischen Elektrolumineszenz sind, dass durch die chemische Variabilität organische Leuchtdioden mit praktisch allen Farben hergestellt und dass aufgrund des Dünnschichtsystems die OLEDs großflächig und auf flexiblen Trägern aufgebracht und beliebig geformt werden können. Der Aufbau der OLEDs besteht im allgemeinen aus einer organischen Schichtfolge, deren Dicke typischerweise insgesamt 100 nm beträgt und die zwischen einer Anode und Kathode eingebracht wird. Im üblichen Fall ist das Substrat Glas, auf das transparentes leitendes Indiumzinnoxid (ITO) aufgetragen wurde. Darauf kommen die organischen Schichten: ein Löcher transportierendes Material, emittierendes Material und Elektronen transportierendes Material. Abschließend folgt eine meist metallische Kathode. In diesem Bereich ist im übrigen auch Ormecon mit dem organischen Metall PAni (siehe Kapitel 5, Seite 104) aktiv. In nur 20 bis 50 Nanometer dünnen Schichten kann das organische Metall in neuen Leuchtdioden als Injektionsschicht eine entscheidende Rolle spielen. In ihr produziert das besondere Material positive Ladungen (Löcher), bei deren Zusammentreffen mit Elektronen Lumineszenz entsteht. Auch wenn sich in dem Geschäftsfeld OLED viele große Unternehmen betätigen, bleibt jede Menge Platz für Start-ups. Das gilt auch für die junge Firma Novaled GmbH, die Know-how zur Herstellung leistungsfähiger, organischer Bildschirme und Anzeigen entwickelt. An dem Unternehmen, das 2001 in Dresden gegründet wurde, ist die Fraunhofer-Gesellschaft (FhG, München) mit ihrem Institut für Photonische Mikrosysteme (IMPS, Dresden) beteiligt. Großflächige Displays für Werbezwecke, innovative Beleuchtungssysteme, hauchdünne Farbmonitore für Handys, Organizer, Notebooks oder Computer-OLEDs lassen sich vielfältig einsetzen. Der Vorteil der organischen Displays: Die Bildschirme bieten aus jedem Blickwinkel ein brillantes Bild und sind – im Gegensatz zu LCD-Anzeigen – voll videotauglich. Novaled arbeitet an der Entwicklung von Flachdisplays und Beleuchtungssystemen auf dieser Basis. Dabei setzt die Firma OLEDs mit besonders niedriger Betriebsspannung ein. Die organischen Leuchtdioden der zweiten Generation verbrauchen weniger Energie – das schont die Akkus von Laptop, Mobiltelefon und anderen Geräten. Der Trick: Eine gezielt eingebrachte Verunreinigung – von Fachleuten Dotierung genannt – erhöht die Effizienz und senkt die nötige Betriebsspannung der OLEDs. Die Dotierungstechnologie wurde am Institut für Angewandte Photophysik (IAPP) der TU Dresden erforscht. Novaled entwickelt diese Technologie weiter, um die leis-

167

tungsfähigen OLEDs künftig in Farbbildschirmen und Beleuchtungssystemen einsetzen zu können. Gefertigt werden sie in einer vollautomatischen Inline-Anlage, die am IPMS installiert ist. „Wir helfen unseren Kunden ihre vorhandene OLEDTechnologie zu modifizieren, damit sie organische Leuchtdioden der zweiten Generation herstellen können“, erläutert Firmenmitbegründer Professor Karl Leo. Darüber hinaus erarbeitet Novaled kundenspezifische technische Lösungen für die Entwicklung und Fertigung von organischen Flachdisplays und Beleuchtungssystemen. Novaled ist ein Spin-off aus dem IAPP und dem IPMS, mit denen es auch weiter eng kooperiert. Das Unternehmen wurde 2001 von Professor Karl Leo, Dr. Martin Pfeiffer, Dr. Jan Blochwitz-Nimoth und Jörg Amelung gegründet. In der Kategorie „Visionär“ war die Novaled GmbH für den Deutschen Gründerpreis 2005 nominiert. Ende November 2005 sicherte sich das Unternehmen 15 Millionen Euro Venture Capital für die weitere Entwicklung und Vermarktung der OLED-Technologie. Eine wichtige Rolle im OLED-Sektor spielt auch die Firma Aixtron AG (Aachen), weltweit führender Anbieter von Anlagen zur Herstellung epitaktischer Halbleitermaterialien. Die Aixtron-Anlagen werden von einem breit gefächerten Kundenkreis weltweit genutzt, um Hochleistungsbauelemente, wie z. B. LEDs (Light Emitting Diodes), Laser, VCSELs oder Detektoren, herzustellen. Im Mai 2003 verkündete Aixtron den Verkauf einer OVPD-Anlage (Organic Vapour Phase Deposition) der neuesten Generation zur Herstellung von OLED-Displays an die RiTdisplay Corporation (Hsinchu, Taiwan). RiTdisplay ist einer der führenden Hersteller von OLEDs und hat bereits OLED-Displays für verschiedene Anwendungen entwickelt. Dazu zählen Handys, Instrumententafeln, e-Books, Spiele und PDAs. Die Depositionstechnologie von Aixtron zur Abscheidung organischer Halbleitermaterialien gilt als revolutionär. Sie beruht auf der Generierung dünner Schichten von so genannten „kleinen Molekülen“ (SM von Small Molecules) durch Gasphasentransport. Das Verfahren wurde von Professor Stephen R. Forrest (Princeton University, USA) entwickelt und patentiert. Dabei werden die organischen Materialien im Feinvakuum verdampft und mit Hilfe eines inerten Trägergases zum Substrat gebracht und dort abgeschieden. Diese Technologie hat gegenüber anderen Verfahren wesentliche Vorteile hinsichtlich Prozesskontrolle, Reproduzierbarkeit und Betriebskosten. Die amerikanische Firma Universal Display Corp. (UDC, Ewing, New Jersey) besitzt die Nutzungsrechte an der OVPD und hat diese exklusiv an Aixtron zur Entwicklung, Herstellung und zum Vertrieb entsprechender Anlagen lizenziert. Im November 2005 hat RiTdisplay die AixtronTechnologie qualifiziert, d. h. der Weg zur Massenproduktion von OLED-Bauelementen für Farbdisplay-Anwendungen ist offen. „Die beeindruckenden Eigenschaften unserer mit OVPD hergestellten OLEDs haben gezeigt, dass unsere Investition in diese neue Technologie die richtige Entscheidung war. Sie wird unsere Marktposition für OLED-Displays stärken“, so Dr. Yih Chang, General Manager von RiTDisplays.

168

2005 wurden mit OLED-Displays weltweit schon rund 550 Millionen Euro umgesetzt. Gegenüber dem Vorjahr entspricht dies einer Steigerung von knapp 60 Prozent. Die Anzahl von 67 Millionen verkauften Displays bedeutet eine Verdoppelung gegenüber 2004. Eingebaut werden die meist noch kleinen, selbst leuchtenden Anzeigen derzeit vor allem in Mobiltelefone und MP3-Player. Wissenschaftlern vom Fraunhofer-Institut für Angewandte Polymerforschung IAP in Potsdam ist es nun gelungen, mit leuchtenden Polymeren transparente OLEDAnzeigen zu bauen. Deren Helligkeit, Lebensdauer und Wirkungsgrad ist so hoch, dass erste kommerzielle Anwendungen absehbar sind. „Möglich wurde das durch eine neue Art von Metallelektroden, die die Polymerschicht mit elektrischem Strom versorgt“, erläutert Armin Wedel vom IAP. „Der Clou für die Transparenz liegt in ihrem Aufbau. Bisher waren sie zu dick, um Licht im nennenswerten Umfang passieren zu lassen. Macht man sie andererseits zu dünn, leidet die elektrische Leitfähigkeit und damit Leuchtstärke und Lebensdauer der Displays.“ Dank ihrer Transparenz können die OLED-Anzeigen mit den klassischen und mittlerweile sehr hoch entwickelten TFT-Flüssigkristalldisplays der verschiedensten Geräte kombiniert werden. Dabei denken die Forscher daran, zusätzliche Funktionen oder Warnhinweise als leuchtende oder blinkende Flächen und Symbole direkt in das OLEDDisplay zu integrieren. Durch den Einsatz der beiden Anzeigetypen lässt sich die Informationsdichte auf gleicher Fläche erhöhen. Ganz neue Ideen werden derzeit auch mit der Fachhochschule Potsdam und der Hochschule der Künste in Bremen untersucht. So können transparente OLEDs herkömmliche Displays nun von vorne oder hinten beleuchten. Wenn zukünftig größere Flächen beherrschbar werden, ließen sich die leuchtenden Polymere auch in Verbundgläser einbringen. So würden aus Windschutzscheiben von Autos oder Fassadenelementen Anzeigetafeln, die den Durchblick kaum noch trüben.

OLEDs auch für Beleuchtungszwecke Sie sind nicht nur superdünn und leicht, sondern auch flexibel, hell und energiesparend: Die Eigenschaften der organischen Leuchtdioden sind in der Tat bemerkenswert. Bislang waren sie insbesondere ein Hoffnungsträger für die Displayindustrie, die nach Vorhersagen der Marktforscher von Stanford Resources schon 2006 Umsätze von über einer Milliarde Dollar mit den neuartigen Leuchtdioden erwarten kann. Doch auch für hochwertige Beleuchtungselemente stellen sie eine Alternative zu konventionellen Produkten wie Glühbirnen und Leuchtstoffröhren dar, die bisher den Beleuchtungsmarkt beherrschen. Als eines der ersten Unternehmen hatte der Technologiekonzern Schott (Mainz) das Potenzial dieses Forschungsgebiets erkannt und konsequent angepackt. So wurde 2002 in Mainz ein Forschungslabor eingeweiht, in dem rund 20 Wissenschaftler die Grundlagen zur Herstellung großflächiger Bauteile auf Basis der

169

leuchtenden Kunststoffe erarbeiten sollten. Die Aktivitäten wurden vom BMBF und dem rheinland-pfälzischen Wirtschaftsministerium gefördert und waren auf drei Jahre angelegt. Anorganische Leuchtdioden (LEDs) sind seit langem bekannt. Sie finden sich als farbige Lichtquellen in fast jedem elektronischen Gerät, auf Werbeflächen oder in Verkehrsampeln. Trotz ihrer technischen Reife haben sie einen gravierenden Nachteil, denn ihre Herstellung ist nach wie vor relativ teuer. So ist ihre Anwendung auf Spezialgebiete für punktförmige Lichtquellen beschränkt geblieben. Im Gegensatz dazu ist der Aufbau selbst von größeren, qualitativ hochwertigen Leuchtkörpern mit den polymeren Pendants grundsätzlich einfach und darüber hinaus potenziell sehr günstig. Vor diesem Hintergrund hatte Schott mit Partnern aus Industrie und Wissenschaft damit begonnen, die Grundlagen für eine Fertigung flächiger dünner Strahlungsquellen auf der Grundlage Licht emittierender Schichten zu entwickeln. Im Dezember 2004 wurde das Entwicklungsprojekt komplett von der Merck kfaA übernommen. Kurz darauf, im Februar 2005, stärkte Merck die OLED-Aktivitäten zudem durch den Kauf der Covion Organic Semiconductors GmbH (Frankfurt a. M.), die zur britischen Avecia mit Sitz in Manchester gehörte. Für die innovative Beleuchtungstechnologie müssen organische Schichten mit Dicken im Nanometerbereich großflächig auf Substrate aufgetragen werden. Beschichtungsverfahren nehmen deshalb eine Schlüsselrolle ein. So sind weitreichende Kenntnisse über Substrate, ihre Strukturierung und Reinigung erforderlich. Zudem werden Verfahren zur Verkapselung der Flächen, Analyse- und Testprozesse benötigt. Die OLEDs bestehen aus einem Substrat, einer transparenten Elektrode, einer oder mehreren dünnsten organischen Schichten von nur etwa 75 bis 100 nm Stärke sowie einer Gegenelektrode. Dieser Aufbau muss durch eine Verkapselung geschützt werden, weil sowohl die organischen Lagen als auch einige Elektrodenmaterialien sehr empfindlich auf Oxidation durch Sauerstoff oder Feuchtigkeit reagieren. Der Träger ist in der Regel Glas, aber es sind auch Kunststofffolien oder ein Glas-Plastik-Laminat denkbar. Für die transparente Anode werden Indium-ZinnOxid (ITO) oder ähnliche Oxide verwendet. Das Funktionsprinzip einer OLED beruht ähnlich wie bei der anorganischen LED auf Injektionselektrolumineszenz. Bei ausreichender Spannung zwischen den Elektroden (zwei bis zehn Volt) werden Ladungsträger in die organische Schicht injiziert, die sich durch das angelegte elektrische Feld zur Gegenelektrode bewegen. Treffen dabei Elektronen und Löcher aufeinander, bildet sich manchmal ein entsprechendes Paar (Exziton genannt), das strahlend zerfallen kann. Das Emissionsspektrum, das heißt die ausgesandte Farbe, ist von der Energie des Exzitons und damit vom verwendeten organischen Material abhängig. Für hocheffiziente OLEDs müssen alle diese Vorgänge optimal aufeinander abgestimmt werden. Genaue Untersuchungen über das Potenzial des OLED-Beleuchtungsmarkts liegen noch nicht vor. Immerhin hat das United States Display Consortium (USDC, San

170

Jose, Kalifornien) bereits Anfang 2001 dieses Thema als wichtig erkannt und in die Planung, die so genannte Road Map, aufgenommen. Eventuelle Anwendungen gibt es zuhauf: Dazu zählen Beleuchtungs- und Designkomponenten im Auto, Leuchtreklamen in der Werbung, Consumer-Produkte wie Herde und Kühlschränke im Haushaltsbereich sowie Infoanzeigen und Signale im Verkehr. Inzwischen verbinden Forscher mit OLEDs weit reichende Visionen: Dazu zählt auch die leuchtende Tapete, die ihre Farbe auf Wunsch andern kann und gleichzeitig als Bildschirm dient. Für diese Verbindung aus Beleuchtungskörper und Display dürfte aber noch einige Entwicklungszeit nötig sein. Auf jeden Fall steht schon heute fest, dass die OLEDs Hoffnungsträger auch für einen geringeren Stromverbrauch sind. Die Beleuchtung macht heute in Deutschland rund acht Prozent des gesamten Energiebedarfs aus. Dieser ließe sich deutlich reduzieren, wenn herkömmliche Lampen durch die neuen Technologien – bis hin zur Tapete – ersetzt würden. Insgesamt erwarten Marktforscher deutlich steigende Umsätze für OLEDs in allen Anwendungsbereichen: So sollen die Umsätze bis 2008 auf über 6,5 Milliarden Dollar ansteigen.

Polymerelektronik gewinnt an Gewicht Nicht zuletzt die stürmische Entwicklung der OLEDs und der Chemie-Nobelpreis 2000 für grundlegende Arbeiten im Bereich der leitfähigen Polymere hat die Aufmerksamkeit auf das Gebiet der Polymerelektronik gelenkt. So gewinnen organische Materialien immer mehr an Gewicht in der Photonik bzw. der Optoelektronik. „Sie vereinen dabei ‚intelligente‘ Eigenschaften, wie elektrische Leitfähigkeit, elektrooptische Aktivität und Lichtemission, mit den für Kunststoffe ureigenen Vorteilen, wie geringes Gewicht, einfache Variationsmöglichkeiten der Eigenschaften durch chemische Derivatisierung, gute Verarbeitbarkeit und geringe Kosten“, erklärt Professor Klaus Meerholz vom Fachbereich Physikalische Chemie der Universität Köln. Derivatisierung bezeichnet die Umwandlung von chemischen Verbindungen in verwandte Abkömmlinge meist durch nur einen Reaktionsschritt. Das wesentliche Plus der Polymerelektronik ist die billige Herstellung. Die Polymermaterialien können in geeigneten Lösungsmitteln gelöst und dann z. B. wie elektronische Tinte durch Druckverfahren strukturiert aufgebracht werden. Weltweit ist ein intensiver Forschungswettbewerb im Gange, um die Polymerelektronik zum praktischen Einsatz zu bringen. Denkbare Möglichkeiten sind z. B. Funk-Etiketten als elektronische Preisschilder für die Erfassung von Waren, selbstemittierende flache und flexible Displays oder großflächige Detektoren. Gerade der attraktive Preis könnte neue Märkte erschließen. Die Entwicklung von polymeren Bauelementen mit elektrischen, optischen und anderen Funktionalitäten hat in den vergangenen Jahren große Fortschritte gemacht. Extrem preiswerte, flexible mikroelektronische Systeme aus Funktionspoly-

171

meren könnten unseren Alltag nachhaltig verändern. Zu den visionären Anwendungen gehören der elektronische Barcode ebenso wie die elektronische Zeitung. Aufgrund der großen Wichtigkeit dieses Gebiets hat das BMBF in den zurückliegenden Jahren die Förderschwerpunkte „Polymerelektronik“ sowie „Displays auf der Basis Organischer Leuchtdioden (OLED-Displays)“ eingerichtet. Das Vorhaben Polymerelektronik lief von November 2001 bis Dezember 2004, das Finanzvolumen betrug 11,4 Millionen Euro, wovon 7,6 Millionen Euro Fördergelder waren. Der Schwerpunkt OLEDs wurde im Dezember 1999 begonnen und dauerte bis März 2005. Das Gesamtvolumen belief sich hier auf 20,4 Millionen Euro, wovon das BMBF 13,1 Millionen trug.

Technologiewechsel bei der Chipherstellung Das Innovationstempo in der Halbleiterindustrie bleibt unverändert hoch – allen derzeitigen Marktturbulenzen zum Trotz. Gemäß dem Mooreschen Gesetz verdoppelt sich die Leistung von Computerchips etwa alle 18 Monate, indem ihre Strukturen immer weiter miniaturisiert werden. Dies ist nur möglich, wenn entsprechende mikrolithographische Verfahren zur Verfügung stehen, mit denen die Bearbeitung der Silizium-Wafer (siehe Kapitel 6) erfolgt. Zwangsläufig werden für diese Prozesse in den Belichtungsmaschinen (Wafer-Stepper), die das komplizierte Design der elektronischen Bauelemente und Leiterbahnen übertragen, fortlaufend kleinere Lichtwellenlängen eingesetzt. Heute erfolgt die Massenfertigung bereits mit Eximer-Lasern, die mit Wellenlängen von 248 und 193 nm arbeiten, die also schon in den unsichtbaren, kurzwelligen UV-Bereich gehören. Für die nächste Chipgeneration, waren Wellenlängen von 157 nm vorgesehen, die mit FluorLasern erzeugt werden könnten. Seit Anfang 1999 arbeitete ein deutsches Konsortium schon an dieser nächsten Etappe der Mikrolithographie, die den rasanten Fortschritt bei der Herstellung von Halbleitern ermöglicht. Das Bundesministerium für Bildung und Forschung (BMBF) förderte diese Initiative zur 157-Nanometer-Lithographie. Die Grenze, die mit klassischen optischen Methoden erreichbar ist, liegt bei 193 nm. Zur bereits in Vorbereitung befindlichen so genannten EUV-Lithographie (EUV = extremes Ultaviolett), an der in Deutschland ebenfalls schon geforscht und entwickelt wird, klafft eine Lücke, die mit der 157-nm-Technik geschlossen werden sollte. Dabei spielte die Schott Lithotec AG (Jena), die Mikrolithographie-Tochter von Schott Glas, eine entscheidende Rolle, weil das Unternehmen kristallines Calciumfluorid in höchster Reinheit herstellt. Nur dieses Material ist für die Projektionsobjektive und das 157-nm-Laserlicht geeignet, das zur Abbildung der Strukturen benutzt wird, weil es gegenüber dem kurzwelligen Licht eine hohe Beständigkeit und chemische Stabilität aufweist. Im September 2001 hat Schott eine dritte Fabrik zur Herstellung der Einkristalle in Betrieb genommen und damit seine Fertigungskapazität nahezu verdoppelt.

172

Die vorläufig letzte Stufe der Lichtoptik ist, wie erwähnt, die Verwendung der 193nm-Linie, die sich mit Hilfe eines Argon-Fluorid-Excimerlasers (ArF) generieren lässt. Noch kürzere Wellenlängen von 157 nm lassen sich mit Fluor-Excimerlasern (F2) erzielen, allerdings ist der damit verbundene technische und dadurch der finanzielle Aufwand beträchtlich: Während sich die Kosten für die Lithografie auf ArFBasis pro Belichtungsmaschine auf zwölf Millionen Dollar belaufen, sind es für F2 bereits 30 Millionen Dollar. „Gegenwärtig scheint es eher unwahrscheinlich, dass es zu einer Realisierung der 157-nm-Linie kommt“, resümiert Dr. Uwe Behringer, Leiter für Technologieverfolgung, Förderung und Standardisierung am Institut für Mikrostrukturtechnik des Forschungszentrums Karlsruhe. Vielmehr zeichnet sich ab, dass man mit Hilfe einiger technischen Tricks weit in den sub-wavelenghtBereich vordringen kann. „Ich halte es für möglich, mit Hilfe des bewährten ArFExcimerlasers und dem Einsatz der Immersion-Lithografie Strukturgrößen im Bereich von 25 Nanometern realisieren zu können“, schätzt Behringer. Mehrere Wege führen nach Rom – dies gilt offensichtlich auch für die Realisierung von „sub-wavelenght“-Technologien. Einer der „Tricks“ bei der Fertigung von Chip-Strukturen unterhalb der Wellenlänge der Lichtquelle ist die „Optical Proximity Correction“ (OPC). Dieser Trick basiert auf der Methode, in den Ecken der ursprünglichen Maskenstrukturen Zusatzstrukturen anzubringen, die eine Verrundung der Strukturen durch die Lichtbeugung, die auf dem Wafer während des photolithographischen Prozesses entstehen, zu minimieren. „Mit Hilfe dieses Verfahrens werden wir in Bereiche vorstoßen, die weit unterhalb der Wellenlänge des sichtbaren Lichts liegen“, zeigt sich Dr. Tillmann Blaschke, kaufmännischer Geschäftsführer „Advanced Mask Technology Center“ (AMTC) in Dresden siegesgewiß. Das im Oktober 2003 auf Initiative der Unternehmen Infineon Technologies, AMD und DuPont eröffnete AMTC verfolgt das Ziel, weltweit Maßstäbe in der Entwicklung und Pilotproduktion neuartiger Photomasken zu setzen und gemeinsam die Entwicklung zukunftsträchtiger Maskentechnologien voranzutreiben. So ist es mit Hilfe der Immersionslithografie gelungen, im 193-nm-Bereich eine Strukturfeinheit und Strukturqualität zu erzielen, die theoretisch erst mit der 157nm-Linie machbar wäre. Der Trick beruht auf einer Immersionsschicht, die sich zwischen dem Objektiv der Belichtungsanlage und dem Wafer befindet. Durch das Medium wird der Gesamtbrechungsindex der Linse erhöht und damit die numerische Apertur, kurz NA genannt, der Linse vergrößert. Je größer ihr Wert ist, desto besser löst ein Objektiv Details im Präparat auf. Auf diese Weise ist es möglich, die Abbildungsqualität zu erhöhen, ohne sich auf die Risiken der bisher wenig erprobten 157-nm-Technologie einzulassen. Als erste Immersions-Flüssigkeit setzte die Branche zunächst auf reines Wasser. Allerdings ist die Verwendung von Wasser als Immersions-Flüssigkeit nicht unproblematisch. Technische Herausforderungen, die durch die Aufrechterhaltung einer einheitlichen Wassertemperatur entstehen gehören ebenso dazu wie die Auswirkungen von Mikroblasen auf die Bilderzeugung. So sind neben Wasser seit kurzem

173

auch andere Flüssigkeiten im Gespräch, um zu einem höheren Brechungsindex zu gelangen und numerische Apertur-Werte von bis zu 1,6 zu ermöglichen. „Im Gegensatz zu Wasser, das einen NA-Wert von 1,38 besitzt, lassen sich mit Öl Werte von 1,52 erzielen“, unterstreicht Gerd Scheuring von der Münchener MueTec GmbH. Gute Chancen verspricht sich der Experte für Immersionstechnologien auch von wäßrigen Salzlösungen auf der Basis von Phosphaten oder Sulfaten. In etwa fünf Jahren dürfte im Bereich der optischen Lithografie aber auch mit den besten technologischen Kunstgriffen das Ende der Fahnenstange in Sicht sein. Um kürzere Wellenlängen zu erreichen, wird eine Belichtung mit extrem ultraviolettem Licht (EUV), einer weichen Röntgenstrahlung mit einer Wellenlänger von 13,4 nm, vermutlich unumgänglich sein. „AMTC-Mann“ Blaschke rechnet damit, dass diese Technologie in seinem Hause bis 2010 zur Marktreife entwickelt werden könne. „Dann sprechen wir über Strukturgrößen von 20 Nanometern, prophezeit er.“ Ein „Stolperstein“, der einem raschen Generationswechsel noch im Wege steht, sind ungelöste Fragen bei der Herstellung defektfreier Masken. Die Herausforderung besteht insbesondere darin, dass sich die extrem kurzwellige EUV-Strahlung nicht in das Korsett der „optischen“ UV-Strahlung zwingen läßt. So wird die EUVStrahlung von nahezu sämtlichen Materialien, selbst Gasen, vollständig absorbiert, was einen Belichtungsprozess im Vakuum erforderlich macht. Demzufolge verbietet sich auch der Einsatz transparenter Masken oder refraktiver Optiken, wie zum Beispiel Linsen. Der Einsatz von EUV-Licht erfordert dagegen ausschließlich reflektierende optische Elemente, also Spiegel. Diese bestehen aus einem Substrat mit ganz besonderen Eigenschaften, auf das dann die zurückstrahlenden Schichten aufgetragen werden.

Über 100 Schichten bis zum Spiegel Zur Beschichtung der Substrate hat Schott Lithotec eine neue „Advanced-QualityProduktionslinie“ etabliert. Hier kommt modernste Sputtertechnologie unter besten Reinraumbedingungen zum Einsatz. Schon bei der Konzeption der Linie wurde auf das Erreichen niedrigster Fehlerquoten Wert gelegt. Auf dem Weg vom Substrat zum Maskenblank werden über 100 Schichten aufgebracht – jeweils nur wenige Atomlagen und damit nm dick. Da kein Material EUV-Strahlung von Natur aus reflektiert, müssen künstliche Kristallgitter generiert werden, die über Interferenz den notwendigen Spiegeleffekt erzeugen. Daraus erklärt sich auch die hohe Anzahl der aufzubringenden Schichten. Auch in diesem Bereich kooperiert Schott Lithotec mit externen Partnern, darunter dem Fraunhofer-Institut für Angewandete Optik und Feinmechanik (IOF, Jena), der Physikalisch-Technische Bundesanstalt in Braunschweig und dem National Institute of Standards (Gaithersburg, Maryland,

174

USA). Die notwendige Messtechnik, um das Reflektionsverhalten der Maskenblanks schon während der Produktion zu untersuchen, wird speziell für Schott Lithotec von der Jenoptik Mikrotechnik und der AIXUV GmbH (Aachen), dem ersten Anbieter von kommerziell verfügbaren EUV-Strahlungsquellen für den Laborbereich, entwickelt. Seit Anfang Mai 2001 laufen in enger Kooperation mit dem Otto-Schott-Forschungszentrum die EUVL-Programme von Schott Lithotec, die vom Bundesministerium für Forschung und Bildung (BMBF) gefördert werden. Die Aktivitäten sind gleichermaßen in ein deutsches Gesamtkonzept zur EUVL (EUVL-Konsortium, an dem neben Schott Lithotec auch Firmen wie Carl Zeiss, Lambda Physik, Infineon, Jenoptik und die niederländische ASML als Stepperhersteller beteiligt sind) wie in die europäische Forschungsinitiative MEDEA+ eingebunden. MEDEA ist das Nachfolgeprogramm für JESSI, das mit weitreichender deutschen Hilfe unter anderem von Schott und Carl Zeiss die ASML in die Lage versetzt hat, zum weltweit zweitgrößten Lieferanten von Lithographieausrüstungen aufzusteigen. Das Ziel der Entwicklungsanstrengungen von Schott Lithotec ist eindeutig: Wenn nach 2010 die breite industrielle Einführung der EUV-Technologie ansteht, sollen Schlüsselmaterialien und -komponenten von Schott kommen. Dazu zählen das Substratmaterial für Maske und optische Elemente ebenso wie komplette Mask Blanks. Der Anteil am Mikrolithographie-Markt soll so kontinuierlich ausgebaut werden.

Meilenstein für neue Technologie zur Chipfertigung Inzwischen sind die Entwicklungen zur EUV-Lithographie ein gutes Stück vorangekommen. Im Dezember 2005 hat Carl Zeiss SMT die erste Projektionsoptik für diese Technologie an den niederländischen Partner ASML ausgeliefert. Die EUV-Projektionsoptik wird von ASML, Weltmarktführer bei Chipbelichtungssystemen, in ein sogenanntes EUV „Alpha-Demo-Tool“ integriert, mit dem der Einsatz dieser Technologie in der Massenproduktion von Mikrochips vorbereitet wird. Im Gegensatz zu klassischen, lichtoptischen Lithographiesystemen besteht die EUVL Projektionsoptik komplett aus Spiegeln, da keine transparenten Materialien für die kurze Wellenlänge vorhanden sind. Die technischen Anforderungen an die Spiegel sind enorm: Die asphärisch, also „nicht-kugelförmig“ geformten Flächen müssen mit einer Genauigkeit von wenigen Atomlagen gefertigt werden. Auch die Oberflächenrauhigkeit darf wenige Atomlagen nicht übersteigen, um Streulicht zu vermeiden. Das Komplettsystem, bestehend aus sechs präzise zueinander angeordneten Spiegeln, wird im Vakuum betrieben, denn auch geringste Luftmengen würden die EUV Strahlung absorbieren. Eine ebenfalls entscheidende Rolle spielt die

175

Beschichtung der Spiegel, die erst für die reflektierende Wirkung sorgt. Ausreichend hohe Reflektivität kann nur durch den Aufbau eines Pakets aus über 50 Doppelschichten von Molybdän/Silicium (Mo/Si) erzielt werden, wobei jede einzelne dieser Doppelschichten weniger als 10 nm dick ist. „Die Auslieferung der ersten Projektionsoptik ist ein Meilenstein im EUV-Programm von ASML. Entwicklung und Herstellung anspruchsvollster Optiksysteme ist die immer wieder bewiesene Kernkompetenz von Carl Zeiss SMT. Mit der EUV Technologie freuen wir uns darauf, das gemeinsame Geschäft auch auf die nächste Generation von Lithographiesystemen auszudehnen“, sagte Noreen Harned, Vice President Marketing, Technologie und New Business bei ASML. Dr. Andreas Dorsel, Geschäftsbereichsleiter Lithographie-Optik bei Carl Zeiss SMT, ist überzeugt: „EUV hat die größte Wahrscheinlichkeit, eine zentrale Rolle in der Strukturierung zukünftiger Mikrochips zu spielen. Wir freuen uns sehr, jetzt erste Früchte einer bereits fast zehnjährigen Entwicklungsarbeit zu ernten. Die Lieferung der ersten Projektionsoptik für ASMLs EUV-Vorführsystem öffnet die Tür zur Einführung dieser Technologie in die Massenproduktion von Mikrochips.“ Carl Zeiss SMT hat bereits Mitte der 90er Jahre mit ersten Forschungs- und Entwicklungsarbeiten für die EUVL begonnen und bis heute über 100 Millionen Euro investiert. Das Bundesministerium für Bildung und Forschung hat diese Entwicklung mit über 22 Millionen Euro durch Forschungsförderprojekte unterstützt. Auch die EU hat die EUVL-Entwicklung gefördert. Lithographie, insbesondere die EUV-Lithographie, spielt eine entscheidende Rolle in der weiteren Entwicklung der Chipherstellung und ist mittlerweile eine bedeutende Industrie in Deutschland. Optische Systeme für Beleuchtung und Projektion sind das Herzstück der Lithografiemaschinen. Die Lieferung der ersten VollfeldEUV-Optik demonstriert die innovative Stärke der deutschen optischen Industrie und ihrer führenden Rolle im internationalen Wettbewerb. Diese Führungsrolle wird das Wachstum der Mikro- und Nanoelektronik Industrie Deutschlands stärken und zu Wirtschaftswachstum sowie künftiger Beschäftigung beitragen. Derweil denken Wissenschaftler bereits an die fernere Zukunft in Sachen Computer-Miniaturisierung: So reichen die heute bereits skizzierten Produktionstechniken nur noch für vier oder fünf Chipgenerationen. „Spätestens 2011 ist mit ihnen Schluss. Ohne neue Produktionstechniken schafft es die Industrie nicht, Chips mit Strukturen kleiner als 22 Nanometer herzustellen. Die kleineren Chips könnten auf ‚Nanofäden‘ oder ‚Nanoröhrchen‘ basieren“, erklärt Juri Matisoo, Vice President of Technology des Branchenverbandes SIA (Semiconductor Industry Association). Für die neuen Forschungsansätze wird bereits viel Geld bewegt. So hat das amerikanische National Nanotechnology Coordination Office 2004 schon eine Milliarde Dollar in die Nanotechnik-Forschung stecken. Zwischen 2005 und 2008 sollen weitere 3,7 Milliarden Dollar hinzukommen. Die EU-Kommission hat bis 2006 etwa 24 Millionen Euro in das Projek ‚NanoCMOS‘ (Complementary Metal Oxide

176

Semiconductor) investiert, in dem sich Infineon, Philips und ST Microelectronics zusammengeschlossen haben, um die 45-Nanometer-Technik voranzubringen. In der zweiten Projektphase geht es ab 2006 um 32- und 22-Nanometer-Strukturen. Auch Deutschland macht seine Nanotechnik-Hausaufgaben. Das Bundesministerium für Bildung und Forschung hat mit rund 200 Millionen Euro die Deutsche Innovationsinitiative Nanotechnologie gestartet. Ein Teilprojekt mit der Bezeichnung NanoFab bezieht sich auf die Elektronik der Zukunft. Und sie ist erfolgreich: Das zeigt die Eröffnung der AMD-Chipfabrik für moderne Athlon-Prozessoren im Oktober 2005, die Gründung des FhG-Forschungszentrums für Nanoelektronische Technologien (CNT) im Mai 2005 in Dresden sowie die Produktion von 300-mmWafern für die Chipherstellung in Freiberg. Dresden ist heute dank staatlicher Fördermittel Europas bedeutendster Standort für Mikro- und Nanoelektronik: Die Förderung dieser Technologien hat allein in der Region Dresden bereits 20.000 neue Arbeitsplätze geschaffen. Mit NanoFab geht BMBF diesen Weg konsequent weiter zur Fabrikation von Nanoelektronik.

Dosiersysteme für wenige Nanoliter Mikro- und Nanotechnik liegen bei vielen Anwendungen und Produkten eng beieinander, vielfach bedingen sie sich geradezu wie häufig in der Mikrosystemtechnik (MST) oder Mikromechanik. Ein gutes Beispiel für diesen Zusammenhang ist die microdrop GmbH in Norderstedt bei Hamburg, die 1990 vom Physiker Michael Döring gegründet wurde. Döring hatte seine berufliche Laufbahn in einem Entwicklungslabor für Tintenstrahldrucker begonnen, seine Idee war es, dieses Prinzip zur Mikrodosierung von Flüssigkeiten anzuwenden. Schon nach kurzer Zeit konnte microdrop die ersten Mikrodosiersysteme für verschiedenste Anwendungen auf den Markt bringen. Besonders Forschungsinstitute und Industrieunternehmen für Biochemie und Mikrotechnik waren an der neuen Technologie interessiert und sind es noch. Inzwischen stehen Verfahren und Geräte zur Verfügung, die extrem geringe Flüssigkeitsmengen im Pikoliterbereich (ein Pikoliter ist ein Tausendstel Nanoliter, also ein Billionstel Liter) mit hoher Genauigkeit und ohne Berührung zwischen Dosierspitze und Werkstück oder Medium dosieren können. Anwendungsmöglichkeiten finden sich in vielen Branchen von der MST über Biotechnologie und pharmazeutische Forschung bis hin zur Elektronik-, Luftfahrt- und Metallindustrie. Das MicroDrop-Verfahren nutzt zwar das Prinzip des Piezo-Tintenstrahldruckers, unterscheidet sich aber ansonsten grundsätzlich. Kernstück des Dosierkopfs ist eine Glaskapillare, die von einem röhrchenförmigen „Piezo-Aktor“ umgeben ist. An einem Ende ist die Kapillare zu einer Düse ausgezogen. Beim Aktivieren eines Spannungsimpulses kontrahiert der Aktor und erzeugt eine Druckwelle, die sich durch die Flüssigkeit bis zur Düse fortsetzt. Hier wird der Druck in Bewegungsenergie umgesetzt und ein Tröpfchen mit der ungeheuren Beschleunigung von bis zu 100.000 g

177

abgeschossen. Volumina zwischen etwa 30 und 500 Pikoliter können so appliziert werden. So wird z. B. ein Microdrop-System in einer Präzisionspositioniereinrichtung verwendet, um Lichtleitfasern in einer Lochmaske zum Aufbau eines Abbildungssystems zu fixieren. Die UV-härtende Klebstoffmenge muss kleiner als zehn Nanoliter sein, um Deformationen aufgrund von Kapillarkräften zu vermeiden. In der Telekommunikation über Glasfasern muss immer wieder Licht von Laserdioden in Fasern eingekoppelt werden. Dies kann über eine Kombination von Mikrolinsen (Größe unter ein Millimeter) realisiert werden, deren Verbindung untereinander mit herkömmlichen Methoden nicht möglich ist, da die Linsen kleiner sind als die bereitgestellten Klebstoffmengen. Auch hier schafft die MicroDrop-Technik Abhilfe, weil damit die Mengen so klein und genau dosiert werden, dass eine sehr gut definierte Schichtdicke erzielt wird. Darüber hinaus bewirkt die Oberflächenspannung des Klebstoffs eine Ausrichtung der Linsen zueinander. Verklebungen spielen auch bei der Montage von Mobiltelefonen eine besondere Rolle. Die Anforderungen an Handys bezüglich Größe, Gewicht und Leistung steigen ständig. Dies geht nur durch Verringerung der Bauteilgrößen und mit der Reduzierung der erlaubten Toleranzen einher, was wiederum höhere Genauigkeiten bei den eingesetzten Technologien erfordert. Zur Befestigung kommt es unter anderem bei den Komponenten eines Handylautsprechers sehr auf die genaue Menge des Klebstoffs an. Zuwenig Kleber beeinträchtigt die Haltbarkeit des Lautsprechers, zuviel beeinflusst negativ die Klangqualität. Das bewährte MicrodropDosiersystem erledigt diese Aufgabe zuverlässig in der richtigen Menge, was sich unmittelbar in einer erhöhten Ausbeute an Lautsprechern und dadurch niedrigeren Kosten auswirkt. Aus diesem Grund setzt unter anderem Philips Österreich Systeme aus Norderstedt bei der Montage dieser Bauteile ein. Auch bei der Montage von wirklich großen Dingen – in diesem Fall handelt es sich um ausgewachsene Flugzeuge – sind kleinste Mengen ein Thema. So wird im modernen Hochleistungsflugzeugbau die Beplankung des Rumpfes und der Tragflächen auf ein tragendes Gerüst aufgenietet. Dabei müssen die Nietlöcher hochgenau gebohrt werden. Mit dem NanoJet System, von microdrop zur Dosierung von über 100 Nanolitern entwickelt, werden kleinste Ölmengen direkt auf die Bohrerspitze während des Bohrvorgangs aufgetragen. Dabei wird im Vergleich zum früher benutzten Sprühverfahren weniger als ein Prozent des teuren Spezialöls verbraucht. Zudem landet kein Öl mehr neben dem Bohrloch auf dem Blech, sodass der früher notwendige Waschprozess entfallen kann. Die MicroDrop-Technologie erlaubt auch neue Wege in der medizinischen Diagnostik. Ein einzelner Punkt bildet eine Micro-Probe, die auf allergische, immunologische oder andere biologische Reaktionen empfindlich ist. Zusammen mit hundert anderen Spots auf dem Chip können so aus einem einzigen Tropfen Blut eine Vielzahl von Erkenntnissen gewonnen werden. Jeder Punkt in der Matrix bildet einen biochemischen Sensor. Farbreaktionen zeigen die Wechselwirkung zwi-

178

schen der Probe (Assay) und den biologischen Stoffen. Die microdrop GmbH hat hierfür vollautomatische Pipettensysteme entwickelt, für die es eine beachtliche Nachfrage gibt. Vor diesem Hintergrund hat microdrop bereits 1997 eine enge Zusammenarbeit mit der amerikanischen Packard Instruments Corporation (Boston, Massachussetts) begonnen. Packard ist überwiegend tätig in den Bereichen Life Science und klinische Diagnostik. Auf Basis einer exclusiven Lizenzvereinbarung darf Packard microdrop-Produkte in ihre Systeme einbauen. Seit 2001 ist Packard Teil eines der führenden Diagnose- und Analytik-Unternehmen weltweit, der PerkinElmer Corp. in Wellesley (Massachussetts).

„Augen und Finger“ für die Nanotechnologie In der Zwergenwelt werden besondere „Augen“ benötigt, um etwas zu sehen. Normale Lichtmikroskope können nur Objekte erkennen, die größer sind als die Wellenlänge des sichtbaren Lichts – und die Grenzen dieses Bereichs liegen bei etwa 400 nm am violetten und bei rund 750 nm am roten Ende des Spektrums. Definitionsgemäß also ein Gebiet, das noch nicht in die Nanokategorie fällt, in der Objekte maximal 100 nm groß sind. Eine unverzichtbare Erfindung für das Vordringen in den Kosmos der Atome und Moleküle war das Rastertunnelmikroskop, für dessen Entwicklung der Deutsche Gerd Binnig und der Schweizer Heinrich Rohrer 1986 den Physiknobelpreis (siehe Einleitung, Seite 15) bekommen haben. Das Prinzip ähnelt am ehesten einem tastenden Finger, weniger einem künstlichen Auge. Eine extrem feine Nadel, deren Spitze im besten Fall nur ein Atom bildet, rastert Punkt für Punkt, Zeile für Zeile die Probe ab, von der sie nur wenige Atomdurchmesser weit entfernt ist. Obwohl sich diese Sonde und das Objekt nicht berühren, fließt zwischen ihnen aufgrund der geringen Entfernung ein geringfügiger so genannter Tunnelstrom. Diese Messgröße ändert sich schon deutlich, wenn der Abstand von Sonde und Probe nur um den Bruchteil eines Atomdurchmessers variiert. Aus dem aufgezeichneten Tunnelstrom lässt sich dann im Computer ein atomares Bild der Probenoberfläche generieren. Eine Weiterentwicklung des Rastertunnelmikroskops ist das Rasterkraftmikroskop, häufig als AFM bezeichnet (abgeleitet von der englischen Bezeichnung Atomic Force Microscop). Es ist in der Lage, auch nichtleitende Materialien auf atomarer Ebene zu untersuchen. Beim AFM kratzt die Sonde behutsam über den Untersuchungsgegenstand – wie die Nadel eines Plattenspielers auf den alten schwarzen Vinylscheiben. Die Ausschläge des winzigen Kraftbalkens werden wiederum gemessen und zu einem Bild zusammengesetzt. Inzwischen gibt es zahlreiche Weiterentwicklungen und Ableger dieser Mikroskoptypen. So werden nicht nur die dreidimensionale Struktur der Oberfläche, sondern auch unterschiedliche Materialeigenschaften wie Magnetismus, Leitfähigkeit oder Elastizität gemessen.

179

Welche Bedeutung die Verfahren auf Nanoebene für Forschung und Entwicklung haben, zeigt das Beispiel Beiersdorf. Das Hamburger Unternehmen ist führender Anbieter von Markenprodukten in den drei Sparten cosmed (Nivea, Eucerin, Atrix, Juvena, Labello), medical (z. B. Hansaplast, Elastoplast) und tesa. Auf den ersten Blick ist vielleicht unverständlich, warum ein Hersteller von Hautschutzcremes oder Pflaster eine derartige High-Tech-Forschung betreiben sollte. Aber auch bei Alltagsprodukten wie Kosmetika und Klebestreifen gilt: Wer deren Funktion bis ins letzte Atom verstehen will, muss sich der Nanotechnologie bedienen. So verfolgt Beiersdorf das ehrgeizige Ziel, die Alterung und Pflege der Haut auf molekularer Ebene zu erforschen. Involviert in diese Bemühungen ist das Zentrum für Mikrostrukturforschung unter Leitung von Professor Roland Wiesendanger, der zeitweilig auch Sprecher des bundesweiten Kompetenzzentrums für Nanoanalytik ist.

Analytik – auch im Nanokosmos unverzichtbar „Der gezielte Aufbau nanoskaliger Strukturen ist ohne geeignete Analytik nicht denkbar. Die Methoden und Geräte der Nanoanalytik sind das „Auge“, um Strukturen zu sehen, und die „Finger“, um Strukturen anzufassen und zu verändern“, so steht es in der Veröffentlichung „Nanotechnologie in Deutschland – Standortbestimmung“, die das BMBF im Mai 2002 herausgegeben hat. Der Report zeigt eines ganz deutlich: Im Zusammenhang mit der Nanotechnologie wird die Nanoanalytik durchaus als mitentscheidender Fortschritts-Faktor gesehen. Allerdings konzentrieren sich viele Autoren beinahe ausschließlich auf die Rastertunnel- und die Rasterkraftmikroskopie mit allen Weiterentwicklungen. Diese Methoden sind unbestritten von großer Bedeutung, doch sie werden ergänzt von einem ganzen Bündel weiterer Untersuchungsverfahren.

Zwergeninstrumente: Pinzetten, Heizer und Pipetten Über die reine Analytikanwendung der AFM hinaus lässt dieses Verfahren auf einfachem Wege auch die Synthese bzw. gezielte Manipulation von Materie im Nanometerbereich zu: So wird versucht, Informations-Speicherung auf Oberflächen durch Erzeugung von Löchern mit solchen Spitzen zu ermöglichen. Die Informationen können dann mit derselben Spitze wieder ausgelesen werden. Zudem wurde eine Reihe von winzigsten Instrumenten entwickelt: Dazu zählen Nanopinzetten, die aus zwei Nanodrähten bestehen, mit Hilfe elektrischer Spannung gesteuert und zur mechanischen Manipulation an Oberflächen eingesetzt werden. Inzwischen gibt es auch Nanoheizer, die lokal höhere Temperaturen erlauben und so sogar chemische Reaktionen auslösen können sowie Nanopipetten, mit denen

180

gezielt Substanzen aufgebracht werden. Allerdings sind hier den Möglichkeiten viel engere Grenzen gesetzt, als gemeinhin angenommen. Das Manipulieren einzelner Atome kann nur mit Instrumenten erfolgen, die selbst aus Atomen bestehen, damit unweigerlich eine starke Wechselwirkung mit der manipulierten Materie zeigen und im Vergleich mit ihr eine niedrige Auflösung aufweisen. Diese zu Recht hochgelobte und viel benutzte Methode wurde bei der BASF weiterentwickelt: Die Detektion des Van-der-Waals-Potenzials enthält zwar indirekt chemische Informationen, dennoch ist es für die Untersuchung des Aufbaus nanostrukturierter Oberflächen wünschenswert, gezielt chemische Funktionalitäten abzubilden und deren Wechselwirkungspotenzial zu identifizieren. Die dazu bei der BASF entwickelte Methode ist die so genannte Chemical Force Microscopy (CFM): Dabei werden an die AFM-Spitze Moleküle angelagert, die an ihrem freien Ende eine funktionelle Gruppe tragen. Weist die Oberfläche der Probe eine Funktionalität auf, die mit derjenigen der Detektionsspitze chemisch „kommuniziert“, so wird an dieser Position der Oberfläche eine positive Wechselwirkung detektiert. Der erzeugte Kontrast ist folglich chemischer Natur. Dadurch ist es z. B. möglich, ein funktionalisiertes Polymer selektiv auf einem polymeren Untergrund abzubilden. Mit dieser Technik lassen sich also zusätzliche Informationen über die chemische Natur der adsorbierten Polymere entlocken, woraus Rückschlüsse auf die Oberflächenbelegung sowie die Mobilität der adsorbierten Teilchen realisierbar sind.

Auf dem Weg zur magnetischen Nanofestplatte Welche Bedeutung die Nanoanalytik hat, beweist auch die Spin-sensitive Mikroskopie, die Dr. Roland Wiesendanger, Professor für experimentelle Festkörperphysik an der Universität Hamburg, und Dr. Matthias Bode, Leiter der Abteilung Nanomagnetismus, entwickelt haben. Das Werkzeug der beiden Physiker ist allerdings etwas ungewöhnlich: Es hat die Größe eines Kleintransporters, wiegt über vier Tonnen und sieht aus wie eine stählerne Kreuzung aus Oktopus und Taucherglocke. Und doch ist es so empfindlich, dass in seiner Gegenwart nur geflüstert wird. Denn im Inneren des Geräts befindet sich eine Sonde, die so fein ist, dass jedes laute Wort sie wegblasen könnte wie Blütenstaub. Das Spin-sensitive Rastertunnelmikroskop macht die magnetische Ausrichtung einzelner Atome sichtbar. Ein Durchbruch in der Nanowissenschaft, für den die beiden Wisenschaftler mit dem Philip Morris Forschungspreis 2003 ausgezeichnet wurden. „Die Nanotechnologie wird als eine der Schlüsseltechnologien des 21. Jahrhunderts alle Lebensbereiche revolutionieren“, prophezeit der gebürtige Schweizer Wiesendanger. Voll digitalisierte Hollywood-Filme im Kleinstformat, Hochleistungsrechner am Handgelenk, Mega-Computer für die Klimaforschung: Die Technik der Hamburger Nanowissenschaftler eröffnet einen Quantensprung in der

181

Miniaturisierung von Speichermedien. Landläufig wird die digitale Welt als ein Gerüst aus Nullen und Einsen gesehen. Physikalisch jedoch handelt es sich bei diesen Grundbausteinen eher um Nord- und Südpole – also gezielt unterschiedlich geladene Teilbereiche einer magnetischen Festplatte. Wiesendanger und Bode gelang der Nachweis, dass die Grenze zwischen einem magnetischen Nord- und Südpol in einer Atomlage Eisen extrem schmal sein kann. In den bis dahin untersuchten magnetischen Materialien erstreckte sich der Übergangsbereich über 20 bis 300 Atomdurchmesser. In den von Wiesendanger und Bode erkundeten Nanodrähten aus Eisen, deren Querschnitt nur ein Atom hoch und zehn Atome breit war, wechselte die magnetische Ausrichtung von einem Atom zum nächsten. Das bedeutet, dass sich digitale Nanospeicher theoretisch extrem dicht packen lassen. Dieser mikroskopische Blick gelang den Nanophysikern nur, weil sie herkömmliche Rastertunnelmikroskop-Spitzen durch eine magnetisch beschichtete Sondenspitze ersetzten. Zwischen dieser Sonde und der Oberfläche des zu untersuchenden Materials fließt ein sehr geringer Tunnelstrom. Wird dieser konstant geregelt, bewegt sich die Sonde auf und ab, je nach Polarisierung der darunter liegenden Atome. So gelang den Physikern die bisher beste Darstellung von Spinpolarisationseffekten bei atomarer Ortsauflösung. Der Nachweis magnetischer Signale in einer solchen Dimension setzt extreme Anforderungen an die mechanische Stabilität des Mikroskops. Im Inneren der Anlage existiert ein Vakuum. Das Gerät selbst steht auf einem separaten Fundament, verankert im Elbsand, schwingungsentkoppelt vom Rest des Gebäudes. Die Räume sind schallisoliert, um Störeinwirkungen über die Luft zu minimieren. Kein Wunder, dass in diesem Umfeld die Arbeit der Forscher aus leisen und präzisen Schritten besteht. „Schon ein einzelner Fehltritt kann alle Messreihen verpfuschen“, betont Wiesendanger. In rund zehn Jahren, so prognostiziert der Physiker, könnte eine Nanofestplatte auf den Markt kommen: „Wenn es gelingt, Informationen in einzelne benachbarte Atome zu schreiben, dann könnten wir die gesamte Literatur der Welt auf der Fläche einer Briefmarke speichern.“

182

Kapitel 8

Potenzial für die Automobilindustrie

Nanos im Fahrzeug – zum Teil ein „alter Hut“ Der Nanokosmos wird die Makrosysteme revolutionieren. Von diesem Trend wird auch die führende Industriebranche Deutschlands, der Automobilbau, erheblich profitieren. Die Anwendungsmöglichkeiten sind vielfältig, eine große Zahl von ihnen lässt sich unter dem Begriff Nachhaltigkeit zusammenfassen. Dazu zählen die gesellschaftlich hoch eingeschätzten Bedürfnisse nach Ökologie und Sicherheit. Aber auch zusätzliche Komfortansprüche haben Auswirkung auf die Entwicklung. Konkrete Einsatzchancen werden von Fachleuten für den Antriebsstrang, für Leichtbau, Energiekonversion, Schadstoffreduktion, Fahrdynamik, Klimatisierung, Umfeldüberwachung, Kommunikation, Verschleißminderung und Recyclebarkeit erwartet. Auch im Bereich des Automobilbaus gibt es „alte Nanotechnologie“, die schon seit Jahren erfolgreich eingesetzt wird. So werden Scheinwerferreflektoren seit langem bedampft, ohne dass dazu die Erfindung des Rastertunnelmikroskops 1986 einen maßgeblichen Beitrag geleistet hätte – diese Entwicklungen wurden also längst begonnen, bevor man „Sichtkontakt zum Zwergenreich“ hatte. Gefordert war eine dünne Schicht auf einem Gehäuse aus Kunststoff, die gute Reflexionseigenschaften hat und einen angemessenen Korrosionsschutz bietet. Das Metallisieren der Reflektoren erfolgt in mehreren Schritten. Es werden nach und nach eine Barriereschicht von nur circa 20 nm durch Plasmapolymerisation, eine Aluminiumschicht (60 bis 120 nm) durch Aufdampfen oder Sputtern und zum Schluss eine Antikorrosionsschicht wiederum durch Plasmapolymerisation von 30 bis 40 nm Stärke aufgebracht. Ein weiterer Einsatzfall, der von der Audi AG in Ingolstadt bei den Modellen A4, A6 und A8 in Zusammenarbeit mit der Firma Saint Gobain Sekurit (La Defense, Frankreich) schon realisiert wurde, sind sehr dünne Metallschichten auf Silberbasis, die auf der Innenseite der äußeren Verbundglasscheibe aufgedampft werden. Sie dienen bei modernen Automobilverglasungen dazu, die Wärmeeinstrahlung ins Fahrzeuginnere zu reduzieren – was bei längeren Parkzeiten im Sommer besonders vorteilhaft ist. Sekurit bietet derartige Lösungen unter der treffenden Bezeichnung Thermocontrol an. Voraussetzung derartiger Systeme ist eine hohe Transpa-

183

renz und insbesondere auch eine Homogenität der nm-dicken Metallbeschichtungen, die auch als Scheibenheizungen ausgebildet werden können. Sie verbessern die Sicht durch beschlag- und eisfreie Scheiben und erhöhen den Klimakomfort für die Fahrzeuginsassen. Auch VW setzt heute schon Nanotechnologie ein, so als elektrochromes System bei abblendbaren Innenspiegeln, die sich der jeweiligen Lichtintensität anpassen, also abdunkeln oder aufhellen. Darüber hinaus besitzt der Phaeton eine infrarotreflektierende Wärmeschutzverglasung, die auf einer 50 Nanometer dünnen Silberschicht beruht. Auch bei den Reflektoren der Klarglas-Scheinwerfer werden schon teilweise Aluminiumschichten in Nanostärke verwendet. Die Sol-Gel-Technologie gilt als eine Standardmethode zur Herstellung von nanoskaligen Beschichtungen. Das Werk Grünenplan, zwischen Hannover und Göttingen gelegen, setzt sie unter anderem im Geschäftsfeld „Advanced Materials“ bei der Antireflexbeschichtung von Gläsern ein. Im Tauchverfahren werden entsprechende Interferenzlagen von einer Dicke zwischen 50 und 100 nm auf beiden Seiten von Floatglas aufgebracht, insgesamt handelt es sich um je drei Metalloxidschichten. Das Produkt mit dem Namen Conturan hat zwei wesentliche Vorteile: Es lässt mehr Licht durch und vermindert erheblich die Reflexionen. Zum Vergleich: Normales, nicht entspiegeltes Floatglas wirft rund acht Prozent des einfallenden Lichts zurück, Conturan nur 0,5 Prozent – eine Verbesserung um über 93 Prozent. Bisher wurden Gläser zur Reflexionsminderung geätzt, was aber die Durchsicht vermindert. Die neue Lösung weist trotz der geringen Schichtdicke eine hohe chemische Beständigkeit als auch eine dauerhafte Abrieb- und Haftfestigkeit auf. Derartige Beschichtungen werden schon in hochwertigen Fahrzeugen verwendet, so z. B. im Kombiinstrument des Audi TT und für die Instrumententafel des VW-Vorzeigefahrzeugs Phaeton. Nanotechnologie fährt heute bereits bei nahezu jedem Audi mit. Neben der Antireflexbeschichtung beim TT-Kombiinstrument zählen zu den Nanozutaten heizbare Scheiben, die durch eine elektrisch leitfähige Bedampfung im nm-Bereich zustande kommt und bei den A4, A6 und A8 im Einsatz ist. Bei den selben Typen wird die Verglasung zudem aus Gründen des Sonnenschutzes bedampft. Bereits Alltag ist auch die Anwendung von nanoskaligen Alu- und Korrosionschutzschichten für Scheinwerferreflektoren und elektrochrome Systeme für automatisch abblendbare Innenspiegel. Noch in der Entwicklung sind wasserabweisende und Antibeschlagsschichten, die unter anderem bei der Frontscheibe hilfreich sein könnten. Wichtige Zielsetzungen stellen grundsätzlich neben Designaspekten die Steigerung von Komfort und Funktionalität dar. Viele interessante Anwendungsmöglichkeiten gerade im Automobilbereich stecken bereits in der Pipeline. Häufig fehlen allerdings noch die mechanische Langzeitbeständigkeit, insbesondere die notwendige Witterungsstabilität z. B. hinsichtlich der UV-Strahlung. Ein Problem aus Sicht von Audi ist zudem die Tatsache, dass die teilweise jungen Start-upUnternehmen ihre vielversprechenden Produkte nicht immer in der nötigen Men-

184

ge bzw. in konstanter Qualität liefern können, was aber gerade für den Serieneinsatz im Automobil unabdingbar ist. Kaum zu glauben, aber wahr – auch der Automobilreifen hat eine Menge mit Nanotechnologie zu tun. Kurz nach der Wende ins 20. Jahrhundert wurde eher zufällig entdeckt, dass Industrieruße sehr gute Verstärkermaterialien für Kautschuk sind. Bis dahin hatte man hauptsächlich Zinkoxid verwendet, um dem Kautschuk die Klebrigkeit zu nehmen. So war es eine für die Ruß-, Reifen- und Automobilindustrie weitreichende Erkenntnis, dass ein Autoreifen dank des Füllstoffs Ruß eine wesentlich längere Lebensdauer aufwies als zuvor mit dem Füller Zinkoxid. Es dauerte dann aber noch bis in die 20er-Jahre des letzten Jahrhunderts, dass sich Industrieruße allgemein in Reifen und anderen Kautschukartikeln zur Verstärkung durchsetzten. Inzwischen geht es um eine gezielte Vergrößerung der Ruß-Partikeloberfläche durch Nanosktrukturierung. Es wird der Verstärkungseffekt erhöht und die Energiedissipation (Umwandlung in Wärme) im Reifen verringert. Es ergeben sich gleich zwei gravierende Vorteile: Da der Rollwiderstand sinkt, verringert sich auch der Kraftstoffverbrauch. Zudem steigt die Lebensdauer durch einen geringeren Abrieb des Reifens. Diese Strategie der Nanostrukturierung ist sowohl für Lkwals auch für Pkw-Reifen richtungsweisend. Möglich macht das die moderne „schwarze Kunst“, wie die Reifen- und Kautschukherstellung auch genannt wird. Ruß liegt bei seiner Erzeugung zunächst ohnehin als Nanopartikel vor. Aufgrund der hohen Oberflächenenergie wachsen die zunächst winzigen Rußteilchen aber schnell zu Rußaggregaten und -agglomeraten zusammen. Die spezifische Oberfläche, die am Anfang dieses Prozesses sehr groß ist, ist dadurch am Ende vergleichsweise klein. Dadurch ist die Haftung der Kautschukmoleküle zum Füllstoff stark reduziert. Die daraus resultierende Auswirkung ist unter dem Begriff „Walkenergie“ bekannt, die schließlich zur Erwärmung des Reifens, dadurch zu einem Kraftstoffmehrverbrauch und höherem Reifenverschleiß führt. Durch eine Nanostrukturierung der Rußpartikel wird die Haftung der Kautschukmoleküle zum Füllstoff verbessert und damit die Walkenergie erniedrigt. Mit der Forderung nach rollwiderstandsarmen Reifen und der Einführung der Kieselsäure/Silan-Technologie bei Pkw-Reifen ergab sich gleichzeitig auch der Anspruch, auch bei Lkw-Reifen mit geeigneten Füllstoffen den Rollwiderstand zu reduzieren. Silane, die in der Gummiindustrie Anwendung finden, sind in der Regel bifunktionelle organische Siliziumverbindungen mit zwei reaktiven Gruppen. Zusammen mit Silanolgruppen (OH-Gruppen an Siliziumatomen) tragenden Füllstoffen werden sie in hochwertigen Gummimischungen eingesetzt. Besonders wirkungsvoll ist der Einsatz in der Kombination mit verstärkenden Fällungskieselsäuren. Gegenüber rein rußgefüllten Mischungen führt die Verwendung gefällter Kieselsäuren ohne Silanzusatz bereits zu verbesserten dynamischen Eigenschaften, jedoch noch unter Einbußen bei Mischungsviskosität, Vulkanisationszeit (Vulkani-

185

sation ist das Verfahren, bei dem Kautschuk in Weichgummi überführt wird) und Vernetzungsdichte (Grad der Verknüpfungen von Molekülketten). Organosilane hingegen verhelfen der Kieselsäure zu optimaler Bindung an das Polymer, erleichtern die Verarbeitbarkeit und ermöglichen sehr gute statische und dynamische gummitechnische Eigenschaften. Degussa ist seit Anfang der 70er-Jahre auf dem Gebiet der schwefelfunktionellen Organosilane aktiv. Das erste und nach wie vor bedeutendste dieser Produkte – Si69® – wurde bereits 1971 entwickelt. Es fand zunächst Anwendung in Haftmischungen für stahlarmierte Förderbänder und erwies sich schon bald für eine Reihe anderer Anwendungen als bestens geeignet. Besonders die Reifenherstellung wurde durch die Einführung der Kieselsäure/Silan-Technologie revolutioniert. Wichtige Eigenschaften wie Rollwiderstand, Nassrutschfestigkeit und Abrieb, die in konventionellen Systemen nur bedingt und unter gegenseitiger Beeinträchtigung optimiert werden können, konnten nun umfassend verbessert werden. Die neue Generation der „Silica“-Reifen verfügt über ein in allen wichtigen Eigenschaften deutlich verbessertes Leistungsniveau. In der Geschichte der Reifentechnologie stellt nur die Einführung des Radialreifens einen vergleichbaren Entwicklungssprung dar. Über das tetrasulfidische Si69®, indem ein Silizium – von vier Schwefelatomen umgeben ist, hinaus hat sich inzwischen auch die neue Generation der Disulfane dank nochmals deutlich verbesserter Verarbeitungseigenschaften in der Reifenherstellung durchgesetzt. „Wir haben Kraftstoffeinsparungen von etwa zehn Prozent nachweisen können. Die grünen Reifen schonen die Umwelt bei gleich hoher Bremswirkung und positiven Abriebeigenschaften“, konstatiert Kai-Niklas Krüger, Leiter der Materialentwicklung der Continental AG (Hannover). Industrieruß, auch als Carbon Black bezeichnet, und Silica, die beiden wichtigen Verstärkungschemikalien in Reifen, hatten ursprünglich verschiedene Aufgaben: Während Silica für Pkw-Reifen, gerade in der Lauffläche, die besten Resultate liefert, dominiert Carbon Black in Lkw-Reifen, nicht zuletzt durch den exzellenten Abriebwiderstand. Für die Wissenschaftler der Degussa bestand die Herausforderung darin, beide Produktklassen gezielt weiterzuentwickeln und dabei ein hervorragendes Rollverhalten der Reifen zu erreichen. Direkt nach ihrer Herstellung sind Carbon Black- und Silica-Partikel nanoklein. Systematische Untersuchungen dieser Produkte und die Analyse ihres Entstehungsprozesses waren wichtige Voraussetzungen für den Erfolg. Mit Computermodellen und Simulationsrechnungen wurde überprüft, ob die Vorstellungen der Chemiker und Physiker richtig waren. „Im Ergebnis ist es uns gelungen, das Partikelwachstum und die Oberflächeneigenschaften so zu steuern, dass diese Produktinnovationen den Rollwiderstand bei Lkw-Reifen um bis zu 20 Prozent absenken können”, erklärt Bernhard Schwaiger, Leiter der Anwendungstechnik Füllstoffsysteme bei Degussa. Auf der Spritrechnung bedeutet das Einsparungen von bis zu fünf Prozent. Die neu entwickelten Carbon Black-Typen werden unter dem Handelsnamen ECORAX® vermarktet. Diese Produktfamilie umfasst sowohl Lösungen

186

für die Laufflächenmischungen von Lkw-Reifen als auch für den Unterbau von Pkw- und Lkw-Reifen. Mit großem Einsatz haben Chemiker der Degussa auch nach neuartigen Molekülstrukturen des Silans geforscht. Obwohl nur etwa 100 Gramm pro Pkw-Reifen dieser Verbindung benötigt werden, ist die Wirkung dieser Spezialchemikalie enorm – sie ist letztlich für die Spriteinsparungen verantwortlich, die bis zu acht Prozent betragen kann. Bemerkenswert dabei ist, dass alle anderen Reifeneigenschaften auf demselben hohen Niveau bleiben. Führende Reifenhersteller testen bereits intensiv das brandaktuelle Silan Si 363. Bereits in allernächster Zeit werden Reifen damit am Markt zur Verfügung stehen. Die Investition dürfte sich schnell bezahlt machen: „Bei einer jährlichen Fahrleistung von rund 30.000 Kilometern sind die Kosten eines neuen Reifensatzes binnen Jahresfrist wieder eingefahren“, unterDegussa streicht Thomas Hermann, Leiter des Degussa Geschäftsbereichs Advanced Fillers & Pigments, die ökonomischen Vorteile. Und die Umwelt profitiert gleich doppelt: Im Gegensatz zu den bisher eingesetzten Silanen wird im Reifenherstellprozess die Emission von flüchtigen organischen Verbindungen um bis zu 80 Prozent reduziert. Dazu kommt die Verminderung des Treibhauseffektes durch das eingesparte Kohlendioxid. Als weltweit einziger Hersteller bietet Degussa der Reifenindustrie die drei wichtigsten Verstärkungskomponenten aus einer Hand an. Der Konzern ist weltweit Marktführer bei Performance Silica und Organosilanen sowie der zweitgrößte Produzent von Carbon Black. Dank dieser Kompetenz ist es gelungen, die Reifenmischung zu revolutionieren. Davon werden die Autofahrer und ihr Geldbeutel sowie die Umwelt auch künftig profitieren.

Zwerge sollen helfen, den Flottenverbrauch zu senken Ein Fokus der Bemühungen liegt auf der Ressourcenschonung, die im Automobilbereich insbesondere auf eine Reduzierung des Flottenverbrauchs abzielt. Eine Analyse des VDI zeigt, dass eine 30-prozentige Verbesserung des Rollwiderstandes den Kraftstoffverbrauch um etwa vier Prozent senken würde. Eine entsprechende Optimierung des Luftwiderstands, des Wagengewichts oder des Antriebsstrangs hätte eine Minderung des Verbrauchs um sechs, 15 bzw. 28 Prozent zur Folge. Entsprechend ließen sich auch Kohlendioxid- und Partikel-Emissionen verringern. Der Verband der Deutschen Automobilindustrie (VDA, Frankfurt a.M.) will den Kohlendioxid-Ausstoß der Flotte in den kommenden Jahren um rund 20 Prozent auf 140 Gramm pro Kilometer senken. Die EURO-Norm sieht Beschränkungen für Stickoxide und Partikel vor. Gemäß der EURO 5, die ab 2008 gilt, soll die Belastung mit Stickoxiden um mehr als die Hälfte, mit Partikeln um zwei Drittel reduziert werden. All dies ist nur über einen verringerten Kraftstoffverbrauch zu erreichen,

187

vorzugsweise durch alternative Antriebe. Brennstoffzellen sind dabei die erste Wahl. Sie verbrauchen entweder fossile Kraftstoffe, wie z. B. Methanol, das in Wasserstoff umgewandelt wird, oder direkt Wasserstoff. Obwohl schon bald eine erste Fahrzeuggeneration mit Brennstoffzellen auf dem Markt sein wird, sind noch erhebliche Verbesserungen vieler Komponenten erforderlich. Nanotechnologie kann hierbei entscheidende Beiträge liefern, unter anderem bei der Methanol-Einspritzung und -Reformierung, zur Wasserstoffspeicherung (siehe Kapitel 10), bei der Zellenelektrode und der Protonen-Exchange-Membran (PEM). Eine effiziente Verbrennung von Methanol, aber auch von Kraftstoff in herkömmlichen Antrieben, erfordert eine großflächige, feine Zerstäubung. Hier könnten Arrays aus Nanodüsen eingesetzt werden. Derartige Nanojets lassen sich durch anodisches Ätzen in verschiedenen Materialien, wie Silizium oder Siliziumcarbid (Verbindung aus Silizium und Kohlenstoff), erzeugen. Auf ähnliche Weise können auch geordnete Nanoröhren von einigen 100 nm und Wandstärken unter 100 nm hergestellt werden, die auch im Reformer zur Umwandlung von fossilen Kraftstoffen in Wasserstoff von Vorteil wären. Dazu muss das Innere mit katalytischen Materialien wie Platin beschichtet werden, wobei auf Grund der riesigen inneren Oberfläche eine effiziente Umwandlung resultiert. Ähnliche schwammartige Materialien aus Nanoporen haben auch Potenzial für die Brennstoffzelle selbst, weil die Gasverteilungsschichten für Wasserstoff und Sauerstoff auf beiden Seiten der Membran ebenfalls große Oberflächen benötigen. Gestalt, Größe und Dichte von Poren sind durch Prozessbedingungen einstellbar. Ein weiteres Anwendungsgebiet nanoporöser Werkstoffe sind Schadstofffilter, die unter anderem Rußpartikel mechanisch zurückhalten. Darüber hinaus sind hochempfindliche, sehr schnell ansprechende Schadstoffsensoren denkbar, die z. B. mit einem Stickoxid-sensiblen Metalloxid beschichtet sind. Ein zusätzlicher Ansatzpunkt zur Verbesserung der Brennstoffzelle ist das Einlagern eines Nanonetzes aus Siliziumnitrid (Verbindung aus Silizium und Stickstoff) in die Membran, die aus dem Polymer Nafion besteht. Nafion, ein Verwandter des Teflons, wurde vom amerikanischen Chemieunternehmen Du Pont für semipermeable Membranen auf Basis von Poly(perfluoralkylen)sulfonsäure entwickelt. Das Netz stabilisiert die PEM, reduziert ihre Dicke auf zehn Prozent ihres ursprünglichen Werts und ermöglicht einen geringeren elektrischen Widerstand. Langfristig sollen fossile Kraft- und Brennstoffe durch Wasserstoff ersetzt werden, der mit Hilfe von regenerativen Energien erzeugt wird. Für den Aufbau einer Wasserstoffversorgung sind geeignete Speicher unverzichtbar. Auch hier könnten Nanomaterialien weiterhelfen. Ein Möglichkeit sind Nanofasern und -röhren aus Kohlenstoff, die mit Fullerenen verwandt sind (siehe Kapitel 5). Durch Selbstorganisation kann man sie zu nahezu unendlich langen Fasern wachsen lassen, wobei die Durchmesser zwischen zehn und 100 nm liegen. Möglich sind einwandige, aber auch ineinandergeschachtelte vielwändige Gebilde. Insbesondere in letztere kann Wasserstoff kapilar oder chemisch gebunden werden. Die Erwartungen der Wissenschaftler gehen von einer Speicherfähigkeit um zehn Prozent aus, die aber noch

188

nicht nachgewiesen wurden. (Zur Wasserstoffspeicherung in Nanostrukturen siehe auch Kapitel 10, Seite 203 ff.).

Leichtbau ist Trumpf Aus Gründen der Resourcenschonung ist auch der Trend zum Leichtbau in der Automobilindustrie ungebrochen. Konstrukteure kämpfen insbesondere durch den Einsatz innovativer Werkstoffe um jedes Kilogramm. Wichtigster Grund für diese Anstrengungen ist die schlichte Tatsache, dass weniger Gewicht einen geringeren Kraftstoffverbrauch nach sich zieht. Immer noch ein Dorn im Auge der Automobilbauer ist die Verscheibung aus Glas, die nicht nur schwer ist, sondern bei Unfällen oder Einbrüchen auch leicht zerstört werden kann. Zudem lässt sich Glas nicht beliebig krümmen, was die Kreativität der Designer einschränkt. Schon seit 1998 arbeitet ein 50:50 Joint Venture der Bayer AG (Leverkusen) und der General Electric Company (GE, Pittsfield, Massachusetts) unter dem Namen Exatec an innovativem Glasersatz aus Polycarbonat (PC), dem Kunststoff, der auch der CD und DVD zum Siegeszug rund um den Globus verholfen hat. Die Exatec besteht aus einer amerikanischen Gesellschaft (Exatec, LLC) mit Sitz in Wixom (Großraum Detroit) und einem europäischen Ableger in Bergisch-Gladbach (Exatec GmbH & Co. KG), die gemeinsam bereits erste Erfolge aufweisen können. So gibt es beim Smart im seitlichen Heckbereich eine Scheibe aus PC, die dreidimensional so stark ausgeformt ist, dass sie sich aus Glas gar nicht mehr herstellen ließe. Wie viele andere Kunststoffe auch hat das vielseitige Polycarbonat aber ein Problem, es mag das Sonnenlicht nicht besonders. Anders ausgedrückt: Unter dem Einfluss von UV-Strahlung altert das Material. Um diesem Prozess vorzubeugen, enthält das PC verschiedene Weißpigmente in Nanoform, weil sie dann transparent sind und den Durchblick durch die Fenster nicht stören. Durch inzwischen bewährte Beschichtungsverfahren wie den Auftrag witterungsbeständiger Polysiloxanlacke lassen sich schon seit einigen Jahren Formteile aus Polycarbonat (z. B. Scheinwerferstreuscheiben) mit einer kratzfesten Schutzschicht ausrüsten. Doch Verscheibungen sind ungleich höheren, vor allem auch dynamischen Belastungen ausgesetzt. Das erforderliche Qualitätsniveau will Exatec durch den Einsatz fortschrittlicher Beschichtungstechnologien erreichen. Im Fokus steht hier eine Nanomer-Lackierung, die nass aufgebracht wird und anorganische Partikel im Nanometer-Bereich enthält. Alternativ dazu wird eine Plasma-Beschichtung untersucht, die eine anorganische Schicht aus einem elektromagnetisch angeregten Gas erzeugt. Auch eine Kombination aus beiden Verfahren ist denkbar. Auch dieses Beispiel belegt eindrucksvoll, welch große Hebelwirkung die Nanotechnologie entfaltet. Der kostenmäßige Anteil des Sonnenschutzes und der kratzfesten Beschichtung sind vergleichsweise gering, doch erst ihr Beitrag ermöglicht die notwendige Funktionalität und könnte so einem innovativen Werkstoffeinsatz

189

im Automobilbau den Weg ebnen. Die Automobilindustrie verspricht sich auch von Nanophasenmetallen, die eine enorme Festigkeit besitzen, tragfähigere Motorund Rahmenbauteile mit leichtem Gewicht. Eine weitere Option ist der verstärkte Einsatz von nanostrukturierter Keramik, die in dieser Form weniger leicht bricht. Durch so genanntes Korngrenzengleiten hat das Material in gewisser Weise „selbstheilende Kräfte“, weil kleine Risse und entstandene Lücken durch Körner aus der Nachbarschaft wieder aufgefüllt werden.

Endlich kratzfeste Lacke Das ist die Schreckensvorstellung jedes Autofahrers: ein Kratzer im frisch polierten Lack. Schließlich ist für die meisten das Äußere ihrer Autos überaus wichtig. Glatt, strahlend und makellos soll es sein. Aber das menschliche Auge ist ein unerbittliches Instrument – selbst kleinste Kratzer nimmt es in einer glänzenden Oberfläche wahr. Das ist die Krux hochwertiger Automobillackierungen: Jede Spur von Waschbürsten, peitschenden Zweigen oder übermütigen Kinderhänden schmälert den schönen Schein. Deshalb arbeiten Forscher der BASF Coatings AG in Münster intensiv daran, den vielen positiven Eigenschaften ihrer Lacke nun auch noch eine außergewöhnliche Kratzfestigkeit hinzuzufügen oder ihm sogar „selbstheilende Kräfte“ zu verleihen. So sind Chemiker dabei, ihre Moleküle derart zu „programmieren“, dass sie zumindest kleine Schäden von selbst beheben. Ähnlich wie man heute Metallegierungen ein Gedächtnis für bestimmte Formen mitgeben kann, sollen hier Mechanismen zur Selbstorganisation auf molekularer Ebene greifen. Derartige Ansätze werden vor allem im Nanokosmos verfolgt, in dem man „schaltbare Eigenschaften“ entwickeln möchte und sich so biologischen Prinzipien annähert. Beim Autolack geht es um viel mehr als bloße Ästhetik. Die oberste Schicht, der Klarlack, bildet ein Schutzschild mit vielen Funktionen: Er trotzt zahlreichen Umwelteinflüssen wie UV-Strahlen und Vogeldreck, Streusalz und Rollsplitt, saurem Regen und extremen Temperaturschwankungen. Wer nun den Lack noch kratzfester machen will, muss genaue Kenntnisse über seinen chemischen Aufbau und die physikalischen Eigenschaften haben. So enthält der Lack im flüssigen Zustand so genannte funktionelle Gruppen. Darunter verstehen Chemiker besondere Stellen in einem Molekül, an denen chemische Reaktionen stattfinden. Genau das geschieht bei der Aushärtung des Lacks, die Gruppen verknüpfen sich und bilden so ein dreidimensionales Netzwerk. BASF-Forscher haben mit Modelllacken „gespielt“, die unterschiedlich kratzfest waren und dabei herausgefunden, dass die Maschengröße des Netzwerks einen entscheidenden Einfluss hat. „Das Ergebnis ist eindeutig“, berichtet Dr. Klaus Dieter Plitzko, Leiter der weltweiten Coatings-Forschung der BASF, „je enger das Netzwerk gestrickt ist, desto widerstandsfähiger gegen mechanische Verletzungen wird unser Lack.“ Gerade die besonders ärgerlichen, weil bleibenden Kratzer werden weniger.

190

Das ehrgeizige Ziel der Wissenschaftler in Münster: Sie wollen noch höhere Kratzfestigkeit mit der schon bewährten Chemikalienbeständigkeit ihrer Produkte unter einen Hut bringen. Dazu werden neue Bausteine gesucht, die viele Vernetzungsstellen zu bieten haben und deshalb ein besonders engmaschiges Netzwerk bilden können, dem selbst Kratzbürsten nichts mehr anhaben können. Dieses Ziel lässt sich mit unterschiedlichen chemischen Konzepten erreichen – derzeit liefern sich drei Varianten ein Kopf-an-Kopf-Rennen. In den vergangenen zehn Jahren wurden bei der Entwicklung neuer Klarlacke große Fortschritte gemacht. Als bestes Material haben sich dabei hochreaktive Polyurethane (Kunststoffe, die aus der Reaktion von Alkoholen und Isocyanaten entstehen) erwiesen, die als Zweikomponenten-Systeme formuliert und direkt vor der Verarbeitung exakt zusammengemischt werden. In der zurückliegenden Dekade wurde dem Klarlack zudem ein wirkungsvoller Schutz gegen „Sonnenbrand“ eingeimpft, wobei das Lichtschutzmittel aus einer Kombination von UV-Absorbern und so genannten Radikalfängern besteht. Auswahl und Mixtur der richtigen „Sonnencreme“ sind entscheidend für die Witterungs- und Alterungsbeständigkeit. Dank der hohen Qualität, die inzwischen erreicht ist, können die Automobilhersteller heute eine „lebenslange“ Garantie auf die Lackierung geben.

Der Wettlauf zur Kratzfestigkeit ist noch nicht entschieden Um die beste Option, zur Kratzfestigkeit zu gelangen, gibt es derzeit noch einen „Wettlauf der Systeme“: Ein Weg besteht darin, das Prinzip der bekannten CeranKochfläche, die aus einer speziellen, gewalzten Glaskeramik besteht, zu übertragen. Kulinarisch interessierte Mitmenschen wissen, dass man diese Flächen sogar mit Stahlwolle und abrasiven Reinigungsmitteln bearbeiten kann, ohne Kratzer zu provozieren. Entscheidend dabei ist, die Sprödigkeit des Glases zu überwinden und die Elastizität zu erreichen, die für Automobilanwendungen notwendig ist. Im Labor ist dieses Kunststück bereits gelungen. Eine Variante dazu ist die Lackhärtung mit ultraviolettem (UV) Licht, wie es in der Möbelindustrie bereits für Schreibtisch- und Arbeitsflächen eingesetzt wird. Gegenüber herkömmlichen Verfahren, die mit Temperaturen von bis zu 140 °C arbeiten, hat diese Methode den Vorzug, besonders energiesparend zu sein. Die Kehrseite der Medaille: Was bei glatten Flächen gut gelingt, ist bei der komplexen, dreidimensionalen Struktur einer Autokarosse sehr schwierig – das Licht muss in den letzten Winkel gelenkt werden, um den Lack zu härten. Auch müssen noch „intelligente“ Lichtschutzmittel entwickelt werden, die ein Zwitterverhalten an den Tag legen. Vor der chemischen Vernetzung dürfen sie die Wirkung des Lichts nicht behindern, danach sollen sie die organische Struktur vor den energiereichen Sonnenstrahlen schützen.

191

Besonders elegant, aber auch sehr aufwändig ist die Verwendung von so genannten Nanopartikeln im Lack. Diese winzigen Kügelchen, im Durchmesser nur einige Milliardstel Millimeter groß, können die gleiche chemische Basis besitzen wie Glas. Sie verleihen dem Lack Härte und Kratzfestigkeit. Vor ihrem großtechnischen Einsatz in der Automobilserienproduktion sind aber noch viele Fragen zu klären: „Zum einen müssen diese Partikel in großer Anzahl mit völlig identischer Struktur hergestellt werden, zum anderen muss ihre optimale Einbettung in den Lack ebenso sichergestellt sein wie eine lang anhaltende Stabilität“, erklärt BASF-Forscher Plitzko. Welche Variante sich letztlich als Königsweg herausstellt, ist aber noch offen.

Ferrite, Chamäleons und Lotus Alle Automobilbauer beschäftigen sich in ihren Forschungs- und Entwicklungsabteilungen mehr oder minder intensiv mit Nanothemen. Der VW-Konzern in Wolfsburg z. B. experimentiert mit magnetischen Systemen, die aus Emulsionen mit kleinsten metallischen Teilchen, so genannten Ferriten, bestehen. Je nachdem, an welcher Stelle man ein Magnetfeld anlegt, lässt sich die Emulsion schwerer und schwerer bewegen, weil die Ferrite sich in der Emulsion ausrichten und dadurch ihre Viskosität verändern. Die Brücke zum Automobil ist schnell geschlagen: Derartige Systeme bieten sich unter anderem für die Dämpfung des Fahrwerks geradezu an. „Ein kostengünstiges, sehr einfaches und robustes System“, benennt Prof. Horst Friedrich, ehemals Leiter der Volkswagen-Forschung für Fahrzeugkonzepte und Werkstofftechnik und heute Direktor des Instituts für Fahrzeugkonzepte des Deutschen Zentrums für Luft- und Raumfahrt (DLR) in Stuttgart, die Vorteile. Neuartige Fahrwerksdämpfer sind bereits im Probebetrieb. Trotzdem geht man in Wolfsburg davon aus, dass es noch einige Jahre bis zum Serieneinsatz dauern wird, weil zunächst Fragen der Langzeitstabilität und der gleichmäßigen Herstellung der Ferrite geklärt werden müssen. Den Nanoaspekt erklärt Fachmann Friedrich: „Je kleiner die Partikel sind, desto besser und interessanter sind die Eigenschaften.“ Noch Zukunftsmusik sind dagegen spezielle Pigmente, die einen Chamäleon-Effekt verursachen sollen. Mit ihrer Hilfe ließe sich die Farbgebung des Innenraums auf Knopfdruck von hell auf dunkel oder umgekehrt verändern – je nach Stimmung des Fahrers oder passend zu seinem Anzug. Im Notfall könnte man seinem Hintermann die Staugefahr dadurch signalisieren, dass das noble Dunkelblau der Karosserie am Heck in ein reflektierendes und gut sichtbares Weiß wechselt. Der Trick dieser zukunftsweisenden Technik liegt in nanogroßen Pigmenten unterschiedlicher Farbe, eingepackt in kaum größere Kugeln, die zwischen zwei Elektrodenschichten gebracht werden. Legt man nun eine Spannung an, richten sich die Pigmente anders aus und erscheinen dann in einer anderen Farbe. Das Herstellungsverfahren ist allerdings hochkompliziert, sodass nicht mit schnellen

192

Resultaten gerechnet werden darf. Immerhin gibt es bereits ein Demonstrationsmodell in der Größe einer Postkarte, das die grundsätzliche Funktionalität beweist. Von großem Interesse sind auch superhyrophobe, also extrem wasserabweisende Oberflächen, die nicht nur eine Selbstreinigung gemäß dem Lotus-Effekt (siehe auch Kapitel 5, Seite 110 f) zeigen, sondern dabei auch stabil bleiben. Die niedrige Oberflächenenergie und die besondere Topographie führen dazu, dass Wassertropfen keinen Halt haben (Kontaktwinkel deutlich über 120 Grad) und beim Abrollen den Schmutz mitnehmen. Lange waren diese Schichten aber nicht brauchbar, weil sie schnell beschädigt wurden und so der Effekt verloren ging. Inzwischen experimentiert VW mit superhydrophoben Oberflächen, die nicht nur nach dem LotusEffekt funktionieren, sondern zudem sich selbst regenerieren können. So werden bei Beschädigungen z. B. fluorhaltige Verbindungen aus dem Inneren des Materials an die Oberfläche transportiert. Details werden derzeit noch streng geheim gehalten. Noch einen Schritt weiter gehen so genannte selbstheilende Stoffe, die Risse im Material ähnlich reparieren sollen, wie die menschliche Haut einen Kratzer verschließt – nur viel schneller. Dazu werden winzige Kugeln mit flüssigem Kunststoff gefüllt und in ein Grundmaterial eingebettet. Kommt es nun zu einer „Verletzung“, platzen die Kapseln und füllen die „Wunde“, wobei Katalysatoren dafür sorgen, dass der Kunststoff schlagartig aushärtet. Die „Wunderheilung“ ist zur Zeit noch ein Laborprojekt, auf Kunststoffe beschränkt und dürfte noch jede Menge Arbeit bis zur praktischen Anwendung verursachen. Auch die Nanogate Technologies GmbH in Saarbrücken (siehe auch Kapitel 5, Seite 119 ff) arbeitet mit der britischen Farécla Products Limited (Hertfordshire) gemeinsam an Fortschritten für das Automobil. Farécla gilt als führender Zulieferer von Finishing Systemen für Autolackierungen. Zur Erweiterung des Pflege- und Servicesortiments der Briten wurde von Nanogate eine regenabweisende Beschichtung für Windschutzscheiben sowie ein permanentes Antibeschlagsystem entwickelt. „Die nanotechnologischen Produkte sind qualitativ hervorragend und um ein vielfaches haltbarer als alle vergleichbaren Dinge im Markt. Mit Nanogate haben wir den idealen Innovationspartner gefunden“, erklärt ein Vertreter von Farécla. Das Unternehmen will auf Basis der Nanotechnologie neue Marktsegmente erschließen. So sind in den Bereichen Haushalt und Garten schmutzabweisende Beschichtungen für Glas und Keramik geplant, auch Holz- und Steinversiegelungen sollen weltweit vertrieben werden. Gemeinsam mit der Robert Bosch GmbH (Stuttgart) hat die Gessthachter hanse chemie (siehe Kapitel 5, Seite 108 ff.) im Rahmen des Programms „Neue Materialien für Schlüsseltechnologien des 21. Jahrhunderts – MaTech“ (gefördert durch das BMBF) 2005 ein Forschungsprojekt abgeschlossen, in dem innovative Compositmaterialien entwickelt wurden, die aus reaktiven Polymeren und neuartigen, nanoskaligen Oxidpartikeln (z. B. Siliziumdioxid, also der besagte Sand) bestehen. Dabei ist das spezielle Design der Nanopartikel der Schlüssel für ein bisher unerreichtes Eigenschaftsprofil, das das Material nahezu transparent macht. „Die damit herge-

193

stellten Werkstoffe besitzen Eigenschaften, die es in dieser Kombination bislang noch nicht gab“, schwärmt Dr. Christian Eger, Chemiker bei der hanse-chemie AG. Die Liste der Vorteile ist lang, die Anwendungspalette breit. Die Kompositharze halten hohen Temperaturen deutlich länger stand als herkömmliche Harze. Im nicht ausgehärteten Zustand lassen sie sich leichter verarbeiten, da sie eine niedrige Viskosität besitzen – ähnlich der von flüssigem Honig. Erstmals ist mit den für das menschliche Auge unsichtbaren Teilchen aus Siliciumdioxid eine einfache Imprägnierung von Bauteilen oder Materialien möglich, bei denen es immer noch als kniffelig gilt, sie mit einem schützenden Kompositharz zu tränken. Von Bedeutung ist dies etwa für die Herstellung von Faserverbundwerkstoffen, wie sie im Fahrzeugbau oder in der Luftfahrt vorkommen. „Normale Füllstoffe bleiben an der Oberfläche des Faserverbundes liegen, sie werden aus dem Harz ausgesiebt“, sagt Eger. „Unsere Nanopartikel aus Siliciumdioxid sind so klein, dass sie das Gewebe aus Glasfaser oder Kohlefaser gleichmäßig bis in die hinterste Ecke durchdringen.“ Die Zündspule des Autos braucht zur Hochspannungsisolation ebenfalls eine imprägnierende Schutzschicht, die zudem den mechanischen Belastungen gewachsen sein muss. „Man wickelt mit einem fünfzig Mikrometer dünnen Draht unzählige Windungen auf einen Träger und muss dann das Harz von oben durch die Wicklungshohlräume bis auf den Grund bringen,“ sagt Dr. Marco Holst, Verfahrensingenieur bei der Robert Bosch GmbH in Waiblingen – dem zweiten Verbundpartner im BMBF-Projekt. „Wenn das nicht klappt, gibt es einen Durchschlag und die Zündspule ist kaputt.“ Auch hier könnten die feinstofflichen Nanokomposite bessere Leistungen generieren. Generatordioden würden vor allem von der extremen Temperaturstabilität der High-Tech-Materialien als Vergussmasse profitieren. „Da kann man als Daumenregel eine Verdopplung der Lebensdauer erzielen“, so Holst. Der Einsatz von neuen hochwertigen Materialien im Fahrzeugbau ebnet den Weg zu leichteren Bauweisen – mit weit reichenden Konsequenzen. Verringert sich das Gewicht eines Autos, sinkt auch der Energieverbrauch. Die Erfolge, die die Wissenschaftler bei der Entwicklung der ersten Nanokompositharze erzielt haben, wollen sie künftig auch auf andere chemische Stoffklassen ausweiten. „Das Faszinierende daran ist, dass man einen extrem ausgereizten und hochgezüchteten Verbundwerkstoff noch einmal verbessern und mit neuartigen Eigenschaften versehen kann“, findet Holst. Drei Patente sind bislang aus der Arbeit erwachsen, eines bei der Robert Bosch GmbH, zwei bei der hanse-chemie AG. „Das BMBF-Projekt hat dazu geführt, dass wir von einer Pilotanlage zu einer großtechnischen Anlage übergegangen sind, in der wir die Nanokomposite jetzt produzieren werden“, sagt Eger.

194

Kapitel 9

Auch die Umwelt profitiert

Neue Chancen für die Ressourcenschonung Der ökologische Nutzen nanotechnologischer Verfahren und Produkte ergibt sich zunächst aus der Ressourcenschonung, also Einsparungen an Material und Energie. Chancen liegen zudem beim Ersatz umweltgefährdender Stoffe und einer flächendeckenden Überwachung der Umwelt. Einige Experten gehen davon aus, dass die fortgesetzte Miniaturisierung in der Herstellung von Produkten per se eine Ressourcenschonung mit sich bringt, weil sie mit geringerem Materialverbrauch dieselbe Funktion erfüllen wie herkömmliche Erzeugnisse. Der Transportaufwand für Waren wäre durch die Gewichts- und Volumenverringerung geringer, was wiederum den Energieverbrauch senken würde. Zudem ist davon auszugehen, dass künftige Produktionsanlagen, die auf Nanotechnik basieren, ebenfalls mit weniger Energieeinsatz auskommen. „Nanotechnologien haben das Potenzial, viele Konsumgüter mit weniger Materialaufwand und viel geringerem Abfallaufkommen herzustellen. In der Folge entstehen geringere Kohlendioxidemissionen, der Treibhauseffekt wird reduziert“, bestätigt Lester Milbrath, inzwischen emerierter Professor für Politik und Soziologie der State University of New York (Buffalo, USA). „Sie haben auch das Potenzial, giftigen Müll zu reduzieren, indem sie ihn in natürliche Materialien umwandeln, die keine Auswirkungen auf lebende Systeme haben.“

Warmes Wasser von der Sonne Die Kraft der Sonne gehört zu den Hoffnungsträgern einer umweltverträglichen Energiegewinnung. Die Sonne liefert täglich ein enormes Energiequantum, das in Deutschland den Primärenergieverbrauch um das Achtzigfache übersteigt. Diese Energiequelle ist praktisch unerschöpflich und steht auch in den nächsten Jahrmillionen zur Verfügung. Fossile Brennstoffe wie Kohle, Erdgas oder Erdöl sind dagegen nur begrenzt vorhanden. Die kommenden Generationen werden nicht mehr uneingeschränkt auf sie zurückgreifen können, sodass die Sonne zweifellos die Energie der Zukunft darstellt. Grundsätzlich stehen dafür zwei Wege offen: die

195

Photovoltaik, also die direkte Erzeugung von Strom mit Hilfe der Sonnenstrahlung, und die Solarthermie, die die Wärme der Sonnenstrahlung zur Bereitstellung von Heißwasser und gegebenenfalls zur Raumheizung nutzt. Für ihre Verwendung zur Warmwasserbereitung ergeben sich günstige Voraussetzungen, da der Warmwasserbedarf eines Haushalts über das Jahr annähernd konstant ist. Es besteht dadurch eine größere Übereinstimmung zwischen Energiebedarf und solarem Energieangebot als bei der Nutzung zur Raumheizung Vor diesem Hintergrund ist die Effizienz von Solarkollektoren von großer Bedeutung. Das Institut für Nichtmetallische Werkstoffe der Technischen Universität Clausthal hat nanoskalige Funktionsschichten für Glas entwickelt, die nach dem Sol-Gel-Verfahren hergestellt werden. Sie dienen der Erhöhung der Energieausbeute von Kollektoren ebenso wie der transparenten Wärmedämmung. Das Sol-Gel-Verfahren erzeugt sehr homogene Schichten schon bei relativ niedrigen Prozesstemperaturen. In einer rechnergesteuerten Tauchbeschichtungsanlage wird Kieselsol auf Flachglassubstrate aufgebracht. Dabei wird die Schichtdicke durch die Viskosität des Sols und die Ziehgeschwindigkeit bestimmt. Die resultierenden Schichten sind etwa 100 nm dick und bestehen aus porösem Siliziumdioxid. Sie wirken antireflektierend und erhöhen die Transmission von Fensterglas von 92 auf 99 Prozent. Entsprechend besser wird die Sonneneinstrahlung genutzt. Das Siliziumdioxid, also schlichter Sand, ist kostengünstig und lässt sich problemlos mit der Glasscheibe entsorgen bzw. recyclen. Auch das ein Gewinn für die Umwelt.

Nanoporen und -membranen Der Zugang zu sauberem Trinkwasser ist eines der größten Probleme, die in Zukunft zu lösen sind. Schon heute sind viele Gebiete der Erde ohne ausreichende Versorgung. Nanomembranen könnten in diesem Aufgabengebiet eine wichtige Rolle spielen. Das gilt für die Reinigung von Schmutzwasser ebenso wie für die Meerwasserentsalzung. Membranschichten mit Nanoporen wären sogar in der Lage, Bakterien auszufiltern. Besonders optimistische Zeitgenossen gehen davon aus, dass sich ganze Flüsse oder Meeresarme säubern lassen. Hier entstehen große Wachstumspotenziale für technische Keramik, die nicht nur für Abwasserfilter, sondern auch für Katalysatoren, Dieselrußfilter oder Rauchgas-Entschwefelungsanlagen geeignet ist. Neuere Untersuchungen mit Membranverfahren, insbesondere mit Mikro- und Ultrafiltration, haben gezeigt, dass ihr Einsatz bei kleinen Wassermengen eine echte Alternative zu herkömmlichen Prozessen darstellt und zu günstigen Kosten möglich ist. Ihr Vorteil liegt vor allem darin, dass sie die Feststoffabtrennung, die Elimination von Feinkolloiden und hygienischen Problemstoffen prinzipiell in nur einem Schritt leisten können. Damit wird eine Reduktion, eventuell sogar ein völliger Verzicht, von Desinfektionsmitteln samt der unerwünsch-

196

ten Oxidationsnebenprodukten machbar. Wenn es um noch kleinere Teilchen geht, also die Abtrennung von Härtesalzen (Calcium, Magnesium), Anionen (Sulfat, Nitrat) und gelösten organischen Substanzen, wird die Nanofiltration eingesetzt. Allerdings gilt hier: Je feiner die Durchgangsporen sind, desto größer ist ihr Widerstand. Desto größer ist auch der Druck- bzw. Energieaufwand, um sauberes Wasser zu produzieren. Nanofiltration ist als rein physikalisches Verfahren eine echte Alternative zu Wasserenthärtern nach dem Prinzip des Ionentauschers. Durch die Eigenschaft der Membranen, einwertige von mehrwertigen Ionen zu trennen, wie z. B. Carbonate oder Sulfate, werden der Härtegrad des Wassers und sein Salzgehalt deutlich gesenkt. Darüber hinaus verringert dieses Wirkprinzip Keime, Pestizide, Herbizide und Kohlenwasserstoffe im Wasser erheblich. Das Resultat ist reines Wasser, dessen verbesserte Qualität direkt messbar ist. Das effektivste Verfahren der Membrantechnologie ist die Umkehrosmose, die nahezu alle Wasserinhaltsstoffe zurückhält. Lediglich ein Restsalzgehalt von fünf Prozent verbleibt im Wasser. Die Umkehrosmose wird hauptsächlich zur Säuberung von Prozesswasser aus Industrie und Gewerbe eingesetzt. Im Privatbereich oder zur Herstellung von Trinkwasser wird in der Regel jedoch die Nanofiltration verwendet, da das Osmoseverfahren dem Trinkwasser auch wertvolle Mineralien entzieht. Nanofilter und Umkehrosmosegeräte sind inzwischen kommerziell verfügbar, unter anderem bei der Grünbeck Wasseraufbereitung GmbH in Höchstädt an der Donau.

Neue Technologie zur Salzgewinnung In vielen Industrien fallen belastete Abwasser an, die erst nach einer aufwändigen Reinigung erneut eingesetzt oder in die Natur zurückgegeben werden können. Ein typisches Beispiel ist die Salzgewinnung. Im Rahmen eines Forschungsprojekts hat das Institut für Verfahrenstechnik der Johannes Kepler Universität in Linz (Österreich) ein neues, inzwischen patentiertes Verfahren entwickelt, mit dem die im Salzprozess anfallenden Mutterlaugen durch Nanofilter (Membranen) vorteilhaft getrennt werden können. Auf diese Weise erhält man eine Fraktion, die in die Reinsole zurückgeführt werden kann, und eine zweite Fraktion, die in einer weitergehenden Eindampfung verwertet wird. Die heute noch erforderliche Ausschleusung von Mutterlaugen wird mit diesem Nanofiltrationsverfahren in Zukunft vollständig vermeidbar sein. Die Forschung auf dem Gebiet der Nanofiltrationstechnologie ist ein Schwerpunkt des Instituts für Verfahrenstechnik. Nach den ersten positiven Ergebnissen von Laboruntersuchungen der Nanofiltration im Salzgewinnungsprozess wurde von den Salinen Austria entschieden, dieses in der Salztechnologie völlig neue Verfahren der Nanofiltration weiterzuentwickeln.

197

Metallische Nanofilter Einen innovativen nanoporösen Werkstoff, hergestellt auf der Grundlage von Nickelbasis-Superlegierungen, haben Wissenschaftler am Institut für Werkstoffe (IfW) der Technischen Universität Braunschweig entwickelt. Das Material ist feinporiger als jedes andere heute bekannte metallische Material und verspricht daher vielfältige Einsatzmöglichkeiten im Mikro- und Nanobereich. Die gas- und flüssigkeitsdurchlässigen Kanäle sind weniger als ein tausendstel Millimeter klein. Der Werkstoff eignet sich daher ideal für künftige Anwendungen als Filter gegen Viren und Bakterien, Abgase und möglicherweise lungengängige, also gesundheitsgefährdende Partikel. Konkurrenzlos gegenüber vergleichbaren nanoporösen Materialien, beispielsweise aus Keramik, ist der metallische Werkstoff insbesondere durch seine mechanische Belastbarkeit und seine thermische und elektrische Leitfähigkeit. Sie erlaubt Einsatzmöglichkeiten z. B. in katalytischen Prozessen und Wärmetauschern in Mikrokomponenten. Dies kann künftig neue Produktformen überhaupt erst ermöglichen. Für den Bau von miniaturisierten Brennstoffzellen, wie sie beispielsweise mittelfristig als Energiequelle für tragbare Geräte eingesetzt werden sollen, ist es unter anderem notwendig, den flüssigen Brennstoff zu verdampfen. Dies kann durch Einsatz des nanoporösen Metalls auf wesentlich kleinerem Raum erfolgen und so zur Miniaturisierung der entsprechenden Bauteile führen. Aber auch in großen Anlagen wie Flugtriebwerken kann der neue Werkstoff zur so genannten Transpirationskühlung, bei der das Kühlmedium durch feinste Poren „ausgeschwitzt“ wird, eingesetzt werden und die Turbinen dadurch erheblich leistungsfähiger machen. Professor Dr. Joachim Rösler vom IfW erforschen seit längerem das Potenzial von Nickelbasis-Superlegierungen. Dabei haben sie ein Phänomen nutzbar gemacht, das bisher als unerwünscht galt: Mit dem Anlegen mechanischer Spannungen und hoher Temperaturen formen sich feinste würfelförmige Ausscheidungen, die den Superlegierungen ihre herausragende Festigkeit verleihen, von selbst zu so genannten Flößen um, die allerdings fest miteinander verbunden sind. Wird anschließend die umgebende Matrix herausgeätzt, so ergeben sich die nanoporösen Strukturen. Je nach Stärke der zuvor angelegten Spannung können die Forscher sie in unterschiedlichen Abmessungen herstellen.

Automobillackierung: Es geht auch ohne Chrom Nanosysteme könnten beim Ersatz von umweltschädlichen Stoffen eine wichtige Rolle spielen, für die es bisher keine Alternative in industriellen Prozessen gab. Das gilt unter anderem auch für die Chromatierung (nicht zu verwechseln mit der Verchromung) von Automobilkarosserien aus Stahl oder Leichtmetalllegierungen aus

198

Aluminium und Magnesium. Bisher werden dafür Chrom-(VI)-Verbindungen als Korrosionsschutz und Haftvermittler für Lacke eingesetzt. Diese Substanzen sind stark toxisch, sie wirken ätzend auf Haut und Schleimhäute und können schlecht heilende Geschwüre sowie – bei oraler Aufnahme – Magen-Darm-Entzündungen, Durchfälle oder Leber- und Nierenschäden verursachen. Zudem stellen sie bei ihrer Entsorgung ein Umweltproblem dar. Vor diesem Hintergrund hat die EU mit der Altfahrzeugrichtlinie beschlossen, dass jeglicher Einsatz und Gebrauch von Chrom-(VI)-Verbindungen ab Juli 2007 verboten sind. Der NTC Nano Tech Coatings GmbH im saarländischen Tholey stellt eine neue Generation von Lacken her, die auf Nanotechnologie beruht und ein wichtiger Schritt ist, um diese von Brüssel vorgesehene Abschaffung der Chromatierung in die Tat umzusetzen. Grundlage für die meisten der neuartigen Materialien zum Schutz von Oberflächen ist der Sol-Gel-Prozess, mit dem anorganisch-organische Hybridpolymere erzeugt werden. Im Gegensatz zu herkömmlichen Lacken, die auf rein organischer Polymerchemie beruhen, werden die NTC-Produkte aus flüssigen anorganischen Monomeren (kleinste, widerkehrende Baueinheit von großen Molekülen) auf Basis von Siliziumverbindungen aufgebaut. Durch chemische Reaktion entstehen dann kleinste Nanopartikel, die beim Aushärten ein glasähnliches dreidimensionales Netzwerk mit verknüpfenden organischen Bestandteilen bilden. Der hohe anorganische Bestandteil ist für die gute mechanische und chemische Beständigkeit verantwortlich, die organischen Anteile sorgen dagegen für eine gewisse Flexibilität der Beschichtung. Der Lack ist zwar innovativ im Material, aber in der Anwendung einfach, denn er kann durch konventionelle Techniken (Spritzen oder Tauchlackieren) verarbeitet und auf klassischen Lackieranlagen eingesetzt werden. Die Anwendungsbereiche sind unter anderem der Korrosionsschutz von Metalloberflächen und Produktgruppen, die Easy-to-Clean-Eigenschaften benötigen. Die neuartigen Systeme können als Klarlacke direkt verarbeitet, aber auch eingefärbt oder als pigmentierte Farb- und Metalliclacke aufgebracht werden. Die Beschichtungen haften sehr gut auf unterschiedlichen Untergründen wie Metallen, Glas, Keramik und Polymeren und sind deutlich dünner als konventionelle Lackmaterialien. In Salzsprühnebeltests haben die NTC-Klarlacke bei einer Schichtdicke von fünf Mikrometern ohne Chromatierung Beständigkeiten von über 2.000 Stunden direkt auf Aluminium erreicht. Dieser Wert wurde vom Institut für Korrosionsschutz (IKS) in Dresden überprüft und bestätigt. Bei der Applikation auf Aluminiumoberflächen kann auf die sonst notwendige Chromatierung erstmals komplett verzichtet werden. Die Dicke der trockenen Beschichtung liegt typischerweise zwischen fünf und zehn Mikrometern bei Klarlacken und zwischen zehn und 20 Millimetern bei pigmentierten Schichten. Das ist deutlich weniger als die Schichtdicken üblicher Lacke auf der Basis organischer Bindemittel. Da nur circa ein Zehntel der üblichen Lackmenge benötigt wird, sinkt

199

auch die Emission von organischen Lösemitteln (VOC; volatile organic compounds) drastisch auf ein Zehntel des normalen Wertes. Dies kommt EU-Verordnungen zur VOC-Reduzierung deutlich entgegen, wobei allerdings in Europa die Umstellung auf wasserbasierte Lacke schon weit fortgeschritten ist. Die neuen Coatings, ob transparent oder pigmentiert, eignen sich für vielfältige technische Anwendungen bei metallischen Oberflächen und Kunststoffen. Insbesondere die Verwendung auf Leichtmetallen erschließt ein breites Anwendungsgebiet z. B. im Automobil- und Flugzeugbereich. Da die Schichtdicken extrem dünn sind, erlauben sie auch den Einsatz bei Konstruktionsteilen, bei denen auf Maßhaltigkeit geachtet werden muss. „Ein großer Vorteil ist, dass man sozusagen die Grundierung mit der schützenden Schicht in einem Schritt vereint und bei vielen Anwendungen einschichtig arbeiten kann“, erklärt Dr. Georg Wagner, Geschäftsführer der NTC. Es ist mit der neuen Entwicklung auch möglich, überlackierbare Schichten herzustellen, die den gleichen guten Korrosionsschutz zeigen und die dann mit klassischen Decklacken, wie z. B. Zweikomponenten-Polyurethansystemen, überbeschichtet werden können. Inzwischen hat NTC auch ein Anti-GraffitiProdukt für mineralische Untergründe im Angebot, das ohne Energiezufuhr bei Umgebungstemperatur innerhalb von wenigen Minuten aushärtet und zu stark hydrophoben Oberflächen führt, von denen sich unerwünschte Schmierereien leicht wieder entfernen lassen. Anfang 2005 wurden die Forscher von NTC für die Entwicklung der neuartigen Korrosionsschutzmaterialien mit dem Deutschen Materialeffizienzpreis ausgezeichnet, der erstmals durch das Bundesministerium für Wirtschaft und Arbeit vergeben wurde. Prämiert wurden Best-Practice-Beispiele von kleinen und mittleren Unternehmen, die zu rentablen Steigerungen der Materialeffizienz im eigenen Haus oder in Anwendungen bei den Kunden führen. Und darin ist die Innovation der NTC beispielhaft.

Halogenfreie Flammschutzmittel auf Nanobasis Dank der Bayer AG in Leverkusen hat die Nanotechnologie auch im Flammschutz Einzug gehalten. Das Chemieunternehmen hat eine neue Generation flammwidriger Polymerblends aus Polycarbonat und Acrylnitril-Butadien-Styrol-Copolymer, kurz als ABS bezeichnet, entwickelt. Die neuen Produkte werden unter dem Namen Bayblend FR vertrieben und decken ein breites Einsatzspektrum ab – von der Dünnwandtechnologie, die ein exzellentes Fließverhalten der Polymerschmelze voraussetzt, über Hochtemperatur-Applikationen bis zu Extrusions- oder Tiefziehanwendungen, bei denen eine hohe Zähigkeit der Schmelze die wesentliche Voraussetzung ist. Besonders interessant sind die Problemlösungen bei der Dünnwandtechnologie, wie sie z. B. Gehäuse für Personal Digital Assistants (PDA) oder

200

für Mobiltelefone darstellen. Die neue Produktgeneration basiert auf einem innovativen, chlor- und bromfreien Flammschutzadditivpaket, dessen besondere Vorteile aus einem von Bayer patentierten nanotechnologischen Ansatz resultieren. Da die Additive unter den Verarbeitungsbedingungen vollständig in der Polymermatrix verbleiben, können sie ihre Wirkung im Endprodukt optimal entfalten. Weil diese Polymerblends Flammschutz auch ohne Halogene bieten, stellen sie einen großen Schritt für geringere Umweltbelastungen dar und wurden so mit dem Ökolabel „Blauer Engel“ ausgezeichnet.

Organisches Metall hilft auch im Umweltschutz Die Entwicklung der Ormecon GmbH (siehe Kapitel 5, Seite 103) im Bereich der leitfähigen, nanoskaligen Polymere – die organischen Metalle – hat erhebliche Auswirkungen auf zwei völlig unterschiedliche Bereiche auch im Umweltschutz: die Leiterplattenherstellung und den Korrosionsschutz. Derzeit ist die kommerzielle Umsetzung für das ungewöhnliche Material aus Ammersbek im Feld der Leiterplatten am weitesten gediehen. Diese erhalten in ihrem letzten Herstellungsschritt eine schützende Beschichtung der Kupfer-Kontaktflächen, auf die später die elektronischen Komponenten aufgelötet werden. Die bisher marktbeherrschende Heißluftverzinnung ist aber für die immer feineren Leiterbahn- und Lötstellenstrukturen kaum noch tauglich, weil schon bei Abständen von 0,25 Millimetern Zinnbrücken auftreten können, die Kurzschlüsse verursachen. Zudem basiert die Schicht auf bleihaltigem Lot, das im Zuge der weltweiten Zielsetzung bleifreier Elektronik zunehmend ersetzt werden soll. Rein organische Schutzschichten ermöglichen nur eine Lötfähigkeitsgarantie von maximal drei Monaten. Gold hat sich daher als Alternative zur bleihaltigen Heißluftverzinnung zunächst durchgesetzt und bereits 25 Prozent des Marktes erobert, ist aber extrem teuer. Durch die chemische Abscheidung von Zinn mit Organischem Metall lassen sich wie mit Gold Strukturen unter 0,1 Millimetern exakt beschichten. In praktisch allen Spezifikationen hat die neue Ormecon-Beschichtungstechnik diejenigen von Gold erreicht, wobei die Kosten aber nur ein Drittel bis zu 50 Prozent betragen. Jahr für Jahr werden 50 Millionen Quadratmeter Leiterplatten benötigt – rund um den Globus arbeiten bereits über 120 Anlagen (die meisten bisher noch diskontinuierlich und vertikal, aber auch neun größere bereits kontinuierlich und horizontal) in Europa, Nordamerika und Asien mit dem Produkt aus Ammersbek, für dessen Vermarktung Ormecon in über 20 Ländern eigene Vertretungen aufgebaut hat. Mit dem neuen Verfahren beschichtete Leiterplatten werden bereits in zahllosen kommerziellen Geräten, von Handys über Autoelektronik bis hin zu PCs und Laptops, verwendet. Der Marktanteil ist allerdings noch verschwindend gering. „Ein Anteil von einigen Prozent des Weltmarkts ist für unsere Technologie in ein paar Jahren erreichbar“, ist Dr. Bernhard Weßling überzeugt. Der Geschäftsführer

201

von Ormecon hat in den letzten Jahren trotz dramatischer Einbrüche im Elektronikmarkt gegen harte Konkurrenz weltweit tätiger Chemiekonzerne die Umsätze jeweils verdoppeln können. Leiterplatten müssen nach ihrer Herstellung mindestens ein Jahr lötfähig sein. Hierzu wird in der aufwendigen, etwa 170 Arbeitsschritte umfassenden Leiterplattenherstellung heute weltweit ein Fertigungsstep praktiziert, bei dem circa 30 Gramm Zinn pro Quadratmeter erforderlich sind. Die hier verwendete Legierung enthält normalerweise rund 37 Prozent Blei. Der weltweite Verbrauch dieses Materials beläuft sich für diese Anwendung schätzungsweise auf 750 Tonnen pro Jahr, worin über 250 Tonnen Blei enthalten sind. Nach Vorbehandlung des Kupfers mit einer extrem feinen Dispersion des organischen Metalls konnte die Aufbringung des Zinns extrem verbessert werden. Hierdurch werden weitere deutliche Verkleinerungen der Leiterplatten möglich. Zusätzlich können die Aufbringungsverluste nun praktisch vollständig vermieden werden, sodass nur noch etwa fünf Prozent der Zinnmenge für die gleiche Fläche erforderlich sind. Dies entspräche einer Reduktion des Zinn/Blei-Verbrauchs um über 700 Tonnen pro Jahr. Hinzu kommt eine sehr nennenswerte Energieeinsparung. In einer Studie der EPA (Environmental Protection Agency, USA) sind verschiedene bleifreie alternative Oberflächen hinsichtlich Leistungsfähigkeit, Kosten und Umwelteffekt untersucht worden. Dabei schnitt die chemische Abscheidung von Zinn am besten ab, da neben Kostenvorteilen gegenüber Gold auch noch toxikologische Vorteile (Arbeitssicherheit) und Wasserbedarf gefunden wurden. Diese Effizienzsteigerung wird mit einem vergleichsweise geringen Aufwand des neuartigen metallischen Kunststoffs Polyanilin erreicht. Mit einem Liter der Polyanilin-Dispersion können etwa zehn Quadratmeter produziert werden, wobei die Polyanilin-Belegung bei nur 15 mg pro Quadratmeter liegt. Als Dispersionsmittel dient Wasser. Die Effizienzsteigerung beträgt hier also deutlich mehr als einen Faktor zehn, nämlich bis 20. Wenn auch der Gesamtverbrauch an Zinn/Blei in diesem Fertigungsschritt im ökologischen Maßstab vernachlässigbar erscheint, so zeigt das Beispiel doch, dass mit vollkommen neuartigen technologischen Ansätzen durchaus enorme Effizienzsteigerungen realisierbar sind. Auch in der Leiterplattenfertigung wird das organische Metall noch weitere Verbesserungen ermöglichen.

Ultimativer Roststopper Nanotechnologie wird die Verschleiß- und Standfestigkeit von Maschinenteilen und Werkzeugen erhöhen, Korrosion und Reibung durch bessere Schmiermittel oder glattere Oberflächen bei bewegten Systemen vermindern und so zur Lebens-

202

zeitverlängerung von Maschinen und Geräten beitragen. Apropos Korrosion: Der Rostfraß ist unvermindert ein gewaltiges wirtschaftliches Problem. Aus ökologischer Sicht bedeutender, aber kommerziell noch nicht so erfolgreich ist Polyanilin in diesem Bereich. „Sensationell“, urteilten die Gutachter der Deutschen Bundesstiftung Umwelt (Osnabrück). „Wegen ihrer überragenden ökologischen Bedeutung im Korrosionschutz haben wir die organischen Metalle mit rund einer Million Euro gleich zweimal gefördert“, erklärt Dr. Fritz Brickwedde, Generalsekretär der Stiftung. Organische Metalle – nach der Schulchemie ein Widerspruch in sich – sind Kunststoffe, die den elektrischen Strom ohne weitere Zusätze leiten wie ein herkömmliches Metall. Jahrzehntelang war diese Stoffklasse eine Herausforderung für zahlreiche Institute und Großkonzerne wie Hoechst, IBM oder General Electric. Ausgerechnet Ormecon hat die gesamte Konkurrenz abgehängt und eine Weltinnovation kreiert, die auch im Korrosionsschutz Anwendung findet. Seit über 25 Jahren forscht Weßling mit seinem Team und gallischer Hartnäckigkeit an der schwierigen Materie, inzwischen hat er das gesamte Gebiet mit rund 200 Patenten fest im Griff. Organische Metalle sind unschmelzbar, unlöslich und damit wenig nutzbringend – das war die gängige Lehrmeinung, die Weßling und seine Crew gründlich widerlegt haben. Sie entwickelten ein extrem effizientes Dispersionsverfahren, mit dem das Metall der besonderen Art in feinst verteilter Form in einer Kunstharzträgermasse eingebettet wird. Zudem untermauerte der Pionier seine Resultate mit einer eigenen Grundlagentheorie. Der Durchbruch gelang 1993, als das Prinzip des Effekts erkannt wurde: Polyanilin verhält sich praktisch wie ein Edelmetall (mit einem Redoxpotenzial nahe beim Silber), veredelt also die Oberfläche konventioneller Metalle. Zusätzlich wandelt es die Oberfläche des zu schützenden Metalls in eine hauchdünne, dichte Metalloxidschicht um. Beim Eisen oder Stahl entsteht Fe203 in einer komplizierten Reaktionsfolge, die bei Ormecon aufgeklärt wurde. Dieser Vorgang erfolgt ganz analog zur Oxidierung von Aluminium, das sich bekanntlich an Luft selbst passiviert. „Rost“ ist im Gegensatz zum Fe203 aber eine wilde Mischung aus verschiedensten Eisenoxiden und -Hydroxiden, sodass Eisen oder Stahl für den Korrosionsangriff immer neue Oberflächen bilden. Die im Rost angesammelten Salze und Eisenionen verstärken autokatalytisch die Korrosionsgeschwindigkeit. Nicht mehr so nach der Beschichtung mit dem neuen organischen Edelmetall: Nunmehr ist das Korrosionspotenzial (bei Stahl) um bis zu 800 Millivolt verschoben (bei Kupfer sogar um mehr als zwei Volt), auch verzinkte Bleche und Stähle lassen sich hervorragend schützen. Hinzu kommt die Passivschicht Fe203, die dem allgegenwärtigem Rostfraß eine zusätzliche chemische und physikalische Barriere entgegensetzt. Die Effizienzsteigerung, die das neue Verfahren verspricht, ist enorm: In Laboruntersuchungen ist die Korrosionsgeschwindigkeit um bis zu 10.000mal niedriger als mit konventionellen Beschichtungen. In praktischen Untersuchungen findet man bisher eine Verlängerung der Lebensdauer metallischer Werkstoffe um den Faktor

203

fünf bis zehn. Naturgemäß sind solche Untersuchungen und vor allem die Entwicklung einer optimalen Abstimmung zwischen der Metalloberfläche, der neuen passivierenden Grundierung und der „versiegelnden“ Decklackschicht für die unterschiedlichsten praktischen Anwendungen äußerst langwierig. Praktische Anwendungen auch im kommerziellen Maßstab, die bis zu sieben Jahren im Einsatz stehen, sind aber vielversprechend. In Japan, wo die neue Beschichtung bisher am besten akzeptiert wurde, sind allein über 30 Objekte zumeist an öffentlichen Bauten realisiert worden. Bisher steht fest, dass Verbindungen auf Basis von Polyanilin sich als ultimative Roststopper bewähren. Da das organische Metall von der Luft ständig wieder oxidiert wird, steht es permanent für den Aufbau der Schutzschicht bzw. zu ihrer Reparatur zur Verfügung – letztendlich ein sich selbst heilendes System. Die besondere Effizienz hat das Karl-Winnacker-Institut der Deutschen Gesellschaft für Chemisches Apparatewesen (DECHEMA) in Frankfurt, europaweit führend in der Korrosionsforschung, nach eingehenden Untersuchungen bestätigt. Demnach machen die Systeme, die unter der Bezeichnung CORRPASSIV® vertrieben werden, Metalloberflächen außerordentlich widerstandsfähig. In etlichen, teilweise großen Objekten haben sie ihre schützende Wirkung auch kommerziell nachgewiesen. Das gilt nicht nur für das Salzwasserproblem der Schifffahrt, sondern auch für Oberflächen, die aggressiven Medien ausgesetzt sind wie in Biofiltern, Kläranlagen oder Pipelines. Korrosionsschäden sind ein weithin unterschätztes Problem: Allein in den USA, so das Batelle-Institut (Columbus, Ohio), liegen sie bei 300 Milliarden Dollar im Jahr, für Deutschland beziffert sie die DECHEMA auf deutlich über 50 Milliarden Euro pro anno. Hier öffnen sich dem Roststopper aus Holstein gewaltige Märkte, denn organische Metalle garantieren einen drei- bis fünfmal längeren Schutz. Das würde Weßling gern an einem besonderen Objekt nachweisen. So ist die Sanierung der Golden Gate Bridge sein großer Traum. „Gegenüber der Stadt San Francisco würde ich eine Garantie übernehmen, dass ihr Wahrzeichen nur noch alle 60 Jahre neu gestrichen werden muss.“

Baustoffe mit Nanoappeal: Beton und Lehm Beton ist der weltweit am meisten verwendete Werkstoff. In entwickelten Ländern beträgt der Einsatz über alle Bauten ein Kubikmeter pro Person. Aus Beton wird heute ein wesentlicher Teil der Infrastruktur erstellt. Die Omnipräsenz des Baustoffs täuscht möglicherweise darüber hinweg, dass Beton ein äußerst komplexes System darstellt. Am Prozess der Festigkeitsbildung sind eine große Zahl von chemischen Substanzen beteiligt, die Strukturen vom Nanometer bis zum Meter bilden. Herausforderungen dabei sind die Verwendung industrieller Produkte, um Energieeinsparung und Umweltschutz zu gewährleisten. „Wir benötigen ein Netzwerk, um die Entwicklungen in der Betontechnologie und den verwandten Bau-

204

stoffen durch ein besseres Verständnis der Nanowissenschaften zementgebundener Materialien zu beherrschen. Die Europäische Union unterstützt diese Forschung im 6. Rahmenprogramm“, erklärt Professor Bernd Hillemeier, an der Technischen Universität Berlin am Institut für Bauingenieurwesen für das Fachgebiet Baustoffkunde und Baustoffprüfung zuständig. Eine große Bedeutung kommt in Zukunft der Faserverstärkung auch im Beton zu, ähnlich wie bei anderen Werkstoffen (Wolframfasern in Sintermetallen, Glasfasern in Polyesterharzen). Fasern verbessern nahezu sämtliche Eigenschaften der Grundmaterialien, insbesondere ihre Zähigkeit. Wichtig ist die Verankerung der Fasern in der Matrix. Das lässt sich am besten mit Substanzen erreichen, die noch wesentlich feiner sind als Zement und eine entsprechend hohe Oberfläche aufweisen. Das trifft auf Fällungskieselsäuren mit Oberflächen von 200 Quadratmetern pro Gramm zu, wegen ihrer Teilchengröße auch Nanosilika genannt. Sie eröffnen weitere Möglichkeiten für spezielle Festigkeits- und Verformungseigenschaften. Eine zusätzliche Variante könnten Nanotubes als Fasermaterial werden, deren Festigkeit höher als die von Stahl ist. Denkbar wäre der Einsatz von mehrwandigen Röhrchen, die wie ineinander gesteckte Zylinder aufgebaut sind. Ihre Stabilität verdanken sie den starken kovalenten Bindungen zwischen den Kohlenstoffatomen. In Nanoröhren formen sie hexagonale Ringe wie bei einem Maschendraht. „Verbundwerkstoffe mit Nanoröhren könnten eine enorme Elastizität und Zugfestigkeit aufweisen und daher erdbebensichere Gebäude ermöglichen“, so Fachman Hillemeier. Weitere Chancen haben Nanotechnologien bei der Oberflächenveredelung für poren- und schlierenfreie Sichtbetonflächen, bei Superverflüssigern, die ohne brummende Rüttelenergie auskommen, oder bei selbstreinigenden Betonoberflächen. Das Kapitel „Zwerge im Beton“ ist längst noch nicht zu Ende geschrieben – und Lösungen, die mit weniger Material, Energie und Lärm auskommen, helfen auch der Umwelt. Auch ein anderes traditionelles Baumaterial könnte durch Nanotechnologie eine Art Wiedergeburt erfahren. Polymerdispersionen, die aus feinverteilten Kunststoffen in meist wässrigen Systemen bestehen, haben eine riesige Verbreitung gefunden (siehe Kapitel 5, Seite 103ff.). Seit einigen Jahren arbeitet die BASF daran, diese Palette durch einen uralten Baustoff zu ergänzen. So soll Lehm durch Polymerdispersionen wasserfest gemacht werden. Der Effekt kommt dadurch zustande, dass der Zusatz Polymerstege zwischen den Lehmplättchen ausbildet. Schon der Einsatz von drei Prozent Polymerdispersion macht ungebrannte Lehmsteine, die nur mit der Dispersion getränkt werden, wasserfest. Derart ausgerüstet, könnte Lehm als natürlicher Baustoff ein tolles Comeback feiern. Die Jahrtausendflut vom Sommer 2002 ist vielen sicher noch in Erinnerung. Tagelang kämpften Einwohner und Hilfsdienste, Bundeswehr und Feuerwehren um ihre Deiche – gut möglich, dass die BASFPolymerdispersionen in Zukunft ein weiterer Helfer aus der Chemie für die Verstärkung der Deiche sind. Ganz nach dem Motto: Zwerge gegen die Flut.

205

Kapitel 10

Die Energie der Zukunft

Von der Sonnenwärme bis zu hocheffizienten Dämmstoffen Energieumwandlungs- und -gewinnungsprozesse spielen eine überragende Rolle sowohl für die Industrie als auch für den privaten Verbraucher. Das gilt nicht nur für die entwickelten Staaten mit hohem Energieverbrauch, sondern ebenso für Schwellen- und Entwicklungsländer, deren wirtschaftliche Entwicklung in großem Maße von der Energieverfügbarkeit abhängt. Salopp formuliert: Ohne Energie läuft nichts. Insbesondere unter dem Aspekt des Umweltschutzes gewinnen dabei alternative bzw. regenerative Energiequellen immer mehr an Bedeutung. Hoffnungsträger ist neben der Windkraft vor allem die Sonnenenergie und hier insbesondere die Photovoltaik, also die direkte Umsetzung von Sonnenlicht in Strom. Eng verbunden mit diesen Bereichen sind Vorstellungen einer Wasserstoffwirtschaft, wobei das Gas als Energiespeicher dienen soll. Als ideales Kraftwerk gilt in diesem Zusammenhang die Brennstoffzelle, an der in allen Größenordnungen geforscht und entwickelt wird. Das gilt für Kleingeräte wie Handys und Laptops, für die dezentrale Strom- und Wärmeversorgung von Haushalten sowie für große stationäre Anlagen für Industrie und zentrale Aufgaben.

Nanoskalige Solarzellen für mehr Power aus der Sonne Neben der Entwicklung von herkömmlichen, meist auf dem Halbleitermaterial Silizium basierenden Solarzellen wird seit einigen Jahren an neuen, innovativen Solartechnologien geforscht. Auch in der Photovoltaik spielt die Größe der Partikel eine entscheidende Rolle. Experten gehen davon aus, dass sich mit neuartigen Beschichtungen, die Halbleiter-Nanopartikel enthalten, bis zu 80 Prozent der Kosten einsparen lassen, die die bisher gängige Silizium-Technologie verursacht. Ein neues Konzept, das sich an der Photosynthese der grünen Pflanze orientiert, bei der der Farbstoff Chlorophyll unter Sonneneinstrahlung Energie in Form von Zuckermolekülen speichert, wurde von dem Schweizer Professor Michael Grätzel Anfang der 90er-Jahre an der Eidgenössischen Technischen Hochschule von Lau-

207

sanne entwickelt. Die Zelle besteht aus zwei aufeinander liegenden beschichteten Glasplättchen: Das Glassubstrat mit einer leitenden Schicht, auf die der Halbleiter Titandioxid (TiO2) in einem Ofen bei 450 °C aufgesintert wird, ist die negative Elektrode der Solarzelle. Statt mit Chlorophyll fängt die Grätzel-Zelle die Solarenergie mit einer synthetischen Farbstoffschicht ein. Die als positive Elektrode wirkende zweite Glasplatte ist auch mit einer dünnen leitenden Schicht belegt und gleichzeitig mit Platin beschichtet. Die Grätzel-Zelle ist deshalb besonders interessant, weil sie einen ansteigenden Wirkungsgrad bei schwacher, diffuser Beleuchtung aufweist, was vor allem für sonnenärmere Gegenden vorteilhaft ist. Voraussetzung für einen hohen Wirkungsgrad ist die Güte der nanokristallinen Schichten, in die der Farbstoff adsorbiert ist. Sie vergrößern die aktive Oberfläche für die photoelektrischen Prozesse gegenüber glatten Schichten tausendfach. In vielen Forschungsanstalten werden Alternativen zum synthetischen Farbstoff erforscht, um die Zelle noch effektiver zu machen. So hat das Fraunhofer-Institut für Solare Energiesysteme (ISE, Freiburg) zusammen mit dem Freiburger Materialforschungsinstitut (FMF) Farbstoff- und Organische Solarzellen entwickelt, die ein hohes Anwendungspotenzial für die Zukunft haben. In der nanokristallinen Farbstoffsolarzelle wird das Licht der Sonne – ähnlich wie bei der Photosynthese in der Natur – mit Hilfe eines Farbstoffes, der nanometerfein auf Titandioxidteilchen aufgebracht ist, in Energie umgewandelt. Fortschritte in der Nanotechnologie haben eine vielfach vergrößerte Lichtabsorption und damit eine Effizienzsteigerung auf acht Prozent Lichtausbeute ermöglicht, wobei die Freiburger Forscher Wirkungsgrade bei der Energieumwandlung von zwölf Prozent für erreichbar halten. „Ein wesentlicher Vorteil der Farbstoffsolarzelle sind die im Prinzip preisgünstigen Ausgangsmaterialien sowie einfachste Herstellungsschritte“, so Dr. Andreas Hinsch, Experte für Farbstoff- und Organische Solarzellen am ISE. „Wenn es gelingt, derartige Solarzellen zur Serienreife zu entwickeln, wäre eine zusätzliche kostengünstige Möglichkeit der solaren Stromerzeugung gefunden.“ Im Mittelpunkt der Forschungsarbeiten am ISE stehen deshalb die Steigerung der Effizienz, die Fertigungstechnologie für großflächige Anwendungen, die Entwicklung einer langzeitstabilen Versiegelung sowie der Ersatz des flüssigen Elektrolyten durch einen festen. Farbstoff- und organische Solarzellen stellen also eine neue Klasse von SolarzellenTechnologien dar, welche im Vergleich zu bisherigen Halbleitertechniken auf vollständig anderen Prinzipien beruhen. Ihre Herstellung basiert auf kostengünstiger Beschichtungstechnologie, wie sie in ähnlicher Form bei der industriellen Weiterverarbeitung von Glas und Polymeren bereits existiert. Das Potential einer wirtschaftlich attraktiven Fertigung ist daher gegeben. Die physikalische Eigenschaften wie Teiltransparenz und Farbgebung von Farbstoffzellen sowie die mechanische Flexibilität von auf Polymeren und organischen Molekülen basierenden Solarzellen können an die Anforderungen von spezifischen Produkten angepasst werden, wodurch völlig neue Anwendungsfelder für die Photovoltaik denkbar sind.

208

Organische Solarzellen bilden neben organischen Leuchtdioden (OLEDs) und Transistoren einen Schwerpunkt auf dem vielversprechenden Forschungsgebiet der Polymerelektronik. Vorteile der organischen Materialien sind ihre mechanische Flexibilität und das langfristige Potenzial einer kostengünstigen Herstellung. Daraus ergeben sich aller Voraussicht nach zusätzliche Anwendungschancen für organische Solarzellen, weil sie unter anderem – in die Gebäudeverglasung integriert oder auf gewölbten Oberflächen angewandt – eine attraktive Architektur ermöglichen. Zudem gibt es weitere Chancen im Kleingerätebereich und selbst für funktionale Kleidung. Auf lange Sicht ist jedoch auch der Einsatz als preiswerter solarer Stromerzeuger auf großen Flächen nicht ausgeschlossen. Gegenwärtig beträgt der realisierte Wirkungsgrad der organischen Zellen relativ bescheidene drei Prozent. Durch die Entwicklung und Optimierung von Zellstrukturen soll dieser Wert aber noch deutlich verbessert werden. „Wir versuchen, den Lichteinfang durch Aufprägen von Nanostrukturen zu erhöhen. Dabei können wir auf die langjährige Erfahrung des Instituts bei der großflächigen Nanostrukturierung von polymeren Materialien zurückgreifen“, berichtet Hinsch. Mit Hilfe holographischer Belichtungsverfahren stellen die Wissenschaftler am ISE großflächige periodische Oberflächenstrukturen her, welche dann in einem kostengünstigen Prägeverfahren in die Polymerschicht der Solarzellen übertragen werden und zu einer verbesserten Absorption von Sonnenlicht führen. In fünf bis zehn Jahren, so hofft man nicht nur in Freiburg, könnten die neuen Solarzellen mit Nanoausrüstung marktfähig sein.

Die Nanobatterie Die Idee klingt verlockend: Eine Kombination aus Elektro- und Verbrennungsaggregaten soll das Autofahren umweltfreundlicher machen. So genannte HybridFahrzeuge nutzen die Sparsamkeit des Elektroantriebs ebenso wie die Leistungsstärke des Otto-Motors. In den USA wurde der Toyota Prius, eines der ersten Serienautos nach diesem Konzept, sogar zum Auto des Jahres 2004 gekürt. Die hohe Nachfrage hat dazu geführt, dass die Lieferzeit in den Vereinigten Staaten bereits neun Monate beträgt. Inzwischen haben General Motors, Ford und auch Daimler Chrysler eigene Typen in der Entwicklung. Gerade in Nordamerika, wo die Dieseltechnologie traditionell wenig nachgefragt wird, gilt der „Zwitter“ als Hoffnung für die Zukunft. Derartige Fahrzeuge könnten zumindest die notwendige Entwicklungszeit überbrücken, bis innovative Brennstoffzellen auch für den automobilen Bereich zur Verfügung stehen. Toyota, zusammen mit Honda Vorreiter der HybridIdee, will jährlich weltweit 300.000 derartige Automobile verkaufen. Vor diesem Hintergrund gewinnen Lithium-Ionen-Batterien als notwendige Energiespeicher immer mehr an Bedeutung, weil sie leichter, kleiner und leistungsfähiger sind als die Blei- oder Nickel-Metallhydrid-Varianten. Im CCC-Markt, der für

209

Cell Phones, mobile Computer und Camcorder steht, sind sie inzwischen bereits mit einem Marktanteil von 99 Prozent vertreten. Ihre Leistungsfähigkeit liegt in diesem Segment unter zwei Amperestunden. Für Anwendungen im Automobil müssten sie allerdings deutlich größer werden und über zehn Amperestunden erreichen. Ein Zwischenschritt sind Light Electric Vehicles (LEV), also elektrische Zwei- oder Dreiräder. Im mobilen Bereich steigt aber auch der Anspruch an die Sicherheit. Eine Entwicklung des internen Start-up „Keramische Membranen“ der Creavis verbessert insbesondere diesen Aspekt bei Lithium-Ionen-Batterien und eröffnet damit sehr gute Marktchancen. Die Arbeit wurde mit dem Degussa Innovationspreis 2004 in der Kategorie „Neue Produkte“ ausgezeichnet. Bisher werden in Lithium-Ionen-Batterien semipermeable Membranen, die Anode und Kathode voneinander trennen, aus Polymeren (Polyethylen oder Polypropylen) eingesetzt. Derartige Separatoren haben einige gravierende Nachteile: Sie sind brennbar und deshalb im Falle eines Feuers nicht sicher genug, oberhalb von 140°C verlieren sie ihre Temperaturstabilität, ihre Benetzbarkeit mit dem flüssigen Elektrolyten ist besonders bei tiefen Temperaturen auf Grund des Olefincharakters der verwendeten Kunststoffe stark eingeschränkt und ihre Lebensdauer (Porenstabilität) ist begrenzt. Das innovative Degussa Produkt Separion überwindet diese Probleme, weil es sich dabei um eine doppelseitige keramische Beschichtung einer PET-Polymermatrix handelt, die eine entsprechend hohe chemische und thermische Stabilität aufweist.

Der eigentliche Clou: Niedertemperatur-Sintern bei nur 250°C Grundsätzlich lassen sich übliche Oxide von Aluminium, Zirkon und Silizium verwenden, Degussa bietet eine besondere Mischung aus diesen Komponenten an. Das Polymervliess sorgt für eine hohe Flexibilität, so dass auch gebogene Separatorfolien möglich sind. Der hauchdünne Film wird in einem kontinuierlichen Prozess (Slip Coating) zunächst von beiden Seiten beschichtet, anschließend getrocknet und gesintert. Dank des besonderen Know-hows gelingt diese Verankerung und Verfestigung bei nur rund 250°C, bis zu 1.000°C niedriger als im Normalfall. Dabei handelt es sich ganz eindeutig nicht um eine Dispersion keramischer Partikel in einer Polymermatrix, sondern um eine anorganische „Verklebung“ zwischen Metalloxid und PET. Auf diese Weise entsteht auf beiden Seiten des Kunststofffilms eine zusammenhängende keramische Phase, die ganz wesentlich die Eigenschaften des Separion bestimmt. Abschließend durchläuft die fertige Folie eine optische Online-Kontrolle mit Hilfe eines Mehrfachkamerasystems, das insbesondere Löcher entdecken soll, die zu Kurzschlüssen in den Batterien führen könnten. Insgesamt wurde diese spezielle Technologie inzwischen mit rund 25 Patenten abgesichert, die sowohl das Produkt als auch Prozess und Anwendung abdecken.

210

Die Idee, eine kontinuierliche keramische Beschichtung mit einer kostengünstigen Polymerbasis zu kombinieren, ist ebenso neu wie der Herstellungsprozess selbst, der weltweit einmalig ist. Bisher konnten nur einzelne Chargen in Brennöfen bei wesentlich höheren Temperaturen erzeugt werden. Der jetzt etablierte Weg des Niedertemperatur-Sinterns erlaubt nicht nur eine Art Endlosfertigung, sondern ist wesentlich kostengünstiger. Der Erfolg wurde letztlich auch möglich durch das große Wissen der Degussa im Bereich der Silanchemie, die bei der Sinterung eine wichtige Rolle spielt. Analysen der Temperaturbeständigkeit belegen die hohe Performance des Produkts: Während Polyethylen und Polypropylen etwa unter bzw. etwas über 150°C schmelzen, liegt dieser Punkt bei Separion deutlich über 250°C. Weitere Messungen haben ergeben, dass seine Benetzbarkeit exzellent ist, was ein großer Vorteil beim Einfüllen des Elektrolyten ist. Dank dieser Eigenschaften sind sogar Elektrolyten einsatzfähig, die mit Polyolefinen gar nicht zu verwenden sind. Die hohe Benetzbarkeit erniedrigt den ohmschen Widerstand und verbessert so auch die Batterieverhalten bei niedrigen Temperaturen unterhalb von 0°C. Polyolefin-Separatoren haben unter diesen Bedingungen gelegentlich Schwierigkeiten, weil es zu einer Entmischung zwischen Polymer und Elektrolyt kommen kann, wodurch der Widerstand steigt. Als Folge reduziert sich die Belastungsfähigkeit bzw. die Leistung des Systems. In der Fachwelt ist dieses Problem unter der etwas launigen Bezeichnung „Camcorder im Schnee“ bekannt.

Alle Sicherheitstests mit Bravour bestanden Besonders intensiv wurden Sicherheitstests mit einer ganzen Reihe von Zellen verschiedener Hersteller gemacht. Hierbei konnte Separion seine positiven Merkmale klar nachweisen. Dabei wurde die Penetration mit einem Nagel, ein externer Kurzschluss und Überladungen von sieben sowie zwölf Volt durchgeführt. In all diesen Fällen kommt es mit Systemen, die einen Polyolefin-Separator verwenden, zu Rauchentwicklung, bei der hohen Überladung zu internen Kurzschlüssen und sogar zum Teil zu offenem Feuer. Separion übersteht dagegen all diese Herausforderungen gänzlich ohne Rauch- und Brandereignisse. Bei einer Überladung von bis zu sieben Volt bleibt die Batterie mit keramischer Membran sogar völlig intakt. Dieses Verhalten ist wichtig bei der Rückspeisung von Bremsenergie (z. B. bei längerer Bergabfahrt), bei der Überladungen nicht völlig auszuschließen sind, wenn die Batterie schon zuvor einen hohen Ladungszustand aufweist. Inzwischen stehen für den wachsenden Markt unterschiedliche Produkte zur Verfügung. Sie variieren u.a. in der Gesamtdicke, die derzeit zwischen 25 und 40 Mikrometern liegt. Die Porosität erreicht Werte zwischen 37 und 55 Prozent, dabei ist die Porengröße zwischen 100 und 800 Nanometern einstellbar. Die Schrumpfung,

211

bei vielen keramischen Bauteilen ein großes Problem, ist außerordentlich gering. Bei 90°C und vier Stunden Trocknungszeit beträgt sie gerade einmal 0,1 Prozent, bei 200°C über 24 Stunden nur 0,5 Prozent. Diese Produktbreite ist deshalb so wichtig, weil für verschiedene Anwendungen wie Telekommunikation oder Automobil unterschiedliche Produktparameter benötigt werden. Degussa ist hier grundsätzlich so aufgestellt, dass alle Märkte abgedeckt werden können, auch wenn der Fokus derzeit auf dem Automotive-Bereich liegt. Darüber hinaus verfügt Degussa innerhalb des Konzerns über weitere Aktivitäten, die zusätzliche Aspekte der Lithium-Ionen-Batterien auf der Materialseite abdecken. Unter der Bezeichnung LION Power wurde eine Vermarktungsplattform etabliert, die weitere Expertise des Konzerns in diesem zukunftsträchtigen Einsatzfeld zusammenführt. LION Power folgt der Erkenntnis, dass Batteriekomponenten in erster Linie Spezialchemie ist. Abgesehen von Separion kann Degussa Materialien für Anoden und Kathoden anbieten, die die Kapazität bzw. die Sicherheit erhöhen. Darüber hinaus sind Stabilisatoren, Nano-Silizium und Ionische Flüssigkeiten im Programm. Zudem lassen sich Synergieeffekte in dem Sinne nutzen, dass die einzelnen Komponenten aufeinander abgestimmt werden, um maßgeschneiderte Systeme zu erhalten. Mit dem vernetzten Wissen verschiedener Geschäftsbereiche kann Degussa zum Systemlieferanten avancieren. Angesichts der großen Möglichkeiten wurde die Separion-Produktion von 2004 auf 2005 bereits verzehnfacht. Deshalb wurde eine zusätzliche Anlage zur Erzeugung der Separatorfolie installiert. Damit wird der Schritt von der Pilot- in die Massenfertigung vollzogen, die einen Output von zwei Millionen Quadratmeter vorsieht. Umgerechnet sind das nahezu 300 Fußballfelder – und das könnte erst der Anfang einer besonderen Erfolgsstory sein. Das Ziel für Degussa steht auf jeden Fall fest – bevorzugter Systemanbieter für die mobile elektrische Energie von morgen zu werden. Mit Separion gibt es dafür eine hervorragende Ausgangsposition.

Was die Brennstoffzelle mit Nanotechnologie zu tun hat Die japanische NEC Corporation (Tokio) untersucht in Zusammenarbeit mit der Japan Technology Corporation und dem Institute of Research and Innovation intensiv die Möglichkeit, mit Hilfe von Nanoröhren (siehe Kapitel 5, Seite 135 f.) winzige Brennstoffzellen für die Anwendung in mobilen Geräten zu entwickeln. NEC hat zu den Nanotubes eine besondere Beziehung, weil ihr eigener Forscher Sumio Iijima sie 1991 entdeckte. Die Kohlenstoffröhrchen dienen in diesem Fall als Elektrodenmaterial, was den bisherigen Lösungen mit Aktivkohle deutlich überlegen ist. Die Brennstoffzelle soll eine zehnfache Energiekapazität im Vergleich mit Lithiumbatterien erreichen und einen dauerhaften Gebrauch von Computern für mehrere Tagen möglich machen. Die Brennstoffzelle, die die Energie der chemi-

212

schen Reaktion von Wasserstoff und Sauerstoff direkt in elektrische Energie umwandelt, gilt als die entscheidende Technologie der nächsten Generation im Bereich der Energiewandlung. Die verwendeten Nanotubes sind mehrwandig und bestehen aus ineinander gesteckten Zylindern mit wachsender Größe. Eine ihrer charakteristischen Eigenschaften besteht darin, dass die winzigen Teilchen aggregieren und Sekundärpartikel in der Größe von etwa 100 nm bilden. Insgesamt haben diese Strukturen nicht nur eine enorme Oberfläche, sondern es ist für Gase und Flüssigkeiten auch leicht, in das Innere vorzudringen. Zudem lassen sich diese Röhrchentypen in hoher Reinheit leichter herstellen als „normale“, singuläre Tubes. Deshalb wird erwartet, dass sie ein vergleichsweise kostengünstiges Material für die Brennstoffzelle ergeben. Die Brennstoffzelle von NEC ist als Polymerelektrolyt-Zelle (PEFC) zu verstehen, wobei die Nanos als Elektroden zugleich den Katalysator unterstützen. So verteilen sich die extrem kleinen Platinpartikel auf den Nanotubes, wobei die Partikelgröße des Platins ein entscheidender Faktor für den Wirkungsgrad der Brennstoffzelle ist. Hier gilt: Je feiner der Katalysator, desto besser die Performance der Zelle. Der genaue Mechanismus ist zwar noch nicht geklärt, aber man vermutet, dass die einzigartige Gestalt der aggregierten Nanotubes das Wachstum der Platinpartikel verhindert. Man erwartet, dass durch Veränderung der Nanoröhrchenform sich die Katalysatorverteilung und dadurch die Batteriecharakteristik noch verbessern lassen. Zudem will man die Herstellung der Tubes durch Laserablation (Abtragung) dazu nutzen, gleichzeitig die Platinteilchen in der Dampfphase zu erzeugen, sodass sie sich auf den Röhrchen abscheiden. Dadurch ließe sich die bisherige schwierige Katalysatorherstellung umgehen, zudem wird eine deutliche Kostenreduktion erwartet.

Nanoröhren als Wasserstoffspeicher – Wunsch und Wirklichkeit 1997 vermeldete die Northeastern University Boston (USA) sensationelle Ergebnisse: Die Wissenschaftler von der Ostküste der Vereinigten Staaten hatten vermeintlich herausgefunden, dass Nano-Kohlenstoffröhrchen 65 Prozent Wasserstoff speichern können (Gewicht Wasserstoff bezogen auf das Gewicht der Gesamtanordnung). Flink rechneten daraus Experten hoch, dass Elektroautomobile mit den Zwergen im Tank und einer Brennstoffzelle als Stromproduzent eine Reichweite von bis zu 8.000 Kilometern erreichen könnten. Die Geschichte war zu schön, um wahr zu sein. Schnell stellte sich heraus, dass die vielen Arbeitsgruppen rund um den Globus trotz eifrigster Bemühungen die Resultate ihrer amerikanischen Kollegen nicht bestätigen konnten. Dennoch geht die Forschung in diese Richtung intensiv weiter, weil selbst ein Wert von „nur“ zehn Prozent von großem industriellem und wirtschaftlichem Interesse ist.

213

Nicht nur unsere Jugend will mobil sein und dabei trotzdem auf umfassende Kommunikation nicht verzichten – eine Tatsache, die mittlerweile als „wireless“ oder „mobile revolution“ bezeichnet wird. Diese Tendenz wird zukünftig noch wichtiger werden. Mobilität und Kommunikation werden den Kundenwunsch zu immer kleineren, leistungsfähigeren und leichteren elektronischen Geräten anspornen. Der Versorgung dieser Geräte mit Energie kommt dabei eine zentrale Rolle zu. Während dies bei den heutigen Laptops und Handys etc. noch über wiederaufladbare Akkus – alleine in Deutschland werden im Jahr etwa eine Milliarde Batterien bzw. Akkus gekauft – gewährleistet ist, entsteht für die Zukunft ein spezielles Einsatzgebiet von Minibrennstoffzellen. Fachleute sehen hier den so genannten „4C-Market“, der für Computer, Camcorder, Cellphones und Cordless Tools steht und der bereits bei seiner Entstehung Stückzahlen von mehreren Millionen generieren könnte. Die Herstellung von Wasserstoff basiert heute noch zu 90 Prozent auf fossilen Rohstoffen (Reformierung von Erdgas) und ist in der Chemischen Industrie bei der Synthesegas-Erzeugung seit Jahrzehnten erprobt. Der Sprung zu einer im globalen Sinne „Null-Emissions-Technologie“ gelingt erst, wenn Wasserstoff mit regenerativen Energien aus Wasser herstellbar wird und auf den Einsatz von Kohlenwasserstoffen fossilen Ursprungs verzichtet werden kann.

Nanowürfel als Speichermedien Ein Kernproblem bleibt jedoch auch dann noch die Speicherung und Verfügbarkeit von Wasserstoff speziell im mobilen Einsatzbereich von Kleingeräten, wo die Verflüssigung (bei minus 253 °C) oder Druckgaslagerung (200 bar) von Wasserstoff nicht in Frage kommen. Somit stellt sich die Aufgabe, ein unter diesen Randbedingungen wirksames Speicherkonzept für Wasserstoff zu finden, das im Handling und in der Energiedichte den Betrieb der vorgenannten Minibrennstoffzellen ermöglicht und derzeitigen batteriebetriebenen Systemen überlegen ist. Der Endnutzer der neuen portablen Breitbandsysteme erwartet eine gesteigerte Bedienerfreundlichkeit, hohe Sicherheit und dies bei niedrigem Gewicht, kleinem Volumen und wettbewerbsfähigen Kosten. Der „Nanowürfel“ als Speichermedium für Wasserstoff könnte hierzu eine Lösung sein. Diese Würfel haben erstaunlicherweise sowohl mit PET-Getränkeflaschen als auch mit Sonnencreme einiges gemein: Es handelt sich bei ihnen um metallorganische Gerüstmaterialien, bei denen z. B. organische Einheiten von Terephthalsäure (wie in der PET-Flasche) mit anorganischem Zinkoxid (wie in der Sonnencreme) über Carboxylatbindungen verknüpft sind. Aus den periodisch aufeinanderfolgenden Baueinheiten von Terephthalat-Liganden und Zinkoxid-Zn4O-Nanoclustern ergeben sich hochporöse Raumgitter mit offenen Poren und Kanälen, die ihrerseits ebenfalls im Nanometerbereich liegen und das metallorganische Gerüst dreidi-

214

mensional durchziehen. Mit einer Dichte von nur 0,59 Gramm pro Kubikzentimeter handelt es sich um einen der porösesten Festkörper überhaupt. So haben Carbon Nanotubes vergleichsweise einen Wert von 1,3 g/cm3 und damit mehr als die doppelte Dichte.

Hoffnungsträger Metal Organic Frameworks Diese spezielle Materialklasse der MOFs (Metal Organic Frameworks) wurde in den vergangenen Jahren sehr erfolgreich von Professor Omar Yaghi, an der University of Michigan (Ann Arbor, USA) zu breiter Variabilität entwickelt und umfasst mittlerweile mehr als einhundert neue Strukturen, wobei außer Zink auch viele weitere interessante Metalle zum Einsatz kommen. Yaghi kooperiert in diesem Gebiet eng mit der BASF in Ludwigshafen. Die thermische Stabilität der Nanowürfel bis zu 350 °C an Luft ist beträchtlich und für eine metallorganische Komponente zunächst überraschend, so ist die thermische Beständigkeit bei Polyethylenterephthalat (PET) vergleichsweise bei spätestens 260 °C erreicht. Bereits 2,5 Gramm dieser neuen Nanowürfel verfügen mit ihrer hohen inneren Oberfläche über die äquivalente Fläche eines Fußballfeldes. Mit diesem Weltrekordwert von circa 3.000 Quadratmetern pro Gramm spezifischer Oberfläche bei den zinkhaltigen MOFs wurden die seit Jahrzehnten bekannten Oberflächenwerte kommerziell verfügbarer Aktivkohlen (800 bis 2.000 m2/g) von Zeolithen (700 m2/g) oder Carbon-Nanotubes (200 m2/g) weit übertroffen. Dies legt es natürlich nahe, auch die übrigen MOFs, die eine noch größere Oberfläche haben, auf ihre Eigenschaften als Sorbentien und Speichermaterialien zu untersuchen und vergleichend gegen den Stand der Technik zu bewerten. Zur Herstellung der Nanowürfel bedient man sich der gleichen Technologie, wie sie in der BASF schon seit vielen Jahrzehnten bei der Katalysatorproduktion erfolgreich erprobt ist: Man fällt beispielsweise eine Zinksalzlösung gemeinsam mit Terephthalsäure in einem Lösungsmittel, welches den pH-Wert gezielt aus dem sauren in den basischen Bereich verschiebt. Der entstandene Niederschlag an Nanowürfeln wird abfiltriert, neutralgewaschen und getrocknet. Falls erwünscht, können sich auf dieser Pulverbasis konventionelle Formgebungsprozesse anschließen. Mittlerweile ist die BASF in der Lage, die Nanowürfel mit Größen um einen Mikrometer bereits in Kilogramm-Mengen zu fertigen und im Bedarfsfall auch in Tablettenform zu bringen. Mit Hilfe der Nanowürfel auf Basis der „Metal Organic Frameworks“ kann man neue Speichermaterialien für Wasserstoff quasi anforderungsgerecht „zusammenwürfeln“. Aufgrund einfacher geometrischer Modellierungen scheint in der weiteren Entwicklung eine Vervielfachung der Kapazität erreichbar zu sein, z. B. indem die Speicherfläche pro Nanowürfel-Volumen erhöht wird, ähnlich wie etwa Bienen im Volumen des Bienenstocks Wabenkörper aufbauen, um mehr Honig zu

215

speichern. Um massenspezifisch mehr Wasserstoff einlagern zu können, wird derzeit auch versucht, die Nanowürfel leichter zu bauen und statt der anorganischen Zink-Komponente das leichtere Magnesium einzusetzen. Dies sollte bei gleicher Struktur eine Gewichtsreduktion um circa 30 Prozent ermöglichen. Für die fernere Zukunft kann man spekulieren, ob die inneren Hohlräume der Nanowürfel eventuell zusätzlich zur Wasserstoffspeicherung herangezogen werden können. Dafür kommen möglicherweise Metallhydride in Nanoform in Frage. Dieses dann entstehende Compositmaterial würde sowohl die Vorteile der Physisorption von Wasserstoff an freien Flächen der MOF-Struktur (Kaltstart der Brennstoffzelle) als auch die Chemisorption (Spitzenlastbetrieb bei hoher Temperatur) besitzen. Als kombinierter Speichermechanismus könnte dies den Anwendungsbereich von Brennstoffzellen zu höheren Energiedichten entsprechend ausdehnen helfen. Die Speicherdichten fossiler Energieträger (Benzin, Diesel, Kerosin) werden jedoch schwerlich erreichbar sein und so stehen für die Forschung der BASF die Anwendungen der Nanowürfel für den direktbetriebenen, leicht transportablen Minibrennstoffzellen-Einsatz im Fokus. Das niedrige Gewicht der Speicher sowie der angestrebte geringe Speicherdruck, der sich bereits heute daran orientiert, was Konsumenten risikolos bereits seit Jahrzehnten nutzen (z. B. Gasfeuerzeug), kann dazu beitragen, in der Öffentlichkeit eine breite und schnelle Akzeptanz für die neuen Wasserstoffspeicher in Mobilgeräten zu erreichen. Die Erfolgsfaktoren der BASF in diesem Gebiet sind zum einen das langjährige Know-how bei der Herstellung und Nutzung von Wasserstoff und den dabei anstehenden Werkstofffragen, zum anderen die Möglichkeit zum schnellen Up-scaling der Nanowürfel, weil man große Erfahrungen in der technischen Massenproduktion von Katalysatoren besitzt. Nicht zuletzt ist der enge Kontakt zu Professor Yaghi und seinen Mitarbeitern außerordentlich wertvoll, die mit hoher Effizienz ständig neue Nano-Materialien bereitstellen.

Starkes Duo für die Wärmedämmung In hochdisperser Form offenbart sich die altbekannte Kieselsäure in einem neuen Gewand und mutiert zu einem Wärmeisolator der Superklasse. Davon profitieren nicht nur Häuslebauer. Vielmehr sind Dämmstoffe dieser Art gerade dabei, weitere zukunftsträchtige Einsatzgebiete zu erobern. Das Spektrum reicht vom Automobilbau bis zur Erdölförderung. Wenn von einem VIP die Rede ist, handelt es sich nicht unbedingt um eine „Very Important Person“. Vielmehr bezieht sich das Kürzel auf ein Vakuumisolationspaneel – eine metallisierte Kunstofffolie, die mit nanoporöser Kieselsäure gefüllt und unter Feinvakuum verpackt wurde. Mit einer Stärke von gerade mal zwei Zen-

216

timetern erinnern derartige VIPs auf den ersten Blick an zu schmal geratene Kaffeepackungen. Die „schlanke Linie“ ist indessen eine besondere Stärke dieser VIPs, denn ihre Wärmedämmung entspricht der einer 20 bis 35 Zentimeter dicken Lage herkömmlicher Dämmstoffe, was den potenziellen Einsatzmöglichkeiten wiederum völlig neue Dimensionen erschließt. Ermöglicht wurde das technologische Wunder mit Hilfe einer hochdispersen Kieselsäure, deren kugelförmige Moleküle untereinander nur punktförmige Verbindungen zulassen, was die Wärmeleitung über den Festkörperkontakt drastisch reduziert. Zwischen den Kügelchen befinden sich wiederum Hohlräume in Form nanometergroßer Poren. Unter vermindertem Druck ist die mittlere freie Weglänge von Stickstoff- und Sauerstoffmolekülen bereits größer als der Durchmesser der Poren. Das hat zur Folge, dass die Luftmoleküle die Pore praktisch ohne Zusammenstoß durchqueren können und die Konvektion dadurch unterbunden wird. Darüber hinaus sind die Dämmstoffe zusätzlich mit einem Infrarot-Trübungsmittel versehen, wodurch die durch Strahlung hervorgerufene Wärmeleitung zusätzlich minimiert wird. Auch ohne zusätzliche Maßnahmen ist die nanoporöse Kieselsäure aufgrund ihrer physikalischen Eigenschaften bereits ein guter Wärmeisolator, der mit einer Wärmeleitfähigkeit von 18 Milliwatt pro Meter und Kelvin herkömmliche Dämmstoffe deutlich in den Schatten stellt. In einem mit einer metallisierten Kunststofffolie verschlossenen Vakuumisolationspaneel, in dessen Kern ein Druck von kleiner gleich fünf Millibar bei Auslieferung herrscht, beträgt die Wärmeleitfähigkeit bei Raumtemperatur hingegen nur noch fünf Milliwatt pro Meter und Kelvin. Das ist fünf- bis zehnmal weniger als bei konventionellen Werkstoffen. Glänzende Aussichten haben VIPs zunächst auf dem gesamten Bausektor – und zwar sowohl im Bereich des Neubaus als auch im Rahmen der Altbausanierung. Für zusätzlichen Rückenwind sorgt die Energiesparverordnung, die Bauherren und Eigentümer von bestehenden Gebäuden zu energiesparenden Maßnahmen verpflichtet. So wurden in München unlängst die Fassaden mehrerer Wohnhäuser mit superschlanken Außendämmungen ausgestattet. Nachfolgende Untersuchungen ergaben, dass die VIPs absolut „dicht halten“ und sich auch Altbauten auf diese Weise in Niedrigstenergiehäuser verwandeln lassen. Experten beziffern den derzeitigen Weltmarkt für mikroporöse Dämmstoffe auf rund 150 Millionen Euro, wobei die Tendenz für die kommenden Jahre ein überdurchschnittliches Wachstum vermuten lässt. Das liegt insbesondere an den vielfältigen Anwendungsbereichen für VIPs. Mikroporöse Dämmstoffe sind in einem weiten Temperaturbereich einsatzfähig, der von minus 200 °C bis ungefähr plus 1.000 °C reicht. Demzufolge erstreckt sich das Einsatzgebiet von der Kryotechnik über Brennstoffzellen bis hin zum Bau von Schornsteinen und Abgasanlagen. Zum November 2004 hat die Wacker Chemie ihr komplettes Geschäftsfeld Mikroporöse Wärmedämmstoffe, in dem auch die Entwicklungsarbeiten zu den VIPs erfolgten, an die Porextherm Dämmstoffe GmbH in Kempten veräußert. „Mit dem Erwerb der Wärmedämmstoff-Aktivitäten von Wacker werden wir zur weltweiten Nummer 2

217

im Markt für mikroporöse Dämmstoffe. Diese Akquisition ist deshalb ein Quantensprung in unserer Wachstumsstrategie. Wacker verfügt über eine starke internationale Kundenbasis sowie über Technologien und Produkte, die unser bestehendes Portfolio hervorragend ergänzen“, so Peter Stubner, Geschäftsführer von Porextherm, zur Akquisition. Eine besonders spektakuläre Anwendung für die Kieselsäure ist die Ölgewinnung. Ein großes technisches Problem der Tiefsee-Ölförderung stellt die niedrige Temperatur dar, die auf dem Meeresgrund herrscht. Aufgrund des langen Transportwegs führt dies bei konventionellen Rohrleitungen zu einer starken Abkühlung des Öls, was dessen Viskosität erhöht. Dadurch wird das Pumpen des Öls stark erschwert, was wiederum eine wirtschaftlich rentable Förderung vereitelt. Mit Hilfe des besonderen Dämmstoffs konnte diese technologische Hürde erfolgreich genommen werden. Hierbei handelt es sich um die „Pipe-in-Pipe“-Technik, bei der ein doppelwandiges Rohr zum Einsatz gelangt, dessen Hohlraum mit der nanoporösen Kieselsäure gefüllt ist. Kürzlich wurde erfolgreich demonstriert, dass die Reserven des in einer Wassertiefe von 2.300 Metern im Golf von Mexiko befindlichen Ölfeldes „Nakika“ nicht mehr unerreichbar sind. Das Beispiel verdeutlicht, dass innovative Dämmstoffe nicht nur einen entscheidenden Beitrag zur Einsparung von Energie, sondern auch zur Erschließung bis dato ungenutzter Energievorkommen leisten können. Neuesten Schätzungen zufolge stehen einem weltweiten Bedarf von jährlich 3,4 Milliarden Tonnen Öl rund 140 Milliarden Tonnen nachgewiesene und mit Hilfe von konventionellen Techniken gewinnbare Ölvorkommen gegenüber. Weitere 100 Milliarden Tonnen Öl sollen sich in arktischen Böden oder in großen Meerestiefen befinden. Will man die Ölversorgung der Zukunft sichern, sind neue Techniken gefordert. Nur mit ihrer Hilfe ist es möglich, diese zusätzlichen Vorkommen zu erschließen.

218

Kapitel 11

Die Visionen von der Nanomaschine

Ray Kurzweil und K. Eric Drexler – Propheten oder Spinner? „Die Miniaturisierung ist ein Megatrend der kommenden Jahrzehnte. Die viereckigen Kisten, die wir heute mit uns herumtragen, werden im Jahr 2010 verschwunden sein. Computer befinden sich dann in Brillengläsern oder Kontaktlinsen, sind Teil von Hemden oder Sakkos. Etwa 2019 dürfte ein PC dieselbe Leistungskraft haben wie ein menschliches Gehirn.“ Mit derartigen Prognosen hat sich der Amerikaner Ray Kurzweil zu einem der bekanntesten Protagonisten der Nanotechnologie aufgeschwungen. Kurzweil, Jahrgang 1948, studierte am berühmten Massachusetts Institute of Technology (MIT, Boston) Computerwissenschaften und Literatur. Der vielseitige Wissenschaftler schrieb eine Reihe von Büchern, von denen zwei zu Bestsellern avancierten: „The Age of Intelligent Machines“ (1990), in dem er die technischen Erfolge mit hoher Trefferquote vorhersagte, die inzwischen erreicht wurden. 1999 erschien dann „The Age of Spiritual Machines“, in dem Kurzweil erklärt, wann und warum Computer die menschliche Intelligenz in den Schatten stellen und ein Bewusstsein erlangen. Präsident Clinton zeichnete ihn 2000 für seine Erfindungen, unter anderem ein Lesegerät für Blinde und ein Spracherkennungssystem, mit der National Medal of Technology aus. Bio- und Nanowissenschaften, Roboter- bzw. Computertechnologien – die beiden letzteren versteht Kurzweil im Sinne von künstlicher Intelligenz – werden unsere Zukunft bestimmen. „Gentechnik hilft uns, das Leben zu verstehen; sie wird die Möglichkeiten schaffen, praktisch alle Krankheiten zu bekämpfen. Mit Hilfe der Nanotechnologie dürften wir in 25 bis 30 Jahren in der Lage sein, auf völlig neue Weise jedes nur denkbare Produkt herzustellen. Was künstliche Intelligenz angeht: In Ansätzen existiert sie schon heute. Es gibt tausende Beispiele von Maschinen, die ihre Aufgaben besser verrichten, als Menschen es könnten, etwa in der Diagnostik. Wir werden hier rasante Fortschritte machen“, erklärte der Futurologe in einem Gespräch 2002, das Christian Tenbrock für die Wochenzeitung DIE ZEIT mit ihm führte. Der technologische Fortschritt vollzieht sich so schnell, dass in der Menschheitsgeschichte ein Bruch bevorzustehen scheint. Ray Kurzweil benutzt für dieses Phä-

219

nomen den Begriff „Singularität“. In der Physik wird so ein Punkt von unendlicher Dichte und Energie bezeichnet, ein Bruch im Raum-Zeit-Gefüge. Auch wenn das sehr stark an Raumschiff Enterprise erinnert, lässt sich dies auf die Menschheit übertragen, behauptet Kurzweil. „Wir steuern auf einen Punkt zu, an dem die ungeheure Beschleunigung der technologischen Entwicklung vermutlich zu einem Bruch führen wird. Wie wird das menschliche Leben aussehen, wenn jener Punkt eingetreten ist, was meiner Meinung nach kurz vor der Mitte des 21. Jahrhunderts geschehen wird?“ Diese Frage ist in der Tat außerordentlich spannend, denn zumindest unsere Kinder werden diesen Wendepunkt noch erleben. Kurzweil weist in einem Aufsatz für die Wissenschaftseite der Tageszeitung Die Welt darauf hin, dass die Fähigkeiten des Menschen begrenzt sind. Pro Gehirn und Sekunde kann die Menschheit 1.026 Rechenoperationen ausführen. Hochgerechnet auf sechs Milliarden Erdbewohner ergibt das eine enorme Größenordnung. Doch diese biologische Intelligenz der Menschheit wird in 50 Jahren immer noch ähnlich groß sein. Das Wachstum der künstlichen Intelligenz verläuft im Gegensatz dazu aber exponentiell. Heute liegt sie noch um das Millionenfache unter der biologischen Kapazität. Doch der Punkt, an dem sich das Verhältnis umkehrt, wird etwa im Jahre 2030 eintreten. Fragt sich nur, ob wir es merken werden, denn können wir überhaupt etwas erfassen, was intelligenter ist als wir? Viele reagieren auf diese Herausforderungen, indem sie die Beschleunigung der technischen Entwicklung, etwa bei der Konstruktion von Nanorobotern, ablehnen. Sie würden es vorziehen, einfache biologische Wesen zu bleiben. Doch der Fortschritt – wenn es denn einer ist – lässt sich nicht aufhalten. Produkte und Dienstleistungen werden immer intelligenter, gehen immer näher an die 100-Prozent-Marke heran, die nach Überzeugung von Kurzweil im Jahr 2030 mehr oder weniger erreicht sein wird. „Mit der Verbindung von Nanotechnologie und künstlicher Intelligenz werden wir in der Lage sein, praktisch jedes erdenkliche physikalische Produkt herzustellen und unsere sämtlichen materiellen Bedürfnisse zu befriedigen. Wenn alles nur noch Software und Information ist, wird es nur noch darum gehen, die richtige Software herunterzuladen, und dem kommen wir jetzt schon ziemlich nahe.“

Es geht um elementare Fragen der menschlichen Existenz Wenn die Prognosen des Nanoexperten zutreffen, ergeben sich viele ethische Fragen. Was ist Bewusstsein? Schon heute gibt es virtuelle Wesen, die durch zahllose Computerspiele geistern und dabei nicht besonders überzeugend sind. Wenn eine solche Figur über Gefühle spricht oder sie auszudrücken versucht, wissen wir sofort, dass es sich um eine Simulation handelt, weil dieses Softwaregebilde

220

immer noch millionenfach primitiver ist als das menschliche Gehirn. Das könnte 2030 anders aussehen. Die virtuelle Realität wird dann dank ihrer hohen Intelligenz so überzeugend sein, dass wir sie von der biologischen Realität nicht mehr unterscheiden können. Derartige Gebilde werden so komplex sein wie wir und alle menschlichen Merkmale aufweisen, sie werden vielschichtig und interessant sein, ihre Wut oder Zuneigung täuschend echt ausdrücken. Wobei diese Formulierung „täuschend echt“ schon einen gewissen Unglauben ausdrückt, weil wir uns viele Dinge gar nicht vorstellen können – oder wollen. „An diesem Punkt wird das Thema zu einer zutiefst philosophischen Streifrage. Stellt diese Entität nur eine äußerst raffinierte Simulation dar, die so gut funktioniert, dass wir auf sie reinfallen, oder verfügt sie über ein echtes Bewusstsein von der Art, wie wir es dem Menschen zuschreiben“, fragt Kurzweil. Wenn wir diese Entwicklung nur für annähernd möglich halten, sind derartige Fragen nicht nur akademisch interessant, sondern rühren direkt an elementare Definitionen der menschlichen Existenz. Das gilt auch für die Entwicklung der Nanobiotechnologie, mit der eine Verbindung zwischen biologischem Wissen und Informationsverarbeitung geschaffen wird. Noch befinden wir uns in einem frühen Stadium, in dem wir das Genom entschlüsseln und zu verstehen versuchen, wie es sich in den Proteinstrukturen verwirklicht. „Wir werden feststellen, dass uns eine gefährliche Gratwanderung bevorsteht und wir keine exakte Vorstellung davon haben, wo Leben beginnt. Und wir werden dafür sorgen, dass sich noch gefährlichere Abgründe öffnen. Wir sind nicht mehr weit davon entfernt, neue Zellen zu kreieren. Ich könnte mir mit meiner DNS Herzzellen eines 25-Jährigen züchten und mein Herz ohne chirurgischen Eingriff durch diese Zellen ersetzen, nur indem ich sie in meinen Blutkreislauf gebe. Sie würden sich in meinem Herzen einnisten“, erklärt Kurzweil. Würde man die Prozedur täglich wiederholen, hätte man nach einem Jahr ein Herz, das zu 99 Prozent aus neuen Zellen bestünde. Mit dieser Art Therapie könnte man auf Dauer alles Zellgewebe und alle Organe im Körper austauschen. „Das wird nicht heute oder morgen geschehen, aber solcher Art sind die revolutionären Veränderungen, vor denen wir stehen“, so Kurzweil. Wie groß sie wirklich sein werden, können wir allenfalls ahnen. Der „Seher“ Kurzweil ist jedenfalls davon überzeugt, dass wir in eine neue Ära – die Singularität – eintreten. Sie ist die Verschmelzung von menschlicher und maschineller Intelligenz, die etwas Größeres als sich selbst schaffen wird – ganz nach dem berühmten Satz des Aristoteles: „Das Ganze ist mehr als die Summe seiner Teile“. „Sie wird der Wendepunkt der Evolution auf unserem Planeten sein“, ist Kurzweil sicher. Derartige Behauptungen bringen andere Wissenschaftler auf die Palme: „Um so etwas wie menschliche Intelligenz zu erreichen, müsste man die Leistungsfähigkeit der heutigen Maschinen um viele Größenordnungen steigern. Wie das gehen soll, ist absolut unklar“, wettert Professor Thomas Christaller, seit 2001 Leiter des Fraunhofer-Instituts für Autonome Intelligente Systeme (AIS) in Sankt Augustin

221

und einer der renommiertesten deutschen Forscher für Künstliche Intelligenz. „Mir ist völlig unbegreiflich, wie jemand die Behauptung aufstellen kann, dass Maschinenhirne in 20 oder 30 Jahren Menschenniveau erreichen.“

Nanoroboter, die sich selbst replizieren Ähnliche Thesen wie Kurzweil vertritt auch der amerikanische Physiker K. Eric Drexler, einer der bekanntesten, aber auch umstrittensten Verfechter der Nanotechnologie. Drexler, heute Vorsitzender des Foresight Institute in Palo Alto (Kalifornien, USA), nimmt für sich in Anspruch, den Begriff Nanotechnologie geprägt zu haben. Zudem war er wesentlich daran beteiligt, die amerikanische National Nanotechnology Initiative (NNI) auf den Weg zu bringen. Laut der New York Times ist das Foresight Institute heute das führende Forum für die Diskussion in der Nanotechnologie, die in den USA derzeit zum Teil sehr hitzig geführt wird. Angeregt durch das Vorbild der molekularen Biologie setzt Drexler auf die Bottom-upStrategie: „Molekulare Maschinen setzen molekulare Bausteine zu Produkten zusammen – unter anderem neue molekulare Maschinen. Die Biologie führt uns vor, dass solche Maschinensysteme und deren Produkte billig und in Massen hergestellt werden können.“ In dem Buch „Engines of Creation: The Coming Era of Nanotechnology“, das bereits 1990 erschien, hat Drexler sein nanotechnologisches Manifest vorgelegt. In ihm stellt er den „Assembler“ vor, sozusagen das Universalwerkzeug der Nanotechnologie, das aus einigen hundert Atomen besteht und mit einem Nanocomputer sowie einer Art Greifarm bestückt ist. Er soll die bemerkenswerte Fähigkeit haben, Materialien und molekulare Geräte Atom für Atom herzustellen. Assembler werden sich auf diese Weise auch reproduzieren, indem sie exakte Kopien von sich selbst herstellen. Im Prinzip ist es also nur nötig, den ersten Assembler zu konstruieren und zu bauen, der dann eine ganze Armada folgen lässt. So bizarr solche Vorstellungen erscheinen mögen, jede lebende Zelle produziert auf diese Weise, indem sie ständig riesige Mengen von Nanomaschinen einsetzt und zerstört. Die Assembler der Natur heißen Proteine, wobei sie allerdings auf einzelne Aufgaben spezialisiert sind. Dennoch sind manche Ideen von Drexler stark gewöhnungsbedürftig: Eine Flotte der Nanorobs ist gerade dabei, die Lackierung eines Autos durch einen Überzug aus Diamant zu erneuern, indem sie den benötigten Kohlenstoff aus dem Kohlendioxid der Luft holen. Andere Assembler formieren sich, um das ökologische Gleichgewicht des Planeten Erde wieder herzustellen, indem sie die schützende Ozonschicht in der oberen Atmosphäre reparieren. Eine dritte Armee ist ausersehen, Ölteppiche zu beseitigen, indem sie das klebrige schwarze Gold einfach auffressen, will heißen, in harmlose Bestandteile zerlegen. Andererseits könnten sie

222

auch das genaue Gegenteil tun, nämlich die Herstellung von Kohlenwasserstoffen aus Luft und Meerwasser bewerkstelligen. Schön wäre es ja, aber Zweifel sind erlaubt. Der im Oktober 2005 verstorbene Richard E. Smalley, einer der Pioniere der Nanotechnologie und seit 1996 Nobelpreisträger für die Entdeckung der Fullerene, hatte eine dezidierte Meinung zu den Ideen seines amerikanischen Kollegen. In einem Interview der Siemens-Zeitschrift für Forschung und Innovation Pictures of the Future erklärte Smalley auf die Frage, warum es nicht möglich sein sollte, dass Nanomaschinen Atom für Atom aneinandersetzen und so etwas Neues aufbauen: „Es geht hier um etwas anderes, nämlich um sich selbst replizierende Nanoroboter. Es ist extrem schwierig, einen Nanoroboter zu bauen, der Atome so manipuliert, dass er Beliebiges bauen und obendrein eine Kopie von sich selbst herstellen kann. Das bedeutet, er muss Atome in drei Dimensionen kontrollieren – und das in Perfektion.“ Nach Auffassung des Nobelpreisträgers war es eine Sache, mit einem Rastertunnelmikroskop ein Atom von einem Molekül wegzunehmen, eine ganz andere, einen Assembler in Funktion zu setzen. „Versuchen Sie mal, mit Roboterarmen das nachzumachen, was in einer lebenden Zelle passiert. Je mehr man sich damit beschäftigt, desto mehr erkennt man, was das für eine unglaubliche Herausforderung ist. In der Biologie nennt man solche Roboter Enzyme. Aber auch sie können nicht beliebig Bindungen manipulieren, sondern nur ganz bestimmte Strukturen fertigen“, argumentiert Smalley. Die Zahlen geben ihm Recht: Richtig ist, dass die Wissenschaft mit dem Rastertunnelmikroskop atomares Lego spielen kann. Wollte man auf diese Weise neue Materialien aufbauen, müsste man sich sehr in Geduld fassen. Nimmt man mal an, ein Nanoroboter könnte eine Milliarde Atome pro Sekunde „verarbeiten“ (was schon eine Menge ist), so bräuchte er für etwa 30 Gramm Substanz 6 · 1023 Platzierungen von Atomen und 6 · 1014 Sekunden Zeit, was 19 Millionen Jahren entspricht. Solange sich die Nanorobs nicht selbst vermehren können, dürfte das Spiel mit den Atomen schwierig werden. Was in lebenden Zellen funktioniert, in einer Umgebung also, die die Natur in Milliarden Jahren der Evolution optimiert hat, muss unter künstlichen Randbedingungen noch lange nicht klappen. „Ich glaube schon, dass wir winzige Maschinen bauen werden, die zu unglaublichen Dingen fähig sind. Allerdings denke ich nicht, dass wir jemals in der Lage sein werden, etwas herzustellen, das wirklich winzig ist und gleichzeitig eine Kopie von sich selbst anfertigen kann – also in dem Sinne lebendig wäre“, betonte der US-Chemiker. Eines steht fest: Bisher haben wir keinen Roboter gebaut, der aus Erde, Luft, Feuer und Wasser einen anderen stählernen Gesellen gefertigt bzw. seine eigenen Einzelteile hergestellt und daraus dann ein Abbild seiner selbst erschaffen hätte. Smalley hielt das grundsätzlich für machbar, fragte aber: „Wie klein könnte er wohl sein? Ich arbeite seit Jahrzehnten im Nanometerbereich und bin mir ziemlich sicher, dass das niemals in diesem Maßstab funktionieren wird.“ Das mag viele beruhigen, die das neue Buch von Michael Crichton gelesen haben.

223

Der Bestsellerautor, von Haus aus Mediziner, hat ein Händchen dafür, Wissenschaftsthemen in seine Bücher zu integrieren, die gerade im Kommen sind. Bestes Beispiel war sein Roman Jurassic Park, der genussvoll mit den Möglichkeiten der Gentechnik spielte und mit großem Erfolg verfilmt wurde. Seinerzeit, Jurassic Park erschien 1990, nahm Crichton Klonierungstechniken vorweg, die inzwischen zumindest teilweise realisiert wurden, man denke nur an das Schaf Dolly. Wie in diesem Beispiel beruhen die Bücher des Bestseller-Autoren häufig auf aktuellen oder sich abzeichnenden technischen Trends und neuen wissenschaftlichen Erkenntnissen. Das gilt auch für sein neuestes Werk „Beute“ (unter dem Originaltitel „Prey“ Ende 2002 in den USA erschienen und auch in deutscher Übersetzung lange in den Bestsellerlisten), in dem Nanotechnologien eine dominierende Rolle spielen. Wenn Crichton ein Thema entdeckt hat, muss es en vogue sein – der Mann hat inzwischen schließlich weit über 100 Millionen Exemplare seiner Werke verkauft. Spätestens nach dem Buch zur Nanotechnologie sollte jedem klar sein, dass der Zwergenaufstand nicht mehr aufzuhalten ist.

Schwärme von künstlichen Kreaturen Das Szenario, das Crichton entwirft, zeigt weniger die großen potentiellen Möglichkeiten der Nanotechnologie, sondern vielmehr die möglichen Schattenseiten, die eher Angst machen. Tatort Wüste: Hier belagern Schwärme von künstlichen Mikrowesen ein Forschungslabor in Nevada, greifen zunächst Kaninchen und Kojoten, dann auch die Wissenschaftler an, die – man ahnt es schon – die winzigen Roboter zu Versuchszwecken selbst in die Freiheit entlassen hatten. Crichton hat sich in mehreren Interviews zu seinem Buch dahingehend geäußert, dass er ein solches Geschehen schon in wenigen Jahren für möglich hält. Der Autor weist darauf hin, dass die Biotechnologie nur bestehende Organismen oder biologische Einheiten modifiziert, Nanotechnologie hingegen die völlig neuartige Erschaffung von winzigen Maschinen und Mikroorganismen aus zusammengesetzten Atomen zum Ziel hat. In einem Interview mit der Tageszeitung Die Welt erklärte Crichton: „Wir erleben damit eine Technik, die es noch nie gegeben hat: Sie pflanzt sich eigenständig fort. Durch seine Erfahrungen ist der Mensch jedoch nicht auf diesen großen Schritt vorbereitet. Die Erfahrung mit Dynamit bereitete uns auf keine Weise auf die Atombombe vor. Bei beiden handelt es sich um Explosivstoffe, doch die Größenordnung ist eine vollkommen andere.“ Mit seinem Roman heizt Crichton die Diskussion um die vermeintlichen oder tatsächlichen Gefahren der Nanotechnologie erneut an, die schon seit Jahren im Gange ist. „Stellen Sie sich einen riesigen Schwarm winziger Computer vor, kleiner als Staubkörner, die dafür programmiert sind, wie eine Wolke über einem Land (dem Irak beispielsweise) hin- und herzuziehen und Bilder an die Zentrale zu senden. Im Gegensatz zu Robotflugkörpern können diese Kameras nicht abgeschos-

224

sen werden; Projektile gehen einfach durch die Wolke hindurch. Da sich diese kleinen Computer im Lauf der Zeit abnützen, würden sie sich – stellen Sie sich auch das vor – regelmäßig selbst reproduzieren. Stellen Sie sich vor, dass die Computer eine Evolution durchlaufen und dass die aggressive Wolke zu einem todbringenden Schwarm wird, der die Menschheit bedroht – einer mechanischen Seuche. Weit hergeholt? Eigentlich nicht“, schrieb Crichton in einem Aufsatz für die Frankfurter Allgemeine Zeitung Ende November 2002. Eine neue Form künstlicher Organismen beschäftigt die Wissenschaft seit geraumer Zeit. Crichton zitiert einen Forschungsbericht zu diesem Problem: „Diese Organismen werden ursprünglich von Menschen entworfen worden sein. Aber sie werden sich selbst reproduzieren und evolutionär zu etwas anderem werden als ihre ursprüngliche Form: Sie werden – nach jeder vernünftigen Definition des Worts – leben. Das Tempo ihres evolutionären Wandels ist dann äußerst schnell. Die Folgen für die Menschheit und die Biosphäre könnten enorm sein – größer als die der industriellen Revolution, der Atomwaffen oder der Umweltverschmutzung. Wir müssen jetzt Schritte unternehmen, um die Herausbildung künstlicher Organismen selbst zu kontrollieren.“ Die schöne neue Welt könnte vielleicht weniger schön werden als gedacht.

Umweltschützer fordern ein Nano-Moratorium Auch Umweltschützer melden sich inzwischen zu Wort: „Wir sind besorgt darüber, dass Nanoteilchen in die Nahrungskette und ins Trinkwasser gelangen könnten und dass sich Nanoröhren in unser Immunsystem schleichen, ohne dass wir etwas davon merken“, so Pat Mooney, Chef der kanadischen Umweltschutzgruppe ETC (Action Group an Erosion, Technology and Concentration, Winnipeg, Manitoba) in einem Interview. „Obwohl die industriellen Hersteller von Nanopartikeln und Nanotubes deutlich zunehmen, gibt es keine staatlichen Bestimmungen in Europa oder Nordamerika, um die Sicherheit von Beschäftigten oder Verbrauchern zu gewährleisten“, beklagt Kathy Jo Wetter, Wissenschaftlerin der ETC-Gruppe, die ein weltweites Moratorium fordert. Dass die Einführung neuer Technologien nicht nur von Hoffnungen, sondern auch von Ängsten begleitet wird, ist nichts Neues. Doch das Szenario, das Michael Crichton in seinem Buch entwirft, gehört eindeutig in den Bereich der Science Fiction. Nanoroboter existieren bisher nur in den Vorstellungen einiger Wissenschaftler. Ob sie je Realität werden, ist eher unwahrscheinlich. „Nanotechnik wird die Welt verändern. Sie wird unsere Energiegewinnung, unsere Informationstechnologie und unser Verkehrssystem revolutionieren. Und ich bin mir ziemlich sicher: Sie wird uns nicht umbringen“, beruhigte schon vor Jahren Richard Smalley. Dennoch gibt es bei der Nanotechnologie wie bei jeder alten oder neuen Technologie Risiken, die seriös abgeschätzt und diskutiert werden müssen. Jedes Produkt

225

und jeder Anwendungsfall muss für sich untersucht werden. Ein wichtiger Faktor ist sicher die Teilchengröße. Je kleiner sie ist, desto eher sind Teilchen in der Lage, uns bekannte Barrieren zu überwinden. An bisher bekannten Partikeln lässt sich ein eindeutiger Trend ablesen: Primärpartikel in der Größe einiger Nanometer sind „hoch reaktiv“ und neigen deshalb ausgesprochen stark dazu, sich zusammen zu lagern, also Aggregate und Agglomerate zu bilden. Diese sind mindestens um den Faktor 10 bis 100 größer. Zudem erfolgt die Verwendung von Nanopartikeln fast immer in „geschlossenen Systemen“, also z. B. als Bestandteil einer Dispersion, einer Gummimischung, eines Lackes oder einer Matrix. Insbesondere die seit langem produzierten Materialien, wie Titandioxid, Carbon Black oder Kieselsäure, sind in vielen Studien ausgiebig untersucht worden. So wird Titandioxid z. B. vom Scientific Committee on Cosmetic Products and Non-Food Products Intended for Consumers unabhängig von der Partikelgröße als „sicher“ eingestuft. Generell spielt die Partikelgröße bei Produktregistrierungen bisher keine Rolle. Nach Auffassung der amerikanischen Zulassungsbehörde FDA (Food and Drug Administration) sind zum Beispiel Nanopartikel im UV-Schutz (Sonnenschutzmittel) keine eigene Substanzklasse, sondern gelten als Bruchstücke bereits zugelassener Ausgangsmaterialien. Ähnlich agiert auch die Europäische Union. Wenn im Nanokosmos die Gesetze der bekannten Chemie und Physik nur noch eingeschränkt gelten, muss man auf der anderen Seite dann aber auch konzedieren, dass es überraschende, unbekannte Wendungen auch hinsichtlich biologischer Wirkung geben könnte. Das beweist auch die Diskussion um Nanoröhrchen aus C60-Material. Für sie sind unterschiedlichste Anwendungsmöglichkeiten im Gespräch, die von neuartigen Chips und superflache Bildschirme bis zur Nutzung der Sonnenenergie und Hightech-Garnen reichen. Die potenziellen Gefahren in Bezug auf die Inhalation von Nanoröhrchen, z. B. bei deren Herstellung, sind unbekannt. Bei Inhalationsversuchen an Ratten wurde allerdings festgestellt, dass inhalierte Kohlenstoffpartikel beträchtliche Lungenschäden verursachen können und dass das toxische Potenzial mit kleiner werdender Partikelgröße und größer werdender Partikeloberfläche steigt. Vergleichbare Versuche mit Kohlenstoff-Nanoröhrchen sind sehr schwierig, weil sie stark agglomerieren. Hier wird noch sehr viel Arbeit zu tun sein, um zu statistisch sicheren und damit auch validierten Aussagen zu kommen. Daraus resultiert ein Forschungsbedarf, zu dessen Abarbeitung auch die Herstellerfirmen beitragen. Das bezieht sich auf die eigenen Produkte, auf Untersuchungen von allgemeinem Interesse wie die Deaglommeration von Nanomaterialien in biologischen Medien und auf die Mitarbeit in nationalen und internationalen Projekten. So hat die Degussa AG z. B. das BMBF-Projekt Nanocare II initiiert, das gerade anläuft und mögliche Risiken bei der Produktion und Handhabung von

226

Nanomaterialien identifizieren und überwinden soll. Degussa begleitet darüber hinaus das EU-Projekt NanoDerm, das die Durchdrigung von Nanopartiklen durch die Haut untersucht.

EU-Projekte: NanoDerm, NanoSafe und NanoTox Auf europäischer Ebene laufen verschiedene geförderte Projekte: So untersucht das von der EU-Kommission unterstützte NanoDerm-Projekt die Haut als Barriere für ultrafeine Teilchen. NanoDerm läuft seit Anfang 2003 und erforscht insbesondere Partikel, die in Pflege- und Haushaltsprodukten eingesetzt sind und das Potential haben, in die Haut einzudrigen. Erste Ergebnisse belegen, dass die gesunde, unbeschädigte Haut sehr gute Barriereeigenschaften besitzt. Das EU-Projekt NanoSafe analysiert die Produktionsrisiken. Die erste Phase von April 2003 bis August 2004 befasste sich insbesondere mit der Risikobewertung in der Produktion, Verwendung und Nutzung von Nanopartikeln in Industrieprozessen und daraus folgenden Produkten. NanoSafe 2 wurde im April 2005 gestartet. Im Fokus steht die Entwicklung von Verfahren zur Erkennung, Verfolgung und Charakterisierung von Nanopartiklon. NanoTox erforscht die toxikologische Wirkung von Nanoteilchen auf die Gesundheit und die Umwelt. Dieses Projekt wurde inzwischen mit IMPART zusammengelegt, das einen ähnlichen Ansatz verfolgt hat. Auch innerhalb der Gesellschaft für Chemische Technik und Biotechnologie (DECHEMA, Frankfurt a. M.) gibt es entsprechende Aktivitäten wie die Fachsektion Nanotechnologie und den Arbeitsausschuss „Chemische Nanotechnologie“. Dieser interdisziplinär zusammengesetzte Gesprächskreis mit Experten aus Industrie und Hochschulen berichtet und diskutiert über aktuelle Fragestellungen aus dem Nanogebiet. Zu den Zielen des Arbeitsausschusses gehört es, neue Forschungsthemen oder notwendige Unterstützungsmaßnahmen zu identifizieren und die sich daraus ergebenden Handlungsempfehlungen umzusetzen bzw. an geeignete Adressatengruppen weiter zu leiten. Der Arbeitsausschuss will darüber hinaus die Netzwerkbildung innerhalb der (chemischen) Nanotechnologie fördern und helfen, neue interdisziplinäre Kontakte zwischen Wissenschaftlern und Anwendern zu knüpfen bzw. bestehende zu pflegen. Weiterhin zeichnet der Arbeitsausschuss für die fachliche Organisation der Chemical Nanotechnology Talks verantwortlich, eine Veranstaltung, auf der internationale Experten über aktuelle Forschungsergebnisse und neue Anwendungen von Nanotechnologie berichten. Als ein Ergebnis der Ausschussarbeit ist der gemeinsame Arbeitskreis der DECHEMA und des Verbandes der Chemischen Industrie (VCI, Frankfurt a. M.) „Responsible Production and Use of Nanomaterials“ ausgekoppelt worden, der von Degussa geleitet wird. Dieser Arbeitskreis hat zum Ziel, mögliche Risiken von Nanomaterialien zu identifizieren und zu überwinden, Forschungslücken zu schließen und

227

den Dialog mit Stakeholdern, insbesondere mit Wissenschaftlern, zu fördern. Ein Beispiel für diese potentiellen Risiken ist die Arbeitsplatzexposition in Forschungslabors, in denen Nanopartikel gehandelt werden. Diese Situation soll deutlich verbessert werden. Eine Grundlage dafür sind Arbeiten am Forschungszentrum Karlsruhe. Hier wurde ein Zellmodell entwickelt, mit dem sich die Wirkung verschiedener Partikel auf die Lunge untersuchen lässt. Viele Experten gehen davon aus, dass das Einatmen von Nanopartikeln die größte derzeit bekannte Gesundheitsgefahr darstellt. So auch die Studie „Small sizes that matter: Opportunities and risks of Nanotechnologies“, die der Versicherungskonzern Allianz in Zusammenarbeit mit der OECD erstellt hat. Die Autoren sehen das größte Risiko in freien Nanoteilchen, die bislang aber nur in einigen wenigen Anwendungen vorkommen. Vor diesem Hintergrund sind unabhängige Forschungsarbeiten über absichtlich produzierte Nanopartikel notwendig. Studien über die Biopersistenz, die Bioakkumulation und die Ecotoxizität wurden erst kürzlich in Angriff genommen. Die Allianz fordert daher eine frühzeitige Risikoabschätzung, um mögliche Gefahren schon im Vorfeld zu minimieren. Im Bereich der Nanotechnologie gibt es bislang noch keine gesetzlichen Regelungen. Auch die EU-Chemierichtlinie (REACH – Registration, Evaluation and Authorisation of Chemicals) befasst sich nicht mit den Auswirkungen unterschiedlicher Partikelgrößen. Auch gibt es keine Kennzeichnungspflicht für Nanoteilchen. Die Versicherungsbranche ist für das Thema der Nanoteilchen und Feinstäube sensibilisiert, weil sie jahrzehntelang die Gefahren von Asbest unterschätzt hatte. Ein knappes Jahrhundert dauerte es, bis nach den ersten Warnungen ein europaweites Asbest-Verbot durchgesetzt werden konnte. Viele Menschen wurden krank – die Versicherer mussten weltweit Milliarden bezahlen. Einige Wissenschaftler verglichen bereits Nanoröhrchen hinsichtlich ihrer Risiken mit Asbest, weil sie in ihrer Nadelform den Asbestfasern ähneln. Die Allianz-Studie stellt fest, dass diese Sorge vor allem bei Röhrchen mit hoher Bioresistenz zutrifft. Gleichwohl schränkt sie ein, dass Nanoröhrchen dazu neigen zusammen zu klumpen und daher ihre Gefährlichkeit vermindert wird. „Frühzeitige Technologiebewertung und ein differenziertes Verständnis von Innovationsprozessen sind die Voraussetzungen für vorsorgende und auf das Nachhaltigkeitsziel orientierte Gestaltungsmöglichkeiten“, erklärt Professor Arnim von Gleich, der im Fachbereich Produktionstechnik der Universität Bremen für das Gebiet Technikgestaltung und Technologieentwicklung verantwortlich ist und an der Nachhaltigkeitsstudie für das BMBF mitarbeitet. „Nach derzeitigem Wissen lässt sich mit Blick auf die absehbaren nanospezifischen Effekte, einschließlich der Selbstorganisation, keine ‚besonders große Besorgnis‘ begründen, vergleichbar etwa mit derjenigen bei der Atom- und Gentechnologie“, so von Gleich.

228

Kürzlich veröffentlichte Studien zeigen aber, dass die technischen Maßnahmen zur Luftreinhaltung nur bedingt erfolgreich sind. Zwar wurden gröbere Staubfraktionen effizient reduziert, das heißt Partikel, die aufgrund ihrer Größe nur in die oberen Bronchien gelangen, nahmen deutlich ab. Bei lungengängigen Teilchen ist der Rückgang sehr viel geringer, ultrafeine Stäube, zu denen auch Nanoteilchen zu zählen sind, haben in der Atemluft sogar zugenommen – ein Trend, der sich durch den Aufschwung der Nanotechnologie noch verstärken könnte. Professor Paul J. A. Borm, Biochemiker am Institut für Umweltmedizinische Forschung der Universität Düsseldorf, hat schon in seinem Vortrag auf dem Deutschen Ingenieurstag 2003 in Münster darauf hingewiesen, dass Nanopartikel zu einem Anstieg von Asthma, Allergien und Herzkrankheiten führen könnten. „Ohne Zweifel besteht hier ein Bedarf an toxikologischen Untersuchungen“, betont Borm.

Auch das Militär will Nanotechnik Auf einen besonders problematischen Bereich weist Dr. Jürgen Altmann von der Universität Dortmund hin – die möglichen Auswirkungen der Nanotechnologie auf militärische Operationen. Das Militär habe bereits in den 80er-Jahren des letzten Jahrhunderts damit begonnen, auf diesem Gebiet zu forschen. Diese Maßnahmen seien in der letzten Zeit sogar noch ausgeweitet worden, insbesondere in den USA, was sich auch an der Zuweisung von Mitteln an das Department of Defense im Rahmen der National Nanotechnology Initiative ersehen lässt. Dr. Altmann zufolge arbeiten Forscher in den USA zur Zeit an einem Kampfanzug, der gleichzeitig vor Strahlung schützt und bei einer Verwundung des Soldaten als Kompresse dient. Weitere vorstellbare Einsatzgebiete seien die Verbesserung der Überwachung, Bomben in Kugelschreibergröße, die eine ganze Stadt in Ruinen verwandeln könnten, und die Manipulation des menschlichen Körpers, um Soldaten belastungsfähiger zu machen, Verwundungen schneller zu heilen und Reaktionen zu beschleunigen. Hier ist es eventuell nur ein kleiner Schritt bis zur Nutzung einer solchen Technologie auch im zivilen Leben. Daher befürwortet Experte Altmann ein Moratorium für nicht medizinisch begründete Implantate und fordert die USA, den eindeutigen Vorreiter dieser Forschung zur Zurückhaltung auf: „Die Vereinigten Staaten haben einen so großen Vorsprung auf diesem Gebiet, dass sie sich eine leichte Verlangsamung ihrer Tätigkeiten leisten können. Damit wäre mehr Zeit für eine internationale Vereinbarung über die Grenzen dieser Technologie.“ Auch Pat Mooney, Exekutivdirektor der schon angesprochenen Aktionsgruppe ETC, forderte auf der Veranstaltung, man sollte zunächst abwarten und Untersuchungen anstellen: „Weiß die Politik überhaupt, welche Technologie auf uns zukommt? Die meisten Politiker haben keine Vorstellung davon. Im übrigen ist sie bereits Realität. Aus Sicht der ETC hinkt der Staat, was die Einschätzung der möglichen Folgen angeht, zur Zeit um etwa fünf Jahre hinterher. Die Nanotechnologie

229

wird dazu führen, dass in Zukunft andere Rohstoffe als heute von grundlegender Bedeutung sein werden, was für die Entwicklungsländer, die mehrheitlich auf ihre Rohstoffausfuhren angewiesen sind, dramatische Folgen haben wird.“ Für Mooney ist die Tatsache, dass Forscher in ganz unterschiedlicher Weise mit Nanopartikeln umgehen, ein weiterer Grund, um Vorsicht walten zu lassen und zunächst eine Bestandsaufnahme zu machen. Während südafrikanische Wissenschaftler Nanopartikel so handhaben, als hätten sie es mit Aidsviren zu tun, würden andere, darunter auch europäische Kollegen, lediglich einen Mundschutz tragen „wie in der U-Bahn von Tokio. Das ist ungefähr so, als wolle man sich mit einem Volleyballnetz gegen Moskitos schützen“, meinte Mooney. Die Bedenken verschiedener Gruppen und Fachleute haben inzwischen bewirkt, dass die britische Regierung eine Studie über die möglichen Vorteile und Probleme in Auftrag gegeben hat. Auf der Konferenz des Europäischen Parlaments wurden aber nicht nur zahlreiche mögliche Gefahren, darunter auch die Vision von autonomen selbstreplizierenden Nanorobotern, sondern auch viele mögliche Vorteile angesprochen. Künftig könnte es sogar Lösungen geben, um auch kleinste Schadstoffe wie z. B. Treibhausgase in der Atmosphäre zu entfernen. Wie bei jeder neuen Technologie gibt es auch im Reich der Zwerge Licht und Schatten, Chancen und Risiken.

Ängste ernst nehmen Die Anwender der Nanotechnologie sollten aus den Erfahrungen mit der Kern- und Gentechnik lernen und die Ängste der Bevölkerung sehr ernst nehmen. Denn wenn es stimmt, dass die Nanotechnologie revolutionäre Veränderungen mit sich bringt, heißt das doch auch, dass sie etwas grundsätzlich Neues ist. Und das Wesen dieses Neuen liegt darin, dass wir jedenfalls am Anfang noch nicht viel wissen. Und genau das gilt es zu berücksichtigen, denn unser Nichtwissen könnte auch unbekannte Gefahren mit einschließen. Auf der anderen Seite sind die möglichen Chancen einfach faszinierend: „Die Nanotechnologie könnte uns den Weg zu wirklich ‚grünen‘ Technologien weisen. Wir könnten damit zum Beispiel extrem starke und leichte Materialien bauen, also auch Autos und Flugzeuge mit viel weniger Energieverbrauch“, argumentiert Professor Harry Kroto von der University of Sussex in England. Kroto erhielt 1996 für die Entdeckung der Fullerene anteilig den Nobelpreis für Chemie. Der Wissenschaftler, der weiter an Nanoröhren forscht, hält auch Rechner auf Nanoebene für möglich. „Das öffnet die Tür für Supercomputer mit winzigen Energiequellen und Chips, millionenfach kleiner als die heutigen. Das Weltwissen hätte Platz in einer Hosentasche“, erklärt Kroto. Im übrigen weist er darauf hin, dass die unreflektierte Ablehnung von Technologie an sich einen Rückschritt in eine Zeit bedeute, in der ein Viertel aller Kinder mit fünf Jahren starb, zehn Prozent der Frauen eine Geburt nicht überlebten

230

und in der Menschen tagein, tagaus auf dem Feld arbeiteten. Allerdings weist er auch auf einen wichtigen Tatbestand hin, der in der Debatte um Chancen und Risiken häufig unterschlagen wird: „Das Problem ist, dass sich unsere Technologie zwar rapide weiterentwickelt, unser Sozialverhalten jedoch nicht. Das hat sich seit der Steinzeit nicht wesentlich verändert.“ Daran, so ist zu befürchten, wird auch die Nanotechnologie nichts ändern. Und genau das könnte neue Gefahren heraufbeschwören.

231

Namenverzeichnis

A Alferov, Zhores I. 75 Altmann, Jürgen 229 Anselmann, Ralf 80 Armstrong, John 53 Avouris, Phaedon 144 B Bachmann, Gerd 32, 38, 40 Bardeen, John 21 Barthlott, Wilhelm 116, 117, 122 Bednorz, Johannes Georg 139 Binnig, Gerd 22, 179 Block, Hermann 114 Bode, Matthias 181 Borm, Paul J. A. 229 Brattain, Walter Houser 21 Brickwedde, Fritz 203 Broek, Dirk van den 94 Buckminster Fuller, Richard 135 Busquin, Philippe 63 C Chang, Yih 168 Christaller, Thomas 221 Clinton, Bill 53, 219 Clinton, William J. 54 Crichton, Michael 223 Curl, Robert F. 136 D Diederich, François 39 Distler, Dieter 74

Döring, Michael 177 Dosch, Helmut 16 Drexler, K. Eric 15, 21, 53, 85, 151, 219 E Ebenau, Axel 132 Ehlich, Rudolf 155 Ehrfeld, Wolfgang 29 Einstein, Albert 17 Enk, Eduard 148 Ensslin, Klaus 61 Euler, Leonhard 135 F Felcht, Utz-Hellmuth 79 Feynman, Richard Phillips 21, 22, 33, 34 Friedrich, Horst 86 Fuchs, Harald 72 G Gallaire, Hervé J. 138 Garrett, Tom 150 Gawrisch, Wolfgang 122 Georgescu, Vlad 71 Gesang, Thomas 125 Gingrich, Newt 37 Glass, Alastair M. 159 Gleich, Arnim von 228 Grätzel, Michael 207 Greil, Peter 86 Grunwald, Reinhard 76 Güntherodt, Hans-Joachim 60

233

H Haubold, Stephan 128 Heeger, Alan J. 108 Hillemeier, Bernd 205 Hinsch, Andreas 208 Huffman, Don 136 Hullmann, Angela 59 I Iijima, Sumio 141, 143 J Jobs, Steve 147 Jordan, Andreas 88 Jurvetson, Steve 37 K Keller, Harald 118 Kilby, Jack 145 Kilby, Jack St. Clair 75 Kleinkes, Uwe 124 Krätschmer, Wolfgang 136 Kroemer, Herbert 75 Kroto, Harold W. 135 Kroto, Harry 230 Kurzweil, Ray 15, 219 L Leo, Karl 168 Lindquist, Susan 157 M MacDiarmid, Alan G. 108 Meerholz, Klaus 171 Merav, Uri 33 Merrifield, Robert Bruce 91 Milbrath, Lester 195 Miller, Stanley L. 27 Mooney, Pat 225, 229, 230 Moore, Gordon 30, 147 Müller, Karl Alexander 139

234

N Naß, Rüdiger 165 Neinhuis, Christoph 116 Nies, Rainer 86 Nörenberg, Ralf 100 Noyce, Robert 145 O Oberholz, Alfred 40, 78 Ohm, Georg Simon 33 Oparin, Alexandr Iwanowitsch 27 Ostwald, Wilhelm 104 Ostwald, Wolfgang 103 P Planck, Max 18 Plitzko, Klaus Dieter 190 Polgar, Les 167 Pompe, Wolfgang 87 R Rohrer, Heinrich 22, 179 Rösler, Joachim 198 S Samsinger, Berndt 39 Schlögl, Robert 142 Schmidt, Helmut 88 Schmidt, Oliver 157 Schreckenbach, Thomas 112 Schröder-Oeynhausen, Frank 73 Shirakawa, Hideki 108 Shockley, William 21, 145 Slyke, Steve van 166 Smalley, Richard E. 135, 223 Steinrücke, Peter 96 T Tang, Chin 166 V Vollborn, Marita 71

W Wagner, Georg 200 Wagner, Michael 95 Weissmüller, Jörg 161 Weller, Horst 129 Weßling, Bernhard 109, 201 Whitesides, George M. 28 Whiting, Richard 38

Wiesendanger, Roland 180, 182 Wozniak, Stephen 147 Y Yaghi, Omar 215 Z Zastrau, Ralf 128

235

Stichwortverzeichnis

3i (London) 126 6. Rahmenprogramm der Europäischen Kommission 62, 63, 205

A Abraham F. Ioffe Physico-Technical Institute 75 Action Group an Erosion, Technology and Concentration 225 Adenosintriphosphat, ATP 29, 85 Advanced Microelectronic Center Aachen 68 Aerosol 118 AIS 221 Aixtron AG 168 AIXUV GmbH 175 AMD Saxony Manufacturing GmbH 75 AMICA (Advanced Microelectronic Center Aachen) 68 Aminosäuren 27 Apple Computer, Inc. 146 Argonne National Laboratory 56 ASM Lithographie 175 Atom-Kraft-Mikroskop 23 ATP 29, 85 Audi 183 Autobatterien 108 Automobilbau 183 Axel Springer Verlag AG 127

B BASF 74, 75, 99, 114, 166, 181, 190, 205, 215, 216 – Coatings AG 190 – Venture Capital GmbH 132 Batelle-Institut 204 Bayer AG 111, 129, 188, 200 Beiersdorf 180 Bell Laboratories 21, 145 – Labs 147, 159 Benzol 137 Berliner Universitätsklinikum Charité 87 Beton 108, 204 Bewusstsein 219 Bindemittel 108 Bins & Associates 133 Biochips 46, 84 Bio-Gate Bioinnovative Materials GmbH 95 Biokompatibilität 89 Biomarker 129, 132 Biomaterialien 86, 90 Biomineralisation 100 Biosphäre 225 Biotechnologie 17, 35, 37, 40, 42, 46, 51, 53, 62, 64, 71, 76, 83, 92, 112, 130, 177, 224 BMBF 18, 19, 32, 62, 64–66, 68, 102, 123, 137, 151, 170, 175. 180, 193, 226, 228 BMWi 74 Bond-on-Command 123

237

Bottom-up-approach 158 – -Strategie 84 – -Techniken 30 – -Verfahren 99 BPA Technology and Management 44 Brennstoffzelle 25, 49, 155, 188, 198, 207, 209, 212 Bundesministerium für Bildung und Forschung 18, 32, 64, 80, 172, 176 Bundeswirtschaftsministerium (BMWi) 64, 74 Business Communications Corporation 46, 48, 130 C Calciumfluorid 172 California Institute of Technology (Caltech) 21, 54 Canon 58, 132 Capital Stage AG 39, 109 Carbon Black 79, 154, 186, 187, 226 Carl Zeiss 175, 176 Catalytic Solutions Inc. 132 CC Nanochem 74, 75, 132 CCN 68, 70, 74 CD 44, 81, 129, 163, 189 CDP Capital Technology Ventures 109 CeNS 70, 71, 143 CeNTech 72 Center for Nanoscience der LudwigMaximilians-Universität 70, 143 Center for Nanotechnology (CeNTech) 72 Centrum für Biomedizinische Nanotechnologie 88 ChemiBioTech 73 Chemical Institute of Canada 47 Chemie, kombinatorische 91 Chi Mei Optoelectronics 166 Chip 145 Chromatierung 198 Compaq Computer Corp. 146 Computer 16, 145

238

Covion Organic Semiconductors GmbH 170 Covion Semiconductors GmbH 111 Creavis Technologies & Innovation GmbH 79, 119 CVD, Chemical Vapor Deposition 138 D DaimlerChrysler 75 Dämmstoffe 207, 216 Dataquest, Gartner, Inc. 41 Datenspeicher 15, 151 DECHEMA 204 Degussa 72 – Advanced Nanomaterials 79 – AG 40, 76, 78, 119, 226 Delphi-Studie 15 Deutsche Bank 37 Deutsche Bundesstiftung Umwelt 203 Deutsche Forschungsgemeinschaft 64, 70, 76 Deutsche Gesellschaft für Chemisches Apparatewesen (DECHEMA) 204 Deutscher Umweltpreis 116 Deutsches Institut für Normung e.V. (DIN) 66 Deutsches Zentrum für Luft- und Raumfahrt e.V. 192 DG-Bank (Frankfurt a.M.) 41, 130, 133 Diamant 17, 135 Dielektrizitätskonstanten 153 DIN 66 Diodenlaser 44 Dior 113 Dispersionen 42, 49, 103, 106, 114, 119, 130 Display 25, 44, 75, 79, 166, DisplaySearch in Austin 45, 46 DNA 35, 90, 93 – -Microarrays 93 Doppelhelix 94 Dow Chemicals Company 104

DRAM 152 Drug Delivery Systeme 48 drug targeting 85 DuPont 104, 111 Duravit AG 126 Duscholux GmbH 127 DVD 163 DynaFund Ventures 38 E Easy-to-clean-Beschichtungen 127 – -Oberfläche 126 Eidgenössische Technische Hochschule 39, 61 ElectroniCast 44 Elektrolumineszenz 166 Energie 207 – -sparverordnung 217 – -träger 216 Environmental Protection Agency 202 Enzyme 91, 95, 223 EPA (Environmental Protection Agency) 202 Epoxidharze 115 equinet Venture Partners AG 126 Erdölchemie 137 Erlus Baustoffwerke AG 119 Ernst & Young (Düsseldorf) 41, 84 ETC (Action Group an Erosion, Technology and Concentration) 225 Europäisches Parlament 230 – Patentamt (EPA) 59 EUV 43, 148 – -Lithographie 172 Evolution 28, 86, 221 Evotec 97 Extremes Ultraviolett (EUV) 148, 152 – UV-Licht (EUV) 43 F Farécla Products Limited 193 Fasern 205 Faserverbundwerkstoffe 115

Feinmechanik 161 Ferriten 192 Feststoffgehalt 104 FhG 65 FI für Fertigungstechnik und Angewandte Materialforschung, IFAM 76 – für Keramische Technologien und Sinterwerkstoffe, IKTS 76 – für Silicatforschung, ISC 76 Flachdisplay 167 Flammschutz 200 Flottenverbrauch 187 Flugtriebwerke 198 Fluoreszenzfarbstoff 94 Flüssigkristalldisplays 45, 166 Folien 120, 158 Foresight-Institut 85, 222 Forschungsförderung 16 Forschungszentrum – GKSS 114 – Jülich 70 – Karlsruhe 69 Fotolithographie 146 Fraunhofer-Gesellschaft (FhG) 65 Fraunhofer Institut für – Angewandte Festkörperphysik (IFA) 134 – Angewandte Optik und Feinmechanik (IOF) 174 – Autonome Intelligente Systeme (AIS) 221 – Bauphysik 119 – Biomedizinische Technik (IBMT) 97 – Fertigungstechnik und Angewandte Materialforschung (IFAM) 76 – für Photonische Mikrosysteme (IMPS) 167 – Silicatforschung (ISC) 76, 134 – Solare Energiesysteme (ISE) 208 – Systemtechnik und Innovationsforschung 70

239

Fraunhofer Institut für – Werkstoff- und Strahltechnik (IWS) 68 – Werkstoffmechanik (IWM) 134 Freedonia Group 46 Fritz-Haber-Institut der Max-PlanckGesellschaft 142 Front Line 46 Frontier Carbon Corporation 39, 46, 154 Frost & Sullivan 48, 92 Fujitsu 58 Fullerene 18, 58, 134, 138 Füllstoff 185 Future Capital AG 109 G Gartner Dataquest 41, 150 Geheimtinte 128 Gel 99 General Electric Company 108, 189 Genom 28, 221 Gentechnik 25, 91, 163, 219 GEWIPLAN Projektmanagment 42 Glaskeramik 191 Goretex 121 Graphit 17, 135 Grünbeck Wasseraufbereitung GmbH 197 H Halbleiterindustrie 149, 172 Halbleitertechnik 21 Haltleitertechnologie 16 hanse chemie 114, 193 HAP 98 Harvard-Universität in Cambridge (Massachusetts, USA) 28 Hautverträglichkeit 112 Henkel 75, 132 – KGaA 122 Hermann-von-Helmholtz Gemeinschaft Deutscher Forschungszentren 64

240

High-Throughput-Screening 90 Hitachi 58 Hochleistungs-Screening-Verfahren 164 – werkstoffe 125 Hochtemperatursupraleiter 16 Holzschutzmittel 113 Humangenomprojekt 92 Hydrophobie 116 Hydroxylapatit (HAP) 25, 86, 98 I IAF 134 IAPP 167 IBM Rüschlikon 61 – -Labor 22 – -Almaden 23 IBMT 97 IFAM 76, 95, 124 IKTS 76 IMM 29 Implantate 35, 72, 89 IMPS 167 Indiumzinnoxid (ITO) 163, 167 Infektionen 95 Infineon Technologies 149, 173 – Dresden 75 Informationstechnik 19, 144 Institut für – Angewandte Photophysik (IAPP) 167 – Korrosionsschutz (IKS) 199 – Mikrotechnik Mainz (IMM) 29 – Neue Materialien 132 – Neue Materialien GmbH 68 – Schweißtechnische Fertigungsverfahren (ISF) 125 – Umweltmedizinische Forschung der Universität Düsseldorf 229 Intel Corp. 30, 146 Intelligenz, künstliche 219 International Technology Roadmap for Semiconductors, ITRS 43

Internet 159 Intranet 159 IOF 174 ION-TOF GmbH 73 ISC 76, 134 ISE 208 ISF 125 Ispo GmbH 119 ITO 167, 170 ITRS 43 IVAM – NRW e.V. 41 – Service 124 IWM 134 IWS 68 J Jenoptik 175 K Kapillareffekt 158 Karl-Winnacker-Institut 204 Katalysatoren 25, 46, 87, 106, 122, 130, 137, 193, 216 Katalyse 34, 107 Kautschuk 185 Keramik 46, 80, 86, 190, 193, 196, 198 Kieselsäure 185, 216, 226 Klebstoff 115, 122, 178 kleine und mittelständische Unternehmen (KMU) 38 KMU 38, 66, 70 Kohlefaserverbundwerkstoffe 115 kohlenfaserverstärkte Verbundwerkstoffe 141 kombinatorische Chemie 91, 92 Kompetenzzentren der Nanotechnologie (CCN) 68 Korrosionsschutz 106, 111, 196, 199, 203 Kratzfestigkeit 190,191 Kunststoffbatterie 108 Kunststoffe (Polymere) 53

L L’Oreal 113 Lacke 72 Lackhärtung 191 Lambda Physik 175 Laserverdampfungsreaktor 77 Lawrence Berkeley National Laboratory 56 LCD 166 Leder 105, 108, 118 Lehm 204 Lehman Brothers 48 Leichtbau 183, 189 Leiterband 110 – -platten 111, 201 leitfähige Polymeren 108 Life Sciences 18, 35, 51, 90, 179 Linos Photonics GmbH & Co. KG 163 Liposome 89 Lithographie 21, 43, 144, 153 Lotus-Effekt 25, 32, 35, 116 M Magnetfeldsensoren 152 Magnetflüssigkeits-Hyperthermie 88 Magnetowiderstand 32 Magnetresonanztomographie 86 MAN Roland Druckmaschinen AG 127 Massachusetts Institute of Technology (MIT) 39, 219 Materialbearbeitung 164 Matrix 80, 93, 110 Matsushita 58 Max-Born-Institut für Nichtlineare Optik und Kurzzeitspektroskopie (MBI) 155 Max-Planck-Gesellschaft 65, 142 Max-Planck-Institut für – Atomphysik 136 – Festkörperforschung 140, 157 – Metallforschung 76 – Polymerforschung 169 MBI 155

241

Mediagnost 97 Membranen 48, 80, 141, 157, 188, 197, 210 Membrantechnik 34 MEMS 22 Merck KGaA 75, 76, 112 Metal Organic Frameworks 215 Metall, organisches 110, 201 MFH Hyperthermiesysteme GmbH 88 Micro Venture 41 microdrop GmbH 177 Mikrodosiersysteme 177 mikroelektromechanische Systeme, so genannte MEMS 22 Mikroelektronik 21, 30, 43, 143 Mikrolithographie 148, 165, 172 Mikroprozessor 146, 149 Mikroreaktoren 107 Mikrosystemtechnik (MST) 124, 177 Militär 229 Miniaturisierung 19, 21, 29, 71, 83, 90, 145, 147, 164, 219 MIT 219 MITI (Ministry of International Trade and Industry) 57 Mitsubishi Chemical Corporation 39, 154 Mitsubishi Corporation 39, 154 Möbellacke 104, 113 Mobiltelefone 169, 201 MOFs (Metal Organic Frameworks) 215 Molekularbiologie 91 Mooresches Gesetz 30, 147 Moratorium 225, 229 Motorola 158 MST 177 mundi consulting AG 70 Muskel, künstlicher 162 N Nano Business Alliance (NBA) 37 nano-Analytics 73 Nanoanalytik 64, 68, 69, 73, 76, 180

242

Nanobiotechnologie 55, 70, 71, 73, 83, 221 Nanocomposite 39, 101, 105, 126, 133 Nanoelektronik 15, 25, 33, 43, 53, 151 Nanofestplatte 181 Nanofiltration 197 Nanogate Technologies GmbH 125, 165, 192 NanoMat 69, 70, 76 Nanomaterialien 15, 39, 49, 55, 60, 64, 76, 103, 125, 165, 188, 226 NanOp 68, 75 Nanopartikel 32, 39, 79, 88, 97, 111, 127, 185, 193, 207, 226, 230 Nanopulver 64, 77, 130 Nanoroboter 25, 83, 151, 220, 222 Nanoröhren 39, 58, 141, 154, 155, 188, 205, 212, 225, 230 NanoScape AG 143 Nanosolutions GmbH 128 Nanospeicher 182 Nanotech Partners 154 Nanotubes 133, 141, 205, 212, 225 Nanowürfel 214 Nanozwiebeln 142 NASA (National Aeronautics and Space Administration) 54, 140 National Business Alliance 57 National Institute of Standards and Technology 54 National Institutes of Health 54 National Nanotechnology Initiative (NNI) 44, 53, 222 National Research Council 163 National Science Foundation 20, 54 Nationale Nanoscale Science Kompetenzzentrum Basel 60 Naturwissenschaftliches und Medizinisches Institut (NMI) 97 NBA 37 NEC 58, 141 – Corporation 143, 212 Netze 63

Netzwerk 53, 54, 61 Nickelbasis-Superlegierungen 190 Nikon 58 NMI 97 NNI 53, 222 Northeastern University Boston 213 Novaled GmbH 167 NTC Nano Tech Coatings GmbH 199 NTT 58 O Oak Ridge National Laboratory 56 Ohmsches Gesetz 33 OLED 111 OLEDs 45, 111, 165, 166, 169 Ölvorkommen 218 Opel 75 Optik 37, 161 Optiva 134 Opto-Elektronik 62 organische Metalle 110, 202, 204 Ormecon Chemie GmbH & Co. KG 109, 201 P Partikel 32 Patente 38 Paul-Scherrer-Institut 61 PEM 188 Pennsylvania State University 15 PerkinElmer Corp 179 Philip Morris Forschungspreis 117, 157, 181 Photon 162 Photosynthese 15, 29, 35, 207 Photovoltaik 25, 196, 207 Physikalisch-Technische Bundesanstalt (PTB) in Braunschweig 65, 68, 174 Pigmente 39, 46, 130, 192 Pikoliter 177 Pittsburgh Tissue Engineering Initiative 48

Plasma-Beschichtung 189 Platin 161 Plattenspeicher 32 Polymerblends 200 Polymerdispersionen 74, 103, 205 Polymere 51, 99 –, leitfähige 109 Polymerelektronik 171, 209 Polymerisation 28, 106 Primärenergieverbrauch 195 Prionen 157 Projekthaus Nanomaterialien 76 Proteine 28, 91, 102 PTB 68 Q Quanteneffekte 18 Quantenmechanik 31 Querschnittsfunktion 18, 24, 67, 76 R Rasterelektronen-Mikroskop 143 Rasterkraftmikroskop 179 Rastersondenmikroskope 35 – -Mikroskopie 72 Rastertunnelmikroskop 22, 23, 155, 179 Realität, virtuelle 221 Recycling 27 Reflektoren 25, 183 Ressourcenschonung 187, 195 Rice University in Houston 135 RiTdisplay Corporation 168 Robert Bosch 75, 76 – GmbH 193 Rohstoffe 24, 230 Rüschlikon 22, 139 Ruß 185 S Sachtleben Chemie GmbH 111 Sal. Oppenheim jr. & Cie. KGaA 126

243

SAM Equity Holding 109 Sandia National Laboratory 56 Schott 93 – Glas 93, 132, 172 Schott – Glass Technologies 94 – Lithotec 174 – Lithotec AG 172 Science Citation Index 59 Screening-Verfahren 121 Selbstorganisation 9, 20, 24, 28, 74, 87, 100, 128, 157, 188, 190, 228 Selbstreinigung 116 Sensoren 32, 42, 63, 78, 84, 87, 152, 156, 162 Sensorik 18, 34, 74, 83, 137, 156 Siemens 43, 75, 87, 151 – Corporate Technologies 86 Silber 95 Silica-Reifen 186 Silizium-Wafer 131 Singularität 220 Skiwachs 128 SkyePharma PLC 48 Solarthermie 196 Solarzellen 15, 20, 120, 137, 144, 166, 207, 209 Sol-Gel-Prozess 199 – -Technologie 184 – -Verfahren 196 Solid Marketing Research 51 Sony 58 Speicherbausteine 144 Speicherchips 30, 72, 144, 151, 152 Speichermedien 182 Spin-sensitive Rastertunnelmikroskop 181 Spritzguss 121, 164 Sprungtemperatur 139 Stanford Resources 45 – University 147 State University of New York 195

244

Styrol 142 Supercomputer 230 Supraleiter 133 Supraleitung 21 SusTEch GmbH, Darmstadt 76, 101, 122 Synthesefasern 111, 113 T Technische Universität – Berlin 68 – Dresden 87 Teflon 120 Texas Instruments, Inc. 145 Textilfasern 96 Textilien 47, 108, 121 Thetareports 132 Tiefsee-Ölförderung 218 Titandioxid 111, 130 Top-down 158 – -Strategie 30, 83 Torrecid SA 127 Toshiba 58 Transistor 21, 143 Transparenz 113, 126, 169, 183 Trinkwasser 196, 225 Tunneleffekt 23,110 Tunnelstrom 179 U U. L. M. photonics GmbH 159 ultradünne Schichten 42, 49, 75, 103, 133 Umkehrosmose 197 Umweltverschmutzung 225 United States Display Consortium (USDC) 45, 170 Universität – Clausthal 105 – Jena 77 – Kaiserslautern 68 – von Pennsylvania 108 – Zürich 61

University of – Arizona 136 – of Chicago 28 – of Sussex 135, 230 UPOB 68 Ursuppe 27 USDC 45 UV-Schutz 47 – -Strahlung 112, 130, 174, 184, 189 V Vakuumverdampfung 96 VCSEL 44, 159 VDA 187 VDE 124 VDI Technologiezentrum in Düsseldorf 32 VDI-Technologiezentrum 137 Verband der Deutschen Automobilindustrie (VDA) 187 Verband der Elektrotechnik, Elektronik und Information 51 Verband der Elektrotechnik, Elektronik und Informationstechnik (VDE) 124 Vertical Cavity Surface Emitting Lasers (VCSELs) 44 Volkswagen 75, 192

W Wacker Chemie GmbH 148, 217 Wacker Siltronic AG 148 Wafer 30, 148, 149, 173 Wärmedämmung 196 Wasserstoff 188, 213 Wasserstoffspeicher 213 Wasserstoffwirtschaft 207 Weizmann-Institut in Rehovot 33 Werkstoffe 15, 32, 35, 165 WGZ Venture-Capital Gesellschaft 41 WGZ-Bank 41 Whitehead Institute 157 Wirkstoffe 35 Wirkstoff-Forschung 91 Wissensgemeinschaft G.W. Leibniz 65 Witterungsstabilität 184 X Xerox Corporation 138 Y Y-Röhren 155 Z Zahnkosmetik 98, 101 Zahnpasta 98 Zelle 28, 29, 92, 95, 208, 222

245

Der Autor

Klaus Jopp, geboren 1952 in Hamburg, studierte in seiner Heimatstadt Chemie. Nach dem Diplom wechselte er in den Wissenschaftsjournalismus. Seit 1990 führt er das Redaktionsbüro für Wirtschaft, Wissenschaft und Technik (WiWiTech). In seiner über 20-jährigen Tätigkeit als Fachautor hat er für viele deutsche Magazine und Zeitungen geschrieben, darunter Die Zeit, Die Welt, Wirtschaftswoche, Focus, Stern und Bild der Wissenschaft. 1993 gewann er den Robert-Mayer-Preis der VDI-Gesellschaft für Energietechnik für Veröffentlichungen in diesem Bereich. E-Mail: [email protected]

247