Travels

to the

Nanoworld

Travels to the Nanoworld. Miniature Machinery in Nature and Technology
Hardback: Perseus Books, Cambridge, MA, May 1999,
ISBN 0-306-46008-4, $ 25.95 , 254 + xiii pp.
Paperback: Perseus Books January 2001, ISBN 0-738-20444-7, $ 16.00, 254 + xiii pp.

 

Expeditionen in den Nanokosmos:

Große Zukunft für kleine Maschinen ?

Unsere Streifzügen durch die Nanowelt haben uns einen Eindruck davon vermittelt, was die Nanosysteme der lebenden Zelle leisten können, und welche Erfolge und Begrenzungen Wissenschaftler erfahren, wenn sie versuchen, die Funktionsweise dieser Maschinerie zu verstehen oder gar zu imitieren. Aufbau und Wirkungsweise vieler "einfacher" Proteine<$IProtein> sind weitestgehend aufgeklärt. Insbesondere die Wirkungsmechanismen von Enzymen<$IEnzym>, die Makromoleküle abbauen (Proteinasen, Nucleasen, Lysozym), sowie der Sauerstoff-Transporter Hämoglobin und Myoglobin gehören heute zum Lehrbuch- und Prüfungsstoff für Studierende der Biochemie.

Die "konstruktiven Seite" hingegen, die Erforschung der molekularen Maschinerie, die den Aufbau der zellulären Strukturen und Funktionseinheiten erledigt, ist noch nicht so weit fortgeschritten. Unklar sind bis heute die molekularen Einzelheiten der Funktionsweise des Ribosoms<$IRibosom>, der Proteinfabrik der Zelle, ebenso wie die "zweite Hälfte des genetischen Codes", das Problem der Proteinfaltung<$IProteinfaltung> ungelöst ist.

Mechanisch wirkende molekulare Maschinen, wie etwa die Muskelfasern<$IMuskel>, geben Stück für Stück ihr Geheimnis preis, doch alles in allem betrachtet verstehen wir nur einen kleinen Teil der Vorgänge, die in lebenden Zellen ablaufen.

Es ist sogar zu befürchten, daß die Teilinformation, die wir besitzen, nicht repräsentativ für das Ganze ist. Zum Beispiel beziehen sich alle bekannten Proteinstrukturen auf Proteine, die entweder kristallisierbar sind, oder ein Molekulargewicht von weniger als 25 Kilodalton haben -- das sind nämlich die Beschränkungen, denen die beiden einzigen verfügbaren Methoden zur hochaufgelösten Strukturbestimmung (NMR<$INMR> und Röntgenkristallographie) unterliegen. Es ist nicht auszuschließen, daß es etwa in großen Proteinen noch unentdeckte Strukturprinzipien gibt, welche die Kristallisation der betreffenden Proteine erschweren.

Dieses einerseits ermutigende (wir haben in letzter Zeit enorm viel gelernt), andererseits ernüchternde (wir verstehen immer noch nur einen winzigen Bruchteil dessen, was das Leben ausmacht) Wissen um den Erkenntnisstand (und die Grenzen) bei der Erforschung der biologischen Nanosysteme ist nützlich für die Bewertung der Prognosen für eine "nanotechnologische Revolution", wie sie von einigen Propheten verbreitet werden. Maschinen, die -- ähnlich wie ein Enzym, aber steuerbar -- einzelne Moleküle, ja sogar Atome, handhaben und gezielt zusammenfügen können, sollen in den ersten Jahrzehnten des kommenden Jahrhunderts einer Erdbevölkerung von mehr als zehn Milliarden Menschen heute unvorstellbaren Reichtum bringen, der die heutigen "Grenzen des Wachstums" weit hinter sich und unsere heutigen High-Tech Produkte wie Steinzeitwerkzeuge aussehen lassen wird. Das sind jedenfalls die Vorstellungen, die der an der Universität Stanford lehrende Theoretiker K. Eric Drexler in Büchern, Aufsätzen und Vorlesungsreihen predigt.

Bevor wir uns jedoch auf Spekulationen einlassen, ob und in welchem Ausmaß die Nanotechnologie<$INanotechnologie> eine technische Revolution auslösen wird, wollen wir jedoch einen Blick zurück werfen, auf vergangene Revolutionen.

 

 

1. Welche Zutaten braucht man für eine technologische Revolution?

Man weiß nicht genau, auf welchem Wege Johannes Gensfleisch, besser bekannt unter dem Namen seines Hauses "zum Gutenberg"<$IGutenberg, J.>, von der Idee des Buchdrucks mit beweglichen Lettern zu einer funktionierenden Technologie gelangte. Jedenfalls kostete die Entwicklung des Verfahrens ihn einige Jahre Arbeit und wäre wohl ohne ein solides Grundwissen der Metallverarbeitung zum Scheitern verurteilt gewesen. Sobald die neue Technik jedoch funktionierte, löste sie eine Revolution in der Informationsverbreitung aus. Man schätzt, daß in den fünfzig Jahren nach der Fertigstellung seiner ersten Bibel (1455) mehr Bücher hergestellt wurden als in den tausend Jahren davor. Und erst fünfhundert Jahre später verdrängte der Lichtsatz die Gutenbergschen Bleilettern aus dem Druckereibetrieb, und eine neue Informationsrevolution -- die der Computer<$IComputer> -- begann, die Informationstechnologie ebenso tiefgreifend zu verändern wie seinerzeit die erste Druckerpresse.

Natürlich ging die Wirkung des Buchdrucks weit über die Produktivitätssteigerungen hinaus. Daß schriftliche Informationen für breite Bevölkerungsschichten erschwinglich und zugänglich wurden, hatte weitreichende Folgen für Bildung, Wirtschaft und Wissenschaft, die man wohl kaum zu hoch bewerten kann.

Wie der Buchdruck haben auch die Dampfmaschine, das Fließband und der PC Umwälzungen im Alltagsleben vieler Menschen ausgelöst, die sich als technologische Revolution beschreiben ließen. Nicht qualifiziert sind hingegen Erfindungen, die nur nützlich aber nicht umwälzend sind (Büroklammer), die nur eine graduelle Verbesserung bestehender Technologie darstellen (Diesel- gegenüber Dampflokomotive), oder die Mehrzahl der Bevölkerung nicht erreichen, z.B. weil sie sich auf dem Markt nicht durchsetzen (Wankelmotor).

Ob allerdings eine revolutionäre Erfindung auch eine technologische Revolution auslöst, weiß man meistens erst hinterher. Verallgemeinerungen in der Technikgeschichte oder Vorhersagen über die Auswirkungen neuer Technologien sind nahezu unmöglich, und manch ein ansonsten kluger Kopf hat sich bei dem Versuch unsterblich blamiert.

Drei Zutaten aber haben in der Vergangenheit das Potential gehabt, Umwälzungen auszulösen: die Zugänglichkeit neuer/besserer Werkstoffe, die Entwicklung besserer Fertigungstechniken, und, insbesondere in neuerer Zeit, die Miniaturisierung.

 

 

Werkstoffe

Steinzeit, Bronzezeit, Eisenzeit -- die Frühgeschichte der Technik wird nach den jeweils aktuellen Werkstoffen katalogisiert, wobei Tierknochen und Holz, beide schon vor der Altsteinzeit verwendet, wohl nicht als "epochemachend" betrachtet werden. Der Fortschritt ist innerhalb dieser Reihe insofern erkennbar, als die ersten Werkstoffe einfach der Natur entnommen wurden, während die Metalle Bronze und Eisen aus Erzen hüttentechnisch gewonnen werden mußten, dafür aber den Vorteil der Gieß- und Schmiedbarkeit aufwiesen. Setzt man diese Überlegung bis in die Gegenwart fort -- die vermutlich in der Kunststoffzeit anzusiedeln ist -- , so werden die Metalle zusehends von Werkstoffen verdrängt, die nicht der Natur entnommen und nicht chemisch aus Naturstoffen gewonnen, sondern synthetisch aus einfachen Molekülen aufgebaut werden, etwa Polyethylen aus Ethylen. Gegenüber den Metallen haben die Kunststoffe den Vorteil, daß ihre Eigenschaften durch chemische Modifikationen über ein weites Spektrum variierbar sind.

Natürlich sind Kunststoffe noch nicht die Krone der Schöpfung. Sie erfüllen bei weitem nicht alle Wünsche, die wir an einen Werkstoff stellen können. Ihre Herstellung verbraucht begrenzte Rohstoff-Ressourcen und Energie, und ihre massenhafte Verwendung zur Herstellung von Einweg-Artikeln hat uns erhebliche Umweltprobleme beschert, da sie nicht so gut biologisch abbaubar sind wie etwa Papier oder Holz, und nicht so leicht rezyklierbar wie etwa Eisen.

Gemeinsam haben Stein, Metall und Plastik, daß sie meistens in makroskopischen (Gramm bis Tonnen) Mengen auftreten, und daß für gewöhnlich ihr Aufbau im Nanometermaßstab einheitlich ist oder allenfalls statistisch verteilte Strukturmuster enthält. Aus unserer Nano-Perspektive ist auch ein kleines Körnchen Kunststoff-Granulat ein Massenprodukt. Und selbst wenn die Polymerchemiker die Farbe, Elastizität und Hitzeresistenz ihrer Kunststoffkörnchen genau festlegen können -- im Vergleich zu der vergleichbaren Menge biologischen Materials ist dieses Stück Materie erschreckend dumm. Es enthält keine nennenswerte Menge an Information, und kann keine "intelligente" Funktion selbständig ausführen.

Vielleicht um zu verschleiern, daß die Eisenzeit bis in unser Jahrhundert andauerte, und erst vor wenigen Jahrzehnten in die Kunststoffzeit überging, kommt man bei der jüngeren Geschichte von dieser Einteilungsweise ab und orientiert sich an Fertigungsmethoden (z.B. Buchdruck, Industriezeitalter).

 

 

Fertigungstechniken

Um aus Werkstoffen gebrauchsfähige Produkte zu machen, muß man sie bearbeiten -- mit den Händen, mit Schneid- oder Bohrwerkzeugen (seit der Steinzeit) durch Schmelzen, Gießen, Schmieden. Verbinden mehrerer Teile ergibt kompliziertere Produkte und damit auch leistungsfähigere Werkzeuge, bis hin zu den mechanischen Maschinen und den Dampfmaschinen der Industriellen Revolution. Neue Werkstoffe bringen neue Verarbeitungsmöglichkeiten mit sich. Metalle kann man gießen, Steine nicht. Kunststoffe kann man aufschäumen, Metalle nicht. Darüber hinaus führen neue Werkstoffe auch wieder zu neuen Werkzeugen, die wiederum das Spektrum der Fertigungstechniken erweitern. Und Fertigungstechniken können wiederum neue Rohstoffe zugänglich oder nutzbar machen. Diese zyklische Verkettung von Ursachen und Wirkungen mag dazu beitragen, daß sich die Entwicklung der Technik oft wie eine chemische Reaktion, die ihren eigenen Katalysator<$IKatalysator> hervorbringt, von selbst zu beschleunigen scheint.

War die Fertigung von Gebrauchsgegenständen über Jahrtausende hinweg "Handwerk" im wörtlichen Sinne, so sind wir heute daran gewöhnt, daß von den meisten Produkte zumindest Teile von Maschinen hergestellt werden. Allenfalls liegen Design, Endmontage und Qualitätskontrolle noch in den Händen von Menschen.

Eine wichtige Folge der Übernahme der Produktion durch Maschinen ist die, daß die Größenskala nicht mehr beschränkt ist auf die Bauteile, welche der Handwerker mit der Hand (oder der Pinzette) greifen kann. Die Mechanisierung der Produktion ebnet somit den Weg für die Miniaturisierung der Produkte.

 

 

Miniaturisierung

Die erste echte technische Revolution, die durch Miniaturisierung von Bauteilen hervorgerufen wurde, war und ist die Computer-Revolution, die wir in den vergangenen zwei Jahrzehnten erlebt haben und heute noch erleben. Bei elektronischen Bauteilen heißt heißt kleiner zugleich auch schneller, effizienter, billiger. Speicherkapazität und Rechengeschwindigkeit wurden von Anfang der achtziger bis Anfang der neunziger Jahre vertausendfacht. Ein einzelnes elektronisches Schaltelement zu Speicherzwecken kostete in den fünfziger Jahren ca. zehn Dollar, heute weniger als ein hunderttausendstel Cent. Wer die Entwicklung der Computer<$IComputer> in den 80er und 90er Jahren und ihren Einzug in nahezu alle Bereiche des wirtschaftlichen und gesellschaftlichen Lebens miterlebt hat, braucht keine Beispiele mehr dafür, wie sich die Miniaturisierung eines technischen Bauteils (hier vor allem die des Mikrochip<$IMikrochip>) auf die Qualität der Endprodukte und auf das Alltagsleben auswirken kann.

Und dennoch fand diese Revolution für die Normalverbraucher unsichtbar statt, beruhte sie auf der Miniaturisierung winziger Schaltkreise und Elektronik-Bausteine, die mit bloßem Auge nicht erkennbar und für Laien kaum vorstellbar sind. Ihre Leistungen auf technischer Ebene, ausgedrückt in Gigabyte und Teraflop, sind abstrakt und es ist aus den Leistungsdaten nicht ohne weiteres ersichtlich, daß diese Technik sich in kürzester Zeit in alle Unternehmen ausgebreitet hat, und sich derzeit in alle Haushalte ausbreitet.

Noch abstrakter und in den Auswirkungen noch schwieriger abzuschätzen wird die Nanotechnologie sein, die, ausgehend von der technischen Kontrolle über einzelne Moleküle oder sogar Atome zu molekularer Fertigung, und Nano-Werkstoffen führen soll. Sie wird möglicherweise hochkomplexe Systeme im Nanometermaßstab hervorbringen, viel komplexer als ein heutiger Computer -- aber nicht komplexer als eine Pflanze oder ein Tier.

 

 

Molekulare Fertigung, intelligente Werkstoffe, Miniaturisierung bis an die Grenze des physikalisch Möglichen: Eine Definition des Schlagworts "Nanotechnologie"

Wir neigen dazu -- wie auch andere Generationen in der Vergangenheit -- die gegenwärtige Technik als fortgeschritten, modern und nur noch im Detail verbesserungsfähig zu empfinden, und keinen Raum für umwälzende technische Neuerungen zu sehen. Wer heute eine Berufslaufbahn beginnt oder ein Haus kauft, plant normalerweise nicht ein, daß Wohnen und Arbeiten in 20 oder 30 Jahren von unseren heutigen Vorstellungen völlig verschieden sein könnten

Doch, um Veränderungspotential -- und eine Richtung -- für technische Verbesserungen wahrzunehmen, braucht man nur unsere Produktionsmethoden mit der molekularen Maschinerie der Natur zu vergleichen.

Produktionsmethoden unserer heutigen Industriegesellschaft beruhen auf

-- makroskopischer Fertigung, bei der unzählige Atome oder Moleküle unspezifisch abgetrennt, angefügt oder zu chemischen Reaktionen veranlaßt werden,

-- Werkstoffen, die in ihren Eigenschaften (in engen Grenzen) bestimmbar, aber nicht flexibel oder "intelligent" sind,

-- Maschinen, die zwar einfache Vorgänge automatisch ausführen, aber überwiegend in der makroskopischen Welt operieren.

In der Zelle hingegen werden, wie wir oben bereits gesehen haben, selbst komplizierteste Zusammenhänge aus einfachen molekularen Bausteinen zusammengesetzt. Auch mineralische Baumaterialien können durch molekulare Kontrolle der Abscheidung von Mineralien aus der gelösten Form in ihren Eigenschaften gesteuert werden. (Die der Natur entnommenen "Rohstoffe" wie Holz, Baumwolle, Erdöl, sind ja in Wirklichkeit durch biologische Mechanismen entstandene, teilweise hochkomplexe, Werkstoffe.) Selbst komplizierteste Maschinen der Zelle sind typischerweise nicht größer als 25-50 Nanometer.

Nach den Prognosen von K.E. Drexler (auf die wir weiter unten detaillierter eingehen werden) wird sich die kommende Nanotechnologie<$INanotechnologie> im Gegensatz zu der heutigen Industrieproduktion (aber in mancher Hinsicht ähnlich der lebenden Zelle) vor allem auszeichnen durch:

-- Molekulare Fertigung -- d.h. Produkte können im Nanometermaßstab so hergestellt werden, daß die Anordnung der Moleküle und Atome genau gesteuert werden kann.

-- Werkstoffe mit neuartigen, durch molekulare Fertigung steuerbaren Eigenschaften.

-- Miniaturisierung von elektronischen und mechanischen Bauteilen bis zum atomaren Maßstab, was zu Nanomaschinen führt, die in Kompaktheit und Effizienz die Nanomaschinen der Zelle sogar übertreffen könnten.

Mit Drexler und seinen Prognosen, sowie mit seinen Vorläufern, Anhängern und Kritikern wollen wir uns im folgenden Kapitel befassen.

 

2. Propheten der Nanotechnologie

Molekulare Fertigung, intelligente Werkstoffe, Nanomaschinen, das alles liest sich heute, 1995, ein bißchen wie Science-fiction, doch einer hat schon 1959 so weit voraus gedacht:

Richard P. Feynman: There's plenty of room at the bottom

Am 29. Dezember 1959 trat Richard P. Feynman<$IFeynman, R.P.> vor die Jahresversammlung der American Physical Society und verkündete schier Unglaubliches. Computer<$IComputer>, so prophezeite er zu einer Zeit, als man unter diesem Begriff einen raumfüllenden Drahtverhau verstand, müßten aus Drähten bestehen, die nur 10 oder 100 Atome Durchmesser haben. Was würde passieren, so fragte er sein ungläubig staunendes Publikum, wenn wir Atome einzeln in der Weise anordnen könnten, wie wir sie haben wollen? Feynman erinnerte daran, daß die lebende Zelle nicht nur eine enorme Informationsmenge auf kleinstem Raum speichern kann, sondern gleichtzeitig diese Information lesen und umsetzen kann.

Die Zuhörer, so wird berichtet, zeigten sich amüsiert. Sie glaubten, der als genialer Querdenker bekannte Physiker, der nichts lieber tat, als seine Zeitgenossen zu irritieren, beliebte wieder einmal zu scherzen.

Der Vortrag wurde zwar in der Zeitschrift des Californian Institute of Technology abgedruckt und später vielfach zitiert und nachgedruckt. Feynman selbst kam jedoch nicht auf das Thema zurück (auch in den beiden Bänden seiner episoden- bis anekdotenhaften Autobiographie sucht man das Stichwort Nanotechnologie vergebens), und es sollten noch Jahrzehnte vergehen, bevor seine Vorschläge wirklich gewürdigt wurden.

Fünfunddreißig Jahre später hat die Technik immerhin soweit aufgeholt, daß heute niemand mehr über Feynmans Vorschläge lachen würde. Manches ist Wirklichkeit geworden, manches ist heute ein realistisches Ziel für die kommenden Jahre. Wissenschaftler, die heute Atome positionieren oder Elektronikbauteile immer weiter miniaturisieren, sind verblüfft von der Genauigkeit von Feynmans Prognosen.

Und heute wagen einige seiner Nachfolger schon sehr viel detailliertere Vorhersagen darüber, wie die Beherrschung der Nanowelt ermöglicht werden wird, und welche technologischen und gesellschaftlichen Umwälzungen dies zur Folge haben könnte.

 

 

Die schöne neue Welt des K. Eric Drexler

K. Eric Drexler ist eine umstrittene Persönlichkeit, für die einen ein Spinner, für andere ein bedeutender Wissenschaftler oder gar Prophet. Seit er sich im Jahre 1977, als zweiundzwanzigjähriger Student der "Technik der Industrialisierung des Weltraums" am Massachusetts Institute of Technology (MIT) für die Möglichkeit, nichtbiologische molekulare Maschinen zu konstruieren, zu interessieren begann, entwickelte er sich unaufhaltsam zum ersten hauptberuflichen Propheten der Nanotechnologie<$INanotechnologie>. Als er 1981 begann, seine Ideen zu publizieren, war die Resonanz bei den wissenschaftlichen Kollegen gedämpft, doch die Medien und die Öffentlichkeit begannen, sich für die verheißungsvolle Zukunftstechnologie zu interessieren Sein unermüdliches Werben um Aufmerksamkeit für die Diskussion der Chancen und Risiken der neuen Technologie, die nach seiner Ansicht alle technischen Revolutionen der Vergangenheit in den Schatten stellen wird, hat sich seitdem hauptsächlich in Büchern, Vorlesungsreihen und Konferenzen geäußert und ihm den Beinamen "Mr. Nanotechnology" eingetragen.

Sein erster Versuch, die Segnungen des Nanotech-Zeitalters einer breiten Öffentlichkeit im Buchformat nahezubringen, erschien 1986 unter dem Titel "Engines of Creation -- the coming era of nanotechnology". Das Werk litt sowohl an dem Übermaß an prophetischem Pathos, mit dem der Autor seine Botschaft vortrug, als auch an der unzureichenden Trennung zwischen wissenschaftlicher Realität und Science-fiction. Besser lesbar ist sein neuestes, in Zusammenarbeit mit seiner Ehefrau und Mitstreiterin Chris Peterson und der Journalistin Gayle Pergamit verfaßtes und 1994 in deutscher Übersetzung erschienenes Buch "Experiment Zukunft -- Die nanotechnologische Revolution". Hier sind Dichtung und Wahrheit fein säuberlich getrennt: die Science-fiction-Passagen wurden im Text eingerückt und als "Szenarien" kenntlich gemacht.

Grundidee der Drexlerschen Zukunftsvision ist die, daß die heute verfügbaren Nahfeldsonden-Methoden (Rastertunnelmikroskopie<$IRastertunnelmikroskopie>, STM für engl. scanning tunnel microscopy, und Rasterkraftmikroskopie<$IRasterkraftmikroskopie>, AFM für engl. atomic force microscopy -- siehe den folgenden Exkurs) zu synthetischen Techniken weiterentwickelt werden sollen. Heute kann man mit einer Spitze, die nur ein Atom dick ist, entweder elektronisch (STM) oder mechanisch (AFM) eine Oberfläche abtasten und mit nahezu atomarer Auflösung ihre Struktur analysieren. Im Jahre 1990 gelang es einer Arbeitsgruppe in einem IBM-Forschungslabor, mit Hilfe einer AFM-ähnlichen Sonde 35 Xenon-Atome auf der Oberfläche eines Nickel-Kristalls mit atomarer Genauigkeit so zu positionieren, daß man -- mit Hilfe eines STM -- den Schriftzug "IBM" lesen kann -- ein erster Schritt von der Nahfeldsonden-Analytik zur Synthese. Drexler extrapoliert nun, daß in der Zukunft Atome und Moleküle mit Hilfe von Nanomaschinen, die sich von der STM/AFM Technik ableiten, nahezu beliebig positioniert und dadurch auch gezielt zu chemischen Reaktionen gezwungen werden können. (Oft sind die Ausbeuten chemischer Reaktionen durch die geringe Wahrscheinlichkeit begrenzt, daß sich die Reaktionspartner in der richtigen Orientierung und mit der nötigen Energie begegnen.) Diese neu zu entwickelnden Maschinen bezeichnet er als Assembler<$IAssembler>. Eine Zwischenstufe auf dem Weg zum Assembler soll der in Abb. 29 gezeigte "Molekül-Manipulator" sein.

Wollte man mit einem Assembler, der Atom für Atom ein Werkstück zusammensetzt, makroskopische Gegenstände herstellen, würde das Unternehmen natürlich astronomische Zeitmaßstäbe erfordern. (Die Zahl der Atome in einem Gramm Kohlenstoff -- egal ob Diamant oder Graphit -- ist eine 5 mit 22 Nullen, und selbst für sehr schwere Atome, etwa Uran, ist diese Zahl nur um eine Dezimalstelle kürzer.) Deshalb braucht man viele, d.h. Billiarden oder mehr, Exemplare dieser Nanomaschinen. Und wie baut man viele Assembler -- natürlich auch mit einem Assembler. Assembler, die Kopien ihrer selbst herstellen können bezeichnet Drexler als Replikatoren.

Die Kombination dieser beiden Grundelemente -- Assembler, die jede beliebige Struktur aufbauen können, und Replikatoren die uns beliebige Mengen der gewünschten Assembler an die Hand geben, führt Drexler zu der Prognose einer technischen Revolution, die mehr Umwälzungen bewirken soll als die sämtliche Neuerungen unseres Jahrhunderts zusammengenommen. Drexler liebt es, in positiven Visionen zu schwelgen, wie die Welt von morgen aussehen könnte, wenn die Nanotechnologie<$INanotechnologie> zum Wohle der Menschheit angewandt wird. Demnach würde eine Weltbevölkerung von 10 Milliarden Menschen im kommenden Jahrhundert in unvorstellbarem Reichtum leben können, ohne damit die Umwelt zu belasten, oder Teile der Bevölkerung zu unterdrücken und auszubeuten.

Zunächst einmal würde die Möglichkeit, Atome nahezu beliebig anzuordnen, die Produktion von der Notwendigkeit von Rohstoffen mit bestimmter chemischer Struktur befreien. Jeder Abfall -- und davon produzieren wir ja zur Zeit genug -- könnte auf atomarer Ebene rezykliert werden. Nanomaschinen, die Sonnenenergie effizienter sammeln, als heutige Sollarzellen das können, sollen so robust sein, daß man sie in Straßenbelägen und Außenanstrichen verwenden kann, und so billige Solarenergie in nahezu beliebiger Menge gewinnen kann.

Diese Errungenschaften würden natürlich die industrielle, Rohstoffe und fossile Energieträger verschlingende Fertigung unseres Jahrhunderts obsolet machen. Darüber hinaus sollen aber die Atom für Atom aufgebauten neuen Werkstoffe, Nanoroboter und Nanocomputer nach Drexlers Vorstellungen auch viele andere Wirtschaftsbereiche umkrempeln, vor allem aber die Landwirtschaft, die Medizin, den Umweltschutz und das Verkehrswesen.

Neuartige Materialien im Treibhausbau und billige Sonnenenergie könnten die Produktivität der Landwirtschaft so steigern, daß gesunde, pestizidfreie Lebensmittel mit einem um 90% reduzierten Flächenbedarf gewonnen werden und große Flächen wieder verwildert werden könnten. Die fortschrittliche Technik würde die Umweltverschmutzung praktisch auf null reduzieren, Folgen vergangener Umweltverschmutzung könnten rückgängig gemacht werden (siehe unten).

Die heutige Medizin, deren chirurgische Werkzeuge sich im Größenvergleich mit den Zellen unseres Körpers ausnehmen wie eine Axt neben einem Mikrochip, soll durch "Nanomedizin" ersetzt werden. Krankheiten von Krebs<$IKrebs> und Aids bis zum Schnupfen könnten durch Nanomaschinen, die durch die Blutbahn zirkulieren und Jagd auf böse Krankheitserreger oder Krebszellen machen, geheilt werden. Darüber hinaus sollen die Nanomaschinen auch die aktive Gesundung, etwa die Neubildung gesunden Gewebes an Verletzungs- oder Operationsnarben fördern, wo Chirurgen heute nur nähen und hoffen können. Wie der Hund die Schafherde zusammenhält, sollen die Nanomaschinen die Zellen "hüten" und dazu bringen am richtigen Ort in der richtigen Weise zusammenzuwachsen. Ja sogar die Moleküle des Lebens sollen medizinisch repariert werden können. Selbst nachdem ein Virus sein Erbmaterial schon in die körpereigene DNA eingeschmuggelt hat, sollen die nanomedizinischen Ordnungshüter noch in der Lage sein, die Kuckuckseier aufzuspüren und selektiv zu entfernen.

Ähnlich wie die Medizin von der Schadensbegrenzung, Reparatur und Flickschusterei zur aktiven Herstellung von Gesundheit übergehen soll, wird nach Drexlers Visionen auch der Umweltschutz in die Offensive gehen und nicht nur laufende Umweltschäden unterbinden, sondern auch die Umweltsünden der Vergangenheit rückgängig machen. In einem der Szenarien in "Experiment Zukunft" spüren zukünftige Pfadfinder im Wald eine der allerletzten Spuren eines Umweltgifts aus der Klasse der PCB (polychlorierte Biphenyle, besonders bekannt für ihre lästige Vorliebe, sich in Müllverbrennungsanlagen in Dioxine zu verwandeln) auf und sind ganz begeistert von dem seltenen Fund, der ihnen das Vorrecht sichert, bei dem atomaren Recycling des biologisch schwer abbaubaren Schadstoffs mitzuwirken.

Bei der Beseitigung giftiger und schwer abbaubarer Chemikalien sind die Ziele der Wiederherstellung der Umwelt ja recht einfach zu definieren. Schwieriger sieht es mit der Artenvielfalt aus. Neuentstehung und Aussterben von Arten sind natürliche Prozesse im Evolutionsgeschehen<$IEvolution>, sodaß ein auf Dauer "richtiger" Artenbestand nicht existiert oder wiederhergestellt werden kann. Die globale Reiselust der Menschen in den letzten Jahrhunderten hat einige ökologische Gleichgewichte durch den -- gezielten oder auch unbeabsichtigten -- Export von Arten durcheinandergebracht. Prominentestes Beispiel sind die Kaninchen, die in Australien mangels Freßfeindes zur Landplage wurden, und auch durch eine gezielt eingeführte Virusinfektion nicht wieder zu beseitigen waren. Um regionale Ökosysteme künftig vor Fremdlingen zu schützen, will Drexler insektengroße -- selbstverständlich auf nanotechnlologischen Entwicklungen beruhende -- Roboter einsetzen, die er als "Ökosystemwächter" bezeichnet. Diese könnten unerwünschte Arten durch DNA-Analyse identifizieren und ausrotten, ohne sich selbst zu vermehren. Sie könnten natürlich zusätzlich auf landwirtschaftlich genutzten Flächen das Unkraut und die Schädlinge fernhalten, sodaß umweltschädigende Gifte in der Landwirtschaft überflüssig werden. Problematisch ist allerdings die Frage, wer dann über Wohl und Wehe der Arten entscheiden soll. Bei pessimistischerer Betrachtungsweise liegt die Vermutung nahe, daß die "Ökosystemwächter" dereinst weniger die Artenvielfalt als die Profite weltumspannender Landwirschafts-Konzerne beschützen werden.

Im Verkehrswesen soll die Nanotechnologie die Grenze nach unten öffnen, zu einem unterirdischen Fernverkehrs-System mit Flugzeug-Geschwindigkeit. Billige Energie, leistungsfähigere Vortriebsmaschinen und neuartige Werkstoffe zur Auskleidung der Röhren sollen die Erstellung weltumspannender Tunnelsysteme ermöglichen. Magnetschwebebahnen sollen in den evakuierten Röhren dann mit Geschwindigkeiten vorankommen, die Flugzeuge überflüssig machen. Dieses unterirdische Schnellverkehrssystem würde die Erde zu einem Nahverkehrsverbund degradieren, in dem kaum noch ein Weg länger als eine Stunde dauert.

Doch auch die Grenzen nach oben sollen sich öffnen: Weltraumflüge sollen so selbstverständlich werden wie heute der Luftverkehr, und die Energie- und Rohstoff-Quellen des Weltraums sollen unseren gebeutelten Planeten entlasten. Allerdings ist das Projekt der Besiedelung des Weltraums, dem Drexler in "Engines of Creation" noch ein ganzes Kapitel gewidmet hatte, in dem neueren Werk etwas in den Hintergrund getreten.

Auch das in "Engines of Creation" vorgeschlagene Unsterblichkeitsprogramm -- unheilbar Kranke sollten sich einfrieren lassen, da die Blutbahnrobotor der Nanomedizin sie dereinst unbeschadet enteisen und reparieren können -- hat wohl vorläufig das Zeitliche gesegnet. Vermutlich fürchtet der Autor nun, für mißglückte Überlebensversuche haftbar gemacht zu werden.

Bis in die letzten Niederungen des Alltags soll die Nanotechnologie vordringen -- so wird uns etwa in "Experiment Zukunft" die Tapetenfarbe angekündigt, die sich dank eingebauter Nanomaschinen selbst auf die gewünschten Wandabschnitte verteilt, Beschädigungen selbständig repariert, und sich natürlich auf Abruf wieder ablöst und in die Dose zurückwandert. Keine Frage, daß die Tapeten dieser Ära auf Wunsch das Motiv wechseln und bei Bedarf als Fernsehschirm oder Computermonitor dienen werden. (Es bleibt zu hoffen, daß die fliegenden Toaster und ähnlich geschmackvolle Bildschirmschoner bis dahin aus der Mode gekommen oder überflüssig geworden sind.)

Diese Szenarien, so erläutern die Autoren im politisch ambitionierten Schlußteil des Buches, zielen darauf ab, eine breitere Öffentlichkeit von dem positiven Potential der kommenden Technologie zu überzeugen, damit die Entwicklung unter demokratischer Kontrolle und nicht in militärischen Geheimlabors stattfindet. Im letzteren Fall würde, wie man sich leicht ausmalen kann, sehr bald eine neue Waffengattung auftauchen, und die vereinigten Schrecken atomarer, biologischer und chemischer Waffen mühelos überbieten. Ausbreitung dieser Waffensysteme wird aufgrund der einfacheren Handhabung kaum zu verhindern sein.

Schlimmer noch, Replikatoren, die zu selbständig wären, könnten aus dem Labor ausbüchsen und sich ungehemmt vermehren, ja letztendlich die Menschheit ausrotten. Natürlich würde jeder vernünftige Mensch Replikatoren so konstruieren, daß sie kontrollierbar bleiben. Doch die Möglichkeiten, daß ein Psychopath diese ultimative Waffe gegen die Menschheit richtet, oder daß aus harmloseren Formen, die unbemerkt entkommen, durch Evolution gefährliche Arten entstehen, müssen -- zumindest innerhalb der Logik von Drexlers Visionen -- als reale Gefahren betrachtet werden. Auch Science-fiction-Autoren haben das Horror-Potential wildgewordener Nanoroboter bereits erkannt und genutzt. So werden in einer Folge der Fernsehserie "Star Trek -- The Next Generation"<$IStar Trek> Nanoroboter ("Nannites") beschrieben, die in lebende Zellen eindringen und dort Schäden reparieren können. Dummerweise machen sich einige dieser Wunderwerke selbständig und setzen sich im Bordcomputer der "Enterprise" fest, wo sie sich explosionsartig vermehren ...

Ob Drexlers optimistische Szenarien gegenüber den Mißbrauchsmöglichkeiten der Nanotechnologie eine Chance haben, und, wenn ja, ob sie nicht eher das 22. als das 21. Jahrhundert beschreiben, mag dahingestellt bleiben. Wenn sich Drexler auch in seinem prophetischen Großmut herzlich wenig um die Schwierigkeiten schert, die wir heute noch bei der Entschlüsselung der Konstruktionsgeheimnisse der Nanomaschinen der Zelle haben, und sich von Kritikern vorhalten lassen muß, daß seine Assembler mit den Grundregeln der Thermodynamik in Konflikt geraten (siehe unten), so ist doch seine Richtungsangabe vermutlich richtig. Die Technik wird im Zuge der fortschreitenden Miniaturisierung irgendwann, und sei es erst in hundert Jahren bis zu dem molekularen Maßstab vordringen und das wird erhebliche Umwälzungen zur Folge haben. Und darüber sollte man sich lieber jetzt als zu spät Gedanken machen.

 

Exkurs: Nahfeldsonden als Analyse- und Synthese-Werkzeuge

Wer mit dem Kopf durch die Wand will, hat normalerweise in unserer makroskopischen Welt keine Chance. Eine Wand bleibt eine Wand, und wer das nicht glaubt holt sich nur Beulen. Das ist in der Quantenmechanik, deren Gesetze vor allem das Verhalten der Bausteine der Atome beschreiben, etwas anders. Betrachten wir etwa eine Barriere, die ein Elektron nach den Gesetzen der Newtonschen Physik nicht überwinden könnte, so sagt uns die Quantenmechanik, daß wir mit einer gewissen Wahrscheinlichkeit erwarten können, das Teilchen jenseits der Mauer wiederzufinden. Physiker nennen dieses Phänomen (das sich anhand der Wellen-Natur der Elementarteilchen schlüssig erklären läßt) den Tunneleffekt<$ITunneleffekt>.

Genau auf diesem Effekt beruhte eine völlig neuartige Untersuchungstechnik, die Gerd Binnig und Heinrich Rohrer am IBM-Forschungslaboratorium in Zürich entwickelten und 1979 zum Patent anmeldeten. Die Mauer, die eine Elektron normalerweise nicht, manchmal aber eben doch durchdringen kann, ist in diesem Fall der leere Raum zwischen der zu untersuchenden Oberfläche und der Sonde, deren Spitze idealerweise nur ein Atom dick ist. In der zweiten Schicht kann die Spitze durchaus mehrere Atome enthalten. Da die Tunnelwahrscheinlichkeit sich mit Zunahme der Entfernung um 0.1 Nanometer um den Faktor 10 verringert, spielt diese Schicht praktisch keine Rolle mehr. Mit einer Spitze, deren äußerstes Ende nur aus einem Atom besteht, und die in einem Abstand von wenigen Atomdurchmessern über dem Untersuchungsobjekt gehalten wird (wobei der Abstand mit Hilfe des gemessenen Tunnelstroms nachreguliert werden kann), kann man nun die Oberfläche, ohne sie wirklich zu berühren, abtasten, und ihre Höhen und Tiefen mit atomarer Auflösung ausloten.

Das Rasterkraftmikroskop ist eine 1986 von Gerd Binnig mit C.F. Quate und C. Gerber vorgestellte Variante des Tunnelmikroskops, bei der die Sonde die Oberfläche tatsächlich berührt und in ihrer Höhenauslenkung durch die gemessene Kraft gesteuert wird. Seitdem sind in Analogie zu AFM und STM weitere Rastermikroskopie-Verfahren entwickelt worden, die etwa magnetische Wechselwirkungen oder Ionenleitfähigkeit als Signal benutzen.

Sowohl die Tunnel- als auch die Kraft-Mikroskopie werden seit Anfang der neunziger Jahre immer öfter zur Untersuchung biologischer Moleküle herangezogen. Waren die Forscher in den ersten Jahren schon begeistert, wenn sie einzelne große Biomoleküle, etwa DNA-Doppelstränge<$IDNA> mit der neuen Technik "sehen" konnten -- andere Methoden zur Strukturuntersuchung liefern ja in aller Regel Bilder, die über viele Moleküle gemittelt sind -- so interessiert man sich neuerdings auch schon für die Möglichkeit, mit den Nahfeldsonden, einzelne Moleküle in Aktion beobachten zu können. So hat eine Arbeitsgruppe an der Universität von Kalifornien in Santa Barbara an eine Oberfläche gekoppelte Moleküle des Enzyms<$IEnzym> Lysozym<$ILysozym> mit Substrat beschickt und die Enzym-Moleküle dann mit dem Kraft-Mikroskop im wahrsten Sinne des Wortes "abgeklopft". Die Wissenschaftler entdeckten Höhenfluktuationen von etwa einem Nanometer, die bis zu 50 Millisekunden andauerten und interpretierten diese als Konformationswechsel, die mit der enzymatischen Aktivität zusammenhängen.

Das Rasterkraftmikroskop fand, auch dank des schon etablierten Tunnelmikroskops, sofort nach seiner Erfindung Anerkennung und wurde schon bald zum Bewegen von Atomen und Molekülen benutzt, was dann 1990 in dem aus 35 Xenon-Atomen bestehenden IBM-Logo gipfelte.

 

 

 

Maxwells Dämon als Vorreiter der Nanotechnologie: Kritik an Drexlers Konzept

James Clerk Maxwell<$IMaxwell, J.C.> gab den Vertretern des jungen Wissenschaftszweigs der Thermodynamik<$IThermodynamik> (der Lehre der Energieumwandlungen) im Jahre 1871 ein Rätsel auf, das mehr als 50 Jahre lang ungelöst blieb. Er entwarf ein Gedankenexperiment, das dem zweiten Hauptsatz der Thermodynamik, den Rudolf Clausius<$IClausius, R.> nur sechs Jahre zuvor erstmals formuliert hatte, zu widersprechen schien.

Der zweite Hauptsatz besagt, daß die im Universum (oder in jedem anderen abgeschlossenen System) herrschende Unordnung, die unter dem Namen "Entropie"<$IEntropie> eine Schlüsselstellung im mathematischen Formalismus der Thermodynamik innehat, niemals abnehmen kann. Das bedeutet zum Beispiel, daß sich in zwei miteinander verbundenen Gas-Gefäßen nach einiger Zeit derselbe Druck und dieselbe Temperatur einstellt. Niemals könnte sich ohne Energiezufuhr von außen das eine Gefäß erwärmen während sich das andere abkühlt. Und niemals könnten sich in dem einen Gefäß mehr Moleküle anreichern, sodaß der Druck darin höher ist als in dem anderen.

Ebensowenig könnte man, obwohl beim Abbremsen eines Autos die Bewegungsenergie in Reibungswärme verwandelt wird, das Auto wieder in Bewegung bringen, indem man die Reifen erwärmt. Die Zunahme der Entropie ist die einzige physikalische Grundlage, die uns erlaubt die Richtung der Zeit zu definieren.

Maxwells Gedankenexperiment, das dem zweiten Hauptsatz zu widersprechen schien und ein halbes Jahrhundert lang Verwirrung stiftete, ging von zwei miteinander verbundenen, gasgefüllten Gefäßen aus, an deren Verbindungsstelle ein kleines Wesen, Maxwells Dämon, sitzt, das den Durchgang nur für bestimmte Moleküle und/oder in einer bestimmten Richtung freigibt. Wenn Maxwells Dämon etwa nur schnell fliegende (energiereiche) Moleküle von A nach B, und nur energiearme Moleküle von B nach A passieren ließe, würde sich Gefäß B auf Kosten von A erwärmen. Wenn der Dämon den Durchgang ausschließlich in der Richtung von A nach B gestattete, würde der Gasdruck in B höher sein als in A (Abb. 30).

Der zweite Hauptsatz der Thermodynamik ist ein Naturgesetz, und natürlich ist es niemandem gelungen, eine Vorrichtung zu konstruieren, welche die Funktion des Maxwellschen Dämons erfüllen und damit die Thermodynamik austricksen könnte. Doch warum ein solch dämonischer Trick nicht funktionieren kann, begann man erst zu ahnen, als man mit dem Aufkommen der modernen Informationswissenschaft Information als negative Entropie zu verstehen begann. Leo Szilard<$ISzilard, L.> wies im Jahre 1929 darauf hin, daß der Dämon Informationen über die Moleküle sammeln müßte. Später identifizierte man dann den Schlüsselschritt: Wenn der Dämon kontinuierlich arbeiten soll und einen endlichen Speicherplatz hat, muß er die gesammelten Daten irgendwann löschen -- und damit erhöht er die Entropie des Universums.

Und was hat das alles mit Nanotechnologie<$INanotechnologie> zu tun? Sehr viel, meint David E.H. Jones von der Universität Newcastle upon Tyne. In einem Beitrag für das Wissenschaftsmagazin Nature schreibt er, der Maxwellsche Dämon sei der allererste Nanotechnologe gewesen. Ebenso wie Maxwells Dämon nämlich müßten die Drexlerschen Assembler<$IAssembler> Informationen über die zu bewegenden Atome gewinnen, speichern und auch wieder löschen. Wenn Assembler Atome und Moleküle ordnen, müssen sie zum Ausgleich Unordnung erzeugen, da die Unordnung des Universums nur zunehmen kann. Die "Entsorgung" dieser überschüssigen Entropie ist jedoch in Drexlers Konzept nicht vorgesehen. Jones weist darauf hin, daß die besten heute verfügbaren Computer<$IComputer> billionenfach mehr Entropie erzeugen, als aufgrund der bearbeiteten Informationsmenge nötig wäre. Nanotechnologen müssen sich etwas einfallen lassen, damit die beim Assemblieren anfallende Entropie ihnen die mühsam zusammengebauten Nanosysteme nicht gleich wieder auseinanderreißt.

Auch mit Drexlers großzügigem Umgang mit der Chemie geht Jones hart ins Gericht. Er weist darauf hin, daß die IBM-Wissenschaftler nicht zufällig Atome des äußerst reaktionsträgen Edelgases Xenon<$IXenon> für ihr nanometergroßes Firmenlogo benutzten. "Normale" Atome lassen sich nicht so leicht manipulieren und schon gar nicht beliebig anordnen. Sie haben ihre besonderen Vorlieben, die man auch dann berücksichtigen müssen wird, wenn man über Greifwerkzeuge verfügt, um sie einzeln zu fassen und zusammenzustellen.

Das alles muß natürlich nicht heißen, daß Nanotechnologie völlig unmöglich ist. Allerdings könnte die Handhabung einzelner Atome und die "Neuschaffung der Welt, Atom für Atom", wie sie Drexler-Fan Ed Regis in einem Buchtitel verheißt, sich in der Realität als schwieriger erweisen, als sich K.E. Drexler das in seinem Propheten-Eifer ausgemalt hat. Realistischer erscheint wohl die Perspektive, bei der Entwicklung der Nanotechnologie bevorzugt auf Moleküle<$IMolekül>, Selbstorganisation<$ISelbstorganisation> und schwache Wechselwirkungen<$IWechselwirkungen, schwache> zurückzugreifen. Also auf dieselben Grundlagen, auf denen die Natur seit drei Milliarden Jahren erfolgreich Nanotechnologie betreibt.

 

3. Nanotechnologie heute und morgen

 

Zurück in die Gegenwart: Wieviel Nanotechnologie ist heute (1995) realisierbar?

Was ist in den fünf Jahren seit der ersten erfolgreichen Positionierung von ein paar Dutzend Atomen geschehen; wo stehen wir heute?

Nanotechnologie<$INanotechnologie> beginnt sich als Forschungsgebiet zu etablieren. Es werden Institute gegründet und Forschungsprogramme gestartet, die den Begriff im Namen tragen, etwa die "National Nanofabrication Facility" in den USA, Nanotech-Zentren in Japan, das "Nanotechnology Link Programme" in Großbritannien. In der Bundesrepublik gibt es immerhin einen Lehrstuhl für Nanoelektronik an der Ruhr-Universität Bochum.

Von einem organisierten internationalen Forschungsprogramm in der Größenordnung des "Human Genome Project", der Raumfahrtprogramme oder der Teilchenbeschleuniger ist die Wissenschaft der kleinsten Dimension jedoch noch weit entfernt. Und das, obwohl sich Investitionen in diesem Gebiet auf Dauer als lohnender erweisen könnten als jene in den herkömmlichen Abteilungen der "Big Science".

Auch in wissenschaftlicher Hinsicht handelt es sich um ein Forschungsgebiet "in Gründung". Einige günstige Voraussetzungen sind geschaffen. Es müssen aber noch neue Methoden entwickelt werden, insbesondere synthetische, da die Synthese zur Zeit nicht mit der bis in den atomaren Maßstab entwickelten Analytik mithalten kann. Von mehreren hundert Proteinen sind die Strukturen in atomarer Auflösung bekannt, doch die Versuche, künstliche Moleküle mit nur annähernd der Komplexität und Leistungsfähigkeit von Proteinen<$IProtein> zu konstruieren, nehmen sich noch recht unbeholfen aus.

Mehr Informations- und Kommunikationsarbeit ist noch vonnöten, um die Forscher der angrenzenden Disziplinen in das neue Gebiet einzubinden. Proteinbiochemiker und Materialwissenschaftler, Halbleiterphysiker und Biotechniker, organische Chemiker und Biophysiker kommunizieren normalerweise nicht miteinander über die Fachbereichsgrenzen hinweg. Doch bei der Entwicklung der Nanotechnologie werden alle diese und noch mehr Fachleute aus verschiedenen Disziplinen zusammenarbeiten müssen. Das ferne Ziel der Nanotechnologie kann "von oben" -- d.h. durch weitere Miniaturisierung der Mikrofabrikationstechniken -- oder "von unten" -- d.h. durch Aufbau von Nanostrukturen durch chemische Synthese und selbstassemblierende Systeme -- angesteuert werden, doch erfolgreich werden diese Ansätze nur sein, wenn sie voneinander wissen und aufeinander zuarbeiten, nicht aneinander vorbei.

Die Wissenschaftler werden außerdem -- ausgehend von dem überwiegend analytischen Methodenrepertoire ihrer Disziplinen -- völlig neue synthetische Methoden entwickeln müssen, die dann das Fundament einer neuen Technologie bilden werden. Bevor diese jedoch zu marktreifen Produkten führt, werden wohl noch einige Jahre vergehen.

 

Nanotechnologie "von oben": Von der Mikroelektronik zur Nanoelektronik

Nirgendwo wird der Vorstoß in Richtung einer Fertigung im Nanomaßstab so vehement vorangetrieben wie in der Halbleiter-Technik, bei der Entwicklung immer leistungsfähigerer Mikrochips<$IMikrochip>. Die kleinsten Strukturen auf den modernsten heute käuflichen Speicherchips messen ca. 350 Nanometer. In den Forschungslabors der Chiphersteller gibt es bereits Gigabit-Chips, mit Transistoren, deren aktive Bereiche zwischen 100 und 200 Nanometer weit sein sollen. Doch die Massenfertigung solcher Chips, für Anfang des nächsten Jahrzehnts angestrebt, könnte zum ernsten Problem werden. Die herkömmliche Methode der Photo-Lithographie<$IPhoto-Lithographie>, bei der das auf einer Schablone in größerem Maßstab vorgegebene Muster durch gebündeltes Licht verkleinert und auf das Halbleitermaterial übertragen wird, stößt in diesem Größenbereich auf eine Grenze. Sichtbares Licht kann aufgrund seines Wellenlängenbereichs (400-800 Nanometer) nicht mehr verwendet werden, und mit dem kurzwelligeren Ultraviolettlicht gibt es technische Schwierigkeiten. Als (umstrittene) Alternative wird die Verwendung von Röntgenstrahlen in Erwägung gezogen. Deren Nachteil ist allerdings, daß sie sich nicht so leicht fokussieren lassen wie sichtbares oder ultraviolettes Licht.

Gelingt es, dieses Fertigungsproblem zu überwinden, so steht einer nochmaligen Verkleinerung der heutigen Schaltelemente eines Mikrochips um den Faktor 10 nicht viel im Wege. Erst unterhalb von 30 Nanometer würde der Tunneleffekt<$ITunneleffekt> (siehe oben), d.h. das zufällige Überspringen von Elektronen, die Schaltelemente unbrauchbar machen. Und ein "einfacher", mit 30 Nanometer Auflösung gezeichneter Chip brauchte dann vielleicht nicht viel größer als ein Bakterium zu sein und könnte zu der von Drexler prophezeiten Entwicklung von "Nanocomputern" wie auch zu den oben erwähnten Blutbahn-Robotern beitragen.

Auf jeden Fall ist die Computerindustrie -- und die große Nachfrage nach Computern<$IComputer> -- heute immer noch die treibende Kraft bei der fortschreitenden Miniaturisierung und das wird sie wohl noch einige Zeit bleiben.

 

Nanotechnologie "von unten": Selbstorganisation auf dem Vormarsch

Schwache Wechselwirkungen und Selbstorganisation<$ISelbstorganisation> ermöglichen den Aufbau komplexer Systeme aus kleinen Bausteinen. Obwohl viele Chemiker Mühe haben, zuzugeben, daß kovalente Bindungen nicht alles im Leben sind, sind die oft verspielt wirkenden Baukasten-Konstruktionen<$IBaukasten-Prinzip> der supramolekularen Chemiker eindeutig im Kommen. Ob Reza Ghadiri Peptidringe<$IPeptid> zu funktionierenden Ionenkanälen<$IIonenkanal> aufstapelt (siehe III.1.), Jean-Marie Lehn<$ILehn, J.M.> neue Rekorde in der Anzahl der verschiedenen Bausteine einer künstlichen Assembly-Mischung aufstellt, oder Fraser Stoddart die molekulare Eisenbahn auf einem molekularen Ring mit Start- und Stop-Signalen fahren läßt -- immer erkennt man, daß die selbstassemblierenden Strukturen das Potential für komplexe Funktionen in sich tragen und für die Nanoroboter der Zukunft interessante Komponenten bereithalten. Und wenn Nadrian Seeman komplizierte poröse Strukturen aus maßgeschneiderten DNA-Molekülen aufbaut (siehe III.1.), wird deutlich, daß auch die Materialwissenschaft in Zukunft auf Selbst-Assembly und auf das eine oder andere biologische oder biologisch inspirierte Makromolekül nicht mehr verzichten kann.

 

Von der Werkstoffkunde zu "Advanced Materials"

Angehende Ingenieurinnen und Ingenieure werden in den ersten Semestern mit einem Fach namens "Werkstoffkunde" traktiert, das offenbar vor allem dazu geeignet ist, die Studierenden einzuschläfern. Sie müssen in den mikroskopisch kleinen Körnchen eines Stahls den Martensit von Austenit und Perlit unterscheiden, sich mit Elasten, Duroplasten und Thermoplasten herumschlagen, den Weg durch die Zustandsdiagramme eutektischer und peritektischer Gemische finden, und dieses gesammelte Archivwissen bei der nächsten Prüfung herunterrasseln können.

Die sehr viel interessantere und zeitgemäßere Beschäftigung mit neuartigen Werkstoffen, deren Strukturen eher im Nanometer- als im Mikrometermaßstab charakterisiert und manipuliert werden, ist von jener Werkstoffkunde so verschieden, daß man oft auf angelsächsische Begriffe wie Materials Science oder Advanced Materials zurückgreift. Letzteres ist auch der Name einer neuen Zeitschrift, die im Juli 1988 aus der hochangesehenen hundertjährigen Angewandten Chemie ausknospte und sich auf Anhieb etablieren konnte.

Die neue Materialwissenschaft befaßt sich mit Langmuir-Blodgett-Filmen (siehe III.2.), mit Polymer-Konstrukten, die biologische Membranen oder Proteine nachahmen, mit Beschichtungsverfahren, die der Biomineralisation abgeschaut sind, Sol-Gel-Übergängen, Aerogelen, und vielem mehr. Sie ist in hohem Maße interdisziplinär insofern, als sie biologische Vorbilder, chemische Synthese und physikalische Analytik miteinbezieht.

Anwendungsbezogene Forschungsinstitute wie das Saarbrücker Institut für neue Materialien entwickeln bereits Nano-Beschichtungen für Alltagszwecke -- vom Korrosionsschutz bis zur nicht verschmutzenden Fensterscheibe. Wenn diese Anwendungen auch nicht direkt der Nanotechnologie im Drexlerschen Sinne zuzurechnen sind, werden sie doch für viele VerbraucherInnen den ersten Kontakt mit einem Produkt, dessen Aufbau im Nanometermaßstab manipuliert wurde, bedeuten.

 

Abschied von Fließband und Fabrik?

Nein, das Szenario der "Desert Rose Industries" aus "Experiment Zukunft", wo ein Ehepaar (wie altmodisch!) per molekularer Fertigung die Großproduktion von Möbeln, Computern, Spielzeug und Freizeitausrüstung ohne weitere menschliche Arbeitskräfte betreiben, und im Notfall innerhalb von Stunden auf die Produktion von selbstassemblierenden Komfort-Fertighäusern für Erdbebenopfer umstellen kann, dieses Szenario ist wohl eindeutig der Sparte Science-fiction zuzuordnen. Ganz abgesehen davon, daß diejenigen Erdenbürger, die zufällig keine selbsttätige Nano-Fabrik besitzen, in Drexlers schöner neuer Welt offenbar arbeitslos sein müssen, gibt es in der gegenwärtigen Wissenschaft und Technik nichts, was eine derart radikale Änderung der Produktionsweise für die nähere Zukunft erwarten läßt. Bisweilen ist von molekularer Fertigung wahrhaftig noch nichts zu bemerken.

Ein Trend in Richtung nano, der sich in der Analysetechnik bemerkbar macht, könnte jedoch auch auf die Produktion übergreifen. Trenn-Techniken, die bisher sperrige Gerätschaften benötigten, können auch platzsparend auf einem Mikrochip<$IMikrochip> untergebracht werden. Chromatographische Säulen können etwa durch wenige Mikrometer weite Rillen im Chip ersetzt werden, und auch die zur Trennung von Biomolekülen verwendete Kapillar-Elektrophorese und die der Vervielfältigung von DNA-Strängen<$IDNA> dienende Polymerase-Kettenreaktion<$IPolymerase-Kettenreaktion> (PCR) können auf Mikrochip-Format verkleinert werden. Prototypen dieser Geräte, in denen die Kern-Elemente auf Chip-Format geschrumpft sind, haben bereits im Labor funktioniert. Um die Mikro-Laboratorien marktreif zu machen, muß man auch noch die Hilfsgeräte, z.B. die für chromatographische Verfahren benötigten Pumpen, miniaturisieren.

Wenn diese Mikrolabors letztendlich dazu führen, daß Geräte zur DNA-Sequenzierung oder Analyse von Spurenelementen im Westentaschenformat preiswert zu erhalten sind, würde dies durchaus erhebliche Auswirkungen, z.B. in den Bereichen Medizin und Umweltschutz haben. Und wer weiß, vielleicht könnte die Synthese gefährlicher Chemikalien auch demnächst auf vielen kleinen Chips statt in einem großen Reaktor stattfinden. Wenn nicht als Nano-, dann zumindest als Mikro-Technologie.

 

Nanotechnologie -- die nächste industrielle Revolution?

Deterministisches Chaos<$IChaos>, so hat die Wissenschaft und die staunende Öffentlichkeit in den vergangenen Jahren gelernt, ist dafür verantwortlich, daß auch mit perfekten Meßgeräten, flächendeckend über den Globus verteilt, das Wetter nicht für länger als drei oder vier Tage vorhersagbar ist. Der Determinismus der Newtonschon Physik, in der man aus einem Satz von Orts- und Bewegungsdaten die Veränderungen für jeden beliebigen Zeitpunkt in der Zukunft oder der Vergangenheit berechnen kann, gilt streng genommen nur für Zwei-Körper-Systeme. Die Anwesenheit eines dritten Objekts kann schon das Chaos bringen, es kann bewirken, daß kleine Unterschiede in den Anfangsbedingungen sich zu riesigen Differenzen im Fortgang der Handlung aufschaukeln.

Noch in sehr viel größerem Ausmaß hängt natürlich der Fortgang der Weltgeschichte von den Abermilliarden kleinen Zufällen ab. Ein einzelner Psychopath -- und jedem fallen spontan drei Beispiele ein -- kann das Weltgeschehen für Jahrzehnte in Chaos und Zerstörung stürzen.

Demnach ist es nicht verwunderlich, daß Vorhersagen über zukünftige wissenschaftliche und technologische Entwicklungen (und deren gesellschaftliche Auswirkungen) in Wissenschaftlerkreisen keinen guten Ruf genießen. Erstens kommt es sowieso anders als man denkt, und zweitens ist die Liste der Fehlprognosen erschreckend. Vorhergesagt wurden zwar Flugzeuge, Dampfschiffe, Unterseeboote, Autos, Telephone, Roboter, aber auch Levitation, Beobachtung von Vergangenheit und Zukunft, und Kommunikation mit den Toten. Unangemeldet erschienen hingegen Röntgenstrahlen, Atomkraft, Radio, Fernsehen, Photographie, Laser, Supraleiter, Supraflüssigkeiten und Atomuhren. Unzählige Zitate angesehener Physiker belegen, daß man gegen Anfang unseres Jahrhunderts die Physik für ein nahezu abgeschlossenes Forschungsgebiet hielt, in dem nur noch die Naturkonstanten in der zehnten Dezimalstelle ein wenig korrigiert werden müßten. Niemand hat vorhergesagt, daß die Quantenmechanik nur wenig später das Weltbild der Physik völlig umkrempeln würde.

Um ein neueres Beispiel aus erster Hand zu bringen: Auf der IUPAC-Konferenz über Physikalische Organische Chemie, die im August 1988 in Regensburg stattfand, wurde auch über merkwürdige Moleküle berichtet, die in den Tiefen des Weltraums vorhanden waren und nur spektroskopisch nachgewiesen werden konnten. Man vermutete, daß diese Moleküle aus einer fußballförmigen Anordnung von jeweils 60 Kohlenstoff-Atomen bestünden und nannte sie nach dem ebenso geformten "geodätischen Dom" von Richard Buckminster Fuller "Buckminsterfullerene"<$IFulleren>. Hätte einer der Zuhörer in die Zukunft sehen können und bekanntgegeben, daß man die exotischen Moleküle fünf Jahre später in beliebigen Mengen in Flaschen kaufen könnte -- der Hellseher wäre wohl Gefahr gelaufen, sich auf der gegenüberliegenden Seite der Universitätsstraße im Bezirkskrankenhaus wiederzufinden. Niemand konnte voraussehen, daß die Heidelberger Arbeitsgruppe um Wolfgang Krätschmer im Mai 1990 ein Verfahren entdecken würde, daß die Synthese von "Buckyballs" im Großmaßstab zum Kinderspiel und die Fullerenchemie zur Goldgrube werden ließ. Noch viel weniger konnte man ahnen, daß mit Metall-Ionen "dotierte" Fullerene auf dem Gebiet der Supraleitung alle Rekorde brechen würden.

Auch die Geschwindigkeit der zukünftigen Entwicklung ist kaum abzuschätzen -- selbst wenn man die Richtung erkannt hat. H.G. Wells<$IWells, H.G.>, der mit einer Reihe von qualitativen Prognosen absolut richtig lag, schrieb im Jahre 1901, noch vor dem Jahr 2000, vielleicht sogar vor 1950 werde es Flugzeuge geben. Qualitativ richtig, quantitativ um den Faktor 25 falsch.

Angenommen, die technische Seite der prognostizierten Entwicklung der Nanotechnologie ist wenigstens qualitativ korrekt, und es kommt in fünfzig oder hundert oder zweihundert Jahren dazu, daß Werkstoffe Atom für Atom konstruiert werden können; angenommen die friedliche Nutzung der Nanotechnologie<$INanotechnologie> floriert und militärischer Mißbrauch wird wirkungsvoll unterdrückt; angenommen die Erde wird nicht, wie ein anderer Autor vorschlug, von einem intergalaktischen Straßenbaukommando gesprengt -- können wir heute die Auswirkungen abschätzen, die eine "nanotechnologische Revolution" auf die Alltagstechnik und die Gesellschaft haben wird? So nützlich auch Drexlers Szenarien als Phantasiebeflügler sein mögen, wenn es um die Frage geht, wie die Zukunft aussehen könnte, so wenig erlauben sie uns eine umfassende Prognose, wie es tatsächlich kommen wird -- das verhindert schon die Chaos-Theorie.

Einige der Teil-Prognosen sind relativ gesichert. Energie brauchte zum Beispiel kein knappes Gut zu sein, wenn wir die technischen Voraussetzungen hätten, um die Sonnenenergie wirkungsvoll zu nutzen. Die Entwicklung einer umweltfreundlichen globalen Energieversorgung auf Solarbasis allein wäre schon eine revolutionäre Auswirkung der neuen Technologie, und eine, deren Vorteil wohl auf ungeteilten Beifall stoßen würde.

Anders sieht es mit den von Drexler prognostizierten Umwälzungen im Produktionsbereich aus. Im Spannungsfeld zwischen Wissenschaft, Wirtschaft und Politik lassen sich kaum zuverlässige Prognosen stellen, und jede technologische Revolution stellt gleichzeitig ein Konfliktpotential und gesellschaftlichen Zündstoff dar.

Vermutlich wird es -- sobald die neue Technik traditionelle Arbeitsplätze gefährdet -- zu sozialen Spannungen und politischem Dissens kommen. Heutige Entwicklungsländer könnten mit der neuen Technologie zu Weltmächten werden. Die Störung politischer Gleichgewichte sowohl auf globaler wie auch auf nationaler und regionaler Ebene kann einerseits zu Katastrophen, andererseits aber auch zu positiven Neuerungen führen. Aber vorhersagen läßt sich das nicht. Völlig unvorhersehbar ist auch, wie erfolgreich sich die neuartigen Produkte im Markt durchsetzen können, etwa in Konkurrenz zu ähnlich leistungsfähigen biotechnischen Produkten, oder im Vergleich mit den Produkten einer anderen Technologieform, von deren Möglichkeit wir heute noch ebensowenig ahnen, wie vergangene Generationen etwa die Entdeckung der Supraleitung vorhersehen konnten.

Professionelle Vorhersage-Experten sind aus allen diesen Gründen gewöhnlich sehr zurückhaltend. So beinhaltet eine von der britischen Regierung in Auftrag gegebene und im Frühjahr 1995 veröffentlichte Serie von Studien, welche die Forschungsziele und Entwicklungen in 15 Bereichen -- von der Landwirtschaft bis zur Computerwissenschaft -- bis zum Jahr 2010 erahnen sollen, im wesentlichen eine sehr vorsichtige Fortschreibung der Gegenwart. Bankgeschäfte vom Heimcomputer aus, Einkaufsbummel in Virtual Reality, das persönliche Schadstoffmeßgerät für die Westentasche, oder genmanipulierte Bäume, die Holz mit erwünschten Eigenschaften liefern, all das ist mit heutiger Technik prinzipiell machbar und wird vermutlich nicht noch 15 Jahre auf sich warten lassen.

Revolutionen sind in diesen (wie auch in früheren) Berichten einfach nicht vorgesehen. In dem Punkt ist K.E. Drexler sicherlich eher zu glauben -- Revolutionen werden stattfinden. Vielleicht nicht so, wie er sie sich ausmalt, vielleicht früher oder später oder in einer ganz anderen Richtung, aber Technologie und Alltagsleben werden sich auch in Zukunft ändern, so wie sie sich in der jüngsten Vergangenheit durch die Verbreitung von Autos, Flugzeugen, Computern etc. verändert haben.

Doch auch wenn die nanotechnologische Revolution im Alltagsleben noch auf sich warten läßt, und noch einige Generationen ihre Wände von Hand streichen müssen -- es wäre uns schon viel geholfen, wenn es gelänge, molekulare Motoren mit der Effizienz unserer Muskel-Moleküle<$IMuskel>, Datenspeicher mit der Kapazität der DNA<$IDNA>, und ein Verfahren zur Stickstoff-Reduktion bei Normaldruck und Zimmertemperatur zu finden. Denn das, so hat uns die Natur gelehrt, ist machbar.

 

 

Order Travels to the Nanoworld from:

amazon.com

amazon.de

amazon.co.uk

amazon.fr

 

 

contact

prose and passion

last update:

12.01.2005

1