TNT light

Themen aus Naturwissenschaft und Technik
Ausgabe 2005

Inhalt


DER NOBELPREIS

Jedes Jahr am 10. Dezember, dem Todestag von Alfred Nobel, werden in Stockholm die Nobelpreisträger geehrt. Einzig der Friedensnobelpreis wird in Oslo verliehen. Der schwedische Erfinder und Industrielle entwickelte den Sprengstoff Dynamit und gelang damit zu einem erheblichen Reichtum. Während seines Lebens brachte er zu nicht weniger als 355 Patenten. Da er 1896 kinderlos verstarb, vermachte er sein gesamtes Vermögen einer Stiftung, die aus den Zinserträgen die jährlichen Nobelpreise auslobt.
Die Verleihung erfolgt in den Gebieten Chemie, Physik, Physiologie bzw. Medizin, Literatur und der Friedensnobelpreis. 1969 stiftete die schwedische Reichsbank den Preis für ökonomische Wissenschaften in Erinnerung an Alfred Nobel. Ausgezeichnet werden jeweils die Wissenschaftler deren Erkenntnisse des vergangenen Jahres den grössten Fortschritt für die Menschheit erbracht haben.
Die Preisträger werden auf der Basis der eingereichten Nominierungen und der Empfehlungen des Nobelpreiskomitees, die aber nicht berücksichtigt werden müssen, von unterschiedlichen Gremien gewählt:

  • Physik und Chemie von der königlich-schwedischen Akademie der Wissenschaften
  • Medizin durch das Nobelkomitee des Karolinska Institus in Stockholm
  • Friedensnobelpreis durch ein fünfköpfiges Komitee des Norwegischen Parlaments
  • Literatur von der Schwedischen Akademie
  • Wirtschaftswissenschaften ebenfalls von der königlich-schwedischen Akademie der Wissenschaften.

Alle Preisträger erhalten vom schwedischen König eine Urkunde, eine Goldmedaille und einen Geldbetrag, der vom Jahreszinsertrag der Nobelstiftung abhängt. Bei der ersten Verleihung im Jahre 1901 betrug die Summe 150.800 Kronen und steigerte sich von umgerechnet 220.000 DM im Jahr 1970 bis ca. 1,1 Mio Büro (ca. 10 Millionen Kronen) in 2004.

Zu einem immer grösser werdenden Problem ist Nobels Auflage, den Preis an maximal drei Wissenschaftler zu vergeben, da heutzutage die Erkenntnisse meistens in mehreren Teams, die über den Globus verstreut sind, erarbeitet werden.

Bisher haben lediglich vier Personen den Nobelpreis mehrmals erhalten: Marie Curie (1903 für Physik und 1911 für Chemie), Linus Pauling (1954 für Chemie und 1962 für Frieden), John Bardeen (1956 und 1972 jeweils für Physik) und Frederik Sanger (1958 und 1980 jeweils für Chemie).

Der "fehlende" Nobelpreis in Mathematik wird auf einen nicht dokumentierten Streit zwischen Alfred Nobel und dem Mathematiker Gösta Mittag-Leffler zurück geführt.

Neben dem "echten" Nobelpreis wird noch der alternative Nobelpreis sowie der satirische Nobelpreis verliehen.
Der alternative Nobelpreis, im englisch-sprachigen Raum bekannt als Right Livelihood Award (RLA) wurde 1980 von Jakob von Uexhüll gestiftet. Uexhüll, ein begeisterter Philatelist, stiftete den Preis aus einer wertvollen Briefmarkensammlung. Der mit 200.000 Euro dotierte Preis wird an Personen, Organisationen und Repräsentanten von Bewegungen vergeben, die sich mit praktischen Handlungsanweisungen und Modellen für menschenwürdige Lebensweisen einsetzen. Die Preisträger zeigten, wie man mit sehr wenig Mitteln große Widerstände überwinden kann.

Die satirischen Ig Nobelpreis (ig=ignoble, engl., bedeutet soviel wie niedrig, schändlich) sind satirische "Ehrungen" die im Vorfeld der Nobelpreisverleihungen von der Harvard-Universität in Cambridge für ungewöhnliche oder auch momentan nicht übermäßig bedeutsam erscheinende Forschungsergebnisse verliehen werden. Unter anderem wurde auch "Murphy's Law" mit dem "Anti-Nobelpreis" bedacht. Die Dankes-"rede" darf übrigens aus maximal 7 Worten bestehen.

Quellen und weitere Infos:
www.nobel.se
www.nobelpreis.org
www.wikipedia.org
www.rightlivelihood.se
www.improb.com/ig/ig-top.html

Michael Bauer

RASTERSONDENVERFAHREN - UNSER TOR ZUR NANOWELT

Die Auflösung optischer Mikroskope ist durch die Wellennatur des Lichts begrenzt. Das Beugungslimit liegt bei einer halben Wellenlänge, im sichtbaren Bereich also ca. 250nm. Um die Auflösung zu erhöhen, kann man Strahlung kürzerer Wellenlänge verwenden, was uns zum Elektronenmikroskop führt. Da bewegte Objekte als Materiewellen aufgefasst werden können, besitzen mit 20keV beschleunigte Elektronen eine Wellenlänge von 0,1nm, was äquivalent zu sehr harter Röntgenstrahlung ist. In der Praxis ist die Auflösung jedoch etwas schlechter, etwa 1nm. Außerdem können nur elektrisch leitende Proben gut abgebildet werden.
Ende der 80er Jahre wurde das Rasterkraftmikroskop (Atomic Force Microscope, AFM) entwickelt, mit dem auch nicht leitende Proben detaillierst untersucht werden können. Im Unterschied zum Elektronenmikroskop erhält man mit dem AFM ein dreidimensionales Bild, es lässt sich somit die Probentopographie untersuchen.

Wie funktioniert nun ein AFM? Kernstück eines AFMs ist der sog. Cantilever. Das ist ein wenige Millimeter langer Hebelarm, an dessen Ende sich eine meist pyramidenförmige Spitze befindet. Bei Annäherung der Spitze an die Probenoberfläche kommt es zu einer Wechselwirkung, was zu einer Verbiegung des Cantilevers führt. Diese Verbiegung wird delektiert und liefert somit ein Regelsignal. Ein Feedbackmechanismus sorgt dafür, dass die Distanz Probe- Spitze soweit verändert wird, bis das Regelsignal einen Sollwert erreicht. Auf diese Weise wird die Probe Zeile für Zeile abgerastert.
Die Veränderung der Distanz Probe- Cantilever erfolgt mittels piezoelektrischer Aktuatoren oder kurz "Piezos". Hierbei wird der inverse piezoelektrische Effekt ausgenutzt: Legt man an einen piezoelektrischen Kristall eine Spannung an, so ändert sich seine Länge (Der umgekehrte Effekt wird übrigens in modernen Feuerzeugen verwendet: Ein Piezokristall wird deformiert und liefert einen Spannungsstoß, und es entsteht ein Entladungsfunken).
Die Verbiegung des Cantilevers wird meist mit Hilfe einer Vier-Quadranten-Photodiode gemessen. Auf die Cantileverspitze wird ein Laserstrahl fokussiert, der zu der Photodiode reflektiert wird und den Kreuzungspunkt der vier Quadranten trifft. Bei Verbiegung des Cantilevers trifft der Laserstrahl nicht mehr exakt auf den Kreuzungspunkt, und die einzelnen Quadranten liefern nicht mehr das gleiche Signal. Vielmehr können jetzt Differenzsignale "top-bottom" bzw. "left-right" delektiert werden. Das top-bottom-Signal spiegelt die Topographie wider, das left-right hingegen eine seitliche Verbiegung, was durch Reibungskräfte verursacht wird.
Neben dem Contact-Mode", bei dem Probe und Cantilever in Kontakt sind und die Spitze die Probe wie eine Plattenspielernadel abfährt, gibt es noch den kontaktlose Arbeitsmodii. Hierbei wird in einer gewissen Höhe der Cantilever in Schwingungen versetzt. Bei Annäherung an die Probenoberfläche ändern sich Schwingungsfrequenz und Phase. Der Regelkreis hält diese Verschiebungen konstant, es werden also Ebenen konstanten Kraftgradienten delektiert. Ein Sonderfall der Rasterkraftmikroskopie stellt die Magnetokraftmikroskopie (Magnetic Force Microscopy, MFM) dar. Hierzu wird ein Cantilever mit magnetischem Material beschichtet, so dass die Cantileverauslenkung auf magnetische (und nicht elektrische) Kräfte zurückzuführen ist. Auf diese Weise lassen sich beispielsweise magnetische Domänen untersuchen.

Stefan Griesing

VOM WELTWEITEN DATENAUSTAUSCH

Alles begann im Jahre 1957, als die Sowjetunion den ersten künstlichen Satelliten in die Erdumlaufbahn schoss. Für die USA, die sich als die führende Nation in der Weltraumforschung betrachteten war dies fast schon ein Schock. Um wieder die wissenschaftliche Führungsposition zurück zu gewinnen, starteten die USA diverse Forschungsprojekte; unter anderem ARPA, die Advanced Research Projects Agency. Die ARPA beschäftigte sich mit Technologien im Bereich Kommunikation und Datenübertragung. In den nächsten 12 Jahren wurde intensiv an Computern und Computernetzen geforscht. Die Maus oder auch der Begriff "Hypertext" sind in jenen Jahren entstanden, ebenso wie diverse übertragungsprotokolle. Das Netz das man aufbauen wollte sollte gewisse Eigenschaften haben. Es sollte keine übergeordnete Kontrollinstanz (in Form eines Hauptcomputers) geben» im Gegenteil: jeder Knoten sollte ein "Eigenleben" führen. Das Netz sollte sich selbst organisieren, d.h. Daten sollten nicht bestimme, vorgegebene Wege nehmen, vielmehr sollte das Netz selbst die Wege aussuchen. Diese Forderungen sollten gewährleisten, dass das Netz nicht durch Ausfall einiger weniger Rechner total lahm gelegt werden konnte. Einen Namen hatte man schon für das Netz: ARPANET.
Am 30. August 1969 war es dann soweit: An der Universität von Kalifornien wird der erste ARPANET-Host angeschossen. Am 1. Oktober folgt am Stanford Research Institute der zweite Host. Die Rechner kommunizieren über die Telefonleitungen. Weitere Hosts in den USA folgen. 1971 sind es schon 15. In diesem Jahr stellt die Firma Intel den ersten Mikroprozessor vor. Ebenfalls ins Jahr 1971 fallt die Entwicklung des "File Transfer Protocol" kurz FTP welches sogar noch heute ein Standard bei der übertragung von Daten ist. Im März 1972 wir die erste Software zum verschicken von E-Mails freigegeben. Im Oktober findet in Washington DC die erste Konferenz über Kommunikation zwischen Computern statt. 1973 veröffentlicht ein Forscher einen Aufsatz, aus dem später das Ethernet hervorgehen wird.
Im Mai 1974 wird in einer Publikation zum ersten mal das "Transmission Control Protocol" TCP vorgestellt. Ebenfalls wird in diesem Aufsatz zum erstem mal ein Begriff verwandt, den wir heute alle kennen: das "Internet". Ebenfalls im Jahr 1974 werden erstmals Rechner außerhalb der USA ans ARPANET angeschossen. So z.B. in Norwegen und in England. 1977 sind bereits 111 Rechner weltweit vernetzt.
1981 stellt IBM den ersten PC vor und 1983 sind es bereits über 4000 Rechner, die ans ARP angeschossen sind. Im gleichen Jahr wird der so genannte "Domain Name Service" DNS vorgestellt. 1987 verschmelzen in den USA das ARPANET und das NSFNet (National Science Foundation Net). Der Begriff "Internet" entsteht. Das Internet hat 27.000 angeschlossene Rechner. Ein Jahr später wird der Internet Relay Chat, kurz IRC, vorgestellt. 1989 präsentiert Tim Berners-Lee dem CERN (European Council for Nuclear Research) das World Wide Web- Ein Jahr später hat er dann den Prototypen des WWW, welches auf seinen Entwicklungen HTML, URL und http basiert, fertig und 1991 wird WWW auf den zentralen Rechnern des CERN freigegeben. Ein Jahr vorher wurde übrigens ARPANET offiziell eingestellt. 1992 gibt es bereits 1136000 Internet-Hosts.
Das CERN gibt 1993 das WWW für die öffentlichkeit frei. Somit existiert das Internet in der uns heute bekannten Form. Im selben Jahr wird der erste graphische Internetbrowser Mosaic entwickelt. 1994 übersteigt die Zahl der privaten und kommerziellen Nutzer des Internets erstmals die Zahl der wissenschaftlichen Teilnehmer. Insgesamt sind über 3000000 Rechner ans Netz angeschlossen.
Das World Wide Web Consortium (W3C), welches Standards das Internet definiert, wird gegründet. 1995 löst WWW FTP als Service mit dem höchsten Datenaufkommen ab. 1996 sind bereits 16000000 Rechner ans Netz angeschlossen. Zwei Jahre später wird bereits die 2-millionste Domain registriert. 1999 sind laut Angaben der DENIC in Deutschland über eine Million Domains registriert. Im Jahr 2000 übersteigt das Netz die Zahl von einer Milliarde indizierbarer Webseiten.
2002 ist Google die bedeutendste Suchmaschine im Netz, welches ca. 2,5 Milliarden Seiten umfasst. Mittlerweile ist das Netz laut Google auf über 8 Milliarden Seiten angewachsen.

Angefangen hat es mit einem kleinen, von Wissenschaftlern und Militärs genutzten, Computernetzwerk, das unter der Vorgabe möglichst dezentral und somit unanfällig gegen den Ausfall einzelner Komponenten zu sein, entstand. Mittlerweile ist es das größte Medium der Welt geworden, das auch noch von fast jedermann genutzt werden kann.

Marco Schüle

DIE BöSEN STAMMZELLEN

Stammzellen. Dieses Wort hat sicher jeder schon einmal gehört, etwas darunter vorstellen kann man sich meistens nicht. Zwar hat man vielleicht schon durch die Presse erfahren, dass Stammzellforschung in Deutschland verboten ist, aber das war's dann auch schon. Zuerst einmal: es gibt unterschiedliche Arten an Stammzellen und die Forschung ist nicht grundsätzlich verboten.

Was sind also Stammzellen? Ganz einfach: Stammzellen, sind undifferenzierte und unspezialisierte Vorläuferzellen, die sich in verschiedene Zelltypen entwickeln können. Aus einer Stammzelle kann also eine Herzzelle werden, eine Hautzelle, eine Nervenzelle und so weiter. Wichtig hierfür sind bestimmte Eigenschaften der Zellen. Diese begrenzen die Fähigkeiten der Stammzellen.

Totipotenz: Es ist eine Differenzierung und jede Körperzelle möglich. Diese Zellen kommen jedoch nur in der Zygote (bis zum 8-Zell Stadium) vor.

Pluripotenz: Es ist eine Differenzierung in zahlreiche Körperzellen möglich, es kann aber kein neuer vollständiger Organismus mehr gebildet werden. Hier spricht man von den sogenannten embryonalen Stammzellen. Auch embryonale Keimzellen oder embryonale Karzinomzellen gehören in diese Kategorie.

Multipotenz: Die Fähigkeit, eine begrenzte Zahl anderer Gewebe zu bilden. Hier spricht man von gewebespezifischen Stammzellen. Diese findet man z.B. im Blut, im Gehirn und im Knochenmark.

Unterscheiden kann man also embryonale Stammzellen, die, wie er Name schon sagt, aus dem Embryo gewonnen werden und adulte Stammzellen. Diese kann man auch in den Geweben von Erwachsenen finden. Die Forschung an adulten Stammzellen ist in Deutschland nicht verboten, sie birgt auch weniger ethische Probleme.

Wie kann man jetzt adulte Stammzellen gewinnen und wozu braucht man sie? Gewinnen kann man sie auf völlig unterschiedlichen Wegen. Es kommt immer darauf an, welche Art von Stammzelle man untersuchen möchte. Einfache Arten sind z.B. die Gewinnung von Stammzellen aus Nabelschnurblut nach der Geburt, oder aus Speicheldrüsen. Diese Methode wurde erst kürzlich von Charly Kruse entwickelt, ist aber in Fachkreisen noch umstritten. Sollten sich aber hier die Hoffnungen erfüllen, so bietet diese Methode eine einfache Möglichkeit, aus einem nahezu unbegrenzten Reservoir Zellen zu extrahieren. Die Nutzung in der Medizin kann sich jeder vorstellen. Mit Hilfe von Stammzellen könnte es in einigen Jahren möglich sein, komplette Organe künstlich herzustellen. Hierzu können dann sogar Stammzellen des jeweiligen Patienten verwendet werden, so dass mögliche Abstoßungsreaktionen ausgeschlossen werden können. So ist man dann nicht mehr auf Organspenden angewiesen. Aber nicht nur Organe können gebildet werden, es können auch zahlreiche Krankheiten oder Lähmungen behandelt werden.

Die Stammzellforschung bietet zwar viele Möglichkeiten, trotzdem sollte man vorsichtig sein. Hier, ganz nach Frankenstein, ganze Körper als Organbanken herstellen zu wollen, sollte nicht das Ziel sein.

Susanne Kirsch

SUPRALEITUNG - ÜBERSICHT UND ANWENDUNGSMÖGLICHKEITEN

Bringt man unendlich viele oder etwas weniger Metallatome dicht genug beieinander, so ordnen sie sich in einem regelmäßigen Kristallgitter an. In diesem Kristallgitter sind dann nicht mehr alle Elektronen jedes Atoms fest an dieses gebunden, sondern die äußeren Elektronen können sich in dem Kristallionengitter praktisch frei bewegen, man spricht von einem Elektronengas. Bei Anlegen einer elektrischen Spannung werden die Elektronen durch das entsprechende elektrische Feld beschleunigt und diese bewegten Ladungen stellen einen elektrischen Strom dar. Würden sich die Metallionen nicht bewegen und wäre das Kristallgitter frei von Defekten, so könnte sich dieses Elektronengas widerstandsfrei darin bewegen. Jede Temperatur oberhalb des absoluten Temperaturnullpunkts von -273,16°C (bzw. Null Kelvin - die Kelvinskala [K] ist eine Celsiusskala, deren Nullpunkt auf den absoluten Temperaturnullpunkt verschoben wurde) entspricht aber einer Schwingung der Ionen um ihre Gleichgewichtslage. Die Elektronen können mit dieser Schwingung wechselwirken und Energie austauschen, was sich als elektrischer Widerstand bemerkbar macht. Weiterhin treten Defekte wie Leerstellen, Ionen auf Zwischengitterplätzen, Fremdatome oder großflächige Umordnungen wie Wachstumsgrenzen selbst in ideal hergestellten Kristallen von selbst auf, ganz einfach weil jedes physikalische System bestrebt ist, einen möglichst ungeordneten Zustand einzustellen, soweit das möglich ist. Diese Forderung nach maximaler Entropie ist aber nicht die einzige, die die Natur an das System stellt. Die Energie sollte bitte auch möglichst niedrig sein und das ist der Fall für die ideale regelmäßige Anordnung der Ionen - beide Bedingungen zusammen halten sich irgendwo die Waage, so daß ein realer Kristall zwar großräumig regelmäßig angeordnet ist, aber immer eine bestimmte Dichte von Defekten aufweist. Die Leitungselektronen können bei ihrer Bewegung an diesen Defekten streuen, so daß in einem realen Kristall selbst am absoluten Temperaturnullpunkt noch ein elektrischer Widerstand vorhanden ist. Oder wäre, wenn da nicht noch was anderes passieren würde.
Was das war, entdeckte zuerst der holländische Physiker Kamerlingh Onnes im Jahre 1911 kurz nachdem zum ersten mal die Verflüssigung des Heliums gelungen war und den Forschem somit die Welt der tiefen Temperaturen um die Siedetemperatur von Helium herum, gerade mal 4,2 K, zugänglich wurde. Diese Gelegenheit wurde genutzt, um zu überprüfen, ob die damaligen Theorien des elektrischen Widerstands auch noch für sehr tiefe Temperaturen gelten und als ob die Physik zu der Zeit nicht schon genug offenen Fragen hätte, zeigte das Experiment ein überraschendes Resultat: unterhalb 4,2 K wurde der elektrische Widerstand des Quecksilbers unmeßbar klein. Onnes entdeckte das Phänomen der Supraleitung. Zwei Jahre später erhielt er dafür den Nobelpreis und in den Folgejahren wurden viele Ansätze zur Beschreibung des Problems gemacht. Doch erst 1957 wurde von Bardeen, Cooper und Schrieffer eine fundamentale theoretische Begründung geliefert - und selbst heute gibt es noch viele offene Fragen.
Die Welt ist aus Elementarteilchen aufgebaut, zu denen auch die Protonen und Neutronen im Atomkern und die Elektronen drum herum gehören. Jedes Elementarteilchen hat eine charakteristische Eigenschaft, den Spin oder Eigendrehimpuls", dessen Bedeutung rein quantenmechanischer Natur ist und man deshalb besser gar nicht erst versuchen sollte, sich etwas bildlich darunter vorzustellen. Es gibt zwei Arten von Teilchen: solche mit ganzzahligem Spin und solche mit halbzahligem; erster nennt man Bosonen, die anderen Fermionen. Es ist eine grundlegende Eigenschaft dieser Systeme, daß sich beliebig viele Bosonen in ein und demselben quantenmechanischen Zustand befinden können, bei Fermionen dagegen kann jeder Zustand nur von einem Teilchen besetzt werden. Ein quantenmechanischer Zustand beschreibt Ort, Impuls, Drehimpuls und Spin eines Teilchens. Elektronen gehören zu den Fermionen. Für sie gibt es zwei Einstellmöglichkeiten für den Spin: +1/2 und -1/2, was dazu führt, daß in einem Atom ein Energiezustand nie von zwei Elektronen gleichzeitig besetzt werden kann - sie müssen sich zumindest in ihrem Spin unterscheiden. ähnliches gilt für die freien Elektronen im Kristallgitter: alle verfügbaren Zustände werden nach und nach zu höheren Energien hin aufgefüllt. Die Idee von Bardeen, Cooper und Schrieffer war nun folgende: bewegt sich ein Elektron durch das Metallgitter, so wird seine negative Ladung die positiv geladenen Metallionen in unmittelbarer Nähe ein klein wenig zu sich hin anziehen: das Gitter wird leicht verzerrt. Ein Elektron, das zufälligerweise gerade vorbeischaut, wird von dieser lokalen Erhöhung der positiven Ladungen angezogen. Somit stellt die Verzerrung des Gitters eine anziehende Wechselwirkung von zwei Elektronen dar - ohne Gitter würden sich die gleichnamig geladenen Elektronen ja abstoßen. Diese anziehende Wechselwirkung entspricht einer Absenkung der Energie, so daß diese Bindung energetisch begünstigt wird. Den Rest erledigt die Quantenmechanik: diese beiden zu einem sogenannten Cooper-Paar" gebundenen Elektronen haben entgegengesetzten Spin, so daß der Gesamtspin des Cooper-Paares Null ist und es sich wie ein Boson verhält. Alle zu Cooper-Paaren gebundenen Elektronen können Jetzt also den selben quantenmechanischen Zustand besetzen: den Grundzustand, das ist derjenige mit der niedrigsten Energie. Alle Cooper-Paare in diesem Ensemble sind nun streng miteinander korreliert: sie sind und bleiben im selben Zustand, es sei denn, man fuhrt ihnen so viel Energie zu, daß sie wieder in zwei einzelne Elektronen aufbrechen. Daher kann auch nicht etwa ein einzelnes Cooper-Paar Energie mit Gitterschwingungen austauschen und somit elektrischen Widerstand erzeugen. Da die Cooper-Paare aber nur relativ schwach gebunden sind, reicht schon eine geringe thermische Energie aus, um sie alle aufzubrechen: Supraleitung existiert, zumindest bisher, nur bei niedrigen Temperaturen. Die Bewegungsenergie, die die Cooperpaare beim Tragen eines elektrischen Stromes besitzen, darf auch nicht zu groß werden, sonst bricht die Supraleitung zusammen.

Widerstandsfreier Stromtransport ist aber nicht die einzige charakteristische Eigenschaft von Supraleitern. Legt man ein Magnetfeld an einen Supraleiter an, so wechselwirkt dies mit dem magnetischen Moment, das die Elektronen aufgrund ihres Spins haben: die Elektronen, deren magnetisches Moment parallel zum Magnetfeld steht, liegen energetisch niedriger als die, deren Moment antiparallel steht. Diese Aufspaltung ist energetisch ungünstig und so bedient sich der Supraleiter eines Tricks: er wirft supraleitende Abschirmströme an, die ein Magnetfeld innerhalb des Supraleiters erzeugen, das dem äußeren genau entgegengesetzt ist, so daß der Supraleiter feldfrei bleibt. Je stärker das externe Feld wird, desto größer müssen die Abschirmströme werden, um das Material feldfrei zu halten. Irgendwann tragen diese Ströme aber so viel Energie, daß es wieder energetisch günstiger wird, die Supraleitung zusammenbrechen zu lassen.

Wir kennen jetzt die drei Größen, die die Supraleitung beschränken: die Temperatur darf nicht zu hoch sein, die Ströme dürfen nicht zu stark sein und das Magnetfeld darf nicht zu stark sein. Hört sich traurig an, ist es aber nicht unbedingt: moderne Hochtemperatursupraleiter haben übergangstemperaturen von über 100 K - das liegt über der Siedetemperatur von Stickstoff. Solche Temperaturen zu erreichen und zu halten ist dank modemer Kryotechnik selbst ohne den Einsatz von Stickstoff oder ähnlichen Kühlflüssigkeiten kein großes Problem mehr. Die kritischen Ströme, die moderne Supraleiter tragen können, sind hoch genug, um normalleitende Materialien in technischen Anwendungen zu überbieten und mit ein paar Tricks kann man sie auch sehr starken Magnetfeldern aussetzen bzw. diese überhaupt erst mithilfe supraleitender Spulen erzeugen.
Es gibt zwei Arten von Supraleitern. Die einen drängen ein Magnetfeld komplett aus ihrem Inneren heraus (sog. Meißner-Effekt). Dieses perfekte diamagnetische Verhalten erlaubt es Supraleitern, in Magnetfeldern zu schweben. Bei zu starkem Feld bricht die Supraleitung zusammen. Die zweite Art von Supraleitern drängt das Feld nur bis zu einem bestimmten kritischen Feld komplett aus sich heraus und danach dringt magnetischer Fluß ein. Allerdings nicht homogen, sondern in winzigen magnetischen Flußschläuchen. Diese Flußschläuche werden von Supraströmen umlaufen, die das Gebiet um den Flußschlauch herum magnetisch abschirmen und das innere des Schlauchs mit Feld durchsetzen. Der Kern eines solchen Schlauchs ist normalleitend. Je größer das externe Feld, desto mehr solcher Flußschläuche dringen in den Supraleiter ein, bis das Material so dicht von ihnen durchsetzt ist, daß es komplett normalleitend wird. Diese Flußschläuche wechselwirken miteinander und es entstehen anziehende und abstoßende Kräfte zwischen ihnen, so daß sie sich je nach Stärke des äußeren Feldes praktisch unabhängig voneinander bewegen oder sich ungeordnet oder sogar wie ein Kristallgitter anordnen können. Schaltet man das externe Feld nach dem Eindringen der Flußschläuche ab, so bleiben die abschirmenden Supraströme erhalten und so wurde magnetischer Fluß im Supraleiter "eingefroren" - ein starker Permanentmagnet entsteht.
Sobald ein Strom durch einen mit Flußlinien durchsetzten Supraleiter fließt - diese Flußlinien können beispielsweise durch das vom Suprastrom selbst hervorgerufene Magnetfeld entstehen - so wirkt auf die Flußschläuche eine Lorentzkraft, die sie senkrecht zur Stromrichtung und ihrer Magnetisierungsrichtung ablenkt. Die Flußschläuche bewegen sich dann durch den Supraleiter. Dabei geht Energie verloren, was für den Stromtransport natürlich unerwünscht ist. Um das zu verhindern, müssen die Flußlinien an Haftzentren festgenagelt" werden. Das geschieht beispielsweise an Defekten oder nicht- bzw. normalleitenden Einschlüssen, weil es energetisch günstiger ist, einen normalleitenden Bereich mit einem Magnetfeld zu durchsetzen, da dort keine Abschirmströme fließen müssen. Um ideale Haftwirkung zu erzielen und somit möglichst große Ströme verlustfrei transportieren zu können, müssen die Haftzentren in Hochtemperatursupraleitern typischerweise nur einige Nanometer voneinander entfernt sein und die gesamte Probe durchsetzen. Nun kann man dermaßen kleine und viele Haftzentren nicht einfach nachträglich eins nach dem anderen in den Supraleiter einarbeiten, das wäre viel zu aufwendig. Aber mithilfe von geschickten Herstellungsverfahren läßt es sich erreichen, daß das Material in der Entstehungsphase solche Störungen selbstständig erzeugt.
Supraleiter finden bereits technische Anwendungen im Stromtransport, Strombegrenzung, verlustfreier mechanischer Energiespeicherung, Elektromotoren, Magnetfelderzeugung, -speicherung und -messung. Ein weiteres vielversprechendes zukünftiges Einsatzgebiet solcher Materialien ist die supraleitende Elektronik, etwa für sehr leistungsstarke Computer.
Eine Lachszuchtanstalt in Japan zählt ihre Lachse in einem Becken, indem ein hochempfindlicher supraleitender Magnetfeldsensor die geringfügige Verzerrung des Erdmagnetfeldes mißt, die beim Vorbeischwimmen eines Lachses entsteht - und das so präzise, daß selbst die geringen Unterschiede dieses magnetischen Fingerabdrucks zwischen männlichen und weiblichen Lachsen aufgrund der unterschiedlichen Anatomie delektiert werden können.

Marc Winter

DEEP IMPACT

Viele von euch mögen sich noch an den Science-Fiction-Katastrophenfilm "Deep Impact" erinnern, in dem ein riesiger Meteorit auf der Erde einzuschlagen und alles Leben zu vernichten droht. Um den drohenden Weltuntergang zu verhindern, wird ein Shuttle gestartet, dessen Crew einen Atomsprengkopf unter der Oberfläche anbringen soll.

Nun ja- diese Idee eines Drehbuchautors wird nächstes Jahr Realität, wenn auch in etwas anderer Form. Gestartet am 8. Januar 2005, soll im Juli 2005 die NASA Sonde "Deep Impact" beim Kometen Temple l eintreffen und ein 370kg schweres Projektil abwerfen, das den Himmelskörper mit 20 000 km/h trifft. Es wird ein Krater von ca. 25m Tiefe und der Größe eines Fußballfeldes aufgerissen - und darunter kommt das Innere des Kometen zum Vorschein und kann detailliert untersucht werden.

Kometenkerne sind nur wenige Kilometer groß und bestehen aus gefrorenen Gasen und etwas Gestein. Kommt ein Komet in Sonnennähe, so sublimiert das Eis, und in Verbindung mit dem Sonnenwind entsteht neben einem Staubschweif ein selbstständig leuchtender Gasschweif. 1997 konnte man das beim Kometen Hale-Bopp sehr schön sehen.
Da Kometen sich meist auf sehr langgezogenen Ellipsenbahnen bewegen und daher nur selten in Sonnennähe sind, bleibt die Kometenmaterie weitgehend konserviert und weicht in ihrer Zusammensetzung kaum von der des Urnebels ab, aus dem sich unser Sonnensystem gebildet hat. Speziell die Materie im Kometeninnern ist keinen Veränderungen unterworfen, daher die Idee, dieses Material mit Hilfe eines Projektiles freizuschlagen. Aus 500km Distanz wird da Mutterschiff das Szenario filmen und mit verschiedenen Spektrometern genau untersuchen.
Eventuell können auch Amateurastronomen den "Deep Impact" bzw. dessen Auswirkungen im Teleskop beobachten. Wenn das Projektil einschlägt, wird frisches Material ausgeworfen, unter anderem gefrorenes Gas das aufgrund der Sonnenwärme sofort verdampft. Dadurch sollte die Helligkeit des Kometen stark ansteigen.
Eventuell ist auch ein Gasstrahl (Jet) oder eine Wolke oder eine Ausbuchtung in der Koma des Kometen zu sehen.
Möglicherweise wird sich in den Tagen darauf ein stärkerer Schweif bilden... Niemand weiß genau, was zu sehen sein wird.

Stefan Griesing

CHEMISCHE VERSUCHE FÜR ZUHAUSE: EIN SELBSTAUFBLASENDER LUFTBALLON

Man nehme handelsübliches Brausepulver, fülle es in einen Luftballon, gebe etwas Wasser hinzu, verschließe den Luftballon umgehend und schüttelt ein wenig.
Der Luftballon sollte sich selbst aufblasen. Im Zweifelsfall nach dem Motto "viel hilft viel" vorgehen und mehr Brausepulver hinzugeben.
Da "normale" Luftballons einen nicht geringen Widerstand beim Aufblasen zeigen, empfiehlt es sich, ihn zuvor mehrmals mit dem Mund aufzublasen oder einen Ballon (oder ähnliches) verwenden, welcher weniger Widerstand bietet.
Der chemische Hintergrund hierzu ist ganz einfach: Brausepulver enthält Natriumhydrogencarbonat NaHCO3, welches beim Kontakt mit Wasser zu CO2 umgesetzt wird.

Michael Bauer


Redaktion:

Marc Winter

freie Mitarbeiter

Michael Bauer
Marco Schüle
Susanne Kirsch
Stefan Griesing

E-Mail: tntlight@gmx.de