Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

562_Balabanova_l._A._Nemetskij_jazyk_

.pdf
Скачиваний:
2
Добавлен:
12.11.2022
Размер:
669.49 Кб
Скачать

von Bildschirm zu Bildschirm zu übermitteln. Parallel zu dieser fernelektronischen Datenübertragung verständigten sich die Computertechniker am Telefon. "Hast du das L?" – "Ich hab`s!" – "Siehst du das O?"– "Ja, ist da!"– "Das G?" Doch da waren die Hochleistungsrechner überlastet und stürzten ab.

Dezentrale Vernetzung

Die Architektur des neuartigen und sich bald immer weiter verzweigenden ARPANETs beruhte auf den bahnbrechenden Arbeiten von Paul Baran und Donald Watts Davies. Eine maschendrahtartige Netzstruktur wurde geschaffen, eine dezentrale Kommunikationsstruktur, die technische Grundlage für den Austausch von Datenpaketen. Damit ist gemeint, dass in einem Gewebe von Computern, die durch Telefonleitungen miteinander verbunden sind, keine Computerzentrale, kein Steuerungsrechner existieren sollte. Vielmehr sollte jeder teilnehmende Rechner in der Lage sein, über sogenannte Knotenpunkte oder Knotenrechner mit jedem anderen Rechner über ein immer dichter werdendes Datennetz zu kommunizieren. Selbst wenn der eine oder andere Knotenrechner einmal ausfallen sollte, so würde die Datenweiterleitung nicht unterbrochen werden, sondern einfach über einen anderen, alternativen Knotenrechner abgewickelt. Von vornherein wurde also ausgeschlossen, dass ein einzelnes Land, ein Staat, eine Institution oder eine Person die Hoheit über das gesamte Informationsnetzwerk gewinnt. Dieses revolutionäre, demokratische Netzwerkkonzept beinhaltete schon damals die zentralen Aspekte des heutigen Internets. Das Internet ist nichts anderes als die gigantische, weltweite Vernetzung von bestehenden Netzwerken. Ruft heute ein Netzteilnehmer in Berlin etwa eine E-Mail ab, die in Paris losgeschickt wurde, so wurden die Datenpäckchen möglicherweise über den Umweg New York weitergeleitet.

Weltweite Vernetzung

1982 wurde das in den 1960er Jahren entwickelte ARPANET auf TCP/IPStandard (Transmission Control Protocol/Internet Protocol) umgestellt. Dieser sperrige Name bezeichnet eine Software, die bereits 1974 entwickelt worden war und die den Austausch von Daten und Datenpaketen zwischen verschiedenen Netzwerken reguliert. TCP/IP liegt die Idee zugrunde, dass jeder einzelne Rechner im Prinzip mit jedem anderen Rechner über ein Datennetz kommunizieren kann. Das Standardprotokoll TCP/IP sorgt für die Verbindung der Netzwerke untereinander, es ist der Klebstoff, der viele lokale Netze zu einem großen zusammenhängenden Netz, dem Internet, verbindet.

Anfang der 1990er Jahre entwickelte der britische Informatiker Tim Berners Lee am europäischen Kernforschungslabor CERN das World Wide Web, (kurz WWW), eine als Hypertext aufgebaute Vernetzung von Daten und Inhalten, die über einen Browser sichtbar gemacht werden konnten. Hypertext bedeutet, dass auf unzähligen Computern gespeicherte Daten durch logische Verknüpfung mittels sogenannter Links abgerufen werden können. Als 1993 der erste grafikfähige Webbrowser mit dem Namen Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde, war der Siegeszug des Internets nicht mehr aufzuhalten. Von nun an konnten auch Laien auf das Netz zugreifen, was zu einer stetig wachsenden Zahl von Nutzern, aber auch von kommerziellen Angeboten im Netz führte. Waren Internet und

51

E-Mail Anfang und Mitte der 1990er Jahre eher Exoten und Computerkennern vorbehalten, die sich auf diese neuartige Technik verstanden, ist heute der Datenaustausch über den Computerlängst ein Massenphänomen.

Einer ARD/ZDF-Studie aus dem Jahr 2013 zufolge sind bereits mehr als drei Viertel (77,2 Prozent) der Deutschen im Alter über 14 Jahren im Netz – Tendenz steigend. Beruflich und privat ist die E-Mail, der elektronische Brief, neben dem Telefon zum beliebtesten Kommunikationsinstrument geworden. Der vernetzte Computer entwickelt sich zum wichtigsten universalen Werkzeug des 21. Jahrhunderts. Wenngleich sich das reale Leben nicht auf virtueller Ebene abspielt – der an das Internet angeschlossene Computer ist längst wie der Kugelschreiber, das Auto oder das Telefon ein Instrument, das wir beruflich, geschäftlich und privat nutzen, das eine wichtige Stütze im Alltag darstellt1. (6 550)

Erste E-Mail erreichte Deutschland vor 30 Jahren

Im Jahr 1984 wird der erste deutsche Internet-E-Mail Server an der Vorläuferinstitution des KIT eingerichtet.Sie ist das zentrale Kommunikationsmittel unserer Zeit: die E-Mail. Schnell und günstig lassen sich weltweit kurze Nachrichten ebenso austauschen wie große Datenpakete. Die erste E-Mail erreichte Deutschland an der damaligen Universität Karlsruhe, dem heutigen Karlsruher Institut für Technologie, vor 30 Jahren. Sie stellte erstmals über das Internet eine Verbindung zwischen dem amerikanischen Netzwerk CSNET (Computer Science Net) und dem neuen Karlsruher CSNET-Server her.

Am 3. August 1984 um 10:14 Uhr mitteleuropäischer Zeit landet die erste direkte E-Mail Deutschlands aus dem ARPANET, dem Vorläufer des Internet, in den Postfächern von Professor Werner Zorn, Leiter der Informatik-Rechnerabteilung (IRA), und seinem damaligen Mitarbeiter Michael Rotert. Mit den Worten "This is your official welcome to CSNET. We are glad to have you a board", begrüßt die US-Amerikanerin Laura Breeden, Mitarbeiterin des CSNET Koordinationsund Informationszentrums bei Bolt Beranek & Newman (BBN) in Boston, die neuen deutschen Mitglieder des Netzwerks und erklärte damit offiziell die Betriebsbereitschaft des deutschen Servers.

"Die erste E-Mail in Karlsruhe war der Vorbote einer enormen technologischen und gesellschaftlichen Veränderung," sagt Professor Holger Hanselka, Präsident des KIT. "Die schnelle Kommunikation hat unsere Welt zusammenwachsen lassen und den grenzüberschreitenden Austausch von Ideen und Perspektiven ermöglicht. Ein gelungenes Beispiel von Forschung und Technologietransfer, die unseren Alltag erreichen".

Zwar wurden in Deutschland bereits vor dem August 1984 E-Mails versendet und empfangen, bei der Karlsruher Nachricht handelt es sich jedoch um die Erste, die an einen eigenständigen deutschlandweit verfügbaren E-Mail-Server über das Internet ging. Zuvor mussten sich die Nutzer telefonisch in amerikanische Computer ein-

1 http://www.planet-wissen.de/natur_technik/computer_und_roboter/internet/ 52

wählen. CSNET war ein in den frühen 1980er Jahren in den USA entwickeltes Com- puter-Netzwerk, in dem sich verschiedene US-Hochschulen zusammengeschlossen hatten, um die Kommunikation zwischen den Wissenschaftlern zu erleichtern. Israel und Deutschland waren die ersten Nationen, die bereits 1984 an das CSNET angeschlossen waren.

Damals war es noch nicht abzuschätzen, wie rasant sich die E-Mail zu einem der wichtigsten Kommunikationsmedien entwickeln würde. Die wirtschaftliche Bedeutung habe damals niemand einschätzen können. "Wir haben das aus Entdeckerfreude gemacht und nicht an Geld gedacht", sagt Zorn, mittlerweile Universitätsprofessor im Ruhestand und Mitglied der Internet Hall of Fame. "Zwar haben Zeitungen damals darüber berichtet, aber es lief eher unter dem Label „Exotenwissenschaft“".

Zorn als Gesamtverantwortlicher des CSNET-Dienstes für die Domäne "germany" ("administrative liaison", heute "admin-c") und Michael Rotert als Betreuer des CSNET-Mailservers ("technicalliaison", heute "tech-c") waren somit ab dem 3. August 1984 weltweit unter den Mailadressen "zorn@germany.csnet" und "rotert@germany.csnet" erreichbar. Mit dieser ersten E-Mail fiel in Karlsruhe der Startschuss für die heute so selbstverständlich und flächendeckend genutzte "Elektronische Post". Der Grundstein dazu wurde bereits Ende 1982 mit dem Projektantrag "Interkonnektion von Netzen" gelegt, in welchem Zorn dem Bundesforschungsministerium (BMFT) vorschlug, das geplante Deutsche Forschungsnetz (DFN) frühzeitig an das US-amerikanische Computer Science Net (CSNET) anzubinden.

Das von der National Science Foundation (NSF) geförderte CSNET hatte zum Ziel, über das militärisch finanzierte und damit stark eingeschränkte ARPANET hinaus, die Wissenschaftskommunikation national und international zu erleichtern oder überhaupt zu ermöglichen. Es war das erste System, dass die Kommunikationsprotokolle nutze, die denen des Internet entsprachen. Dank des Erfolges von CSNET wurden die weiteren Schritte zum NSFNET getan, das einige Jahre später das Rückgrat des Internets wurde. Daher spricht man auch vom CSNET als erstem "Internet" und von der "erste deutschen Internet E-Mail", um sie von anderen elektronischen Kommunikationsnetzen damals abzugrenzen, deren Entwicklung jedoch nicht zum Internet führten.

Zum genauen Zeitpunkt der Übermittlung gab es in der Vergangenheit Missverständnisse: Laura Breeden versendete die E-Mail am 2. August um 12:35 Uhr US-amerikanischer Zeit. Sie wurde an den Server CSNET-SH weitergeleitet und landete schließlich im sogenannten CSNET-Relay, in dem die Mails zunächst gesammelt und von Karlsruhe aus abgeholt werden mussten. Deshalb trägt die erste E-Mail in Karlsruhe das Datum des Folgetags und die Uhrzeit 10:14 Uhr1. (4 100)

Künstliche Intelligenz

Philadelphia 1997: Der Computer "Deep Blue" schlägt den amtierenden SchachWeltmeister Garri Kasparow beim Schachspielen. Ein tonnenschweres Ungetüm mit

1 http://www.kit.edu/kit/pi_2014_15510.php

53

256 parallel geschalteten Computerprozessoren triumphiert über den menschlichen Geist. Science Fiction wird zur Realität – zumindest auf dem Schachbrett. Doch an der Aufgabe, die vielschichtige menschliche Intelligenz nachzubauen, beißt sich die Wissenschaft nach wie vor die Zähne aus.

Wie intelligent ist Künstliche Intelligenz?

Das Forschungsgebiet "Künstliche Intelligenz" (KI) versucht, menschliche Wahrnehmung und menschliches Handeln durch Maschinen nachzubilden. Was einmal als Wissenschaft der Computer-Programmierung begann, hat sich mehr und mehr zur Erforschung des menschlichen Denkens entwickelt. Denn nach Jahrzehnten der Forschung hat man die Unmöglichkeit erkannt, eine "denkende" Maschine zu erschaffen, ohne zuvor das menschliche Denken selbst erforscht und verstanden zu haben. Deshalb gibt es zum Teil große Überschneidungen zwischen KI-Forschung und Neurologie beziehungsweise Psychologie.

Bis heute ist es nicht einmal annähernd gelungen, menschliche Verstandesleistungen als Ganzes mit Maschinen nachzuvollziehen. Ein großes Hindernis ist die Sprachverarbeitung. Auch die Durchführung einfachster Befehle ist für eine Maschine ein hoch komplexer Vorgang. Inzwischen konzentriert sich die Forschung deshalb mehr und mehr auf einzelne Teilbereiche, unter anderem mit dem Ziel, dort Arbeitserleichterungen zu schaffen. Dazu ist ein ständiger Austausch zwischen Wissenschaftlern verschiedenster Disziplinen (Kognitionswissenschaft, Psychologie, Neurologie, Philosophie und Sprachwissenschaft) notwendig.

Wann besteht ein Computer den Turing-Test?

Die Frage, ab wann eine Maschine als intelligent gilt, treibt die KI-Forschung seit Jahrzehnten um. Ein Messwerkzeug, das allgemein akzeptiert wird, ist der sogenannte Turing-Test. Er wurde 1950 von dem britischen Mathematiker Alan Turing entwickelt: Ein Mensch kommuniziert über längere Zeit parallel mit einem anderen Menschen und einer Maschine ohne Sichtoder Hörkontakt – etwa über ein Chat-Programm. Mensch und Maschine versuchen den Tester davon zu überzeugen, dass sie denkende Menschen sind. Wenn der Tester nach der Unterhaltung nicht mit Bestimmtheit sagen kann, welcher der Gesprächspartner ein Mensch und welcher eine Maschine ist, hat die Maschine den Test bestanden und darf als intelligent gelten.

Der US-Soziologe Hugh G. Loebner lobte 1991 einen Preis von 100.000 Dollar für das Computerprogramm aus, das den Turing-Test besteht und eine Expertenjury hinters Licht führt. Bis 2013 hat niemand den Preis erhalten, und der Großteil der KIForscher geht davon aus, dass das auch in absehbarer Zeit nicht passieren wird.

Tamagotchis, Roboter & Co

Die Einsatzgebiete Künstlicher Intelligenz sind äußerst vielfältig. Oft sind sie uns nicht einmal bewusst. Am erfolgreichsten ist ihr Einsatz in kleinen Teilbereichen, wie zum Beispiel in der Medizin: Roboter führen bestimmte Operationsabschnitte – etwa im Tausendstel-Millimeter-Bereich – wesentlich präziser durch als ein Chirurg.

In Produktionsstraßen, besonders in der Automobilindustrie, ersetzen Roboter eine Unzahl menschlicher Handgriffe. Vor allem bei gesundheitsschädlichen, unfallträchtigen Aufgaben, wie zum Beispiel beim Lackieren oder Schweißen, sind Robo-

54

terarme, wie sie bereits in den 1960er Jahren bei General Motors eingesetzt wurden, nicht mehr wegzudenken.

Klassischer Anwendungsbereich für Künstliche Intelligenz sind Spiele, insbesondere Brettspiele wie Dame und Schach. Längst haben programmierbare und lernfähige Spielzeuge, Mini-Roboter und Computerprogramme das Kinderzimmer erobert. Das legendäre Tamagotchi gehört zwar schon zum alten Eisen, dafür drängen andere künstliche Gefährten wie der Roboter-Hund AIBO auf den Markt. Der BlechWaldi kann Videos aufnehmen, führt ein eigenes Tagebuch und spielt auf Wunsch CDs, wenn man ihm das jeweilige Cover vor die Schnauze hält.

Expertensysteme und Fuzzy-Logik

Expertensysteme sind spezialisiert auf ganz bestimmte und eng begrenzte Einsatzgebiete. Ein Beispiel dafür sind Programme, mit denen computertomografische Aufnahmen am Computerbildschirm in dreidimensionale Bilder umgesetzt werden. Ärzte können sich so im wahrsten Sinne des Wortes ein "Bild" von der jeweiligen Körperpartie und ihrem Zustand machen.

Als Fuzzy-Logik bezeichnet man "unscharfe" Logik, was bedeutet, dass nicht nur binäre Werte, also "ja" oder "nein", sondern auch analoge Zwischenstufen wie "vielleicht" oder "jein" verarbeitet werden können. Der deutsche Ingenieur und Industrielle Konrad Zuse musste seinen ersten Computer, der teilweise analog arbeitete, noch künstlich auf binäre Funktionen "trimmen". Heute zeigt die Entwicklung, dass eben nicht immer klare Entscheidungen wie "ja" und "nein" beziehungsweise "0" und "1" möglich sind.

Automatisch in den Weltraum

1997 reisten Maschinen im Dienste des Menschen auf den Planeten Mars. Ziel der "Pathfinder-Mission" war es, wissenschaftliches Messgerät auf die Marsoberfläche zu bringen. Dabei sollten geeignete Techniken für Flugphase, Atmosphäreneintritt, Abstieg und Landung entwickelt und erprobt werden. Es musste alles möglichst automatisch funktionieren, da menschliche Eingriffe von der Erde aus wegen der Distanz kaum möglich sind. Ein Funksignal zur Erde würde, selbst wenn es mit Lichtgeschwindigkeit unterwegs wäre, 14 Minuten benötigen.

Doch die "Pathfinder-Mission" glückte und legte so den Grundstein für weitere Marsmissionen. Im August 2012 landete das Fahrzeug "Curiosity" auf dem Mars: 900 Kilogramm schwer und mit einer Vielzahl an Instrumenten ausgestattet, um zu erkunden, inwieweit der Planet als Biosphäre geeignet ist oder war. Schon die Landung war spektakulär: Nach dem Eintritt in die Atmosphäre bremste die Sonde automatisch 20 Meter über der Oberfläche ab und ließ "Curiosity" an Seilen herab. Auf dem Mars bewegt sich "Curiosity" mit einem Plutoniumantrieb fort, zertrümmert und analysiert Steine mit einem Laser und packt Gesteinsproben per Greifarm in eine Mikrowelle, um diese zu schmelzen. Fast zwei Jahre lang soll "Curiosity" unterwegs sein und seine Erkenntnisse zur Erde funken1. (5 370)

1 http://www.planet-wissen.de/natur_technik/computer_und_roboter/kuenstliche_intelligenz/ 55

Roboter – Mechanische Helfer in allen Lagen

Waren Roboter vor einigen Jahrzehnten noch bloße Science-Fiction, sind sie aus dem Leben heute kaum mehr wegzudenken. Sie bauen Autos, entschärfen Bomben und tauchen in die Tiefen der Ozeane. Auch die Raumfahrt ist bei ihren Missionen auf die Unterstützung von Robotern angewiesen. Doch bevor das erste Roboterfahrzeug auf dem Mars herumfahren konnte, mussten Forscher erst viele Jahre Entwicklungsarbeit leisten.

Was ist eigentlich ein Roboter?

Das Wort "Roboter" wird vom tschechischen "robota" abgeleitet, das so viel heißt wie Fronarbeit. Der tschechische Schriftsteller Karel Ĉapek nannte 1920 die Maschinenmenschen in seinem Theaterstück Rossums Universal Robots (R.U.R.). In dem Drama werden diese in Tanks herangezüchtet, um an Stelle von Menschen in der Industrie zu arbeiten. Die Wortschöpfung "Roboter" hielt Einzug in viele Sprachen. 1926 trat mit dem Film "Metropolis" eine menschliche Maschine das erste Mal auf die Kinoleinwand. Berühmtheit erreichten die Roboter schließlich in den 1940er Jahren durch die Erzählungen Issac Asimov.

Roboter sind Maschinen, die sich selbständig bewegen und verschiedene Tätigkeiten erledigen können. Das unterscheidet die Roboter von ferngesteuerten Maschinen, die Befehle von Menschen brauchen – und damit nicht selbständig sind. Auch Automaten sind keine Roboter, da sie nur eine einzige Arbeit ausführen. Auch Computer gelten nicht als Roboter, weil sie sich nicht bewegen können.

Die Versuche, Arbeit von Menschen durch Mechanik zu ersetzen, gehen weit zurück. Schon in vorchristlicher Zeit erfanden die Griechen einfache Automaten, die ohne direkte Einwirkung der Menschen Tätigkeiten ausführen konnten. So entstand 270 vor Christus die erste wasserbetriebene Uhr. Aus dem frühen neunten Jahrhundert entstand in Bagdad das Buch der raffinierten Geräte, "Kitab al-Hiyal", in dem mehr als hundert Automaten beschrieben werden.

Auch Maschinen sehen, tasten und hören

Ein besonderes Problem bei der Entwicklung von Maschinen, die sich selbstständig bewegen, ist die Orientierung. Der erste sehende Roboter entstand mithilfe von Fotozellen, die das Erkennen von Helligkeitsunterschieden ermöglichen. Die berühmten Roboter-Schildkröten Elsie und Elmer konnten dadurch 1950 erstmals die Lichtquelle orten, die ihre Ladestation markierte. US-Forscher der Universität von Kalifornien haben kürzlich einen Roboter entwickelt, der dreidimensional sehen kann und in der Lage ist, Handtücher zu falten und dann aufeinander zu stapeln. Mithilfe von zwei Kameras im Kopf des Roboters wird ein dreidimensionales Bild der Umgebung erstellt. Diese Fähigkeit ist wichtig, damit Roboter sich in Zukunft auch in einem Raum, der ihnen unbekannt ist, bewegen können, ohne gegen die Wände zu stoßen.

Auch Roboter, die hören können, gibt es bereits seit einigen Jahrzehnten. So entwickelte die Waseda-Universität in Japan 1973 den "Wabot-1". Der Roboter konnte hören, sehen, tasten, laufen und sich mithilfe eines Sprachsynthesizers sogar unter-

56

halten, so dass seine Entwickler ihm die Intelligenz eines 18 Monate alten Kindes bescheinigten.

Auch der Tastsinn von Robotern hat sich im Laufe der vergangenen Jahre stark verbessert. Noch vor nicht allzu langer Zeit waren feinmotorische Abläufe undenkbar, etwa das Halten eines Stiftes mit Daumen und Zeigefinger. Inzwischen können Roboter rohe Eier und Flaschen greifen, ohne diese zu beschädigen. Roboterwissenschaftler der Technischen Universität München haben eine Kunsthaut entwickelt, mit der die Roboter Berührung spüren und Hindernissen ausweichen können. Gerald E. Loeb und Jeremy A. Fishel von der Universität Südkalifornien haben eine Kunsthand entwickelt, deren Finger mit so empfindlichen Sensoren ausgestattet sind, dass sie unterschiedliche Materialien erkennen können.

Mechanische Fließbandarbeiter

In der Industrie wurden Roboter erstmals in den 1960er Jahren eingesetzt, also

erst 20

Jahre nach ihrer literarischen Etablierung durch Asimov. George Dovel

und Joe

Engelberger entwickelten mit ihrer Firma Unimation den Unimate, den

ersten kommerziell erhältlichen Industrieroboter. Er wurde unter anderem an den Fließbändern des Autoherstellers General Motorsfür sich wiederholende und gefährliche Arbeiten eingesetzt. So stapelte der Unimate etwa hoch erhitzte Metallteile. Bereits 20 Jahre später wurde der Einsatz von Robotern in der Autoherstellung zur Routine. Auch andere Industriezweige nehmen Roboter zur Hilfe. So gibt es in Chemieunternehmen Automationsstraßen, die komplexe Arbeitsabläufe vollständig übernehmen.

Roboter sind überall da, wo wir nicht sein können

Inzwischen übernehmen Roboter in vielen Bereichen Tätigkeiten, die der Mensch ungenauer, langsamer oder überhaupt nicht ausführen kann. Letzteres gilt besonders für Missionen im Weltraum. Die unbemannte Raumsonde "Pathfinder" setzte 1997 nach siebenmonatigem Flug erstmals ein Roboterfahrzeug (Sojourner) auf dem Mars ab, das für die extremen klimatischen Bedingungen auf dem Roten Planeten gerüstet war. Anfang August 2012 landete der bisher teuerste Roboter der NASA auf dem Mars. Der Marsrover "Curiosity" soll nun, ausgestattet mit neuester Technik, die Marsoberfläche untersuchen und Informationen über die Bodenbeschaffenheit und Atmosphäre auf dem Planeten zur Erde schicken. Aber auch für andere Aufgaben im All sind Roboter unerlässlich. So helfen Roboterarme bei Arbeiten an der internationalen Raumstation ISS und reparieren defekte Satelliten.

Die Erforschung der Ozeane wäre ohne Roboter ebenfalls undenkbar. Sie ergründen die Meerestiefen, helfen beim Erkennen von Umweltgefahren wie ausgelaufenem Öl oder bei der Schatzsuche. 1986 erkundete der Roboter Jason Junior zusammen mit dem bemannten Tiefseetauchboot Alvin in 3965 Metern Tiefe das Wrack der Titanic. Viele der Unterwasserroboter haben die Form eines kleinenU-Boots. Diese Autonomous Underwater Vehicles (AUV) werden ferngesteuert oder vor dem Einsatz so programmiert, dass sie ihre Arbeiten eigenständig ausführen können.

Auch in Krisengebieten können Roboter dem Menschen ihren Dienst leisten. Sie werden bei Bränden eingesetzt, suchen nach Minen oder einschärfen Bomben. Dafür müssen sie in der Lage sein, sich in sehr unwegsamem Gelände fortbewegen zu kön-

57

nen. Für die Bombenentschärfung sind die Roboter oft mit einem tiefliegenden Fahrgestell und einem frei beweglichen, ferngesteuerten Arm ausgestattet. An dessen Spitze befindet sich ein Zertrümmerungsgerät, das mit hoher Energie einen Wasserstrahl in die Sprengstoffkammer schießt und sie so unwirksam macht. Kleine unbeabsichtigte Detonationen können die Roboter überstehen.

Neben all diesen Möglichkeiten gibt es inzwischen viele weitere Einsatzgebiete für Roboter. Ob im Haushalt als Staubsauger, im Operationssaal, im Labor oder im Kinderzimmer: Roboter gehören zum Alltag dazu1. (5 880)

Nanotechnologie

Nanotechnologie: Kleine Teilchen sollen groß rauskommen

So klein wie ein Fußball im Vergleich zur Weltkugel ist, so winzig ist ein Nanoteilchen im Verhältnis zu jenem Fußball: Ein Nanometer ist ein Milliardstel Meter, mathematisch ausgedrückt also 10 hoch minus 9 Meter. Das Wort "nanos" stammt aus dem Griechischen und steht für Zwerg. Die Nanotechnologie spielt sich in einer Welt mit unvorstellbar kleinem Maßstab ab.

Nanotechnologien statt Nanotechnologie

Die eine Nanotechnologie gibt es eigentlich gar nicht: Richtig ist es eher, in der Mehrzahl von Nanotechnologien zu sprechen. Immerhin werden unter dem Begriff zahlreiche Prinzipien aus verschiedenen Naturund Ingenieurwissenschaften zusammengefasst: aus der Quantenphysik und den Materialwissenschaften, aus der Elektronik und Informatik, aus der Chemie und Mikro-, Molekularund Zellbiologie. Gemeinsam ist all diesen Technologien die Größenordnung, in der sich alles abspielt: die Dimension von einigen Nanometern. Dabei geht es um mehr als nur die Miniaturisierung von Dingen. Im Nanomaßstab entwickeln Stoffe neue Eigenschaften, da hier die Physik zwischen einzelnen Atomen ihre volle Wirkung entfaltet. Beispielsweise halten Fasern aus Nano-Kohlenstoff Zugkräften extrem stand, Keramik mit Nanozusatz wird transparent, Metall zum Farbpigment oder Glas zum Bindemittel. Und aus diesen neuen Eigenschaften ergeben sich neue Möglichkeiten.

In Sonnencremes beispielsweise dienen Nanoteilchen als Schutzfilter gegen ultraviolette Strahlen. In Socken und Sportbekleidung tötet Nanosilber Bakterien ab und verhindert so, dass die Kleidung bald müffelt. In Lacken und Farben sorgen Nanopartikel für unterschiedliche Farbeffekte und schützen vor Schmutz oder Schimmel. Aluminium-Nanopartikel in Parkettund Möbellacken verbessern die Kratzfestigkeit. Und das ist erst der Anfang: Die noch recht junge Nanotechnologie gilt als eines der wichtigsten Forschungsgebiete für das 21. Jahrhundert.

1 http://www.planet-wissen.de/natur_technik/computer_und_roboter/roboter/ 58

Wie Nanotechnologien die Medizin revolutionieren sollen

Besonders in der Medizin wird der Nanotechnologie eine große Zukunft vorausgesagt: Nanotechnologien könnten sowohl die medizinische Forschung als auch die Diagnose und Therapie von Krankheiten verändern, und das schon innerhalb der nächsten 20 bis 30 Jahre. Das ergab eine internationale Umfrage bei mehr als 70 Nanoexperten, die im Auftrag des Schweizer Zentrums für TechnologiefolgenAbschätzung durchgeführt worden war.

So sollen metallische Nanopartikel in der Krebstherapie einen entscheidenden Fortschritt bringen: Da Tumorzellen empfindlicher auf hohe Temperaturen reagieren als gesundes Gewebe, werden nanokleine Metalloxide in das kranke Gewebe gebracht, die dann mithilfe elektromagnetischer Wechselfelder erhitzt werden und so die kranken Zellen töten sollen. Dieses sogenannte Hyperthermie-Verfahren soll in Zukunft vor allem Patienten mit Hirnund Prostatatumoren heilen. Auch Nanotransportsysteme sind in der Entwicklung: Sie sollen Wirkstoffe von Medikamenten zielgenau durch den Körper schleusen. Außerdem könnten in Zukunft Nanofilter Dialysepatienten helfen und Nanobeschichtungen bei Implantaten den Knochenersatz stabiler und länger haltbar machen.

Risiken und Nachteile werden wenig beachtet

Doch so verheißungsvoll die Wünsche und Visionen der Nanoforscher auch sind: Die Risiken für Mensch und Umwelt sind noch längst nicht geklärt. Nanoteilchen sind so winzig, dass sie eingeatmet werden und über die Lunge in den Blutkreislauf gelangen können. Von da können sie in jede Körperzelle eindringen und mitunter sogar die Blut-Hirn-Schranke überwinden. Was die Nanoeindringlinge dann anrichten, ist unklar. Verbraucherund Umweltverbände fordern deswegen schon lange, dass Nanoprodukte gekennzeichnet werden müssen. Bisher existieren jedoch noch nicht einmal verpflichtende nanospezifische Testverfahren, die die Sicherheit eines Produkts vor seiner Markteinführung überprüft, kritisiert der Bund für Umwelt und Naturschutz Deutschland (BUND).

Und so schön die antibakterielle Wirkung von Nanosilber und Co. in Sportsocken und Badreinigern ist – mindestens drei potenzielle Nachteile würden sich Experten zufolge auf lange Sicht ergeben:

1.Der mangelnde Kontakt mit Schmutz und Mikroben könnte dazu führen, dass die Menschen nur umso sensibler auf Keime reagieren werden.

2.So manche Bakterien könnten resistent gegen die eigentlich antibakteriellen Nanoprodukte werden, welche dann wiederum gerade im medizinischen Bereich nutzlos werden.

3.Außerdem kann das Silber aus Nanoprodukten, das über die Waschmaschine und Abwässer in Kläranlagen und in die Umwelt gelangt, die natürlichen Kreisläufe empfindlich stören, zum Beispiel weil es nach Quecksilber das zweitgiftigste Schwermetall für Tiere und Pflanzen im Wasser ist oder Mikroorganismen im Boden beeinträchtigt.

Deutschland hat 50.000 Nanotech-Jobs

Allein im Jahr 2009 investierten deutsche Ministerien, Bundesländer und Forschungseinrichtungen 441 Millionen Euro an öffentlichen Fördergeldern in die Nano-

59

technologie. Nur ein Bruchteil davon fließt in die Risikoforschung. Ähnlich spiegelt sich die Nanotechnologie in den Medien wider: Die Berichterstattung über Nanotechnologie ist stark auf den potenziellen Nutzen hin orientiert, Risiken hingegen werden nur zu einem geringen Teil thematisiert – so lautet das zentrale Ergebnis einer Studie der Universität Münster. Die Kommunikationsforscher hatten dazu 1996 Artikel zum Thema Nanotechnologie untersucht, die in den Jahren 2000 bis 2007 in den großen deutschen Tageszeitungen, den Nachrichtenmagazinen "Focus" und "Spiegel" sowie der Wochenzeitung "Zeit" erschienen sind.

Derweil boomt der Arbeitsmarkt im Bereich Nanotechnologie: Nahezu 700 Unternehmen in Deutschland beschäftigten sich dem Bundesministerium für Bildung und Forschung (BMBF) zufolge Anfang 2010 mit Nanotechnologien in all ihren Facetten; etwa 50.000 Arbeitsplätze haben direkt oder indirekt mit Nanotechnologie zu tun. Das BMBF bietet in Zusammenarbeit mit dem VDI-Technologiezentrum eine detaillierte Landkarte mit Nanotechnologie-Standorten auf einer eigens eingerichteten Webseite an. Hier sind auch Studiengänge eingetragen, die den Nachwuchs speziell auf die Forschung und Fortentwicklung der Nanotechnologien vorbereiten. Die Mission, das Ziel ist klar: Nano soll groß rauskommen, aus dem Zwerg soll ein Zukunftsriese werden1. (5 500)

Nanotechnologie: Forscher entwickeln das schwärzeste Schwarz der Welt

Finsterer wird es nicht: Ein Material aus Nanoröhren absorbiert 99,965 Prozent des Lichts – neuer Weltrekord. Der Hersteller des schwärzesten Schwarzes will damit unter anderem Weltraumteleskope perfektionieren.

Schwarz ist keine Farbe. Schwarz ist die Abwesenheit von Licht. Je schwärzer ein Gegenstand erscheint, desto mehr des auf ihn fallenden Lichts absorbiert er. Der Extremfall ist ein Schwarzes Loch, das sämtliches Licht verschluckt.

Schon seit Jahrzehnten sind Wissenschaftler auf der Jagd nach dem perfekten Schwarz. Mit allerlei Tricks versuchen sie, die Reflexion von Materialien zu verringern, etwa indem sie Aluminium erst in eine Phosphor-Nickel-Lösung tauchen und dann in Salpetersäure legen. Nun haben Forscher der britischen Firma Surrey Nanosystems das nach ihrer Aussage schwärzeste Schwarz der Welt hergestellt.

Die Wissenschaftler schreiben im Fachblatt "Optics Express", dass das Material mit dem Namen Vantablack nur 0,035 Prozent des einfallenden Lichts reflektiert. Der bisherige Rekord habe bei 0,04 Prozent gelegen. Das Material besteht aus einer mit Nanoröhren beschichteten Aluminiumfolie. Es könnte beispielsweise Weltraumteleskope verbessern, weil es störende Reflexionen in dessen Inneren minimiert.

Die feinen Röhrchen bestehen aus Kohlenstoff und stehen senkrecht von der Aluminiumoberfläche ab, bilden also eine Art Pelzoberfläche. Einfallendes Licht wird von Röhrchen zu Röhrchen immer wieder reflektiert, bis es schließlich absorbiert wird und die Oberfläche minimal erwärmt. "Das Licht kann eindringen, aber

1 http://www.planet-wissen.de/natur_technik/forschungszweige/nanotechnologie/

60