• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

in 3 Jahren: 20 GHz

Desolator

OT-Forum, Flashgame0wner 2008
Mitglied seit
05.04.2003
Beiträge
4.264
Reaktionen
10
Ort
Düsseldorf
Das Verkaufsdatum steht schon fest. Anfang 2007 soll er auf dem Markt sein: der Chip mit 20 Gigahertz. Dann sind Computer 10-mal so leistungs- fähig wie heute. Damit man den Chip produzieren kann, müssen zwei ganz neue Fabriken gebaut werden – mit einem gigantischen Aufwand

Computerbauer sind immer in Eile. Haben sie eine Rechnergeneration entwickelt, arbeiten sie bereits an der nächsten, projektieren die übernächste und forschen an der darauf folgenden. Für Computerbauer bedeutet Stillstand Tod. Wer heute etwas Bahnbrechendes auf den Markt gebracht hat, kann morgen schon von der Konkurrenz überholt werden.
Immer weiter! Und so schnell wie möglich! Das ist das Credo der Computeringenieure, und von vorangegangenen Erfolgen ermutigt, wagen sie Voraussagen: Danach werden sie Anfang 2007 einen Computerchip präsentieren können, der eine Milliarde Transistoren in sich vereinigt und mit 20 Gigahertz (GHz) getaktet wird – also 20 Milliarden mal pro Sekunde schaltet. Er wird mindestens zehnmal so leistungsfähig sein wie heutige Chips und dennoch nicht mehr kosten.

Doch bis dahin ist es ein weiter Weg – viel weiter, als der Laie ahnt. Denn mit den Maschinen und den Methoden von heute lassen sich die schnellen Rechner der Zukunft nicht produzieren. Um ständig besser zu werden, müssen die Hersteller ihre Fabriken dauernd umbauen und unablässig Neues entwickeln. Alle zwei Jahre ist es nötig, eine völlig neue Produktionsmethode einzuführen, so die Firma Intel, größter Chiphersteller der Welt. Immer mehr Transistoren auf immer der gleichen Fläche – das geht eben nur mit immer neuen Einfällen! Im Mittelpunkt dieser Bemühungen steht die CPU (Central Processing Unit) eines Computers – die zentrale Schaltstelle, in der alle Berechnungen ablaufen. Ein normaler Rechner ist ja hauptsächlich »Verpackung«: Monitor, Tastatur, Festplatten, Stromversorgung oder Speicher sind nur Werkzeuge, die es uns ermöglichen, mit der CPU zu arbei-ten. Der CPU-Chip selbst ist winzig klein, kaum größer als ein 2-Euro-Stück – und selbst er ist haupt-sächlich Verpackung. Sein Gehäuse hat nur deshalb diese Ausmaße, damit es auf der Unterseite Platz bietet für 478 Anschlussbeinchen; der eigentlich arbeitende Teil im Inneren ist jedoch nicht größer als ein Fingernagel und dünner als ein menschliches Haar.

Diese winzige Siliciumfläche ist das Herz unserer modernen Zivilisation. In ihr bündeln sich der Einfallsreichtum und die Intelligenz der Ingenieure. Besaß der erste Mikroprozessor 1971 nur 2300 Transistoren, so vereinte der 1982 erschienene »286er« schon 134000 Transistoren auf derselben Fläche. Abermals elf Jahre später kam der Pentium-Chip mit 3,1 Millionen Transistoren in den Handel, und in heutigen Computern arbeitet oft ein Pentium-4-Chip mit 55 Millionen Transistoren. Um diese immer winzigeren Strukturen herzustellen, müssen die Computerbauer immer aufwändigere und größere Fabriken bauen. Heutige Chipfabriken sind fensterlose Hallen, groß wie ein Fußballfeld und teuer wie ein Flugzeugträger: Drei Milliarden Euro rechnet man für einen Neubau – Tendenz stark steigend. Die Gebäude sind voll gestopft mit dem Feinsten und Teuers-ten, was die heutige Technik zu bieten hat. So muss das komplette Gebäude erschütterungsdämmend gebaut sein, weil schon kleinste Vibrationen die Herstellung der winzigen Strukturen stören würden. Die Luft muss geradezu aberwitzig sauber sein, zehntausendmal sauberer als in jedem Operationssaal. Die Arbeiter dürfen die Be-triebsräume nur in eine Art Raumanzug gehüllt betreten; Deo und Rasierwasser sind verboten, Raucher werden gar nicht erst eingestellt. Alle Chemikalien und Grundstoffe sind von einer Reinheit, die früher nicht vorstellbar gewesen ist, und jeder kleine Handhabungsfehler kann die ganze Produktion lahm legen.

Dabei ist das Grundprinzip der Chipherstellung sogar seit vierzig Jahren unverändert geblieben: Auf eine polierte Trägerplatte (Wafer) aus Silicium tragen die Techniker schichtweise kompliziert geformte Muster aus unterschiedlichen Materialien auf. Wählt man dazu Siliciumdioxid, Kupfer und Aluminium und behandelt man diese Stoffe richtig (etwa durch das Aufsprühen von Arsen oder Bor oder durch das Bedampfen mit Gasen), dann gelingt es, die Grundbausteine aller Digitaltechnik herzustellen: Transistoren, kleine Stromschalter, die immer drei Anschlüsse haben – zwei Anschlüsse, durch die der Strom fließen kann, und einen dritten, mit dem man die Verbindung zwischen den beiden anderen an- und ausschalten kann. Verdrahtet man viele Transistoren auf die richtige Weise miteinander, so können sie die kompliziertesten Aufgaben erledigen.

Begreiflicherweise lassen sich die winzigen Transistoren nur dann herstellen, wenn es gelingt, die verschiedenen Materialschichten mit höchster Präzision aufzutragen. Deshalb wählen die Ingenieure eine Art indirektes Verfahren: Sie überziehen den Wafer mit einer dünnen Lage des neuen Materials und ätzen dann die nicht benötigten Stellen weg.
Zum Wegätzen beschichten sie die neu aufgebrachte Lage mit einem fotoempfindlichen Lack. Darauf belichten sie das Muster derjenigen Stellen, die geätzt werden sollen. An den belichteten Stellen ändert der Lack seine chemischen Eigenschaften und kann mit einem speziellen Lösungsmittel abgewaschen werden. Die unbelichteten Stellen des Lacks bleiben erhalten und schützen während des Ätzvorgangs die abgedeckten Partien. So gelingt es, Schicht um Schicht komplizierte Formen und Verbindungen auf dem Wafer unterzubringen.

Um einen heutigen Pentium-4-Chip herzustellen, sind rund 300 solcher Arbeitsschritte nötig. Die Arbeiter in den Chipfabriken befördern dazu die Wafer von einer Station zur an-deren: Von der Belichtungsmaschine zur Ätzmaschine, von der Spülstation zur Be-schichtungseinrichtung, alles immer in der richtigen Reihenfolge – und bitte schön ohne je einen der zigtausend Wafer, die gleichzeitig in der Fabrik bearbeitet werden, mit einem anderen zu vertauschen. Sechs Wochen braucht ein Wafer, bis er alle Schritte durchlaufen hat und bis aus einer spiegelglatten Siliciumscheibe mit 30 Zentimeter Durchmesser ein bis zu 200000 Dollar teurer Träger (gemessen am Verkaufspreis der fertigen Prozessoren) geworden ist, auf dem etwa 450 fingernagelgroße Pentium-Chips aufgereiht sind. Jeder von ihnen enthält in der zentralen Schicht 55 Millionen Transistoren, deren 165 Millionen Anschlüsse in sieben darüber angeordneten Ebenen durch insgesamt drei Kilometer Kupferleitungen miteinander verbunden sind.

Wollen die Techniker diese Leistungen weiter steigern, stoßen sie allerdings auf prinzipielle Hindernisse. Das wichtigste: die Wellenlänge des Lichts. Aus physikalischen Gründen kann man mit Licht keine Strukturen belichten, die kleiner sind als die halbe Wellenlänge des Lichts. Inzwischen sind die Transistoren aber winziger als ein Grippevirus und die Leitungen so schmal, dass erst tausend von ihnen nebeneinander gelegt die Breite eines menschlichen Haares erreichen. Um noch kleinere Strukturen auf den fotoempfindlichen Lack zu projizieren, ist das verwendete Licht einfach zu grob.

Dabei benutzen die Chiphersteller seit Anfang 1995 schon besonders »feines« ultraviolettes Licht mit einer Wellenlänge von 248 nm (1 nm = 1 Nanometer = ein Millionstel Millimeter). Es erlaubt ihnen, Strukturen von 130 nm Breite zu belichten, aus denen sie mit trickreichen Ätzverfahren den nur 70 nm breiten zent-ralen Teil eines Transistors herstellen. Doch damit sind die heute verfügbaren Tricks ausgereizt. Um noch kleinere Transistoren zu produzieren, be-nötigt man einfach kurzwelligeres Licht.
Der Wechsel des verwendeten Lichts ist natürlich weit schwieriger als das Auswechseln einer Glühbirne. So ist geplant, vom Jahr 2005 an Licht mit einer Wellenlänge von 157 nm einzusetzen. Doch die bisher zur Projektion benutzten Quarzglas-Linsen sind für dieses Licht undurchsichtig. So müssen die Techniker nun erkunden, wie sie hoch präzise Linsen aus extrem reinem Calciumfluorid (Flussspat) herstellen können, dem einzigen Material, das in dem neuen Wellenlängenbereich durchsichtig ist. Auch Luft ist für 157-nm-Licht undurchsichtig; die Belichtungsmaschinen müssen daher entweder im Vakuum oder in einer Stickstoffatmosphäre arbeiten. Passend zum neuen Licht entwickeln Chemiker derweil einen neuen Fotolack und mit ihm eventuell neue Lösungsmittel und neue Ätzchemikalien.

Doch diese Entwicklungsarbeit trägt die Ingenieure höchstens vier Jahre weiter. Dann werden die Chipstrukturen so klein, dass auch das 157-nm-Licht wieder zu grob ist. Spätestens ab 2009 wollen die Chiphersteller deshalb einen gewaltigen Sprung nach vorn wagen und extrem ultraviolettes Licht, abgekürzt EUV-Licht, von nur 13 nm Wellenlänge einsetzen. Damit lassen sich – theoretisch – Transistoren herstellen, die nur noch 40 Atome breit sind. Etwa zweihundert Probleme haben die Ingenieure in ihren internen Unterlagen aufgelistet, die bis dahin noch gelöst werden müssen. Das schwierigste: Für EUV-Licht gibt es keine durchsichtigen Materialien. Dadurch funktioniert das ganze gewohnte Zusammenspiel aus Linsen und Belichtungsmasken nicht mehr – man muss also etwas komplett Neues erfinden.

Zurzeit arbeiten die Forscher an Hohlspiegeln, die die Funktion der Linsen übernehmen sollen, und an Belichtungsmasken, die mit Reflexion arbeiten. Doch die Spiegel, aufgebaut aus 80 wechselnden Lagen von Silicium und Molybdän, müssen von unvorstellbarer Genauigkeit sein. Maximal zulässige Fehlergröße: 50 nm. Den Spiegel von solchen Fehlern frei zu halten entspräche der Aufgabe, auf einem Fußballfeld Krümel vom Durchmesser eines menschlichen Haares zu finden. Ob diese Präzision je zu schaffen ist, ist im Moment noch offen – auch wenn die Techniker solche Herausforderungen bisher immer ge-meistert haben.

Doch selbst wenn es gelingt: Nur die Firma, die als erste mit einem neuen Chip am Markt ist, wird damit wirklich Geld verdienen. Denn ausschließlich in den ersten Monaten ist der Preis für neue Chips hoch, dann fällt er rapide. In der gesamten Branche herrscht daher ein mörderischer Zeit- und Kostendruck. Wenn er eine neue Chipgeneration einführen will, baut der Hersteller Intel zu-nächst einmal eine Pilotfabrik. Hier nehmen die Techniker all die neuen Geräte in Betrieb, die in der Zwischenzeit entwickelt wurden. Die alten Geräte für die Herstellung der vorangegegangenen Chipgeneration werden nun »degradiert« und kommen dort zum Einsatz, wo relativ grobe Lagen im Chip hergestellt werden, etwa bei der Verkabelung der Transistoren. In etwa
zweijähriger intensiver Arbeit merzen die Ingenieure in der Pilotfabrik alle Anfangsfehler aus und senken die Ausschussquote immer weiter, bis die Produktionsreife erreicht ist.

Ist das geschafft, errichtet Intel eine genaue Kopie der Pilotfabrik an einem anderen Standort. Genau bedeutet dabei: wirklich genau. Bis zu den Türklinken ist alles identisch, sämtliche Abläufe und Chemikalien werden übernommen, selbst die Schulungen für die Arbeiter werden 1:1 kopiert. So startet die neue Produktionsstätte bereits von Anfang an mit derselben geringen Fehlerquote, die die Pilotfabrik schon erreicht hat. Die Produktion im großen Stil kann sofort anlaufen. Der größte Feind dabei ist der Schmutz. Jedes Staubkorn ist zerstörerisch; ein einzelnes Bakterium, das während der Produktion auf den Wafer gerät, macht den entstehenden Chip unbrauchbar. Leitete man Luft aus einem OP-Saal in die Produktionsräume, so wären diese für Monate unbrauchbar. Ein Kamerateam, das für wenige Minuten in einer Chipfabrik in Irland filmen durfte – selbstverständlich in »Raumanzüge« verpackt und mit sorgfältigst gereinigtem Gerät – hat immer noch einen Staubschaden von vier Millionen Euro angerichtet!

Die immer kleineren Strukturen der Chips werfen die Frage auf: Wie beschäftigt man die zusätzlichen Transistoren sinnvoll? Dafür sind die Schaltungsingenieure zuständig, und für sie ist ein neuer Chip so etwas wie eine neue Stadt. Und tatsächlich: Hätten die Leiterbahnen die Breite von Fußwegen, so wäre ein Pentium-4-Chip so groß wie Berlin. In dieser Stadt gibt es ein Viertel, in dem mathematische Berechnungen stattfinden; es gibt an der Peripherie eintönige Siedlungen, die dem Speichern von Daten dienen; es gibt kleine und schnell erreichbare Datenlager in der Nähe des Zentrums; es gibt spezielle Quartiere, in denen bestimmte Befehle bearbeitet werden; und es gibt an den Ausfallstraßen ganze Industriegebiete, in denen nichts anderes geschieht, als Daten aus dem Prozessor hinaus- und andere hineinzutransportieren.
Die Entwicklung des zugehörigen Stadtplans ist eine Wissenschaft für sich – die wiederum nur mit massiver Computerhilfe zu bewältigen ist. Allein an der Überprüfung des Planes arbeiten ganze Abteilungen. Jede von ihnen bekommt ein Stadtviertel zugewiesen und versucht – natürlich ebenfalls am Computer – Fehler zu finden, lange ehe die Produktion des Chips beginnt.

Besonders raffiniert ist diese Überprüfung bei jenem Teil, der für Berechnungen zuständig ist: Ein hochspezialisiertes Computerprogramm ahmt dabei die Arbeitsweise von Mathematikern nach und versucht zu beweisen, dass das geplante Schaltungslayout korrekt rechnet. Solange das nicht gelingt, ist noch etwas faul. Nachdem sie über 10000 verschiedene Beweise generiert hatten, fanden die Computer im Rechenwerk des Pentium-4-Chips einen Fehler, den man auf anderem Wege wohl kaum aufgespürt hätte – er taucht statistisch gesehen nur in einer von einer Milliarde Billionen Rechnungen auf.

Noch mehr als mögliche Fehler im Schaltungsplan beunruhigt die Ingenieure ein anderes Problem: der Stromverbrauch. In dem Maße, wie die Anzahl der Transistoren steigt, steigt leider auch ihr Stromhunger. Deshalb werden Computernetzteile immer stärker, deshalb müssen moderne Prozessoren mit einem Lüfter gekühlt werden. In heutiger Technik ausgeführt, müsste ein 20-Ghz-Chip eine Wasserkühlung besitzen. »Leistung um jeden Preis«, so verkündet daher Intel, ist die Parole der Vergangenheit; in Zukunft geht es darum, die Stromaufnahme zu verringern, ohne an Leistung einzubüßen. Einige Tricks dafür haben die Ingenieure schon auf Lager: Sie planen, ganze »Stadtviertel« der künftigen Chips von der Stromversorgung abzukoppeln, solange sie nicht benötigt werden. Natürlich muss es dann auf diesen Chips kleine »Schalthäuschen« ge-ben, die den Strom in den betreffenden Bereichen wieder anschalten, sobald diese gebraucht werden.

Ein anderer Trick ist der Strom sparende Transistor. Durch veränderte Materialien und einen etwas anderen Aufbau der Schichten, so haben die Forscher herausgefunden, kann man den Stromverbrauch deutlich senken. Im Labor gelang es ihnen schon, einen Transistor herzustellen, der dreimal so klein ist wie die heute üblichen und der in der Lage ist, tausend Milliarden mal pro Sekunde zu schalten, also mit 1000 GHz! Was bringen uns riesige Mengen winzigster Transistoren, die auf fingernagelgroßer Fläche zusammengeballt zehn- oder hundertmal leis-tungsfähiger sind als heutige Computer? Um Antworten sind die Techniker nicht verlegen: So wollen sie eine komplette Funkausrüstung mit auf den Prozessorchip packen – damit wären noch kleinere Handys möglich, die sich mit so wenig Strom be-gnügen, dass eine Batterie einen Monat lang hält.

Mit der vergrößerten Rechenpower lie-ßen sich auch selbstkonfigurierende Netzwerke aus Sensoren aufbauen. Dazu werden in einer Vielzahl kleiner Bauteile Sensor und Funktechnik vereint. Streut man die Geräte über einem Gebiet aus, wo z. B. die Temperatur oder der Kampfgasgehalt der Luft registriert werden soll, so verschalten sich die Sensoren selbsttätig zu einem Netzwerk und übertragen untereinander die Messwerte, die sich dann zentral abrufen lassen. Wird ein Sensor zerstört, konfigurieren sich die anderen einfach neu. Besonders Meteorologen und Militärs dürften sich über solche Netzwerke freuen. Doch die Chiptechniker diskutieren noch ganz andere Visionen: So überlegen sie, auf dem Chip Mikro-Kühlschränke zu installieren, sodass eine Kühlung von außen überflüssig würde. Sie planen auch, optische Wandler einzubauen und die Chips direkt an Glasfaserleitungen anzuschließen: Über eine einzige Glasfaser könnte ein Chip der Zukunft mehr Daten schicken, als heute im ganzen Internet unterwegs sind. Außerdem könnte die vergrößerte Rechenpower es ermöglichen, PCs über Sprache zu steuern; sogar automatische Telefondolmetscher wären möglich – Computer, die beispielsweise die Zimmerbestellung eines Deutschen ins Japanische übersetzen und die Antwort des japanischen Gesprächspartners zurück ins Deutsche.

Doch irgendwann werden selbst Computerbauer an unüberwindliche Grenzen stoßen. Der Wissenschaftler Seth Lloyd hat schon einmal ausgerechnet, wann das spätestens der Fall sein wird: Wenn die Computer 5,4 3 1050 Operationen pro Sekunde ausführen und dabei 1031 Bit an Information speichern. Dann tritt ein physikalischer Zustand ein, der unser heutiges Vorstellungsvermögen sprengt: Alle Materie des Rechners wird in Energie umgewandelt – d. h. er verschwindet. Sollten die Computerbauer mit derselben Geschwindigkeit fortfahren wie bisher, so ist abzusehen, wann sie an dieses Limit stoßen werden – schon in 250 Jahren!

©PM :elefant:
 

Desolator

OT-Forum, Flashgame0wner 2008
Mitglied seit
05.04.2003
Beiträge
4.264
Reaktionen
10
Ort
Düsseldorf
jetzt bedankt ihr euch brav und träumt von der schönen Zukunft
 
Mitglied seit
03.12.2003
Beiträge
3.929
Reaktionen
0
Dankeschön.


Alle Materie des Rechners wird in Energie umgewandelt – d. h. er verschwindet.

Beweise!

Maybe beamt er sich dann woanders hin :ugly:
 
Mitglied seit
19.09.2001
Beiträge
2.532
Reaktionen
0
In 3 Jahren 20 Ghz? Die Rechenleistung verdoppelt sich inzwischen ja nichtmal mehr alle 1,5 Jahre.
 

Krunx[ShAngO]

Guest
tja, ich denke, dass sie mit einer speziellen entwicklung der technik rechnen. solche sachen sind etwas wie konjunkturschwankungen. zudem gibt es ja noch so späße wie die bio-informatik...
mal sehen ob die nicht auch mal was rausbringen..
ich warte drauf, dass meine linke hand endlich ne riesige festplatte ist^^

greetz
krunx
 

Busta_inaktiv

Guest
Original geschrieben von (nSK)MalagaNt
In 3 Jahren 20 Ghz? Die Rechenleistung verdoppelt sich inzwischen ja nichtmal mehr alle 1,5 Jahre.
noch dazu steigert sich die leistung momentan nicht über höhere frequenzen
 
Mitglied seit
12.04.2002
Beiträge
7.769
Reaktionen
0
Ort
Wien
alles sensationsmacherei dieser artikel, der hat keine aussagekraft (schon allein weil von der "Bild" der Wissenschaftsmagazine ist)
 
Oben