Miniaturisierung

Jede Chipgeneration wird kleiner und das geht unendlich so weiter, richtig?

Falsch!

Es gibt einfach physikalische Grenzen. Wenn etwas nur noch aus wenigen Atomen besteht, dann wird das Verhalten nicht mehr deterministisch sondern unterliegt dem Zufall – bzw. kann nur als Wahrscheinlichkeit angegeben werden. Und ein Rechner bei dem 1+1 nur meistens 2 ist funktioniert einfach nicht mehr.

Das Problem dabei is, dass das Verhalten eines einzelnen Atoms langfristig unvorhersagbar ist. Erst wenn man mehrere gleichzeitig verwendet verhält sich die Gesamtheit so wie wir es aus der Makrowelt gewohnt sind. (Und ja, wir tun schon lange einzelne Atome manipulieren)

Wir sind heute bereits soweit, dass wir nicht nur Atome in Massen handhaben (Chemie ist, wenn man das gleiche Nanomaterial ganz oft herstellt), sondern auch großflächige Strukturen in sehr feinem detail bearbeiten können. Aktuelle Chips verwendent Strukturbreiten um 14 Nanometer (nm) – die Spitze ist der Massenfertigung derzeit bereits unter 7 nm, die Entwicklung arbeitet an 4 nm. Soweit nicht tragisch, außer man denkt daran, dass der Radius eines Siliziumatoms, also der Abstand zwischen zwei Atomen, je mach Packung zwischen 0,1 und 0,2 nm liegt. Das heist, eine 10 nm breite Struktur besteht nur noch aus 50-100 Atomen. Da fängt es bereits an, dass es nicht mehr wirklich funktioniert.

Aktuell sorgt die Zunahme der Genauigkeit nicht mehr so sehr für eine weitere Verkleinerung – auch wenn das populär so geschildert wird – sondern ‘nur’ für eine exaktere Fertigung. Die Chips selber werden aber größer und größer in der Fläche.

Und ja, das hier hat was vom Siganesenproblem weil es scheinbar nur um Längen geht. Chips sind natürlich 3D Konstruktionen und das wird auch ausgenützt. Aktuelle Chips haben schon mal 30 oder 40 Lagen und Bauteile die hochkant ‘montiert’ sind. Und dann klebt man auch mal mehrere übereinander. Nicht nur um so das Volumen zu nutzen, sondern auch um die langsam viel zu lang werdenden Leiterbahnen wieder zu verkürzen. Es ist ein Problem wenn man eine CPU beschleunigen will, aber die Lichtgeschwindigkeit (ist im Chip eh nur ca. 0,2-0,3c) dafür sorgt, dass es von einem Ende zum anderen länger dauert als die angestrebte Frequenz erlaubt.

3D Stapelung verschlimmert aber das Wärmeproblem. Strom der einen Leiter durch fliest erwärmt diesen. Und viel Rechnen bedeutet viel Strom, also viel Wärme. Wärme, die man schon bei (vergleichsweise) flachen Chips nur schwer wegbekommt. Bei Volumen wirds entsprechend schlimmer. Und das obwohl heute fast kein Strom mehr durch einzelne Elemente fließt. Es wird nicht mehr mit Stromfluss geschalten. Alles Eins und Null besteht nur noch aus elektrischen Feldern. Nur auch diese winzigen Felder müssen geladen und entladen werden Dabei werden jeweils nur wenige hundert Elektronen verschoben – in der Summe ergibt das dann aber doch wieder gigantische ströme und entsprechend Wärme.

Hier liegt übrigens auch der Grund warum man inzwischen Chips mit phänomenal niedrigem Stromverbrauch bauen kann. Chips die mit der Ladung die Nerven liefern arbeiten können. Nur halt nicht schnell und viel.

Und all das ist bereits in der Massenproduktion. Für Einzelstücke ist es schon seit Jahrzehnten möglich jedes Atom einzeln zu platzieren und als Baumaterial zu verwenden. Dauert halt. Wie bei 3D Druckern im Großen.

 

Das gleiche gilt für alles Andere in der Mikrotechnik. Es