Geschichte der Supercomputer

Viele von uns kennen sich mit Computern aus. Sie verwenden wahrscheinlich eine, um diesen Blogbeitrag zu lesen, da Geräte wie Laptops, Smartphones und Tablets im Wesentlichen dieselbe zugrunde liegende Computertechnologie sind. Andererseits sind Supercomputer etwas esoterisch, da sie oft als gewaltige, teure Energiesaugmaschinen angesehen werden, die im Großen und Ganzen für Regierungsinstitutionen, Forschungszentren und große Firmen entwickelt wurden.

Nehmen wir zum Beispiel Chinas Sunway TaihuLight, den derzeit schnellsten Supercomputer der Welt. Es besteht aus 41.000 Chips (allein die Prozessoren wiegen über 150 Tonnen), kostet rund 270 Millionen US-Dollar und hat eine Nennleistung von 15.371 kW. Auf der positiven Seite kann es jedoch Billiarden von Berechnungen pro Sekunde ausführen und kann bis zu 100 Millionen Bücher speichern. Und wie bei anderen Supercomputern werden damit einige der komplexesten Aufgaben in den Naturwissenschaften wie Wettervorhersage und Arzneimittelforschung bewältigt.

Als Supercomputer erfunden wurden

Die Idee eines Supercomputers entstand in den 1960er Jahren, als ein Elektroingenieur namens Seymour Cray den schnellsten Computer der Welt entwickelte. Cray, der als „Vater des Supercomputing“ gilt, hatte seinen Posten beim Wirtschaftsinformatiker Sperry-Rand aufgegeben, um sich der neu gegründeten Control Data Corporation anzuschließen und sich auf die Entwicklung wissenschaftlicher Computer zu konzentrieren. Der Titel des schnellsten Computers der Welt wurde zu dieser Zeit von der IBM 7030 „Stretch“ gehalten, die als eine der ersten Transistoren anstelle von Vakuumröhren verwendete. 

Im Jahr 1964 stellte Cray den CDC 6600 vor, der Innovationen wie die Umschaltung von Germanium-Transistoren zugunsten von Silizium und ein auf Freon basierendes Kühlsystem enthielt. Noch wichtiger ist, dass es mit einer Geschwindigkeit von 40 MHz lief und ungefähr drei Millionen Gleitkommaoperationen pro Sekunde ausführte. Damit war es der schnellste Computer der Welt. Der CDC 6600 galt oft als der erste Supercomputer der Welt und war zehnmal schneller als die meisten Computer und dreimal schneller als der IBM 7030 Stretch. Der Titel wurde schließlich 1969 an seinen Nachfolger, den CDC 7600, abgegeben.  

Seymour Cray geht allein

Im Jahr 1972 verließ Cray die Control Data Corporation, um sein eigenes Unternehmen, Cray Research, zu gründen. Nach einiger Zeit der Kapitalbeschaffung und der Finanzierung durch Investoren debütierte Cray mit dem Cray 1, der die Messlatte für die Computerleistung erneut deutlich höher legte. Das neue System lief mit einer Taktrate von 80 MHz und führte 136 Millionen Gleitkommaoperationen pro Sekunde aus (136 Megaflops). Weitere einzigartige Merkmale sind ein neuerer Prozessortyp (Vektorverarbeitung) und ein geschwindigkeitsoptimiertes, hufeisenförmiges Design, das die Länge der Schaltkreise minimiert. Der Cray 1 wurde 1976 im Los Alamos National Laboratory installiert.

In den 1980er Jahren hatte sich Cray als der herausragende Name im Bereich Supercomputing etabliert, und es wurde allgemein erwartet, dass jede Neuerscheinung seine bisherigen Bemühungen zunichte machen würde. Während Cray an einem Nachfolger für den Cray 1 arbeitete, stellte ein separates Team des Unternehmens den Cray X-MP vor, ein Modell, das als „aufgeräumtere“ Version des Cray 1 bezeichnet wurde Hufeisenförmiges Design, jedoch mit mehreren Prozessoren, gemeinsamem Speicher und manchmal als zwei Cray 1s bezeichnet, die als eine miteinander verbunden sind. Der Cray X-MP (800 Megaflops) war eines der ersten „Multiprozessor“ -Designs und ermöglichte die parallele Verarbeitung, bei der Rechenaufgaben in Teile aufgeteilt und von verschiedenen Prozessoren gleichzeitig ausgeführt werden. 

Der Cray X-MP, der ständig aktualisiert wurde, diente bis zur lang erwarteten Einführung des Cray 2 im Jahr 1985 als Standartenträger. Wie seine Vorgänger übernahm auch Crays neuestes und bestes Modell das gleiche hufeisenförmige Design und Grundlayout mit integriertem Schaltkreise auf Logikplatinen gestapelt. Diesmal waren die Komponenten jedoch so eng zusammengepfercht, dass der Computer in ein Flüssigkeitskühlsystem eingetaucht werden musste, um die Wärme abzuleiten. Der Cray 2 war mit acht Prozessoren ausgestattet, von denen ein „Vordergrundprozessor“ für die Verwaltung des Speichers und des Speichers sowie für die Anweisungen an die „Hintergrundprozessoren“ zuständig war, die mit der eigentlichen Berechnung beauftragt waren. Insgesamt wurde eine Verarbeitungsgeschwindigkeit von 1,9 Milliarden Fließkommaoperationen pro Sekunde (1,9 Gigaflops) erreicht, die doppelt so schnell ist wie die des Cray X-MP.

Weitere Computerdesigner entstehen

Unnötig zu erwähnen, dass Cray und seine Entwürfe die frühe Ära des Supercomputers beherrschten. Aber er war nicht der einzige, der das Feld voranbrachte. In den frühen 80er Jahren tauchten auch massiv parallele Computer auf, die von Tausenden von Prozessoren angetrieben wurden, die alle zusammenarbeiten, um Leistungsbarrieren zu überwinden. Einige der ersten Multiprozessorsysteme wurden von W. Daniel Hillis entwickelt, der die Idee als Doktorand am Massachusetts Institute of Technology hatte. Das damalige Ziel war es, die Geschwindigkeitsbeschränkungen einer CPU-Direktberechnung zwischen den anderen Prozessoren zu überwinden, indem ein dezentrales Netzwerk von Prozessoren entwickelt wurde, das ähnlich wie das neuronale Netzwerk des Gehirns funktioniert. Seine 1985 als Connection Machine oder CM-1 eingeführte Lösung enthielt 65.536 miteinander verbundene Einzelbit-Prozessoren.

Die frühen 90er Jahre markierten den Beginn des Endes von Crays Würgegriff für Supercomputing. Bis dahin hatte sich der Supercomputing-Pionier von Cray Research zur Cray Computer Corporation abgespalten. Die Dinge begannen für das Unternehmen nach Süden zu gehen, als das Cray 3-Projekt, der beabsichtigte Nachfolger des Cray 2, auf eine ganze Reihe von Problemen stieß. Einer der größten Fehler von Cray war die Entscheidung für Galliumarsenid-Halbleiter - eine neuere Technologie -, um sein erklärtes Ziel einer zwölffachen Verbesserung der Verarbeitungsgeschwindigkeit zu erreichen. Letztendlich verzögerte die Schwierigkeit, sie zusammen mit anderen technischen Komplikationen herzustellen, das Projekt um Jahre und führte dazu, dass viele potenzielle Kunden des Unternehmens schließlich das Interesse verloren. Es dauerte nicht lange, bis das Unternehmen kein Geld mehr hatte und 1995 Insolvenz anmeldete.

Crays Kämpfe würden einer Wachablösung weichen, da konkurrierende japanische Computersysteme die meiste Zeit des Jahrzehnts das Feld beherrschen würden. Die in Tokio ansässige NEC Corporation trat 1989 erstmals mit der SX-3 in Erscheinung und stellte ein Jahr später eine Version mit vier Prozessoren vor, die als schnellster Computer der Welt galt und 1993 in den Schatten gestellt wurde. In diesem Jahr wurde Fujitsus numerischer Windkanal gebaut Mit der Brute Force von 166 Vektorprozessoren wurde der erste Supercomputer, der 100 Gigaflops überstieg Zeit war es besonders beeindruckend). 1996 verbesserte der Hitachi SR2201 seine Leistung mit 2048 Prozessoren, um eine Spitzenleistung von 600 Gigaflops zu erreichen.

Intel nimmt am Rennen teil

Wo war Intel? Das Unternehmen, das sich auf dem Verbrauchermarkt als führender Chiphersteller etabliert hatte, machte im Bereich Supercomputing erst gegen Ende des Jahrhunderts richtig Furore. Dies lag daran, dass die Technologien insgesamt sehr unterschiedliche Tiere waren. Beispielsweise sollten Supercomputer so viel Prozessorleistung wie möglich bereitstellen, während Personalcomputer darauf abzielen, die Effizienz durch minimale Kühlleistung und begrenzte Energieversorgung zu steigern. So wagten die Intel-Ingenieure 1993 endlich den Sprung, indem sie den kühnen Ansatz verfolgten, massiv parallel zu dem 3.680-Prozessor Intel XP / S 140 Paragon zu arbeiten, der bis Juni 1994 den Gipfel der Supercomputer-Rangliste erreicht hatte. Es war der erste Supercomputer mit massiv parallelem Prozessor, der unbestreitbar das schnellste System der Welt war. 

Bisher war Supercomputing vor allem die Domäne derjenigen, die über die nötigen finanziellen Mittel für solch ehrgeizige Projekte verfügten. All dies änderte sich 1994, als Auftragnehmer des Goddard Space Flight Center der NASA, die keinen solchen Luxus hatten, eine clevere Methode entwickelten, um die Möglichkeiten des Parallel-Computing zu nutzen, indem sie eine Reihe von PCs über ein Ethernet-Netzwerk miteinander verbanden und konfigurierten . Das von ihnen entwickelte „Beowulf-Cluster“ -System bestand aus 16 486DX-Prozessoren, die im Gigaflop-Bereich betrieben werden konnten und weniger als 50.000 US-Dollar kosteten. Es hatte auch den Unterschied, Linux anstelle von Unix auszuführen, bevor Linux das Betriebssystem der Wahl für Supercomputer wurde. Ziemlich bald folgten Heimwerker überall ähnlichen Bauplänen, um ihre eigenen Beowulf-Cluster zu gründen.  

Nachdem Intel den Titel 1996 an den Hitachi SR2201 abgegeben hatte, kehrte Intel in diesem Jahr mit einem auf dem Paragon ASCI Red basierenden Design zurück, das mehr als 6.000 Pentium Pro-Prozessoren mit 200 MHz umfasste. Trotz der Abkehr von Vektorprozessoren zugunsten von Standardkomponenten erlangte der ASCI Red die Auszeichnung, der erste Computer zu sein, der die Grenze von einer Billion Flops (1 Teraflops) durchbrach. Bis 1999 ermöglichten Upgrades, drei Billionen Flops (3 Teraflops) zu übertreffen. Der ASCI Red wurde in den Sandia National Laboratories installiert und diente hauptsächlich zur Simulation von Nuklearexplosionen und zur Unterstützung der Aufrechterhaltung des Nukleararsenals des Landes.

Nachdem Japan mit dem NEC Earth Simulator mit 35,9 Teraflops für einige Zeit die Führung im Bereich Supercomputing wieder übernommen hatte, brachte IBM das Supercomputing ab 2004 mit dem Blue Gene / L auf ein beispielloses Niveau. In diesem Jahr stellte IBM einen Prototyp vor, der den Erdsimulator (36 Teraflops) gerade noch übertraf. Bis 2007 würden die Ingenieure die Hardware hochfahren, um ihre Verarbeitungskapazität auf fast 600 Teraflops zu steigern. Interessanterweise war das Team in der Lage, solche Geschwindigkeiten zu erreichen, indem es mehr Chips verwendete, die relativ wenig Strom, aber energieeffizienter waren. Im Jahr 2008 machte IBM erneut den Spatenstich, als er den Roadrunner einschaltete, den ersten Supercomputer, der eine Billiarde Gleitkommaoperationen pro Sekunde (1 Petaflop) überschritt..