Supercomputer von gestern bis heute: von IBM ES/3090 bis IBM Blue Gene/Q

By | 9. Dezember 2013

Der IBM Deep Blue ist einer von zahlreichen Supercomputern, der seiner Zeit voraus warZugegeben, die SuperComputer Conference 2013 ist schon ein paar Tage her, aber heute habe ich ein tolles Video entdeckt, in dem Alan Benner von IBM seine Zuseher auf eine interessante Zeitreise mitnimmt. Es geht um fast 70 Jahre HPC und Supercomputing aus der Sicht von „Big Blue“ und wie sich die ersten Röhren-basierten Rechner zu HPC-Clustern à la SuperMUC und JUQUEEN gemausert haben.

Begonnen hat alles in den 1950er und 60er Jahren, als IBM ganz exklusiv für die US Air Force den IBM SAGE Computer bauen durfte. Damals befanden sich die USA noch im Kalten Krieg mit der UdSSR, und SAGE sollte dabei helfen, auf Basis von Radarüberwachung herauszufinden, ob sich „der Feind“ gerade näherte – oder auch nicht.

In gut 30 Jahren von 500 MegaFLOPS zu 20 PetaFLOPS

In den späten 80er Jahren entwickelte IBM einen Supercomputer namens IBM ES/3090, der umgerechnet 500 Millionen Fließkommaberechnungen pro Sekunde durchführen konnte, also auf einen Rechenwert von 500 MegaFLOPS kam. Preis: mehrere Millionen US-Dollar. Im Vergleich dazu leisten die heutigen schnellsten Supercomputer 20 PetaFLOPS und mehr, also 20 Millionen TeraFLOPS, was wiederum 20 Billionen MegaFLOPS entspricht. Diese Rechner sind also um ein Viel-Viel-Viel-Faches schneller als der IBM ES/3090, und das zu einem Bruchteil des damaligen Preises.

Anfang der 90er Jahre kamen die IBM SP1 und IBM SP2 Systeme auf den Markt, wobei SP für „Scalable POWERparallel“ steht. Diese verfolgten erstmalig das Konzept eines „Out-of-the-Box“-Servers, indem man mithilfe von standardisierten Komponenten den Supercomputer seiner Wahl zusammenbauen konnte. Damit war ein erster Vorgänger der heutigen IBM NeXtScale-Systeme erschaffen, denn gestern wie heute ging und geht es um hochmodulare Computersysteme, die sich den Bedürfnissen und Rechenkapazitäten seiner Anwender anpassen.

Das erklärt auch den langjährigen Erfolg des IBM SP2, der von 1993 bis 2001 eine Vielzahl von Supercomputer-Projekten hervorbrachte. Der SP2 bestand aus bis zu 128 Recheneinheiten (in speziellen Fällen auch aus 512 Nodes), die jede für sich eine Vielzahl von POWER- und PowerPC-basierten Multicore-Prozessoren beherbergte.

IBM GPFS sorgt seit 1998 für parallele Storage-Systeme

IBM Blue GeneAls Betriebssystem kam IBM AIX, ein UNIX-Derviat, zum Einsatz sowie hochspezialisierte Software, die sich um das Parallelisieren der Rechenoperation und Datenströme kümmerte. Auch das stellte die Weichen für heutige Systeme wie IBM Platform HPC und IBM GPFS, das bereits 1998 entstand. GPFS folgte der Idee, große Speichersysteme bestmöglich nutzen zu können, indem sich parallele Lese- und Schreiboperationen ausführen lassen. Dieses Konzept hat bis heute Bestand und kommt nach wie vor in großen Installationen zum Einsatz.

IBM Supercomputer sind Garant für Weltrekorde

In den Folgejahren entwickelten sich diese Systeme kontinuierlich weiter und wurden immer leistungsfähiger, was sich unter anderem in diversen Weltrekorden niederschlug, die IBM mit seinen Supercomputern aufstellte. Zu nennen ist der IBM Deep Blue (der den damaligen Schachweltmeister Garri Kasparow 1996 zum ersten Mal schlug), der IBM Roadrunner (der von Juni 2008 bis November 2009 der schnellste Rechner der Welt war) und der IBM Blue Gene/Q, der noch heute vielfach zum Einsatz kommt, wie ein Blick auf die aktuelle Top-500-Liste zeigt.

Einen kleinen augenzwinkernden Blick in die Zukunft gewährt der Film natürlich auch: So wird es in 25 Jahren den IBM SP38 geben und IBM wird immer noch eine der führenden Supercomputer-Firmen sein. Na dann, Film ab!

Bitte folgen

Michael Hülskötter

Ich schreibe im Auftrag der IBM Deutschland GmbH auf dem Hightech Computing Blog.
Bitte folgen

Schreibe einen Kommentar