Interview mit Prof. Dr. Bode: „Der IBM SuperMUC ist ein echter Universalrechner!“

By | 27. November 2013

Prof. Dr. Arndt Bode vor dem SuperMUC des LRZ Garching bei MünchenVor knapp drei Wochen habe ich über einen Supercomputer berichtet, der in Garching bei München steht, der sich SuperMUC nennt und der seine Rechenleistung von mehr als 150.000 Intel Xeon Prozessoren bezieht. Solch ein Wunderding der Technik hat natürlich viele Väter, einer von ihnen ist Prof. Dr. Arndt Bode, der den Vorsitz des Direktoriums des Leibniz Rechenzentrums inne hat.

Mit ihm konnte ich dank eines schönen Zufalls auf Facebook ein ausführliches Interview führen, in dem er mir zahlreiche Details rund um SuperMUC verriet: Warum IBM den Supercomputer bauen und liefern durfte, was ihn am SuperMUC am meisten begeistert und welche Pläne es gibt, den Superrechner aus Garching wieder unter die Top 5 der Top-500-Liste zu bringen.

Herr Bode, wer nutzt denn den SuperMUC hauptsächlich?

Der SuperMUC ist ein Werkzeug für die Wissenschaft, und das in dreierlei Hinsicht. Erstens wird unser IBM-Cluster von europäischen Wissenschaftlern aus 26 Ländern genutzt. Diese bekommen auf Basis eines begründeten und qualifizierten Antrags bestimmte Rechenzeiten des SuperMUC gewährt, und zwar im Gesamtumfang von 30 Prozent der vorhandenen Rechenkapazität. Das ist unser Beitrag zum europäischen Wissenschaftsverbund Partnership for Advanced Computing in Europe (PRACE).

Das zweite und größere Kontingent an Rechenzeit steht allen deutschen Wissenschaftlern über das Gauss Centre für Supercomputing (GCS) zur Verfügung, die sich ähnlich wie ihre europäische Kollegen um die vorhandenen Kapazitäten bewerben müssen. Und schließlich nutzen wir den SuperMUC selbst, wenngleich nur zu einem kleinen Teil, nämlich zu weniger als 10 Prozent. Diese Rechnerkapazitäten stehen zu Testzwecken zur Verfügung, um beispielsweise neue Anwendungen und Tools zu erproben.

Warum ist der SuperMUC ein IBM-Rechner?

Der Supercomputer "SuperMUC" im LRZ GarchingIBM hatte sich in einem neunmonatigen Auswahlprozess um den „Bau“ des SuperMUC beworben. Damit war „Big Blue“ einer von acht Kandidaten, unter denen wir den geeignetsten für das Projekt Supercomputer ausgewählt haben. Für die zu erwartende Leistungsfähigkeit des HPC-Clusters kamen etwa 20 Benchmarks zum Einsatz, die aus bekannten Anwendungen und einer Sammlung weiterer Applikationen bestanden, die bei unseren Kollegen des PRACE-Netzwerks zum Einsatz kommen. Aber auch synthetische Benchmarks wie LINPACK haben wir zur Bewertung des künftigen Supercomputers zurate gezogen. Diesen Benchmark-Mix hat IBM am besten absolviert, weswegen wir den Auftrag an das Unternehmen vergeben haben. Aber auch die Energieeffizienz des SuperMUC von IBM hat uns am meisten überzeugt.

Was begeistert Sie am SuperMUC besonders?

Nun, da gibt es zwei besondere Merkmale, die mich am SuperMUC besonders faszinieren: Zum einen handelt es sich beim IBM-Cluster um einen Universalrechner, der mit einer Vielzahl unterschiedlicher Anwendungen bestens klar kommt, und das auf Basis eines angemessenen Portierungsaufwands, da ausschließlich Standardprozessoren vom Typ Intel Xeon eingesetzt werden. Erst kürzlich konnte der SuperMUC drei wissenschaftliche Weltrekorde in den Bereichen Geo-, Teilchen- und Astrophysik aufstellen. Zum anderen ist die extreme Leistungsfähigkeit des SuperMUC äußerst energieeffizient, was einerseits mit den verbauten Komponenten und andererseits mit dem sehr innovativen Kühlungskonzept des LRZ zu tun hat.

Wie wollen Sie den SuperMUC wieder unter die Top 5 bringen?

Zunächst ist einmal festzuhalten, dass der SuperMUC auf der aktuellen Top-500-Liste immer noch zu den zehn schnellsten Rechnerverbünden der Welt zählt. Nichtsdestotrotz planen wir gemeinsam mit der IBM den Ausbau des SuperMUC, um den steigenden Anforderungen gerecht zu werden. Hierfür haben wir mit IBM im Frühjahr 2013 einen Vertrag unterzeichnet, der die Erweiterung des SuperMUC um Intel Xeon-Prozessoren der Haswell-Generation bis Ende 2014 vorsieht. Das wird den SuperMUC mit 6,4 Petaflops in eine neue Leistungsdimension katapultieren. Für welchen Platz diese Rechenkapazität in den Top 500 Ende 2014 reicht, können wir natürlich nicht vorhersagen.

Wohin bewegt sich das Supercomputing in Zukunft?

Fakt ist, dass die zunehmenden Datenmengen uns vor immer größere Herausforderungen stellen. Zur Bewältigung derselben stehen intelligente Konzepte wie In-Memory-Datenbanken bereit, die beispielsweise für komplexe Datenanalysen zum Einsatz kommen. Dieser In-Memory-Ansatz nutzt vorhandene Ressourcen auf Basis enormer RAM-Kapazitäten und intelligenter Look-Ahead-Strategien äußerst effizient. Damit ist die verfügbare I/O-Leistung eines Systems nicht mehr ganz so relevant.

Darüber hinaus werden die Supercomputing-Installationen zunehmend heterogener, da auf Basis neuer Technologien wie Intel Xeon Phi oder Nvidia Kepler neue Rechnergenerationen entstehen, die beispielsweise mit sehr großen Speichereinheiten bestückt sein werden. Damit wird das Architekturangebot größer und größer, was das Programmieren dieser Systeme immer komplexer macht. Das wird uns einen enormen Aufwand abverlangen, damit die künftigen HPC-Systeme weiterhin effizient arbeiten können. Dabei werden wir natürlich von einer permanent ansteigenden Rechenkapazität unterstützt.

Bitte folgen

Michael Hülskötter

Ich schreibe im Auftrag der IBM Deutschland GmbH auf dem Hightech Computing Blog.
Bitte folgen

4 thoughts on “Interview mit Prof. Dr. Bode: „Der IBM SuperMUC ist ein echter Universalrechner!“

  1. Pingback: SuperMUC schafft in der Erdbebensimulation mehr als 1 Petaflops

  2. Pingback: Videointerviews auf der ISC 2014 mit IBM, Intel, Mellanox und Co.

  3. Pingback: ISC14: Prof. Dr. Arndt Bode spricht über SuperMuc 2

  4. Pingback: Die Super-Cloud: Chance und Herausforderung.

Schreibe einen Kommentar