Monthly Archives: November 2013

Datenturbo für Big Data: IBM PureData System for Hadoop

Hadoop-LogoStellen Sie sich einmal vor, Google würde mithilfe bekannter Techniken wie SQL sämtliche Daten speichern, aufbereiten und analysieren wollen.

Das Resultat wäre niederschmetternd, denn angesichts der riesigen Mengen von unstrukturierten Daten (wozu Videos, Google+ Beiträge und andere Dinge gehören) käme der Suchmaschinengigant mit herkömmlichen Werkzeugen erst gar nicht dazu, diese wertvollen Daten so aufzubereiten, dass sie wirklich einen Nutzen hätten.

Aus diesem Grund setzt Google schon seit einigen Jahren auf die Kraft von Hadoop, einem Open-Source-Framework, das den Umgang mit Big Data deutlich erleichtert und das in der Lage ist, große, unstrukturierte Daten mit einem überschaubaren Aufwand zu analysieren und dort bereitzustellen, wo sie gerade benötigt werden. Hierfür kommen zwei Methoden und zahlreiche Tools zum Einsatz.

MapReduce und HDFS: Berechne und verteile

MapReduce wurde einst von Google entwickelt und soll helfen, riesige Datenmengen, die jenseits der Petabyte-Grenze liegen, parallel zu berechnen, um damit vorhandene Rechnerressourcen besser nutzen zu können. Hierfür bedient sich MapReduce zweier Schritte: Im ersten Schritt werden die Eingabedaten auf eine Vielzahl von Map-Prozessen verteilt, sodass diese auf mehreren Prozessoren oder Prozessorkernen parallel berechnet werden können. Das ist die Map-Phase. Die (Zwischen)ergebnisse dieser Berechnungen werden dann in der Reduce-Phase mithilfe geeigneter Algorithmen zusammengeführt, woraus am Ende ein Ergebnis entsteht, das die ursprüngliche Aufgabe repräsentiert.

Mit HPFS (Hadoop Distributed File System) steht ein leistungsfähiges Dateisystem zur Verfügung, das ebenfalls auf die parallele Verarbeitung von Daten ausgerichtet ist. Dabei werden die zu speichernden Daten in Datenblöcke zerlegt und anschließend redundant über das gesamte Storage-System verteilt, das typischerweise aus mehreren Rechnern (Knoten) besteht. Dabei gibt es einen Master, der sämtliche Daten auf die Slave-Rechner verteilt und davon nur die Metadaten speichert. Dies entspricht also einem klassischen Tablet-of-Content-Ansatz. Damit lassen sich mehrere 100 Millionen Dateien mittels HPFS speichern und verwalten.

Leistungsfähige Tools für noch mehr Hadoop

Da es sich bei Hadoop um ein komplettes Framework handelt, gehören zahlreiche Tools dazu, die erst eine derart leistungsfähige Storage-Lösung ermöglichen. So kann man beispielsweise mit HBase riesige Datenmengen innerhalb einer äußerst skalierbaren Datenbank verwalten, die technisch gesehen auf Google BigTable basiert. In HBase-Datenbanken lassen sich Milliarden von Datensätzen speichern.

Mit Hive stellt Hadoop ein Data-Warehouse-System bereit, das auf der SQL-ähnliche Abfragesprache HiveQL beruht. Hive wurde von Facebook entwickelt und kommt dort auch innerhalb einer Hadoop-Umgebung zum Einsatz.

Mit der Programmiersprache Pig können relativ einfach MapReduce-Anwendungen erstellt werden. Dabei optimiert Pig selbständig die Ausführungen komplexer Berechnungen und lässt sich beliebig erweitern.

Mit Chukwa lassen sich große, verteilte Systeme in Echtzeit überwachen, und mit ZooKeeper können diese Systeme bequem konfiguriert werden, und das über Rechnergrenzen hinweg.

Vorkonfigurierte Hadoop-Lösung von IBM

IBM PureData SystemWie Sie sehen: Hadoop ist ein leistungsfähiges und sehr mächtiges Werkzeug für das Verwalten und Analysieren von Big Data. Um diese Sammlung an komplexen Werkzeugen und Methoden einer möglichst breiten Kundenschar zugänglich zu machen, gibt es von der IBM das PureData System for Hadoop.

Dabei handelt es sich um ein vorkonfiguriertes Serversystem, das auf IBM Standardkomponenten basiert und eine vollständige Hadoop-Implementierung vorsieht. Damit können IT-Verantwortliche quasi „Out-of-the-box“ ihre eigenen Big-Data-Projekte umsetzen.

Hierfür kommt die IBM-eigene Hadoop-Version InfoSphere BigInsights zum Einsatz, mit der riesige strukturierte und unstrukturierte Datenmengen gleichermaßen verarbeitet werden können. Damit lassen sich BigData-Projekte innerhalb weniger Tage realisieren, und nicht erst nach mehreren Wochen, die für das Installieren und Implementieren eines solchen Hadoop-Systems erforderlich wären.

Interview mit Prof. Dr. Bode: „Der IBM SuperMUC ist ein echter Universalrechner!“

Prof. Dr. Arndt Bode vor dem SuperMUC des LRZ Garching bei MünchenVor knapp drei Wochen habe ich über einen Supercomputer berichtet, der in Garching bei München steht, der sich SuperMUC nennt und der seine Rechenleistung von mehr als 150.000 Intel Xeon Prozessoren bezieht. Solch ein Wunderding der Technik hat natürlich viele Väter, einer von ihnen ist Prof. Dr. Arndt Bode, der den Vorsitz des Direktoriums des Leibniz Rechenzentrums inne hat.

Mit ihm konnte ich dank eines schönen Zufalls auf Facebook ein ausführliches Interview führen, in dem er mir zahlreiche Details rund um SuperMUC verriet: Warum IBM den Supercomputer bauen und liefern durfte, was ihn am SuperMUC am meisten begeistert und welche Pläne es gibt, den Superrechner aus Garching wieder unter die Top 5 der Top-500-Liste zu bringen.

Herr Bode, wer nutzt denn den SuperMUC hauptsächlich?

Der SuperMUC ist ein Werkzeug für die Wissenschaft, und das in dreierlei Hinsicht. Erstens wird unser IBM-Cluster von europäischen Wissenschaftlern aus 26 Ländern genutzt. Diese bekommen auf Basis eines begründeten und qualifizierten Antrags bestimmte Rechenzeiten des SuperMUC gewährt, und zwar im Gesamtumfang von 30 Prozent der vorhandenen Rechenkapazität. Das ist unser Beitrag zum europäischen Wissenschaftsverbund Partnership for Advanced Computing in Europe (PRACE).

Das zweite und größere Kontingent an Rechenzeit steht allen deutschen Wissenschaftlern über das Gauss Centre für Supercomputing (GCS) zur Verfügung, die sich ähnlich wie ihre europäische Kollegen um die vorhandenen Kapazitäten bewerben müssen. Und schließlich nutzen wir den SuperMUC selbst, wenngleich nur zu einem kleinen Teil, nämlich zu weniger als 10 Prozent. Diese Rechnerkapazitäten stehen zu Testzwecken zur Verfügung, um beispielsweise neue Anwendungen und Tools zu erproben.

Warum ist der SuperMUC ein IBM-Rechner?

Der Supercomputer "SuperMUC" im LRZ GarchingIBM hatte sich in einem neunmonatigen Auswahlprozess um den „Bau“ des SuperMUC beworben. Damit war „Big Blue“ einer von acht Kandidaten, unter denen wir den geeignetsten für das Projekt Supercomputer ausgewählt haben. Für die zu erwartende Leistungsfähigkeit des HPC-Clusters kamen etwa 20 Benchmarks zum Einsatz, die aus bekannten Anwendungen und einer Sammlung weiterer Applikationen bestanden, die bei unseren Kollegen des PRACE-Netzwerks zum Einsatz kommen. Aber auch synthetische Benchmarks wie LINPACK haben wir zur Bewertung des künftigen Supercomputers zurate gezogen. Diesen Benchmark-Mix hat IBM am besten absolviert, weswegen wir den Auftrag an das Unternehmen vergeben haben. Aber auch die Energieeffizienz des SuperMUC von IBM hat uns am meisten überzeugt.

Was begeistert Sie am SuperMUC besonders?

Nun, da gibt es zwei besondere Merkmale, die mich am SuperMUC besonders faszinieren: Zum einen handelt es sich beim IBM-Cluster um einen Universalrechner, der mit einer Vielzahl unterschiedlicher Anwendungen bestens klar kommt, und das auf Basis eines angemessenen Portierungsaufwands, da ausschließlich Standardprozessoren vom Typ Intel Xeon eingesetzt werden. Erst kürzlich konnte der SuperMUC drei wissenschaftliche Weltrekorde in den Bereichen Geo-, Teilchen- und Astrophysik aufstellen. Zum anderen ist die extreme Leistungsfähigkeit des SuperMUC äußerst energieeffizient, was einerseits mit den verbauten Komponenten und andererseits mit dem sehr innovativen Kühlungskonzept des LRZ zu tun hat.

Wie wollen Sie den SuperMUC wieder unter die Top 5 bringen?

Zunächst ist einmal festzuhalten, dass der SuperMUC auf der aktuellen Top-500-Liste immer noch zu den zehn schnellsten Rechnerverbünden der Welt zählt. Nichtsdestotrotz planen wir gemeinsam mit der IBM den Ausbau des SuperMUC, um den steigenden Anforderungen gerecht zu werden. Hierfür haben wir mit IBM im Frühjahr 2013 einen Vertrag unterzeichnet, der die Erweiterung des SuperMUC um Intel Xeon-Prozessoren der Haswell-Generation bis Ende 2014 vorsieht. Das wird den SuperMUC mit 6,4 Petaflops in eine neue Leistungsdimension katapultieren. Für welchen Platz diese Rechenkapazität in den Top 500 Ende 2014 reicht, können wir natürlich nicht vorhersagen.

Wohin bewegt sich das Supercomputing in Zukunft?

Fakt ist, dass die zunehmenden Datenmengen uns vor immer größere Herausforderungen stellen. Zur Bewältigung derselben stehen intelligente Konzepte wie In-Memory-Datenbanken bereit, die beispielsweise für komplexe Datenanalysen zum Einsatz kommen. Dieser In-Memory-Ansatz nutzt vorhandene Ressourcen auf Basis enormer RAM-Kapazitäten und intelligenter Look-Ahead-Strategien äußerst effizient. Damit ist die verfügbare I/O-Leistung eines Systems nicht mehr ganz so relevant.

Darüber hinaus werden die Supercomputing-Installationen zunehmend heterogener, da auf Basis neuer Technologien wie Intel Xeon Phi oder Nvidia Kepler neue Rechnergenerationen entstehen, die beispielsweise mit sehr großen Speichereinheiten bestückt sein werden. Damit wird das Architekturangebot größer und größer, was das Programmieren dieser Systeme immer komplexer macht. Das wird uns einen enormen Aufwand abverlangen, damit die künftigen HPC-Systeme weiterhin effizient arbeiten können. Dabei werden wir natürlich von einer permanent ansteigenden Rechenkapazität unterstützt.

Mit Köpfchen und Know-how: transtec und IBM entwickeln gemeinsame HPC-Lösungen

Die transtec AG ist IBM Premier PartnerAuf der International Supercomputing Conference 2010 geschah es: Da saßen Vertreter von IBM Deutschland mit Vertretern des in Tübingen beheimateten IT-Systemhauses transtec AG zusammen und sprachen über eine weitreichende Zusammenarbeit. Der Rest ist Geschichte: Seit dieser Zeit geht ein IBM-Beauftragter in den Geschäftsräumen der transtec AG ein und aus, als ob er Teil des mittelständischen Unternehmens sei. Denn er berät den HPC-Spezialisten bei sämtlichen Fragen rund um IBM-HPC-Lösungen und wie sich diese am besten in die Kundenprojekte der transtec AG integrieren lassen.

Von der IBM-transtec-Kooperation profitieren alle

Auf mittlerweile fünf Niederlassungen verteilt, erwirtschaftete die transtec AG im Jahr 2012 knapp 45 Millionen Euro und greift dabei auf einen großen Kundenstamm zurück. Hierzu zählen verstärkt Firmen aus dem  Industriesektor, die aus dem sogenannten Midrange-Bereich kommen. Für diese ist es enorm wichtig, dass auf ihre Wünsche explizit eingegangen werden kann, was der IBM mithilfe einer strategischen Zusammenarbeit wie mit der transtec vortrefflich gelingt. Gleichzeit profitiert die transtec vom Namen IBM als Türöffner immer wieder. Eine echte Win-Win-Situation also.

Ein Meilenstein für IBM und transtec: das Bayer HealthCare-Projekt

Bei Bayer HealthCare kommt künftig ein HPC-Cluster der Marke IBM Flex System zum EinsatzDie Ergebnisse dieser Zusammenarbeit können sich sehen lassen: So konnte die transtec erst kürzlich ein maßgebliches Projekt bei Bayer HealthCare für sich gewinnen. Dieser Auftrag sieht den ausschließlichen Einsatz von IBM Hardware- und Software-Lösungen vor, was für beide Unternehmen einen echten Meilenstein darstellt, da innerhalb der Bayer AG bereits darüber nachgedacht wird, die IBM-transtec-HPC-Lösung auch in anderen Niederlassungen einzusetzen.

Kern dieser Lösung ist ein HPC-Cluster, auf dem hochkomplexe Berechnungen für die DNA-Sequenzierung (Next Generation Sequencing) durchgeführt werden sollen, die für ihren enormen Bedarf an Rechenleistung und Speicherbedarf bekannt sind. Dieser HPC-Cluster besteht aus einer IBM GPFS-gesteuerten Anlage, die in der Lage ist, Datenmengen in der Größenordnung von 150 Terabyte zu bewältigen, und das bei einer erforderlichen Bandbreite von 2,5 GB/s. Künftig sollen auf Basis dieser Installation 1 Petabyte und mehr an Daten transferiert werden.

Bayer und transtec setzen auf IBM Flex System

Da diese gewaltigen Datenmengen nur mithilfe einer enormen Rechenleistung generiert und verwaltet werden können, sieht das IBM-transtec-Projekt bei Bayer HealthCare einen Serverpark vor, der drei vollbestückte Chassis der Marke IBM Flex System umfasst. Dieser besteht aus insgesamt 34 Recheneinheiten, von denen 28 Units für die DNA-Analysen zuständig sind. Die übrigen 6 Recheneinheiten kümmern sich um Anwendungen wie die MongoDB- und Oracle-Datenbank, die notwendigen Web-Applikationen und das Ausführen der IBM Platform HPC Anwendungen.

Aus diesem hochspezialisierten HPC-Cluster ergeben sich für Bayer HealthCare zahlreiche Vorteile, zu denen enorme Skalierungseffekte zählen, aber auch eine hohe Investitionssicherheit und eine zielgerichtete Zuweisung sämtlicher Ressourcen, wo diese gerade erforderlich sind.

transtec möchte den IBM Beacon Award 2014 gewinnen

Der große Erfolg des Bayer-HealthCare-Auftrags hat die transtec dazu veranlasst, dieses Vorzeigeprojekt für den IBM Beacon Award 2014 einzureichen. Dieser renommierte Wettbewerb findet einmal im Jahr statt und soll besondere Projekte aller IBM Business Partner auszeichnen. Diese werden dafür belohnt, besonders nachhaltige und kundenorientierte Lösungen konzipiert und realisiert zu haben. Die Auszeichnungen finden unter anderem in den Kategorien Smarter Computing, Smarter Industries und Smarter Solutions statt. Na, da drücken wir der transtec jetzt schon unsere Daumen!

Perfekt verwaltete HPC-Cluster sorgen für perfekt designte Rennwägen

Swift Engineering setzt auf IBM Platform HPC und CraySwift Engineering kennen vermutlich nur die Eingeweihtesten der Eingeweihten, aber die Produkte, für die dieses Unternehmen aus San Clemente, Kalifornien, verantwortlich ist, vermutlich schon: Rennwägen. Seit 1983 beschäftigt sich die Desgin-Schmiede damit, für die großen Automobilhersteller wie Honda, BMW oder Toyota unter aerodynamischen Gesichtspunkten die Karosserien für die schnellsten Autos der Welt so zu optimieren, dass diese permanent besser und schneller werden.

Hierfür setzen die Ingenieure ausgefeilte Simulationsalgorithmen ein, die auf den Methoden der numerischen Strömungsmechanik basieren (Computational Fluid Dynamics, CFD). Damit war das  Unternehmen schon sehr früh in der Lage, das Strömungsverhalten schneller Fahrzeuge, aber auch das von Flugzeugen am PC zu simulieren. Wobei „PC“ es nicht ganz trifft, denn für diese Art der Berechnungen ist ein Rechnerverbund vonnöten, der sich eher im Bereich Supercomputer tummelt. Und an dieser Stelle kommt IBM Platform Computing ins Spiel.

Cray + IBM Platform HPC ist die Erfolgsformel

Die Supercomputer, die bei Swift Engineering mittlerweile für die komplexen Simulationsberechnungen zuständig sind, nennen sich Cray CX1000 und Cray CX1, die sich mithilfe von IBM Platform HPC zu einem leistungsfähigen HPC-Cluster zusammengefasst sind. Mithilfe dieser Rechenpower kann Swift Engineering ganz neue Wege im Rennwagen-Design gehen. So gelang es den Ingenieuren, die aktuelle Rennwagen-Generation der Formula Nippon-Serie so zu gestalten, dass der Anpressdruck um 30 Prozent erhöht werden konnte, was vor allem in Kurven für eine bessere Stabilität der Autos bei gleichzeitiger Tempoerhöhung führte.

Der Cray CX 1000 setzt sich aus 18 Rechnereinheiten zusammen, was 144 Prozessorkerne vom Typ Intel Xeon-E5620 ergibt. Darauf finden mithilfe der Simulationssoftware CFD C++ die Strömungsberechnungen in Echtzeit statt. Die zwei Cray CX 1 hingegen, die aus insgesamt 20 Prozessorkernen vom Type Intel Xeon-5670 und 5570 bestehen, werden für die Visualisierungsaufgaben eingesetzt. Dank der schnellen Nvidia Quadro-Grafikkarten lassen sich die Strömungsergebnisse in Echtzeit am Monitor darstellen.

Klar, dass bei solch einer Rechenpower das System bestmöglich genutzt werden muss, ohne dass sich jemand ständig um die optimale Ausnutzung des HPC-Clusters kümmert. In diesem Fall hilft IBM Platform HPC Swift Engineering, die anstehenden Herausforderungen bestmöglich zu lösen, anstatt sich mit administrativen Aufgaben herumzuschlagen.

Optimal verwaltete HPC-Cluster sind der Schlüssel

Für das Visualisieren von Strömungsverhalten kommt bei Swift Engineering ein HPC-Cluster zum EinsatzDenn etwas haben die Ingenieure von Swift Engineering nicht: Zeit. Gerade im Rennsport zählt der Design-Vorsprung vor der Konkurrenz mehr als alles andere, daher ist es für das Unternehmen aus San Clemente von größter Wichtigkeit, die Ergebnisse ihrer Strömungssimulationen möglichst schnell in ein fertiges Produkt umzuwandeln.

Und das funktioniert nur mithilfe eines leistungsfähigen HPC-Clusters, das bestmöglich verwaltet wird. Das wiederum ermöglicht mit derselben Hardware-Power mehr Interaktionen, die für das perfekte Design der Karosserien erforderlich ist.

Der Grund, warum Swift Engineering sich für die Kombination Cray-IBM entschieden hat, war ein ganz effizienter: Sie wollten möglichst viel Rechenpower aus ihrem HPC-Cluster herausholen, und das mit möglichst geringem administrativen Aufwand. Denn klar ist auch: Je höher die Anforderungen an die Strömungssimulationen werden, desto effizienter und intelligenter müssen die vorhandenen Ressourcen genutzt werden.

Neue Rechnerressourcen mit IBM Platform HPC bestmöglich zuweisen

Um noch mehr Rechnerressourcen für die Strömungsanalysen bereitstellen zu können, hat Swift Engineering sogar seine Windkanalanlage abgebaut, um dort stattdessen eine zusätzliche Rechnereinheit zu installieren. Auch dabei hilft IBM Platform HPC, indem man die neuen Rechnereinheit genau dort einsetzen kann, wo sie erforderlich sind. Damit erfüllt Platform HPC alle Voraussetzungen, die für professionelles und möglichst einfaches Cluster Management erforderlich sind. So kann Swift Engineering die vorhandenen Ressourcen noch besser nutzen und mehr Jobs in weniger Zeit erledigen.

IBM Supercomputer belegen die ersten Plätze der schnellsten HPC-Cluster

Der Supercomputer JUQUEEN in JülichBereits zum 25sten Mal findet gerade die SuperComputing Conference statt, dieses Mal in Denver, Colorado. Dort trifft sich die Crême de la Crême der Supercomputer- und HPC-Experten zu einem lebhaften Austausch rund um ihre Lieblingsthemen, zu denen zweifellos das Berechnen großer Zahlen mit all seinen Konsequenzen zählt.

Sieht man sich das Programm der SC13 genauer an, stehen Themen wie paralleles Programmieren ganz oben auf der Liste, aber auch Produkte wie der Intel Xeon Phi Co-Prozessor und die Datenanalyse mit Petabyte-Daten. Darüber hinaus erfährt man in zahlreichen Workshops, wie sich parallele Datenströme bestmöglich handhaben lassen, wie „grüne“ HPC-Cluster funktionieren und wie man am besten Storage-Lösungen mit parallelen Zugriffen konzipiert.

IBM trifft man auch auf der SC13 in Denver

Natürlich findet man auf der SC13 auch einen riesigen Ausstellerbereich, der diese Bezeichnung wahrlich verdient. Dort tummelt sich das „Who is who“ der HPC-Branche, und klar, dass auch IBM dort vertreten ist. Dort dreht sich alles um Themen, die mit Platform Computing und Technical Computing zu tun haben, also mit so Dingen wie IBM GPFS, IBM NeXtScale und IBM Platform HPC.

Pünktlich zur SuperComputing wird auch die zweimal im Jahr überarbeitete Top-500-Supercomputer-Liste veröffentlicht, die sich „Graph 500“ nennt. Wie heute bekannt wurde, gibt IBM auf dieser Skala eine wirklich gute Figur ab. So finden sich auf den ersten drei Plätzen IBM-Rechnersysteme wieder, die dank ihrer Leistungsfähigkeit ganz oben stehen.

Die Graph-500-Liste gibt es erst seit drei Jahren und misst mithilfe geeigneter Benchmarks die Gesamtleistung aktueller HPC-Cluster, die vor allem in den Bereichen Internersicherheit, medizinische Informatik, Soziale Netzwerke und Symbolic Networks zum Einsatz kommen.

IBM befindet sich mit BlueGene/Q an der Spitze der Graph-500-Liste

Die drei schnellsten Graph-500-Rechner basieren alle auf IBM BlueGene/Q und vereinen über eine Million Prozessorkerne in einem einzigen Supercomputerverbund. So misst der erstplatzierte Rechner Sequoia exakt 1.048.576 CPU-Kerne, verteilt auf 65.536 Rechnereinheiten. Damit erreicht der Sequoia einen Benchmarkwert von 15.363 Gigateps (GTEPS).

Benchmark-Exkurs: GTEPS ist der Versuch, ein praxisnahes Ergebnis darzustellen, als Gegenentwurf zum rein auf Rechenoperationen basierenden GLFOPS-Benchmark. Vereinfacht lässt sich GTEPS mit der Fähigkeit eines HPC-Systems beschreiben, eine bestimmte Zahl an Daten von einem Knoten zu einem anderen Knoten innerhalb des Systems pro Sekunde zu transferieren.

Der Sequoia-Supercomputer steht im Lawrence Livermore National Labor und ist unter anderem für die Erforschung neuer Energiequellen im Einsatz. Der zum Einsatz kommende Arbeitsspeicher beiträgt 1,6 Petabyte.

Auf Platz zwei folgt Mira, ein Supercomputer mit insgesamt 49.152 Rechnereinheiten, die aus insgesamt 786.432 Prozessorkernen bestehen. Er befindet sich im Argonne National Labor, wird zu wissenschaftlichen Forschungszwecken eingesetzt (Klima, Erdbeben, Chemie, etc.) und kommt auf 14.328 GTEPS.

Supercomputer #3: JUQUEEN des Forschungszentrums Jülich

Auf dem dritten Rang schließlich steht ein Supercomputer aus deutschen Landen, der im Forschungszentrum Jülich seine Dienste verrichtet. Der HPC-Cluster nennt sich JUQUEEN und umfasst 262.144 Prozessorkerne, verteilt auf 16.384 Rechnereinheiten. Das beschert JUQUEEN einen GTEPS-Wert von 5.848. Der BlueGene/Q-basierte Supercomputer ist der Nachfolger von JUGENE und kommt vor allem in Projekten rund um Neurowissenschaften, computergestützte Biologie, Energie- und Klimaforschung sowie der Quantenphysik zum Einsatz.

Ach ja: Dank der innovativen Kühlungstechniken finden sich alle drei Supercomputer auf der Green Graph-500-Liste auf den fünf ersten Plätzen der energieeffizientesten Rechner im Bereich Big Data wieder.

HPC-Infrastruktur zu vermieten: „Blue Wonder“ und IBM machen es möglich

Hartree CentreWenn ein Unternehmen sein HPC-Cluster „Blue Wonder“ nennt, muss sich etwas ganz Besonderes dahinter verbergen. „Blue Wonder“ steht im Hartree Centre, einem HPC-Infrastruktur-Anbieter, der im britischen Städtchen Daresbury nahe Manchester komplette HPC-Dienstleistungen an britische Firmen „verkauft“, die mit der Hilfe von „Blue Wonder“ Rechen- und Speicherkapazitäten in Anspruch nehmen können, die sie aus eigener Kraft oder mit eigenen Mitteln nicht bereitstellen können oder wollen.

Der Name „Blue Wonder“ stellt hierbei eine doppelte Reminiszenz dar, einerseits an IBM, also „Big Blue“, die das HPC-Rechenzentrum in Daresbury überhaupt ermöglicht hat. Andererseits erinnert der Name an den bekanntesten Sohn des Ortes im Nordwesten Englands, nämlich an Lewis Carroll, dessen berühmtestes Werk „Alice im Wunderland“ ist.

„Blue Wonder“ also, dieses blaue Wunderding der Technik, das alleine mit seinen bloßen Zahlen beeindruckt. Es stellt nämlich einen HPC-Verbund dar, der auf dem Serversystem IBM System x iDataPlex dx360 M4 basiert und eine gewaltige Rechenleistung bietet. Genauer gesagt handelt es sich dabei um insgesamt 512 Recheneinheiten, die allesamt mindestens 32 GB RAM beherbergen und jeweils zwei 8-Core-Prozessoren vom Typ Intel Xeon E5-2670 für die Berechnungen nutzen.

Das macht in Summe 8.192 Prozessorkerne, was „Blue Wonder“ eine Rechenleistung von 170 Teraflops beschert. Damit befindet sich der IBM-Cluster immer noch unter den 500 schnellsten Supercomputern der Erde (6/2013: Platz 222). Und das, obwohl er bereits 2012 gebaut wurde.  Ach ja: Im Hartree Centre kommt mehr und mehr die IBM NeXtScale-Architektur zum Einsatz, da sie sich so flexibel in die vorhandene Infrastruktur integrierten lässt.

Administriert, überwacht und gesteuert wird Blue Wonder von der IBM Platform HPC, das für das Bereitstellen komplexer HPC-Infrastrukturen zuständig ist. In Kombination mit der Anwendungssoftware vSMP Foundation der Firma ScaleMP kann das Hartree Center mit geringem Aufwand ihre geballte HPC-Power in Form von virtuellen HPC-Clustern an Firmen „verleihen“, die auf Basis dieser Rechen- und Speicherkapazitäten hochkomplexe Anwendungen entwickeln, testen und implementieren können. Und das zu einem Bruchteil der Kosten, die für solch eine Rechenumgebung tatsächlich entstünden.

Hierfür nutzt vSMP 384 der 512 Recheneinheiten von Blue Wonder, um daraus eine virtualisierte HPC-Umgebung bereitzustellen, die aus umgerechnet 6.144 Prozessorkernen und 48 Terabyte Storage besteht. Darauf lassen sich komplette Big-Data-Anwendungen simulieren, entwickeln und realisieren, bis diese marktreif sind und bei den Auftraggebern implementiert werden können. Dank dieser enormen Flexibilität von Blue Wonder können sowohl viele kleinere als auch sehr große Projekte auf derselben Plattform umgesetzt werden. Es spielt also keine Rolle, ob 100, 1.000 oder 3.000 Prozessoren mit 20, 200 oder 2.000 Gigabyte Speicher zum Einsatz kommen sollen.

IBM Platform HPC kümmert sich aber auch um das gesamte Workload-Management, und zwar basierend auf IBM Platform LSF. Damit wird sicher gestellt, das sämtliche Ressourcen bestmöglich eingesetzt werden. Das erhöht die Effizienz, den Datendurchsatz und die Produktivität des gesamten Systems. Zudem können IT-Admins mithilfe von IBM Platform HPC die vorhandene Hardware wie NVIDIA Kepler und Intel Xeon Phi Co-Prozessoren optimal einsetzen, indem sie diesen bestimmte Aufgaben zuweisen.

Zu den Auftragskunden, die „Blue Wonder“ im Laufe der Zeit bereits genutzt haben, gehören unter anderem die Automobilhersteller Bentley und Jaguar, die beide ihr Produktdesign mithilfe der Rechen- und Speicherkapazität des Hartree Centre realisiert haben. Aber auch der multinational agierende Konzern Unilever (Nahrungsmittel, Waschmittel, Kosmetika) hat bereits auf die HPC-Power des „Blue Wonder“ zurückgegriffen. So wurden mithilfe des HPC-Clusters unter anderem Laborversuche durchgeführt, die normalerweise 8 bis 12 Wochen in Anspruch nehmen. Dank „Blue Wonder“ ließ sich dieser Testaufwand auf schlappe 45 Minuten reduzieren. Ein echtes Blaues Wunder eben.

DNA-Analysen erfordern HPC-Cluster und ein ausgefeiltes Workload-Management

Mithilfe enormer Rechen- und Speicherkapazitäten entschlüsselt das Wlellcome Trust Sanger Institute das menschliche Genom

Quelle: Wikipedia

Die Entschlüsselung des menschlichen Erbguts, auch Genom genannt, stellt Wissenschaftler schon seit jeher vor große Herausforderungen, vor allem aus technischer Sicht. Denn Dinge wie die DNA-Sequenzanalyse und die vollständige Entschlüsselung des menschlichen Genoms erfordern eine ungeheure Rechenleistung, die für die Berechnungen damit einher gehen. Zudem entstehen dabei enorme Datenmengen, die verwaltet und bereit gesellt werden müssen

Mit der Entschlüsselung des menschlichen Genoms beschäftigt sich das Wellcome Trust Sanger Institute (WTSI), und zwar seit 1993 in der Nähe von Cambridge, UK.  Dem WTSI geht es vor allem um die Veränderungen des menschlichen Erbguts hinsichtlich häufiger Krankheiten wie Krebs, Malaria und Diabetes. So basieren die Arbeiten des Instituts auf den Erkenntnissen des Humangenomprojekts, das zwischen 1990 und 2003 für die vollständige Entschlüsselung des menschlichen Genoms sorgte.

Zu diesen fundamentalen Erkenntnissen trug das WTSI ganz maßgeblich bei. So leistete das Institut rund ein Drittel der für die Analysen erforderliche Arbeit. Für die computergestützte Berechnung des menschlichen Genoms setzt das WTSI bereits seit Mitte der 90er Jahre auf die Leistungsfähigkeit von High-Performance Computing Systemen. Das bedeutet in Zahlen: Im WTSI steht derzeit ein Rechenzentrum, das sich aus zwölf HPC-Clustern zusammensetzt. Jedes Cluster wiederum stellt eine Kombination aus heterogenen Rechnerumgebungen dar, in denen sowohl IBM- und HP-Server als auch SGI Altix-Maschinen zum Einsatz kommen.

Solch eine hetergone, über die Jahre „wild“ gewachsene IT-Landschaft stellt wohl jeden IT-Verantwortlichen vor ernstzunehmende Herausforderungen. Wenn dann noch wie im Falle des WTSI jede Woche Datenmengen anfallen, die sich im Bereich von 120 Terabyte und mehr bewegen, wird schnell klar: Hier bedarf es einer erprobten Software-Lösung, die ein solch komplexes System sinnvoll verwalten kann und die enormen Datenmengen genau bereitstellt, wo sie benötigt werden. Und an dieser Stelle kommt IBM Platform LSF ins Spiel: Mit dieser Workload Management-Lösung lassen sich große und sehr große HPC-Umgebungen optimal administrieren.

IBM Platform LSF kommt hierfür auf bestimmten Teilen des WTSI-Clusters zum Einsatz. So steuert es einen Rechnerverbund, der aus 128 Prozessoreinheiten besteht und der sich um hochkomplexe Analyseberechnungen kümmert. Hier entstehen enorme Datenmengen, die beispielsweise während der DNA-Sequenzanalyse anfallen. IBM Platform LSF stellt in diesem Fall die riesigen Datenmengen bereit und speichert diese. Darüber hinaus verteilt LSF die anfallenden Berechnungen dank intelligenter Algorithmen so auf den gesamten Cluster, dass es optimal ausgelastet wird. Folge: Es lassen sich in weniger Zeit mehr Berechnungen durchführen.

Darüber hinaus ist IBM Platform LSF auf einem 100-CPU-Cluster installiert, der ausschließlich für den Abgleich mit Daten externer Forschungseinrichtungen bereit steht. So tauscht darüber das WTSI mit dem Ensemble Genome Browser Daten aus, die für die Erforschung des Erbgutes von Schimpansen, Mäusen und anderen Tieren erforderlich sind. Auch hier werden Woche für Woche Daten im Terabyte-Bereich transferiert.

Zusammenfassend kann man also sagen, dass das Wellcome Trust Sanger Institut dank IBM Platform LSF in der Lage ist, Storage-Kapazitäten im Petabyte-Bereich zu verwalten und die gigantische Zahl an Rechenoperationen genau dort bereit zu stellen, wo sie gerade benötigt werden. Und diese Anforderungen werden nicht geringer: So ruft die Analyse der menschlichen DNA und der daraus resultierenden Wechselwirkungen mit möglichen Krankheiten künftig Systeme auf den Plan, die 35 bis 40 Petabyte an Daten generieren, die allesamt verarbeitet, gespeichert und zur Verfügung gestellt werden müssen. Von den Cluster-Systemen, die solche Datenmengen rechnerisch überhaupt verarbeiten können, ganz zu schweigen.

Weitere Informationen zum Einsatz von IBM Platform LSF  im Wellcome Trust Sanger Institute gibt es im verlinkten PDF-Dokument und im folgenden Film.

 

IBM GPFS: Verteilte Storage-Systeme für vierfache Weltmeister [Upd]

Auch dank IBM Platform Computing ist Infiniti Red Bull Racing so erfolgreich

Erst kürzlich haben wir darüber gebloggt, dass Sebastian Vettel auch dank IBM zum vierten Mal Formel-1-Weltmeister geworden ist. Das hat unter anderem damit zu tun, dass auf den HPC-Clustern von Infiniti Red Bull Racing IBM-Softwarelösungen installiert sind, die sich um ein perfektes Zusammenspiel der Hardware kümmern.

Dabei handelt es sich einerseits um IBM Platform LSF und IBM Platform Symphony, und andererseits um IBM GPFS. Allen drei Lösungen ist gemein, dass sie mit Hochleistungssystemen bestens klar kommen, LSF und Symphony auf der Prozessor- und GPFS auf der Storage-Seite. Und genau dieses Datenspeichersystem ist Gegenstand unseres heutigen Blogbeitrags.

In so einem HPC-Cluster kommen nicht nur Dutzende Prozessoren zum Einsatz, sondern auch zahlreiche Festplatten, auf denen riesigen Datenmengen abgelegt werden. Okay, Festplatte trifft es nicht ganz, denn es handelt sich um Hochgeschwindigkeits-Storagesysteme, die Terabyte und Petabyte an Daten aufnehmen können. Und die sollen möglichst alle in Echtzeit zur Verfügung stehen. Damit die Prozessoren, die sie verarbeiten, möglichst immer beschäftigt sind. Und damit die riesigen Datenmenge möglichst sicher und über Grenzen hinweg genutzt werden können.

Daher ist es immens wichtig, dass ein Dateiserversystem zum Einsatz kommt, dass dieses große Datenaufkommen bestmöglich im Griff hat und die Daten genau dort bereit stellt, wo sie gerade benötigt werden. Und das in Echtzeit. Solch ein Dateisystem nennt sich IBM GPFS (General Parallel File System) und kommt unter anderem bei Infiniti Red Bull Racing zum Einsatz.

IBM GPFSDer Trick dahinter: Der Zugriff auf die vorhandenen Datenspeicher erfolgt vollständig parallel, sodass es keine Rolle spielt, wie viele Anwender gerade auf den Storage-Pool gerade zugreifen. Dabei achtet GPFS peinlich genau darauf, dass sämtliche Daten konsistent bleiben.

Doch GPFS kann noch viel mehr: So lassen sich sämtliche Datenspeicher von einem einzigen Rechner aus verwalten, sodass der IT-Verantwortliche die erforderlichen Speicherressourcen genau dort platzieren kann, wo sie gerade benötigt werden. Dabei spielt es keine Rolle, ob sich der IT-Administrator innerhalb des Serverumgebung oder an einem beliebigen Ort auf der Welt befindet.

Doch  nicht nur das: Auch die Server selbst können über den gesamten Globus verteilt sein und lassen sich trotzdem so einbinden, als stünden sie alle im gleichen Raum. Das Zauberwort dahinter lautet Active File Management (AFM). AFM stellt virtuelle Speicher-Caches bereit, die dafür sorgen, dass Datenveränderungen auf einem Server ohne größere Verzögerungen automatisch auf allen anderen Servern sichtbar werden. Das ist vor allem für globale Projekte ein immenser Vorteil.

Aber natürlich beherrscht GPFS auch das Thema Virtualisierung. So lassen sich ganze Datenpools mit relativ geringem Aufwand von einem virtuellen Plattenspeicher auf einen anderen verschieben, ohne dass die Anwender davon etwas mitbekommen. Damit können beispielsweise Daten von einem schnelleren Datenspeicher auf einen langsameren transferiert werden, bevor die Highspeed-Festplatte zu voll wird und nicht mehr die erforderliche Leistung bringt.

IBM GPFSEine weitere wichtige Technik in Sachen IBM GPFS nennt sich GPFS Native RAID (GNR). GNR sorgt dafür, dass Daten zusätzlich beschleunigt und zudem redundant gespeichert werden. Außerdem sorgt diese Technik mithilfe geeigneter Algorithmen auf Prüfsummenbasis dafür, dass Daten zuverlässig gespeichert und gelesen werden können.

Darüber hinaus lassen sich mithilfe von GNR Snapshots und (a-)synchrone Replicas erstellen. Und das im laufenden Betrieb, falls beispielsweise ein Hardware-Fehler an einer Festplatte entsteht. Diese lässt sich dann in Echtzeit austauschen, ohne dass dadurch der gesamte IT-Betrieb lahmgelegt wird.

Ach ja: IBM GPFS gibt es bereites seit 1998, und in all den Jahren wurden regelmäßig neue Rekorde aufgestellt, wie das Scannen und Erfassen von 10 Milliarden Dateien auf einem einzigen System. Hierfür brauchte das GPFS-unterstützt HPC-Cluster gerade mal 43 Minuten – absoluter Rekord. Nur zum Vergleich: Die bis dahin beste Ergebnis lautete drei Stunden – für eine Milliarde Dateien!

Update: Mein Videointerview von der CeBIT 2014 zum Thema Red Bull Racing und IBM ist online.

Supercomputer mit Super Kühlung: der SuperMUC von IBM

Der Supercomputer "SuperMUC" im LRZ GarchingWenn sich ein Großrechner aus über 150.000 Prozessorkernen zusammensetzt, kann man getrost davon ausgehen, dass eine solch riesige IT-Anlage enorme Wärme produziert. Dies liegt vor allem an der unglaublich großen Rechenleistung dieses Systems, von dem hier die Rede ist.

So schafft der Supercomputer namens „SuperMUC“ gut 3 Petaflops pro Sekunde, oder anders gesagt: dieser von IBM konzipierte und gebaute Supercomputer kann in jeder Sekunde 3.185 Teraflops berechnen, also 3.185 Milliarden Gigaflops oder 3.185.000 Milliarden Megaflops. Im übertragenen Sinne könnte man also sagen: wenn drei Milliarden Menschen mit drei Milliarden Taschenrechnern pro Sekunde eine Million Berechnungen durchführen könnten, käme man auf die Rechenleistung des SuperMUC. Dahinter verbirgt sich übrigens eine Vielzahl von IBM System x iDataPlex dx360 M4 Servern.

Doch wie geht das Leibniz Rechenzentrum in Garching bei München mit der enormen Wärmeentwicklung um, die bei solch einer gigantischen Rechenpower entsteht? Nun, hierfür haben sich die IBM-Ingenieure etwas ganz Besonderes einfallen lassen, was sich Warmwasser-Kühlung nennt und den Namen Aquasar-Kühlungssystem trägt.

Der Trick dabei: das „Kühlungswasser“ ist zu Anfang 40 Grad Celsius warm, mit dem sich sämtliche Supercomputer-Komponenten wie Prozessoren, Speicher und weitere Peripherie „kühlen“ lassen. Gleichzeitig kann das so auf etwa 70 Grad erwärmte Wasser dazu genutzt werden, angeschlossene Gebäude mit Warmwasser zu versorgen. Das hat drei positive Effekte: erstens geht der Stromverbrauch des LRZ Garching um bis zu 40 Prozent nach unten, was zweitens den CO2-Ausstoß um bis zu 85 Prozent senkt. Und drittens kann man auf diesem Weg die Warmwasserversorgung der angeschlossenen Haushalte kostengünstiger anbieten.

Das Aquasar-Kühlungssystem wurde gemeinsam von IBM und der ETH Zürich entwickelt und kommt seit 2010 erfolgreich im LRZ Garching zum Einsatz. Und der ganze Aufwand hat sich sowohl für das Leibniz-Rechenzentrum als auch IBM gelohnt: dank seiner enormen Rechenleistung und des gleichzeitig effizienten Kühlungssystems taucht der SuperMUC in der aktuellen Liste der 500 schnellsten Computer der Welt auf Platz 9 auf. Ach ja: in den Top 10 der Supercomputer gibt es vier weitere Rechner, die das IBM-Logo tragen.

Der SuperMUC im ZusammenspielFür diese enorme Rechenleistung sind aber nicht nur die 18.432 Intel Xeon-Prozessoren vom Typ E5-2680 und die 820 Intel Xeon E7-4870 zuständig.

So kommt der SuperMUC auf einen gesamten Arbeitsspeicher von 340 Terabyte, 4 Petabyte NAS-Plattenspeicher und 10 Petabyte GPFS-Plattenspeicher sowie ein Bandspeichersystem, das mehr als 30 Petabyte umfasst. Auch das macht die gewaltigen Dimensionen des IBM-Supercomputers und seiner aufwändigen Kühlungsanlage deutlich.

Das Aquasar-Kühlungssystem hat aber noch einen weiteren positiven Aspekt: der SuperMUC ist zehn Mal kleiner als ein vergleichbares Rechenzentrum, das mithilfe einer traditionellen Technik gekühlt wird. Das reduziert natürlich die Anschaffungs- und Wartungskosten einer solchen Rechneranlage um viele Millionen Euro. Ein weiterer guter Grund, auf das von der IBM und der ETH Zürich entwickelten Kühlungssystem zu setzen.

Der SuperMUC wird unter anderem zu wissenschaftlichen Simulationszwecken genutzt. Das reicht von der Entwicklung des Universums bis zur Erforschung von Erdbebenwellen. Da diese und andere Berechnungen immer mehr Rechenleistung benötigen, ist die Erweiterung des SuperMUC um Intel Xeon Phi-Prozessoren noch in diesem Jahr und um Intel Haswell-CPUs im nächsten bzw. übernächsten Jahr geplant.

IBM NeXtScale System: Flexibel zu mehr Rechenpower und Speicherreserven

IBM NeXtScale System n1200Es gibt einen Trend am IT-Markt, der schon seit ein paar Jahren zu beobachten ist: der Rechen- und Speicherbedarf nimmt ständig zu. Damit werden zwangsläufig Serversysteme notwendig, die mit den Anforderungen mitwachsen können, und das sowohl unter speichertechnischen Gesichtspunkten als auch in Sachen Rechenleistung.

Gleichzeitig nehmen aber die hierfür notwendigen Budgets ab (oder werden zumindest nicht größer), woraus ein echtes Dilemma entsteht. Denn wie kann ein Rechenzentrum oder ein Cloud-Anbieter mit den Anforderungen Schritt halten, wenn die hierfür notwendige Ausstattung nicht beliebig angeschafft werden kann?

In solch einem Szenario kommt eine IT-Lösung wie das IBM NeXtScale System geradezu recht. Denn mit diesem neuen Rechnersystem für Hochleistungsumgebungen aus der IBM x Server-Reihe bekommen IT-Verantwortliche eine Lösung präsentiert, die all das in sich vereint, wonach gestresste Rechenzentrumsleiter suchen: ein platzsparendes, modulares und  flexibles Rechensystem, das vor allem eines kann: Budgets schonen bei einer gleichzeitig optimalen Bereitstellung von Ressourcen.

IBM NeXtScale System nx 360 M4Da fragt man sich natürlich: wie schafft solch ein System diese Art von Spagat? Nun, hierzu sollte man sich den Aufbau von IBM NeXtScale etwas genauer ansehen. Zu einem IBM NeXtScale System gehören immer zwei Komponenten, das IBM NeXtScale System n1200 und der IBM NeXtScale System nx360 M4.

Beim n1200 handelt es sich um das Server-Gehäuse, der nx360 M4 selbst ist die Recheneinheit. Da das nx360 M4 eine halbe Baubreite plus 1U-Bauhöhe aufweist und das n1200 ein Gehäuse mit 6U-Bauhöhe ist, kann man in solch ein IBM NeXtScale System bis zu 12 nx360 M4 verbauen. Das macht das System so variabel und skalierbar.

Ein Blick auf das Innenleben des nx360 M4 zeigt zudem, dass es sich um Standardkomponenten handelt, die genau die Rechenleistung bringen, die man für seine Anwendung benötigt und die gleichzeitig problemlos skalieren. So stecken in jedem nx360 M4 folgende Komponenten:

  • IBM NeXtScale System nx 360 M4 innenEin oder zwei Highend-Prozessoren der Marke Intel Xeon E5-2600 v2, die es in 18 verschiedenen Ausprägungen gibt also von 1,7 GHz mit 25 MB Cache bis hin zur ganz schnellen Variante mit 3,5 GHz CPU-Takt und 35 MB Cachespeicher. Davon unterstützt IBM NeXtScale die Varianten von 2 bis 2,7 GHz CPU-Takt und 15 bis 30 MB L3-Cache.
  • Es können 8 RAM-Bausteine inkl. ECC mit einem Systemtakt von bis zu 1.866 MHz verbaut werden, was eine Gesamtkapazität von 128 GB ergibt.Es gibt zwei Gigabit Ethernet-Ports sowie weitere InfiniBand- und 10-GBit-Optionen.
  • In einen Server auf NeXtScale-Basis kann man aktuell entweder eine 3,5 Zoll- oder zwei 2,5-Festplatten vom Type SAS/S-ATA einbauen. Oder man greift gleich zu SSD-Speicherkomponenten. Das beschleunigt die Lese- und Schreibvorgänge und hilft ein wenig beim Strom sparen.