Monthly Archives: April 2014

IBM Power Systems: Wie aus einem geschlossenen ein offenes System wird

IBM Power Systems S812L, eines der ersten System mit POWER8 CPUIBM hat die Zeichen der Zeit offensichtlich verstanden. Anders ist die jüngste Ankündigung nicht zu verstehen, aus der Power-Architektur ein offenes Modell zu machen. Das neue System nennt sich demzufolge völlig richtig OpenPOWER und soll all das umfassen, was man heutzutage für das Entwickeln von Hochleistungsservern benötigt. Dazu gehören so Dinge wie Chip-Design, Schnittstellen-Spezifikationen, Firmware, Software und vieles mehr.

Um daraus keinen unkontrollierbaren Wildwuchs entstehen zu lassen, wurde mithilfe von Google, Mellanox Technologies, NVIDIA, Tyan und IBM die zugehörige OpenPOWER Foundation ins Leben gerufen, die sich künftig um die Entwicklung neuer Hardware, Software und Plattformen kümmern soll. So steht das erste gemeinsame Projekt so gut wie in den Startlöchern.

IBM Power System S-Class-Server mit Power8-Prozessoren

Mit den brandneuen IBM Power System S-Class-Servern kommen die ersten Hochleistungsrechner auf den Markt, in denen der POWER8-Prozessor erstmals seine Arbeit aufnehmen wird. Dieser Highend-Chip ist gerade mal 2,54 Quadratzentimeter groß, werkelt mithilfe von über vier Milliarden Transistoren und spannt ein Kupferkabelnetz auf, das etwa 16 Kilometer umfasst. Damit sieht sich IBM bestens gerüstet für künftige Big-Data- und Analytics-Anwendungen, mit denen die permanent steigenden Datenmengen noch besser, schneller und exakter berechnet und ausgewertet werden können.

Klar, dass die ersten Applikationen schon bereit stehen, mit denen Big-Data-Analysen durchgeführt werden können. Diese nennen sich IBM Solution for BLU-Acceleration, IBM Solution for Analytics und IBM Solution for Hadoop und sind allesamt für Power8 und OpenPOWER optimiert. Damit sollen sich in Verbindung mit den neuen Power Servern Daten bis 50 Mal schneller als auf einem vergleichbaren x86-System analysieren und berechnen lassen. Vereinzelt soll je nach Anwendung sogar der Faktor 1000 möglich sein, mit dem die zugehörigen Daten verarbeitet werden.

OpenPOWER wird von zahlreichen Partnern vorangetrieben

Doch nicht nur IBM selbst mit den geplanten IBM Power Systemen S812L, S822L, S814, S822 und S824 sind vorbereitet für OpenPOWER, auch bei den 25 OpenPOWER Foundation-Mitgliedern tut sich so einiges. So zeigt Mellanox gerade seine RDMA Exploitation on POWER auf der IBM Impact 2014 Global Conference, die noch bis Freitag in Las Vegas stattfindet. Damit sollen Speicherzugriffszeiten erheblich beschleunigt und leistungshemmende Latenzzeiten verkürzt werden. Gerade in Zeiten von speicherintensiven Anwendungen, wie sie im Bereich Big Data verstärkt zum Einsatz kommen, wird superschneller Speicher zu einer Grundvoraussetzung von wirtschaftlichem Erfolg gehören.

NVIDIA setzt auch auf die Kraft von IBM Power

Aber auch NVIDIA steht mit Power-Anpassungen bereit, und zwar im Bereich GPU-Beschleunigung. Die Rede ist natürlich von Kepler und Tesla, mit denen sich GPU-intensive Anwendungen beschleunigen lassen, die vor allem zu Simulationszwecken eingesetzt werden. So soll bereits mithilfe einer verbesserten Integration der CUDA-Technik in die Power-Plattform eine acht Mal so schnelle Analyse auf IBM Hadoop-Basis erzielt worden sein.

Zum OpenPOWER-Konsortium gehört übrigens auch das Jülich Supercomputer Center. Mal sehen, ob ich dazu ein Interview bekommen werde. So, stay tuned…

Von der OpenPOWER Foundation soll ein ganzes Eco-System profitieren

IBM NeXtScale mit Intel Xeon Phi oder Nvidia Kepler GPU-beschleunigen

IBM NeXtScale System GPU-ErweiterungÜber die neue Generation der Highend-Server-Architektur NeXtScale von IBM habe ich hier schon des Öfteren berichtet. Sei es in Form eines Grundlagenartikels oder mithilfe eines Interviews mit der transtec AG oder live von der CeBIT – immer stand das neuartige Serversystem im Vordergrund, das hochmodulare HPC-Systeme auf engstem Raum ermöglicht.

Heute geht es aber nicht um die reine Rechenleistung von IBM NeXtScale, sondern um die zusätzliche Grafikperformance, mit der sich die HPC-Rechner ab sofort bestücken lassen. Und zwar entweder mit Co-Prozessoren der Marke Intel Xeon Phi oder den CPUGPUs der Firma Nvidia, die auf der Kepler-Architektur basieren.

Beiden Techniken ist eines gemein: Sie beherrschen die Kunst der hochbeschleunigten 2D- und 3D-Visualisierung von komplexen Inhalten, die beispielsweise bei der Simulation von Erdbebenphänomenen eine große Rolle spielt. Damit lassen sich künftig noch spezialisiertere Maschinen bauen, die exakt den Bedürfnissen der Anwender entsprechen.

NeXtScale Systeme wachsen mit ihrer Aufgabe

Das bedeutet zum Beispiel, das ein NeXtScale-basierter HPC-Rechner für ein bestimmtes Projekt mit einer Minimalausstattung gekauft wird, der genau die Aufgaben erledigt, für die der Server bestimmt ist. Kommen dann neue oder zusätzliche Rechenaufgaben hinzu, lässt sich das System mit relativ geringem Aufwand erweitern, und das exakt anhand der gegebenen Projektanforderungen. Modular eben.

Für die neuen GPU-Erweiterungsmöglichkeiten stehen bereits diverse Produkte zur Verfügung. Auf der Intel-Seite handelt es sich um die Modelle Intel Xeon Phi 5110p und 7120p, für Nvidia sind das die GPU-Beschleuniger Tesla K40, K20x, K10, VGA K1 und K2. In sämtlichen Fällen wird die GPU-Erweiterung mithilfe des PCI Express-Kartenslots im IBM-System verbaut. Pro NeXtScale nx360 M4-Server lassen sich entweder zwei Intel- oder zwei Nvidia-Coprozessoren für schnellere GPU-Berechnungen integrieren.

Intel Xeon Phi oder Nvidia Kepler? Hängt davon ab…

Die Frage, ob Intel Phi oder Nvidia Kepler besser zur IBM NeXtScale-Maschine passt, lässt sich mit einem „Kommt darauf an“ beantworten. Da sich beide Techniken nämlich fundamental unterscheiden, hängt es stark von der geplanten Anwendung ab, die auf dem IBM-System laufen soll. Firmen wie die transtec AG setzen beide GPU-Architekturen ein, um beispielsweise Remote 3D-Visualiserungen umzusetzen. Aber auch hochkomplexe Simulationsberechnungen und die Display-Ausgabe derselben stehen auf der Liste der möglichen GPU-Anwendungen.

IBM @ CeBIT 2014: „Wir beherrschen nahezu das ganze IBM-Porfolio.“

Auf der CeBIT 2014 hatte ich die Gelegenheit mit Michael Görner von Tech Data dieses Videointerview zu führen. Darin wollte ich wissen, was die Firma Tech Data genau macht, mit welchen Marketing- und Vertriebsprogrammen sie ihre Kunden unterstützt, welche IBM-Lösungen sie bietet und wie die Botschaft an ihre Kunden lautet. Und das ist dabei herausgekommen.

 

IBM @ CeBIT 2014: „Die Zukunft sehen wir auch in Hybrid Clouds.“

Während der CeBIT 2014 habe ich dieses Interview mit Ulrich Walter von IBM Deutschland geführt. Darin spricht er vor allem über das Thema Private Cloud. Dazu gehören Aspekte wie „Was brauche ich für meine eigene Private Cloud?“ (überraschende Antwort: Maschinen) und wie stellt man die Leistungsfähigkeit und die Sicherheit von Private Cloud-Umgebungen sicher.

Ich habe aber auch gelernt, dass man mit Cloud-Anwendungen die Komplexität der Verfahren reduzieren kann, dass sich damit die Verarbeitungsgeschwindigkeit verbessern lässt und dass sich die eingesetzten Systeme besser nutzen lassen.Und klar, dass wir kurz über die Themen Datenschutz und Hybrid Clouds gesprochen haben. Na dann: Film ab!

 

 

SuperMUC schafft in der Erdbebensimulation mehr als 1 Petaflops

Visualisierung von Schwingungen im Inneren des Vulkans Merapi – Bild: Alex Breuer (TUM) / Christian Pelties (LMU)Über den SuperMUC habe ich hier bereits zweimal berichtet: Einmal über die sehr famose Superkühlung des Highend-Rechners und zum anderen in Form eines Interviews, das ich mit Professor Dr. Bode geführt habe. Und da alle guten Dinge drei sind, folgt hier der Hinweis auf einen Rekord, den der SuperMUC erst kürzlich aufgestellt hat.

Die Rede ist von einem neuen Rechenspitzenwert, den der Garchinger Superrechner vorzuweisen hat. Zwar steht er in der Top-500-Liste der schnellsten Supercomputer mit gut 3 Teraflops an Platz 10, dies ist allerdings nur der aktuell theoretische Maximalwert des SuperMUC. In der Praxis ist es Wissenschaftlern und Informatikern der TU München in Verbindung mit der Erdbebensimulationsanwendung SeisSol jetzt aber zum ersten Mal gelungen, die 1-Petaflop-Schallmauer zu durchbrechen, was einen echten Meilenstein des LRZ Garching darstellt.

Parallelisierter Quellcode sorgt für Spitzenrechenleistung

Um diese magische Grenze von mehr als einer Billiarde Rechenoperationen pro Sekunde zu knacken, musste SeisSol in aufwändigen Arbeiten für die 147.456 Rechenkerne der Intel Xeon-Prozessoren so angepasst werden, dass die Software zur Erforschung und Simulation von Erdbeben bestmöglich auf den IBM System x iDataPlex dx360 M4 Servern zum Einsatz kommt. Hierfür wurde der aus 70.000 Zeilen bestehende Quellcode mit diversen Techniken, Methoden und Werkzeugen vollständig parallelisiert. Nur dann kommt eine Spitzenrechenleistung wie 1 Petaflops zustande. Das entspricht einer Verfünffachung der bisherigen maximalen Rechenleistung, die mit SeisSol möglich war.

Das virtuelle Experiment, das auf dem SuperMUC für diesen neuen Rekord gesorgt hat, steht übrigens in Verbindung mit dem Merapi, einem aktiven und als sehr gefährlich geltenden Vulkan auf der indonesischen Insel Java. Da dieser unter geometrischen Aspekten als sehr schwierig zu simulieren gilt, wurden auf dem SuperMUC innerhalb von drei Stunden enorme Berechnungen durchgeführt, die zeigen sollen, wie sich der Merapi künftig verhalten wird.

Selbstverständlich ist das nur ein kleiner Zwischenschritt bei der Erforschung von Erdbeben. So sollen in einem nächsten Projekt mögliche Bruchprozesse und die damit in Verbindung stehenden seismischen Wellen genauer erforscht werden. Denn nur wenn das noch exakter und zuverlässiger gelingt, lassen sich in Zukunft Erdbeben besser voraussagen und im Vorfeld entsprechende Maßnahmen ergreifen.

PROFI AG realisiert für die Brodos AG virtualisierten Blade-Server

IBM Storewize V7000 UnifiedMit der Firma PROFI Engineering habe ich auf der CeBIT ein Videointerview geführt, in der mir Uwe Gröning über die Cloud-Installationen seiner Firma erzählt hat. Dass die PROFI AG auch anders kann, hat sie beim ihrem Kunden Brodos AG bewiesen, einem großen Distributor der Telekommunikationsbranche.

Für dieses 200 Mitarbeiter große Unternehmen mit Niederlassungen in Beiersdorf und Berlin hat die PROFI AG ein niegelnagelneues Rechenzentrum aufgebaut, bestehend aus einem IBM Blade-Server, einem Speichersystem der Marke IBM Storwize V7000 Unified und einer vollständigen Virtualisierungslösung.

150 virtuelle Server mit KVM mit der IBM Blade-Technik

Damit kann die Brodos AG künftig bis zu 150 virtuelle Server realisieren, auf denen sämtliche Kunden- und Geschäftsdaten und -transaktionen verwaltet und durchgeführt werden. Das war vor allem nötig, da die Brodos AG mit ihrer Software-Lösung brodos.net immer mehr Händler und Kunden bedient. Daher sah man sich bei dem Telekommunikationsanbieter dazu veranlasst, seine IT-Infrastruktur umzustellen.

Auf dem Blade-Server kommt softwareseitig SUSE Linux in der Enterprise Server Edition zum Einsatz. Um die Virtualisierung des Systems kümmert sich eine Kernel-basierte Virtual Machine (KVM), die ein fester Bestandteilevon Linux ist. KVM unterstützt die Hypervisor von Intel, AMD und IBM (System z). Mit KVM lassen sich Systeme auch paravirtualisieren; damit kann die vorhandene Hardware bestmöglich virtualisiert werden, also fast ohne Leistungseinbußen. Das ist für eine IT-Umgebung wie bei der Brodos AG ein immanent wichtiger Aspekt. Damit kann das Unternehmen obendrein rund die Hälfte aller Administrationsaufgaben reduzieren.

IBM Storwize V7000 Unified beherrscht NAS, SAN und SSD-Tiering

Auf der Storage-Seite hat sich mit IBM Storwize V7000 Unified aber auch eine Menge getan. So ermöglicht dieses Speichersystem sowohl NAS- als auch SAN-Umgebungen in einem Gerät, was den Datei- und Datenbank-basierten Zugriff auf den gesamten Datenbestand der Brodos AG ermöglicht. Damit lässt sich nicht nur das Speichernetz insgesamt einfacher warten und verwalten, sondern auch mithilfe der IBM System Storage Easy Tier-Funktion den Datenzugriff erheblich zu beschleunigen.

Der Trick dabei: Häufig benötigte Daten werden ohne Zutun der Anwender auf schnelle SSD-Speicherbausteine übertragen, wo die Informationen blitzschnell zur Verfügung stehen. Das soll für eine Verdopplung der Leistungsfähigkeit des Speichersystems führen. Aber auch die Datensicherung profitiert von Storwize: So konnte im Falle von Brodos die erforderliche Backup-Zeit von rund 48 auf 4 Stunden reduziert werden. Eine ganz bemerkenswerte Zahl.

IBM @ CeBIT 2014: „Mit IBM System 3850 X6 sind 12 TB Speicher möglich.“

Während der CeBIT 2014 hatte ich die Gelegenheit, mit die brandneue IBM System 3850 X6 genauer anzusehen. Dieses äußerst kompakte Server-Storage-System lässt sich mit wenigen Handgriffen erweitern, und das sowohl an der Vorder- als auch an der Rückseite. Ich habe das alles in Bild und Ton festgehalten, daher sind der Worte genug gewechselt und ich sage: Film ab!

IBM @ CeBIT 2014: „Wir sorgen an Unis für hochsichere Cloud-Umgebungen.“

Während der CeBIT 2014 hatte ich die Gelegenheit, dieses Videointerview mit Oliver Kill von der pro-com GmbH zu führen.

Während des 5-minütigen Gesprächs habe ich erfahren, dass sich die neueste pro-com-Lösung Academic Private Cloud nennt, die sich an Studenten und Universitäten richtet, denen es vor allem auf einen komfortablen und sicheren Umgang mit ihren Cloud-Daten geht. Hierüber hatte ich auf dem Hightech Computing Blog schon einmal berichtet.

Darüber hinaus hat mich Oliver Kill an einer kleinen Produktdemo teilhaben lassen, in der er genauer auf das Rechen- und Speichersystem eingeht, das im Zuge der Academic Private Cloud zum Einsatz kommt. Sehr beeindruckende Zahlen, würde ich mal sagen. Na dann: Film ab!

IBM @ CeBIT 2014: „Mit SoftLayer entstehen skalierbare Cloud-Infrastrukturen.“

Auf der CeBIT 2014 hatte ich die Gelegenheit, mit Sonja Bernhard von IBM Deutschland über die Kooperation SoftLayer und Kuuluu zu sprechen.

Wie ich während dieses erfrischend lebendigen Gesprächs erfahren habe, bringt die Spiele-Entwicklerschmiede Kuuluu Gaming-Titel in die Cloud, und das am liebsten mithilfe von SoftLayer. Dabei hilft vor allem die hohe Skalierbarkeit  der SoftLayer-Infrastruktur, die bis heute aus weltweit 13 Cloud-basierten Rechenzentren besteht, was ein müheloses Zu- und Abschalten von benötigten Rechner- und Speicherkapazitäten erlaubt.

Ein aktuelles Kuuluu-Projekt wird übrigens mit der bekannten Musikband Linkin Park realisiert, die auf geschickte Art und Weise Gaming und Musik verknüpfen. Dabei handelt es sich um ein Facebook-Spiel, das vollständig in der Cloud mithilfe von SoftlLayer gehostet wird. Aber auch mit Robbie Williams hat Kuuluu bereits ein Spiel entwickelt.

Eine also mehr als gute Idee, sich dieses Videointerview bis zu Ende einzuverleiben. Viel Spaß dabei!