Monthly Archives: Oktober 2016

#WhatsUpIBM: Thilo Maurer (IBM) über TrueNorth und Multicore-Optimierungen

In gut zwei Wochen findet die achte und damit letzte Ausgabe der IT-Roadshow #WhatsUpIBM 2016 statt, und natürlich werde ich wieder von der Partie sein. Um die Wartezeit bis dahin ein wenig zu verkürzen, möchte ich heute einen wissenschaftlichen Mitarbeiter des IBM-Labors Böblingen zu Wort kommen lassen.

Die Rede ist von Dr. Thilo Maurer, der sich vornehmlich mit IBM POWER-Prozessoren beschäftigt, wie er mir verraten hat. Aber auch zur TrueNorth-Architektur hat er eine ganze Menge zu erzählen. Auf die müssen wir zwar noch ein bisschen warten, aber spannend is diese Technik der Zukunft allemal.

Dabei nimmt sich TrueNorth das menschliche Gehirn zum Vorbild, indem Daten in Form eines Synapsen-Modells behandelt werden sollen. Das schafft laut Dr. Mauerer ganz neue Möglichkeiten der Datenverarbeitung. Das betrifft zum einen Spezialanwendungen, und zum anderen die Energieeffizienz, die einem TrueNorth-Prozessor zugrunde liegen wird. Denn wie bei unserem Gehirn werden bei solch einer CPU immer nur die Bereiche gerade aktiv sein, die eine Berechnung durchführen. Das wird den Stromverbrauch ganz erheblich senken.

TrueNorth-Rechner werden Filteraufgaben blitzschnell durchführen können

Anwendungsseitig werden laut Thilo Maurer vor allem filterbezogene Aufgaben besser und schneller von TrueNorth-basierten Rechnern durchgeführt. Dazu gehört unter anderem die Mustererkennung, sei es von Bildern oder Wörtern, die man blitzschnell voneinander unterscheiden muss. Damit lassen sich in sehr kurzen Zeitabständen relevante, kontextbasierte Informationen aus einer Flut von Daten herausfiltern, was in Zeiten von unstrukturierten Daten immer wichtiger wird.

Aber auch seine eigentliche Arbeit, mit der sich Thilo Mauerer beschäftigt, ist sehr interessant. Grob gesagt handelt es sich dabei um das Optimieren von Software, die auf den zahlreich vorhandenen POWER-Prozessorkernen einer IBM-Maschine möglichst parallel ablaufen soll. Denn nur so erreicht man die bestmögliche Performance von Anwendungssoftware auf IBM-Hochleistungsrechnern. Aber das erzählt Dr. Maurer am besten selbst.

#WhatsUpIBM in Hamburg: Highlights eines IBM Roadshow-IT-Events, Teil 2

Vorgestern habe ich das letzte #WhatsUpIBM-Event Revue passieren lassen, das in Hamburg stattfand. Die Themen dort waren so vielfältig, dass ich heute einen zweiten Teil nachliefere, der sich ausschließlich mit dem Thema Storage beschäftigt.

Einleitend musste Herr Lein festhalten, dass es immer mehr Anwendungen gibt, die extrem datenhungrig sind. Dazu gehören so naheliegende Dinge wie die Streamingdienste à la Netflix, Amazon Video und Co. genauso wie die permanente Videoüberwachung, die uns von staatlicher Seite zuteil wird. Aber auch weniger bekannte Beispiele wie das Sammeln und Verarbeiten von Turbinendaten der großen Fluggesellschaften zählen zu den datenintensiven Applikationen, ganz zu schweigen von künftigen Szenarien wie dem autonomen Fahren, bei dem ebenfalls große Datenmengen anfallen.

Hierfür hat IBM selbstredend Storage-Lösungen im Portfolio. Das beginnt mit den bekannten Storwize-Produkten, die für jede Anwendung die passende Ausbaustufe bieten, bis hin zu den extrem leistungsfähigen Flash-System wie der V9000, die es auch in der Flash-only-Variante gibt. Dazwischen befinden sich diverse Software-Anwendungen, die für die eigene Storage-Infrastruktur wichtig sind. Dies sind namentlich unter anderem IBM Spectrum Accelerate, IBM Spectrum Scale und IBM Spectrum Virtualize.

Teil dieser Storage-Lösungen, vor allem im Highend-Bereich, ist die sogenannte IBM Flashcore-Technik, die eine gemeinsame Basis für zahlreiche Produkte darstellt. Sie steckt in Storage-Appliances wie der IBM FlashSystem 900, IBM FlashSystem V9000 und dem IBM FlashSystem A9000 und FlashSystem A9000R.

Sehr anschaulich dazu ist die nächste Folie, die ziemlich genau zeigt, welche Flash-basierte IBM-Storage-Lösung den jeweiligen Ansprüchen genügt. So sollte man beispielsweise zur IBM FlashSystem 900 greifen, wenn man von besonders guten, sprich kurzen Latenzzeiten abhängig ist. Kommt es hingegen auf eine zuverlässige Speicherung an, hilft ein Blick auf die zweite Spalte mit den maximal vorgesehenen Schreibzyklen. In dieser Disziplin glänzt unter anderem die IBM FlashSystem V9000.

Was der Umstieg auf die richtig dimensionierte Flash-Storage-Lösung bewirkt, präsentierte Stefan Lein ebenfalls. So kam das Beispiel der Swiss Bank zur Anwendung, die ihren gesamten Storage-Fuhrpark auf eine flash-basierte Speicher-Appliance umgestellt hat. Das hatte zur Folge, dass aus 23 Storageracks ein halber Speicherschrank pro Niederlassung wurde, was der Swiss Bank eine enorme Platzersparnis bescherte. Darüber hinaus fallen seitdem die Stromrechnungen deutlich geringer aus und die gesamte Stabilität des Systems konnte gesteigert werden. Was aber für diese Umstellung wohl am meisten spricht: Trotz der Konsolidierung hat sich der Leistungsindex um den Faktor 9 erhöht!

Ein anderer Schwerpunkt während Stefan Leins Vortrag war das Thema Software-defined Storage (SDS) und die Erkenntnis, dass sich die IT-Admin dieser Welt schon möglichst bald damit beschäftigen sollten. Denn gerade das Verschmelzen von Compute- und Storage-Power wird das einfache Bereitstellen von großen Speicherpools unumgänglich machen. Und genau dafür wurde SDS entwickelt.

Solch eine SDS-Lösung kommt von IBM und nennt sich Spectrum Scale. Damit lässt sich beispielsweise eine hochperformante Storage-Instrastruktur „bauen“, die unter anderem bei Red Bull Racing für das Simulieren von neuen F1-Boliden-Designs zum Einsatz kommt.

Zu guter Letzt gewährte Stefan Lein noch einen Blick auf eine Technik, die sich Erasure Coding nennt. Sie ist der Grund, warum IBM mehr als eine Milliarde US-Dollar für die Firma Cleversafe ausgegeben hat. Denn damit erlang „Big Blue“ exklusiven Zugriff auf deren Wissen und Portfolio in Sachen Object Storage, das in Zeiten von Hybrid-Clouds immer wichtiger wird. Dabei verhält sich, vereinfacht gesprochen, Erasure Coding wie ein RAID-Controller, nur viel, viel schlauer.

Zum Abschluss dieses Rückblicks kommt noch Ralf Colbus zu Wort, einem weiteren Storage-Experten bei IBM. Darin spricht er über Software-Defined Storage und deren Vorzüge.

#WhatsUpIBM in Hamburg: Highlights eines IBM Roadshow-IT-Events [Upd]

Update: Der zweite Teil der #WhatsUpHamburg-Rückschau ist online.

Es sollte sich bereits herumgesprochen haben: Ich begleite auf diesem Blog die IT-Roadshow #WhatsUpIBM, und letzte Woche stand die Nordlichtausgabe in Hamburg an, auf der ich wieder fleißig getwittert und drei Videointerviews geführt habe. Daher folgt an dieser Stelle ein „Best of“ des eintägigen Events, das hoch über den Dächern von Deutschlands zweitschönster Stadt stattfand.

Los ging’s wie immer mit dem sehr aufschlussreichen Vortrag von Dr. Maier, der Antworten auf die Frage „Quo vadis, IT?“ zu finden suchte. Und sie natürlich fand, zum Beispiel mithilfe der folgenden Grafik, die zahlreiche Schlagworte in sich vereint, denen man beim Thema „Digitale Transformation“ begegnet.

Interessant an den Vorträgen von #WhatsUpIBM ist übrigens die Interaktivität, die mithilfe einer App erzeugt wird. So werden die Teilnehmer in regelmäßigen Abständen dazu aufgefordert, ihre Meinung zu einem Aspekt der aktuellen Diskussion kundzutun. In diesem Fall ging es um die Frage, welche Techniken das Geschäftsleben in den nächsten drei bis fünf Jahre maßgeblich beeinflussen werden. Das Ergebnis war jetzt nicht so überraschend.

Interessant an Dr. Maiers Ausführungen war unter anderem der Hinweis, dass Moore’s Law zunehmend an seine Grenzen stößt und damit Prozessorhersteller wie IBM darüber nachdenken müssen, wie zusätzliche Rechenleistung garantiert werden kann, wenn die Zahl der Transistoren eines Tages nicht mehr größer wird. Zu diesem Thema hatte ich während #WhatsUpIBM Stuttgart ein sehr aufschlussreiches Video mit Birgit Schwarz vom Böblinger IBM-Forschungslabor geführt.

Die nächste Folie, die ich per Twitter in die Welt gepostet habe, habe ich schon das ein oder andere Mal veröffentlicht, allerdings ist mir dabei eine bestimmte Zahl nicht in ihrer ganzen Tragweite bewusst geworden. Dabei handelt es sich um die Tatsache, dass bereits im nächsten Jahr (also 2017) die Speicherkapazität aller weltweit im Einsatz befindlichen Smartphones die der installierten Server übersteigen wird. Krasse Zahl!

So richtig in seinem Elemente ist Dr. Maier immer dann, wenn es um neue, noch nicht so bekannte Wege der IT-Technik geht. Das ist während seines Vortrags „Quo vadis, IT?“ immer dann der Fall, wenn von der nächsten Prozessorarchitektur die Rede ist, an der IBM schon eines ganz Weile arbeitet. Es handelt sich dabei genauer gesagt um „TrueNorth“, die einen ganz neuen Ansatz als die aktuelle Prozessorarchitektur verfolgt, die auf der Von-Neumann-Architektur beruhen.

Die zugehörige Prozessorfamilie „DARPA SyNAPSE“ orientiert sich bei ihrer Arbeitsweise am menschlichen Gehirn und soll sehr viel energieeffizienter arbeiten und gleichzeitig für bestimmte Aufgaben wie Mustererkennung sehr viel leistungsfähiger sein als aktuelle Prozessoren. Dazu habe ich im Anschluss an #WhatsUpHamburg ein sehr interessantes Interview mit Dr. Thilo Maurer geführt, der in die Entwicklungsarbeiten von TrueNorth maßgeblich involviert ist.

Auf Dr. Maier folgte dann Annika Blank, die an Ulis Walter Stelle den Vortrag zum Thema „Hybride Cloud-Infrastrukturen gehalten hat.

Dabei warf auch sie einen Blick auf die zunehmende Digitalisierung ganzer Branchen und stellte die Frage, was das mit hybriden Cloud-Installationen zu tun hat. Und was man beim Umstieg von der klassischen EDV zur Cloud-IT berücksichtigen sollte, war ihr ebenfalls eine Folie wert.

Interssant war dann auch noch die Erkenntnis, dass Cloud-Dienste immer dynamischer und skalierbarer werden, und das mithilfe dedizierte APIs, die es ermöglichen, benötigte Cloud-Services genauso schnell wieder abzubuchen, wie man sie dazu gebucht hat. Dies ermöglicht beispielsweise IBM mit seinem Cloud-Dienst SoftLayer.

Wer von diesem neuen Ansätzen auf jeden Fall profitieren wird, sind die Betreiber von Rechenzentren, die mithilfe einzelner Cloud-Services ihr Data Center auf ein ganz neues Niveau hieven können.

Nach Annika Blank betrat Carsten Dieterle die Bühne, der sich wieder zu seinem Lieblingsthema „SAP HANA non IBM POWER“ austoben durfte. Zwei seiner Folie fand ich besonders bemerkenswert: Folie #1 zeigt sehr detailliert die Unterschiede einer SAP HANA-Installation auf einem POWER- und einem Intel-Prozessor-basierten System. Und Folie #2 kündigt einen neuen Kunden an, der seit kurzem auf SAP HANA on IBM POWER umgestiegen ist. Er wurde zwar nicht namentlich genannt, ist aber in der Automobilindustrie beheimatet und nutzt SAP HANA innerhalb seiner privaten Cloud-Infrastruktur.

Ein weiterer großer Schwerpunkt während #WhatsUpIBM Hamburg war dann noch das Thema Storage, zu dem Stefan Lein von IBM eine ganze Menge zu sagen hatte. Aber diese Infos gibt es im morgigen zweiten Teil.