Author Archives: Michael Hülskötter

About Michael Hülskötter

Ich schreibe im Auftrag der IBM Deutschland GmbH auf dem Hightech Computing Blog.

Das war #WhatsUpIBM Frankfurt – Rückblick in Tweets (Teil 2)

Wie versprochen folgt an dieser Stelle der zweite Teil meines #WhatsUpFrankfurt-Rückblicks. War der erste Teil gespickt mit Infos und Tweets zu den Themen IT-Trends, Hybrid-Cloud und POWER-Server, dreht sich in Teil 2 alles um SAP HANA auf POWER, IBM LinuxONE und vor allem die Storage-Lösungen von IBM.

Mit Christian Nett habe ich schon vor einer ganzen Weile ein interessantes Interview zum Thema SAP HANA auf POWER-Plattformen geführt, über das er in Frankfurt wieder einmal referierte.

Anhand eines aktuellen Beispiels aus dem Automobil-Bereich zeigte er sehr anschaulich, wie Unternehmen zunehmend von der Leistungsfähigkeit und Flexibilität der SAP HANA-Platttform auf POWER-Servern profitieren.

Auf Christian Nett folgte Manfred Gnirss, der eine Menge zu erzählen hatte zu der Komplettlösung IBM LinuxONE. Damit stellt „Big Blue“ seinen Kunden einen Mainframe ins Rechenzentrum, auf dem ein sehr individuell konfiguriertes Linuxsystem läuft und damit zahlreiche Anwendungen ermöglicht. Auch dazu hatte ich schon einmal einen IBM-Experten vor der Kamera, und zwar den Kollegen Thomas Wedel.

Als letzten Vortragsredner stellte sich dann Ralf Colbus vor das Auditorium, um seine Sicht der Dinge auf das wichtige und spannende Thema Storage zu präsentieren.

Den Anfang seines Vortrags machte, wie konnte es anders sein, das Thema Software-defined Storage (SDS), mit dem sich Ralf und IBM sehr intensiv beschäftigen. Gleich zu Anfang verglich er SDS mit einer Art „Kitt“, der die alte und neue Storage-Welt miteinander verbindet. Ein sehr passender Vergleich, wie ich finde. Zu SDS habe ich mit ihm vor einer ganzen Weile das folgende Videointerview geführt.

Apropos Software-defined Storage: Ein Beispiel aus der Automobil-Industrie sollte verdeutlichen, wie Software-defined auch in anderen Bereichen funktioniert. Die Rede ist vom Software-defined Radio, das die Firma Continental gerade weltweit implementieren möchte. Damit lassen sich in einem Auto zahlreiche Radiolösungen realisieren, und das rein auf Basis von Software. Die Hardware spielt dabei eine eher untergeordnete Rolle. Das soll vor allem die Kosten für das Autoradio senken und den Automobilherstellern mehr Flexibilität beim In-Car Entertainment bieten.

Um zu illustrieren, dass IBM für jedes denkbare Szenario die passende Speicherlösung, und zwar hardware- und software-seitig, in petto hat, warf er die folgende Folie an die Leinwand, um mit der nächsten direkt tiefer einzusteigen. Hauptakteur war dabei das flash-basierte Storage-System IBM Storwize V5030F, das vor allem für den Mittelstande konzipiert wurde.

Doch auch software-seitig ist IBM sehr gut aufgestellt, was das Speichern der Zukunft betrifft. So hilft IBM Spectrum Virtualize beispielsweise beim Abstrahieren der Software- von der Hardware-Schicht. Damit lassen sich zahlreiche Storage-Lösungen rein in Software realisieren.

Dann zeigte Ralf Colbus noch ein weiteren interessanten Aspekt der sich gerade enorm verändernden Speicherlandschaften. Storage-Umgebungen bewegen sich zunehmend in Richtung Cloud, so dass wohl kurz über lang dem Festspeicher im eigenen Rechenzentrum eine erhebliche Konkurrenz bevor steht. Darüber hinaus wird der Anteil der drehenden Festplatten immer kleiner und der an Flash-Speicher stetig größer.

 

Das war #WhatsUpIBM Frankfurt – Rückblick in Tweets (Teil 1)

Am Montag folgte ich zum letzten Mal im diesem Jahr dem Ruf von IBM. Es ging nach Frankfurt am Main, wieder einmal mit dem Zug.

Dort stand nämlich die achte und letzte Ausgabe von #WhatsUpIBM 2016 auf dem Programm, und da durfte und wollte ich natürlich nicht fehlen. Wie immer fand das  Ganze in schickem Ambiente statt, in diesem Fall trafen sich IBM-Kunden, -Partner und -Experten in den Design Offices, unweit des Frankfurter Hauptbahnhofs.

Nach guter alter Tradition eröffnete Dr. Wolfgang Maier vom IBM-Labor zu Böblingen #WhatsUpIBM mit der Frage „Quo vadis, IT?“. Darauf hatte er wie immer zahlreiche Antworten parat, gestützt von zwei Studien, die jährlich im Auftrag von IBM erstellt und publiziert werden.

Das ist zum einen die Global C-Suite Studie, mit der CEO, CTO und Co. zu ihren Einschätzungen des IT-Markts befragt werden. Diese Studie fördert regelmäßig interessante Einblicke bezüglich der IT-Landschaft und ihrer Manager zutage.

Dabei zeigt sich zum Beispiel, dass technische Überlegungen bei den aktuellen CEOs sehr weit höher im Kurs stehen als noch vor ein paar Jahren. Zudem reift die Erkenntnis, dass die Forderung nach mehr direkter Kommunikation auf digitalen Kanälen und der gleichzeitigen individuellen Ansprache von Kunden keinen Widerspruch darstellt.

Die zweite Studie, die Dr. Maier während seines Vortrags beleuchtete, nennt sich Global Technology Outlook. Dabei steht ein technischer Ausblick der nächsten drei bis zehn Jahre im Vordergrund.

So zeigen die Ergebnisse dieser Studie beispielsweise, dass aktuell gerade einmal 10 Prozent aller Daten zur weiteren Verarbeitung herangezogen werden. Im Umkehrschluss bedeutet das einen Verlust von 90 Prozent wertvoller Daten, die bei geschicktem Einsatz neuer Techniken nützliche Erkenntnisse für das Unternehmen liefern würden. Darüber müssen Firmen künftig sehr viel mehr nachdenken.

Dieser „Datenverlust“ hat unter anderem damit zu tun, dass die aktuellen Prozessoren für das Analysieren und Bewerten dieser enormen Datenmengen gar nicht gewappnet ist. Wie gut, dass IBM bereits seit geraumer Zeit an der TrueNorth-Architektur arbeitet, wie mir Thilo Mauerer in folgendem Video anschaulich erläutern konnte.

Diese enormen Datenvolumen kommen vor allem durch den Einsatz neuer Techniken zustande. Dazu gehört beispielsweise das Internet der Dinge oder Internet of Things, so wie es heute bereits in Kombination mit digitalen Blutdruckmessgeräten, Fitnessarmbändern, etc. zum Einsatz kommt. Damit erfassen wir nämlich unsere eigenen Gesundheitswerte, was im Laufe eines Lebens etwa ein Terabyte an Daten ergibt – Tendenz steigend.

Im Anschluss an Dr. Maier betrat Thomas Harrer die „Bühne“, um über das Thema Hybride Cloud-Infrastrukturen zu sprechen. Den Anfang seines Vortrags machte ein Beispiel aus dem echten Leben, so wie es bei einem Versicherungsunternehmen derzeit zum Einsatz kommt. Dabei spielt das Thema Internet of Things übrigens auch eine Rolle.

Interessant bei all den Diskussionen rund um das Thema Cloud Computing ist die Tatsache, dass die Mainframe, so wie wir sie mittlerweile seit mehr als 50 Jahren kennen, gerade in Hybriden Cloud-Umgebungen immer noch zum Einsatz kommt. Denn immer dort, wo transaktionale Daten schnell, sicher und zuverlässig gespeichert werden müssen, sorgen Mainframe-Rechner genau dafür.

Bemerkenswert war während Thomas Harrers Vortrag auch eine der Mini-Umfragen, die mithilfe der #WhatsUpIBM-App regelmäßig unter den Teilnehmern durchgeführt werden. Diese brachte nämlich zum Vorschein, dass das Einbinden externer Cloud-Services für die Anwesenden ganz weit oben auf der Agenda steht.

Dabei sind Cloud-Infrastrukturen doch viel mehr als nur das Nutzen externer Angebote, wie die nächste Folie zeigt. Denn immer öfter wird die klassische IT-Umgebung von Cloud-Installationen abgelöst, sofern die Voraussetzungen wie das Virtualisieren und Automatisieren der IT-Landschaft innerhalb des Unternehmens gegeben sind.

Dann gelingt auch das Verschmelzen der eigenen, privaten Cloud mit öffentlich zugänglichen Cloud-Diensten, und das auf Basis zahlreicher Cloud-Schnittstellen, wie sie beispielsweise IBM im Portfolio hat.

Als einer der treibenden Kräfte in Sachen Cloud Computing achtet IBM selbstverständlich darauf, dass die passenden Server und Prozessoren verfügbar sind. Und so sprach Birgit Schwarz genau darüber: über IBM POWER und die Pläne und Aussichten dazu.

Was bei der eigenen Server-Landschaft immer mehr im Vordergrund steht, ist die Sicherheit und Hochverfügbarkeit dieser IT-Umgebung. Um dies zu illustrieren, zeigte sie ein Bild vom IBM-Office in Tokyo, das vom heftigen Erdbeben 2011 erschüttert wurde. Zwar fielen zahlreiche POWER-Server um, ohne allerdings ihren Dienst zu quittieren. Das nenne ich mal echte Zuverlässigkeit.

Wichtig ist neben der Zuverlässigkeit eines Server natürlich auch dessen Rechenleistung, die bei den POWER8-Prozessoren von zahlreichen Faktoren maßgeblich beeinflusst wird. Neben den vielen Millionen Transistoren und großen Caches spielt die SMT8-Technik ein entscheidende Rolle. Wie sich das auf die Leistungsfähigkeit von Software-Anwendungen auswirken kann, hat mir Thilo Mauerer in einem Videointerview verraten.

Ebenfalls wichtig und erst seit kurzem bei IBM-POWER8-Servern erhältlich ist eine schnelle Verbindung zwischen Prozessor und Grafikeinheit. Da diese in vielen Fällen einen enormen Flaschenhals darstellt, wird in den aktuellen IBM-Servern wie dem IBM Power System S822LC die NVIDIA NVLink verbaut. Damit sind Bandbreiten zwischen CPU und GPU von bis zu 80 GB/s möglich. Das gilt auch für die GPU-Einheiten, falls mehrere im Rechner zum Einsatz kommen.

Damit die IBM-Server auch weiterhin so leistungsfähig bleiben, forscht und entwickelt IBM bereits an POWER9- und POWER10-Prozessoren. POWER9 kommt laut Prognose 2017 auf den Markt, bei POWER10 sagen die IBM-Auguren 2020 voraus. Da kann man sehr gespannt sein, welche neuen und verbesserten Techniken diese CPUs beherbergen.

Und falls Sie gespannt sind, was während #WhatsUpIBM Frankfurt noch alles passiert ist, sollten Sie den zweiten Teil des Rückblicks auf keinen Fall verpassen.

#WhatsUpIBM: HPC-Applikationen für IBM POWER-Plattform optimieren

Kommenden Dienstag ist es soweit: Da findet in Frankfurt am Main die letzte Ausgabe von #WhatsUpIBM diesen Jahres statt. Natürlich werde ich wieder dabei sein, aber auch zahlreiche Kolleginnen und Kollegen von IBM, die das Event rund um POWER-Server- und Storage-Themen mitgestalten.

Einer von ihnen wird möglicherweise Thilo Maurer sein, den ich während der letzten Veranstaltung zu zwei sehr interessanten Themen interviewen durfte. Das eine betrifft die zukünftige Prozessor-Architektur TrueNorth, die sich von den aktuellen Konventionen lösen wird. Soll heißen: Die bekannte Von-Neumann-Rechnerarchitektur wird dann ergänzt von einem komplett neuen CPU-Ansatz. Dieser orientiert sich am Synapsenmodell des menschlichen Gehirns mit all seinen Vorteilen. Dazu gehört die hohe Energieeffizienz und eine enorm hohe Rechenleistung für bestimmte Ausgaben.

Videochat #2: Von Software-Optimierungen auf POWER-Rechnern

Das zweite Videointerview, das ich mit Thilo geführt habe, handelt von seiner eigentlichen Arbeit, der er am Böblinger IBM-Labor nachgeht. Es geht dabei um einen immer währenden Optimierungsprozess, bei dem die bestmögliche Lastenverteilung von High-End-Anwendungen im Vordergrund steht, die auf IBM POWER-Prozessoren ausgeführt werden.

Hauptaugenmerk ist hierbei die „maximale Performance“, mit der die Kunden-Applikationen auf den IBM-Rechnern ausgeführt werden sollen. Hierfür wird erst einmal evaluiert, welche Algorithmen und Hardware zum Einsatz kommen, um dann die richtigen Anpassungen der zugrunde liegenden Software vornehmen zu können. Dies geschieht im Bereich High-Performance Computing, in dem sich Thilo „herumtreibt“, in enger Zusammenarbeit mit dem Kunden. Dieser versteht nämlich seine Anwendungen sehr gut und weiß meist schon vor IBM, wo es bei der Ausführung „klemmt“.

Algoritmen optimieren oder bessere für IBM POWER finden

An dieser Stelle kommt dann Thilo Mauerer und sein Team zum Einsatz, indem er dem Kunden hilft, die vorhandenen „Flaschenhälse“ zu beheben. Hierzu werden die vorhandenen Algorithmen optimiert oder alternative Rechenwege erarbeitet. Dabei werden beispielsweise Programmierkonstrukte solange verfeinert, bis die vorhandene Hardware bestmöglich ausgenutzt wird.

Wie das alles aus dem Mund von Thilo Mauerer klingt, sehen Sie sich am besten in vorliegenden Videochat selbst an. Viel Spaß dabei!

#WhatsUpIBM: Thilo Maurer (IBM) über TrueNorth und Multicore-Optimierungen

In gut zwei Wochen findet die achte und damit letzte Ausgabe der IT-Roadshow #WhatsUpIBM 2016 statt, und natürlich werde ich wieder von der Partie sein. Um die Wartezeit bis dahin ein wenig zu verkürzen, möchte ich heute einen wissenschaftlichen Mitarbeiter des IBM-Labors Böblingen zu Wort kommen lassen.

Die Rede ist von Dr. Thilo Maurer, der sich vornehmlich mit IBM POWER-Prozessoren beschäftigt, wie er mir verraten hat. Aber auch zur TrueNorth-Architektur hat er eine ganze Menge zu erzählen. Auf die müssen wir zwar noch ein bisschen warten, aber spannend is diese Technik der Zukunft allemal.

Dabei nimmt sich TrueNorth das menschliche Gehirn zum Vorbild, indem Daten in Form eines Synapsen-Modells behandelt werden sollen. Das schafft laut Dr. Mauerer ganz neue Möglichkeiten der Datenverarbeitung. Das betrifft zum einen Spezialanwendungen, und zum anderen die Energieeffizienz, die einem TrueNorth-Prozessor zugrunde liegen wird. Denn wie bei unserem Gehirn werden bei solch einer CPU immer nur die Bereiche gerade aktiv sein, die eine Berechnung durchführen. Das wird den Stromverbrauch ganz erheblich senken.

TrueNorth-Rechner werden Filteraufgaben blitzschnell durchführen können

Anwendungsseitig werden laut Thilo Maurer vor allem filterbezogene Aufgaben besser und schneller von TrueNorth-basierten Rechnern durchgeführt. Dazu gehört unter anderem die Mustererkennung, sei es von Bildern oder Wörtern, die man blitzschnell voneinander unterscheiden muss. Damit lassen sich in sehr kurzen Zeitabständen relevante, kontextbasierte Informationen aus einer Flut von Daten herausfiltern, was in Zeiten von unstrukturierten Daten immer wichtiger wird.

Aber auch seine eigentliche Arbeit, mit der sich Thilo Mauerer beschäftigt, ist sehr interessant. Grob gesagt handelt es sich dabei um das Optimieren von Software, die auf den zahlreich vorhandenen POWER-Prozessorkernen einer IBM-Maschine möglichst parallel ablaufen soll. Denn nur so erreicht man die bestmögliche Performance von Anwendungssoftware auf IBM-Hochleistungsrechnern. Aber das erzählt Dr. Maurer am besten selbst.

#WhatsUpIBM in Hamburg: Highlights eines IBM Roadshow-IT-Events, Teil 2

Vorgestern habe ich das letzte #WhatsUpIBM-Event Revue passieren lassen, das in Hamburg stattfand. Die Themen dort waren so vielfältig, dass ich heute einen zweiten Teil nachliefere, der sich ausschließlich mit dem Thema Storage beschäftigt.

Einleitend musste Herr Lein festhalten, dass es immer mehr Anwendungen gibt, die extrem datenhungrig sind. Dazu gehören so naheliegende Dinge wie die Streamingdienste à la Netflix, Amazon Video und Co. genauso wie die permanente Videoüberwachung, die uns von staatlicher Seite zuteil wird. Aber auch weniger bekannte Beispiele wie das Sammeln und Verarbeiten von Turbinendaten der großen Fluggesellschaften zählen zu den datenintensiven Applikationen, ganz zu schweigen von künftigen Szenarien wie dem autonomen Fahren, bei dem ebenfalls große Datenmengen anfallen.

Hierfür hat IBM selbstredend Storage-Lösungen im Portfolio. Das beginnt mit den bekannten Storwize-Produkten, die für jede Anwendung die passende Ausbaustufe bieten, bis hin zu den extrem leistungsfähigen Flash-System wie der V9000, die es auch in der Flash-only-Variante gibt. Dazwischen befinden sich diverse Software-Anwendungen, die für die eigene Storage-Infrastruktur wichtig sind. Dies sind namentlich unter anderem IBM Spectrum Accelerate, IBM Spectrum Scale und IBM Spectrum Virtualize.

Teil dieser Storage-Lösungen, vor allem im Highend-Bereich, ist die sogenannte IBM Flashcore-Technik, die eine gemeinsame Basis für zahlreiche Produkte darstellt. Sie steckt in Storage-Appliances wie der IBM FlashSystem 900, IBM FlashSystem V9000 und dem IBM FlashSystem A9000 und FlashSystem A9000R.

Sehr anschaulich dazu ist die nächste Folie, die ziemlich genau zeigt, welche Flash-basierte IBM-Storage-Lösung den jeweiligen Ansprüchen genügt. So sollte man beispielsweise zur IBM FlashSystem 900 greifen, wenn man von besonders guten, sprich kurzen Latenzzeiten abhängig ist. Kommt es hingegen auf eine zuverlässige Speicherung an, hilft ein Blick auf die zweite Spalte mit den maximal vorgesehenen Schreibzyklen. In dieser Disziplin glänzt unter anderem die IBM FlashSystem V9000.

Was der Umstieg auf die richtig dimensionierte Flash-Storage-Lösung bewirkt, präsentierte Stefan Lein ebenfalls. So kam das Beispiel der Swiss Bank zur Anwendung, die ihren gesamten Storage-Fuhrpark auf eine flash-basierte Speicher-Appliance umgestellt hat. Das hatte zur Folge, dass aus 23 Storageracks ein halber Speicherschrank pro Niederlassung wurde, was der Swiss Bank eine enorme Platzersparnis bescherte. Darüber hinaus fallen seitdem die Stromrechnungen deutlich geringer aus und die gesamte Stabilität des Systems konnte gesteigert werden. Was aber für diese Umstellung wohl am meisten spricht: Trotz der Konsolidierung hat sich der Leistungsindex um den Faktor 9 erhöht!

Ein anderer Schwerpunkt während Stefan Leins Vortrag war das Thema Software-defined Storage (SDS) und die Erkenntnis, dass sich die IT-Admin dieser Welt schon möglichst bald damit beschäftigen sollten. Denn gerade das Verschmelzen von Compute- und Storage-Power wird das einfache Bereitstellen von großen Speicherpools unumgänglich machen. Und genau dafür wurde SDS entwickelt.

Solch eine SDS-Lösung kommt von IBM und nennt sich Spectrum Scale. Damit lässt sich beispielsweise eine hochperformante Storage-Instrastruktur „bauen“, die unter anderem bei Red Bull Racing für das Simulieren von neuen F1-Boliden-Designs zum Einsatz kommt.

Zu guter Letzt gewährte Stefan Lein noch einen Blick auf eine Technik, die sich Erasure Coding nennt. Sie ist der Grund, warum IBM mehr als eine Milliarde US-Dollar für die Firma Cleversafe ausgegeben hat. Denn damit erlang „Big Blue“ exklusiven Zugriff auf deren Wissen und Portfolio in Sachen Object Storage, das in Zeiten von Hybrid-Clouds immer wichtiger wird. Dabei verhält sich, vereinfacht gesprochen, Erasure Coding wie ein RAID-Controller, nur viel, viel schlauer.

Zum Abschluss dieses Rückblicks kommt noch Ralf Colbus zu Wort, einem weiteren Storage-Experten bei IBM. Darin spricht er über Software-Defined Storage und deren Vorzüge.

#WhatsUpIBM in Hamburg: Highlights eines IBM Roadshow-IT-Events [Upd]

Update: Der zweite Teil der #WhatsUpHamburg-Rückschau ist online.

Es sollte sich bereits herumgesprochen haben: Ich begleite auf diesem Blog die IT-Roadshow #WhatsUpIBM, und letzte Woche stand die Nordlichtausgabe in Hamburg an, auf der ich wieder fleißig getwittert und drei Videointerviews geführt habe. Daher folgt an dieser Stelle ein „Best of“ des eintägigen Events, das hoch über den Dächern von Deutschlands zweitschönster Stadt stattfand.

Los ging’s wie immer mit dem sehr aufschlussreichen Vortrag von Dr. Maier, der Antworten auf die Frage „Quo vadis, IT?“ zu finden suchte. Und sie natürlich fand, zum Beispiel mithilfe der folgenden Grafik, die zahlreiche Schlagworte in sich vereint, denen man beim Thema „Digitale Transformation“ begegnet.

Interessant an den Vorträgen von #WhatsUpIBM ist übrigens die Interaktivität, die mithilfe einer App erzeugt wird. So werden die Teilnehmer in regelmäßigen Abständen dazu aufgefordert, ihre Meinung zu einem Aspekt der aktuellen Diskussion kundzutun. In diesem Fall ging es um die Frage, welche Techniken das Geschäftsleben in den nächsten drei bis fünf Jahre maßgeblich beeinflussen werden. Das Ergebnis war jetzt nicht so überraschend.

Interessant an Dr. Maiers Ausführungen war unter anderem der Hinweis, dass Moore’s Law zunehmend an seine Grenzen stößt und damit Prozessorhersteller wie IBM darüber nachdenken müssen, wie zusätzliche Rechenleistung garantiert werden kann, wenn die Zahl der Transistoren eines Tages nicht mehr größer wird. Zu diesem Thema hatte ich während #WhatsUpIBM Stuttgart ein sehr aufschlussreiches Video mit Birgit Schwarz vom Böblinger IBM-Forschungslabor geführt.

Die nächste Folie, die ich per Twitter in die Welt gepostet habe, habe ich schon das ein oder andere Mal veröffentlicht, allerdings ist mir dabei eine bestimmte Zahl nicht in ihrer ganzen Tragweite bewusst geworden. Dabei handelt es sich um die Tatsache, dass bereits im nächsten Jahr (also 2017) die Speicherkapazität aller weltweit im Einsatz befindlichen Smartphones die der installierten Server übersteigen wird. Krasse Zahl!

So richtig in seinem Elemente ist Dr. Maier immer dann, wenn es um neue, noch nicht so bekannte Wege der IT-Technik geht. Das ist während seines Vortrags „Quo vadis, IT?“ immer dann der Fall, wenn von der nächsten Prozessorarchitektur die Rede ist, an der IBM schon eines ganz Weile arbeitet. Es handelt sich dabei genauer gesagt um „TrueNorth“, die einen ganz neuen Ansatz als die aktuelle Prozessorarchitektur verfolgt, die auf der Von-Neumann-Architektur beruhen.

Die zugehörige Prozessorfamilie „DARPA SyNAPSE“ orientiert sich bei ihrer Arbeitsweise am menschlichen Gehirn und soll sehr viel energieeffizienter arbeiten und gleichzeitig für bestimmte Aufgaben wie Mustererkennung sehr viel leistungsfähiger sein als aktuelle Prozessoren. Dazu habe ich im Anschluss an #WhatsUpHamburg ein sehr interessantes Interview mit Dr. Thilo Maurer geführt, der in die Entwicklungsarbeiten von TrueNorth maßgeblich involviert ist.

Auf Dr. Maier folgte dann Annika Blank, die an Ulis Walter Stelle den Vortrag zum Thema „Hybride Cloud-Infrastrukturen gehalten hat.

Dabei warf auch sie einen Blick auf die zunehmende Digitalisierung ganzer Branchen und stellte die Frage, was das mit hybriden Cloud-Installationen zu tun hat. Und was man beim Umstieg von der klassischen EDV zur Cloud-IT berücksichtigen sollte, war ihr ebenfalls eine Folie wert.

Interssant war dann auch noch die Erkenntnis, dass Cloud-Dienste immer dynamischer und skalierbarer werden, und das mithilfe dedizierte APIs, die es ermöglichen, benötigte Cloud-Services genauso schnell wieder abzubuchen, wie man sie dazu gebucht hat. Dies ermöglicht beispielsweise IBM mit seinem Cloud-Dienst SoftLayer.

Wer von diesem neuen Ansätzen auf jeden Fall profitieren wird, sind die Betreiber von Rechenzentren, die mithilfe einzelner Cloud-Services ihr Data Center auf ein ganz neues Niveau hieven können.

Nach Annika Blank betrat Carsten Dieterle die Bühne, der sich wieder zu seinem Lieblingsthema „SAP HANA non IBM POWER“ austoben durfte. Zwei seiner Folie fand ich besonders bemerkenswert: Folie #1 zeigt sehr detailliert die Unterschiede einer SAP HANA-Installation auf einem POWER- und einem Intel-Prozessor-basierten System. Und Folie #2 kündigt einen neuen Kunden an, der seit kurzem auf SAP HANA on IBM POWER umgestiegen ist. Er wurde zwar nicht namentlich genannt, ist aber in der Automobilindustrie beheimatet und nutzt SAP HANA innerhalb seiner privaten Cloud-Infrastruktur.

Ein weiterer großer Schwerpunkt während #WhatsUpIBM Hamburg war dann noch das Thema Storage, zu dem Stefan Lein von IBM eine ganze Menge zu sagen hatte. Aber diese Infos gibt es im morgigen zweiten Teil.

#WhatsUpIBM Wien: Das waren die Highlights

Nächste Woche sitze ich schon wieder für #WhatsUpIBM im Zug, da fahre ich in die zweitschönste Stadt der Republik: Hamburg. Eine gute Gelegenheit also, das letzte Event, nämlich #WhatsUpWIEN Revue passieren zu lassen, mit all seinen Highlights. Na dann: Film ab.

Los ging es mit der Keynote von Richard Hackl, der das Hardware-Geschäft bei IBM Österreich verantwortet. Seine Kernaussagen drehten sich um IT-Trends und deren mögliche Herausforderungen, mit denen sich IBM- und andere Kunden immer öfter konfrontiert sehen. Dass ich dazu ein wenig mehr wissen wollte vor der Kamera, war ja wohl naheliegend. Und dieses Videointerview ist auch schon online.

Auf Richard Hackl folgte Dr. Wolfgang Maier, der mittlerweile fast schon zum Inventar von #WhatsUpIBM gehört. Er versuchte wie immer eine Antwort auf die Frage „Quo vadis, IT?“ zu finden, was ihm wie immer gelang, und das auf Basis zweier Studien, die er eingehend betrachtete.

Dr. Maier räumte dann die Bühne für den lieben Kollegen Ulrich „Uli“ Walter, der gewohnt lässig und sympathisch über sein Lieblingsthema referierte, nämlich Hybrid-Clouds.

Zunächst zeigte Uli aber erst einmal, dass Cloud Computing und Internet of Things eine ganz Menge gemein haben, wie die zugehörige Folie sehr gut zeigt.

Dass der Umstieg von der traditionellen IT-Umgebung zur Cloud-Infrastruktur kein einfaches Unterfangen sein dürfte, war den Anwesenden nach Ulis Vortrag sicherlich auch klar.

Wenn wundert’s, dass es in seinem Vortrag auch um die zahlreichen APIs und Anbindungen und Lösungen ging, die IBM zum Thema Cloud Computing zu bieten hat. Und so konnte man sich anhand einer sehr komplexen Folie ein Bild darüber verschaffen, was es von „Big Blue“ dazu alles so gibt.

Da nicht nur bei SAP, sondern auch bei IBM das Thema „HANA“ hoch im Kurst steht, folgte auf Ulrich Walter der Kollege Dieterle, der über SAP HANA auf IBM POWER referierte. Dazu habe ich mit ihm schon einmal ein informatives Videointerview geführt.

All diese Hybrid-SANA-Sonstwie-Lösungen erfordern natürlich rechenstarke Prozessoren und Maschinen, über die anschließend Birgit Schwarz referierte, mit der ich auch schon einmal ein Interview führen durfte.

Wie es sich für solch eine Veranstaltung gehört, präsentierte sie eine echte Produktneuheit, und das in Gestalt von äußerst leistungsfähigen POWER-Systemen, die auf die Bezeichnung IBM POWER Systems S822LC hören. Diese Highend-Rechner sind mit NVLink ausgestattet, was die direkte Verbindung zwischen NVIDIA-Grafikeinheiten und dem POWER-Prozessor ermöglicht.

Damit kommt man zwischen CPU und GPU auf einen Datendurchsatz von enormen 80 GB/Sekunde, und das pro Kanal! Zum Vergleich: Die Datenverbindung zwischen DDR4-RAM und Prozessor beträgt 115 GB/s, was nicht viel schneller ist.

Neben diesen Knaller-Nachrichten hatte sie auch erste Informationen zum POWER-9-Prozessor im Gepäck, auf die alle Anwesenden sehr gespannt waren. Und sie wurden nicht enttäuscht, wie die zugehörige Folie beweist.

Und weil es immer noch eine Menge zu erzählen gab, machte sich Dr. Manfred Gnirss vom IBM-Labor Böblingen daran, der Zuschauerschar das IBM LinuxONE-Konzept näher zu bringen.

Das Besondere an LinuxONE ist die enorme Flexibilität, da sich der Kunde genau das für ihn optimale Paket schnüren lassen kann. Das betrifft die geeignete Linux-Distribution, den infrage kommenden Hypervisor, die benötigten Programmiersprachen und -modelle, die passenden Runtimes, das Managementsystem dahinter, die gewünschte Datenbank und die richtigen Analysetools. Damit bleiben wohl keinerlei Wünsche offen.

Den Storage-Teil von Ralf Colbus habe ich dann leider nicht verfolgen können, da ich in dieser Zeit vier Videointerviews geführt habe. Das mit Richard Hackl ist ja bereits online, die drei weiteren werden hier ebenfalls noch veröffentlicht. Von daher: Bleiben Sie uns gewogen. Man liest sich!

Sommerpause ist vorbei: #WhatsUpWien, ich komme!

Der Sommer ist noch nicht ganz vorbei (zumindest nicht hier im schönen Bayern), und schon hallt es von den Bergen, dass ich wieder auf Reisen gehen werde im Namen von #WhatsUpIBM. Die sechste Station lautet Wien, von wo aus IBM-Experten und -Expertinnen ihr Wort erklingen lassen und vor allem über neue IBM Hardware berichten werden.

Es dreht sich also um Themen wie den IBM POWER 8 Prozessor und zugehörige Serversysteme, um IBM Speicherlösungen und vieles mehr. Mal sehen, ob Kollege Colbus wieder von der Partie ist, der mit während des IBM-Heimspiels in Stuttgart diverse Fragen zum Thema Software-defined Storage und Object Storage-Systeme beantwortet hat.

Zunächst wollte ich erst mal wissen, was das Besondere an Software-defined Storage-Lösungen ist. Und was es in diesem Zusammenhang Neues von der IBM FlashSystems-Serie A9000 gibt. Interessant ist aber auch, was Ralf Colbus zu der Tatsache sagt, warum Object Storage-Systeme den aktuellen, herkömmlichen Speicherlösungen überlegen sind. Und welche Kunde das genau aus diesem Grund bereits einsetzen, fand ich auch sehr spannend.

#WhatsUpWien, ich komme!

Sie sehen, diese und weitere Themen sind eine Reise nach Wien allemal wert – wenn es nicht diese wunderbare Stadt alleine ist. Daher freue ich mich sehr auf den Trip in die Hauptstadt Österreichs und auf eine lebendige #WhatsUpIBM-Veranstaltung. Für alle, die es nicht auf das #WhatsUpWien-Event schaffen, werde ich wieder eine Menge an interessanten Tweets absetzen. Zudem habe ich wie immer mein Videoequipment dabei, mit dem ich zwei, drei anwesenden Experten auf die Pelle rücken werden. Auf dass sie interessante Antworten auf meine Fragen haben.

So wie das in Stuttgart neben Ralf Colbus auch Thomas Harrer und Birgit Schwarz getan haben. Beide Interviews habe ich zum Anschauen ebenfalls eingebaut in diesen Blogpost. Viel Spaß beim Gucken!

#WhatsUpIBM Videochat: Das bedeutet das Ende von Moore’s Law für IBM

Es ist gefühlt schon wieder eine Ewigkeit her (time ist flying), und doch war es erst vor knapp zwei Wochen: die letzte Ausgabe von #WhatsUpIBM, zumindest vor der Sommerpause. Was auf dem fünften Event in Stuttgart inhaltlich alles geboten wurde, habe ich in einem ausführlichen Blogpost bereits zusammengefasst.

Heute kommt eine der Protagonistinnen der Veranstaltung zu Wort, nämlich Frau Birgit Schwarz, die ein wenig darüber erzählt, worauf sich Prozessorhersteller wie IBM künftig einstellen müssen, wenn das Gesetz eines gewissen Herrn Moore nicht mehr vollständig anwendbar ist. Er war einer der Gründer des Chip-Giganten Intel und hat im Jahr 1965 die These aufgestellt, dass sich die Prozessorleistung alle 12 bis 24 Monate verdoppelt, da sich die Anzahl der vorhandenen Transistoren permanent verdoppelt.

Das Moore’sche Gesetz gilt bald nicht mehr, das weiß auch IBM

Dem ist allerdings bald nicht mehr so, da man mittlerweile bei Transitorgrößen angekommen ist, die sich künftig nicht mehr beliebig reduzieren lassen. Daher lautet die alles entscheidende Frage: Wie kann ich trotz des Abhandenkommens von Moore’s Law die Prozessor- resp. Systemleistung weiter erhöhen?

Genau damit beschäftigen sich ca. 300 Hardware-Entwickler im IBM-Labor in Böblingen, in dem Frau Schwarz ihrer Arbeit nachgeht. Die hat ganz viel mit den POWER-Prozessoren von IBM zu tun. Während unseres Gesprächs konnte ich eine Menge interessanter Dinge lernen:

  • Aktuell arbeiten die Entwickler und Ingenieure von IBM an 14-Nanometer-Prozessoren, die nächstes Jahr auf den Markt kommen werden.

Tja, und den Rest erzählt Birgit Schwarz am besten selbst. Na dann: Film ab!

Rückblick in Tweets: das war #WhatsUpIBM Stuttgart [Upd]

Letzte Woche war es wieder einmal soweit: Da begab ich mich im Auftrag von IBM auf die fünfte Ausgabe von #WhatsUpIBM, um von dort ganz exklusiv und sehr live zu berichten. Mit dabei waren viele bekannte Gesichter, aber auch neuen Menschen bin ich begegnet. Und natürlich gab es wieder zahlreiche nützliche Informationen für alle diejenigen, die sich auf den Weg gemacht hatten in die Design Offices Stuttgart.

Los ging es mit einer kurzen Keynote-Vortrag von Petra Leißle, die das IBM Systems Channel-Geschäft der DACH-Region verantwortet. Dabei drehte sich vieles um die Frage, wie die Infrastruktur der Zukunft helfen kann, die passenden Antworten auf die großen Big Data-Herausforderungen zu finden. Eine davon lautet auf jeden Fall: SAP HANA auf POWER.

Anschließend ging es weiter mit einem der bereits erwähnten bekannten Gesichter, und zwar in Gestalt von Dr. Wolfgang Maier, der wieder eine ganze Menge zur Frage „Quo vadis, IT?“ zu sagen hatte.

Interessant an seinen Ausführungen waren unter anderem die Ergebnisse einer Studie, die IBM jedes Jahr neu erstellen lässt. Dabei wird beispielsweise gefragt, wie wichtig bestimmte externe Einflüsse auf das Unternehmensergebnis sind. Hier hat sich in Köpfen der CEOs vor allem festgesetzt, dass die technologischen Rahmenbedingungen auf jeden Fall stimmen müssen.

Zudem wird der digitalen Transformation ein immer höherer Stellenwert beigemessen, selbst wenn das noch lange nicht alle Unternehmen „vorleben“.

Eine Folie, die ich hier auf dem Blog auch schon veröffentlicht habe, kann man nicht oft genug ins Bewusstsein von IT-Verantwortlichen holen: Rund 90 Prozent aller Daten werden nie oder viel zu spät innerhalb eines Unternehmens sinnvoll genutzt. Das ist brachliegendes Potenzial, das hier verschwendet wird. Daher kann die Aufforderung an die CxOs dieser Welt nur lauten: Schafft die Voraussetzungen für die Analyse eurer Daten, damit diese endlich richtig eingesetzt werden. SAP HANA ist da sicherlich ein guter Ansatz.

Was Daten künftig leisten können, zeigte die Folie mit der Überschrift „Growth of Exogenous Data is Transforming Healtcare“. Soll sagen: Etwa 60 Prozent aller Daten, die im Laufe eines menschlichen Lebens erfasst werden (können), tragen bei richtiger Auswertung dazu bei, diesen Menschen gesünder leben zu lassen lassen. Dazu gehören Dinge wie Bewegungsdaten und andere messbare Größen, die wir jeden Tag generieren.

Interessant ist aber auch die Arbeit der IBM-eigenen Forschungseinrichtungen, in denen unter anderem neue Wege des Prozessordesigns beschritten werden. Einer davon hat mit sogenannten neuronalen Synapsenchips zu tun, die der Arbeitsweise des menschlichen Gehirns entsprechen und damit für bestimmte Aufgaben und Anwendungen geradezu prädestiniert sind. Dazu gehören Dinge wie Muster- und Spracherkennung, mit denen sich die aktuellen Prozessoren immer noch schwer tun.

Auf Dr. Maier folgte Thomas Harrer, den ich schon diverse Mal vor der Kamera hatte (und auch an diesem Tag in Stuttgart). Dr. Harrer ist eingesprungen für Ulrich Walter und referierte dementsprechend über das Thema „Hybrid Cloud – Neue Geschäftsideen schnell umsetzen“.

Eine sehr aussagekräftige Folie präsentierte er gleich zu Anfang, die sich mit der „IT der zwei Geschwindigkeiten“ beschäftigt. Damit sind die zwei grundlegenden Ansätze heutiger IT-Infrastrukturen gemeint, nämlich die „Systems of Engagement“, bei denen es auf das schnelle Sammeln und Auswerten von Daten ankommt und die „Systems of Record“, bei denen das zuverlässige und sichere Speichern von Daten im Vordergrund steht.

Da ein Beispiel meist aussagekräftiger und besser greifbar ist, demonstrierte Thomas Harrer den Fall „Flottenversicherung und IoT-Integration“. Damit wollte er zeigen, wie Autoversicherer und ähnliche Unternehmen von hybriden IT-Umgebungen profitieren können.

Sehr anschaulich fand ich auch die Folie mit der Überschrift „Von Mainframe-Systemen zu digitalen Plattformen“. Darin steckt so ein kleines, gelbes Rechteck, das den Mainframe-Rechner repräsentiert. Man beachte die Veränderungen, die sich im Laufe der letzten 50+ Jahre ergeben haben – mit einer gemeinsamen Konstanten: dem Zentralrechner aka Mainframe.

In dieselbe Richtung „denkt“ auch die Folie „Vom EDV-Betrieb zur hybriden IT-Organisation“. Auch diese geht vom klassischen Großrechner und zahlreichen Schritte aus, die bewältigen werden müssen, damit daraus am Ende eine funktionierende Cloud-Infrastuktur entstehen kann.

Nach so viel Serverthemen war es dann an der Zeit, das Metier zu wechseln und ein wenig über Storage-Lösungen made by IBM zu sprechen. Das übernahm Ralf Colbus von IBM, mit dem ich anschließend ein interessantes Interview zum Thema Software-Defined Storage führen durfte.

Gleich einer der ersten Folien fand ich sehr spannend. Diese zeigt, wie die zunehmende Speicherdichte heutiger Festplatten zur Herausforderungen von Rechenzentren werden kann, da man hier sehr bald an physikalische Grenzen stoßen wird. Was wiederum neue Ansätze und Lösungen erfordert.

Zumal der aktuellen Storage-Trend zeigt, dass es eine Rückkehr der internen Festspeicher gibt, die direkt im Server verbaut werden. Auch das erfordert neue Speicherszenarien.

Hierfür gibt es im Grund zwei wesentlichen Antworten: Leistungsfähige Flash-Storage-Systeme und Software-defined Storage-Lösungen.

Was das in der Praxis bedeutet, veranschaulicht das Beispiel „Swiss Bank“ sehr gut. Dort konnte man mithilfe von IBM den kompletten HDD-basierten Speicherfuhrpark von insgesamt 23 Storage-Racks auf einen halben Speicherschrank schrumpfen, in dem sich flash-basierte Speicherkomponenten befinden.

In diesem Kontext ist übrigens die Akquise der Firma CleverSafe zu bewerten, die jetzt zum IBM-Universum zählt. Dort zählt der Grundsatz „Warum viele Daten redundant generieren, wenn es auch schlanker geht“.

Update: Folgende drei Videointerviews habe ich während #WhatsUpIBM Stuttgart geführt: