Monthly Archives: November 2016

Das war #WhatsUpIBM Frankfurt – Rückblick in Tweets (Teil 2)

Wie versprochen folgt an dieser Stelle der zweite Teil meines #WhatsUpFrankfurt-Rückblicks. War der erste Teil gespickt mit Infos und Tweets zu den Themen IT-Trends, Hybrid-Cloud und POWER-Server, dreht sich in Teil 2 alles um SAP HANA auf POWER, IBM LinuxONE und vor allem die Storage-Lösungen von IBM.

Mit Christian Nett habe ich schon vor einer ganzen Weile ein interessantes Interview zum Thema SAP HANA auf POWER-Plattformen geführt, über das er in Frankfurt wieder einmal referierte.

Anhand eines aktuellen Beispiels aus dem Automobil-Bereich zeigte er sehr anschaulich, wie Unternehmen zunehmend von der Leistungsfähigkeit und Flexibilität der SAP HANA-Platttform auf POWER-Servern profitieren.

Auf Christian Nett folgte Manfred Gnirss, der eine Menge zu erzählen hatte zu der Komplettlösung IBM LinuxONE. Damit stellt „Big Blue“ seinen Kunden einen Mainframe ins Rechenzentrum, auf dem ein sehr individuell konfiguriertes Linuxsystem läuft und damit zahlreiche Anwendungen ermöglicht. Auch dazu hatte ich schon einmal einen IBM-Experten vor der Kamera, und zwar den Kollegen Thomas Wedel.

Als letzten Vortragsredner stellte sich dann Ralf Colbus vor das Auditorium, um seine Sicht der Dinge auf das wichtige und spannende Thema Storage zu präsentieren.

Den Anfang seines Vortrags machte, wie konnte es anders sein, das Thema Software-defined Storage (SDS), mit dem sich Ralf und IBM sehr intensiv beschäftigen. Gleich zu Anfang verglich er SDS mit einer Art „Kitt“, der die alte und neue Storage-Welt miteinander verbindet. Ein sehr passender Vergleich, wie ich finde. Zu SDS habe ich mit ihm vor einer ganzen Weile das folgende Videointerview geführt.

Apropos Software-defined Storage: Ein Beispiel aus der Automobil-Industrie sollte verdeutlichen, wie Software-defined auch in anderen Bereichen funktioniert. Die Rede ist vom Software-defined Radio, das die Firma Continental gerade weltweit implementieren möchte. Damit lassen sich in einem Auto zahlreiche Radiolösungen realisieren, und das rein auf Basis von Software. Die Hardware spielt dabei eine eher untergeordnete Rolle. Das soll vor allem die Kosten für das Autoradio senken und den Automobilherstellern mehr Flexibilität beim In-Car Entertainment bieten.

Um zu illustrieren, dass IBM für jedes denkbare Szenario die passende Speicherlösung, und zwar hardware- und software-seitig, in petto hat, warf er die folgende Folie an die Leinwand, um mit der nächsten direkt tiefer einzusteigen. Hauptakteur war dabei das flash-basierte Storage-System IBM Storwize V5030F, das vor allem für den Mittelstande konzipiert wurde.

Doch auch software-seitig ist IBM sehr gut aufgestellt, was das Speichern der Zukunft betrifft. So hilft IBM Spectrum Virtualize beispielsweise beim Abstrahieren der Software- von der Hardware-Schicht. Damit lassen sich zahlreiche Storage-Lösungen rein in Software realisieren.

Dann zeigte Ralf Colbus noch ein weiteren interessanten Aspekt der sich gerade enorm verändernden Speicherlandschaften. Storage-Umgebungen bewegen sich zunehmend in Richtung Cloud, so dass wohl kurz über lang dem Festspeicher im eigenen Rechenzentrum eine erhebliche Konkurrenz bevor steht. Darüber hinaus wird der Anteil der drehenden Festplatten immer kleiner und der an Flash-Speicher stetig größer.

 

Das war #WhatsUpIBM Frankfurt – Rückblick in Tweets (Teil 1)

Am Montag folgte ich zum letzten Mal im diesem Jahr dem Ruf von IBM. Es ging nach Frankfurt am Main, wieder einmal mit dem Zug.

Dort stand nämlich die achte und letzte Ausgabe von #WhatsUpIBM 2016 auf dem Programm, und da durfte und wollte ich natürlich nicht fehlen. Wie immer fand das  Ganze in schickem Ambiente statt, in diesem Fall trafen sich IBM-Kunden, -Partner und -Experten in den Design Offices, unweit des Frankfurter Hauptbahnhofs.

Nach guter alter Tradition eröffnete Dr. Wolfgang Maier vom IBM-Labor zu Böblingen #WhatsUpIBM mit der Frage „Quo vadis, IT?“. Darauf hatte er wie immer zahlreiche Antworten parat, gestützt von zwei Studien, die jährlich im Auftrag von IBM erstellt und publiziert werden.

Das ist zum einen die Global C-Suite Studie, mit der CEO, CTO und Co. zu ihren Einschätzungen des IT-Markts befragt werden. Diese Studie fördert regelmäßig interessante Einblicke bezüglich der IT-Landschaft und ihrer Manager zutage.

Dabei zeigt sich zum Beispiel, dass technische Überlegungen bei den aktuellen CEOs sehr weit höher im Kurs stehen als noch vor ein paar Jahren. Zudem reift die Erkenntnis, dass die Forderung nach mehr direkter Kommunikation auf digitalen Kanälen und der gleichzeitigen individuellen Ansprache von Kunden keinen Widerspruch darstellt.

Die zweite Studie, die Dr. Maier während seines Vortrags beleuchtete, nennt sich Global Technology Outlook. Dabei steht ein technischer Ausblick der nächsten drei bis zehn Jahre im Vordergrund.

So zeigen die Ergebnisse dieser Studie beispielsweise, dass aktuell gerade einmal 10 Prozent aller Daten zur weiteren Verarbeitung herangezogen werden. Im Umkehrschluss bedeutet das einen Verlust von 90 Prozent wertvoller Daten, die bei geschicktem Einsatz neuer Techniken nützliche Erkenntnisse für das Unternehmen liefern würden. Darüber müssen Firmen künftig sehr viel mehr nachdenken.

Dieser „Datenverlust“ hat unter anderem damit zu tun, dass die aktuellen Prozessoren für das Analysieren und Bewerten dieser enormen Datenmengen gar nicht gewappnet ist. Wie gut, dass IBM bereits seit geraumer Zeit an der TrueNorth-Architektur arbeitet, wie mir Thilo Mauerer in folgendem Video anschaulich erläutern konnte.

Diese enormen Datenvolumen kommen vor allem durch den Einsatz neuer Techniken zustande. Dazu gehört beispielsweise das Internet der Dinge oder Internet of Things, so wie es heute bereits in Kombination mit digitalen Blutdruckmessgeräten, Fitnessarmbändern, etc. zum Einsatz kommt. Damit erfassen wir nämlich unsere eigenen Gesundheitswerte, was im Laufe eines Lebens etwa ein Terabyte an Daten ergibt – Tendenz steigend.

Im Anschluss an Dr. Maier betrat Thomas Harrer die „Bühne“, um über das Thema Hybride Cloud-Infrastrukturen zu sprechen. Den Anfang seines Vortrags machte ein Beispiel aus dem echten Leben, so wie es bei einem Versicherungsunternehmen derzeit zum Einsatz kommt. Dabei spielt das Thema Internet of Things übrigens auch eine Rolle.

Interessant bei all den Diskussionen rund um das Thema Cloud Computing ist die Tatsache, dass die Mainframe, so wie wir sie mittlerweile seit mehr als 50 Jahren kennen, gerade in Hybriden Cloud-Umgebungen immer noch zum Einsatz kommt. Denn immer dort, wo transaktionale Daten schnell, sicher und zuverlässig gespeichert werden müssen, sorgen Mainframe-Rechner genau dafür.

Bemerkenswert war während Thomas Harrers Vortrag auch eine der Mini-Umfragen, die mithilfe der #WhatsUpIBM-App regelmäßig unter den Teilnehmern durchgeführt werden. Diese brachte nämlich zum Vorschein, dass das Einbinden externer Cloud-Services für die Anwesenden ganz weit oben auf der Agenda steht.

Dabei sind Cloud-Infrastrukturen doch viel mehr als nur das Nutzen externer Angebote, wie die nächste Folie zeigt. Denn immer öfter wird die klassische IT-Umgebung von Cloud-Installationen abgelöst, sofern die Voraussetzungen wie das Virtualisieren und Automatisieren der IT-Landschaft innerhalb des Unternehmens gegeben sind.

Dann gelingt auch das Verschmelzen der eigenen, privaten Cloud mit öffentlich zugänglichen Cloud-Diensten, und das auf Basis zahlreicher Cloud-Schnittstellen, wie sie beispielsweise IBM im Portfolio hat.

Als einer der treibenden Kräfte in Sachen Cloud Computing achtet IBM selbstverständlich darauf, dass die passenden Server und Prozessoren verfügbar sind. Und so sprach Birgit Schwarz genau darüber: über IBM POWER und die Pläne und Aussichten dazu.

Was bei der eigenen Server-Landschaft immer mehr im Vordergrund steht, ist die Sicherheit und Hochverfügbarkeit dieser IT-Umgebung. Um dies zu illustrieren, zeigte sie ein Bild vom IBM-Office in Tokyo, das vom heftigen Erdbeben 2011 erschüttert wurde. Zwar fielen zahlreiche POWER-Server um, ohne allerdings ihren Dienst zu quittieren. Das nenne ich mal echte Zuverlässigkeit.

Wichtig ist neben der Zuverlässigkeit eines Server natürlich auch dessen Rechenleistung, die bei den POWER8-Prozessoren von zahlreichen Faktoren maßgeblich beeinflusst wird. Neben den vielen Millionen Transistoren und großen Caches spielt die SMT8-Technik ein entscheidende Rolle. Wie sich das auf die Leistungsfähigkeit von Software-Anwendungen auswirken kann, hat mir Thilo Mauerer in einem Videointerview verraten.

Ebenfalls wichtig und erst seit kurzem bei IBM-POWER8-Servern erhältlich ist eine schnelle Verbindung zwischen Prozessor und Grafikeinheit. Da diese in vielen Fällen einen enormen Flaschenhals darstellt, wird in den aktuellen IBM-Servern wie dem IBM Power System S822LC die NVIDIA NVLink verbaut. Damit sind Bandbreiten zwischen CPU und GPU von bis zu 80 GB/s möglich. Das gilt auch für die GPU-Einheiten, falls mehrere im Rechner zum Einsatz kommen.

Damit die IBM-Server auch weiterhin so leistungsfähig bleiben, forscht und entwickelt IBM bereits an POWER9- und POWER10-Prozessoren. POWER9 kommt laut Prognose 2017 auf den Markt, bei POWER10 sagen die IBM-Auguren 2020 voraus. Da kann man sehr gespannt sein, welche neuen und verbesserten Techniken diese CPUs beherbergen.

Und falls Sie gespannt sind, was während #WhatsUpIBM Frankfurt noch alles passiert ist, sollten Sie den zweiten Teil des Rückblicks auf keinen Fall verpassen.

#WhatsUpIBM: HPC-Applikationen für IBM POWER-Plattform optimieren

Kommenden Dienstag ist es soweit: Da findet in Frankfurt am Main die letzte Ausgabe von #WhatsUpIBM diesen Jahres statt. Natürlich werde ich wieder dabei sein, aber auch zahlreiche Kolleginnen und Kollegen von IBM, die das Event rund um POWER-Server- und Storage-Themen mitgestalten.

Einer von ihnen wird möglicherweise Thilo Maurer sein, den ich während der letzten Veranstaltung zu zwei sehr interessanten Themen interviewen durfte. Das eine betrifft die zukünftige Prozessor-Architektur TrueNorth, die sich von den aktuellen Konventionen lösen wird. Soll heißen: Die bekannte Von-Neumann-Rechnerarchitektur wird dann ergänzt von einem komplett neuen CPU-Ansatz. Dieser orientiert sich am Synapsenmodell des menschlichen Gehirns mit all seinen Vorteilen. Dazu gehört die hohe Energieeffizienz und eine enorm hohe Rechenleistung für bestimmte Ausgaben.

Videochat #2: Von Software-Optimierungen auf POWER-Rechnern

Das zweite Videointerview, das ich mit Thilo geführt habe, handelt von seiner eigentlichen Arbeit, der er am Böblinger IBM-Labor nachgeht. Es geht dabei um einen immer währenden Optimierungsprozess, bei dem die bestmögliche Lastenverteilung von High-End-Anwendungen im Vordergrund steht, die auf IBM POWER-Prozessoren ausgeführt werden.

Hauptaugenmerk ist hierbei die „maximale Performance“, mit der die Kunden-Applikationen auf den IBM-Rechnern ausgeführt werden sollen. Hierfür wird erst einmal evaluiert, welche Algorithmen und Hardware zum Einsatz kommen, um dann die richtigen Anpassungen der zugrunde liegenden Software vornehmen zu können. Dies geschieht im Bereich High-Performance Computing, in dem sich Thilo „herumtreibt“, in enger Zusammenarbeit mit dem Kunden. Dieser versteht nämlich seine Anwendungen sehr gut und weiß meist schon vor IBM, wo es bei der Ausführung „klemmt“.

Algoritmen optimieren oder bessere für IBM POWER finden

An dieser Stelle kommt dann Thilo Mauerer und sein Team zum Einsatz, indem er dem Kunden hilft, die vorhandenen „Flaschenhälse“ zu beheben. Hierzu werden die vorhandenen Algorithmen optimiert oder alternative Rechenwege erarbeitet. Dabei werden beispielsweise Programmierkonstrukte solange verfeinert, bis die vorhandene Hardware bestmöglich ausgenutzt wird.

Wie das alles aus dem Mund von Thilo Mauerer klingt, sehen Sie sich am besten in vorliegenden Videochat selbst an. Viel Spaß dabei!