Monthly Archives: September 2014

Event-Rückblick: IBM, Cloud, Big Data und mehr

Letzte Woche war ich an zwei Tagen auf zwei Events: Auf der Cloud Computing & Virtualisierung Technology Conference 2014 (feinstes Denglish, btw) und auf dem Tech Data Kongress 2014. Beide in München, beide per Tweet angekündigt.

Die Keynote von Prof. Dr. Peter Buhmann am Anfang der Cloud Computing & Virtualisierung Technology Conference hielt ein paar interessante Erkenntnisse in Sachen Cloud Computing parat:

Anschließend gab es eine Menge Detailwissen in Sachen VMware Horizon und Airwatch. Dozent war Jens-Peter Henkies von Tech Data Azlan.

Anschließend stellten Hubert Hoerl von Tech Data und Thomas Gotthalmseder von IBM 3D-Remote Virtualisierung auf Basis von IBM PureSystems vor. Inklusive interessanter Bilder. Davon habe ich übrigens selbst Bilder geschossen, und zwar mithilfe des Kleinlasters, den IBM seit neuestem auf Reisen schickt.

Ein wichtige Erkenntnis hatten die beiden Herren auch parat:

Gut gefallen an ihrem Vortrag hat mir auch der Vergleich zwischen IBM NeXtScale und IBM Flex System:

Später lauschte ich dann noch den Worten von Steve Janata von Crisp Research, der eine Menge guter Nachrichten dabei hatte. Eine lautete:

Aber auch eine technische Erkenntnisse hatte Steve dabe:

Während der Konferenz gelang es mir dann noch, mit zwei sehr charmanten Gesprächspartnern je ein Interview zu führen, die ich beide schon online gestellt habe.

Am nächsten Tag ging es auf dem Tech Data Kongress ebenfalls um zahlreiche interessante Themen. Zwei Vorträge habe ich mir letztlich angehört: eines handelte von Big Data in der Versicherungsbranche und das andere um das Thema Social Collaboration. Vor allem die AOK/WIdO-Session hatte es mir angetan.

Videointerview mit Fritz & Macziol über Big Data und WIdO

Während des Tech Data Kongress 2014 hatte ich die Gelegenheit,. mit Sascha Bäcker von Fritz & Macziol dieses Videointerview zu führen. Darin spricht er über die technische Plattform, die beim WIdO zum Einsatz kommt, mit der die rund 24 Millionen Versichertendatensätze der AOK bestmöglich verarbeitet und analysiert werden.

Beim WIdO handelt es sich um das Wissenschaftliche Institut der AOK, das auf Basis von rund 5 Terabyte Daten per Browser-Eingabe die Analyse von Patienten- und anderen Daten ermöglicht. Hierfür kommt beim WIdO ein IBM-Server der Marke System x 3850 sowie die IBM Storage-Lösung Storwize V3700 zum Einsatz. Und mit dem IBM DB2 Blu ist Fritz & Macziol ebenfalls schon am liebäugeln.

Na dan: Film ab!

Videointerview mit Michael Hohl von transtec über IBM, Haswell und Lenovo

Auf der Cloud Computing & Virtualisierung Tech Conference 2014 hatte ich die Gelegenheit, mit Michael Hohl von der transtec AG über die neuen Haswell-Server von IBM und den IBM-Lenovo-Deal zu sprechen. Dieses Interview ist dabei herausgekommen.

Hierin zeigt er sich sehr angetan von der fünften Generation der System x-Geräte der IBM und deren Energieeffizienz. Und er glaubt, dass die IBM-Server-Transition in Richtung Lenovo positive Auswirkungen auf den HPC-Markt im Mittelstand haben wird.

Na dann: Film ab!

Live-Berichterstattung zu Cloud Computing, Big Data und mehr

Tech Data EventDiese Woche gehe ich mit meinem Video-Equipment mal wieder auf Reisen, und zwar zu zwei Veranstaltungen, die ganz im Zeichen von Cloud Computing, Big Data, Mobility und Industrie 4.0 stehen. Die Rede ist von der Cloud Computing & Virtualisierung Technology Conference 2014 (CVTC 14) am Donnerstag und von IT 3.0 – Total vernetzt, die am Freitag stattfindet.

Auf der CVTC 14 sind zahlreiche Vertreter der Branche anwesend, so auch Tech Data Azlan, ein IBM Business-Partner, und IBM selbst. Daher werde ich unter anderem folgende Sessions besuchen:

Der Desktop aus der Luft: Dabei geht es in Form von Live-Demos um den Einsatz von VMware Horizon und AirWatch. Beide Lösungen kommen verstärkt im Mittelstand zur Anwendung, einerseits zum Virtualisieren von Produktiv-Apps und zum Administrieren von mobilen Geräten andererseits.

3D-VDI mit IBM Pure Systems: In diesem Vortrag wird gezeigt, wie sich ein IBM Flex System-basierter Server effizient virtualisieren lässt. Zudem wird demonstriert, wie man eine Linux-basierte CAE-Anwendung mithilfe von VMware View virtualisieren kann.

Die Zukunft von Storage und Netzwerk im Software Defined Datacenter: Diese Session beschäftigt sich mit der Frage, wie viel Potential in VMware VSAN und NSX steckt. Zudem wird gezeigt, wie die sanfte Migration in ein zukunftssicheres und hochverfügbares Datacenter mit Brocade VDX erfolgen kann.

Spannend wird sicherlich auch die Keynote von Steve Janata von Crisp Research, der das Thema „IT-Infrastruktur im Multi- und Hybrid-Cloud-Zeitalter“ genauer beleuchtet. Interessant werden aber sicherlich auch die zwei Anwenderberichte, in denen gezeigt wird, wie der Aufbau einer eigenen Cloud-Anwendung funktioniert.

Am Freitag geht es dann nach Unterschleißheim, wo Tech Data unter dem Motto „IT 3.0 – total vernetzt“ die Themen Big Data, Cloud Computing, Mobility und Industrie 4.0 auf die Agenda setzt. Auch dort habe ich mir bereits einen Teil meiner eigenen Agenda zusammengestellt:

Während der zehn parallel stattfindenden Referenzpräsentationen werde ich mir ansehen, wie IBM das Thema Big Data innerhalb des Gesundheitssektors bewertet (ich glaube, ich habe da schon so eine Idee). Anschließend folgt nach einer kleinen Pause ein Vortrag, in dem IBM seinen Vision von der mobilen Welt präsentieren darf.

Nachmittags findet eine Keynote von BMW zu ConnectedDrive statt, im Anschluss daran wird auf einer Podiumsdiskussion die Frage erörtert, wie die totale Vernetzung die Geschäftsmodelle von Unternehmen verändern wird. Ich bin gespannt.

Neben all diesen Vorträgen und Sessions werde ich auch hoffentlich zahlreiche Videointerviews mit interessanten Menschen zu ebensolchen interessanten Themen führen. Ich freue mich darauf!

 

Die Super-Cloud: Chance und Herausforderung. Ein Webcast-Mitschnitt.

Der Supercomputer "SuperMUC" im LRZ GarchingHeute findet um 11 Uhr MESZ in Zusammenarbeit mit der Computerwoche ein Webcast statt, der die Überschrift „Die Super-Cloud: High Performance Computing in neuer Dimension“ trägt.

Er beschäftigt sich mit zahlreichen Aspekten der steigenden Nachfrage an Rechenzeiten, die man verstärkt mithilfe von Cloud-Clustern befriedigen will.

Ein solches Cloud-Cluster steht beispielsweise vor den Toren Münchens und nennt sich SuperMuc, dessen zweite Ausbaustufe gerade vollzogen wird, da Intel erst kürzlich die neuen Serverprozessoren der Marke Haswell-EP vorgestellt hat. Was liegt da näher, als Professor Dr. Bode vom LRZ Garching zu diesem Webcast einzuladen. Ihm zur Seite sitzt ein guter Bekannter dieses Blogs, Klaus Gottschalk von IBM, der auch eine Menge zum Thema Cloud-Cluster zu erzählen hat. Schließlich verantwortet er mit seinem Team die Erweiterung des SuperMuc.

Darüber hinaus sind von der Partie Paul Höcherl, ebenfalls IBM, und Detlef Korus, der die Moderation im Namen der Computerwoche übernimmt. Also, in knapp 30 Minuten geht es los. Ich freue mich auf eine lebendige Diskussion und neue Erkenntnisse in Sachen Supercomputing und Cloud.

12:00 So, das war es dann. Danke fürs Mitlesen. Hoffe, es hat Ihnen Spaß gemacht. Weitere Infos dazu gibt es diese Woche noch auf diesem Blog.

11:58 Klaus Gottschalk: „Cloud Computing wird künftig benötigte Rechenzeiten schneller und einfacher bereit stellen können.“

11:54 Paul Höcherl: „IBM Flex- und NeXtScale-Systeme sind nicht kompatibel.“

11:50 Prof. Bode: „Der SuperMuc ist formal nicht zertifiziert, wir arbeiten aber derzeit in diversen Normungsgremien an solchen Standards.“

11:47 Die zweite Umfrage bringt die Erkenntnis, dass bei HPC-Projekten vor allem geeignetes Personal und passendes Know-how im Vordergrund stehen. Aber auch die Integration in die vorhandene IT-Infrastruktur scheint eine große Herausforderung zu sein.

11:45 Prof. Bode: „Ich bin ein großer Fan von Monitoring-Tools, mit denen wir den Energieverbrauch des SuperMuc beobachten und steuern können.“

11:42 Wow: Laut Prof. Bode sind viele HPC-Anwendungen beileibe noch nicht so parallelisiert, wie das wünschenswert wäre. Da steckt also noch eine Menge Potenzial in der Programmierung von HPC-Software für Multicore-Systeme.

11:40 Prof. Bode spricht über zwei aktuelle Projekte. Darüber haben wir teilweise schon berichtet.

11:36 Prof. Bode: „Mit dem Gauss-Zentrum, dass sich aus den Rechenzentren Jülich, Stuttgart und Garching zusammengesetzt, stellen wir sicher, dass unseren Anwendern stets die aktuellen Server-Techniken zur Verfügung stehen.“

11:31 Prof. Bode: „Die hohe Energieeffizienz des SuperMuc erreichen wir unter anderem durch den Einsatz von intelligenten Schedulern wie xCAT und Load Leveler. Das spart jedes Jahr Stromkosten in Höhe von mehreren 100.000 Euro.“

11:29 Prof. Bode: „Das Besondere am SuperMuc sind seine Standardkomponenten, die sich einfacher handhaben und programmieren lassen als Spezialbausteine.“

11:26 Prof. Bode: „Wasser kühlt besser als Luft. Daher wird der SuperMuc direkt wassergekühlt, indem warmes Wasser (40 Grad Zulauf, 60 Grad Ablauf) um die Serverkomponenten herum geleitet wird. Das ablaufende Wasser soll künftig einzelne Gebäude des Campus Garching mit Energie versorgen.“

11:25 Klaus Gottschalk: „Große Supercomputer-Installationen wie der SuperMuc sind vor allem logistisch eine echte Herausforderung.“

11: 22 Paul Höcherl: „Die leistungsfähigen Grafikkarten produzieren enorme Abwärme. Daher werden sie in den NeXtScale-Systemen oben platziert, wo sie optimal im Kühlungsstrom liegen.“

11:20 Paul Höcherl stellt die neuen NeXtScale-Systeme vor. Dazu gibt es diese Woche auf dem HPC-Blog weitere Informationen.

11:18 Paul Höcherl: „Wir unterstützen als einziger Hersteller eine dauerhafte Temperaturumgebung von 40 Grad Celsius. Andere beherrschen nur 35 Grad auf längere Sicht gesehen.“

11:15 Paul Höcherl: „Die neuen Sytem x M5-Server sind sicher, zuverlässig und sehr effizient. Im Vergleich zur Vorgängergeneration sind die Systeme mehr als doppelt so leistungsfähig.“

11:13 Keine wirkliche Überraschung: Die Mehrheit der Webcast-Teilnehmer erachtet das Thema HPC für ihr Unternehmen für relevant.

11:11 Paul Höcherl: „Das x86-basierte Server- und Cluster-Portfolio ist breit aufgestellt und aus meiner Sicht sehr ausgewogen. Das beginnt bei einfachen Rack- und Tower-Systemen und geht hinauf bis zu PureSystems.“

11:10 Prof. Bode: „Wir waren vom Lenovo-IBM-Deal schon überrascht. Aber ein zunehmender Wettbewerb kann für uns als Anwender nur positiv sein.“

11:08 Klaus Gottschalk: „Die Lenovo-Transition findet planmäßig statt, und diese Zusammenarbeit wird beiden Seiten erhebliche Vorteile bringen.“

11:06 Erste Mini-Umfrage zum Thema HPC und dessen Relevanz. Gute Sache.

11:04 Paul Höcherl: „Kleinere Server-Cluster adressieren auch den Mittelstand, der immer mehr Rechenzeiten benötigt.“

11:02 Prof. Bode: „Die neuen Serversysteme sind zwar doppelt so schnell wie bisher, sind aber auch sehr energiehungrig. Unter normalen Umständen würde man etwa 1 Milliarde Euro für den Stromverbrauch zahlen! Daher gehen wir mit dem SuperMuc neue Wege bei der Kühlung.“

11:00 Uhr: So, es geht dann mal los. Sehr pünktlich.

IBM System x: Neue Server und neue Anwendungen

IBM Flex System x240 M5In meinem gestrigen Beitrag zur großen Neuvorstellungsrunde in Sachen IBM System x lag mein Hauptaugenmerk auf der Hardware, die unter anderem dank der verbesserten Intel Xeon-Prozessoren vom Typ Haswell in neue Leistungsbereiche vorstoßen wird. Da Hardware aber immer nur so gut ist wie die passenden Software, wage ich heute einen Blick auf Anwendungen und Tools, die Big Blue entweder neu entwickelt oder an die fünfte Generation der System x-Maschinen angepasst hat. Dazu gehören im einzelnen:

VMware VSAN für System x: Mit Virtual SAN für System x-Maschinen lassen sich Storage-Ungebungen bereitstellen und verwalten, und das auf Basis von vSphere, dem Hypervisor von VMware. Damit kann man virtuelle Speichernetze realisieren, und das mit einem Höchstmaß an Leistung, da es sich bei vSphere um einen so genanten „Bare Metal Hypervisor“ handelt, der direkt auf die zugrunde liegende Hardware-Plattform zugreift. Darüber hinaus stellt VSAN Speicher immer dort zur Verfügung, wo er gerade benötigt wird. Und das völlig automatisiert und auf Storage-Richtlinien basierend.

Darüber hinaus erlaubt VSAN Software-Defined Storage-Lösungen, die sich nahtlos in die vorhandene Computing-Landschaft integrieren lassen. Damit kann der vorhandene Speicher-Pool bestmöglich und effizient genutzt werden. Für die benötigten Leistungsreserven kümmert sich eine Caching-Technik, die mithilfe von serverseitigem Flashspeicher für einen höheren Datendurchsatz sorgt. Das bringt mehr Leistung als bei virtualisierten Appliances oder externen Geräten.

Microsoft Fast Track DW für SQL-Server 2014: Mit dieser an System x angepassten Software-Lösung lassen sich mit geringem Aufwand Data-Warehouse-Anwendungen realisieren. Hierzu wurden die Eigenschaften der System x-Maschinen der fünften Generation (IBM System x M5) an Microsoft Fast Track angepasst. Damit adressiert diese IBM-Lösung bevorzugt Firmen, die ein vollfunktions- und leistungsfähiges Data-Warehouse-System benötigen, allerdings nicht die hierfür erforderliche IT-Expertise aufweisen. Damit sind die IBM-Server innerhalb kürzester Zeit für das Verwalten großer Warenwirtschaftssysteme einsatzbereit.

SmartCloud Desktop Infrastruktur mit Atlantis Computing ILIO: Basierend auf Citrix XenDesktop und VMware Horizon View lassen sich virtualisierte Desktop-Umgebungen mit Atlantis Computing ILIO mit geringem Aufwand realisieren. Der Trick dahinter: Atlantis ILIO „sitzt“ zwischen Hypervisor und Hauptspeicher und fungiert damit als schneller Zwischenspeicher, der die Daten erst gar nicht zum Festplatten- oder SSD-Speicher gelangen lässt. Damit lassen sich typische Desktop-Aufgaben wie das Starten des Rechners und der Anwendungen, Anti-Viren-Scans, etc. deutlich schneller ausführen als mit herkömmlichen Methoden, da sämtliche Daten bereits im RAM liegen, wenn sie benötigt werden. Das reduziert den physikalischen Speicherbedarf insgesamt ganz erheblich.

IBM Flex-Lösung für Microsoft Hyper-V: Mit dieser neuen Lösung lassen sich Cloud-Infrastrukturen realisieren, und das im Verbund mit Microsoft Windows Server 2012 R2, Microsoft Hyper-V und System Center 2012 R2. Bei Hyper-V handelt es sich wie bei VMware vSphere um einen Bare Metal-Hypervisor, der direkt auf der zugrunde liegenden Hardware-Plattform aufsetzt. Zudem erlaubt Hyper-V im Cluster-Betrieb das Anlegen, Löschen und Verschieben virtueller Maschinen in Echtzeit. Hyper-V ist fester Bestandteil von Windows Server 2012 und System Center 2012 und erlaubt das Virtualisieren der Flex-Systeme von IBM von Anfang an.

IBM System x: Neue Modelle mit mehr Leistung auf weniger Raum

IBM System x3650 M5Während der diesjährigen International Supercomputing Conference 2014 stand mir Oliver Kill, Geschäftsführer der pro-com AG für zwei Interview zur Verfügung. In dem einen spricht er über den großen IBM-Lenovo-Deal, und in unserem zweiten Gespräch blickt er auf ein Ereignis voraus, das genau heute stattfindet.

Gemeint ist die große Produktankündigung von IBM zum Thema System x. Diese x86-basierte Serverfamilie bekommt Zuwachs, und zwar in Gestalt einer brandneuen Modellreihe namens M5, also die fünfte Generation. Darüber hinaus kommen neue Storage-Lösungen auf den Markt, aber auch die bestehenden Systeme wie IBM System x3650 werden erneuert, wenngleich nur partiell.

Eines der bemerkenswerten Merkmale der IBM System x M5-Modelle ist der nigelnagelneue Serverprozessor von Intel, den der CPU-Hersteller heute vorgestellt hat. Sein Name: Intel Xeon E5-2600 v3, der ebenfalls zahlreiche interessante Features aufweist, die für deutlich mehr Leistung sorgen werden als in den bisherigen System x-Modellen. Zu denen bemerkenswerten technischen Eigenschaften des Intel Xeon 2600 v3 zählen wie folgt:

  • Mit 18 Kernen pro Prozessor und 45 Megabyte Last-Level-Cache konnte Intel die reinen Specs im Vergleich zur Vorgänger-CPU verdoppeln. Darüber hinaus unterstützt der Intel-eigene Befehlssatz AVX2 ab sofort 256 Bit breite Register, was sich bei der Verarbeitung bestimmter Befehle immens auswirken wird. Die Rede ist von einer nahezu verdoppelten Leistungsfähigkeit.
  • Der Intel Xeon E5-2600 v3 unterstützt etwa 70 Prozent mehr virtuelle Maschinen pro Server, was die Leistungsdichte der zugrunde liegenden Rechner deutlich verbessern wird. Folge: Die Betriebskosten pro Server gehen nach unten, darüber hinaus lassen sich die Anschaffungskosten reduzieren, da dieselbe Anzahl an Servern eine größere virtualisierte Umgebung liefert.
  • Der Intel Xeon E5-2600 v3 unterstützt den deutlich schnelleren DDR4-Speicher, der etwa 40 Prozent mehr Leistung beim Lesen und Schreiben von flüchtigen Daten erzielt. Folge: Vor allem datenintensive Anwendungen wie Datenbank-Applikationen werden von den beschleunigten RAM-Bausteinen profitieren. Dank des überarbeiteten Chipsatzes sind jetzt bis zu 1,5 Terabyte RAM möglich.
  • Dank neuer und überarbeiteter Techniken wird die Energieeffizient des Intel Xeon E5-2600 v3 und der zugehörigen Serversysteme weiter verbessert. Dazu trägt beispielsweise die Fertigungstechnik bei, die auf 22 Nanometer-Transistoren basiert, was einen geringeren Stromverbrauch und weniger Platzbedarf der CPU führt. Aber auch der neue Ethernet-Controller mit der Bezeichnung XL710 sorgt für mehr Leistung bei gleichzeitig geringerer Energieaufnahme.

All diese und weitere Verbesserungen der neuen Intel-Serverprozessoren ermöglichen schnellere IBM-Serversysteme vom Typ System x M5. Zu den neuen Modellen zählen wie folgt:

  • System x3650 M5: Leistungsstarker und vielseitiger 2U-Two-Socket Rack-Server, der für Anwendungen in den Bereichen Big Data, Analytics und Cloud optimiert wurde. Bei diesem System lassen sich zwölf 3,5 Zoll-Festplatten einbauen. Zudem nimmt das System bis zu vier PCI-Steckkarten auf.
  • IBM System x3550 M5System x3550 M5: Der kleine Bruder des x3650 M5 ist ein flexibler 1U-Two-Socket Rack-Server, der ein breites Spektrum an Workloads aus unterschiedlichen Branchen ermöglicht. Weiteres Merkmal: Drei PCI-Slots. Der x3550 M5 wurde als Applikationsserver konzipiert, bei dem die I/O-Leistung nicht im Vordergrund steht.
  • System x3500 M5: Hochleistungsfähiger, All-in-one 5U-Two-Socket Tower oder Rack-Server für unternehmenskritische Workloads.
  • IBM Flex System x240 M5Flex System x240 M5: Zwei-Sockel-Server für die Integration in ein Flex-Chassis für kompakte Server, die bis zu 14 verschiedene Komponenten aufnehmen können. Optimiert für Leistung, Mainstream-Virtualisierung und Unternehmensanwendungen. Für noch mehr I/O-Leistung lassen sich im x240 M5 eXFlash-DIMMs einbauen, was superschnelle lokale Speicherlösungen ermöglicht.
  • NeXtScale nx360 M5: Halbbreiter 1U Compute-Server für hohe Serverdichte, Flexibilität und Leistung. NeXtScale nx360 M5-Maschinen kommen vor allem bei Internet Service Providern, und für Cloud- und HPC-Anwendungen zum Einsatz.
  • IBM NeXtScale mit WasserkühlungNeXtScale System mit Wasserkühlungstechnologie: Dabei handelt es sich quasi um den Nachfolger der iData Flex-System. In diesem Serversystem kommt eine eigene Wasserkühlung für einen energie- und kosteneffizienten Betrieb zum Einsatz. Dieses System wird kommt zum ersten Mal in der zweiten Ausbaustufe des SuperMuc eingesetzt. Mit diesem Mode-basierten  Kühlungssystem lassen sich auf Basis einer Kaltwasserkühlung etwa 10 Prozent Strom sparen, mit einer Warmwasserkühlung wie beim SuperMuc wird sogar eine Verbesserung der Energieeffizienz von 40 Prozent erreicht.

Weitere Informationen rund um die neuen und verbesserten IBM-Systeme finden Sie in den nächsten Tagen auf dem Hightech Computing Blog.

 

IBM Breakfast Briefings gehen in die nächste Runde

IBM PureSystemsAnfang April habe ich hier zum ersten Mal über die IBM Breakfast Briefing berichtet, die bis heute acht Mal stattgefunden haben.

Zu den Themen zählen unter anderem: IBM System x & IBM BladeCenter / IBM PureSystems, IBM Smarter Storage sowie das IBM FlashSystem V840POWER7, POWER7+ und POWER8 und IBM Power Systems inklusive IBM PowerLinux.

Auf der Münchner Veranstaltung durfte ich selbst dabei sein und habe darüber ausführlich berichtet, sowohl über den ersten Tag, an dem die Themen Großrechner und Storage-Lösungen im Vordergrund standen als auch über den Mittwoch, an dem sich vieles rund um POWER8 drehte.

Am Ende des Events hatte ich die Gelegenheit, mit dem Hauptreferenten zwei ausführliche Videointerviews zu führen, in denen er mir unter anderem verraten hat, warum sich der Einsatz von SSD-Speicher im professionellen Umfeld immer mehr lohnt. Und was POWER8 mit Big Data zu tun hat, habe ich im Gespräch mit Stefan Gocke auch gelernt.

Jetzt macht gerade die Runde, dass Kollege Gocke in weiteren fünf Städten sein Wissen zu System z und Co. teilen wird. Folgende Termine und Orte stehen dabei zur Auswahl:

9. und 10. September in Düsseldorf
16. und 17. September in Salzburg
7. und 8. Oktober in Nürnberg
21. und 22. Oktober in Zürich
11. und 12. November in Hannover

Dort können Interessierte all den Themen lauschen, die bei IBM derzeit auf der Agenda stehen. Obendrein wird in Zürich ein zusätzlicher Themenblock zu IBM System z angeboten, für den nur begrenzte Plätze zur Verfügung stehen.

Falls eine der Veranstaltungen für Sie infrage kommt, sollten Sie am besten heute noch die Eventseite besuchen, dort auf den Ort Ihrer Wahl klicken und sich anschließend anmelden. Dabei können Sie sich für einzelne Themenblöcke oder für die komplette Veranstaltung registrieren. IBM, Stefan Gocke und alle anderen Anwesenden freuen sich auf Sie!