Monthly Archives: Februar 2014

SoftLayer und eperi auf der CeBIT 2014: Sicherheit in der Cloud [Upd]

Mit dem eperi Encryption Gateway werden Cloud-Daten abhörsicher verschlüsseltMit ihrer Sicherheitslösung Encryption Gateway sorgt das Darmstädter Unternehmen eperi GmbH für ein Höchstmaß an Datenverschlüsselung in der Cloud.

Um das auf der CeBIT zeigen zu können, wird eperi auf dem IBM-Stand in Halle 2 innerhalb der Cloud-Sektion seine Lösung zeigen. Mit dabei: ich und meine Kamera, mit der ich detailliert über die eperi-SoftLayer-Lösung-Anwendung berichten werde.

IBM goes SoftLayer goes Cloud

Zu Erinnerung: Mitte 2013 machte eine Nachricht die Runde, der Cloud- und IaaS-Anbieter SoftLayer sei nun ein Teil von IBM, und tatsächlich: am 4. Juni verschickte Big Blue eine Pressemeldung, in der genau diese News bestätigt wurde. Darin wird die Bedeutung von SoftLayer hinsichtlich des Ausbaus der IBM’schen Cloud-Strategie näher erläutert. Schließlich sei man mit IBM SmartCloud bereits auf einem guten Weg.

SoftLayer bot nämlich zum Zeitpunkt des Zusammenschlusses nicht nur 21.000 Kunden, die auf 13 Rechenzentren in USA, Europa und Asien verteilt waren, sondern ermöglichte mit seinen Techniken und Werkzeugen intelligente Private- und Public-Cloud-Lösungen, die dem Portfolio von IBM offenkundig sehr gut zu Gesicht standen. Und so war die Vereinbarung mit SoftLayer für IBM nur ein konsequenter Schritt auf dem Weg zum weltweiten Cloud-Anbieter. So spricht Big Blue in der Pressemeldung von rund 7 Milliarden US-Dollar, die man bis Ende 2015 jährlich mit Cloud-Angeboten erwirtschaften will.

eperi Encryption Gateway: abhörsichere Cloud-Daten

Doch zurück zu eperi: Mit seiner proxy-basierten Verschlüsselungstechnik Encryption Gateway, die in Zusammenarbeit mit dem BSI (Bundesamt für Sicherheit in der Informationstechnik) entwickelt und unter Open-Source-Lizenz veröffentlicht wurde, stellt das Darmstädter Unternehmen seinen Kunden eine höchst abhörsichere Technik zur Verfügung, mit der Daten in der Cloud völlig transparent und geschützt vor Zugriffen durch IT-Administratoren, Hacker und Backup-Verantwortliche gespeichert werden.

Der Trick dabei: Die Verschlüsselung erfolgt außerhalb der Datenbank, sodass niemand außer dem Kunden selbst Zugriff auf die Cloud-Daten hat. Damit erhöht eperi das Vertrauen in Cloud-basierte Infrastrukturen ganz wesentlich.

SoftLayer und epri: ein performantes Gespann

Dabei stellt es übrigens keinen Unterschied dar, ob es sich um eine Private, Public oder Hybrid Cloud-Lösung handelt. Und dass hier SoftLayer ins Spiel kommt, ist natürlich kein Zufall. Schließlich lassen sich damit robuste, skalierbare und kosteneffiziente Cloud-Infrastrukturen realisieren. Und genau das zeigen eperi und IBM in Halle 2 auf der CeBIT 2014. Kommen Sie am besten selbst vorbei und schauen sich das Ganze höchstpersönlich an.

Oder werden Sie Abonnent des Hightech Computing Blogs und lassen sich mit unserer Hilfe über alles Wissenswerte rund um den IBM-Auftritt in Hannover informieren.

Update: Das Videointerview mit eperi ist online.

c.a.r.u.s. und IBM: Schnelle, sichere und verfügbare SAP-HANA-Systeme [Upd]

carus ist Stand-Partner der IBM auf der CeBIT 2014Wie bereits angekündigt, werde ich hier bis zu meiner Abreise in Richtung Hannover am 9. März ausführlich über der geplanten CeBIT-Auftritt von IBM in Halle 2 berichten. Über IBM System x, PureSystems und 200.000 Studenten in einem Server-Rack habe ich bereits gebloggt, heute geht es um das Thema SAP und wie sich das Ganze schneller und sicherer machen lässt.

Dabei kommt eine Firma ins Spiel, die sich c.a.r.u.s. Information Technology GmbH Hannover nennt und die als Premier Business Partner der IBM auf dem CeBIT-Stand von Big Blue anwesend sein wird. c.a.r.u.s. stellt in Hannover vier große Bereiche vor, mit denen sich das Unternehmen unter anderem beschäftigt.

cSA: Storage-Systeme-Engpässe auflösen, bevor sie entstehen

Dazu gehört beispielsweise das Thema Überwachung von Speichersystemen. So ist c.a.r.u.s. mithilfe ihrer Lösung cSA (c.a.r.u.s. Storage Analytics) in der Lage, Engpässe innerhalb eines Speichersystems rechtzeitig zu erkennen, also schon bevor es zu ausgebremsten Datentransfers kommt. Aber auch mit SAP und HANA beschäftigt sich c.a.r.u.s. so intensiv, dass sie genau sagen kann, für wen sich das lohnt, welche Alternativen es gibt und wie die Implementierung bestmöglich vonstatten geht.

Dazu passt auch sehr gut das dritte große Thema von c.a.r.u.s., nämlich die Virtualisierung von SAP-Systemen. Dabei stehen Aspekte wie eine verbesserte Wirtschaftlichkeit durch Auslastung aller Systeme im Vordergrund genauso wie ein SAP-Virtualisierungskonzept, das auch für ein mittelständisches Unternehmen bezahlbar ist.

cDR: Revisions- und rechtssichere Datenarchive mit c.a.r.u.s.

Wer bei all der Überwachung und Virtualisierung die Sicherheit seiner Daten nicht außer Acht lassen will, ist bei c.a.r.u.s. ebenfalls gut aufgehoben. Denn mit ihrem Produkt cDR (c.a.r.u.s. Data Retention) lassen sich große Datenbestände revisionssicher archivieren, und das äußerst rechtssicher. Hierbei steht vor allem die IBM DR550-Architektur im Vordergrund, mit der Archive geschaffen werden können, die 100 Terabyte und größer werden können.

Falls Sie das brennend interessiert, sollten Sie zwischen dem 10. und 14. März 2014 in Halle 2 auf den großen IBM Stand (A10) zum Demopunkt 106 kommen. Dort wird die Firma c.a.r.u.s. all Ihre Fragen beantworten. Oder sie beobachten regelmäßig dieses Blog, denn auch hier wird sich weiterhin alles um IBM auf der CeBIT 2014 drehen.

Update: Das Videointerview mit c.a.r.u.s. ist online.

IBM System x und Intel Xeon: CPU- und Storage-Power reloaded

IBM System x3850 X6Es gibt Neues aus dem Big-Data-Universum von IBM zu vermelden. Okay, ich werde hier sicherlich nicht die Pressemeldung reinkopieren, denn die kann man sehr schön online lesen. Zudem ist die Ankündigung nicht ganz neu, sondern stammt aus dem Januar. Dort wurde die neue Technik bereits angekündigt.

Wirklich neu aber, und das ist die aktuelle News an der Geschichte, sind die Intel-Prozessoren, die in den neuen Servern IBM System x3850 X6 und IBM System 3950 X6 stecken. Denn in Verbindung mit dem brandneuen Intel Xeon E7 v2 lassen sich High-Performance-Anwendungen deutlich schneller ausführen als bisher, und das zu deutlich geringeren Kosten. Das Zauberwort dahinter: In-Memory-Analysen.

In-Memory bedeutet, dass die Daten für unternehmenskritische Applikationen, beispielsweise aus dem Big-Data-Umfeld, nicht mehr von den langsameren Festplatten kommen, sondern direkt im Arbeitsspeicher des Servers ihren Platz finden. Folge: Der Zugriff auf die Daten erfolgt deutlich schneller als bei vergleichbaren HPC-Systemen, die Latenzzeiten nehmen ab und die Analyse der wertvollen Daten erfolgt in kürzerer Zeit als bisher.

Verdreifachung des RAM ist der neue Datenturbo

Der Trick dahinter ist recht simpel und sehr wirkungsvoll: Dank des neuen Chipsatzes des Intel Xeon E7 v2 können jetzt 1,5 Terabyte Hauptspeicher pro CPU adressiert werden, was im Vergleich zur Vorgängerversion der Xeon E7-Prozessoren einer Verdreifachung von 0,5 auf 1,5 Terabyte entspricht. Damit stehen bei 4-CPU-Systemen ab sofort 6 Terabyte und bei den 8-Prozessor-Varianten 12 TB RAM zur Verfügung.

Genau auf dieser verbesserten Technik setzen die zwei neuen IBM-Serversysteme auf, die ihrerseits die In-Memory-Technik nutzen und darüber hinaus auf einem neuen Flashspeicher basieren, der sich IBM eXFlash nennt. Damit lassen sich die Daten, die vorher von einer langsamen Festplatten kamen, in zweifacher Hinsicht beschleunigen, da mit dem großen RAM und den schnellen eXFlash-Komponenten ein doppelter Flaschenhals eliminiert wird. Zudem lassen sich die eXFlash-Bausteine sowohl als intern als auch extern verwenden.

IBM System x3850/x3950 x6: maximaler Speicher für Big Data

Die wesentliche Unterschiede zwischen IBM System x3950 X6 und System 3850 X6 besteht in der Ausbaustufe. So beherbergt der x3850 X6-Server vier Einschübe, die IBM mit Büchern in einem Buchregal vergleicht. In jedem Einschub befinden sich bis zu vier Prozessoren vom Typ Intel Xeon E7-480/8800 v2, die mit maximal 3.2 GHz getaktet werden, eine Speicherbandbreite von 1,8 GHz bieten und bis zu 15 CPU-Kerne aufweisen. Der RAM-Speicher kann bis zu 6 Terabyte umfassen, der DIMM-basierte eXFlash-Speicher kann maximal 12,8 TB groß werden. Darüber hinaus  lassen sich bis zu je acht 2,5-Zoll-Festplatten oder SSD-Speicherkomponenten sowie 16 1,8-Zoll-exFlash-SSDs im IBM System x3850 X6 verbauen.

Das IBM x3950 X6 hingegen weist die doppelte Zahl an Einschüben, also acht auf. Das bedeutet in Summe, dass acht Prozessoren, 12 Terabyte RAM und 12,8 TB DIMM-eXFlash-Speicher und maximal 25,6 TB interner Speicher (SSD) bereitgestellt werden können. Beide Systeme sind zudem mit zahlreichen Schnittstellen und redundanten Komponenten wie Netzteile ausgestattet. Und klar, dass sich nahezu sämtliche Bauteile der X6-Systeme im laufenden Betrieb (Hot-Swap) austauschen lassen.

IBM System x3850 X6 erreicht neue Benchmark-Bestwerte

Folgerichtig schlägt sich solch eine enorme theoretische Rechen- und Datendurchsatzleistung auch in praktischen Dingen positiv nieder. So vermeldet IBM, dass sie mit beiden Systemen ganz weit vorne liegt in Sachen Benchmarking. So schnitt das IBM System x3850 X6 sowohl im SAP Sales & Distribution Benchmark als auch beim TPC-E und SPECvirt_sc2013 mit sehr guten Ergebnissen ab.

Klar, dass IBM die brandneuen Systeme auf der CeBIT 2014 in Halle 2 präsentieren wird. Und ich werde diese High-Performance-Maschinen genauesten begutachten. Also, stay tuned…

Interview: „IBM GPFS Storage Server packt 200.000 Studenten in ein Rack“

Oliver Kill von der pro-com Datensysteme GmbHWie ich auf diesem Blog schon berichtet habe, fahre ich am 9. März für drei Tage auf die CeBIT, um dort vor allem über die aktuelle HPC-, Cloud- und Supercomputing-Szene aus IBM-Sicht zu berichten.

Auf deren Stand in Halle 2 werden zahlreiche interessante Zonen zu sehen sein, die sich mit sechs verschiedenen Themenbereichen auseinandersetzen. Eine dieser Zonen nennt sich „Cloud Computing“, auf  der unter anderem die Firma pro-com Datensysteme aus Eisligen bei Stuttgart vertreten sein wird.

Zu meinen vorbereitenden CeBIT-Maßnahmen zählen diverse Gespräche mit den anwesenden IBM-Partnern, die am Stand A10 ihre Lösungen präsentieren werden. Solch ein Interview habe ich heute mit Oliver Kill geführt, der einer der beiden Geschäftsführer der pro-com Datensysteme GmbH ist. Von dem habe ich unter anderem erfahren, was das Besondere an IBM GPFS Storage Server ist, was es mit der Firma ownCloud auf sich hat und das 200.000 Studenten in einen vollausgestatteten Serverschrank passen.

Herr Kill, was macht Ihre Firma genau?

Oliver Kill: Wir sind seit 1989 am Markt und sind seitdem Premier Partner der IBM. Das heißt, dass wir auf das volle IBM-Portfolio setzen, also auf alles, was mit Servern, Storage und High Performance Computing zu tun hat. Dabei achten wir stets darauf, dass wir gemeinsam mit der IBM das Thema Neue Technologien so früh wie möglich besetzen, um uns einen Vorsprung am Markt verschaffen zu können. Das hat auch mit unserer Klientel zu tun, die sich traditionell aus den Bereichen Forschung und Lehre rekrutiert. Wir beobachten allerdings, dass mehr und mehr Industrieunternehmen bestimmte Lösungen der Lehranstalten übernehmen und für ihre Zwecke adaptieren.

In welchen Bereichen der Wirtschaft findet das bevorzugt statt?

Das sehen wir vor allem in den Bereichen, für die das Thema Simulationen eine wichtige Rolle einnimmt. Dazu gehört natürlich die Automobil-Branche mit ihren Crash-Tests, aber auch der Industriesektor Regenerative Energien wie die Betreiber von Windrädern greifen immer häufiger auf HPC-Systeme zurück, mit deren Hilfe und Rechenleistung umfangreiche und komplexe Simulationen betrieben werden können. Dieses rechnergestützte Simulieren der realen Welt bietet zwei wesentliche Vorteile: Zum einen ist es trotz der Anschaffungskosten eines HPC-Systems deutlich günstiger als reale Simulationstests, und zum anderen kann man am Rechner verschiedene Designs parallel entwickeln und testen.

Und wie muss ich mir das mit Windrädern vorstellen?

Hier geht es um Faktoren wie die Oberflächenbeschaffenheit der Rotoren, aber auch um die richtige Platzierung der Windräder innerhalb eines bestimmten Gebiets, in dem die Anlage aufgestellt werden soll. Das lässt sich direkt am Rechner simulieren, mit allen möglichen Konsequenzen wie der Energieeffizienz und dem Sonnenschatten. Hierbei spielt natürlich die Zuverlässigkeit der Voraussagen eine große Rolle, die dank der enormen Rechenleistung der aktuellen HPC-Systeme sehr hoch ist. Das macht die Tests im realen Leben zwar nicht überflüssig, aber deutlich günstiger, da ein neues Auto nicht 80 mal, sondern nur noch fünfmal gegen die Wand gefahren werden muss.

Was werden Sie am IBM-Stand auf der CeBIT zeigen?

Wir werden in Hannover einen Komplettrechner dabei haben, der sich IBM GPFS Storage Server nennt, den wir unseren Kunden in Verbindung mit einer Middleware namens ownCloud anbieten. Damit können wir noch besser als bisher die Bereiche Forschung und Lehre adressieren, da diese Kompaktlösung vor allem im universitären Bereich eine sehr gute Alternative zu anderen verfügbaren Cloud-Lösungen bietet.

Was macht denn diese Lösung so besonders?

Zwei Dinge sprechen für diese Cloud-Lösung: Zum einen ist sie deutlich kostengünstiger, da dank GPFS keine RAID-Controller und andere notwendige Komponenten zum Einsatz kommen. Und zum anderen skaliert dieses Speichersystem derart gut, dass es keine Rolle spielt, ob sie 2.000, 20.000 oder gar 200.000 Anwender auf die Cloud-Umgebung zugreifen lassen. Das Ganze geschieht sehr komfortabel über sämtliche Plattformen hinweg, und zwar unter Einhaltung sämtlicher rechtlicher Vorgaben und einem Höchstmaß an Sicherheit. Wir nennen diese Lösung „Academic Private Cloud“.

Wie genau garantieren Sie die Cloud-Sicherheit?

Nun, zum einen befindet sich der GPFS Storage Server in den Räumen des Kunden, sodass Daten sehr sicher aufbewahrt werden können. Und zum anderen kommt zwischen Client und Server eine echte Punkt-zu-Punkt-Verbindung zustande, die absolut abhörsicher ist.

Wie sehen die Spezifikationen dieser Lösung aus?

In Sachen Speicherkapazität liegen wir zwischen 200 Terabyte und 2 Petabyte, die Rechenleistung des IBM GPFS Storage Servers liefert ein IBM NeXtScale System, womit man zwischen 5.000 und 200.000 Anwender mit Cloud-Daten versorgen kann. Und das alles in einem einzigen Rack, was die Stellfläche und den Energiebedarf erheblich begrenzt. Ein weiterer Vorteil dieser Lösung.

Und diese Cloud-Lösung zeigen Sie auf der CeBIT 2014 auf dem IBM-Stand?

Ganz genau, da werden wir uns per Remote-Anbindung auf einen Academic Private Cloud-Rechner einwählen und zeigen, wie einfach sich das Gesamtsystem administrieren und bedienen lässt.

CeBIT 2014: IBM PureSystems – Cloud-Rechenpower auf engstem Raum

IBM PureSystemsIm Rahmen der CeBIT 2014 wird IBM auf ihrem Stand in Halle 2 innerhalb der Sektion „Infrastructure“ einen Querschnitt des Komplettpakets IBM PureSystems ausstellen. Mit von der Partie werden Referenzprojekte sein, aber auch die Hardware wird sich bestaunen lassen auf dem CeBIT-Stand.

Mit PureSystems hat IBM vor knapp zwei Jahren eine Kombination aus Hardware und Software vorgestellt, das Unternehmen helfen soll, ihre Server-Installationen schneller als bisher durchzuführen und das weitaus zielgerichteter. Wie aber genau kann man sich das vorstellen? Nun, das ist ziemlich einfach: Denken Sie nur an einen PC, in dem alle Komponenten bestmöglich aufeinander abgestimmt sind. So weiß beispielsweise der Prozessor, was der Arbeitsspeicher macht, und die Festplatte und die Netzwerkkarte stehen ebenfalls in ständiger Verbindung.

IBM PureSystems: Rechen- und Storagepower auf geringstem Raum

Genau so kann man sich IBM PureSystems vorstellen, nur ein wenig komplexer. So ein typisches Serversystem besteht aus einem Serverschrank, in dem sich bis zu 898 Prozessorkerne, maximal 43 Terabyte RAM und bis zu 480 TB Plattenspeicher befinden. Darüber hinaus ist solch ein PureSystems-Rack mit diversen Netzwerkkomponenten wie einem Ethernet-Switch ausgestattet, die für den Betrieb des Servers notwendig sind. Dank dieser hohen Integration soll die doppelte Rechenleistung pro verfügbarer Standfläche in einem Rechenzentrum erreicht werden.

In Sachen Betriebssystem ist solch ein System deutlich flexibler als ein herkömmlicher Rechner. So laufen auf IBM PureSystems-Server POWER7 AIX, IBM i, x86-basiertes Linux und Windows, und das alles parallel. Damit lassen sich diesem Superrechner sämtliche Anwendungen installieren, die im Serverumfeld zum Einsatz kommen. Und hier kommt eine weitere Besonderheit von PureSystems zum Tragen: Mithilfe sogenannter Experten-Patterns lassen sich neue Anwendungen quasi aus dem Internet auf dem IBM-Server installieren. Und da die Applikationen vorher ausgiebig getestet wurden, geschieht das völlig geräuschlos und bringt Unternehmen in die Lage, dringend benötigte Anwendungen mit geringem Zeitaufwand auf dem Server zu installieren, einzurichten und zu nutzen.

40 GBit und iSCSI: die perfekte IP-SAN-Infrastruktur

Beeindruckend an IBM PureSystems sind auch die Speichermerkmale. So lässt sich das System dank 40 Gigabit-und iSCSI-Anbindung problemlos auf IP-Basis in ein neues oder vorhandenes SAN-Netzwerk integrieren. Darüber hinaus werden Fibre Channel und Infiniband unterstützt. Natürlich lassen sich auch SSD-Speicherkomponenten einsetzen, gepaart mit Intelligent Storage Tiering für eine bestmögliche Ausfallsicherheit. Obendrein kann man die gesamte Storage-Landschaft eines Unternehmens mithilfe der installierten Software virtualisieren, egal, ob es sich dabei um IBM- oder andere Speicherkomponenten handelt.

Aber auch beim Thema Cloud Computing machen Server der IBM PureSystems-Familie eine sehr gute Figur. Dank des Flex System Manager lässt sich das System mit wenigen Schritten in eine Cloud-Umgebung verwandeln, was dafür sorgt, dass zum Beispiel SAP-Anwendungen innerhalb weniger Minuten bereit stehen.

Toll an den IBM PureSystems-Systemen ist auch deren vollständige Konfiguration, mit der diese Server ausgeliefert werden. So ist die komplette Verkabelung bereits geschehen, genauso wie das redundante Setup, bestehend aus Ventilatoren, Switches, Management-Modulen und Netzteilen. Damit soll die Installation solch eines Systems innerhalb eines halben Tages möglich sein. Selbstverständlich sind sämtliche Komponenten „Hot swappable“, lassen sich also im Falle eines Defekts oder geplanten Upgrades im laufenden Betrieb austauschen. Und mithilfe der Management-Anwendung IBM PureApplication System lassen sich vorhandene und neue Komponenten mit wenigen Mausklicks ihrer Bestimmung zuordnen – entweder einer bestimmten Applikation oder der Cloud-Umgebung des Unternehmens.

IBM PureSystems auf der CeBIT 2014 bestaunen

Und, neugierig, wie das alles in Echt funktioniert? Dann sollten Sie entweder den folgenden Film ansehen oder auf der CeBIT zwischen dem 10. und 14. März die Halle 2 aufsuchen – und schnurstracks zum IBM-Stand gehen. Ich werde übrigens auch dort sein. Wir sehen uns.

IBM Watson: Ein lernender Supercomputer für neue Anwendungen

Computer haben uns dabei geholfen, immer weiter zu gehen. Sie halfen uns dabei, zum Mond zu fliegen. Sie halfen uns dabei, unvorstellbare Problem zu lösen. Aber: Kann Technik auch denken? Ja, Watson kann das.

IBM WatsonDiese Worte bilden die Intro-Passage eines kleinen Films, den IBM anlässlich seiner groß angelegten Watson-Initiative drehen ließ. So gründete Big Blue Anfang des Jahres die IBM Business Group, die mithilfe von einer Milliarde US-Dollar das Thema Cognitive Computing Medizinern, Finanzexperten und vielen anderen Berufsgruppen und Menschen helfen will, ihre Aufgaben und Herausforderungen noch besser meistern zu können.

IBM Watson: Nicht irgendein Supercomputer

Wie wir auf dem Hightech Computing Blog bereits gezeigt haben, ist IBM Watson nicht irgendein Supercomputer. Watson beherrscht nämlich die Kunst des Verstehens, ist also ein Vorzeige-Athlet in der Disziplin „Cognitive Computing“. Das bedeutet vereinfacht gesagt, dass Watson mit Termen und Sätzen und Redewendungen und sonstigen Dingen klar kommt, die ein eher typischer Supercomputer nicht beherrscht. Damit unterscheidet sich Watson von vielen anderen Rechnern vor allem in der Art und Weise, wie er mit seinen Anwendern interagiert. Anstatt ihn permanent mit strukturierten Daten füttern zu müssen, reicht es Watson, immer und immer wieder mit neuen Eingaben versorgt zu werden. Draus zieht der IBM-Rechner dann seine Schlüsse.

Damit kann Watson beispielsweise auf Fragen reagieren, die man ihm stellt. Denn genauso wie vor drei Jahren, als der IBM-Supercomputer die Quizshow „Jeopardy“ gewann, beherrscht der Watson des Jahres 2014 die Kunst des Verstehens. Natürlich benötigt Watson hierfür eine umfassende und gigantische Datenbank, auf die er zugreifen kann, um so schnellstmöglich die optimale Antwort auf eine gestellte Frage zu finden. Diese Datenbasis kann aus Tweets, Fachartikeln, Studien, Erhebungen und vielen weiteren Text- und Dokumenttypen bestehen.

Auf diesem Weg kann beispielsweise ein Mediziner viel schneller und zuverlässiger als bisher komplexe Zusammenhänge erkennen und lösen, indem er auf sämtliche vergleichbare Fälle zugreift, die sich in ähnlicher Art und Weise mit seinem medizinischen Problem beschäftigt haben. Aber auch andere Berufszweige sollen und werden von der Intelligenz Watsons profitieren: So haben Finanzberater Zugriff auf sämtliche Aktienkurse, Börsendaten, Quartalsberichte und Unternehmenszahlen, die in Summe eine bessere und genauere Einschätzung in Bezug auf eine geplante Investition erlauben.

Lernend und lehrend: IBM Watson

Doch genauso wie man von Watson lernen kann, soll der Supercomputer von IBM auch lehren. So sollen mit seiner Hilfe künftig Studenten bestmöglich ausgebildet werden, und das ebenfalls mithilfe einer beeindruckenden virtuellen Bibliothek, die all die Fragen beantworten kann, mit denen sich Lernende und Studierende beschäftigen. Gleichzeitig soll Watson Professoren und Lehrern helfen, ihre Vorlesungen und ihren Unterricht so zu gestalten, dass die Studenten und Schüler noch besser davon profitieren. Hierfür können Fragen formuliert werden, die Watson analysiert und eine Wahrscheinlichkeit für deren Verständlichkeit ermittelt.

All diese und weitere Möglichkeiten stehen mit Watson zur Verfügung, und das von jedem Punkt der Erde aus, da Watson einen Cloud-basierten Supercomputer darstellt, dessen Künstliche Intelligenz buchbar ist. Und genau das ist es, was IBM künftig ermöglichen soll: Das Bereitstellen von Wissen, zu jeder Zeit, an jedem Ort.

Happy Birthday, IBM System z [Upd]

IBM System z9Auf der diesjährigen CeBIT wird IBM ein Jubiläum begehen: die Mainframe-Rechnerarchitektur IBM System z wird 50 Jahre alt. Wenn das kein Grund zum Feiern ist.

Aber wie kommt IBM System z auf solch ein stolzes Alter von einem halben Jahrhundert? IBM hat die Großrechnerarchitektur doch erst zum Jahrtausendwechsel vorgestellt. Nun, die Rechnung ist ziemlich einfach: System z ist legitimer Nachfolger von System/360, dem legendären Mainframe-Rechner der IBM, der am 7. April 1964 das Licht der digitalen Welt erblickte. Und das macht – 50 Jahre. Nun ja, fast.

Von System/360 bis System z – 50 Jahre Mainframe-Technik

Die System/360-Systeme waren General-Purpose-Rechner, auf denen vor allem kaufmännische und technisch-naturwissenschaftliche Anwendungen zum Einsatz kamen. So setzte beispielsweise VW die System/360 zur elektronischen Datenverarbeitung ein. Betriebssystemseitig kamen TOS/360, DOS/360 und OS/360 infrage, die teilweise Multiprogrammierung unterstützten.

Acht Jahre später brachte IBM mit System/370 das Nachfolgesystem auf den Markt, das als bedeutendste Veränderung die Dynamic Address Translation aufwies. Damit war zum ersten Mal die Virtualisierung von Speichersystemen möglich, was die Großrechnerlandschaft in neue Sphären hievte. Obendrein wurde mit System/370 die Betriebssysteme OS/VS1 VM/370, OS/VS2 SVS, OS/VS2 MVX und DOS/VS eingeführt, die allesamt die Virtualisierung unterstützen. Bemerkenswert war auch die maximale Größe des Arbeitsspeichers: So kamen die ersten Modelle auf 2 MByte, die letzten Modelle der System/370-Serie ließen sich bis zu 6 MByte ausbauen. Das war 1976.

IBM System/390: CMOS und Gleitkomma-Arithmetik

Es dauerte bis 1990, als das Nachfolgemodell IBM System/390 der breiten Öffentlichkeit vorgestellt wurde. Es umfasste insgesamt sechs Generationen, die sich im Laufe der Jahre veränderten. So kamen zu Anfang noch Bipolartransistoren in den Prozessoren zum Einsatz, die später von der CMOS-basierten Transistoren abgelöst wurden. Und erst mit der fünften Generation wurden Gleitkommaeinheiten unterstützt. Darüber hinaus kam zum ersten Mal eine IBM-Rechnerarchitektur in anderen Mainframe-Systemen zum Einsatz, nämlich in Hitachi- und Siemens-Maschinen.

Am 3. Oktober 2000 war es dann so weit: Unter dem Namen IBM zSeries wurde die aktuelle Mainframe-Architektur vorgestellt, genauer gesagt die zSeries z900. Heute heißt die IBM-Architektur System z, die im Vergleich zur Vorgängerin System/390 wesentliche Unterschiede aufweist. Dazu gehört vor allem die 64-Bit-Adressierung, die ganz neue Möglichkeiten bei der Programmierung und Speicherverwaltung mit sich bringt. Zudem ist die Hardware der System z-Rechner redundant ausgelegt, sodass Ausfälle deutlich besser kompensiert werden können. Dafür steht auch das „z“ im Namen: z wie Zero Downtime.

Aber auch das plattenlose Design der System z-Großrechner stellt einen wesentlichen Unterschied dar, da diese Mainframes innerhalb eines SAN-Speichernetzwerks zum Einsatz kommen. Die Storage-Systeme werden entweder per ESCON- oder FICON-Technik mit dem Großrechner verbunden. Damit sind Datendurchsatzraten von bis zu 800 MByte/s möglich. Zudem konnte dank der neuen 64-Bit-Register die Größe des Arbeitsspeichers drastisch erhöht werden: er beginnt bei 64 GByte und endet bei 3 Terabyte.

Happy Birthday, IBM System z

Zu so einer Geburtstagsfeier gehören natürlich immer die passenden Gratulanten.. In diesem Fall sind es zahlreiche Unternehmen, die Mainframe-Rechner der System z-Serie im Einsatz haben. Dazu gehören unter anderem Swiss Mobiliar, die Datenstelle der Deutschen Rentenversicherung (DSRV), DATEV eG,  Schwenk ZementEndress+HauserProvinzial, Fiducia it ag und die Häfele GmbH & Co. KG. Happy Birthday, IBM System z!

Update: Mein Videointerview von der CeBIT 2014 zu System z ist online.

IBM auf der CeBIT 2014: Big Data, HPC und Cloud Computing

htc-blog IBM CeBIT 2014 LogoIn gut 31 Tagen geht sie also wieder los, die weltgrößte Computermesse, die auf den Namen CeBIT hört.

Mit dabei: Ich, und zwar als Hofberichterstatter der Firma IBM, die nicht nur dieses Blog sponsert, sondern auch mit einem großen Stand in Halle 2 vertreten sein wird. Dort wird es insgesamt sechs Themenbereiche geben, von denen insbesondere drei Zonen sehr gut zum Hightech Computing Blog passen: Big Data & Analytics, Infrastructure und Cloud Computing. Dort werden folgende Themen zu sehen sein:

Big Data & Analytics: Hadoop und mehr

Das Thema Big Data war uns auch schon den ein oder anderen Beitrag auf dem Hightech Computing Blog wert. So haben wir beispielsweise über Hadoop berichtet und wie diese Software Unternehmen dabei helfen kann, sehr große Menge an unstrukturierten Daten so aufzubereiten, dass eine sinnvolle Analyse derselben möglich ist. Dazu passt natürlich die IBM-eigene Hadoop-Lösung, die man mit relativ wenig Aufwand innerhalb des eigenen Unternehmens installieren und integrieren kann. Zu den bekannten Referenzkunden aus dem Bereich Big Data & Analytics gehören Generali Deutschland, die Deutsche Rentenversicherung und die Firma Silhouette, die ich mir hier und möglicherweise auch in Hannover genauer ansehen werde.

Infrastructure: Serversysteme, HPC und Formel 1

Das Thema „Infrastructure“ hängt ganz nah am Thema Big Data dran, denn schließlich braucht man für das Speichern und Auswerten großer Datenmengen eine entsprechende Rechnerinfrastruktur, die sich aus der richtigen Kombination von Server, Storage-Lösungen und Software zusammensetzt. Zu den Highlights der Infrastructure-Zone gehört zweifelsohne der Showcase „50 Jahre IBM Systems z“, aber auch die x86-basierten Server der neuen Enterprise X-Architektur werden auf der CeBIT 2014 zu bestaunen sein. Und klar, dass die IBM PureData-Systeme und ein leibhaftiger Formel-1-Bolide für Furore sorgen werden.

Cloud Computing: IBM Private Modular Cloud im Einsatz

Cloud Computing ist bei der IBM ein wichtiges Thema, daher ist es kaum verwunderlich, dass diesem Bereich eine Menge an Beachtung auf der CeBIT 2014 geschenkt wird. Mit dabei: Die brandneue Lösung namens IBM Private Modular Cloud sowie eine Menge zum Thema Kognitives Computing, das auf den Erfahrungen und Technologien von Watson beruht.

Ansonsten sind viele Partner wie die transtec AG und pro-com Datensysteme GmbH dabei, die ihre HPC-Lösungen exklusiv auf dem IBM-Stand vorstellen werden. Und ich werde mit meiner Videokamera nach Hannover reisen, um allen Daheimgebliebenen ein paar Impressionen und ganz viele Informationen rund um IBM auf der CeBIT 2014 auf den Rechner übermitteln zu können. Darauf freue ich mich schon sehr!

htc-blog IBM CeBIT 2014 Themen