Power to the Community
Professor Hasso Plattner hat sich bezüglich der In-memory-Computing-Datenbank Hana die falschen Freunde ausgesucht: Gemeinsam mit Intel wurde ein Konzept für in-memory-basierte Datenbanken am Hasso-Plattner-Institut (HPI) in Potsdam entwickelt.
Acht Jahre später stellt sich heraus, dass fast alle Konzepte richtig waren – nur nicht die Hardwarebasis und das Konzept der Appliances.
Für Experten war bereits kurz nach den ersten Installationen von Hana auf der Intel-Architektur klar, dass Leistung, Skalierung und Virtualisierung hier nur unzureichend umgesetzt werden können.
Aber Intel wollte oder konnte nicht nachbessern. Vielleicht erlag Intel auch dem Trugschluss, dass die Verbindung mit SAP über jeden Zweifel erhaben wäre. Und wirklich: Professor Hasso Plattner und der damalige SAP-Technikvorstand Vishal Sikka wehrten sich lange gegen eine Portierung der Hana-Datenbank auf die IBM-Power-Architektur. Obwohl in der Szene bereits alle wussten, dass HoP, Hana on Power, die wesentlich bessere Antwort ist, verweigerte SAP IBM lange Zeit die Hana-Zertifizierung.
Selbst eine exotische HP-Tochter wie SGI bekam fast über Nacht eine Hana-Zertifizierung, während IBM mit der Power-Architektur vor der Tür warten musste. Auf der Intel-Plattform wurden hingegen die Hana-Probleme von Tag zu Tag größer.
Die Appliance-Größen entsprachen nicht den Vorstellungen der SAP-Bestandskunden und die Virtualisierung mit VMware war lange Zeit nicht tauglich für einen produktiven Betrieb.
Hingegen wusste die gesamte SAP-Community, dass das Hana-Betriebssystem Suse Linux auch für die IBM-Power-Architektur zur Verfügung stand und somit ein Wechsel problemlos wäre. Endlich gab SAP nach und IBM konnte offiziell beweisen, dass die Rechnerarchitektur von Power einem Intel-Prozessor bezüglich Hana um Dimensionen überlegen ist.
Natürlich hat sich IBM auch nicht mehr auf das Appliance-Modell mit T-Shirt-Größen eingelassen, sondern gleich Hana-Server nach den Vorstellungen der SAP-Bestandskunden zur Verfügung gestellt.
Die Einstellung der SAP und des HPI zu IBM Power hat sich letztendlich gewandelt: Einen Onlinekurs zur Zukunft des Computings startete das Hasso-Plattner-Institut am 1. Mai dieses Jahres. Er dauerte vier Wochen und wurde kostenlos auf der IT-Lernplattform openHPI angeboten: „Future of Computing – IBM Power 9 and beyond“.
IBM Power am HPI
HPI-Professor Andreas Polze, Fachgebietsleiter Betriebssysteme und Middleware, organisierte den Kurs gemeinsam mit Hildegard Gerhardy von der IBM Academic Initiative Europe und Wolfgang Maier, Direktor der IBM-Hardwareentwicklung in Böblingen.
„Wir stellen den Teilnehmern unterschiedliche Ansätze vor, mit denen die Herausforderungen der Digitalisierung, vor allem das exponentielle Wachstum von Daten, gemeistert werden können“
erläuterte Informatikprofessor Polze.
Er verwies darauf, dass sich die weltweit pro Kopf zur Verfügung stehende Kapazität zur Speicherung von Informationen seit den Achtzigerjahren etwa alle 40 Monate nahezu verdoppelt habe.
„Und in rund fünf Jahren rechnen einige Forscher bereits mit mehr als 160 Zettabytes an globalem Datenvolumen“
ergänzte Gerhardy.
„Da immer mehr unstrukturierte Daten, etwa im Internet der Dinge, anfallen und analysiert werden müssen, ist es notwendig, bei der Softwareentwicklung neue Ansätze zu verfolgen“
sagte Wolfgang Maier.
Es gehe ferner um die Bereitstellung von Microservices, Containerlösungen und cloudbasierten Anwendungen. Darüber hinaus benötigten IT-Abteilungen zur Verarbeitung riesiger Datenmengen neue Basistechnologien wie etwa Hardwarebeschleuniger, künstliche Intelligenz und Blockchain-Technologien.
Diesen Trend der neuartigen Datenanalyse in sogenannten „Systems of Engagement“ haben Polze und die beiden anderen Kursleiter den wesentlichen Technologien der traditionellen „Systems of Record“ gegenübergestellt.
„Zuverlässigkeit, Hochverfügbarkeit und Servicefreundlichkeit der Systeme erfordern hoch entwickelte, ausgefeilte Hardware, Betriebssysteme und anwendungsneutrale Programme, um in großem Umfang Transaktionen abwickeln zu können“
so HPI-Professor Polze.
Ein Schwerpunkt des Kurses über die Zukunft des Computings wurde auf Technologien rund um IBM Power Systems gezeigt. In seiner Open-Power-Initiative kooperiert IBM mit mehr als 300 Mitgliedsunternehmen, darunter Google, Samsung und Nvidia, um von der Software bis zur Hardware vielfältige Innovationen zu kreieren.
Big Data & DB-Architektur
Auch Professor Plattner betonte bei seiner Sapphire-Keynote dieses Jahr in Orlando das enorme Datenwachstum und die Notwendigkeit, mit geeigneten Rechnerarchitekturen und Datenbanken schnell Antworten finden zu müssen.
Nach seiner Vorstellung hätte der Wechsel auf Hana innerhalb der SAP-Community in etwa drei Jahren erfolgen sollen. Nun dauert der „Datenbank-Versionswechsel“ schon etwas länger, was wahrscheinlich auch auf die unzureichende Intel-Plattform in den ersten Jahren von Hana zurückzuführen ist.
Die Hana-Entwicklung am Hasso-Plattner-Institut an der Universität Potsdam war abgestimmt mit Intel und fokussiert auf die x86-Architektur der Xeon-Prozessoren. Aber die Power-Architektur von IBM erwies sich als das bessere Fundament. Erst im Jahr 2014 gab SAP den Widerstand auf und erlaubte HoP – Hana on Power.
Die In-memory-Computing-Datenbank Hana hat viele großartige Vorteile gegenüber klassischen SQL-Datenbanken – nicht weil SAP besser ist, sondern weil Professor Hasso Plattner den Mut zu einem Neuanfang hatte: Hana konnte ohne Altlasten und Kompatibilitätsvorgaben auf den Reißbrettern in Potsdam am Hasso- Plattner-Institut und in Walldorf in der SAP-Zentrale entstehen.
In Potsdam forschten und programmierten die Studenten von Professor Plattner gemeinsam mit Alexander Zeier. Zur operativen Reife wurde Hana vom Mathematiker und Ex-SAP-Technikvorstand Vishal Sikka in Palo Alto, Kalifornien, geführt.
Allen drei – Plattner, Zeier und Sikka – darf man unterstellen, dass sie nicht nur erstklassige Kenner der Intel-Prozessor-Architektur waren, sondern auch fest daran glaubten, nur dieser Allzweckprozessor sei am besten für ihre Hana-Datenbank geeignet – ein Irrtum, wie sich offiziell im Jahr 2014 herausstellte.
IBM Power für Big Data
„Power 8 und auch Power 9 wurden jeweils neu und speziell für die Verarbeitung großer Datenmengen entwickelt, mit großer Memorybandbreite – Faktor vier größer als Intel x86, mehr Cache – Faktor fünf mehr Cache als x86 sowie hohe Performance – Faktor zwei pro Core im Benchmark, bis zu Faktor vier bei realen Kunden-Workloads, des Weiteren höhere Flexibilität mit PowerVM, hohe Zuverlässigkeit durch Redundanz, insbesondere bei den Power-Enterprise-Servern“
bestätigt im E-3 Gespräch Andreas Klaus Span, Director und Business Unit Executive für SAP Hana on Power.
Allgemein sticht aber nach Meinung von Andreas Span das Argument, dass Intel x86 aus dem Commercial-Sektor mit dem Ansatz „good enough“ stammt und Power immer den Anforderungen der Enterprise-Welt gerecht werden musste und somit eine ganz andere Architektur entwickelt hat.
Differenzierungsfaktor „Power“
Seit Ende 2015 ist Hana auf IBM Power Systems mit IBMs innovativer Power-8-Architektur und -Prozessoren verfügbar – aktueller Stand: Power 9. Die Marktforscher von IDC sind der Überzeugung, dass Power-Systeme für Hana und S/4 einen überzeugenden Differenzierungsfaktor bedeuten.
Power wurde für sehr datenintensive Workloads wie Hana konzipiert und umfasst leistungsstarke integrierte Virtualisierung, die SAP-zertifiziert ist, sowie zahlreiche Merkmale zur Verbesserung der Zuverlässigkeit.
Andreas Span weiß ganz genau, dass sich gemessen an der schwachen Virtualisierung, den steigenden Security-Fehlern, der Beschränkung und geringen Belastbarkeit der x86-Memory-DIMMs der TCO-Ansatz beim Einkauf immer weniger rechnet.
Span: „Dazu kommt das exponentielle Wachstum der Hana-Datenbanken und der Daten im Allgemeinen, welche geradezu nach einem flexibel anpassbaren TCO-Ansatz schreien. Gemessen daran ist Power nicht nur die höherwertigere, stabilere Plattform, sondern auch die günstigere.“
Die Flexibilität von IBM-Power-Systemen erlaubt die gleichzeitige Ausführung mehrerer Umgebungen. So kann man beispielsweise ungenutzte Kapazität aus der produktiven Umgebung für die Entwicklung oder für Benutzerakzeptanztests verwenden.
Verglichen mit den meisten anderen Architekturen erzielt IBM Power daher größere Effizienz aus gemeinsam genutzten Ressourcen. IBM Power bietet die Ausfallsicherheit, die Hana-Kunden für kritische Workloads verlangen.
Aufgrund Features und Funktionen für Zuverlässigkeit, Verfügbarkeit und Wartungsfreundlichkeit in der Power-Architektur sind diese Systeme ideal für Hana-Implementierungen geeignet.
Diese kombinierte Lösung unterstützt außerdem eine Vielzahl verschiedener Mechanismen, Tools und Verfahren, darunter erstklassige Unterstützung für Redundanz und Replikation.
Tailored Datacenter Integration
Es hängt wie immer von der Größe ab:
„Es mag aber durchaus Bereiche geben, geprägt von kleinen Datenbanken und einer überschaubaren Anwendungsanzahl, wo sich Intel rechnet. Aber meist nur in dem neuerdings auch von SAP empfohlenen TDI-Ansatz (Tailored Datacenter Integration) – nicht als Appliance!“
Die gesamte Power-Plattform ist für Hana zertifiziert.
„Once and for all“
erklärt Andreas Span.
„Das heißt, wir müssen nicht jeden Server einzeln zulassen und bei geringsten Änderungen neu absegnen lassen, wie das der Fall bei Appliances ist.
Wenn neue Releases auf den Markt kommen – wie Power 9 –, werden die schon in der Entwicklungsphase gemeinsam getestet und wenn alles gut geht, wird der Dokumentationsstand der SAP zeitnah hochgezogen.“
SAP hat sich das Ziel gesetzt, bis 2025 mit der Hana-Datenbank, aber vor allem als Plattform jeden und alles konvertiert zu haben.
„Dazu brauchen sie auch einen Partner, der ihnen eine vergleichbare Zukunftsperspektive bietet“
meint IBM-Manager Span im E-3 Gespräch.
„Diesen Partner haben sie mit uns. Abgesehen davon war der Code für Hana on Power und Intel schon immer fast identisch – über 97 Prozent. Mittlerweile gibt es nur eine Entwicklungslinie für beide Plattformen, der Code ist identisch und die Releasezeiten sind simultan.“
In einer Studie der Marktforscher von IDC wird somit auch ganz richtig angemerkt:
„Der Wechsel zu einer SAP-Hana-In-memory-Plattform ist unkomplizierter geworden, als dies noch vor einigen Jahren der Fall war.
Viele Unternehmen haben den ersten Schritt mit einer Migration zu SAP Business Warehouse auf Hana bereits getan. BW ist ein guter Ausgangspunkt für eine SAP-Hana-In-memory-Database“:
IDC sieht die Marktsituation ähnlich:
„IBM ist dabei, sich als Hana- und S/4-Experte zu positionieren, der das komplette Paket anbieten kann – von der Festlegung der Strategie und funktionaler Spezifikation über IBM Global Business Services bis zur Umsetzung und Bereitstellung von Power-basierter Hardware on-premises und als hybride Cloud.
Bereits im April 2016 kündigten IBM und SAP eine Partnerschaft für die digitale Transformation an, um gemeinsam innovative Lösungen rund um kognitive Erweiterungen, Anwendererfahrungen und branchenspezifische Funktionen mit Hana und S/4 zu schaffen.
Es gibt mehrere Gründe, die IBM-Power-Systeme zu einer hervorragenden Plattform für Hana machen, wobei eine herausragende Flexibilität, Resilienz und Leistung der Plattform im Mittelpunkt stehen.“
Abschließend sollte erwähnt werden, dass die betriebswirtschaftlichen Aspekte weit über den rein rechnerischen TCO-Ansatz hinausgehen. Eine zeitige Hana-Positionierung und Implementierung liefert oft einen Wettbewerbsvorteil und hilft einem Unternehmen, sich strategisch für die Zukunft zu positionieren.
IBM agiert hier nicht nur als Infrastrukturlieferant, sondern auch als Berater und Begleiter einer Reise, die gerade erst begonnen hat. Denn Hana ist nicht allein eine Datenbank, sondern eine sich ständig erneuernde ERP/CRM-Plattform für S/4, BW/4 und C/4.