Information und Bildungsarbeit von und für die SAP-Community

Hybrid, agil und resilient: SAP-Datenmanagement

In einer Zeit, als IT primär aus Hardware bestand, wurde ein Buch mit dem Titel „Die Seele einer neuen Maschine“ publiziert. Es ging um die Entwicklung eines neuen Minicomputers und ob Data General oder Digital Equipment Corporation, DEC, das Rennen gewinnt. Mit der Zeit wurde die Seele der IT die Software und dann die Daten…
Peter M. Färbinger, E3 Magazin
27. Oktober 2022
avatar

Daten, Datenspeicherung und Datenmanagement

Die Digitalisierung von Prozessen braucht eine stabile Datenarchitektur und Infrastruktur für die Datenspeicherung. „Eine stabile Datenarchitektur ist zwingend erforderlich“, erklärt Glenn Fitzgerald, CDO Product Business bei Fujitsu EMEA, zu Beginn des exklusiven E-3 Gesprächs. „Vor allem wenn sowohl SAP-Hana-Daten als auch Nicht-SAP-Daten auf einer universalen Plattform für alle Geschäftsanforderungen zur Verfügung stehen müssen. Hier wäre der System-Inspection-Service grundsätzlich hilfreich.“ Entscheidend für Anwender sind zwei wesentliche Punkte: der Datenschutz und die Datensicherheit im Rahmen der gesamten IT-Sicherheit. Die Lösung unterstützt mithilfe von Artificial-Intelligence-Methoden die Datenanalyse zur Aufdeckung von Anomalien. „Im konkreten Fall der Zusammenarbeit mit unseren Partnern wurde auf Basis von Kubernetes, Ceph Cluster, Fujitsu-Primergy-Servern und NetApp-NFS-Servern eine entsprechende IT- Plattform definiert und installiert“, beschreibt Glenn Fitzgerald die Symbiose in der SAP-Community.

Glenn Fitzgerald, Fujitsu

Intelligent Enterprise, in dem eine gesamtheitliche Betrachtung der S/4- und der Non-SAP-Daten zustande kommt.


Glenn Fitzgerald, CDO, Fujitsu PBL Europe

Ob ein Unternehmen die digitale Transformation erfolgreich gestaltet, hängt vor allem davon ab, wie gut oder schlecht es mit Daten umgeht. Fortschritte gibt es schließlich nur mit einer konsistenten Daten- und Analytics-Strategie. Viele Unternehmen nehmen deshalb zurzeit strukturelle Veränderungen vor, um eine sogenannte Data-driven Company zu werden – also als Unternehmen die eigenen Datenbestände konsequent zu nutzen, um so neue Chancen und Möglichkeiten für ihre Geschäftsprozesse zu erschließen.

„Im Zuge der digitalen Transformation müssen Daten aufbereitet, mit Informationen angereichert, konsolidiert und in Beziehung zueinander gesetzt werden“, definiert Thomas Herrmann, Manager Business Development SAP bei NetApp for EMEA. Er organisierte im September dieses Jahres eine Konferenz für SAP-Bestandskunden unter Beteiligung von SAP selbst, Cisco, Fujitsu, Red Hat und Amazon/AWS. Gezeigt wurde das Zusammenspiel der sich ergänzenden IT-Anbieter für das Datenmanagement in SAP-Systemen. Ein Schwerpunkt lag naturgemäß auf dem Thema Cloud Computing mit besonderer Berücksichtigung von Hybrid Cloud und letztendlich der Herausforderung S/4-Conversion.

Thomas Herrmann, NetApp

Die mit der Digitalisierung einhergehende Datenflut setzt die Umsetzung eines Archivierungskonzepts voraus.


Thomas Herrmann, Manager Business Development SAP, NetApp

Thomas Herrmann erklärte somit folgerichtig auf der Net-App-Veranstaltung: „Also das Datenmanagement spielt eine entscheidende und wichtige Rolle bei allen Digitalisierungsinitiativen im Unternehmen. Datenmanagement ist die Summe aller Maßnahmen, die notwendig sind, um Daten so zu erheben, zu speichern und bereitzustellen. Ist die Digitalisierung erst einmal abgeschlossen, basieren alle wichtigsten Geschäftsprozesse auf Daten, die möglichst optimal verwaltet sein müssen, um optimal genutzt zu werden.“ Sein Kollege Robert Madl von Cisco ergänzt: „Datenmanagement ist jedenfalls ein wichtiges Erfolgskriterium. Digitale Transformation im Kontext von SAP ist ja die Digitalisierung, Optimierung und Automation von Geschäftsprozessen.“

Datenstrukturen

Datenmanagement ist aktuell überall gefragt, dazu beschreibt Cisco-Manager Robert Madl: „Wenn ich nun beispielsweise Prozesse in der Produktion oder Lagerlogistik sensorgestützt automatisiere – Stichwort IoT –, fallen jede Menge neuer Daten an, die ganz anders zu handhaben sind als traditionelle ERP-Daten. Steuert man beispielsweise Maschinen auf Basis dieser Sensordaten, so ist eine zuverlässige Übertragung mit entsprechend niedriger Latenz kritisch. Sammelt man Sensordaten zur Big-Data-Analyse im Zusammenhang mit Daten aus dem ERP-System, so ist es auch unproblematisch, diese Daten hybrid verteilt in einem Data Lake in der Cloud zu speichern und die ERP-Datenbanken on-prem oder in einer Colocation zu halten. Hier die richtigen Entscheidungen im Datenmanagement zu treffen ist jedoch kritisch für den Erfolg von Digital-Transformation-Projekten.“

Robert Madl, Cisco

Hybride Datenarchitekturen sind umsetzbar. Die Herausforderung liegt in den Interdependenzen zwischen den Systemen.


Robert Madl, Global Strategic Partner Executive, Cisco

Bis zum Jahr 2024 werden 93 Prozent der Unternehmen in Deutschland ihre Daten verstärkt für ihr Umsatzwachstum verwenden. 42 Prozent sehen Daten sogar als bedeutende Umsatzquelle an. Dies geht aus der neuen Studie „The Multi-Cloud Maturity Index“ hervor, die unter rund 3000 Business- und IT-Entscheidungsträgern in der EMEA-Region durchgeführt wurde. „Das vergangene Jahrzehnt hat gezeigt, dass nahezu alles um uns herum datengetrieben ist. Mehr noch: Daten sind zu einem zentralen Unternehmenswert geworden und können – richtig genutzt – maßgeblich zum Geschäftserfolg beitragen“, betont Glenn Fitzgerald von Fujitsu in der Diskussion mit E-3 Chefredakteur Peter Färbinger. Und Fitzgerald ergänzt: „Aktuell leben wir in einer Welt mit unstrukturierten Daten, Datensilos, exorbitantem Datenwachstum und einer zunehmenden Datenkomplexität. Umso wichtiger ist es für den Unternehmenserfolg, wie diese Daten verwaltet werden. Wie solide ist die Datenmanagementstrategie eines Unternehmens, damit es jederzeit schnell auf die Anforderungen des Markts reagieren kann?“

Intelligent Enterprise

Dabei ist folgende Frage entscheidend: Welche Methoden und Tools werden benötigt, um Daten jedweder Art erfolgreich zu nutzen? Technologien wie Artificial Intelligence und Machine Learning bieten Lösungsansätze, meint Glenn Fitzgerald und er erklärt: „So lässt sich einerseits die Qualität der Daten deutlich verbessern und andererseits können Fehler bereits in der Datenerfassung erkannt werden. Unterstützt werden kann das durch eine automatisierte Machine-Learning-Erfassung. Entscheidend für den Unternehmenserfolg ist dabei die optimale Versorgung von Geschäftsprozessen mit bestmöglich qualifizierten Daten – und zwar zum richtigen Zeitpunkt. Ein primäres Ziel dabei ist, den Kunden abzuholen, die Kundenherausforderung zu erkennen und eine Lösung dieser zu liefern. Dafür gibt es zahlreiche Techniken, Methoden und Tools. So unterstützen wir den Kunden und entwickeln gemeinsam sein Intelligent Enterprise.“

Was sind die Kriterien für eine Datenspeicherung im Intelligent Enterprise? Das ERP-System ist on-prem, also sollen auch die Daten on-prem sein? Das ERP-System ist in der Cloud, also sollen auch die Daten dort sein? Ist das richtig? Thomas Herrmann: „Das ist nicht so einfach zu beantworten, denn es spielen mehrere Faktoren eine Rolle, Netzwerkgeschwindigkeit, also ausreichende Bandbreite zur Cloud, Standort, Entfernung zum nächsten Backbone. Real Time Access oder Batch-Verarbeitung, also was sind meine SLAs in Bezug auf Antwortzeiten etc. Wenn es um Echtzeitverarbeitung von Daten geht, sollten die Daten natürlich da liegen, wo sie auch verarbeitet werden, bei Hana wäre das dann In-memory-Computing, ob das in der Cloud ist oder on-prem, ist dann zweitrangig.“

Und Robert Madl von Cisco präzisiert: „Natürlich sind hybride Datenarchitekturen umsetzbar. Die Herausforderung liegt darin, Interdependenzen zwischen Systemen zu verstehen. Oft sind SAP-Landschaften über Jahrzehnte organisch gewachsen und überall ist individueller Code implementiert – dessen Schöpfer eventuell gar nicht mehr im Unternehmen sind. Deshalb gibt es oft Abhängigkeiten zwischen Systemen. So kann ein System beispielsweise direkt auf die Datenbank eines anderen Systems zugreifen – oder aber einen Call zu dem anderen System machen, der wiederum einen Zugriff auf die Datenebene auslöst. Hier ist es wichtig zu verstehen, welche Systeme wie voneinander abhängig sind – also welche Bandbreiten benötigt werden und wie zeitkritisch diese Kommunikation ist, also welche Latenzen maximal zulässig sind, um die notwendigen Daten rechtzeitig und vollständig zur Verfügung zu stellen.“

Prozesse und Algorithmen

Schlussendlich geht es darum, dass der Geschäftsprozess, der auf den SAP-Systemen – egal wo sie laufen – abgebildet ist, performant funktioniert. „Man muss sich bei der Verteilung von SAP-Systemen über mehrere Sites einfach bewusst sein, dass man zwischen den Sites höhere Latenzen und geringere Bandbreite hat, und das schon vor einer Migration bei der Planung berücksichtigen. Hierbei kann AppDynamics ungemein nützlich sein, da es automatisch diese Abhängigkeiten zwischen Systemen analysiert und visualisiert und für die Planung bereitstellt“, erläutert Robert Madl in der Diskussion.

Was meint der Cisco-Manager zum Thema optimale Datenspeicherung? „Das kommt auf die Art der Daten und deren Verwendung an. Bei Datenbanken wie SAP Hana ist es sinnvoll, die Daten nahe bei den Computing-Ressourcen zu haben“, erklärt Robert Madl. „Zwar ist Hana eine In-memory-Datenbank – was bedeutet, dass die Daten im Arbeitsspeicher des Servers vorgehalten werden –, aber das hilft nur bei lesenden Transaktionen. Schreibende Transaktionen werden erst bestätigt, wenn die Daten auf der sogenannten Persistenzebene, vulgo dem Datenspeichersystem, geschrieben wurden. Hier ist es also kritisch, für die Applikationsperformance schnellen IO zwischen Server und Storage zu haben.“

In-memory-Datenbanken

Den größten Performanceschub haben OLTP-Anwendungen mit der Einführung von Flash-Speicher erfahren. Bei Analytics-Szenarien (typischerweise OLAP) wäre durch die In-memory-Technik der Performance Impact zur Laufzeit geringer, da die Daten ja schon vorgehalten werden – jedoch würde es sehr lange dauern, diese Systeme zu booten, wenn die Daten nicht von einem lokalen Datenspeicher in den Arbeitsspeicher geladen werden können. Wirklich Sinn kann eine dezentrale Datenhaltung bei Big-Data-Analysen haben, meint Robert Madl und erklärt: „Hat man beispielsweise mehrere Data Lakes auf Basis von Hadoop nahe an der Datenquelle oder den Sensoren, kann man – beispielsweise mit dem MapReduce-Algorithmus – Daten für die Analyse dezentral iterativ voraggregieren und dann nur die notwendige Information zu einem zentralen System zur weiteren Verarbeitung übertragen.“

Was sind die Vor- und Nachteile von hybridem Datenmanagement? Dazu nochmals Robert Madl: „Es gilt hier die drei Faktoren Zeit, Kosten und Komplexität zu optimieren. Der Ort der Entstehung der Daten muss nicht unbedingt der Ort der Verwendung der Daten sein. Daten über weite Wege zu übertragen verursacht Kosten und dauert. Viele verschiedene Orte der Datenhaltung zu haben erhöht jedoch die Komplexität. Oft erweist es sich als sinnvolle Strategie, in Digital-Transformation-Projekten für den Faktor Zeit Minimalanforderungen zu definieren, für Kosten einen Maximalrahmen und dann als Erstes in Richtung Komplexität zu optimieren. Beispielsweise in einem Smart-Factory-Projekt gibt der Faktor Zeit oft vor, wie viel Edge Computing notwendig ist, die Kosten der Übertragung geben vor, wie weit Sensordaten voraggregiert werden müssen, und Komplexität ist schlussendlich der entscheidende Faktor für die Umsetzbarkeit und den Gesamterfolg.“

S/4- und Daten-Conversion

Das Datenmanagement und die Datenspeicherung werden bei der S/4-Conversion zu einem Erfolgs- und Kostenfaktor. Wie garantiert man dem SAP-Bestandskunden einen hohen Erfolg und niedrige Datenkosten? „Gemeinsam mit unserem Kunden schaffen wir echtes Intelligent Enterprise, in dem eine gesamtheitliche Betrachtung der SAP-S/4-Hana- und der Non-SAP-Daten zustande kommt“, beschreibt Fujitsu-Manager Glenn Fitzgerald die Herausforderung. Wie das Management und die Speicherung der Daten im Einzelnen aussehen, hängt dabei von den unternehmenseigenen Geschäftsprozessen ab. „Hier unterstützt Fujitsu seine Kunden mit dem sogenannten Co-Creation-Ansatz. Das ist im Kern ein Workshop nach den Vorgaben des Fujitsu Human Centric Experience Design. In enger Zusammenarbeit mit Kunden, Technologiepartnern und unseren Experten erarbeiten wir eine optimale Vorgehensweise, begleitend mit Proof of Concept und einem langfristig aufgebauten Plan zur Bewältigung der spezifischen Herausforderungen sowie einer kontinuierlichen Optimierung der IT“, weiß Glenn Fitzgerald aus vielen erfolgreichen Projekten.

Datenflut und Digitalisierung

Das Datenvolumen bei den SAP-Bestandskunden wird weiterwachsen und damit wahrscheinlich auch die Kosten des Datenmanagements. „Die mit der Digitalisierung einhergehende Datenflut setzt die Umsetzung eines Archivierungskonzepts voraus“, erklärt NetApp-Manager Thomas Herrmann zum Abschluss des E-3 Gesprächs. „Zunächst muss festgelegt werden, welche Daten gesetzeskonform archiviert werden müssen, welche Daten archiviert werden wollen und welche Daten über einen bestimmten Zeitraum aufbewahrt werden sollen. Moderne Datenarchivierung nutzt die Cloud. Alle großen Cloud-Anbieter bieten eine Archivierungsebene für Objektspeicher an.

Diese Ebenen werden immer mehr zum bevorzugten Ziel für Sicherungsdaten mit langfristigen Aufbewahrungsanforderungen. Dazu gehören alle wichtigen Archivierungsangebote von AWS, Azure und GCP. Cloud-Archive-Lösungen sind die kostengünstigsten Objektspeicher-Tiers, die heute verfügbar sind, und können bei Bedarf auf Petabytes an Speicherplatz skaliert werden, wenn die Größe der archivierten Daten zunimmt. NetApp Cloud Backup zum Beispiel bietet einen umfassenden Service zum langfristigen Schutz Ihrer Daten in heterogenen Umgebungen, sei es in der Cloud, on-prem oder in einer hybriden Kombination dieser Plattformen. NetApp Cloud Backup unterstützt die Archiv-speicher-Tiers von den oben genannten Cloud-Anbietern als Ziele für Ihre langfristigen Back-up- und Archivierungsdaten.“

Daten und Workloads

Cisco-Manager Robert Madl hat noch einen Tipp für SAP-Bestandskunden: „SAP-Work-loads leben meistens nicht in einem Vakuum. Eine optimale Infrastruktur für SAP Hana sollte also nicht nur optimal für Hana selbst sein, sondern auch optimal für alle anderen Workloads, damit man in der IT nicht ein zusätzliches Verwaltungssilo für diesen einen Workload aufbauen muss. Für den Cisco Flexpod gibt es rund 200 Referenzarchitekturen, wie man Workloads darauf zuverlässig betreibt – nicht nur SAP-Workloads wie Hana, sondern beispielsweise auch Webservices, die oft Teil des abgebildeten Geschäftsprozesses sind, der durch das SAP-System unterstützt wird. Mit Flexpod XCS gibt es nun die multicloudoptimierte Version des Flexpod, der genau diese Referenzarchitekturen um Szenarien erweitert, wo man Services in die Cloud ohne zusätzlichen Verwaltungsaufwand auslagern und anbinden kann.“

Download Coverstory
avatar
Peter M. Färbinger, E3 Magazin

Peter M. Färbinger, Herausgeber und Chefredakteur E3-Magazin DE, US und ES (e3mag.com), B4Bmedia.net AG, Freilassing (DE), E-Mail: pmf@b4bmedia.net und Tel. +49(0)8654/77130-21


Schreibe einen Kommentar

Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion. 

Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.

Zum zweiten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren. Alle Informationen zum Event finden Sie hier:

SAP Competence Center Summit 2024

Veranstaltungsort

Eventraum, FourSide Hotel Salzburg,
Am Messezentrum 2,
A-5020 Salzburg

Veranstaltungsdatum

5. und 6. Juni 2024

Reguläres Ticket:

€ 590 exkl. USt.

Veranstaltungsort

Eventraum, Hotel Hilton Heidelberg,
Kurfürstenanlage 1,
69115 Heidelberg

Veranstaltungsdatum

28. und 29. Februar 2024

Tickets

Regular Ticket
EUR 590 exkl. USt
Veranstalter ist das E3-Magazin des Verlags B4Bmedia.net AG. Die Vorträge werden von einer Ausstellung ausgewählter SAP-Partner begleitet. Der Ticketpreis beinhaltet den Besuch aller Vorträge des Steampunk und BTP Summit 2024, den Besuch des Ausstellungsbereichs, die Teilnahme an der Abendveranstaltung sowie die Verpflegung während des offiziellen Programms. Das Vortragsprogramm und die Liste der Aussteller und Sponsoren (SAP-Partner) wird zeitnah auf dieser Website veröffentlicht.