Backup & Restore
Mit Alexander Wallner, NetApp-Geschäftsführer Deutschland, Michael Scherf, Mitglied der Geschäftsleitung All for One Steeb, und Martin Finkbeiner, Geschäftsführer von Grandconsult, einem Tochterunternehmen von All for One Steeb, sprach E-3 Chefredakteur Peter Färbinger.
Die vom Branchenverband Bitkom 2015 durchgeführte Studie „Spionage, Sabotage und Datendiebstahl – Wirtschaftsschutz im digitalen Zeitalter“ zeigt, dass nur 49 Prozent der deutschen Unternehmen über einen IT-Notfallplan verfügen.
„Aus eigener Erfahrung lässt sich sagen, dass diese Angaben je nach Branche und Geschäftsmodell durchaus realistisch sind“
bestätigt Alexander Wallner zu Beginn des Gesprächs die Ist-Situation.
Untersuchungen zeigen auch, dass die Notfallpläne leider nicht einmal das Papier wert sind, auf dem sie ausgedruckt sind. Michael Scherf von All for One Steeb unterscheidet somit auch zwischen IT und Organisation:
Wer einen IT-Notfallplan entwickelt, wird dort auch regelmäßige Testdurchläufe definieren. Hiermit wird die Funktionsfähigkeit und Konsistenz der Restore-Daten geprüft.
Es sollten aber auch die organisatorischen Abläufe rund um die Datenwiederherstellung getestet und trainiert werden. Insbesondere in Branchen, die hohe Mengen an Transaktionen durchführen oder eng getaktet in Lieferketten eingebunden sind, beispielsweise große Onlinehändler oder Unternehmen der Automobilzulieferindustrie, zählt im Notfall jede Minute.
Da bleibt keine Zeit, darüber zu diskutieren, wer nun welchen Handgriff im Detail erledigen soll.
“Backup und Business Continuity sind im Grunde in jeder IT-Organisation ein zentrales Thema und der CIO hat hierbei die Aufgabe, die Datensicherheit und Datenverfügbarkeit sicherzustellen. So weit der Status quo“
meint Alexander Wallner.
„Was sich jedoch ändert, sind die Geschäftsabläufe und zunehmend sogar die Geschäftsmodelle – und damit wesentliche Rahmenbedingungen. So haben sich Daten in den vergangenen Jahren immer mehr zu einem zentralen Produktionsfaktor entwickelt.
Die digitale Transformation mit ihren durchgängigen digitalen Prozessketten und stark datenzentrierte Geschäftsmodelle, die zum Beispiel das Kundenverhalten analysieren, führen dazu, dass auch in der Unternehmensleitung die Botschaft angekommen ist, dass die IT-Systeme ausfallsicher funktionieren müssen.“
Sollten sie doch einmal ausfallen, müssen sie sehr schnell wiederhergestellt werden können. IT-Leiter müssen aber gegenüber dem Management nicht nur wirksame Business-Continuity-Strategien aufzeigen, auch für die Compliance zur Einhaltung von Datenschutzvorschriften sind wirksame Maßnahmen notwendig.
„Wer diese Hintergründe kennt, sollte eigentlich davon ausgehen, dass bei 100 Prozent aller Unternehmen detaillierte Notfallpläne für Business Continuity vorliegen müssten, richtig?“
fragt Wallner.
Die Praxis sieht jedoch deutlich anders aus.
Der K-Fall
Alle Vorhersagen sind schwierig, besonders wenn sie die Zukunft betreffen. Somit ist wahrscheinlich die beste Vorsorge für den K-Fall das Einüben von Standards und Prozessen.
„Mit manchen Unternehmen führen wir solche Tests einmal pro Quartal durch, wodurch sich bereits eine hohe Sicherheit ergibt, dass Daten und Abläufe eine sichere Wiederherstellung ermöglichen.
Wer jedoch eine lebendige SAP-Landschaft betreibt, die regelmäßig erweitert wird oder in die kontinuierlich Updates eingespielt werden, sollte solche Trainings öfter durchführen“
mahnt Martin Finkbeiner von Grandconsult, einem Tochterunternehmen der All for One Steeb.
Hat die Datenwiederherstellung im Ernstfall mit dem letzten Backup nicht funktioniert, müssen ältere Versionen herangezogen werden. Unter Umständen wird auch das Einspielen älterer Systempatches notwendig bis hin zum Rückbau von Hardwarekomponenten, um eine Kompatibilität der IT-Umgebung zu den alten Backup-Daten herzustellen.
„Im Ernstfall ist es dazu jedoch oftmals zu spät“
weiß Finkbeiner aus seiner beruflichen Praxis.
„Daher sollte stets ausreichend Vorsorge getroffen werden, dass auch im nie ganz auszuschließenden K-Fall möglichst vieles auf Anhieb bei der Datenwiederherstellung glattläuft.“
Umfragen haben gezeigt, dass die häufigste Ursache für einen Datenverlust ein Hardware- oder Softwaredefekt ist. Das kann der Ausfall einer Festplatte oder eines Storage-Controllers sein, aber auch eine vorübergehend fehlerhafte Anwendung, die ihre Daten nicht ganz korrekt abspeichert.
Ebenfalls sehr häufig kommen Bedienfehler vor oder ein Datenverlust durch plötzlichen Stromausfall, ohne dass die Notstromversorgung rechtzeitig einspringen konnte.
Schad-Software wie Viren oder Naturgewalten wie Feuer und Wasser finden sich deutlich seltener als Grund für einen Datenverlust.
„Das Statistische Bundesamt nennt in einer internationalen Umfrage Fehler in IT-Komponenten als führenden Grund für Datenverluste, gefolgt von menschlichen Fehlern, Stromausfällen und durch Wetter erzeugte Ausfälle“
erklärt Alexander Wallner von NetApp. Kann man den K-Fall üben oder automatisieren?
„Die Kann-Frage stellt sich gar nicht“
sagt NetApp-Manager Wallner.
„Es ist vielmehr ein Muss, die operativen und organisatorischen Abläufe eines IT-Ausfalls inklusive der Datenwiederherstellung zu trainieren.“
Im IT-Grundschutz-Katalog des BSI (Bundesamt für Sicherheit in der Informationstechnik) sind „Übungen zur Datenrekonstruktion“ vorgeschrieben. Die Ausgestaltung in der Praxis kann unterschiedlich sein.
„Manche IT-Organisationen testen ihre Notfallpläne in bis zu vier Testläufen pro Jahr“
ergänzt Michael Scherf von All for One Steeb.
Er weiß aber auch, dass die Realität leider so aussieht, dass man sich lediglich einmal jährlich dazu aufrafft, die notwendigsten Schritte durchzuführen.
„Im Katastrophenfall führt diese Haltung jedoch zu operativem Chaos und deutlich verzögerten Anlaufzeiten“
warnt Scherf.
Prioritäten im Blick
Rein technologisch gibt es beim Backup keine Hürden. Selbst für größte SAP-Hana-Szenarien mit Hadoop-Cluster gibt es sichere und effiziente Backup-Systeme. Um die notwendigen Abläufe innerhalb der IT-Organisation aufzusetzen, liefern Anbieter teilweise kostenlose Best-Practice-Beispiele und Tipps im Internet.
„Die größte Gefahr ist im Grunde die tägliche Projektarbeit in der IT und der Effizienz- und Kostendruck“
warnt Martin Finkbeiner.
„Dies führt dazu, dass die unproduktiven Tätigkeiten wie das Backup in der Prioritätenliste nach ganz unten rutschen.“
Datensicherung macht jeder – oder?
„Eine Datensicherung wird in der einen oder anderen Form in der Tat so gut wie von jedem Unternehmen vorgenommen“
ist Martin Finkbeiner von Grandconsult überzeugt. Allerdings nimmt man eine Datensicherung aus dem Grund vor, um im Notfall die gesicherten Daten sehr schnell und gleichzeitig fehlerfrei wieder einspielen zu können, sodass der Geschäftsbetrieb möglichst wenig beeinträchtigt wird.
„Erst beim Restore zeigt sich oft, wie wirkungsvoll die Backup-Strategie tatsächlich ist“
betont Finkbeiner das Wiederherstellen, auf das es letztendlich wirklich ankommt.
„Gründe für ein Scheitern der Wiederherstellung gibt es viele“
weiß sein Kollege Michael Scherf.
Technische Probleme können dazu führen, dass Daten auf einem Speichermedium nicht mehr lesbar sind oder ein Backup nicht konsistent gesichert wird. In modernen Backup-Umgebungen von NetApp wird zum Beispiel längst ganz auf Magnetbänder verzichtet.
Besonders heikel sind zudem Datensicherungen, die zwar rein technisch sauber durchgelaufen sind, deren Wiederherstellung jedoch unbrauchbare Ergebnisse liefert, etwa bei Fehlern oder sich gegenseitig ungünstig beeinflussenden Faktoren auf der Seite der Anwendungslandschaft.
„Auch solche Restore-Probleme kommen in der Praxis immer wieder vor. Es sind also ganz unterschiedliche Faktoren, die zu einem fehlerhaften Restore führen können“
ergänzt Alexander Wallner.
Falsche Sicherheit?
Mit redundanter Datenspeicherung, Notfallrechenzentren mit Datenspiegelung etc. sind die Daten meistens sehr sicher. Wozu dann noch sichern?
„Je nach Geschäftsmodell und Branche fallen die Anforderungen an die Datenverfügbarkeit ganz unterschiedlich aus, daher sind trotz redundanter Storage-Systeme und Business-Continuity-Konzepte immer noch Backup-Lösungen notwendig“
betont Alexander Wallner im E-3 Gespräch mit Nachdruck.
Darüber hinaus übernimmt das Backup auch die Rolle einer Archivierung und erfüllt damit gesetzliche Vorschriften.
„Daher benötigen Unternehmen immer ein mehrstufiges Konzept für aktuelle operative Daten bis hin zur Langzeitarchivierung“
erklärt Wallner. Michael Scherf ergänzt:
„Damit etwa ein Notfallrechenzentrum im Ernstfall sofort einspringen kann, ist je nach Anforderung des Geschäftsbetriebs eine mehr oder weniger permanente Datensicherung erforderlich.“
Oft müssen zudem mehrere Generationen von Datensicherungen wiederherstellbar vorgehalten werden, um etwa selektiv ganz bestimmte Teile einer Gesamtdatensicherung wiederherzustellen.
Nicht überall Zero Downtime
„Immer häufiger verträgt der Geschäftsbetrieb nur noch eine geringe Downtime“
beschreibt Michael Scherf das sich ändernde Business.
„Das Fenster für den Wiederanlauf der IT wird daher immer enger. Die passenden Lösungen hierfür sind alles andere als trivial, unter Einbezug eines spezialisierten externen Dienstleisters lassen sie sich dennoch wirtschaftlich abbilden.“
Online- Backup per Snapshots ohne Beeinträchtigung des laufenden IT-Betriebs und sehr schnelle und gezielte Wiederherstellbarkeit sind wichtige Eckpunkte. Scherf kennt die Praxis:
„Schnell wird im Tagesgeschäft einmal eine SAP-Tabelle zerschossen, und nur diese soll aus der letzten Datensicherung wiederhergestellt werden.“
Klassische Magnetbänder oder Tape-Roboter sind daher für moderne Backup-Aufgaben klar auf dem Rückzug. IT-Experten bevorzugen heute High-Availability-Backup-Netzwerke.
Das Zeitfenster für Backup und Wiederherstellung bei gleichzeitig starkem Anstieg der Datenvolumina gilt als die entscheidende Kenngröße für ein wirkungsvolles Datensicherungssystem. NetApp bietet für klassische Datenbanken den SnapManager oder den SnapCreator an.
Beide Produkte nutzen die Snapshot-Technologie für schnelle und performanceneutrale Backups. Diese Backup-Tools nutzen unter anderem die SAP-Backint-Schnittstelle und sind somit in das SAP-Backup-Management und Monitoring (DB12/DB13) integriert.
„Pauschale Datensicherungskonzepte gibt es nicht, da Kunden unterschiedlichste SLAs haben“
betont Alexander Wallner.
„Wichtig ist stets, das Datensicherungskonzept konsequent von den Anforderungen des Geschäftsbetriebs her abzuleiten“
beschreibt Scherf das Szenario und wirft einige Fragen auf:
- Wie lange darf die IT ausfallen, ohne dass mein Geschäft nicht mehr vertretbar beeinträchtigt wird?
- In welchem Umfang sind für mich Datenverluste akzeptabel, weil ich sie notfalls auch manuell nachfahren kann?
- Welche Anwendungen sind absolut geschäftskritisch und allenfalls sogar für Zero Downtime auszulegen, welche nicht?
- Wann greifen welche Sanktionen meiner Kunden, wenn ich etwa Lieferplanabrufe als Zulieferunternehmen der Automobilindustrie nicht mehr zeitgerecht bedienen kann?
- Mit welchen Umsatzverlusten muss ich rechnen, wenn meine Handelsplattform ausfällt?
- Wie viel Zeit bleibt mir überhaupt, um die Verluste später durch entsprechend mehr Transaktionen wieder reinzuholen?
- Ist meine IT-Landschaft überhaupt darauf ausgelegt, die Mehrtransaktionen zu bewältigen?
„Nur wenn der Business Case klar und belastbar umrissen ist, lässt sich aus den Business-Continuity-Anforderungen auch die passende Strategie für die IT-Service-Continuity ableiten“
ergänzt sein Kollege Martin Finkbeiner. Wichtig, meint Finkbeiner: Die vorgenannten Grundfragen zu den Anforderungen des Geschäftsbetriebs sollten periodisch neu gestellt werden.
Gerade in Zeiten der digitalen Transformationen und ihrer enormen Geschäftsdynamik werden dieselben Fragen ein Jahr später grundlegend anders beantwortet, so die Erfahrungen.
„Datensicherung wird insbesondere dann komplex, wenn die Menge der Daten zunimmt und die Anzahl der parallel zu sichernden Systeme wächst, also beispielsweise bei SAP-Landschafts-Backups“
weiß NetApp-Manager Wallner aus seiner beruflichen Praxis. Dazu kommen noch die langen Backup-Laufzeiten, die den Systembetrieb belasten. Mithilfe von Storage-basierten Sicherungsmethoden können Backup-Laufzeiten minimiert, Performance-Einbußen fast gänzlich neutralisiert und das gleichzeitige Sichern einer kompletten SAP-Landschaft realisiert werden.
„Wer ohne großen administrativen Aufwand die Backup-Strategie optimieren möchte, setzt beispielsweise ein Cloud Storage Gateway ein“
meint Wallner.
Cloud-Backup
Die von NetApp angebotene Lösung AltaVault ist als physische Appliance oder virtuelle Maschine verfügbar und übernimmt den Datentransfer der eigenen Backup-Daten zu beliebigen Cloud-Providern oder auch in eine Private Cloud.
AltaVault ist in beliebigen SAP-Landschaften einsetzbar und funktioniert mit den gängigen Backup-Anwendungen.
Technologisch ermöglicht AltaVault der Cloud ähnliche Zugriffe wie bei einem Netzlaufwerk: Protokolle wie CIFS (Common Internet File System) und NFS (Network File System) bilden die Basis dafür, dass die IT bestehende Abläufe und Software für die Datensicherung direkt weiterverwenden kann. Dies sichert bereits getätigte Investitionen und beschleunigt die Implementierung.
„Darüber hinaus ist die Lösung mit Public Clouds wie beispielsweise AWS, Azure oder Softlayer einsetzbar“
ist Alexander Wallner stolz auf die NetApp-Kompetenz. Backup-Services aus der Cloud, die sich an Unternehmen richten, werden von IT-Dienstleistern in unterschiedlichen Ausprägungen und Qualitätsstufen angeboten.
„Das Problem hierbei ist die Vergleichbarkeit der Leistungen, da CIOs beim Einkauf von Cloud-Services beispielsweise auch auf die SLAs achten müssen“
betont Wallner im E-3 Gespräch. So ist es für die IT-Abteilung recht aufwändig, verschiedene Anbieter zu evaluieren. Vor diesem Hintergrund ist das Angebot „Backup as a Service“ entstanden.
Auf Basis von NetApp-Technologien bieten autorisierte Service Provider die komplette Leistung des Backups in die Cloud. Die Besonderheit hierbei: NetApp zertifiziert den Service der IT-Dienstleister, übernimmt also praktisch die Qualitätskontrolle für die Unternehmenskunden.
„Darüber hinaus dürfen die Partner für BaaS nur Rechenzentren in Deutschland einsetzen“
erklärt Wallner. Heute bieten bereits zehn Partner in Deutschland ihre Dienstleistungen für BaaS an, die sich natürlich auch perfekt für SAP-Kunden eignen.
Hana-Backup
Anders als bei herkömmlichen Datenbanken, die ihre Daten primär von Festplatte oder Flash lesen, halten In-memory-Computing-Systeme wie SAP Hana die Daten weitgehend komplett im Hauptspeicher.
„Dies führt zu neuen Anforderungen an die Backup-Infrastruktur, da erheblich mehr Daten zu sichern sind“
kennt Alexander Wallner die neuen technologischen Herausforderungen. Das Sichern dieser Daten erfolgt typischerweise als fortlaufendes Streaming auf ein Backup-System, da hier klassische Verfahren mit täglichen Deltasicherungen schon aufgrund der Datenmengen nicht mehr funktionieren.
Bei einer Datensicherung im TByte-Bereich kann das Sichern auf Disk und anschließend auf Tape einige Stunden dauern. Ähnlich viel Zeit verschlingt die Wiederherstellung der Daten.
„Daher arbeiten viele Unternehmen heute mit dem Konzept von Snapshots“
weiß Wallner.
„Hierbei werden Sicherungskopien des operativen SAP-Systems fortlaufend erstellt und gesichert, ohne die produktiven Systeme zu belasten. Ein Recovery erfolgt dadurch erheblich schneller.“
Die von NetApp entwickelten Storage-Systeme FAS oder AFF erstellen diese Snapshots für das Hana-Backup in nur wenigen Sekunden. Wie eine von NetApp unter Hana-Bestandskunden durchgeführte Analyse gezeigt hat, liegt die Zeit für ein Hana-Snapshot-Backup bei durchschnittlich 19 Sekunden.
Selbst komplexe Datensicherungen laufen bei Kunden nicht länger als eine Minute.
„SAP-Lösungen sind meistens geschäftskritisch“
ergänz Michael Scherf von All for One Steeb.
„Durch den verstärkten Einsatz von Hana ändert sich zudem die technologische Basis, die zudem vermehrt dazu genutzt wird, bisherige Geschäftsabläufe oder gar Geschäftsmodelle neu zu designen.“
Dieses veränderte „Big Picture“ beeinflusst auch die Organisation der Datensicherung und Datenwiederherstellung. Dazu kommt, dass der temporäre Einbezug von Ressourcen aus der Public Cloud, etwa Compute-Leistung, ganz neue Skalierungsmöglichkeiten bietet.
„Unser Vorgehensmodell beim Restore-Schutzbrief reicht daher von der Überprüfung der Anforderungen aus dem konkreten Business Case über die Analyse und den Abgleich mit den bereits bestehenden Backup-Prozessen und -Technologien, der Bewertung von geeigneten Soll-Szenarien bis hin zu deren Realisierung und vor allem den Ongoing-Services im laufenden Betrieb“
erklärt Scherf das erarbeitete ganzheitliche Backup- und Restore-Modell.
Zum Schluss: Was würde diese Gesprächsrunde einem SAP-Bestandskunden bezüglich der Überprüfung seiner Datensicherung raten?
„Hier empfehlen wir, auf einen Dienstleister zu setzen, der die Überprüfung und Validierung der Backups vornimmt“
antwortet Martin Finkbeiner für alle.
„Für diesen Zweck haben wir unser Angebot für den Restore-Schutzbrief entwickelt. Der Grundgedanke ist:
Backup ist nicht alles, denn ohne Validierung der wiederhergestellten Datensicherung ist alles nichts. Also kein Backup ohne gesicherte Validierung des Restores.“