Big Data wird Enterprise Ready
Moderne, komplexe, sensorgestützte Systeme erzeugen enorme Datenmengen: Schon jetzt generieren teilautonom fahrende Autos über 25 Gigabyte pro Fahrzeug und Stunde.
Solche Datenmengen lassen sich mit einer klassischen IT-Landschaft nicht mehr bewältigen – von einer Echtzeitauswertung ganz zu schweigen. Nur mit einer entsprechenden Big-Data-Strategie lässt sich diese exponentiell anwachsende Datenmenge nutzbar machen.
Während aber der Einsatz bei hochspezialisierten Datenanalysen seit Jahren tägliche Praxis vieler Unternehmen ist, steht eine Integration in die restliche IT-Landschaft oft noch aus. Als Kern der Big-Data-Welt steht dabei das Open-Source-Framework Hadoop zur Verfügung.
Dieses wächst sowohl stetig in seiner Mächtigkeit als auch in seiner Komplexität aufgrund der vielen verfügbaren Erweiterungen, wie z. B. Apache Kafka und NiFi. Diese Erweiterungen kommen oft direkt von den großen Unternehmen des Silicon Valley als Reaktion auf ihre extremen Anforderungen und Nutzerzahlen.
So steht Firmen, die den Einstieg in die Big-Data-Welt wagen, eine große, nahezu unüberschaubare Menge an Tools zur Verfügung, die ihnen dabei helfen können, die stetig wachsenden Datenströme gewinnbringend für sich zu nutzen.
Den Betrieb einer solch komplexen Landschaft kann schon heute nur noch ein dediziertes Big-Data-Team stemmen – nicht zuletzt einer der Gründe dafür, warum sich die unterschiedlichen Cloud-Dienstleister hier immer stärker durchsetzen.
Diese inhaltliche und technische Komplexität hat bisher dazu geführt, dass Big-Data-Systeme in vielen Unternehmen vor allem von einer kleinen Anzahl von Experten genutzt werden und neben der tatsächlich produktiven IT-Landschaft koexistieren.
So wurde aus dem Data Lake schnell ein Datengrab, in dem zwar viel gesammelt, aber wenig wirklich genutzt wird. Die Aufgabenstellung vieler IT-Abteilungen ist daher klar: eine Integration der Big-Data-Systeme in die restliche Systemlandschaft, sodass die dortigen Daten zum direkten Vorteil der weiteren Geschäftsprozesse genutzt werden können.
Konkret kann dies bedeuten, sämtliche Kundenkommunikation auf allen Kanälen in seinem Hadoop-Cluster zu speichern, dort zu analysieren und aus den Ergebnissen gezielte Folgeprozesse in seinem CRM- oder ERP-System anzustoßen.
So können z. B. E-Mails und relevante Social-Media-Kommentare automatisch Geschäftsvorfällen zugeordnet werden, um Rückschlüsse auf die Qualität der eigenen Prozesse zu ziehen.
Stellen wir uns vor, dass sich ein Endkunde in einem Facebook-Post darüber beschwert, dass er schon ewig auf sein Paket warte. Wir können nun diesen Kunden in unserem Kundenstamm identifizieren, seine potenziell betroffenen Bestellungen aus den transaktionalen Daten ermitteln, einen eventuellen Zwischenlieferanten erkennen und diesen in seinem Lieferantenranking entsprechend herabsetzen.
Gleichzeitig hätte dieser Kommentar natürlich auch Einfluss auf seinen Customer Lifetime Value, was wiederum besondere Kundenbindungsprogramme im CRM auslösen könnte.
Im Zuge dieser Prozessintegration kommt nun SAP ins Spiel. SAP ist sich dieser Schwachstelle bewusst und drängt mit neuen Lösungen in den Markt, um eine Schnittstelle zwischen Big Data und ERP-Landschaft herzustellen.
SAP Vora ist der erste Schritt in diese Richtung und verbindet Hadoop mit Hana bidirektional. Mit der Akquise von Altiscale hat sich SAP zudem einen Big-Data-Cloud-Anbieter einverleibt, um integrative Cloud-Szenarien bei ihren Kunden schnell umsetzen zu können.
Wenn Unternehmen also Themen wie das Internet of Things oder Machine Learning auf großen, unstrukturierten Datenmengen nicht ignorieren wollen, kommen sie in Zukunft nicht um eine ausgewachsene Big-Data-Strategie herum.
Die Herausforderung wird in der Integration der Open-Source-Software in die restliche Unternehmenswelt liegen. SAP hat hier die ersten Schritte unternommen, um insbesondere Cloud-Kunden einen Einstieg in die prozessintegrierte Big-Data-Welt zu ermöglichen.