Information und Bildungsarbeit von und für die SAP-Community

Die 10 Top-Irrtümer zu Big Data

Bei der Suche nach einem persönlichen Anwendungsszenario beziehungsweise Business Case für die Nutzung von Big Data besteht die Gefahr, dass Unternehmen das Thema für sich vorschnell ad acta legen. Denn meist wird als erste Datenquelle für Big-Data-Analysen Social Media genannt, und in dieser Datenquelle erkennen viele für sich keinen Mehrwert. Dabei gibt es zahlreiche weitere…
Ralf Conrads, MSG Systems AG
28. November 2013
Das-aktuelle-Stichwort
avatar

Dieser Beitrag soll mit diesem und einigen weiteren Irrtümern rund um Big Data aufräumen, somit Mut für Big-Data-Vorhaben machen und mehr Klarheit in die Thematik bringen.

1. Nur Social-MediaDaten sind Big Data:

Auch wenn in der allgemeinen Diskussion um Big Data Social-Media-Kanäle die vermutlich meistgenannten Datenquellen sind, gibt es viele weitere Quellen.

Zum Beispiel:

  • Bio-/medizinische Daten aus Testreihen
  • Daten von technischen Netzwerken
  • Daten von Sendern, wie beispielsweise RFID-Tags
  • Geodaten zu überschwemmungsgefährdeten Regionen
  • Maschinen- oder Sensordaten
  • Verkehrsdaten
  • Wetterdaten
  • Audiodaten aus Callcentern
  • Bilddaten aus der Videoüberwachung.

2. Nur im Bereich CRM gibt es Business Cases:

Die Fokussierung auf CRM (Customer Relationship Management) als dem Business Case für Big-Data-Analysen hängt eng zusammen mit der Fokussierung auf Daten aus Social-Media-Kanälen.

Allerdings ist die Big-Data-unterstützte Analyse von Kundenbeziehungen nicht für jedes Unternehmen von gleich hohem Nutz- und Mehrwert.

Welche Business Cases für ein Unternehmen tatsächlich infrage kommen, ist abhängig von der Branche des Unternehmens, dem Branchenschwerpunkt, dem Geschäftsmodell des Unternehmens, der Unternehmensstrategie, der IT-Strategie, der BI-Strategie etc.

3. Big Data ist nur für Handelsunternehmen von Mehrwert:

Auch im Zusammenhang mit CRM als dem Business Case steht die Annahme, dass Big Data nur für Handels- oder Medienunternehmen von Mehrwert ist.

Bereits der Verweis auf die vielen Big-Data-Quellen widerlegt diese Annahme. So könnten beispielsweise Pharmaunternehmen medizinische Daten aus Testreihen als Big-Data-Quelle für Informationen zur Wirkweise von Wirkstoffkombinationen in Medikamenten identifizieren.

Versicherungen könnten Geodaten zu Wind- und Wetterverhältnissen als Big-Data-Quelle zur Einschätzung von zu versichernden Risiken nutzen.

Produzierende Unternehmen könnten Sensordaten zur proaktiven Wartung ihrer Produktionsanlagen heranziehen.

Es gibt also auch für Nichthandelsunternehmen genügend potenzielle Business Cases.

4. Big Data hat nur für Großunternehmen Mehrwert:

Bei der aktuellen Diskussion um Business Cases für Big Data entsteht teilweise aufgrund der als Big-Data-Nutzer genannten Unternehmen Amazon, Apple, Facebook oder Google der Eindruck, dass die Analyse von Big Data nur für sehr große Unternehmen von Nutzen und wegen der notwendigen Ressourcen nur von diesen durchführbar ist.

Dabei ist die Größe eines Unternehmens weder ausschlaggebend für Mehrwert bringende Business Cases noch ein Garant für die erfolgreiche Durchführung von Big-Data-Projekten.

Gerade kleinere Unternehmen können aufgrund angenommener flacherer Hierarchien, dichterer Vernetzung im Unternehmen selbst und einer ausgeprägteren Kundennähe sehr wohl für innovative Business Cases rund um Big Data stehen.

Und der vermeintlich notwendige Ressourceneinsatz lässt sich heute zudem über SaaS-(Software as a Service)- und IaaS-(Infrastructure as a Service)-Modelle abbilden. Also: keine Hinderungsgründe für kleinere Unternehmen per se.

5. Big Data ist ein IT-Thema:

Big-Data-Vorhaben sollten von den Fachbereichen eines Unternehmens ausgehen. Diese kennen die Geschäftsprozesse und können den Mehrwert der Analyse von Big Data entsprechend einschätzen.

Hierbei ist es empfehlenswert, sich auf der Suche nach dem Business Case auch „frischer“ Anregungen von außerhalb des Unternehmens zu bedienen. In jedem Fall sollten die Business Cases zum Geschäftsmodell des Unternehmens passen.

Big Data ist also in erster Linie ein fachgetriebenes Thema und kein technologischer Selbstzweck.

Der Umkehrschluss, die IT sei bei Big-Data-Vorhaben „außen vor“ oder bestenfalls zu informieren, wäre aber ein mindestens ebenso großer Irrtum.

Die Analyse von Big Data wird durch geeignete Tools ermöglicht. Hier unterstützt die IT die Fachbereiche bei der Technologie- und Tool-Auswahl.

Die frühe Einbeziehung der IT und eine enge Zusammenarbeit zwischen den Fachbereichen und der IT können einen kostspieligen Tool-Wildwuchs vermeiden und sind daher unerlässlich.

6. Big Data erfordert in jedem Fall IT-Invests:

Big Data erfordert nicht immer Invests in neue Software und Infrastruktur. Zur Analyse von Big Data kann beispielsweise die über viele Jahre etablierte Technologie Data Mining zum Einsatz kommen.

Data Mining kann für Business Cases rund um Text Analytics, Predictive Analytics und Preventive Analytics als die Technologie der Wahl dienen.

Zumindest Data-Mining-Grundfunktionalitäten werden heute bereits mit einigen BI-Plattformen „out-of-the-box“ angeboten.

Sollten sich aufgrund der zu analysierenden Datenvolumen Engpässe auf der unternehmensinternen Infrastruktur ergeben, bieten sich die bereits erwähnten IaaS-Modelle als eine Maßnahme an.

Eine exakte Analyse möglicher Ressourcenbedarfe, auch im fachlichen Bereich, ist dennoch zwingend notwendig.

7. Es fehlen innovative Visualisierungstechniken:

Die Visualisierung unbekannter Zusammenhänge und Fakten für eine immer größere sowie heterogene Zielgruppe ist in der Tat eine Herausforderung.

Zwischenzeitlich gibt es jedoch vielversprechende Ansätze wie beispielsweise Tree Maps, um Zusammenhänge und Fakten in Big Data zu visualisieren.

Deutlich wird dies anhand der „Nadel im Heuhaufen“: Stellen wir uns vor, wir stehen vor einem Heuhaufen und sollen die viel bemühte Nadel suchen – aussichtslos!

Wie hilfreich wäre es, wenn dieses aus Sicht des Heuhaufens „fremde Objekt“ in irgendeiner Form markiert und wir idealerweise noch auf diese Markierung hingewiesen würden?

Auch eine kombinierte Visualisierung kann ein Ansatz sein. Warum nicht beispielsweise über eine 3-D-Visualisierung eines Autos die Darstellung von Garantie- und Kulanzkosten einzelner Bauteile oder Bauteilgruppen legen?

Zusammenhänge werden so viel klarer erkennbar und interaktiver analysierbar als in einem nach Bauteilen gruppierten Spalten-Report.

8. Allein die Masse macht Data zu Big Data:

Big Data werden nicht allein aufgrund ihrer Menge zu „Big“ data.

Üblicherweise werden „die drei V“ Volume, Variety und Velocity zur Definition von Big Data herangezogen.

Hierbei bestätigt das erste V, „Volume“, die naheliegende Assoziation sehr großer Volumen detailliertester Daten – ist aber nur ein Merkmal von mehreren.

9. Allein unstrukturierte Daten sind Big Data:

Das zweite V, „Variety“, charakterisiert zusätzlich zu „Volume“ die Vielfältigkeit der Daten und umfasst verschieden strukturierte, teilstrukturierte sowie unstrukturierte Daten.

10. Real-time zu verarbeitende Daten sind Big Data:

Das dritte V, „Velocity“, charakterisiert abschließend die Häufigkeit und Dauer des Datenflusses. Insofern sind Real-time zu verarbeitende Daten eine der möglichen Ausprägungen von Datenlieferungsintervallen für Big Data.

Im Umkehrschluss sind aber nicht zwingend alle Real-time gelieferten Daten Big Data.

Folgend ein paar Beispiele:

Für das operative Reporting von Bestellvorgängen werden alle Änderungen vom transaktionalen Quellsystem unmittelbar nach Änderung an ein BI-System geliefert.

Hierdurch ergibt sich zwar ein kontinuierlicher Datenstrom – die gelieferten Daten sind aber klar strukturiert und das Reporting berücksichtigt nur diese Daten => keine Big-Data-Analyse.

Die vorherige Datenlieferung wird um „O-Ton“-Kommentare des Kunden beim Bestellvorgang im Callcenter ergänzt.

Diese Kommentare sind unstrukturiert und somit anders zu analysieren, sollen aber in eine umfassendere Analyse von Kundendaten, Bestellvorgängen und Kundenzufriedenheit eingehen.

In diesem Szenario werden sowohl strukturierte als auch unstrukturierte Daten für die Analyse herangezogen, auch ist der Datenfluss nicht kontinuierlich oder regelmäßig.

Letzten Endes kann nur eine unternehmensspezifische Betrachtung über den Mehrwert einer Nutzung von Big Data entscheiden.

Eine ernsthafte Auseinandersetzung mit der Thematik ist in jedem Fall zu empfehlen.

https://e3mag.com/partners/msg-treorbis-gmbh/

avatar
Ralf Conrads, MSG Systems AG

Ralf Conrads ist Manager Business Analytics Automotive bei Sopra Steria Consulting.


Schreibe einen Kommentar

Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion. 

Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.

Zum zweiten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren. Alle Informationen zum Event finden Sie hier:

SAP Competence Center Summit 2024

Veranstaltungsort

Eventraum, FourSide Hotel Salzburg,
Am Messezentrum 2,
A-5020 Salzburg

Veranstaltungsdatum

5. und 6. Juni 2024

Reguläres Ticket:

€ 590 exkl. USt.

Veranstaltungsort

Eventraum, Hotel Hilton Heidelberg,
Kurfürstenanlage 1,
69115 Heidelberg

Veranstaltungsdatum

28. und 29. Februar 2024

Tickets

Regular Ticket
EUR 590 exkl. USt
Veranstalter ist das E3-Magazin des Verlags B4Bmedia.net AG. Die Vorträge werden von einer Ausstellung ausgewählter SAP-Partner begleitet. Der Ticketpreis beinhaltet den Besuch aller Vorträge des Steampunk und BTP Summit 2024, den Besuch des Ausstellungsbereichs, die Teilnahme an der Abendveranstaltung sowie die Verpflegung während des offiziellen Programms. Das Vortragsprogramm und die Liste der Aussteller und Sponsoren (SAP-Partner) wird zeitnah auf dieser Website veröffentlicht.