Big Data devient Enterprise Ready


Les systèmes modernes, complexes et basés sur des capteurs génèrent d'énormes quantités de données : Les voitures semi-autonomes génèrent déjà plus de 25 gigaoctets par véhicule et par heure.
Un tel volume de données ne peut plus être géré par un environnement informatique classique, sans parler d'une analyse en temps réel. Seule une stratégie Big Data appropriée permet de rendre exploitable cette quantité de données en croissance exponentielle.
Alors que l'utilisation pour des analyses de données hautement spécialisées est depuis des années une pratique quotidienne pour de nombreuses entreprises, l'intégration dans le reste de l'environnement informatique reste encore souvent à faire. Le framework open source Hadoop est au cœur de l'univers des Big Data.
Celui-ci ne cesse de croître à la fois en puissance et en complexité en raison des nombreuses extensions disponibles, comme Apache Kafka et NiFi. Ces extensions proviennent souvent directement des grandes entreprises de la Silicon Valley, en réponse à leurs exigences extrêmes et au nombre de leurs utilisateurs.
Ainsi, les entreprises qui se lancent dans le monde des Big Data disposent d'une grande quantité d'outils, presque incalculables, qui peuvent les aider à tirer profit des flux de données en constante augmentation.
Aujourd'hui déjà, seule une équipe dédiée au Big Data peut gérer un paysage aussi complexe - c'est notamment l'une des raisons pour lesquelles les différents prestataires de services cloud s'imposent de plus en plus dans ce domaine.
Jusqu'à présent, cette complexité en termes de contenu et de technique a eu pour conséquence que, dans de nombreuses entreprises, les systèmes de big data sont surtout utilisés par un petit nombre d'experts et coexistent avec l'environnement informatique réellement productif.
C'est ainsi que le Data Lake s'est rapidement transformé en une tombe de données, dans laquelle beaucoup de données sont certes collectées, mais peu sont réellement utilisées. La tâche de nombreux départements informatiques est donc claire : intégrer les systèmes de big data dans le reste de l'environnement système afin que les données qui s'y trouvent puissent être utilisées au profit direct des autres processus commerciaux.
Concrètement, cela peut signifier stocker toutes les communications clients sur tous les canaux dans son cluster Hadoop, les y analyser et déclencher des processus de suivi ciblés dans son système CRM ou ERP à partir des résultats obtenus.
Par exemple, les e-mails et les commentaires pertinents des médias sociaux peuvent être automatiquement attribués aux transactions commerciales afin de tirer des conclusions sur la qualité de ses propres processus.
Imaginons qu'un client final se plaigne dans un post Facebook qu'il attend depuis toujours son colis. Nous pouvons alors identifier ce client dans notre base de données clients, déterminer ses commandes potentiellement concernées à partir des données transactionnelles, reconnaître un éventuel fournisseur intermédiaire et le rétrograder en conséquence dans son classement de fournisseur.
En même temps, ce commentaire aurait bien sûr une influence sur sa Customer Lifetime Value, ce qui pourrait à son tour déclencher des programmes spéciaux de fidélisation de la clientèle dans le CRM.
C'est dans le cadre de cette intégration des processus que SAP entre en jeu. SAP est conscient de ce point faible et se lance sur le marché avec de nouvelles solutions pour créer une interface entre le Big Data et l'environnement ERP.
SAP Vora est le premier pas dans cette direction et relie Hadoop à Hana de manière bidirectionnelle. Avec l'acquisition d'Altiscale, SAP s'est en outre emparé d'un fournisseur de cloud big data afin de pouvoir mettre rapidement en œuvre des scénarios de cloud intégratifs chez ses clients.
Si les entreprises ne veulent donc pas ignorer des thèmes tels que l'Internet des objets ou l'apprentissage automatique sur de grandes quantités de données non structurées, elles ne pourront pas éviter à l'avenir une stratégie de big data digne de ce nom.
Le défi consistera à intégrer les logiciels open source dans le reste de l'entreprise. SAP a fait les premiers pas dans ce domaine, notamment pour permettre aux clients du cloud d'entrer dans le monde du big data intégré aux processus.