Hadoop & Co. : à vous d'essayer


La transformation numérique est en marche. Derrière le mot-clé "numérisation" se cachent des opportunités, mais aussi des défis pour l'informatique. Elle doit être en mesure de répondre aux attentes que le business place en elle, et si possible de manière ad hoc.
Des analyses à 360 degrés, des prévisions, le comportement des acheteurs ou les tendances du marché sont nécessaires plusieurs fois par jour afin de pouvoir réagir rapidement et prendre les bonnes décisions au bon moment.
Si le personnel informatique n'est pas familiarisé avec les nouvelles technologies telles que Hadoop, "R", Python ou les bases de données orientées graphes, il passe souvent à côté d'opportunités importantes, pour lui comme pour l'entreprise.
Une enquête de l'association numérique Bitkom montre qu'un grand nombre d'entreprises ne sont pas encore prêtes pour le Big Data. Pour être prêt pour le Big Data, il manque notamment le savoir-faire et l'équipement technique.
L'informatique doit s'assurer qu'elle est à jour dans ses connaissances et qu'elle se penche sur les thèmes du big data et de la numérisation avant que les départements spécialisés ne l'approchent avec des demandes concrètes.
Big Data pour l'informatique
Cela réussit si les responsables informatiques connaissent les possibilités techniques et les utilisent pour eux-mêmes, mot-clé : Big Data for IT.
Dans les départements spécialisés, l'analyse métier est utilisée depuis longtemps comme outil standard, mais pour l'optimisation de l'exploitation du système, l'IT lui-même utilise jusqu'à présent rarement des outils d'analyse.
Il est recommandé de se pencher, à l'aide de scénarios, sur les méthodologies, les technologies et les outils dont dispose déjà l'informatique de l'entreprise et qu'elle maîtrise.
Un exemple de Big Data for IT est la création d'une simple prévision de croissance des données.
Tout d'abord, on détermine : Où en suis-je aujourd'hui, quelles sont les données disponibles, où sont-elles stockées et à quelle vitesse se développent-elles ?
Avec un serveur "R" et quelques algorithmes librement accessibles, il est possible d'en tirer des prévisions bien plus précises qu'avec Excel.
Une autre possibilité est d'analyser le comportement des utilisateurs dans le système : quels utilisateurs utilisent quelles transactions et quels rapports, et à quelle fréquence ? Les utilisent-ils à des moments précis, par exemple pour la clôture mensuelle ou trimestrielle ?
Des technologies telles que Hadoop pour la gestion des données de masse, comme "R" ou Python comme langages de programmation et de statistiques peuvent être utilisées à cet effet.
Le service informatique devrait d'abord générer une première valeur ajoutée en interne à l'aide de ces technologies, afin de définir des méthodologies, de les tester et de se forger sa propre opinion.
Grâce à ces analyses, les responsables informatiques peuvent obtenir des informations précieuses pour optimiser le fonctionnement du système. Par exemple, quelles parties du système ou quelles données sont réellement utilisées et comment le volume de données est proportionnel à l'utilisation.
Les goulots d'étranglement des performances peuvent également être analysés. Ces connaissances peuvent en outre être utilisées comme base pour l'archivage, pour l'optimisation des processus et pour la mise en œuvre de scénarios Big Data ou d'applications Industrie 4.0.
Randstad Allemagne utilise cette intelligence à l'aide de l'outil d'analyse Datavard HeatMap. Cet outil effectue une analyse de l'utilisation des données et des objets dans le système en fonctionnement.
"Datavard HeatMap est unique en son genre. Nous obtenons beaucoup plus de connaissances sur le système sans avoir à interroger un seul utilisateur final. Cette intelligence permet d'élucider et de résoudre les principaux "points noirs" du fonctionnement du système".
Regarder vers l'avenir
Les progrès dans le domaine du Machine Learning et de l'analyse prédictive sont de plus en plus importants. Par Machine Learning, on entend la génération artificielle de connaissances à partir de l'expérience. Le système apprend à partir d'exemples du passé.
Des algorithmes spécialisés dans la reconnaissance des formes déduisent de ces données des prédictions pour l'avenir (Predictive Analytics). Les fichiers journaux des systèmes SAP, des réseaux et des clusters Hadoop sont utilisés à cet effet.
L'influence que les machines reliées entre elles ont les unes sur les autres peut ensuite être programmée, ou une machine peut reconnaître ces influences et les étendre de manière autonome.
La machine apprend à générer de la valeur ajoutée.
Parallèlement, les environnements cloud sont de plus en plus populaires pour le Big Data. Cloudera, par exemple, est une plateforme entièrement sécurisée : tout est crypté, de la transmission des données à leur stockage.
Sur cette base, il est possible de créer une analyse des utilisateurs basée sur le cloud pour SAP et Hadoop. Cela permet de voir comment les utilisateurs utilisent les données dans l'environnement SAP Hadoop, à quels rapports et à quelles données ils accèdent et quand, et comment ils combinent les données pour obtenir de nouveaux aperçus.
Les nouvelles technologies à l'épreuve
Les spécialistes en informatique doivent se familiariser le plus possible avec les nouvelles technologies et les possibilités qu'elles offrent, et les utiliser.
Les fournisseurs de cloud comme AWS Amazon Web Services ou Azure facilitent l'initiation. Ils permettent de mettre en place des clusters Hadoop et des serveurs "R" pour se familiariser avec les technologies.
Datavard propose des ateliers d'innovation où l'on définit ensemble des cas d'utilisation, des processus numériques et des modèles commerciaux.
Ensuite, les participants créent un premier prototype en utilisant les dernières technologies. Cela permet aux responsables informatiques d'apprendre à utiliser les nouvelles technologies tout en testant des idées et des modèles commerciaux.
Ce n'est qu'après avoir exploré et testé les possibilités techniques qu'il est recommandé de réunir autour d'une table les responsables de différents secteurs de l'entreprise afin de trouver de nouveaux modèles commerciaux.
L'informatique comme facilitateur d'affaires
L'expérience pratique acquise dans le cadre de projets Big Data internes s'avère payante lorsqu'il s'agit de développer de nouveaux processus commerciaux.
Grâce à leur avance en matière de connaissances, les responsables informatiques peuvent jouer le rôle de facilitateurs d'affaires en abordant activement les départements spécialisés et en faisant des propositions pour la mise en œuvre de nouveaux processus commerciaux.
La méthode la plus prometteuse consiste à réunir un groupe hétérogène de différents services pour un atelier qui explore les possibilités offertes par le Big Data pour l'entreprise.
Dans ce processus, des connaissances sur les approches de design thinking ou sur l'Osterwalder Business Canvas peuvent être utiles. Il est également recommandé de regarder des cas d'utilisation d'autres entreprises et de s'en inspirer.
Dans ce contexte, il peut être utile de faire appel à un conseiller externe qui apporte un savoir-faire issu de projets de big data déjà mis en œuvre.
Les entreprises sous-estiment souvent le fait que, grâce à l'utilisation intensive des smartphones et des tablettes, il est désormais naturel pour la plupart des collaborateurs d'obtenir des réponses ad hoc à leurs questions, sous forme de visualisation attrayante.
Le big data est déjà entré dans leur vie et ils souhaitent en tirer les bénéfices dans leur travail quotidien.
L'étude Future Workforce 2016, menée conjointement par Dell et Intel, a révélé que pour 21 % des jeunes employés de la génération Y, la technologie est un facteur déterminant dans le choix d'un emploi.
Les technologies Big Data deviennent ici un facteur de différenciation important dans la "guerre des talents".
La transformation numérique et l'utilisation d'analyses de données volumineuses joueront un rôle plus important dans les entreprises à l'avenir.
Une enquête réalisée par Forbes Insights à la demande d'Hitachi Data Systems a révélé que le potentiel des données et des analyses n'est pas encore suffisamment exploité.
Selon l'étude, les investissements dans les nouvelles techniques de numérisation sont une priorité absolue pour 51 % des entreprises.
Il en va de même pour l'extension des capacités de données et d'analyse. Les principaux moteurs sont les nouveaux modèles commerciaux (41 %) et les nouvelles technologies (40 %).
Seules 44% des entreprises interrogées se considèrent comme avancées ou leaders en matière de données et d'analyses. Pourtant, 91 % d'entre elles ont déjà enregistré une augmentation de leur chiffre d'affaires grâce à l'utilisation de ces données.
La préparation au Big Data devient de plus en plus un facteur de réussite. Elle ne peut toutefois réussir que si l'informatique connaît les possibilités techniques dans la pratique et les utilise elle-même pour son propre compte.