Le défi du déluge de données : le contrôler ou s'y noyer ?


Selon les analystes de Gartner, rien que dans l'industrie, le commerce et la logistique, quelque 7,5 milliards de composants IoT seront utilisés d'ici trois ans. Leurs données doivent notamment être filtrées, analysées et utilisées comme base pour le Machine Learning.
Avec SAP Leonardo, SAP met à disposition une plateforme pour de telles tâches. Mais il faut tenir compte d'un certain nombre de points délicats pour pouvoir effectivement utiliser de manière profitable le flux de données généré par l'IIoT.
Une stratégie claire plutôt qu'un gaspillage de ressources
Comme le montre la pratique, la problématique ne commence généralement pas au moment du choix de la bonne plateforme de données et de son interaction avec l'ERP, mais bien plus tôt : il faut d'abord avoir une stratégie claire sur ce que l'on veut obtenir avec ses données.
Se contenter d'évaluer aveuglément des données dans le cadre de projets isolés en espérant obtenir par hasard des résultats utilisables, c'est gaspiller des ressources. D'autant plus que dans la plupart des entreprises, les données sont disponibles en abondance, mais leur qualité et leur pertinence laissent à désirer.
Pour séparer le bon grain de l'ivraie dans les données, l'idéal est de les filtrer, idéalement à la périphérie du réseau. Des solutions telles que Fujitsu Intelliedge permettent ce que l'on appelle une pré-analyse, avec laquelle les données sont déjà sélectionnées sur mesure à la source.
Les données utiles sont ensuite utilisées pour entraîner des modèles d'apprentissage automatique centralisés. Apprendre de manière centralisée, exécuter de manière décentralisée, telle est la devise ici.
L'orchestration de l'informatique de plus en plus hétérogène est un autre aspect critique pour la réussite. Alors qu'auparavant, un système ERP central rassemblait et mettait à disposition toutes les données, différents services cloud sont désormais généralement utilisés en complément, que ce soit Microsoft Azure, Google Cloud Services ou différentes solutions IoT.
Le nombre croissant de processus et de flux de données interentreprises est également à l'origine d'une hétérogénéité croissante. Les solutions monolithiques sont donc remplacées par de petites unités qui fonctionnent selon le principe des microservices.
Pour que ces systèmes distribués puissent collaborer, il faut disposer de la "bonne" infrastructure : Elle met à disposition des fonctions pour la communication, l'orchestration et la collaboration. S'y ajoutent une gestion des données et des fonctions d'analyse.
SAP Leonardo
SAP Leonardo est prédestiné à servir de plateforme centrale pour tous les domaines proches de l'entreprise. Il s'agit par exemple de l'analyse de données de masse (données machine) dans le secteur de la production, de la prévision du comportement des clients en interaction avec (SAP) CRM, de ce que l'on appelle l'Invoice Matching et du Machine Learning, pour lequel le principe d'apprentissage central et d'exécution décentralisée mentionné précédemment est particulièrement important.
Conclusion
Les expériences tirées des preuves de concept et des premiers projets montrent que SAP Leonardo offre de nombreuses fonctions permettant une interaction réussie entre l'Internet industriel des objets et l'informatique centrale de l'entreprise.
Une première étape consiste souvent en ce que l'on appelle des "prototypes rapides", qui permettent de valider des idées et de mettre en évidence des potentiels de développement. Mais au-delà, il est indispensable de l'intégrer dans une stratégie globale qui englobe également d'autres plateformes et services.
En effet, sans un concept de base, des objectifs clairs ainsi qu'une qualité raisonnable des données et une sélection intelligente des masses de données générées dans l'IIoT, l'utilisation de toute plateforme centrale est vouée à l'échec.