Stratégie numérique 2025 - De meilleures décisions


De nouvelles tâches pour l'entreprise "pilotée par les données" : Cela semble simple à première vue, mais c'est un énorme défi.
Il faut traiter et analyser des quantités de données de plus en plus importantes, complexes et qui évoluent rapidement (Big Data). La tâche particulière consiste à maîtriser la volatilité et la vitesse des marchés.
L'imprévisibilité et la vitesse croissante des changements sont devenues le principal défi du management, explique Wolfgang Martin dans son enquête publiée en 2015 "Business Intelligence im digitalen Unternehmen".
Cela place le management devant de nouvelles tâches :
"La gestion traditionnelle dans l'entreprise ne fonctionne plus. L'information devient la ressource décisive pour maîtriser la complexité et la dynamique du monde numérique".
Au-delà du savoir empirique - sur lequel reposait la gestion traditionnelle -, il faut aujourd'hui et à l'avenir prendre des décisions rapides sur la base d'informations fournies en temps utile.
"Il s'agit maintenant d'avoir la bonne information au bon moment, celle qui a la bonne pertinence pour une décision à prendre".
a déclaré Martin.
Le fait que les entreprises soient aujourd'hui "pilotées par les données" - il n'y a pas de processus sans données - est le principal moteur "d'une évolution et d'une redécouverte de la Business Intelligence", explique Martin.
Par Business Intelligence (BI), il faut entendre toutes les stratégies, tous les processus et toutes les technologies qui permettent d'obtenir des informations à partir de données et des connaissances critiques pour le succès à partir d'informations, de sorte que les décisions sont prises sur la base de faits qui déclenchent des actions pour la gestion de l'entreprise et des processus.
L'ambition du concept de Business Intelligence serait donc de baser les décisions sur des faits et de prendre de meilleures décisions.
Le problème est que pour prendre de "meilleures décisions", il faut d'abord que les faits sur lesquels elles reposent soient exacts. Ce n'est pas une tâche facile, car la quantité de données est déjà inimaginable et leur croissance exponentielle.
Qualité des données et analyse en tant que problèmes de BI
Toutefois, la simple quantité de données n'a qu'une valeur limitée ; ce n'est que dans un contexte judicieux qu'elles deviennent des informations pertinentes pour l'entreprise.
Lorsque l'on dit que les entreprises voient les plus grandes opportunités du Big Data dans l'augmentation de la rentabilité, suivie d'une meilleure compréhension du marché et d'une optimisation de l'organisation et des processus (étude PWC, mai 2014), il ne suffit pas de disposer de plus grandes quantités de données pour y parvenir.
Des volumes de données plus importants ne signifient pas nécessairement une meilleure qualité des données. Une qualité élevée des données est toutefois une condition indispensable pour tirer les bonnes conclusions de l'énorme quantité de données.
De nombreuses études menées ces dernières années, dont Steria Mummert Consulting (2013), Barc (2011, 2013, 2014, 2016), Fraunhofer IAO (2013, 2014) et plus récemment Lünendonk (2016), ont démontré que la qualité des données n'est justement pas au meilleur de sa forme.
Dans le document "Today's data mastery : multiple domains for a single purpose" publié en janvier 2015, Aberdeen Group constate que c'est l'environnement analytique sous-optimal qui, d'une part, empêche les entreprises de générer une valeur tangible à partir de leurs données et, d'autre part, laisse passer les opportunités de croissance et d'amélioration de l'efficacité.
54 % des entreprises interrogées déclarent que l'analyse insuffisante des données est le principal défi qui motive les activités de gestion des données. Les deuxième et troisième places sont occupées par les silos de données trop nombreux (49 %) et la mauvaise qualité des données (47 %).
En 2017, KPMG, en collaboration avec Bitkom Research, a étudié pour la troisième fois, après 2015 et 2016, le statu quo et les perspectives des analyses de données dans les entreprises allemandes. L'étude "Créer de la valeur avec les données" conclut certes que 58 % des entreprises partent du principe que les analyses de données qu'elles utilisent sont précises - mais il n'en reste pas moins que 42 % doutent de leur exactitude.
Cela s'explique peut-être aussi par le fait que de nombreuses entreprises ont des difficultés avec la qualité de leurs données. En effet, environ un tiers des entreprises interrogées affirment que le manque de qualité des données constitue un défi.
Selon KMPG, il n'y a guère de différences entre les secteurs. Seuls les constructeurs de machines et d'installations semblent particulièrement concernés : En effet, 51 % d'entre eux considèrent que le manque de qualité de leurs données constitue un obstacle.
MDM améliore la précision
La gestion des données de base peut-elle aider ? Les données de base (Master Data) sont des données statiques de base ou des données de référence relatives à des objets importants pour l'entreprise, comme par exemple des produits, des fournisseurs, des clients et des collaborateurs.
Dans une autre étude sur la gestion des données de référence, Aberdeen Group a interrogé 192 entreprises en septembre 2014, notamment sur leur capacité à améliorer la précision de leurs décisions commerciales en un an. V
Parmi les entreprises qui utilisent la gestion des données de référence, 58 % affirment que c'est le cas, contre seulement 45 % des entreprises qui ne l'utilisent pas. L'amélioration de la précision des données dans les entreprises utilisant la MDM contribue donc à l'augmentation du taux d'amélioration de la précision des décisions commerciales dans leur ensemble.
La gestion des données de référence n'offre pas seulement aux décideurs une meilleure visibilité et des données brutes plus fiables pour l'analyse, elle améliore également les possibilités de collaboration entre les parties prenantes internes et externes :
Les parties prenantes de différents départements, unités commerciales ou même organisations ont accès aux mêmes données pertinentes en fonction de leurs besoins.
MDM multidomaine
Selon Aberdeen Group, la caractéristique la plus marquante de ce que l'on appelle les "leaders" du MDM est peut-être leur capacité à gérer simultanément plusieurs domaines de données.
La GDM multidomaine améliore l'efficacité des données à plusieurs égards : d'une part, la précision des données est supérieure de 8,7% et leur exhaustivité de 11,9% à celle de la GDM non multidomaine. Mais les avantages de la GDM multidomaine sont encore plus évidents en ce qui concerne les critères "time to information" et "accuracy of decisions", qui sont notamment importants pour une BI efficace.
En cas d'utilisation d'un MDM multidomaine, 64 % des personnes interrogées estiment que le temps d'accès à l'information s'est amélioré, contre 35 % seulement pour le MDM non multidomaine. En ce qui concerne l'amélioration du critère "accuracy of decisions" (précision des décisions), le multidomaine (69%) devance également nettement le non-multidomaine (48%).
Les entreprises qui ne disposent que d'une seule version de la "vérité" et d'un dossier principal de données pour chaque domaine clé passent moins de temps à rechercher des informations ou à confirmer la fiabilité des données existantes et plus de temps à effectuer des analyses pertinentes.
Multidomain-MDM centralise l'ensemble de la gestion des données de base. Toutes les données importantes, de l'achat à la vente, sont réunies dans un système central.
Il est ainsi possible de créer un "Golden Record" pour les clients, les produits et les fournisseurs, par exemple, et d'identifier les liens et les corrélations entre ces domaines. On obtient ainsi une vue d'ensemble des données de base dans tous les domaines.
Un MDM multidomaine crée ainsi "une seule vérité" pour différents domaines de données de base sur l'ensemble du processus commercial.
Qu'il s'agisse d'un département spécialisé ou de la direction d'une entreprise, quiconque souhaite obtenir des informations à partir de données et des connaissances critiques à partir d'informations afin de pouvoir prendre des décisions sur la base de faits valables, ne peut en aucun cas faire l'impasse sur une gestion professionnelle de la qualité des données et des données de base. S'y soustraire reviendrait à prendre le risque de ne pas prendre de meilleures décisions, mais de prendre de mauvaises décisions.