Gestion des données de référence - De meilleures décisions


De nouvelles tâches pour l'entreprise "pilotée par les données" : Cela semble simple à première vue, mais c'est en fait un énorme défi. Il faut traiter et analyser des quantités de données de plus en plus importantes, complexes et qui évoluent rapidement (big data).
La tâche particulière consiste à maîtriser la volatilité et la vitesse des marchés. L'imprévisibilité et la vitesse croissante des changements sont devenues le principal défi du management, explique Wolfgang Martin dans son étude "Business Intelligence im digitalen Unternehmen" publiée en 2015.
Cela place le management devant de nouvelles tâches : "Le pilotage traditionnel dans l'entreprise ne fonctionne plus. L'information devient une ressource décisive pour maîtriser la complexité et la dynamique du monde numérique".
Au-delà du savoir empirique - sur lequel reposait la gestion traditionnelle -, il faut aujourd'hui et à l'avenir prendre des décisions rapides sur la base d'informations fournies en temps utile.
"Il s'agit maintenant d'avoir la bonne information au bon moment, celle qui a la bonne pertinence pour une décision à prendre", explique Martin.
Le fait que les entreprises soient aujourd'hui "pilotées par les données" - il n'y a pas de processus sans données - est le principal moteur "d'une évolution et d'une redécouverte de la Business Intelligence", explique Martin.
Par Business Intelligence (BI), il faut entendre toutes les stratégies, tous les processus et toutes les technologies qui permettent d'obtenir des informations à partir de données et des connaissances critiques pour le succès à partir d'informations, de sorte que les décisions sont prises sur la base de faits qui déclenchent des actions pour la gestion de l'entreprise et des processus.
L'ambition du concept de Business Intelligence est donc de fonder les décisions sur des faits et de prendre de meilleures décisions. Le problème est que pour prendre de "meilleures décisions", il faut d'abord que les faits sur lesquels elles reposent soient exacts. Ce n'est pas une tâche facile, car la quantité de données est déjà inimaginable et leur croissance exponentielle.
Qualité des données et analyse en tant que problèmes de BI
Toutefois, la simple quantité de données n'a qu'une valeur limitée ; ce n'est que dans un contexte judicieux qu'elles deviennent des informations pertinentes pour l'entreprise. Lorsque l'on dit que les entreprises voient les plus grandes opportunités du Big Data dans l'augmentation de la rentabilité, suivie d'une meilleure compréhension du marché et d'une optimisation de l'organisation et des processus (étude PWC, mai 2014), il ne suffit pas d'avoir de plus grandes quantités de données.
Des volumes de données plus importants ne signifient pas nécessairement une meilleure qualité des données. Une qualité élevée des données est toutefois une condition indispensable pour tirer les bonnes conclusions de l'énorme quantité de données.
De nombreuses études menées ces dernières années, dont Steria Mummert Consulting (2013), Barc (2011, 2013, 2014, 2016), Fraunhofer IAO (2013, 2014) et plus récemment Lünendonk (2016), ont démontré que la qualité des données n'est justement pas au meilleur de sa forme.
Dans le document "Today's data mastery : multiple domains for a single purpose" publié en janvier 2015, Aberdeen Group constate que c'est l'environnement analytique sous-optimal qui, d'une part, empêche les entreprises de générer une valeur tangible à partir de leurs données et, d'autre part, laisse passer les opportunités de croissance et d'amélioration de l'efficacité.
54 % des entreprises interrogées déclarent que l'analyse insuffisante des données est le principal défi qui motive les activités de gestion des données. Les deuxième et troisième places sont occupées par les silos de données trop nombreux (49 %) et la mauvaise qualité des données (47 %).
En 2017, KPMG, en collaboration avec Bitkom Research, a étudié pour la troisième fois, après 2015 et 2016, le statu quo et les perspectives des analyses de données dans les entreprises allemandes.
L'étude "Créer de la valeur avec les données" conclut que 58% des entreprises pensent que les analyses de données qu'elles utilisent sont précises, mais que 42% doutent de leur exactitude.
Cela s'explique peut-être aussi par le fait que de nombreuses entreprises ont des difficultés avec la qualité de leurs données. En effet, environ un tiers des entreprises interrogées affirment que le manque de qualité des données constitue un défi.
Selon KMPG, il n'y a guère de différences entre les secteurs. Seuls les constructeurs de machines et d'installations semblent particulièrement concernés : En effet, 51 % d'entre eux considèrent que le manque de qualité de leurs données constitue un obstacle.
MDM améliore la précision
La gestion des données de base peut-elle aider ? Les données de base (Master Data) sont des données statiques de base ou des données de référence relatives à des objets importants pour l'entreprise, comme par exemple des produits, des fournisseurs, des clients et des collaborateurs.
Dans le cadre d'une autre étude sur la gestion des données de référence, Aberdeen Group a interrogé 192 entreprises en septembre 2014 pour savoir, entre autres, si elles avaient pu améliorer la précision de leurs décisions commerciales en l'espace d'un an.
Parmi les entreprises qui utilisent la gestion des données de référence, 58 % affirment que c'est le cas, contre seulement 45 % des entreprises qui ne l'utilisent pas. L'amélioration de la précision des données dans les entreprises utilisant la MDM contribue donc à l'augmentation du taux d'amélioration de la précision des décisions commerciales.
La gestion des données de référence offre aux décideurs non seulement une meilleure visibilité et des données brutes plus fiables pour l'analyse, mais elle améliore également les possibilités de collaboration entre les parties prenantes internes et externes : les parties prenantes des différents départements, unités commerciales ou même organisations ont toujours accès aux mêmes données pertinentes en fonction de leurs besoins.
MDM multidomaine
Selon Aberdeen Group, la caractéristique la plus marquante des "leaders" du MDM est peut-être leur capacité à gérer simultanément plusieurs domaines de données. La MDM multidomaine améliore l'efficacité des données à plusieurs égards : d'une part, la précision des données est améliorée de 8,7 % et leur exhaustivité de 11,9 % par rapport à la MDM non multidomaine, et d'autre part, les données sont plus précises et plus complètes.
Les avantages de la GDM multidomaine sont encore plus évidents en ce qui concerne les critères "time to information" et "accuracy of decisions", qui sont importants pour une BI efficace. Lors de l'utilisation d'un MDM multidomaine, 64% des personnes interrogées constatent une amélioration du "time to information", contre seulement 35% pour un MDM non multidomaine.
Lorsqu'il s'agit d'améliorer le critère "précision des décisions", le multidomaine (69 %) devance également nettement le non-multidomaine (48 %). Les entreprises qui ne disposent que d'une seule version de la "vérité" et d'un dossier maître pour chaque domaine clé passent moins de temps à rechercher des informations ou à confirmer la fiabilité des données existantes, et plus de temps à effectuer des analyses pertinentes.
Multidomain-MDM centralise l'ensemble de la gestion des données de base. Toutes les données pertinentes, de l'achat à la vente, sont rassemblées dans un système central. Il est ainsi possible de créer un "Golden Record" pour les clients, les produits et les fournisseurs, par exemple, et d'identifier les liens et les corrélations entre ces domaines.
On obtient une vue d'ensemble des données de base sur tous les domaines. Un MDM multidomaine crée ainsi "une seule vérité" pour différents domaines de données de base sur l'ensemble du processus commercial.
Qu'il s'agisse d'un département spécialisé ou de la direction d'une entreprise, quiconque souhaite obtenir des informations à partir de données et des connaissances critiques à partir d'informations afin de pouvoir prendre des décisions sur la base de faits valables, ne peut en aucun cas faire l'impasse sur une gestion professionnelle de la qualité des données et des données de base. S'y soustraire reviendrait à prendre le risque de ne pas prendre de meilleures décisions, mais de prendre de mauvaises décisions.