Manque de confiance et de conscience du problème
![[shutterstock : 1273562923, 80's Child]](https://e3mag.com/wp-content/uploads/2020/11/shutterstock_1273562923.jpg)

L'une des raisons est que seulement 53 % des organisations disposent d'un cadre supérieur responsable de l'éthique et de la fiabilité des systèmes d'IA. Parallèlement, les consommateurs sont moins nombreux que l'année dernière (62 % au lieu de 76 %) à penser que les entreprises font preuve d'une transparence totale quant à la manière dont les données personnelles sont utilisées.
L'étude "AI and the Ethical Conundrum : How organizations can build ethically robust AI systems and gain trust" de Capgemini parvient à ces conclusions et à d'autres. Elle souligne également qu'il est essentiel de se concentrer sur les aspects éthiques pour exploiter le potentiel de transformation de l'IA pour l'environnement, l'économie et la société.
Les organisations sont de plus en plus conscientes de la nécessité d'agir en ce qui concerne les systèmes d'IA éthiques : 45 % ont défini une charte d'IA en 2020 (5 % en 2019) et deux tiers (65 %) des dirigeants sont conscients que les systèmes d'IA peuvent potentiellement conduire à des décisions discriminatoires. De nombreuses institutions publiques et privées ont introduit des technologies d'IA supplémentaires pour faire face aux conséquences de la pandémie de coronavirus.
La confiance des consommateurs dans les interactions de l'IA sera donc d'autant plus importante à l'avenir. Au cours des trois dernières années, 22 % des entreprises ont été confrontées à des clients qui remettent en question les décisions basées sur l'IA ou qui souhaitent comprendre le processus décisionnel.
Il s'agit là d'un risque de réussite, car 45 % des clients partagent des expériences négatives avec leur entourage et les incitent à ne pas interagir avec les entreprises concernées.