Falta de confianza y conocimiento del problema
Una de las razones: sólo el 53% de las organizaciones cuenta con un responsable de sistemas de IA éticos y fiables. Al mismo tiempo, en comparación con el año anterior, son menos los consumidores que creen que las empresas son totalmente transparentes sobre cómo se utilizan los datos personales, con un 62% en lugar de un 76%.
El estudio de Capgemini "AI and the Ethical Conundrum: How organisations can build ethically robust AI systems and gain trust" llega a estas y otras conclusiones. También destaca que es crucial centrarse en los aspectos éticos para aprovechar el potencial transformador de la IA para el medio ambiente, la economía y la sociedad.
Las organizaciones ven cada vez más la necesidad de actuar sobre sistemas éticos de IA: el 45% ha definido una carta de IA en 2020 (2019: 5%) y dos tercios (65%) de los líderes son conscientes de que los sistemas de IA pueden potencialmente conducir a decisiones discriminatorias. Muchas instituciones públicas y privadas han introducido tecnologías de IA adicionales para contrarrestar las consecuencias de la pandemia corona.
En consecuencia, la confianza de los consumidores en las interacciones con la IA será aún más importante en el futuro. Un 22% de las empresas se han visto confrontadas por clientes en los últimos tres años con el hecho de que dudan de las decisiones basadas en IA o quieren entender el proceso de toma de decisiones.
Esto supone un riesgo para el éxito, ya que el 45% de los clientes comparte experiencias negativas con su entorno y les anima a no interactuar con las respectivas empresas.