Qui contrôle réellement les agents de l'IA ?


Les agents IA sont sans aucun doute en train de gagner du terrain. Leur potentiel de transformation des entreprises est énorme. Les experts du monde entier en sont convaincus. Dans une étude représentative, Boomi a interrogé 300 cadres de l'économie et de la technologie, dont certains en Allemagne. Près des trois quarts (73 %) pensent que les agents IA représenteront le plus grand changement pour leur entreprise au cours des cinq dernières années.
Mais l'étude montre également que seuls deux pour cent des agents IA actuellement déployés sont entièrement responsables de leurs actions et soumis à une gouvernance continue et cohérente. Ce qui signifie à l'inverse que
98 % n'ont pas de règles de gouvernance ou du moins pas de règles suffisantes. Et c'est là que réside le danger pour les entreprises, car sans contrôle, la puissance des agents de l'IA ne peut pas être correctement canalisée.
Responsabilité des agents IA
Si, jusqu'à récemment, l'opinion prédominante était que les domaines critiques de l'entreprise, tels que la gestion des risques de sécurité ou l'approbation des investissements et des budgets, nécessitaient uniquement l'expertise humaine, la situation a changé avec le développement rapide des agents IA. Les dirigeants sont désormais de plus en plus enclins à confier ces domaines à un agent IA, du moins en partie.
L'énorme responsabilité qui pèse sur cette technologie est évidente. Les cadres et les équipes informatiques ne sont plus informés de tous les types d'utilisation des données sensibles par la technologie, ce qui peut entraîner des violations potentielles des règles de sécurité ou de conformité. Pour toute entreprise, l'autonomie incontrôlée des agents de l'IA constitue un risque inacceptable.
Mais les normes actuelles de gouvernance des agents IA sont insuffisantes. Souvent, les exigences minimales d'une stratégie de gouvernance pour les agents IA ne sont déjà pas remplies. Par exemple, moins d'un tiers dispose d'un cadre de gouvernance pour les agents IA et seulement 29% proposent des formations régulières aux employés et aux dirigeants sur la gestion responsable des agents IA.
En ce qui concerne les processus spécifiques tels que les protocoles d'évaluation des biais ou la planification des mesures à prendre en cas de défaillance des agents IA, les entreprises sont encore moins nombreuses à être préparées (environ un quart seulement dans les deux cas). Les entreprises doivent donc commencer à traiter les collaborateurs numériques (agents IA) de la même manière que les collaborateurs humains. Pour ces derniers, il est courant d'examiner leurs compétences et leur passé afin de déterminer s'ils ont commis des infractions éthiques. Les agents IA doivent être traités selon les mêmes normes, par exemple en vérifiant qu'ils n'ont pas d'antécédents de préjugés ou d'hallucinations.
La gouvernance universelle est obligatoire
La gouvernance universelle des agents de l'IA n'est pas seulement un petit plus sympathique. Elle est essentielle pour la sécurité des données et l'amélioration des performances de l'entreprise. Les entreprises dotées d'une gouvernance avancée obtiennent de meilleurs résultats sur un grand nombre d'indicateurs commerciaux importants que celles qui ne disposent que d'un niveau de base. En outre, elles se protègent contre les violations de la conformité, les atteintes à la réputation et, en fin de compte, contre un incident de sécurité déclenché par des agents d'IA non vérifiés et entraînant des pertes financières considérables. En effet, dans l'environnement concurrentiel actuel, même une petite avance peut faire la différence entre une position de leader et un retard.
Source : Boomi


