¿Quién controla realmente a los agentes de la IA?


No cabe duda de que los agentes de la IA están en alza. Su potencial para transformar las empresas es enorme. Expertos de todo el mundo están convencidos de ello. En un estudio representativo, Boomi encuestó a 300 ejecutivos de empresas y tecnología, entre ellos algunos de Alemania. Casi tres cuartas partes (73%) creen que los agentes de IA supondrán el mayor cambio para su empresa en los últimos cinco años.
Sin embargo, el estudio también muestra que sólo el dos por ciento de los agentes de IA actualmente en uso son plenamente responsables de sus acciones y están sujetos a una gobernanza continua y coherente. A la inversa, esto significa que
El 98% carece de normas de gobernanza o, al menos, las que tiene son inadecuadas. Y aquí es precisamente donde reside el peligro para las empresas, porque sin control no se puede canalizar adecuadamente el rendimiento de los agentes de IA.
Responsabilidad de los agentes de IA
Hasta hace poco, la opinión predominante era que las áreas críticas de la empresa, como la gestión de los riesgos de seguridad o la aprobación de inversiones y presupuestos, requerían únicamente conocimientos humanos, pero esto ha cambiado con el rápido desarrollo de los agentes de IA. Ahora los directivos están cada vez más dispuestos a confiar estas áreas, al menos en parte, a un agente de IA.
La enorme responsabilidad que esto supone para esta tecnología es evidente. Los directivos y los equipos informáticos ya no son conscientes de todas las formas en que la tecnología utiliza los datos sensibles, lo que puede dar lugar a posibles infracciones de las normas de seguridad o de cumplimiento de la normativa. Para cualquier organización, la autonomía incontrolada de los agentes de IA es un riesgo inaceptable.
Sin embargo, las normas actuales para la gobernanza de los agentes de IA son inadecuadas. A menudo no se cumplen ni siquiera los requisitos mínimos de una estrategia de gobernanza para los agentes de IA. Por ejemplo, menos de un tercio dispone de un marco de gobernanza para los agentes de IA y solo el 29% ofrece formación periódica a empleados y directivos sobre el uso responsable de los agentes de IA.
Cuando se trata de procesos específicos, como protocolos para evaluar la parcialidad o planificar medidas en caso de fallos de los agentes de IA, aún son menos las empresas preparadas (sólo alrededor de una cuarta parte en cada caso). Por lo tanto, las empresas tienen que empezar a tratar a los empleados digitales (agentes de IA) de la misma manera que a los empleados humanos. Es una práctica común comprobar sus habilidades y su pasado en busca de violaciones éticas. Los agentes de IA deben cumplir las mismas normas y ser examinados para ver si tienen antecedentes de parcialidad o alucinaciones, por ejemplo.
La gobernanza universal es obligatoria
La gobernanza universal de los agentes de IA no es sólo un bonito extra. Es esencial para la seguridad de los datos y la mejora del rendimiento empresarial. Las organizaciones con una gobernanza avanzada obtienen mejores resultados en una serie de métricas empresariales clave que las que solo tienen un nivel básico. También se protegen contra las infracciones de cumplimiento, los daños a la reputación y, en última instancia, un incidente de seguridad provocado por agentes de IA no probados con importantes daños financieros. Porque en el actual entorno competitivo, incluso una pequeña ventaja puede marcar la diferencia entre estar a la cabeza o quedarse atrás.
Fuente: Boomi



