El autocompromiso de la economía no es suficiente
Tras las primeras experiencias extremadamente positivas en ámbitos concretos, las empresas se orientan cada vez más hacia el uso estratégico de la IA, porque la consideran un factor competitivo.
Entonces, ¿más IA conduce a más éxito al final? Es posible. Pero en la carrera por los mejores puestos -ya sea en los negocios o en la ciencia- los implicados deberían mostrarse escépticos ante un aumento desenfrenado de la IA.
Porque no todo lo que es técnicamente posible es también deseable. Elon Musk, por ejemplo, considera que la IA es "la mayor amenaza para la supervivencia de la humanidad", y el físico Stephen Hawking ya opinaba en 2014 que los humanos acabarían siendo "desplazados".
El uso de la IA tiene especial repercusión cuando se producen errores. Recientemente, el reconocimiento facial de Amazon confundió a 28 miembros del Congreso de Estados Unidos con presos.
Si se traslada este porcentaje de error del cinco por ciento a las ambiciones del Departamento de Defensa de Estados Unidos, las dudas éticas se hacen rápidamente tangibles: El Pentágono quiere equipar drones y otras armas con IA para que puedan identificar objetivos por sí mismos y "tomar decisiones por sí mismos".
Muchos investigadores de IA ven con disgusto estos avances; miles de ellos han firmado un compromiso voluntario de no investigar sistemas de armas autónomas. Pero, ¿cómo son los otros miles?
El peligro también viene de un ámbito completamente distinto: con un esfuerzo aterradoramente pequeño, ahora se pueden producir imágenes y vídeos falsos engañosamente reales incluso con aplicaciones gratuitas. Es difícil imaginar qué pasaría en la era de las noticias falsas si un político falso declarara la guerra a un país en un vídeo falso.
Incluso la elaboración de perfiles de usuarios de redes sociales ha dejado de ser un obstáculo para la IA. La tecnología, combinada con la potencia informática actual, puede analizar cantidades gigantescas de datos y reconocer patrones.
Inolvidable, por ejemplo, el análisis no autorizado de los datos de numerosos perfiles de Facebook por parte de Cambridge Analytica con el objetivo de influir en las elecciones estadounidenses de 2016. Hay muchos otros ejemplos que plantean cuestiones éticas.
Incluso las empresas informáticas, pioneras de la IA, empiezan a plantearse dudas. Microsoft, por ejemplo, ve en el reconocimiento facial basado en IA una amenaza para la privacidad y la libertad de expresión.
Entonces, ¿es el compromiso voluntario de la industria y la investigación la forma correcta de establecer límites éticos? La historia económica lo ha demostrado: lamentablemente, no. Ya fuera el escándalo del diesel, la prohibición de fumar o, más recientemente, la estandarización de los cables de carga de los teléfonos inteligentes: las empresas siempre han valorado más las posibles ventajas de venta que el comportamiento ético. Con la IA no será diferente.
La regulación legal es, por tanto, indispensable. La estrategia sobre inteligencia artificial anunciada por el Gobierno alemán llega tarde, pero subraya la necesidad de normas éticas en muchos lugares. La UE también ha anunciado recientemente un documento político sobre IA centrado en la ética. Esto es digno de aplauso.
La cuestión sigue siendo si otros gobiernos también tienen interés en limitarse en este sentido. EE. UU. ya presentó un plan estratégico de IA en 2016 e hizo hincapié en el tema de la "IA ética".
Queda por ver, sin embargo, cómo coordinarán sus anunciados planes de defensa agresiva. China, un país que no es especialmente aprensivo con la privacidad, como demuestra la reciente medida sobre el reconocimiento facial ubicuo, tenderá a dar menos prioridad a los aspectos éticos.
Desde hace muchos años se reclama un nuevo orden económico. Según la gran mayoría de los alemanes, debería sustituir al crecimiento a cualquier precio en favor de una mayor justicia y de la protección del medio ambiente. En vista de los peligros potenciales de la IA, la ética también debería ocupar un lugar destacado en la agenda.