En matière de risques liés à l'intelligence artificielle, mieux vaut ne pas se contenter de consulter l'UE
![[shutterstock.com : 156640304, esfera]](https://e3mag.com/wp-content/uploads/2020/04/shutterstock_156640304.jpg)

L'intelligence artificielle (IA) révolutionne l'économie et la société. Les États-Unis sont les précurseurs, tandis que la Chine rattrape rapidement son retard - en investissant 150 milliards de dollars américains d'ici 2030. L'Europe doit donc faire attention à ne pas se laisser distancer.
C'est dans ce sens qu'il faut comprendre l'annonce selon laquelle l'UE veut désormais investir 20 milliards d'euros par an dans cette technologie d'avenir. C'est ce que prévoit le "Livre blanc sur l'intelligence artificielle" que la Commission européenne a récemment publié. L'UE, les Etats membres et les entreprises doivent réunir cette somme - on ne sait pas encore comment.
Outre le financement, le livre blanc sur l'IA aborde d'autres questions fondamentales, telles que le risque lié à l'utilisation de l'IA. L'UE n'est que vague sur ce point, ce qui invite à réfléchir à la réduction des risques, y compris aux conditions d'une application judicieuse de l'IA et aux points de départ pour les entreprises.
Le livre blanc dit ceci : La confiance nécessaire doit être assurée par une législation sur l'IA adaptée aux risques, mais qui n'empêche pas l'innovation. L'UE considère que les secteurs de la santé, des transports, de la police et du système juridique présentent des risques élevés.
Une solution d'IA est considérée comme critique si elle est susceptible d'avoir des conséquences juridiques, de mettre la vie en danger, de causer des dommages ou des blessures. Le document de l'UE cite ainsi la technologie médicale, la conduite automatisée et les décisions relatives aux prestations de sécurité sociale comme exemples d'utilisation à risque de l'IA.

L'UE exige désormais des règles strictes régissant la vérification de la conformité, les contrôles et les sanctions afin que "Les systèmes d'IA à haut risque sont transparents, la traçabilité est assurée et ils sont sous le contrôle de l'homme".. La Commission fait valoir que
"Les autorités doivent pouvoir contrôler les systèmes d'IA au même titre que les cosmétiques, les voitures et les jouets". D'autres applications d'IA pourraient être étiquetées volontairement. Si l'on pousse le raisonnement plus loin, les règles s'appliquent par exemple au secteur de la santé : Seuls des systèmes experts peuvent être utilisés.
Ils prennent des décisions selon des règles définies. Elles travaillent de manière transparente, mais ne reconnaissent pas les modèles dans les radiographies et n'apprennent rien. Il en va autrement des applications d'intelligence artificielle pour l'apprentissage automatique qui utilisent des réseaux neuronaux.
Un neurone est modélisé comme une fonction, y compris l'entrée, les paramètres et la sortie. Les données d'entrée sont des photos, des textes, des chiffres, des vidéos ou des fichiers audio. Ces derniers entraînent le modèle à reconnaître de lui-même des modèles, à fournir de meilleurs résultats et, en fin de compte, à évaluer des données inconnues.
Une certification compréhensible est la clé pour créer la confiance nécessaire dans les systèmes d'IA. La politique ne devrait pas être la seule à définir les critères de certification.
L'économie et la recherche sont également sollicitées. L'UE a fourni le modèle avec son livre blanc sur l'IA. Toutes les parties concernées devraient également penser à ce qui se passera si l'utilisation prévue change.
Les entreprises ont l'obligation de mettre en place une infrastructure de données et une expertise appropriées pour une utilisation judicieuse de l'IA. Celles qui ne le font pas perdent une grande partie de leur capacité d'innovation. C'est le risque de l'IA dont les entreprises peuvent elles-mêmes assumer la responsabilité - et qu'elles peuvent organiser.