

La société moderne se caractérise par une division du travail allant jusqu'à l'atomisation. Cette forme d'économie a généré la prospérité. La plupart des gens sont habitués à manipuler et à travailler avec des appareils qui ne sont compris que de manière particulière. Ce qui, dans la grande majorité des cas, ne pose aucun problème.
En principe, je sais comment fonctionne une voiture. Je suis donc en mesure de me rendre de A à B en toute sécurité. En cas de panne, il existe des spécialistes qui connaissent ma voiture sur le bout des doigts et qui peuvent ainsi la remettre en état. Pour la plupart des objets quotidiens de la vie privée et professionnelle, il y a les experts, les artisans et les spécialistes correspondants.
Lors de la déconstruction d'un agent IA basé sur la „connaissance“ d'un modèle Large-Language (LLM), nous sommes confrontés à un appareil dont le comportement n'est ni documentable, ni compréhensible, ni même réplicable. Ce n'est pas forcément un inconvénient ! La nature même de la technique de l'IA, sous la forme de modèles de grand langage, est qu'elle n'est pas déterministe. Les résultats fantastiques de l'IA reposent en grande partie sur des statistiques, qui peuvent à leur tour être univoques dans leur essence, mais qui ne sont pas toujours reproductibles en raison de la quantité de données et de situations prises en compte.
Poussée à l'extrême, la déconstruction d'un agent IA pourrait révéler qu'à la fin du mois, celui-ci vire probablement les salaires des employés, peut-être pas, et commence éventuellement à halluciner sur la raison pour laquelle il n'y a pas d'argent cette fois-ci. C'est un exemple très théorique, mais de nombreux cas de dérapages plus ou moins dramatiques de systèmes d'IA ont été signalés. Le défi réside dans l'inverse, dans l'unicité, comme dirait le mathématicien et l'informaticien. Le défi réside dans la nature même de l'IA : Grâce à l'apprentissage par renforcement, une IA de qualité peut devenir la meilleure joueuse d'échecs et de go, car la fin de chaque partie est sans ambiguïté.
La machine gagne ou perd. Si la machine joue des millions de fois contre elle-même, elle apprend rapidement toutes les astuces et devient ainsi meilleure que n'importe quel être humain. Par nature, le reinforcement learning ne fonctionne pas pour un poème, un tableau ou une présentation Powerpoint. Dans ce cas, c'est le goût de l'observateur qui détermine si le résultat est réussi.
SAP et de nombreux autres groupes informatiques souhaitent désormais utiliser un système composé de LLM et d'agents IA dans l'environnement ERP. Afin d'éviter les grandes catastrophes, le système doit être basé sur des règles. Cela rappelle un peu la Robotic Process Automation (RPA), lorsque des robots logiciels (bots) ont été construits pour automatiser des tâches répétitives basées sur des règles, qui seraient sinon effectuées par des humains. Les agents IA devraient toutefois bénéficier de plus de degrés de liberté et d'une plus grande autonomie grâce à „l'intelligence“ des LLM. Est-ce que cela peut bien se passer ?
Sur la base de ses connaissances acquises lors d'un LLM, un agent IA pourrait arriver à la conclusion que le modèle commercial actuel est peu efficace et très polluant. Au mieux, l'agent IA refuse de travailler, au pire, il supprime la base de données ERP.
Le fournisseur de plateformes Boomi a reconnu ce danger et ne s'occupe pas seulement de l'automatisation par des agents IA, mais aussi de la gouvernance des agents IA. Les futurs LLM et agents IA pour un ERP auront besoin d'une instance de contrôle déterministe. Une contradiction ? La scène de l'IA n'en est qu'au début d'une évolution révolutionnaire.
SAP semble ignorer une grande partie de ces préoccupations et de ces dangers. Ce n'est qu'en général que SAP effleure le sujet du développement hétérogène de l'IA, avec ses nombreux défis et contradictions : Lors de l'événement SAP Connect à Las Vegas (USA), Muhammad Alam, membre du conseil d'administration, a déclaré que les clients existants de SAP avaient besoin de plus qu'un patchwork de différentes applications "best of breed". En même temps, la déclaration de Muhammad Alam a été relativisée sur le plan technique. Avec un système d'IA à deux niveaux composé d'assistants qui contrôlent plusieurs agents IA, il est probable qu'un patchwork apparaisse.
SAP renforce ses efforts pour développer un S/4 (Composable ERP) composite en direction d'une suite holistique. Le patchwork S/4 existant doit être orchestré par des assistants et des agents IA. Actuellement, SAP ne procède pas à une classification critique du travail des assistants et des agents IA.
SAP veut transformer un patchwork ERP en un système d'IA à deux niveaux composé d'assistants et d'agents. Pour réussir dans un environnement de marché instable, les entreprises ont besoin de plus qu'un patchwork d'applications Best-of-Breed différentes, selon Muhammad Alam. Les annonces de SAP illustrent la manière dont la nouvelle Business Suite orchestre l'interaction entre l'IA, les données et les applications. Personne n'a parlé de rétroaction, de reinforcement learning et de gouvernance !




