Le pont entre Enterprise AI et l'Edge


Dans le paysage technologique en évolution rapide de 2026, l'IA pour les entreprises a largement dépassé les simples intégrations de cloud public. Les organisations adoptent de plus en plus une stratégie „Apportez votre propre modèle“ afin de garder le contrôle sur les données sensibles et les grands modèles linguistiques personnalisés. Deux modèles d'architecture dominants ont émergé pour l'exploitation sécurisée des charges de travail : Des agents qui communiquent via Suse AI avec le BTP SAP basé sur le cloud, et la mise à disposition de Suse AI dans le propre centre de données avec la cellule d'intégration SAP Edge (EIC).
Stratégie cloud : Suse AI et SAP BTP
Pour de nombreuses entreprises, Suse AI fait office d„“usine„ privée et sécurisée dans laquelle les équipes d'infrastructure construisent, entraînent et affinent des modèles open source - comme Llama 3 ou Mistral - sur la base de données d'entreprise propriétaires. Pour intégrer le modèle dans les processus commerciaux quotidiens, il faut une “voiture de livraison„ fiable. C'est le rôle de la BTP. Le flux de travail pour relier les deux environnements est standardisé : Tout d'abord, le modèle finement ajusté est emballé dans un conteneur, puis ce conteneur est enregistré et téléchargé dans SAP AI Core, une composante spécialisée de la BTP qui a été développée pour les charges de travail AI personnalisées. Le principal avantage du transfert d'un modèle privé de Suse AI vers la BTP est le gain de “contexte commercial„. Cela permet aux clients d'utiliser des LLM sur mesure comme backend intelligent pour des applications sans code dans SAP Build ou comme “compétences" spécialisées pour SAP Joule, afin que celui-ci puisse répondre à des questions d'entreprise très spécifiques.
Stratégie Edge : Suse AI et SAP EIC
Alors que le cloud offre une intégration S/4-Hana transparente, l'utilisation de Suse AI avec SAP EIC est probablement l'architecture la plus puissante dont une entreprise disposera en 2026. Cette combinaison permet de créer un circuit complet d„“AI privé", dans lequel les données, le LLM et la logique d'intégration restent en sécurité et entièrement à l'intérieur du pare-feu de l'entreprise.
Dans cette configuration, les tâches sont stratégiquement séparées : lors de la conception dans le cloud, les flux d'intégration (iFlows) sont modélisés au sein de SAP Integration Suite. Lors de l'exécution à la périphérie, l'exécution réelle a lieu localement. L'iFlow est mis à disposition sur la Edge Integration Cell, qui fonctionne sur Suse Rancher for SAP applications. C'est également là que se trouve le LLM privé, juste à côté des données SAP.
Lorsque l'EIC exécute sa logique, les appels API au LLM se font localement sur Suse AI, ce qui garantit qu'aucune donnée ne quitte le réseau.
Ground-to-ground
Ce modèle d'IA local „ground-to-ground“ offre d'énormes avantages aux entreprises qui utilisent des systèmes sur site comme SAP ECC ou S/4 Hana. Comme il n'y a plus de détours par Internet vers un LLM en nuage, la latence passe de quelques secondes à quelques millisecondes - une condition essentielle pour la fabrication en temps réel et la logistique à haut volume.
En outre, cette architecture de périphérie garantit une souveraineté absolue des données. Les secteurs strictement réglementés comme la banque, la santé et la défense sont soumis à des lois strictes sur la résidence des données, qui interdisent aux ensembles de données sensibles de passer par l'Internet public. Étant donné que tant l'EIC que Suse AI sont entièrement exploités dans un centre de données privé, ils répondent sans peine à ces exigences de conformité. De plus, le système offre une résilience hors ligne inégalée : l'EIC supporte jusqu'à quatre heures de fonctionnement hors ligne. En cas de panne de la connexion Internet dans un centre de données, les processus critiques basés sur l'IA continuent de fonctionner de manière transparente.
Continuer vers l'inscription du partenaire :



