{"id":141465,"date":"2024-03-28T09:31:58","date_gmt":"2024-03-28T08:31:58","guid":{"rendered":"http:\/\/e3mag.com\/?p=141465"},"modified":"2026-02-20T08:43:52","modified_gmt":"2026-02-20T07:43:52","slug":"confluent-integration-in-sap-entretien-avec-greg-murphy-de-confluent","status":"publish","type":"post","link":"https:\/\/e3mag.com\/fr\/confluent-integration-in-sap-entretien-avec-greg-murphy-de-confluent\/","title":{"rendered":"Int\u00e9gration de Confluent dans SAP : entretien avec Greg Murphy de Confluent"},"content":{"rendered":"<p>Greg Murphy est Staff Product Marketing Manager et se concentre sur le d\u00e9veloppement et la promotion du programme de partenariat technologique de Confluent. Il aide les clients \u00e0 mieux comprendre comment la plateforme de streaming de donn\u00e9es de Confluent s'int\u00e8gre dans l'\u00e9cosyst\u00e8me plus large des partenaires. Avant de rejoindre Confluent, Greg Murphy a travaill\u00e9 dans le marketing produit et la gestion de produits chez Salesforce et Google Cloud.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"576\" height=\"576\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024.jpeg\" alt=\"\" class=\"wp-image-141466\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024.jpeg 576w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-400x400.jpeg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-150x150.jpeg 150w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-100x100.jpeg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-480x480.jpeg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-12x12.jpeg 12w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-24x24.jpeg 24w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-48x48.jpeg 48w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-96x96.jpeg 96w, https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-300x300.jpeg 300w\" sizes=\"auto, (max-width: 576px) 100vw, 576px\" \/><\/figure>\n<\/div>\n\n\n<p class=\"has-text-align-center\"><em>Greg Murphy, Responsable marketing produit, Confluent<\/em><\/p>\n\n\n\n<p><strong>E3 : Pouvez-vous nous en dire plus sur l'int\u00e9gration de Confluent dans SAP ?<\/strong><\/p>\n\n\n\n<p>Dans notre offre SAP, nous nous concentrons sur la possibilit\u00e9 pour les clients SAP et BTP de d\u00e9placer leurs donn\u00e9es ERP partout. Ainsi, lorsque les clients SAP envisagent de construire des exp\u00e9riences client en temps r\u00e9el, des analyses avanc\u00e9es et le type de solutions dont leur entreprise a besoin, cela ne signifie pas toujours que ces donn\u00e9es peuvent rester dans SAP ; elles doivent \u00eatre transf\u00e9r\u00e9es en aval dans des outils et des applications tiers pour leur donner vie.<\/p>\n\n\n\n<p>Donc, si nous y r\u00e9fl\u00e9chissons en premier lieu, vous avez ajout\u00e9 les options disponibles pour les clients SAP. Le plus souvent, ces clients utilisent aujourd'hui la technologie open source Apache Kafka, une technologie de streaming de donn\u00e9es qui permet aux clients de capturer ces activit\u00e9s en fonction des \u00e9v\u00e9nements et de les diffuser en aval, o\u00f9 qu'elles se trouvent. Confluent a \u00e9t\u00e9 d\u00e9velopp\u00e9 par les inventeurs d'Apache Kafka. Nous avons d\u00e9velopp\u00e9 une plateforme de streaming de donn\u00e9es cloudnative et enti\u00e8rement g\u00e9r\u00e9e, dont Kafka est l'\u00e9picentre. Elle permet aux entreprises d'\u00e9liminer compl\u00e8tement l'overhead op\u00e9rationnel, les co\u00fbts et les d\u00e9fis li\u00e9s \u00e0 la gestion de la technologie open source. Les clients sont en mesure de profiter des avantages du streaming de donn\u00e9es, ce qui leur permet de devenir une entreprise intelligente en temps r\u00e9el, capable de travailler avec ces donn\u00e9es ERP partout o\u00f9 elles sont n\u00e9cessaires.<\/p>\n\n\n\n<p><strong>E3 : Que fait exactement une plateforme de streaming de donn\u00e9es ?<\/strong><\/p>\n\n\n\n<p>Apache Kafka est une technologie open source qui a \u00e9t\u00e9 cr\u00e9\u00e9e en 2011 chez LinkedIn. Elle a \u00e9t\u00e9 lanc\u00e9e par les fondateurs de Confluent parce qu'il y avait alors un besoin de mouvements de donn\u00e9es en temps r\u00e9el au sein de LinkedIn avec la technologie qui n'existait pas encore. Donc, si l'on pense aux activit\u00e9s bas\u00e9es sur des \u00e9v\u00e9nements - chaque fois que quelqu'un lit ou r\u00e9pond \u00e0 un message sur LinkedIn, c'est-\u00e0-dire tout type d'activit\u00e9 - il y avait un certain nombre de syst\u00e8mes qui voulaient conna\u00eetre et comprendre ces activit\u00e9s afin de pouvoir construire des processus \u00e0 partir de l\u00e0. C'est pr\u00e9cis\u00e9ment pour cela que Kafka a \u00e9t\u00e9 cr\u00e9\u00e9 \u00e0 l'origine.<\/p>\n\n\n\n<p>Le cas d'utilisation initial le plus important est un mod\u00e8le PubSub, dans lequel les producteurs sont en mesure d'envoyer des messages \u00e0 la plateforme de diffusion de donn\u00e9es, et tous les consommateurs en aval qui souhaitent travailler avec ces donn\u00e9es dans une approche \"un pour un\" peuvent les r\u00e9cup\u00e9rer et travailler \u00e9l\u00e9gamment avec ces donn\u00e9es. Au lieu d'une solution point \u00e0 point, dans laquelle chaque application ou outil en amont doit maintenir une int\u00e9gration directe avec tous les services en aval qui ont besoin de ces donn\u00e9es, il s'agit d'un mod\u00e8le beaucoup plus \u00e9l\u00e9gant qui permet \u00e0 tous ces producteurs de produire une fois dans la technologie de diffusion de donn\u00e9es en continu, puis aux consommateurs de s'abonner ou de lire autant de ces flux qu'ils le souhaitent. Il offre \u00e0 une entreprise une mani\u00e8re tr\u00e8s \u00e9l\u00e9gante de transmettre toutes les donn\u00e9es dans l'ensemble de l'entreprise et de cr\u00e9er un syst\u00e8me nerveux central en temps r\u00e9el. C'est Apache Kafka. Au c\u0153ur, c'est un syst\u00e8me distribu\u00e9.<\/p>\n\n\n\n<p><strong>E3 : En quoi la Confluent Data Platform se distingue-t-elle ?<\/strong><\/p>\n\n\n\n<p>Bien qu'Apache Kafka soit une technologie tr\u00e8s puissante et largement utilis\u00e9e pour le streaming et le mouvement en temps r\u00e9el des donn\u00e9es dans toute l'entreprise, il est tr\u00e8s difficile pour la plupart des entreprises de l'exploiter, de la faire \u00e9voluer et de l'utiliser avec un r\u00e9el succ\u00e8s. Il faudra plusieurs ann\u00e9es avant que la plupart des entreprises puissent tirer un r\u00e9el b\u00e9n\u00e9fice de cette technologie, compte tenu des ressources d'infrastructure, du personnel \u00e0 plein temps qui sera charg\u00e9 de maintenir les op\u00e9rations, ainsi que des risques et des d\u00e9fis qui pourraient \u00eatre associ\u00e9s.<\/p>\n\n\n\n<p>Kafka est tr\u00e8s puissant, mais il s'agit d'une technologie lourde, fastidieuse et vaste, qui apporte certes une valeur ajout\u00e9e, mais qui d\u00e9tourne les \u00e9quipes de leur activit\u00e9 principale. Un d\u00e9taillant, par exemple, qui d\u00e9pend d'Apache Kafka, n'est pas vraiment f\u00e9licit\u00e9 par ses clients en aval pour la qualit\u00e9 de sa gestion de Kafka. Le d\u00e9taillant veut se concentrer sur de nouveaux cas d'utilisation qui ont un impact sur le client et qui utilisent les donn\u00e9es en temps r\u00e9el auxquelles il a acc\u00e8s. L'objectif de Confluent est de s'appuyer sur cette technologie open source pour offrir \u00e0 ses clients, dans des secteurs tr\u00e8s vari\u00e9s, toute la valeur d'une plateforme de streaming de donn\u00e9es, tout en supprimant les contraintes, les d\u00e9fis et les co\u00fbts de gestion de cette technologie open source, car ce n'est pas l\u00e0 que r\u00e9side la valeur pour nos clients, ni ce qu'ils veulent mettre sur le march\u00e9. C'est ce que nous faisons. Et c'est l\u00e0 que r\u00e9side notre comp\u00e9tence.<\/p>\n\n\n\n<p><strong>E3 : Pouvez-vous expliquer cela plus en d\u00e9tail ?<\/strong><\/p>\n\n\n\n<p>Il y a trois piliers qui distinguent vraiment la Confluent Data Streaming Platform de cette technologie open source. Le premier, c'est que Confluent est cloudnativ. Nous avons pris Apache Kafka, la technologie open source, et nous l'avons compl\u00e8tement transform\u00e9e pour le cloud. C'est un gros investissement d'amener cette technologie dans le cloud et de permettre aux clients de mettre en place en quelques clics un cluster qui peut faire fonctionner toute l'entreprise.<\/p>\n\n\n\n<p>Toutes ces fonctions sont regroup\u00e9es dans ce que l'on appelle le moteur Kora. Le moteur Kora est le moteur Apache Kafka, sp\u00e9cialement d\u00e9velopp\u00e9 pour le cloud. Il est \u00e9lastiquement modulable. Ainsi, certains clusters peuvent atteindre jusqu'\u00e0 20 gigaoctets par seconde. Ils disposent d'un espace de stockage infini.<\/p>\n\n\n\n<p><strong>E3 : Pouvez-vous donner un exemple de ces fonctions et de leur impact sur les clients ?<\/strong><\/p>\n\n\n\n<p>Ce que nous avons au sein du moteur Kora, c'est une \u00e9volutivit\u00e9 \u00e9lastique pouvant atteindre 20 gigaoctets par seconde. Les plus grandes entreprises du monde peuvent acc\u00e9der \u00e0 Kafka en un seul clic et faire \u00e9voluer la disponibilit\u00e9 de Kafka vers le haut et vers le bas, alors que dans le pass\u00e9, les entreprises qui utilisaient l'open source n'avaient que deux possibilit\u00e9s. Soit elles devaient \u00e9quiper Kafka d'une infrastructure co\u00fbteuse afin d'\u00eatre pr\u00eates pour des performances de pointe pendant la saison des vacances ou \u00e0 des moments particuliers de l'entreprise, l'infrastructure \u00e9tant toujours disponible \u00e0 un niveau \u00e9lev\u00e9 pour ces moments, mais cela impliquait des co\u00fbts \u00e9lev\u00e9s. Ou alors, ils devraient avoir une grande \u00e9quipe d\u00e9di\u00e9e \u00e0 des projets pour se pr\u00e9parer \u00e0 ces moments et ajouter de l'infrastructure, puis r\u00e9agir \u00e0 ces moments en retirant toute l'infrastructure pour \u00e9viter ces co\u00fbts.<\/p>\n\n\n\n<p>Quelle que soit la mani\u00e8re dont on la d\u00e9pense, c'est une activit\u00e9 tr\u00e8s perturbatrice et co\u00fbteuse \u00e0 laquelle les entreprises doivent se pr\u00e9parer. Au sein du Confluent Cloud, le scaling \u00e9lastique signifie que nous augmentons automatiquement avec l'activit\u00e9 pour nous assurer que les clients ont le d\u00e9bit et la capacit\u00e9 dont ils ont besoin pour g\u00e9rer tout le trafic qui passe par la plateforme. Et nous \u00e9voluons ensuite automatiquement vers le bas lorsque le trafic de donn\u00e9es diminue, afin de nous assurer que nous travaillons de mani\u00e8re rentable et que personne ne doit payer trop cher.<\/p>\n\n\n\n<p><strong>E3 : Qu'en est-il de la sauvegarde dans le moteur Kora ?<\/strong><\/p>\n\n\n\n<p>Au sein du moteur Kora, l'espace de stockage est infini. Ce ne sont pas seulement des donn\u00e9es en temps r\u00e9el qui circulent sur la plateforme et auxquelles les clients ont acc\u00e8s. Ils peuvent stocker des donn\u00e9es, et une quantit\u00e9 infinie chez nous. Nous offrons un SLA (Service Level Agreement) de temps de fonctionnement de 99,99 pour cent. Nous donnons donc des garanties \u00e9lev\u00e9es quant \u00e0 la disponibilit\u00e9 de la plate-forme. Nous garantissons \u00e9galement des temps de latence faibles et un d\u00e9bit de donn\u00e9es \u00e9lev\u00e9 sur la plate-forme. Tout compte fait, avec ce pilier cloud, nous avons donc pris en charge toute la charge op\u00e9rationnelle, les co\u00fbts et la distraction d'Apache Kafka, et nous avons reconstruit l'ensemble du service dans une exp\u00e9rience cloud, comme l'attendrait un client.<\/p>\n\n\n\n<p><strong>E3 : Quel est le deuxi\u00e8me pilier qui caract\u00e9rise la Confluent Data Streaming Platform ?<\/strong><\/p>\n\n\n\n<p>Le deuxi\u00e8me pilier, c'est que Confluent est complet. Nos clients n'ont pas seulement besoin d'Apache Kafka pour cr\u00e9er des exp\u00e9riences en temps r\u00e9el. Ce dont ils ont besoin, c'est d'une plate-forme compl\u00e8te de streaming de donn\u00e9es, qui leur permette de la construire autour d'Apache Kafka et de travailler vraiment efficacement. Cela inclut les int\u00e9grations de donn\u00e9es, comme SAP par exemple, que nous proposons. Nous avons plus de 120 int\u00e9grations source et sync pr\u00e9-construites dans la plateforme. La technologie de streaming de donn\u00e9es permet d'aller chercher des donn\u00e9es partout o\u00f9 elles sont produites et de les envoyer l\u00e0 o\u00f9 elles doivent \u00eatre consomm\u00e9es. Nos clients nous ont dit qu'il fallait jusqu'\u00e0 six mois pour d\u00e9velopper chacune de ces int\u00e9grations, plus un support et une gestion \u00e0 vie pour les maintenir en \u00e9tat de marche. Il y en a \u00e0 nouveau plus de 120 pour cette int\u00e9gration pr\u00e9fabriqu\u00e9e, ce qui permet aux clients d'\u00e9conomiser ce temps, d'acc\u00e9der automatiquement \u00e0 toutes les donn\u00e9es dont ils ont besoin et d'envoyer les donn\u00e9es partout o\u00f9 elles sont n\u00e9cessaires.<\/p>\n\n\n\n<p>Comme SAP est une offre de base, elle est directement int\u00e9gr\u00e9e dans la console SAP. Il ne s'agit pas seulement d'acc\u00e9der simplement aux donn\u00e9es SAP et de les transmettre \u00e0 l'un des sites que nous proposons. Il y a aussi des donn\u00e9es de grande valeur qui se trouvent en dehors du syst\u00e8me SAP. Pensez aux donn\u00e9es IoT, aux donn\u00e9es des outils de marketing, aux flux de clics en temps r\u00e9el sur Internet - il y a une multitude de sources de donn\u00e9es qui pourraient \u00eatre n\u00e9cessaires. Nous permettons aux clients SAP d'acc\u00e9der \u00e0 leurs donn\u00e9es SAP et de les fusionner en temps r\u00e9el avec toutes ces diff\u00e9rentes sources de donn\u00e9es, afin qu'ils puissent les transmettre en temps r\u00e9el sous forme de produit de donn\u00e9es complet aux bases de donn\u00e9es, aux entrep\u00f4ts de donn\u00e9es, aux lacs de donn\u00e9es et aux outils d'IA-ML.<\/p>\n\n\n\n<p>Il s'agit de la seule suite de gouvernance enti\u00e8rement g\u00e9r\u00e9e du secteur pour Apache Kafka, qui s\u00e9curise et garantit des donn\u00e9es de haute qualit\u00e9, mais les rend \u00e9galement accessibles au reste de l'entreprise. Elle garantit ainsi qu'un plus grand nombre de personnes au sein de l'entreprise ont acc\u00e8s aux donn\u00e9es en temps r\u00e9el afin d'organiser efficacement les exp\u00e9riences attendues aujourd'hui.<\/p>\n\n\n\n<p><strong>E3 : Quel est le troisi\u00e8me pilier qui caract\u00e9rise la Confluent Data Streaming Platform ?<\/strong><\/p>\n\n\n\n<p>Enfin, c'est une offre qui est disponible partout. Que ce soit dans le cloud - nous sommes disponibles sur AWS, Azure GCP, \u00e0 travers les clouds -, la capacit\u00e9 de connecter tous ces environnements et d'envoyer des donn\u00e9es entre eux, ou sur site avec la plateforme Confluent et l\u00e0 aussi la connectivit\u00e9. Donc entre un environnement on-premise, un environnement cloud et un environnement hybride, donc vraiment un syst\u00e8me nerveux central. Les donn\u00e9es en temps r\u00e9el pour l'ensemble de l'entreprise, c'est ce qui peut \u00eatre construit au final.<\/p>\n\n\n\n<p><strong>E3 : Comment les deux plates-formes s'int\u00e8grent-elles sp\u00e9cifiquement avec SAP BTP, la Business Technology Platform ?<\/strong><\/p>\n\n\n\n<p>En d\u00e9cembre, nous avons fait une annonce externe sur la disponibilit\u00e9 de Confluent dans le SAP Store. Dans le cadre de cette annonce, nous avons pr\u00e9sent\u00e9 notre int\u00e9gration directe entre SAP Datasphere, BTP et Confluent Cloud.<\/p>\n\n\n\n<p>Les clients SAP ont ainsi la possibilit\u00e9 d'acc\u00e9der directement depuis SAP Datasphere \u00e0 la plateforme de streaming de donn\u00e9es Confluent et \u00e0 des flux de donn\u00e9es enti\u00e8rement g\u00e9r\u00e9s. Ainsi, lorsque je travaille avec BTP, j'ai acc\u00e8s \u00e0 S\/4 Hana ECC et \u00e0 d'autres outils du c\u00f4t\u00e9 de SAP. En tant qu'utilisateur, j'ai la possibilit\u00e9 de configurer l'\u00e9criture de ces donn\u00e9es en temps r\u00e9el dans des flux de donn\u00e9es enti\u00e8rement g\u00e9r\u00e9s du c\u00f4t\u00e9 du Confluent. Cela permet de sortir les donn\u00e9es ERP de SAP et de les utiliser en aval pour alimenter les applications et les analyses en donn\u00e9es en temps r\u00e9el.<\/p>\n\n\n\n<p><strong>E3 : Dans quels cas ces plates-formes ne seraient-elles pas applicables ou id\u00e9ales pour trouver des solutions \u00e0 un environnement informatique ?<\/strong><\/p>\n\n\n\n<p>Je pense que les cas d'application sont tr\u00e8s larges. Ils sont tr\u00e8s ouverts. Chez Confluent, nous disons que les clients avec lesquels nous travaillons ont vraiment ouvert un nombre presque illimit\u00e9 de cas d'utilisation. Nous savons que les solutions que les clients veulent mettre en place ne d\u00e9pendent pas toujours exclusivement des donn\u00e9es de SAP, et que ces donn\u00e9es seules ne sont pas toujours d\u00e9terminantes pour un cas d'utilisation. Il est donc essentiel pour les clients SAP d'avoir acc\u00e8s \u00e0 des donn\u00e9es au-del\u00e0 de BTP et des syst\u00e8mes SAP. Et c'est quelque chose que nous rendons facilement accessible sur la plate-forme. Il n'y a pas que les connecteurs pr\u00e9fabriqu\u00e9s dans la plateforme qui vous permettent de d\u00e9placer facilement des donn\u00e9es vers le bas. Vous pouvez \u00e9galement inclure des donn\u00e9es suppl\u00e9mentaires, les fusionner avec les donn\u00e9es SAP et construire quelque chose de plus complet et pr\u00eat \u00e0 \u00eatre utilis\u00e9 en aval.<\/p>\n\n\n\n<p><strong>E3 : Quel est l'un des avantages de la Confluent Data Streaming Platform ?<\/strong><\/p>\n\n\n\n<p>Pour l'offre cloudnative, il a \u00e9t\u00e9 d\u00e9montr\u00e9 que notre offre peut r\u00e9duire le co\u00fbt total de possession d'Apache Kafka pour les entreprises jusqu'\u00e0 60%. Donc, quand on parle de la valeur du streaming de donn\u00e9es - et il y a une forte demande des clients SAP -, ils veulent travailler avec Apache Kafka ; ils veulent l'utiliser pour leur exp\u00e9rience client en temps r\u00e9el. Confluent est en mesure d'offrir une meilleure solution pour Kafka, ainsi qu'une plate-forme compl\u00e8te de streaming de donn\u00e9es qui r\u00e9duira le co\u00fbt total de possession de Kafka de 60%. Cela permet \u00e0 nos clients de gagner du temps et de se concentrer non pas sur la gestion de l'infrastructure, mais sur ce qui va r\u00e9ellement faire avancer leur entreprise. Et ce qui surprendra et enthousiasmera leurs clients, qu'ils soient internes ou externes.<\/p>\n\n\n\n<p><strong>E3 : Quelles options donneriez-vous aux clients qui cherchent \u00e0 s'int\u00e9grer avec S\/4 Hana dans le cloud et avec BTP ?<\/strong><\/p>\n\n\n\n<p>Le meilleur moyen d'y parvenir est l'int\u00e9gration Datasphere que nous avons d\u00e9velopp\u00e9e. Celle-ci est donc directement reli\u00e9e \u00e0 l'outil Datasphere au sein de BTP. Elle r\u00e9cup\u00e8re les donn\u00e9es de S\/4 Hana ECC, BW, il y a une liste d'au moins cinq, six ou sept sources diff\u00e9rentes du c\u00f4t\u00e9 de SAP, mais S\/4 Hana est en t\u00eate de liste. C'est vraiment le produit phare du c\u00f4t\u00e9 de SAP. C'est donc de loin la recommandation de notre c\u00f4t\u00e9 pour la mani\u00e8re la plus simple de lib\u00e9rer ces donn\u00e9es ERP, de les amener sur la plateforme de streaming de donn\u00e9es et de les d\u00e9placer en aval, l\u00e0 o\u00f9 elles sont n\u00e9cessaires. Gestion des stocks du commerce \u00e9lectronique en temps r\u00e9el, fabrication, cas d'application IoT, IA, ML - ce sera la recommandation de notre part.<\/p>\n\n\n\n<p><strong>E3 : Qu'est-ce que cela signifie sp\u00e9cifiquement pour les clients ERP ?<\/strong><\/p>\n\n\n\n<p>Nous pensons qu'il est important pour le march\u00e9 de comprendre l'offre de Confluent, car il s'agit avant tout d'une activit\u00e9 intelligente en temps r\u00e9el, qui alimente les applications en aval avec des donn\u00e9es ERP en temps r\u00e9el. Les trois piliers sur lesquels nous nous concentrons sp\u00e9cifiquement pour SAP sont : premi\u00e8rement, la cr\u00e9ation d'applications en temps r\u00e9el \u00e0 moindre co\u00fbt. Cela se fait gr\u00e2ce au moteur Kora et \u00e0 la r\u00e9duction du co\u00fbt total de possession pour Kafka jusqu'\u00e0 60%.<\/p>\n\n\n\n<p>Le deuxi\u00e8me pilier est le streaming des donn\u00e9es SAP vers tout endroit o\u00f9 elles sont n\u00e9cessaires et leur fusion avec d'autres sources. Cela se fait gr\u00e2ce aux 120 connecteurs et au traitement des flux avec Apache Flink (un framework de traitement par lots open source).<\/p>\n\n\n\n<p>Le dernier pilier consiste \u00e0 permettre aux clients de conserver des normes de s\u00e9curit\u00e9 strictes tout en passant de BTP \u00e0 Confluent Cloud. Nous disposons d'un certain nombre de fonctions de s\u00e9curit\u00e9 de qualit\u00e9 entreprise qui sont standard sur la plate-forme. Par exemple, le cryptage des donn\u00e9es au repos et en transit. Nous avons une s\u00e9rie de fonctions de personnalisation diff\u00e9rentes, des r\u00e9seaux priv\u00e9s, des protocoles d'audit, toute une s\u00e9rie de fonctions de s\u00e9curit\u00e9 qui sont disponibles sur la plate-forme. Elles disposent d'un ensemble standard de normes de conformit\u00e9.<\/p>\n\n\n\n<p><strong>E3 : Pouvez-vous nous en dire un peu plus sur les fonctions de gouvernance de la plate-forme ?<\/strong><\/p>\n\n\n\n<p>Nous proposons la seule suite de gouvernance enti\u00e8rement g\u00e9r\u00e9e du secteur pour Apache Kafka. Elle se compose de plusieurs piliers : la qualit\u00e9 des flux, le catalogue des flux et la gestion des flux. La qualit\u00e9 des flux est probablement ce \u00e0 quoi on pense le plus souvent quand on pense \u00e0 la gouvernance des flux, et il s'agit de l'int\u00e9grit\u00e9 des donn\u00e9es, des r\u00e8gles relatives aux donn\u00e9es, des contrats qui garantissent que des normes sont en place pour toutes les donn\u00e9es qui transitent par la plateforme. Cela permet \u00e9galement de garantir que les donn\u00e9es peuvent \u00eatre facilement r\u00e9utilis\u00e9es par la suite. C'est standard.<\/p>\n\n\n\n<p>Nous avons \u00e9galement un catalogue de flux et tant le catalogue de flux que la ligne de flux sont l'autre facette de la gouvernance - une vision plus moderne de la gouvernance. Ils font partie de la m\u00eame suite, mais ils ne se concentrent pas sur le verrouillage des donn\u00e9es, mais sur l'ouverture de ces donn\u00e9es au catalogue de flux de l'entreprise.<\/p>\n\n\n\n<p>Notre portail de donn\u00e9es permet aux clients de la plateforme de streaming de donn\u00e9es de comprendre, par exemple, quels sont les flux de donn\u00e9es \u00e0 haute valeur ajout\u00e9e qui proviennent de SAP. Donc, si nous facilitons incroyablement la cr\u00e9ation de ces flux de donn\u00e9es pour les clients SAP et leur acheminement vers Confluent, le catalogue de donn\u00e9es sur notre site et plus particuli\u00e8rement le portail de donn\u00e9es fait que les clients au sein du Confluent Cloud - c'est-\u00e0-dire ceux qui utilisent notre plateforme au quotidien - peuvent voir ces flux de donn\u00e9es et en \u00eatre conscients. Ils savent quelles donn\u00e9es sont disponibles et peuvent cr\u00e9er les outils qu'ils souhaitent.<\/p>\n\n\n\n<p><strong>E3 : Pouvez-vous donner un exemple ?<\/strong><\/p>\n\n\n\n<p>Prenons un exemple : Nous avons un utilisateur BTP et un utilisateur Confluent-Cloud. L'utilisateur Confluent-Cloud pourrait trouver, via le catalogue dont dispose l'utilisateur BTP, un flux de donn\u00e9es contenant les donn\u00e9es IoT de la production qu'il souhaite et dont il a besoin. C'est donc g\u00e9nial. Vous avez trouv\u00e9 quelque chose qui fait avancer le projet. La question suivante pourrait toutefois \u00eatre la suivante : D'o\u00f9 proviennent r\u00e9ellement ces donn\u00e9es ? Que leur est-il arriv\u00e9 en cours de route ? Ont-elles \u00e9t\u00e9 fusionn\u00e9es avec de nombreuses autres donn\u00e9es ? Comment puis-je \u00eatre s\u00fbr de pouvoir utiliser ces donn\u00e9es dans mon projet ?<\/p>\n\n\n\n<p>Stream-Lineage est le troisi\u00e8me volet de la suite de gouvernance qui offre aux clients une vue de bout en bout de ces flux de donn\u00e9es sous la forme de \"Google Maps\", afin qu'ils comprennent d'o\u00f9 ils viennent, o\u00f9 ils vont et ce qui leur arrive en cours de route. Ils peuvent le faire via le catalogue. Et s'ils les trouvent avec l'ascendance, ils peuvent facilement comprendre ce que sont toutes ces donn\u00e9es et comment ils peuvent les utiliser. C'est donc le troisi\u00e8me point que je voulais ajouter : le maintien de normes strictes de s\u00e9curit\u00e9, de gouvernance et de conformit\u00e9 qui peuvent \u00eatre maintenues pour les clients SAP lorsqu'ils transf\u00e8rent toutes ces donn\u00e9es sur la plateforme de streaming de donn\u00e9es Confluent.<\/p>\n\n\n\n<p><strong>E3 : Merci pour l'interview !<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/www.confluent.io\/de-de\/\" target=\"_blank\" rel=\"noreferrer noopener\">confluent.io<\/a><\/p>","protected":false},"excerpt":{"rendered":"<p>E3 Magazine s'est entretenu avec Greg Murphy, Staff Product Marketing Manager chez Confluent, au sujet de la plateforme de streaming de donn\u00e9es de Confluent et de son int\u00e9gration avec SAP Datasphere lors du BTP. <\/p>","protected":false},"author":2713,"featured_media":141468,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"pmpro_default_level":"","footnotes":""},"categories":[5,43945],"tags":[39870,42268],"coauthors":[43310],"class_list":["post-141465","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-it-management","category-mag-24-05","tag-btp-bdc","tag-datasphere","pmpro-has-access"],"acf":[],"featured_image_urls_v2":{"full":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"thumbnail":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-150x150.jpg",150,150,true],"medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-400x180.jpg",400,180,true],"medium_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-768x346.jpg",768,346,true],"large":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"image-100":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-100x45.jpg",100,45,true],"image-480":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-480x216.jpg",480,216,true],"image-640":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-640x288.jpg",640,288,true],"image-720":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-720x324.jpg",720,324,true],"image-960":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-960x432.jpg",960,432,true],"image-1168":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"image-1440":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"image-1920":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"1536x1536":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"2048x2048":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"trp-custom-language-flag":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-18x8.jpg",18,8,true],"bricks_large_16x9":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"bricks_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"bricks_large_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"bricks_medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-600x270.jpg",600,270,true],"bricks_medium_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-600x450.jpg",600,450,true],"profile_24":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-24x24.jpg",24,24,true],"profile_48":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-48x48.jpg",48,48,true],"profile_96":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-96x96.jpg",96,96,true],"profile_150":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-150x150.jpg",150,150,true],"profile_300":["https:\/\/e3mag.com\/wp-content\/uploads\/2024\/03\/data-streaming-300x300.jpg",300,300,true]},"post_excerpt_stackable_v2":"<p>E3 Magazine sprach mit Greg Murphy, Staff Product Marketing Manager bei Confluent, \u00fcber die Daten-Streaming-Plattform von Confluent und ihre Integration mit SAP Datasphere auf der BTP. <\/p>\n","category_list_v2":"<a href=\"https:\/\/e3mag.com\/fr\/categorie\/gestion-de-linformatique\/\" rel=\"category tag\">IT-Management<\/a>, <a href=\"https:\/\/e3mag.com\/fr\/categorie\/mag-24-05\/\" rel=\"category tag\">MAG 24-05<\/a>","author_info_v2":{"name":"Laura Cepeda","url":"https:\/\/e3mag.com\/fr\/author\/laura-cepeda\/"},"comments_num_v2":"0 commentaire","_links":{"self":[{"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/posts\/141465","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/users\/2713"}],"replies":[{"embeddable":true,"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/comments?post=141465"}],"version-history":[{"count":3,"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/posts\/141465\/revisions"}],"predecessor-version":[{"id":160860,"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/posts\/141465\/revisions\/160860"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/media\/141468"}],"wp:attachment":[{"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/media?parent=141465"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/categories?post=141465"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/tags?post=141465"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/e3mag.com\/fr\/wp-json\/wp\/v2\/coauthors?post=141465"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}