Temps réel dans Datasphere


Pour être efficaces, les solutions de données doivent disposer de toute une série de fonctions complémentaires. Les données sont une ressource précieuse pour toutes les entreprises. Elles les utilisent pour prendre des décisions et pour rendre les processus plus intelligents et plus efficaces. Cependant, trop souvent, les entreprises ne disposent pas de la stratégie de données appropriée. Souvent, les données de grande valeur sont stockées dans des entrepôts et des silos, ce qui rend leur accès difficile. De plus, de nombreux clients SAP ne disposent pas de l'infrastructure nécessaire pour accéder à leurs données ERP en temps réel. Il est donc difficile de prendre en charge des cas d'application tels que l'analyse moderne en temps réel et l'IA générative.
C'est pourquoi les clients SAP existants s'adressent souvent aux experts de Confluent. La plateforme de streaming de données de Confluent, développée par les programmeurs derrière Apache Kafka, est directement intégrée dans SAP Datasphere. Elle aide les entreprises à accéder à leurs données les plus précieuses au sein de S/4 Hana et ERP/ECC 6.0 et permet ainsi d'alimenter en permanence les applications en aval avec des données en temps réel. Les pipelines de flux de données entièrement gérés de Confluent Cloud offrent un flux de données continu pour chaque secteur de l'entreprise. Les utilisateurs peuvent ainsi accéder immédiatement aux informations dont ils ont besoin.
Confluent aide les entreprises à moderniser et à surmonter les défis généraux liés aux architectures de données patrimoniales et aux pipelines d'intégration de données. Par exemple, au fil du temps, les schémas d'intégration définis par l'utilisateur, comme les intégrations point à point, peuvent ralentir les opérations et nuire à la capacité de l'entreprise à mener ses activités.
Pas de point à point
"Une stratégie d'intégration point par point, qui rassemble toutes les applications ou systèmes de données dans l'ensemble de l'entreprise, crée rapidement un nid d'oiseau monolithique. Cela bloque l'innovation, nuit à la satisfaction des clients et comporte des risques inutiles pour l'entreprise", explique Greg Murphy, Product Marketing Manager chez Confluent. Ces méthodes d'intégration par héritage, où les données sont généralement traitées par lots, augmentent la latence des applications ou des analyses.
En outre, les grandes entreprises peuvent subir un effet boule de neige, avec de plus en plus de connexions personnalisées qui retardent les opérations. Ces retards peuvent s'accumuler à la longue et perturber considérablement le fonctionnement quotidien de l'entreprise. Les entreprises ne peuvent pas se permettre de prendre de tels risques. Pour répondre aux attentes de leurs clients, elles doivent traiter les flux de données en temps réel dans la mesure du possible.
Apache Kafka est au cœur de la plateforme de Confluent. Cette technologie open source de streaming de données fournit aux entreprises des données basées sur des événements, créant ainsi des expériences clients en temps réel. Kafka est utilisé par plus de 80% des entreprises du Fortune 100 et constitue un standard de facto pour la technologie de streaming de données dans le secteur. Il permet aux entreprises de développer une solution élégante pour les besoins en données en temps réel.
En combinant le streaming de données et le traitement de flux en temps réel, les entreprises peuvent capturer des points de données tels qu'une vente ou un envoi, collecter des informations, les rassembler, leur donner le bon contexte et les récupérer là où elles sont nécessaires.
Kafka est certes une technologie de diffusion de données très répandue et très puissante, mais l'autogestion est une entreprise exigeante et gourmande en ressources. Il faut parfois plusieurs années pour que les entreprises rentabilisent leur investissement. A l'inverse, la plateforme de streaming de données de Confluent Cloud est native, complète et disponible partout où elle est nécessaire : Confluent Cloud propose un service Apache Kafka entièrement géré, basé sur le moteur Kora, incluant une mise à l'échelle élastique en GBps, un stockage illimité, un SLA avec un temps de fonctionnement de 99,99%, une latence très prévisible et faible, et bien plus encore - tout cela en réduisant le coût total de possession (TCO) de Kafka jusqu'à 60%. Confluent a entièrement repensé l'architecture de Kafka pour le cloud, ce qui permet aux équipes de consacrer plus de temps à l'innovation avec des données en temps réel et de moins se concentrer sur la gestion de l'infrastructure.
Kafka et 120 connecteurs
En plus de Kafka, natif du cloud, Confluent propose tous les outils nécessaires à la création de produits de données en temps réel. Les clients peuvent déployer de nouveaux cas d'utilisation de manière rapide, sûre et fiable. Avec Confluent, ils travaillent avec une plateforme complète de streaming de données comprenant 120 connecteurs, un traitement de flux intégré avec Apache Flink sans serveur, des fonctions de sécurité adaptées à l'entreprise, la seule suite de gouvernance entièrement gérée du secteur pour Kafka, des options de surveillance prêtes à l'emploi et bien plus encore.
Confluent permet aux clients de maintenir un déploiement flexible pour les charges de travail de streaming de données, en les exécutant dans le cloud (AWS, Azure et Google Cloud), sur l'ensemble du cloud, en local ou dans des environnements hybrides. Confluent est disponible partout où se trouvent des applications avec des clusters. Celles-ci sont synchronisées en temps réel à travers les environnements pour créer un système nerveux central globalement cohérent avec des données en temps réel qui alimentent une entreprise.
Confluent a développé avec SAP une intégration directe avec Datasphere pour diffuser en temps réel les données SAP dans Confluent Cloud, partout où elles sont nécessaires. Pour les clients SAP existants qui souhaitent améliorer leurs données, Datasphere est l'un des composants les plus importants. Datasphere est pratiquement le principal point de gravité pour les clients, car c'est là qu'atterrissent toutes leurs données. Les applications qui soutiennent les expériences des clients en temps réel et les processus/analyses commerciaux modernes ont besoin d'un accès aux données SAP en temps réel. En outre, les données provenant de SAP doivent souvent être fusionnées avec des sources tierces, telles que les flux de clics des utilisateurs, afin d'alimenter complètement les applications en aval.
"Avec cette nouvelle intégration, nous offrons aux clients SAP la possibilité de soutenir des applications et des analyses intelligentes en temps réel avec leurs données les plus précieuses, qui se trouvent dans la SAP Business Data Fabric", explique Greg Murphy. La combinaison de SAP Datasphere avec le service Kafka de Confluent, entièrement géré et natif du cloud, permet aux utilisateurs de créer des applications en temps réel à moindre coût. Il sert d'autoroute centrale pour les données en temps réel et permet aux utilisateurs SAP de streamer leurs données et de les fusionner en temps réel avec des données tierces. Confluent met à disposition plus de 120 connecteurs source et puits préfabriqués. Tout cela est associé à des contrôles pour respecter des normes strictes de sécurité, de gouvernance et de conformité. Confluent crypte les données aussi bien at rest que pendant la transmission afin de garantir une sécurisation correcte.
Les données sont nécessaires dès maintenant. Les entreprises ne peuvent plus attendre des données qui ne sont pas à jour. Dans une situation économique en constante évolution, les entreprises doivent pouvoir réagir immédiatement aux évolutions du marché. Le fonctionnement avec des temps de latence élevés a un impact négatif non seulement sur le trafic de données du site, mais aussi sur les revenus qui peuvent être perdus au cours d'une année.
Utiliser des solutions complètes. Pour être efficaces, les solutions de données doivent disposer de toute une série de fonctions complémentaires. Il s'agit notamment de connecteurs, de traitement des flux, d'outils de sécurité, d'outils de gouvernance, etc. Les entreprises devraient rechercher des solutions telles que le Confluent Cloud, qui offrent ces options, sont faciles à installer et fournissent une solution de données globale. Protection des données : la cybersécurité ne doit pas être négligée dans leur décision de gestion des données. Les responsables informatiques devraient rechercher des partenaires de gestion des données qui donnent la priorité à la sécurité et à la protection des données.