Information und Bildungsarbeit von und für die SAP-Community

Echtzeit in Datasphere

Unternehmen können nicht abwarten, bis die Daten auf dem neuesten Stand sind. In einer sich ständig verändernden wirtschaftlichen Lage müssen Unternehmen sofort auf die Entwicklungen im Markt reagieren können.
Roger Illing, Confluent
8. August 2024
avatar

Datenlösungen müssen über eine ganze Reihe komplementärer Funktionen verfügen, um effektiv zu sein. Daten sind eine wertvolle Ressource für jedes ­Unternehmen. Sie nutzen Daten, um Entscheidungen zu treffen sowie Abläufe intelligenter und effizienter zu gestalten. Allzu oft verfügen Unternehmen jedoch nicht über die passende Datenstrategie. Häufig befinden sich hochwertige Daten in Datenspeichern und Silos, was den Zugriff erschwert. Viele SAP-Kunden verfügen darüber hinaus nicht über die Infrastruktur, um in Echtzeit auf ihre ERP-Daten zuzugreifen. Das erschwert es, Anwendungsfälle wie moderne Echtzeitanalysen und generative KI zu unterstützen.

Daher wenden sich SAP-Bestandskunden häufig an die Experten von Confluent. Die Daten-Streaming-Plattform von Confluent, entwickelt von den Programmierern hinter Apache Kafka, ist direkt in SAP Datasphere integriert. Sie hilft Unternehmen beim Zugriff auf ihre wertvollsten Daten innerhalb von S/4 Hana und ERP/ECC 6.0 und ermöglicht dadurch, dass nachgelagerte Anwendungen fortwährend mit Echtzeitdaten versorgt werden. Vollständig verwaltete Daten-Streaming-Pipelines in Confluent Cloud bieten einen kontinuierlichen Datenfluss für jeden Unternehmensbereich. Benutzer können dadurch sofort auf benötigte Informationen zugreifen.

Confluent unterstützt Unternehmen bei der Modernisierung und Bewältigung allgemeiner Herausforderungen, die mit Legacy-Datenarchitekturen und Datenintegrations-Pipelines verbunden sind. Beispielsweise können im Laufe der Zeit benutzerdefinierte Integrationsmuster, wie Punkt-zu-Punkt-Integrationen, den Betrieb verlangsamen und die Geschäftsfähigkeit eines Unternehmens beeinträchtigen.

Kein Punkt-zu-Punkt

„Eine Punkt-zu-Punkt-Integrationsstrategie, die alle Anwendungen oder Datensysteme im gesamten Unternehmen zusammenfügt, schafft schnell ein monolithisches Vogelnest. Das blockiert Innovationen, beeinträchtigt die Kundenzufriedenheit und birgt unnötige Risiken für das Unternehmen“, sagt Greg Murphy, Product Marketing Manager bei Confluent. Diese Legacy-Integrationsmethoden, bei denen Daten in der Regel in Batches verarbeitet werden, erhöhen die Anwendungs- oder Analyse-Latenz.

Darüber hinaus können größere Unternehmen einen Schneeballeffekt erleben, bei dem immer mehr kundenspezifische Verbindungen den Betrieb verzögern. Diese Verzögerungen können sich auf Dauer anhäufen und den täglichen Betrieb des Unternehmens erheblich stören. Unternehmen können sich solche Risiken nicht leisten. Um die Erwartungen ihrer Kunden zu erfüllen, müssen sie Datenströme möglichst in Echtzeit verarbeiten.

Im Mittelpunkt der Plattform von Confluent steht Apache Kafka. Die Open-Source-­Daten-Streaming-Technologie versorgt Unternehmen mit Event-basierten Daten und schafft so Kundenerlebnisse in Echtzeit. Kafka wird von mehr als 80 Prozent der Fortune-100-Unternehmen verwendet und ist ein De-facto-Standard für Daten-Streaming-Technologie in der Branche. Es ermöglicht Unternehmen, eine elegante Lösung für Echtzeit-Datenanforderungen zu entwickeln.

Mit der Kombination aus Daten-Streaming und Echtzeit-Stream-Processing können Unternehmen Datenpunkte wie einen Verkauf oder eine Sendung erfassen, Informationen sammeln, sie zusammenführen, ihnen den richtigen Kontext geben und sie da abrufen, wo sie benötigt werden.

Kafka ist zwar eine weitverbreitete und sehr leistungsfähige Daten-Streaming-­Technologie, aber die Selbstverwaltung ist ein herausforderndes, ressourcenintensives Unterfangen. Es dauert mitunter mehrere Jahre, bis sich die Investition für Unternehmen lohnt. Umgekehrt ist die Daten-Streaming-Plattform von Confluent Cloud-nativ, umfassend und überall dort verfügbar, wo sie benötigt wird: Confluent Cloud bietet einen vollständig verwalteten Apache-Kafka-Service, der auf der Kora Engine basiert, einschließlich elas­tischer GBps-Skalierung, unbegrenztem Speicher, einem SLA mit einer Betriebszeit von 99,99 Prozent, einer hochgradig vorhersehbaren und niedrigen Latenz und vielem mehr – und das alles bei gleichzeitiger Senkung der Gesamtbetriebskosten (TCO) für Kafka um bis zu 60 Prozent. Confluent hat die Architektur von Kafka für die Cloud komplett neu gestaltet, sodass Teams mehr Zeit für Innovationen mit Echtzeitdaten aufwenden können und sich weniger auf Infrastrukturmanagement konzentrieren müssen.

Kafka und 120 Konnektoren

Neben dem Cloud-nativen Kafka bietet Confluent alle Tools, die für die Erstellung von Echtzeit-Datenprodukten erforderlich sind. Kunden können neue Anwendungsfälle schnell, sicher und zuverlässig bereitstellen. Mit Confluent arbeiten sie mit einer vollständigen Daten-Streaming-Plattform mit 120 Konnektoren, ­integriertem Stream-Processing mit serverlosem Apache Flink, unternehmens­gerechten Security-Funktionen, der branchenweit einzigen vollständig verwal­teten Governance-Suite für Kafka, vorgefertigten Überwachungsoptionen und vielem mehr.

Mit Confluent können Kunden eine flexible Bereitstellung für Daten-Streaming-Workloads aufrechterhalten, indem sie in der Cloud (AWS, Azure und Google Cloud), cloudübergreifend, lokal oder in hybriden Umgebungen ausgeführt werden. Confluent ist überall dort verfügbar, wo sich Anwendungen mit Clustern befinden. Diese werden in Echtzeit über Umgebungen hinweg synchronisiert, um ein global konsistentes zentrales Nervensystem mit Echtzeitdaten zu schaffen, das ein Unternehmen antreibt.

Confluent hat gemeinsam mit SAP eine direkte Integration mit Datasphere entwickelt, um SAP-Daten in Confluent Cloud in Echtzeit überall zu streamen, wo sie benötigt werden. Für SAP-Bestandskunden, die ihre Daten verbessern wollen, ist Data­sphere eine der wichtigsten Komponenten. Datasphere ist praktisch der Hauptgravitationspunkt für Kunden, denn dort landen alle ihre Daten. Anwendungen, die Kundenerlebnisse in Echtzeit und moderne Geschäftsabläufe/Analysen unterstützen, benötigen Zugriff auf SAP-Daten in Echtzeit. Darüber hinaus müssen Daten aus SAP oft mit Drittanbieterquellen wie Benutzer-Clickstreams zusammengeführt werden, um Downstream-Anwendungen vollständig zu versorgen.

„Mit dieser neuen Integration bieten wir SAP-Kunden die Möglichkeit, intelligente Echtzeitanwendungen und -analysen mit ihren wertvollsten Daten zu unterstützen, die sich in der SAP Business Data Fabric befinden“, sagt Greg Murphy. Die Kombination von SAP Datasphere mit dem vollständig verwalteten, Cloud-nativen Kafka-Service von Confluent ermöglicht es Benutzern, Echtzeitanwendungen zu geringeren Kosten zu erstellen. Es dient als zentrale Autobahn für Echtzeitdaten und ermöglicht es SAP-Anwendern, ihre Daten zu streamen und in Echtzeit mit Daten von Drittanbietern zusammenzuführen. Confluent stellt mehr als 120 vorgefertigte Source- und Sink-Konnektoren bereit. All dies ist mit Kontrollen zur Einhaltung strenger Sicherheits-, Gover­nance- und Compliance-Standards verbunden. Confluent verschlüsselt Daten sowohl at rest als auch während der Übertragung, um eine ordnungsgemäße Absicherung zu gewährleisten.

Daten werden jetzt benötigt. Unternehmen können nicht mehr auf Daten warten, die nicht auf dem neuesten Stand sind. In einer sich ständig verändernden wirtschaftlichen Lage müssen Unternehmen sofort auf die Entwicklungen im Markt reagieren können. Der Betrieb mit hohen Latenzen wirkt sich nicht nur negativ auf den Datenverkehr der Website aus, sondern auch auf die Einnahmen, die im Laufe eines Jahres verloren gehen können.

Komplettlösungen nutzen. Datenlösungen müssen über eine ganze Reihe komplementärer Funktionen verfügen, um effektiv zu sein. Dazu gehören Konnektoren, Stream Processing, Sicherheits­tools, Governance-Tools und mehr. Unternehmen sollten nach Lösungen wie der Confluent Cloud suchen, die diese Optionen bieten, einfach installiert werden können und eine ganzheitliche Datenlösung zur Verfügung stellen. Datenschutz: Die Cybersicherheit darf nicht bei ihrer Entscheidung über das Datenmanagement vernachlässigt werden. IT-Führungskräfte sollten nach Datenmanagement-Partnern suchen, die Sicherheit und Datenschutz priorisieren.

confluent.io

avatar
Roger Illing, Confluent

Roger Illing ist Vice President Sales CEMEA bei Confluent.


Schreibe einen Kommentar

Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion. 

Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.

Zum zweiten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren.

Veranstaltungsort

Mehr Informationen folgen in Kürze.

Veranstaltungsdatum

Mittwoch, 21. Mai, und
Donnerstag, 22. Mai 2025

Early-Bird-Ticket

Verfügbar bis Freitag, 24. Januar 2025
EUR 390 exkl. USt.

Reguläres Ticket

EUR 590 exkl. USt.

Veranstaltungsort

Hotel Hilton Heidelberg
Kurfürstenanlage 1
D-69115 Heidelberg

Veranstaltungsdatum

Mittwoch, 5. März, und
Donnerstag, 6. März 2025

Tickets

Reguläres Ticket
EUR 590 exkl. USt
Early-Bird-Ticket

Verfügbar bis 20. Dezember 2024

EUR 390 exkl. USt
Veranstalter ist das E3-Magazin des Verlags B4Bmedia.net AG. Die Vorträge werden von einer Ausstellung ausgewählter SAP-Partner begleitet. Der Ticketpreis beinhaltet den Besuch aller Vorträge des Steampunk und BTP Summit 2025, den Besuch des Ausstellungsbereichs, die Teilnahme an der Abendveranstaltung sowie die Verpflegung während des offiziellen Programms. Das Vortragsprogramm und die Liste der Aussteller und Sponsoren (SAP-Partner) wird zeitnah auf dieser Website veröffentlicht.