Information und Bildungsarbeit von und für die SAP-Community

Red Hat stellt Red Hat AI 3 vor

Red Hat, ein Anbieter von Open-Source-Lösungen, hat Red Hat AI 3 angekündigt, eine Weiterentwicklung seiner KI-Plattform für Unternehmen.
E3-Magazin
27. November 2025
avatar

Durch die Integration der neuesten Innovationen von Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) und Red Hat OpenShift AI kann die Plattform dazu beitragen, die Komplexität hochleistungsfähiger KI-Inferenz in großem Maßstab zu vereinfachen.

Wenn Unternehmen über das Experimentieren mit KI hinausgehen, können sie mit erheblichen Herausforderungen konfrontiert werden, wie z. B. Datenschutz, Kostenkontrolle und Verwaltung unterschiedlicher Modelle. Die Studie „The GenAI Divide: State of AI in Business” des NANDA-Projekts am Massachusetts Institute of Technology beleuchtet die Realität der KI in der Produktion: Ungefähr 95 Prozent der Unternehmen erzielen keine quantifizierbaren finanziellen Erträge aus geschätzten Unternehmensinvestitionen in Höhe von 40 Milliarden US-Dollar. (Quelle)

Red Hat AI 3 konzentriert sich darauf, diese Herausforderungen direkt anzugehen, indem es CIOs und IT-Führungskräften eine konsistentere und einheitlichere Erfahrung bietet, um ihre Investitionen in Technologien zur Beschleunigung der Datenverarbeitung zu maximieren. Es ermöglicht eine schnelle Skalierung und Verteilung von KI-Workloads über hybride und herstellerunabhängige Umgebungen hinweg und verbessert gleichzeitig die Zusammenarbeit zwischen Teams bei KI-Workloads der nächsten Generation, wie z. B. Agenten, und das alles auf derselben gemeinsamen Plattform.

Was ist LLM-D?

Red Hat AI 3 führt die allgemeine Verfügbarkeit von LLM-D ein, einem Open-Source-Framework, das die Skalierung von LLMs auf Kubernetes unterstützt. LLM-D ermöglicht intelligente verteilte Inferenz und kann mit wichtigen Open-Source-Technologien wie der Kubernetes Gateway API Inference Extension, der Nvidia Inference Transfer Library (NIXL) und der DeepEP Mixture of Experts (MoE) Communication Library kombiniert werden. LLM-D baut auf vLLM auf und verwandelt es von einer leistungsstarken Single-Node-Inferenz-Engine in ein verteiltes, konsistentes und skalierbares Service-System.

„Wenn Unternehmen KI von der Experimentierphase zur Produktion skalieren, sehen sie sich einer neuen Welle von Herausforderungen in Bezug auf Komplexität, Kosten und Kontrolle gegenüber.“

Joe Fernandes,
Vice President und General Manager,
AI Business Unit,
Red Hat

„Wenn Unternehmen KI von der Experimentierphase zur Produktion skalieren, sehen sie sich einer neuen Welle von Herausforderungen in Bezug auf Komplexität, Kosten und Kontrolle gegenüber. Mit Red Hat AI 3 bieten wir eine Open-Source-Plattform der Enterprise-Klasse, die diese Hindernisse minimiert. Durch die Integration neuer Funktionen wie verteilter Inferenz mit LLM-D und einer Grundlage für agentenbasierte KI ermöglichen wir IT-Teams, KI der nächsten Generation mit größerer Zuversicht, nach ihren eigenen Vorstellungen und auf jeder Infrastruktur zu operationalisieren.“

KI-Agenten der nächsten Generation

KI-Agenten werden die Art und Weise, wie Anwendungen entwickelt werden, grundlegend verändern, und ihre komplexen, autonomen Workflows werden hohe Anforderungen an die Inferenzfähigkeiten stellen. Um die Erstellung und Bereitstellung von Agenten zu beschleunigen, hat Red Hat eine einheitliche API-Schicht auf Basis von Llama Stack eingeführt, die dabei hilft, die Entwicklung an Branchenstandards wie OpenAI-kompatiblen LLM-Schnittstellenprotokollen auszurichten. Um ein offeneres und interoperableres Ökosystem zu fördern, ist Red Hat außerdem ein Early Adopter des Model Context Protocol (MCP), eines leistungsstarken und aufstrebenden Standards, der die Interaktion von KI-Modellen mit externen Tools optimiert – eine wichtige Funktion für moderne KI-Agenten.

Modellanpassung

Red Hat AI 3 führt ein neues modulares und erweiterbares Toolkit für die Modellanpassung ein, das auf der bestehenden InstructLab-Funktionalität aufbaut. Es stellt spezielle Python-Bibliotheken zur Verfügung, die Entwicklern mehr Flexibilität und Kontrolle bieten. Das Toolkit basiert auf Open-Source-Projekten wie Docling für die Datenverarbeitung, das die Erfassung unstrukturierter Dokumente in einem für KI lesbaren Format optimiert. Es umfasst außerdem ein flexibles Framework für die Generierung synthetischer Daten und einen Trainings-Hub für die Feinabstimmung von LLMs. Der integrierte Bewertungs-Hub unterstützt KI-Ingenieure bei der Überwachung und Validierung von Ergebnissen, sodass sie ihre proprietären Daten sicher für genauere und relevantere KI-Ergebnisse nutzen können.

Quelle: Red Hat

Schreibe einen Kommentar

Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion. 

Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.

Zum vierten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren.

Veranstaltungsort

FourSide Hotel Salzburg,
Trademark Collection by Wyndham
Am Messezentrum 2, 5020 Salzburg, Österreich
+43-66-24355460

Veranstaltungsdatum

Mittwoch, 10. Juni, und
Donnerstag, 11. Juni 2026

Early-Bird-Ticket

Reguläres Ticket

Abonnenten des E3-Magazins Ticket

ermäßigt mit Promocode CCAbo26

Studierende*

ermäßigt mit Promocode CCStud26.
Studiennachweis bitte per mail an office@b4bmedia.net senden.
*Die ersten 10 Tickets sind für Studierende kostenfrei. Versuchen Sie Ihr Glück! 🍀
EUR 390 exkl. USt.
verfügbar bis 30. November 2025
EUR 590 exkl. USt.
EUR 390 exkl. USt.
EUR 290 exkl. USt.

Veranstaltungsort

Hotel Hilton Heidelberg
Kurfürstenanlage 1
D-69115 Heidelberg

Veranstaltungsdatum

Mittwoch, 22. April und
Donnerstag, 23. April 2026

Tickets

Early-Bird-Ticket
Reguläres Ticket
EUR 390 exkl. USt.
verfügbar bis 30.11.2025
EUR 590 exkl. USt
Abonnenten des E3-Magazins
ermäßigt mit Promocode STAbo26
EUR 390 exkl. USt
Studierende*
ermäßigt mit Promocode STStud26.
Studiennachweis bitte per mail an office@b4bmedia.net senden.
EUR 290 exkl. USt
*Die ersten 10 Tickets sind für Studierende kostenfrei. Versuchen Sie Ihr Glück! 🍀
Veranstalter ist das E3-Magazin des Verlags B4Bmedia.net AG. Die Vorträge werden von einer Ausstellung ausgewählter SAP-Partner begleitet. Der Ticketpreis beinhaltet den Besuch aller Vorträge des Steampunk und BTP Summit 2026, den Besuch des Ausstellungsbereichs, die Teilnahme an der Abendveranstaltung sowie die Verpflegung während des offiziellen Programms. Das Vortragsprogramm und die Liste der Aussteller und Sponsoren (SAP-Partner) wird zeitnah auf dieser Website veröffentlicht.