{"id":158500,"date":"2025-11-27T13:25:05","date_gmt":"2025-11-27T12:25:05","guid":{"rendered":"https:\/\/e3mag.com\/?p=158500"},"modified":"2025-12-02T13:42:43","modified_gmt":"2025-12-02T12:42:43","slug":"red-hat-stellt-red-hat-ai-3-vor","status":"publish","type":"post","link":"https:\/\/e3mag.com\/de\/red-hat-stellt-red-hat-ai-3-vor\/","title":{"rendered":"Red Hat stellt Red Hat AI 3 vor"},"content":{"rendered":"\n<p>Durch die Integration der neuesten Innovationen von Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) und Red Hat OpenShift AI kann die Plattform dazu beitragen, die Komplexit\u00e4t hochleistungsf\u00e4higer KI-Inferenz in gro\u00dfem Ma\u00dfstab zu vereinfachen.<\/p>\n\n\n\n<p>Wenn Unternehmen \u00fcber das Experimentieren mit KI hinausgehen, k\u00f6nnen sie mit erheblichen Herausforderungen konfrontiert werden, wie z. B. Datenschutz, Kostenkontrolle und Verwaltung unterschiedlicher Modelle. Die Studie \u201eThe GenAI Divide: State of AI in Business\u201d des NANDA-Projekts am Massachusetts Institute of Technology beleuchtet die Realit\u00e4t der KI in der Produktion: Ungef\u00e4hr 95 Prozent der Unternehmen erzielen keine quantifizierbaren finanziellen Ertr\u00e4ge aus gesch\u00e4tzten Unternehmensinvestitionen in H\u00f6he von 40 Milliarden US-Dollar. (<a href=\"https:\/\/medium.com\/@adnanmasood\/the-genai-divide-mit-nandas-research-on-what-s-real-what-s-working-and-what-leaders-should-do-26a9fe53e0b4\" target=\"_blank\" rel=\"noopener\">Quelle<\/a>)<\/p><div class=\"great-fullsize-content-de great-entity-placement\" style=\"float: left;\" id=\"great-1575760996\"><div id=\"great-3812336909\" style=\"margin-bottom: 20px;\"><a data-no-instant=\"1\" href=\"https:\/\/www.youtube.com\/watch?v=6ZGXMPyM-nU\" rel=\"noopener\" class=\"a2t-link\" target=\"_blank\" aria-label=\"banner_26-04_29_1200x150\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3.jpg\" alt=\"\"  srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3.jpg 1200w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-400x50.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-768x96.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-100x13.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-480x60.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-640x80.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-720x90.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-960x120.jpg 960w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-1168x146.jpg 1168w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-18x2.jpg 18w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-3-600x75.jpg 600w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" width=\"1200\" height=\"150\"  style=\" max-width: 100%; height: auto;\" \/><\/a><\/div><\/div>\n\n\n\n<p>Red Hat AI 3 konzentriert sich darauf, diese Herausforderungen direkt anzugehen, indem es CIOs und IT-F\u00fchrungskr\u00e4ften eine konsistentere und einheitlichere Erfahrung bietet, um ihre Investitionen in Technologien zur Beschleunigung der Datenverarbeitung zu maximieren. Es erm\u00f6glicht eine schnelle Skalierung und Verteilung von KI-Workloads \u00fcber hybride und herstellerunabh\u00e4ngige Umgebungen hinweg und verbessert gleichzeitig die Zusammenarbeit zwischen Teams bei KI-Workloads der n\u00e4chsten Generation, wie z. B. Agenten, und das alles auf derselben gemeinsamen Plattform.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Was ist LLM-D?<\/strong><\/h2>\n\n\n\n\n\n\n\n<p>Red Hat AI 3 f\u00fchrt die allgemeine Verf\u00fcgbarkeit von LLM-D ein, einem Open-Source-Framework, das die Skalierung von LLMs auf Kubernetes unterst\u00fctzt. LLM-D erm\u00f6glicht intelligente verteilte Inferenz und kann mit wichtigen Open-Source-Technologien wie der Kubernetes Gateway API Inference Extension, der Nvidia Inference Transfer Library (NIXL) und der DeepEP Mixture of Experts (MoE) Communication Library kombiniert werden. LLM-D baut auf vLLM auf und verwandelt es von einer leistungsstarken Single-Node-Inferenz-Engine in ein verteiltes, konsistentes und skalierbares Service-System.<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"480\" height=\"480\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg.jpg\" alt=\"\" class=\"wp-image-158502\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg-400x400.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg-150x150.jpg 150w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg-100x100.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg-12x12.jpg 12w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg-24x24.jpg 24w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg-48x48.jpg 48w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg-96x96.jpg 96w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/Joe-Fernandes-red-hat.jpg-300x300.jpg 300w\" sizes=\"auto, (max-width: 480px) 100vw, 480px\" \/><\/figure>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>\u200e<\/p>\n\n\n\n<p>\u200e<\/p>\n\n\n\n<p><em>\u201eWenn Unternehmen KI von der Experimentierphase zur Produktion skalieren, sehen sie sich einer neuen Welle von Herausforderungen in Bezug auf Komplexit\u00e4t, Kosten und Kontrolle gegen\u00fcber.\u201c<\/em><\/p>\n\n\n\n\n\n\n\n<p><em><strong>Joe Fernandes, <\/strong><\/em><br><em>Vice President und General Manager, <\/em><br><em>AI Business Unit, <\/em><br><em>Red Hat<\/em><\/p>\n<\/div>\n<\/div>\n\n\n\n\n\n\n\n<p>\u201eWenn Unternehmen KI von der Experimentierphase zur Produktion skalieren, sehen sie sich einer neuen Welle von Herausforderungen in Bezug auf Komplexit\u00e4t, Kosten und Kontrolle gegen\u00fcber. Mit Red Hat AI 3 bieten wir eine Open-Source-Plattform der Enterprise-Klasse, die diese Hindernisse minimiert. Durch die Integration neuer Funktionen wie verteilter Inferenz mit LLM-D und einer Grundlage f\u00fcr agentenbasierte KI erm\u00f6glichen wir IT-Teams, KI der n\u00e4chsten Generation mit gr\u00f6\u00dferer Zuversicht, nach ihren eigenen Vorstellungen und auf jeder Infrastruktur zu operationalisieren.\u201c<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>KI-Agenten der n\u00e4chsten Generation<\/strong><\/h2>\n\n\n\n\n\n\n\n<p>KI-Agenten werden die Art und Weise, wie Anwendungen entwickelt werden, grundlegend ver\u00e4ndern, und ihre komplexen, autonomen Workflows werden hohe Anforderungen an die Inferenzf\u00e4higkeiten stellen. Um die Erstellung und Bereitstellung von Agenten zu beschleunigen, hat Red Hat eine einheitliche API-Schicht auf Basis von Llama Stack eingef\u00fchrt, die dabei hilft, die Entwicklung an Branchenstandards wie OpenAI-kompatiblen LLM-Schnittstellenprotokollen auszurichten. Um ein offeneres und interoperableres \u00d6kosystem zu f\u00f6rdern, ist Red Hat au\u00dferdem ein Early Adopter des Model Context Protocol (MCP), eines leistungsstarken und aufstrebenden Standards, der die Interaktion von KI-Modellen mit externen Tools optimiert \u2013 eine wichtige Funktion f\u00fcr moderne KI-Agenten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Modellanpassung<\/strong><\/h2>\n\n\n\n\n\n\n\n<p>Red Hat AI 3 f\u00fchrt ein neues modulares und erweiterbares Toolkit f\u00fcr die Modellanpassung ein, das auf der bestehenden InstructLab-Funktionalit\u00e4t aufbaut. Es stellt spezielle Python-Bibliotheken zur Verf\u00fcgung, die Entwicklern mehr Flexibilit\u00e4t und Kontrolle bieten. Das Toolkit basiert auf Open-Source-Projekten wie Docling f\u00fcr die Datenverarbeitung, das die Erfassung unstrukturierter Dokumente in einem f\u00fcr KI lesbaren Format optimiert. Es umfasst au\u00dferdem ein flexibles Framework f\u00fcr die Generierung synthetischer Daten und einen Trainings-Hub f\u00fcr die Feinabstimmung von LLMs. Der integrierte Bewertungs-Hub unterst\u00fctzt KI-Ingenieure bei der \u00dcberwachung und Validierung von Ergebnissen, sodass sie ihre propriet\u00e4ren Daten sicher f\u00fcr genauere und relevantere KI-Ergebnisse nutzen k\u00f6nnen.<\/p>\n\n\n\n<p>Quelle: Red Hat<\/p>\n\n\n\n<p>Weiter zum Partnereintrag:<\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><a href=\"https:\/\/e3mag.com\/de\/partners\/redhat\/\" target=\"_blank\" rel=\" noreferrer noopener\"><img loading=\"lazy\" decoding=\"async\" width=\"800\" height=\"515\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK.jpg\" alt=\"\" class=\"wp-image-137426\" style=\"width:229px;height:auto\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK.jpg 800w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-400x258.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-768x494.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-100x64.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-480x309.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-640x412.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-720x464.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-18x12.jpg 18w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-600x386.jpg 600w\" sizes=\"auto, (max-width: 800px) 100vw, 800px\" \/><\/a><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>Red Hat, ein Anbieter von Open-Source-L\u00f6sungen, hat Red Hat AI 3 angek\u00fcndigt, eine Weiterentwicklung seiner KI-Plattform f\u00fcr Unternehmen.<\/p>\n","protected":false},"author":2368,"featured_media":158501,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"pmpro_default_level":"","footnotes":""},"categories":[2],"tags":[],"coauthors":[39720],"class_list":["post-158500","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sap-nachrichten","pmpro-has-access"],"acf":[],"featured_image_urls_v2":{"full":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"thumbnail":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-150x150.jpg",150,150,true],"medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-400x180.jpg",400,180,true],"medium_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-768x346.jpg",768,346,true],"large":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"image-100":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-100x45.jpg",100,45,true],"image-480":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-480x216.jpg",480,216,true],"image-640":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-640x288.jpg",640,288,true],"image-720":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-720x324.jpg",720,324,true],"image-960":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-960x432.jpg",960,432,true],"image-1168":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"image-1440":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"image-1920":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"1536x1536":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"2048x2048":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"trp-custom-language-flag":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-18x8.jpg",18,8,true],"bricks_large_16x9":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"bricks_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"bricks_large_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1.jpg",1000,450,false],"bricks_medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-600x270.jpg",600,270,true],"bricks_medium_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-600x450.jpg",600,450,true],"profile_24":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-24x24.jpg",24,24,true],"profile_48":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-48x48.jpg",48,48,true],"profile_96":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-96x96.jpg",96,96,true],"profile_150":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-150x150.jpg",150,150,true],"profile_300":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/11\/KI-1000x450-1-300x300.jpg",300,300,true]},"post_excerpt_stackable_v2":"<p>Red Hat, ein Anbieter von Open-Source-L\u00f6sungen, hat Red Hat AI 3 angek\u00fcndigt, eine Weiterentwicklung seiner KI-Plattform f\u00fcr Unternehmen.<\/p>\n","category_list_v2":"<a href=\"https:\/\/e3mag.com\/de\/category\/sap-nachrichten\/\" rel=\"category tag\">Community Nachrichten<\/a>","author_info_v2":{"name":"E3-Magazin","url":"https:\/\/e3mag.com\/de\/author\/e3_magazin\/"},"comments_num_v2":"0 comments","_links":{"self":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/158500","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/users\/2368"}],"replies":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/comments?post=158500"}],"version-history":[{"count":2,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/158500\/revisions"}],"predecessor-version":[{"id":158659,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/158500\/revisions\/158659"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/media\/158501"}],"wp:attachment":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/media?parent=158500"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/categories?post=158500"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/tags?post=158500"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/coauthors?post=158500"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}