{"id":154405,"date":"2025-09-02T07:00:00","date_gmt":"2025-09-02T05:00:00","guid":{"rendered":"http:\/\/e3mag.com\/?p=154405"},"modified":"2025-08-28T09:58:44","modified_gmt":"2025-08-28T07:58:44","slug":"kuenstliche-intelligenz-der-schritt-von-der-idee-zur-produktion","status":"publish","type":"post","link":"https:\/\/e3mag.com\/de\/kuenstliche-intelligenz-der-schritt-von-der-idee-zur-produktion\/","title":{"rendered":"K\u00fcnstliche Intelligenz: Der Schritt von der Idee zur Produktion"},"content":{"rendered":"\n<p>Es ist kein Geheimnis, dass jedes Unternehmen weltweit daran arbeitet, das Potenzial von KI und insbesondere von generativer KI auszusch\u00f6pfen. Unternehmen wissen, dass KI ihre Effizienz steigern, Kosten senken, die Kunden- und Mitarbeiterzufriedenheit verbessern, Wettbewerbsvorteile schaffen und Gesch\u00e4ftsprozesse automatisieren kann. All dies ist m\u00f6glich, da die Technologie f\u00fcr Unternehmen jeder Gr\u00f6\u00dfe immer leichter verf\u00fcgbar und zug\u00e4nglich wird. Dank zahlreicher Bereitstellungs\u00adoptionen und verschiedener Hardware- und Softwarekombinationen ist der Zugang zu KI- und ML-Technologien einfacher geworden. <\/p>\n\n\n\n<p>Unternehmen ben\u00f6tigen auch kein vollst\u00e4ndiges KI-\/ML-Deployment mehr, um bestimmte Funktionen wie cloudbasierte KI-Dienste oder KI-gest\u00fctzte Business-Tools nutzen zu k\u00f6nnen. Infolgedessen zeichnen sich steigende Investitionen in KI-Technologien ab. Der KI-Markt ist allerdings derzeit sehr fragmentiert. In diesem Umfeld f\u00e4llt es Unternehmen oft schwer, den richtigen Weg einzuschlagen. Vor allem stehen sie dabei vor der Herausforderung, KI-Modelle effizient und sicher in die Produktion zu bringen. Selbst Unternehmen, die erste KI-Projekte erfolgreich absolviert haben, z\u00f6gern oder scheitern bei der fl\u00e4chendeckenden Transformation. Daf\u00fcr gibt es zahlreiche Gr\u00fcnde.<\/p><div class=\"great-fullsize-content-de\" style=\"float: left;\" id=\"great-847787213\"><div id=\"great-3265943087\" style=\"margin-bottom: 20px;\"><a data-no-instant=\"1\" href=\"https:\/\/www.youtube.com\/watch?v=6ZGXMPyM-nU\" rel=\"noopener\" class=\"a2t-link\" target=\"_blank\" aria-label=\"banner_26-04_29_1200x150\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1.jpg\" alt=\"\"  srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1.jpg 1200w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-400x50.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-768x96.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-100x13.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-480x60.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-640x80.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-720x90.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-960x120.jpg 960w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-1168x146.jpg 1168w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-18x2.jpg 18w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1-600x75.jpg 600w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" width=\"1200\" height=\"150\"  style=\" max-width: 100%; height: auto;\" \/><\/a><\/div><\/div>\n\n\n\n<p>Viele Unternehmen bef\u00fcrchten einen Vendor-Lock-in und sehen die Gefahren und Risiken der KI-Technologie. Andere wiederum sehen in der anforderungsspezifischen Anpassung von KI-Modellen eine schwer zu l\u00f6sende Aufgabe. Angesichts dieser Herausforderungen bleiben viele KI-Projekte in der Pilot- oder Proof-of-Concept-Phase stecken.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1200\" height=\"467\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-1200x467.jpg\" alt=\"\" class=\"wp-image-154406\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-1200x467.jpg 1200w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-400x156.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-768x299.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-100x39.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-480x187.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-640x249.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-720x280.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-960x373.jpg 960w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-1168x454.jpg 1168w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-1440x560.jpg 1440w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-scaled.jpg 1920w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-1536x597.jpg 1536w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-18x7.jpg 18w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Open-Source-KI_cmyk-600x233.jpg 600w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p><em>Der Ansatz von Red Hat im KI- und ML-Engineering ist zu 100 Prozent Open-Source-basiert.<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Das richtige KI-Modell<\/h2>\n\n\n\n\n\n\n\n<p>Nur ein strategisches Vorgehen, das bereits vor der KI-Einf\u00fchrung elementare Fragen aufwirft und beantwortet, kann den Erfolg sichern. Dazu geh\u00f6rt vor allem die Auswahl der richtigen KI-Modelle und der \u00adad\u00e4quaten Plattform beziehungsweise Infrastrukturbasis.<\/p>\n\n\n\n<p>Bei der Entscheidung f\u00fcr ein bestimmtes KI-Modell ist ein klarer Trend erkennbar. Immer mehr Unternehmen setzen nicht auf LLMs, sondern auf kleinere Modelle, die f\u00fcr spezielle Use Cases konzipiert sind. Das Problem bei der Verwendung gr\u00f6\u00dferer Modelle \u2013 mit Mil\u00adliarden von Parametern \u2013 besteht darin, dass sie zwar ein umfangreiches generisches Wissen besitzen, aber nicht sonderlich hilfreich sind, wenn ein Unternehmen einen Chatbot f\u00fcr seine Kundendienstmitarbeiter erstellen oder Kunden bei der L\u00f6sung eines konkreten Problems mit einem Produkt oder einer Dienstleistung unterst\u00fctzen m\u00f6chte. Im Vergleich zu LLMs bieten kleinere Modelle zahlreiche Vorteile. Sie sind mit geringerem Aufwand zu implementieren und erm\u00f6glichen eine kontinuierliche Integration neuer \u2013 gerade auch unternehmens- und dom\u00e4nenspezifischer \u2013 Daten. Das hei\u00dft, mit ihnen sind auch Trainingsl\u00e4ufe deutlich schneller durchf\u00fchrbar. <\/p>\n\n\n\n<p>Die Modelle tragen auch zu einer erheblichen Kosteneinsparung bei, schlie\u00dflich erfordern gro\u00dfe LLMs erhebliche Investitionen. Nicht zuletzt k\u00f6nnen Unternehmen durch den Einsatz kleinerer Modelle auch die Abh\u00e4ngigkeit von gro\u00dfen LLM-Anbietern verringern, deren L\u00f6sungen vielfach eine Blackbox im Hinblick auf Algorithmen, Trainingsdaten oder Modelle darstellen. Generell ist in der Branche derzeit ohnehin eine Tendenz zur Bereitstellung kleinerer und optimierter KI-Modelle vorhanden. Ein Beispiel hierf\u00fcr liefert der vLLM(Virtual Large Language Model)-Ansatz. Damit k\u00f6nnen Berechnungen mit einem Inferenzserver schneller durchgef\u00fchrt werden, beispielsweise durch eine effizientere Nutzung des GPU-Speichers.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Projekt InstructLab<\/h2>\n\n\n\n\n\n\n\n<p>Aber auch generische LLMs, die einen unterschiedlichen Grad an Offenheit in Bezug auf Pretraining-Daten und Nutzungsbeschr\u00e4nkungen aufweisen, k\u00f6nnen inzwischen f\u00fcr einen bestimmten Gesch\u00e4ftszweck erweitert werden. Hierzu haben Red Hat und IBM das Community-Projekt InstructLab ins Leben \u00adgerufen, das eine kosteneffiziente L\u00f6sung zur Verbesserung von LLMs bereitstellt. Die L\u00f6sung ben\u00f6tigt weitaus weniger Daten und Rechenressourcen f\u00fcr das Retraining eines Modells. InstructLab senkt die Einstiegsh\u00fcrde in die KI-Modellentwicklung erheblich \u2013 auch f\u00fcr Nutzer, die keine Data Scientists sind. <\/p>\n\n\n\n<p>In InstructLab k\u00f6nnen Domain-Experten aus verschiedenen Bereichen ihre Kenntnisse und ihr Wissen einbringen und so ein offen zug\u00e4ngliches Open-Source-KI-Modell weiterentwickeln. Es ist dabei auch m\u00f6glich, durch die Anwendung der RAG (Retrieval-Augmented Generation)-Technik ein mit InstructLab abgestimmtes Modell zus\u00e4tzlich zu optimieren. RAG bietet generell die M\u00f6glichkeit, die in einem LLM vorhandenen Daten durch externe Wissensquellen mit aktuellen Echtzeitdaten, kontextuellen, propriet\u00e4ren oder dom\u00e4nenspezifischen Informationen zu erg\u00e4nzen, etwa durch Daten-Repositories oder bestehende Dokumentationen. So kann auch wesentlich einfacher sichergestellt werden, dass die Modelle richtige, sichere Antworten liefern, ohne zu halluzinieren.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1083\" height=\"452\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk.jpg\" alt=\"\" class=\"wp-image-154409\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk.jpg 1083w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-400x167.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-768x321.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-100x42.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-480x200.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-640x267.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-720x300.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-960x401.jpg 960w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-18x8.jpg 18w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/Red-Hat-OpenShift-AI_cmyk-600x250.jpg 600w\" sizes=\"auto, (max-width: 1083px) 100vw, 1083px\" \/><\/figure>\n\n\n\n<p><em>Mit Red Hat OpenShift AI, einer flexiblen, skalierbaren KI\/ML-Plattform, k\u00f6nnen Unternehmen KI-gest\u00fctzte Anwendungen in Hybrid-Cloud-Umgebungen entwickeln und bereitstellen.<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Open-Source-KI<\/h2>\n\n\n\n\n\n\n\n<p>Es steht au\u00dfer Frage, dass sich Unternehmen im Hinblick auf ihre Wettbewerbsf\u00e4higkeit und Zukunftssicherheit verst\u00e4rkt mit neuen Themen wie KI und ML auseinandersetzen m\u00fcssen. Ein vorbehaltloser und unkritischer Einsatz ist allerdings nicht vertretbar. Die Sicherheit, Stabilit\u00e4t und digitale Souver\u00e4nit\u00e4t m\u00fcssen immer gew\u00e4hrleistet bleiben.<\/p>\n\n\n\n<p>Bei der Souver\u00e4nit\u00e4t geht es dabei vor allem um die Technologie, den Betrieb und die Daten. Unternehmen sollten auf eine Anbieter\u00adunabh\u00e4ngigkeit achten, sowohl hinsichtlich der Wahlm\u00f6glichkeit zwischen propriet\u00e4ren und Open-\u00adSource-Komponenten als auch im Hinblick auf flexible Bereitstellungsoptionen. Datensouver\u00e4nit\u00e4t bedeutet, dass Unternehmen wissen, an welchem Ort und mit \u00adwelcher Methode ihre eigenen Daten gespeichert und verarbeitet werden.<\/p>\n\n\n\n<p>Im Kontext dieser Souver\u00e4nit\u00e4tsanforderungen gewinnen transparente Open-Source-Prinzipien, -Technologien und -L\u00f6sungen an Bedeutung. Gerade wenn KI in unternehmenskritischen Bereichen eingesetzt wird, muss immer ein hohes Ma\u00df an Nachvollziehbarkeit und Erkl\u00e4rbarkeit gew\u00e4hrleistet sein. Unternehmen wollen schlie\u00dflich keine Blackbox, sondern eine KI, die vertrauensw\u00fcrdig und erkl\u00e4rbar ist sowie rechtliche und ethische Grunds\u00e4tze beachtet. Gerade bei der Umsetzung zeigt sich wieder der Wert bew\u00e4hrter Open-Source-Verfahren, die wie zuvor im Bereich der Softwareentwicklung f\u00fcr hohe Transparenz stehen.<\/p>\n\n\n\n<p>Allerdings besteht auch im KI-Bereich, wie in der Softwareentwicklung generell, die Gefahr des Open-Source-Washings, wie ein Vergleich der Kernelemente von Open-Source-Software und Open-Source-LLMs zeigt. Open-Source-\u00adSoftware zeichnet sich aus durch eine vollst\u00e4ndige Transparenz, nachvollziehbare Algorithmen, eine einsehbare Fehlerbehandlung und die M\u00f6glichkeit, die Weiterentwicklung unter Mitwirkung der Community voranzutreiben. Im Gegensatz dazu kennzeichnet viele der sogenannten Open-Source-LLMs zwar in der Regel eine freie Verf\u00fcgbarkeit, jedoch bieten sie kaum Einblick in \u2013 mit der Softwareentwicklung vergleichbare \u2013 Aspekte wie Trainingsdaten, Gewichtungen, modellinterne Leitplanken oder eine belastbare Roadmap. <\/p>\n\n\n\n<p>Aus Unternehmenssicht sind aber Nachvollziehbarkeit und Datengrundlage von fundamentaler Bedeutung, allein schon aus Haftungs- oder Compliance-Gr\u00fcnden. Auch aufgrund der hohen regulatorischen Anforderungen, die sich etwa aus der DSGVO oder dem AI Act der EU ergeben, ist eine vertrauensw\u00fcrdige KI vielfach unverzichtbar. Ein Open-Source-Ansatz ist daf\u00fcr die richtige Basis, denn er bietet Transparenz, Innovation und Sicherheit. Allerdings muss es echtes Open Source sein und zentrale Open-Source-Kriterien erf\u00fcllen \u2013 auch hinsichtlich der Trainingsdaten oder KI-Modelle \u2013 und nicht nur Open-Source-Washing.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Die richtige Plattform<\/h2>\n\n\n\n\n\n\n\n<p>F\u00fcr welchen Weg \u2013 Nutzung eines LLMs oder mehrerer kleinerer Modelle \u2013 sich ein Unternehmen auch entscheidet: Die genutzte Plattform ist dabei immer ein wichtiger Bestandteil der KI-Umgebung. Viele Unternehmen setzen nach wie vor auf eigene Infrastrukturen und On-premises-Server. Dieser Ansatz schr\u00e4nkt aber die Flexibilit\u00e4t ein, um innovative Technologien wie KI einzuf\u00fchren. Der Cloud-Markt hat sich allerdings inzwischen weiterentwickelt und bietet das Beste aus beiden Welten: die Hybrid Cloud. Sie erm\u00f6glicht es Unternehmen, weiterhin On-premises-Speicher f\u00fcr sensible Daten zu verwenden und gleichzeitig die Skalierbarkeitsvorteile der Public Cloud zu nutzen.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1200\" height=\"606\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-1200x606.jpg\" alt=\"\" class=\"wp-image-154410\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-1200x606.jpg 1200w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-400x202.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-768x388.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-100x51.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-480x242.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-640x323.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-720x364.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-960x485.jpg 960w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-1168x590.jpg 1168w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-1440x727.jpg 1440w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-scaled.jpg 1920w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-1536x776.jpg 1536w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-18x9.jpg 18w, https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/InstructLab_cmyk-600x303.jpg 600w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p><em>InstructLab ist ein Open-Source-Projekt zur Verbesserung von LLMs. Das von IBM und Red Hat ins Leben gerufene Community-Projekt erm\u00f6glicht ein vereinfachtes Experimentieren mit generativen KI-Modellen und eine optimierte Modellanpassung.<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hybrid Cloud f\u00fcr KI<\/h2>\n\n\n\n\n\n\n\n<p>Eine Hybrid-Cloud-Plattform ist damit auch eine ideale Infrastrukturbasis f\u00fcr die sichere KI-Umsetzung, und zwar von der KI-Modellentwicklung \u00fcber das KI-Modelltraining bis hin zur KI-Modelleinbindung in Anwendungen und zum Betrieb moderner MCP (Model Context Protocol) und A2A (Agent to Agent) Services. Die Hybrid Cloud bietet die dringend ben\u00f6tigte Flexibilit\u00e4t bei der Wahl der besten Umgebung f\u00fcr die jeweiligen KI-Workloads. F\u00fcr Unternehmen bestehen dabei zwei Nutzungsm\u00f6glichkeiten. Sie k\u00f6nnen ein KI-Modell in einer Public Cloud auf GPU-Farmen mit klarer Mandantentrennung auch unter Verwendung \u00f6ffentlich verf\u00fcgbarer Daten und synthetischer Testdaten entwickeln sowie trainieren und es anschlie\u00dfend in die On-premises-Anwendung einbetten. Schlie\u00dflich ist auch zu ber\u00fccksichtigen, dass der Aufbau einer kostenintensiven eigenen GPU-Infrastruktur f\u00fcr Unternehmen in der Regel nicht m\u00f6glich ist. Umgekehrt k\u00f6nnen sie aber auch die Modelle mit vertraulichen Daten im eigenen Rechenzentrum trainieren und danach in einer Public Cloud betreiben.<\/p>\n\n\n\n<p>Wichtiger Bestandteil einer f\u00fcr die KI-Nutzung konzipierten Plattform sind MLOps(Machine Learning Operations)-Funktionalit\u00e4ten. MLOps \u00e4hnelt dem etablierten Dev\u00adOps-Konzept, wobei der Schwerpunkt allerdings auf der Bereitstellung, Wartung und dem Retraining von maschinellen Lernmodellen liegt. MLOps tr\u00e4gt vor allem zu einer effektiven und optimierten Zusammenarbeit von Data-Science-, Softwareentwicklungs-Teams und Betriebsbereichen bei. So wird die Br\u00fccke geschlagen von der Entwicklung der ML-Modelle bis zum Einsatz in \u00adeiner Produktivumgebung. MLOps-\u00adPraktiken, die auf Vereinfachung, Automatisierung und Skalierung abzielen, tragen somit auch zu einer erheblichen Beschleunigung des Produktions-Roll-outs bei.<\/p>\n\n\n\n<p>Zur Reduzierung der betrieblichen Komplexit\u00e4t sollte eine Plattform auch fortschrittliche Tools f\u00fcr die Automatisierung von Deployments und eine Self-Service-Zugriffsm\u00f6glichkeit auf Modelle und Ressourcen bieten. So k\u00f6nnen Unternehmen ihre Umgebungen f\u00fcr das Training und die Bereitstellung von Modellen je nach Bedarf selbst verwalten und skalieren. Wichtig ist zudem, dass getestete und unterst\u00fctzte KI\/ML-Tools vorhanden sind.<\/p>\n\n\n\n<p>Nicht zuletzt stellt ein Platt\u00adform\u00adansatz auch sicher, dass Industriepartner, Kunden und die breite Open-Source-Community effektiv kooperieren k\u00f6nnen, um Open-\u00adSource-KI-Innovationen weiter voranzutreiben. Dabei besteht ein immenses Potenzial, diese offene Zusammenarbeit im Bereich der KI auszuweiten, gerade auch bei der transparenten Arbeit an Modellen und ihrem Training.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">KI-Produktiveinsatz<\/h2>\n\n\n\n\n\n\n\n<p>Die Welt der KI kann damit weiter ge\u00f6ffnet und demokratisiert werden. F\u00fcr KI-Nutzer ergibt sich durch die Offenheit der Plattform f\u00fcr ein Hardware- und Software-Partnernetzwerk ein zentraler Vorteil: Sie erhalten die Flexibilit\u00e4t, die sie f\u00fcr die Umsetzung ihrer speziellen Use Cases ben\u00f6tigen. Solche flexiblen und hybriden Plattformen f\u00fcr den KI-Produktiveinsatz sind inzwischen verf\u00fcgbar, wie das Beispiel Red Hat OpenShift AI zeigt. Damit kann ein Unternehmen einen Vendor-Lock-in ausschlie\u00dfen, mit neuen KI-Innovationen Schritt halten und alle m\u00f6glichen Anwendungsf\u00e4lle umsetzen. Sie unterst\u00fctzt das Modelltraining und Feintuning sowie die Bereitstellung und \u00dcberwachung s\u00e4mtlicher Modelle und KI-Anwendungen, und zwar in der Cloud, an der Edge und on-premises. Die Flexibilit\u00e4t und Kompatibilit\u00e4t werden durch einen modu\u00adlaren Aufbau und eine Plug-\u00adand-Play-Funktionalit\u00e4t mit Open-\u00adSource-Komponenten und ande\u00adren KI-L\u00f6sungen sichergestellt. Unternehmen k\u00f6nnen mit einem solchen L\u00f6sungsfundament die KI-\u00adEinf\u00fchrung sukzessive und einfach vorantreiben und somit auch die Kosten im Griff behalten.<\/p>\n\n\n\n<p>Viele Unternehmen befinden sich bei der KI-Einf\u00fchrung noch in einer Evaluierungs- beziehungsweise Proof-of-Concept-Phase. Auch wenn sich derzeit viel um gro\u00dfe Sprachmodelle und generative KI dreht, darf eines nicht vergessen werden: Die \u00dcberf\u00fchrung von KI im gro\u00dfen Ma\u00dfstab in die Produktiv\u00adumgebung ist zwar ein eher neues Thema, betrifft aber keineswegs nur LLMs, sondern beispielsweise auch pr\u00e4diktive oder analytische KI. Auch hier gibt es Herausforderungen, die letztlich nur mit einem Plattformansatz sinnvoll bew\u00e4ltigt werden k\u00f6nnen.<\/p>\n\n\n\n<p>Weiter zum Partnereintrag:<\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><a href=\"https:\/\/e3mag.com\/de\/partners\/redhat\/\" target=\"_blank\" rel=\" noreferrer noopener\"><img loading=\"lazy\" decoding=\"async\" width=\"800\" height=\"515\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK.jpg\" alt=\"\" class=\"wp-image-137426\" style=\"width:423px;height:auto\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK.jpg 800w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-400x258.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-768x494.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-100x64.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-480x309.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-640x412.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-720x464.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-18x12.jpg 18w, https:\/\/e3mag.com\/wp-content\/uploads\/2021\/03\/RedHat-Logo-B-Color-CMYK-600x386.jpg 600w\" sizes=\"auto, (max-width: 800px) 100vw, 800px\" \/><\/a><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>KI treibt die digitale Transformation voran, doch der Schritt vom Prototyp zur Produktion scheitert oft an fehlender hybrider Infrastruktur \u2013 notwendig f\u00fcr den durchg\u00e4ngigen Einsatz in Multi-Cloud-, On-prem- und Edge-Umgebungen.<\/p>\n","protected":false},"author":1906,"featured_media":154411,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"pmpro_default_level":"","footnotes":""},"categories":[5,44248],"tags":[42128],"coauthors":[36603],"class_list":["post-154405","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-it-management","category-manager-magazin-2025","tag-open-source-3","pmpro-has-access"],"acf":[],"featured_image_urls_v2":{"full":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"thumbnail":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-150x150.jpg",150,150,true],"medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-400x180.jpg",400,180,true],"medium_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-768x346.jpg",768,346,true],"large":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"image-100":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-100x45.jpg",100,45,true],"image-480":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-480x216.jpg",480,216,true],"image-640":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-640x288.jpg",640,288,true],"image-720":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-720x324.jpg",720,324,true],"image-960":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-960x432.jpg",960,432,true],"image-1168":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"image-1440":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"image-1920":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"1536x1536":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"2048x2048":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"trp-custom-language-flag":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-18x8.jpg",18,8,true],"bricks_large_16x9":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"bricks_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"bricks_large_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1.jpg",1000,450,false],"bricks_medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-600x270.jpg",600,270,true],"bricks_medium_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-600x450.jpg",600,450,true],"profile_24":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-24x24.jpg",24,24,true],"profile_48":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-48x48.jpg",48,48,true],"profile_96":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-96x96.jpg",96,96,true],"profile_150":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-150x150.jpg",150,150,true],"profile_300":["https:\/\/e3mag.com\/wp-content\/uploads\/2025\/08\/2508_koerner_red_hat-1-300x300.jpg",300,300,true]},"post_excerpt_stackable_v2":"<p>KI treibt die digitale Transformation voran, doch der Schritt vom Prototyp zur Produktion scheitert oft an fehlender hybrider Infrastruktur \u2013 notwendig f\u00fcr den durchg\u00e4ngigen Einsatz in Multi-Cloud-, On-prem- und Edge-Umgebungen.<\/p>\n","category_list_v2":"<a href=\"https:\/\/e3mag.com\/de\/category\/it-management\/\" rel=\"category tag\">IT-Management<\/a>, <a href=\"https:\/\/e3mag.com\/de\/category\/editionen\/manager-magazin-2025\/\" rel=\"category tag\">Manager Magazin 2025<\/a>","author_info_v2":{"name":"Peter K\u00f6rner, Red Hat","url":"https:\/\/e3mag.com\/de\/author\/peter-koerner-red-hat\/"},"comments_num_v2":"0 comments","_links":{"self":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/154405","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/users\/1906"}],"replies":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/comments?post=154405"}],"version-history":[{"count":10,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/154405\/revisions"}],"predecessor-version":[{"id":154829,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/154405\/revisions\/154829"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/media\/154411"}],"wp:attachment":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/media?parent=154405"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/categories?post=154405"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/tags?post=154405"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/coauthors?post=154405"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}