{"id":161582,"date":"2026-03-25T10:00:00","date_gmt":"2026-03-25T09:00:00","guid":{"rendered":"https:\/\/e3mag.com\/?p=161582"},"modified":"2026-03-13T16:25:18","modified_gmt":"2026-03-13T15:25:18","slug":"kleine-aber-feine-ki","status":"publish","type":"post","link":"https:\/\/e3mag.com\/de\/kleine-aber-feine-ki\/","title":{"rendered":"Kleine, aber feine KI"},"content":{"rendered":"\n<p>Der entscheidende Vorteil von SAP RPT-1 gegen\u00fcber den popul\u00e4ren LLMs von OpenAI oder Anthropic liegt in der fundamentalen Art und Weise, wie Daten verarbeitet werden. Herk\u00f6mmliche Sprachmodelle sind brillante Rhetoriker, scheitern aber oft kl\u00e4glich an der simplen Arithmetik oder der pr\u00e4zisen Interpretation von Zahlenreihen. Wenn ein LLM die Zahl \u201e1000\u201c sieht, wird diese oft in einzelne Token zerlegt, etwa in \u201e1\u201c, \u201e0\u201c, \u201e0\u201c und \u201e0\u201c, und als Folge von Zeichen statt als mathematischer Wert behandelt, was bei Berechnungen zu den ber\u00fcchtigten Halluzinationen f\u00fchren kann.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">RPT-1 und relationale Werte<\/h2>\n\n\n\n<p>RPT-1 hingegen erkennt \u201e1000\u201c als einen einzigen relationalen Wert, was die Pr\u00e4zision bei der Analyse von Gesch\u00e4ftsdaten, wie sie in den SAP-Tabellen MARA oder in Verkaufsdatenbanken zu finden sind, massiv erh\u00f6ht. Wo ein textbasiertes Modell halluziniert oder den Kontext einer komplexen Tabellenstruktur missversteht, agiert RPT-1 wie ein spezialisierter \u201eGPT f\u00fcr Tabellen\u201c, der die semantische Logik von Zeilen und Spalten nativ versteht, ohne den Umweg \u00fcber die Sprache gehen zu m\u00fcssen. In der hitzigen Debatte um k\u00fcnstliche Intelligenz, die meist von den sprachgewandten Allesk\u00f6nnern aus dem Silicon Valley wie ChatGPT oder Claude dominiert wird, versucht SAP mit einer technischen Nischenl\u00f6sung Boden gutzumachen, die unter dem kryptischen K\u00fcrzel RPT-1 firmiert. W\u00e4hrend die Welt staunend auf Large Language Models (LLMs) blickt, die Gedichte schreiben und Code generieren, besinnt sich SAP auf seine eigentliche DNA: die profanen, aber gesch\u00e4ftskritischen Datenbanktabellen.<\/p><div class=\"great-fullsize-content-de\" style=\"float: left;\" id=\"great-1249464108\"><div id=\"great-3630831271\" style=\"margin-bottom: 20px;\"><a data-no-instant=\"1\" href=\"https:\/\/www.youtube.com\/watch?v=6yfv7eho3Gc\" rel=\"noopener\" class=\"a2t-link\" target=\"_blank\" aria-label=\"banner_26-04_29_1200x150\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150.jpg\" alt=\"\"  srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150.jpg 1200w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-400x50.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-768x96.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-100x13.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-480x60.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-640x80.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-720x90.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-960x120.jpg 960w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-1168x146.jpg 1168w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-18x2.jpg 18w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/banner_26-04_29_1200x150-600x75.jpg 600w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" width=\"1200\" height=\"150\"  style=\" max-width: 100%; height: auto;\" \/><\/a><\/div><\/div>\n\n\n\n<p>RPT-1, was f\u00fcr \u201eRelational Pre-trained Transformer\u201c steht, ist der Versuch, die Transformer-Technologie, die den Erfolg von OpenAI und Anthropic begr\u00fcndete, von der unstrukturierten Welt der Sprache in die hochstrukturierte Welt der relationalen Unternehmensdaten zu \u00fcbertragen. Es ist SAPs erstes wirkliches \u201eFoundation Model\u201c, das speziell f\u00fcr Tabellen und nicht f\u00fcr Text entwickelt wurde, und markiert damit einen strategisch notwendigen Gegenentwurf zu den sprachbasierten Modellen der US-Konkurrenz. Ein weiterer gravierender Vorteil liegt in der Effizienz und dem Wegfall aufwendiger Trainingsphasen f\u00fcr spezifische Aufgaben. In der traditionellen Welt des maschinellen Lernens (ML) mussten Unternehmen f\u00fcr jedes Problem \u2013 sei es die Vorhersage von Kundenabwanderung (Churn), Betrugserkennung oder Bedarfsplanung \u2013 ein eigenes, dediziertes Modell trainieren und pflegen, was enorme Ressourcen bei den Data-Science-Teams band.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">In-Context Learning<\/h2>\n\n\n\n<p>RPT-1 bricht mit diesem Paradigma durch das sogenannte In-Context Learning. Das Modell muss die kundenspezifischen Daten nicht auswendig lernen oder langwierig trainiert werden; stattdessen liest es die Daten w\u00e4hrend der Inferenzzeit, trifft die Vorhersage und \u201evergisst\u201c die Daten sofort wieder, \u00e4hnlich einer Pr\u00fcfung, bei der das Lehrbuch offen auf dem Tisch liegen darf. Dies senkt nicht nur die H\u00fcrde f\u00fcr den Einsatz drastisch, sondern reduziert auch den Ressourcenverbrauch im Vergleich zu den Token-hungrigen LLMs der Hyperscaler signifikant, da keine riesigen Textmengen prozessiert werden m\u00fcssen.<br>Die Einsatzm\u00f6glichkeiten dieses Modells zielen genau in das Herz der ERP-Prozesse. SAP positioniert RPT-1 f\u00fcr Szenarien, in denen Geschwindigkeit und Pr\u00e4zision wichtiger sind als Eloquenz. Eine kleine Version des Modells, der sogenannte Speedster, ist auf millisekundenschnelle Latenzzeiten optimiert und soll beispielsweise betr\u00fcgerische Transaktionen in Echtzeit blockieren k\u00f6nnen. Gr\u00f6\u00dfere Varianten des Modells adressieren komplexe Aufgaben wie die Vorhersage von Lieferkettenengp\u00e4ssen oder Zahlungsrisiken. Aufgaben, an denen herk\u00f6mmliche ML-Pipe\u00adlines oft Stunden rechnen, w\u00e4hrend RPT-1 Ergebnisse fast augenblicklich liefert. Auch f\u00fcr die technische \u00dcberwachung der SAP-Landschaft selbst \u2013 etwa zur Vorhersage, ob Batch-Jobs oder Schnittstellen am Monatsende scheitern werden \u2013 bietet das Modell neue Ans\u00e4tze f\u00fcr das IT-Betriebsmanagement.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">RPT-1 und LLMs<\/h2>\n\n\n\n<p>Basierend auf den vorliegenden Quellen (https:\/\/community.sap.com\/) l\u00e4sst sich der technische Unterschied zwischen SAP RPT-1 (Relational Pre-trained Transformer) und den LLM-Ans\u00e4tzen von OpenAI (wie GPT) fundamental an der Art der Datenverarbeitung und der Architektur festmachen, siehe Kasten. W\u00e4hrend OpenAI-Modelle Sprachmodelle f\u00fcr unstrukturierte Textdaten sind, ist RPT-1 ein spezialisiertes Foundation Model f\u00fcr strukturierte, tabellarische Gesch\u00e4ftsdaten.<\/p>\n\n\n\n<p>Doch bei aller technischen Finesse darf eine kritische Einordnung nicht fehlen. In der SAP-Community wird RPT-1 teils skeptisch als Teil einer \u201eKI-Chaos\u00adtheo\u00adrie\u201c betrachtet. Kritiker merken an, dass es sich bei RPT-1 faktisch um ein \u201eschmalspuriges\u201c LLM handelt, das m\u00f6glicherweise lediglich alten Wein in neuen Schl\u00e4uchen verkauft. Es besteht der Verdacht, dass unter der Haube weiterhin Mechanismen wie die \u201ePredictive Analysis Library\u201c (PAL) der Hana-Datenbank<br>arbeiten, erg\u00e4nzt um moderne Marketingbegriffe, um den Anschluss an den KI-Hype nicht zu verlieren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Abap-Tabellen \u201eonly\u201c<\/h2>\n\n\n\n<p>Zudem ist RPT-1, so innovativ der Ansatz f\u00fcr Tabellen auch sein mag, in seiner Anwendungsbreite limitiert: Es arbeitet ausschlie\u00dflich auf Tabellen, nicht auf Text oder Bildern, und ist damit kein Ersatz, sondern h\u00f6chstens eine Erg\u00e4nzung zu den m\u00e4chtigen Modellen von OpenAI. W\u00e4hrend SAP versucht, mit RPT-1 die Hoheit \u00fcber die \u201eBusiness-Semantik\u201c zur\u00fcckzugewinnen, bleibt abzuwarten, ob dieser spezialisierte Ansatz ausreicht, um gegen die schiere \u00dcbermacht und Innovationsgeschwindigkeit der Generativen-KI-Giganten zu bestehen, die zunehmend lernen, auch mit strukturierten Daten besser umzugehen. RPT-1 ist somit SAPs Wette darauf, dass im ERP-Umfeld am Ende die nackten Zahlen mehr z\u00e4hlen als sch\u00f6ne Worte. (pmf)<\/p>\n\n\n\n<p><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1000\" height=\"788\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web.jpg\" alt=\"\" class=\"wp-image-161586\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web.jpg 1000w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-400x315.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-768x605.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-100x79.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-480x378.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-640x504.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-720x567.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-960x756.jpg 960w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-15x12.jpg 15w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-600x473.jpg 600w\" sizes=\"auto, (max-width: 1000px) 100vw, 1000px\" \/><figcaption class=\"wp-element-caption\">Weil SAP RPT-1 auf das \u201eVerstehen\u201c von Abap-Tabellen optimiert ist, sind die Anforderungen und die KI-Architektur mit klassischen LLMs nicht wirklich vergleichbar. (Quelle: SAP)<\/figcaption><\/figure>\n\n\n\n<div class=\"wp-block-stackable-divider stk-block-divider stk-block stk-6d27cfe\" data-block-id=\"6d27cfe\"><style>.stk-6d27cfe hr.stk-block-divider__hr{width:100% !important;}<\/style><hr class=\"stk-block-divider__hr\"\/><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">SAP RPT-1 versus ChatGPT<\/h2>\n\n\n\n<p>Datenmodalit\u00e4t: Tabelle vs. Text. Bei OpenAI (LLM) sind die Modelle darauf trainiert, nat\u00fcrliche Sprache zu verstehen und zu generieren. Sie arbeiten mit unstrukturiertem Text. SAP RPT-1 wurde speziell f\u00fcr tabellarische Daten entwickelt. Es fungiert als \u201eGPT f\u00fcr Tabellen\u201c. Es versteht die Struktur von Zeilen und Spalten (wie in SAP-Tabellen MARA oder Sales-Daten) nativ, anstatt sie als Text zu interpretieren.<\/p>\n\n\n\n<p>Tokenisierung und Zahlenverst\u00e4ndnis (das \u201e1000\u201c-Problem): Ein technischer Unterschied liegt in der Behandlung von numerischen Werten. Wenn OpenAI (LLM) die Zahl \u201e1000\u201c sieht, wird diese oft tokenisiert und in separate Zeichen zerlegt. Das Modell versucht dann, Mathematik auf Basis dieser Textzeichen durchzuf\u00fchren, was h\u00e4ufig zu Halluzinationen oder Rechenfehlern f\u00fchrt. RPT-1 erkennt \u201e1000\u201c als einen einzelnen relationalen Wert. Es versteht die mathematische Bedeutung und den Kontext der Zahl innerhalb der Tabellenstruktur, was pr\u00e4zisere Vorhersagen bei Gesch\u00e4ftsdaten erm\u00f6glicht.<\/p>\n\n\n\n<p>Lernverfahren: In-Context Learning vs. Fine-Tuning. Um spezifische Unternehmensaufgaben zu l\u00f6sen, m\u00fcssen LLMs von OpenAI oft aufwendig mit neuen Daten feinjustiert (Fine-Tuning) werden oder ben\u00f6tigen komplexe RAG-Architekturen (Retrieval-Augmented Generation), um Kontext zu erhalten. SAP RPT-1 nutzt In-Context Learning. Das Modell muss nicht f\u00fcr jede Aufgabe<br>(z. B. Churn-Prediction oder Betrugserkennung) neu trainiert werden. Es liest die Daten zur Laufzeit (Infe\u00adrence Time), trifft die Vorhersage und \u201evergisst\u201c die Daten danach wieder.<\/p>\n\n\n\n<p>Ressourcen und Effizienz: OpenAI (LLM) ist ressourcenhungrig, verbraucht viele Token und ben\u00f6tigt massive Rechenleistung (GPUs) f\u00fcr die Verarbeitung von Kontext. SAP RPT-1 ist auf die tabellarische Struktur optimiert, somit verbraucht es signifikant weniger Ressourcen (Token) und f\u00fchrt weniger Rechenoperationen (FLOPs) aus. Es ist effizienter f\u00fcr Aufgaben wie das F\u00fcllen fehlender Werte in einer Datenbank oder die Vorhersage von Zeitreihen.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>RPT-1 ist der technische Versuch von SAP, die Transformer-Technologie von der Sprachverarbeitung auf die Kernkompetenz der SAP \u2013 die relationalen Gesch\u00e4ftsdaten \u2013 zu \u00fcbertragen,<br \/>\num die Schw\u00e4chen herk\u00f6mmlicher LLMs zu eliminieren.<\/p>\n","protected":false},"author":2368,"featured_media":161583,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"pmpro_default_level":"","footnotes":""},"categories":[44382,2],"tags":[624],"coauthors":[39720],"class_list":["post-161582","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-mag-26-03","category-sap-nachrichten","tag-ki-joule","pmpro-has-access"],"acf":[],"featured_image_urls_v2":{"full":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"thumbnail":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-150x150.jpg",150,150,true],"medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-400x180.jpg",400,180,true],"medium_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-768x346.jpg",768,346,true],"large":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"image-100":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-100x45.jpg",100,45,true],"image-480":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-480x216.jpg",480,216,true],"image-640":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-640x288.jpg",640,288,true],"image-720":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-720x324.jpg",720,324,true],"image-960":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-960x432.jpg",960,432,true],"image-1168":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"image-1440":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"image-1920":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"1536x1536":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"2048x2048":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"trp-custom-language-flag":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-18x8.jpg",18,8,true],"bricks_large_16x9":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"bricks_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"bricks_large_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"bricks_medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-600x270.jpg",600,270,true],"bricks_medium_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-600x450.jpg",600,450,true],"profile_24":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-24x24.jpg",24,24,true],"profile_48":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-48x48.jpg",48,48,true],"profile_96":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-96x96.jpg",96,96,true],"profile_150":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-150x150.jpg",150,150,true],"profile_300":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-300x300.jpg",300,300,true]},"post_excerpt_stackable_v2":"<p>RPT-1 ist der technische Versuch von SAP, die Transformer-Technologie von der Sprachverarbeitung auf die Kernkompetenz der SAP \u2013 die relationalen Gesch\u00e4ftsdaten \u2013 zu \u00fcbertragen,<br \/>\num die Schw\u00e4chen herk\u00f6mmlicher LLMs zu eliminieren.<\/p>\n","category_list_v2":"<a href=\"https:\/\/e3mag.com\/de\/category\/mag-26-03\/\" rel=\"category tag\">MAG 26-03<\/a>, <a href=\"https:\/\/e3mag.com\/de\/category\/sap-nachrichten\/\" rel=\"category tag\">Community Nachrichten<\/a>","author_info_v2":{"name":"E3-Magazin","url":"https:\/\/e3mag.com\/de\/author\/e3_magazin\/"},"comments_num_v2":"0 comments","_links":{"self":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/161582","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/users\/2368"}],"replies":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/comments?post=161582"}],"version-history":[{"count":2,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/161582\/revisions"}],"predecessor-version":[{"id":161861,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/posts\/161582\/revisions\/161861"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/media\/161583"}],"wp:attachment":[{"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/media?parent=161582"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/categories?post=161582"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/tags?post=161582"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/e3mag.com\/de\/wp-json\/wp\/v2\/coauthors?post=161582"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}