{"id":161582,"date":"2026-03-25T10:00:00","date_gmt":"2026-03-25T09:00:00","guid":{"rendered":"https:\/\/e3mag.com\/?p=161582"},"modified":"2026-03-13T16:25:18","modified_gmt":"2026-03-13T15:25:18","slug":"pequeno-pero-fino-ki","status":"publish","type":"post","link":"https:\/\/e3mag.com\/es\/pequeno-pero-fino-ki\/","title":{"rendered":"IA peque\u00f1a pero potente"},"content":{"rendered":"<p>La ventaja decisiva de SAP RPT-1 sobre los populares LLM de OpenAI o Anthropic radica en la forma fundamental en que se procesan los datos. Los modelos ling\u00fc\u00edsticos convencionales son brillantes ret\u00f3ricos, pero a menudo fracasan estrepitosamente en aritm\u00e9tica simple o en la interpretaci\u00f3n precisa de series de n\u00fameros. Cuando un LLM ve el n\u00famero \u201e1000\u201c, a menudo lo descompone en tokens individuales, como \u201e1\u201c, \u201e0\u201c, \u201e0\u201c y \u201e0\u201c, y lo trata como una secuencia de caracteres en lugar de como un valor matem\u00e1tico, lo que puede provocar notorias alucinaciones durante los c\u00e1lculos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">RPT-1 y valores relacionales<\/h2>\n\n\n\n<p>En cambio, RPT-1 reconoce \u201e1000\u201c como un \u00fanico valor relacional, lo que aumenta enormemente la precisi\u00f3n al analizar datos empresariales como los que se encuentran en las tablas MARA de SAP o en las bases de datos de ventas. All\u00ed donde un modelo basado en texto alucina o malinterpreta el contexto de una estructura de tabla compleja, RPT-1 act\u00faa como un \u201eGPT para tablas\u201c especializado que entiende de forma nativa la l\u00f3gica sem\u00e1ntica de filas y columnas sin tener que desviarse por el lenguaje. En el acalorado debate sobre la inteligencia artificial, que suele estar dominado por los todoterreno ling\u00fc\u00edsticamente adeptos de Silicon Valley como ChatGPT o Claude, SAP intenta recuperar terreno con una soluci\u00f3n t\u00e9cnica de nicho que responde a la cr\u00edptica abreviatura de RPT-1. Mientras el mundo contempla asombrado los grandes modelos ling\u00fc\u00edsticos (LLM) que escriben poes\u00eda y generan c\u00f3digo, SAP se centra en su verdadero ADN: las tablas de bases de datos mundanas pero cr\u00edticas para el negocio.<\/p>\n\n\n\n<p>RPT-1, acr\u00f3nimo de \u201eRelational Pre-trained Transformer\u201c, es un intento de transferir la tecnolog\u00eda Transformer que ciment\u00f3 el \u00e9xito de OpenAI y Anthropic del mundo no estructurado del lenguaje al mundo altamente estructurado de los datos empresariales relacionales. Se trata del primer \u201emodelo base\u201c real de SAP desarrollado espec\u00edficamente para tablas y no para texto, por lo que supone una alternativa estrat\u00e9gicamente necesaria a los modelos basados en lenguaje de la competencia estadounidense. Otra gran ventaja radica en su eficiencia y en la eliminaci\u00f3n de las largas fases de entrenamiento para tareas espec\u00edficas. En el mundo tradicional del aprendizaje autom\u00e1tico, las empresas ten\u00edan que entrenar y mantener un modelo espec\u00edfico para cada problema, ya fuera la predicci\u00f3n de la p\u00e9rdida de clientes, la detecci\u00f3n de fraudes o la planificaci\u00f3n de la demanda, lo que consum\u00eda enormes recursos de los equipos de ciencia de datos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Aprendizaje en contexto<\/h2>\n\n\n\n<p>El RPT-1 rompe con este paradigma mediante el llamado aprendizaje en contexto. El modelo no necesita memorizar los datos espec\u00edficos del cliente ni someterse a un largo entrenamiento; en su lugar, lee los datos durante el tiempo de inferencia, realiza la predicci\u00f3n y \u201eolvida\u201c los datos inmediatamente, de forma similar a un examen en el que el libro de texto se deja abierto sobre la mesa. Esto no s\u00f3lo reduce dr\u00e1sticamente la dificultad de uso, sino que tambi\u00e9n reduce significativamente el consumo de recursos en comparaci\u00f3n con los LLM hambrientos de tokens de los hiperescaladores, ya que no es necesario procesar enormes cantidades de texto.<br>Las posibles aplicaciones de este modelo apuntan justo al coraz\u00f3n de los procesos ERP. SAP est\u00e1 posicionando el RPT-1 para escenarios en los que la velocidad y la precisi\u00f3n son m\u00e1s importantes que la elocuencia. Una versi\u00f3n peque\u00f1a del modelo, la llamada Speedster, est\u00e1 optimizada para tiempos de latencia de milisegundos y est\u00e1 dise\u00f1ada para bloquear transacciones fraudulentas en tiempo real, por ejemplo. Las versiones m\u00e1s grandes del modelo abordan tareas complejas como la predicci\u00f3n de cuellos de botella en la cadena de suministro o riesgos de pago. Tareas que las canalizaciones de ML convencionales suelen tardar horas en calcular, mientras que RPT-1 ofrece resultados casi al instante. El modelo tambi\u00e9n ofrece nuevos enfoques a la gesti\u00f3n de operaciones de TI para la supervisi\u00f3n t\u00e9cnica del propio entorno SAP, por ejemplo, para predecir si los trabajos por lotes o las interfaces fallar\u00e1n a final de mes.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">RPT-1 y LLM<\/h2>\n\n\n\n<p>Bas\u00e1ndonos en las fuentes disponibles (https:\/\/community.sap.com\/), la diferencia t\u00e9cnica entre SAP RPT-1 (Relational Pre-trained Transformer) y los enfoques LLM de OpenAI (como GPT) puede determinarse fundamentalmente por el tipo de procesamiento de datos y la arquitectura, v\u00e9ase el recuadro. Mientras que los modelos de OpenAI son modelos ling\u00fc\u00edsticos para datos de texto no estructurados, RPT-1 es un modelo b\u00e1sico especializado para datos empresariales estructurados y tabulares.<\/p>\n\n\n\n<p>Sin embargo, a pesar de todas las sutilezas t\u00e9cnicas, es esencial una categorizaci\u00f3n cr\u00edtica. En la comunidad SAP, RPT-1 se ve a veces con escepticismo como parte de una \u201eteor\u00eda del caos de la IA\u201c. Los cr\u00edticos se\u00f1alan que RPT-1 es en realidad un LLM de \u201ev\u00eda estrecha\u201c que puede estar simplemente vendiendo vino viejo en botellas nuevas. Se sospecha que mecanismos como la \u201eBiblioteca de An\u00e1lisis Predictivo\u201c (PAL) de la base de datos Hana siguen utiliz\u00e1ndose bajo el cap\u00f3.<br>trabajo, complementado con t\u00e9rminos modernos de marketing para no perder el contacto con el bombo de la IA.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Tablas Abap \u201es\u00f3lo\u201c<\/h2>\n\n\n\n<p>Adem\u00e1s, por muy innovador que sea el enfoque de las tablas, RPT-1 est\u00e1 limitado en su gama de aplicaciones: Trabaja exclusivamente sobre tablas, no sobre texto o im\u00e1genes, y por tanto no es un sustituto, sino a lo sumo un complemento de los potentes modelos de OpenAI. Aunque SAP intenta recuperar la soberan\u00eda sobre la \u201esem\u00e1ntica empresarial\u201c con RPT-1, queda por ver si este enfoque especializado ser\u00e1 suficiente para hacer frente a la pura superioridad y velocidad de innovaci\u00f3n de los gigantes de la IA generativa, que cada vez aprenden a manejar mejor los datos estructurados. RPT-1 es, por tanto, la apuesta de SAP para que, en el entorno ERP, las cifras desnudas cuenten en \u00faltima instancia m\u00e1s que las buenas palabras. (pmf)<\/p>\n\n\n\n<p><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1000\" height=\"788\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web.jpg\" alt=\"\" class=\"wp-image-161586\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web.jpg 1000w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-400x315.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-768x605.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-100x79.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-480x378.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-640x504.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-720x567.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-960x756.jpg 960w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-15x12.jpg 15w, https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/amitlalmicrosoft_2-1770787318215_rot_web-600x473.jpg 600w\" sizes=\"auto, (max-width: 1000px) 100vw, 1000px\" \/><figcaption class=\"wp-element-caption\">Dado que SAP RPT-1 est\u00e1 optimizado para \u201eentender\u201c las tablas Abap, los requisitos y la arquitectura de la IA no son realmente comparables con los LLM cl\u00e1sicos. (Fuente: SAP)<\/figcaption><\/figure>\n\n\n\n<div class=\"wp-block-stackable-divider stk-block-divider stk-block stk-6d27cfe\" data-block-id=\"6d27cfe\"><style>.stk-6d27cfe hr.stk-block-divider__hr{width:100% !important;}<\/style><hr class=\"stk-block-divider__hr\"\/><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">SAP RPT-1 frente a ChatGPT<\/h2>\n\n\n\n<p>Modalidad de los datos: tabla frente a texto. Con OpenAI (LLM), los modelos se entrenan para comprender y generar lenguaje natural. Trabajan con texto no estructurado. SAP RPT-1 se desarroll\u00f3 espec\u00edficamente para datos tabulares. Funciona como un \u201eGPT para tablas\u201c. Entiende la estructura de filas y columnas (como en las tablas SAP MARA o los datos de ventas) de forma nativa en lugar de interpretarlas como texto.<\/p>\n\n\n\n<p>Tokenizaci\u00f3n y comprensi\u00f3n num\u00e9rica (el problema de los \u201e1000\u201c): Una diferencia t\u00e9cnica reside en el tratamiento de los valores num\u00e9ricos. Cuando OpenAI (LLM) ve el n\u00famero \u201e1000\u201c, a menudo lo tokeniza y descompone en caracteres separados. El modelo intenta entonces realizar c\u00e1lculos matem\u00e1ticos bas\u00e1ndose en estos caracteres de texto, lo que a menudo provoca alucinaciones o errores de c\u00e1lculo. RPT-1 reconoce \u201e1000\u201c como un \u00fanico valor relacional. Entiende el significado matem\u00e1tico y el contexto del n\u00famero dentro de la estructura de la tabla, lo que permite realizar predicciones m\u00e1s precisas de los datos empresariales.<\/p>\n\n\n\n<p>M\u00e9todos de aprendizaje: Aprendizaje en contexto frente a ajuste fino. Para resolver tareas empresariales espec\u00edficas, los LLM de OpenAI a menudo deben ajustarse con nuevos datos o requieren complejas arquitecturas RAG (Retrieval Augmented Generation) para obtener el contexto. SAP RPT-1 utiliza el aprendizaje en contexto. No es necesario utilizar el modelo para cada tarea.<br>(por ejemplo, predicci\u00f3n de bajas o detecci\u00f3n de fraudes). Lee los datos en tiempo de ejecuci\u00f3n (tiempo de inferencia), realiza la predicci\u00f3n y luego vuelve a \u201eolvidarse\u201c de los datos.<\/p>\n\n\n\n<p>Recursos y eficiencia: OpenAI (LLM) consume muchos recursos, consume muchos tokens y requiere una enorme potencia de c\u00e1lculo (GPU) para procesar el contexto. SAP RPT-1 est\u00e1 optimizado para la estructura tabular, por lo que consume muchos menos recursos (tokens) y realiza menos operaciones computacionales (FLOPs). Es m\u00e1s eficiente para tareas como rellenar los valores que faltan en una base de datos o predecir series temporales.<\/p>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>RPT-1 es el intento t\u00e9cnico de SAP de transferir la tecnolog\u00eda Transformer del procesamiento del lenguaje a la competencia central de SAP: los datos empresariales relacionales,<br \/>\npara eliminar los puntos d\u00e9biles de los LLM convencionales.<\/p>","protected":false},"author":2368,"featured_media":161583,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"pmpro_default_level":"","footnotes":""},"categories":[44382,2],"tags":[624],"coauthors":[39720],"class_list":["post-161582","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-mag-26-03","category-sap-nachrichten","tag-ki-joule","pmpro-has-access"],"acf":[],"featured_image_urls_v2":{"full":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"thumbnail":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-150x150.jpg",150,150,true],"medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-400x180.jpg",400,180,true],"medium_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-768x346.jpg",768,346,true],"large":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"image-100":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-100x45.jpg",100,45,true],"image-480":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-480x216.jpg",480,216,true],"image-640":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-640x288.jpg",640,288,true],"image-720":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-720x324.jpg",720,324,true],"image-960":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-960x432.jpg",960,432,true],"image-1168":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"image-1440":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"image-1920":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"1536x1536":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"2048x2048":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"trp-custom-language-flag":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-18x8.jpg",18,8,true],"bricks_large_16x9":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"bricks_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"bricks_large_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3.jpg",1000,450,false],"bricks_medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-600x270.jpg",600,270,true],"bricks_medium_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-600x450.jpg",600,450,true],"profile_24":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-24x24.jpg",24,24,true],"profile_48":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-48x48.jpg",48,48,true],"profile_96":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-96x96.jpg",96,96,true],"profile_150":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-150x150.jpg",150,150,true],"profile_300":["https:\/\/e3mag.com\/wp-content\/uploads\/2026\/03\/2603_sz_e3-300x300.jpg",300,300,true]},"post_excerpt_stackable_v2":"<p>RPT-1 ist der technische Versuch von SAP, die Transformer-Technologie von der Sprachverarbeitung auf die Kernkompetenz der SAP \u2013 die relationalen Gesch\u00e4ftsdaten \u2013 zu \u00fcbertragen,<br \/>\num die Schw\u00e4chen herk\u00f6mmlicher LLMs zu eliminieren.<\/p>\n","category_list_v2":"<a href=\"https:\/\/e3mag.com\/es\/categoria\/mag-26-03\/\" rel=\"category tag\">MAG 26-03<\/a>, <a href=\"https:\/\/e3mag.com\/es\/categoria\/noticias-sap\/\" rel=\"category tag\">Community Nachrichten<\/a>","author_info_v2":{"name":"E3 Magazine","url":"https:\/\/e3mag.com\/es\/author\/e3_magazin\/"},"comments_num_v2":"0 comentarios","_links":{"self":[{"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/posts\/161582","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/users\/2368"}],"replies":[{"embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/comments?post=161582"}],"version-history":[{"count":2,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/posts\/161582\/revisions"}],"predecessor-version":[{"id":161861,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/posts\/161582\/revisions\/161861"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/media\/161583"}],"wp:attachment":[{"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/media?parent=161582"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/categories?post=161582"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/tags?post=161582"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/coauthors?post=161582"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}