{"id":134303,"date":"2023-11-09T08:00:00","date_gmt":"2023-11-09T07:00:00","guid":{"rendered":"http:\/\/e3mag.com\/?p=134303"},"modified":"2023-11-15T09:03:29","modified_gmt":"2023-11-15T08:03:29","slug":"ki-transparencia-no-es-un-problema-para-ml-y-el-fenomeno-de-la-caja-negra","status":"publish","type":"post","link":"https:\/\/e3mag.com\/es\/ki-transparencia-no-es-un-problema-para-ml-y-el-fenomeno-de-la-caja-negra\/","title":{"rendered":"La transparencia de la IA no es un problema para el ML y el fen\u00f3meno de la caja negra"},"content":{"rendered":"<p>En este art\u00edculo, utilizar\u00e9 cinco ejemplos concretos para argumentar por qu\u00e9 esta afirmaci\u00f3n rara vez es cierta sin matices. Hay casos en los que es incluso inevitable o a veces no tan malo que los modelos de predicci\u00f3n creados con aprendizaje autom\u00e1tico (ML) sean una caja negra.<\/p>\n\n\n\n<p>Hablamos de caja negra cuando no entendemos la l\u00f3gica de un modelo. Utilizando el ejemplo de un modelo predictivo (an\u00e1lisis predictivo), esto significa que el resultado del aprendizaje autom\u00e1tico no puede entenderse f\u00e1cilmente a partir de datos de entrada espec\u00edficos. A diferencia de los an\u00e1lisis estad\u00edsticos cl\u00e1sicos, las reglas matem\u00e1ticas de un modelo algor\u00edtmico complejo no pueden describirse con un pu\u00f1ado de par\u00e1metros (lineales).<\/p>\n\n\n\n<p>De hecho, en mi opini\u00f3n, la transparencia y la explicabilidad s\u00f3lo son esenciales en las aplicaciones de alto riesgo de la inteligencia artificial (IA). Sin embargo, aqu\u00ed no estamos indefensos ante el problema de la caja negra. La investigaci\u00f3n ha desarrollado numerosos m\u00e9todos relacionados con la Inteligencia Artificial Explicable (XAI). SAP, por ejemplo, incorpora continuamente estas nuevas opciones a sus tecnolog\u00edas para facilitar la comprensi\u00f3n de la l\u00f3gica de los modelos creados.<\/p>\n\n\n\n<p><strong>Argumento 1:<\/strong> La falta de transparencia tambi\u00e9n tiene ventajas. Hay casos de uso del aprendizaje autom\u00e1tico en los que la falta de trazabilidad se convierte en un verdadero punto fuerte. Imaginemos que un actor interno o externo quiere manipular deliberadamente un sistema de toma de decisiones (parcialmente) automatizado basado en ML. Sin embargo, al no saber qu\u00e9 datos de entrada conducen a qu\u00e9 salida en el modelo, este empe\u00f1o se hace mucho m\u00e1s dif\u00edcil. Los cient\u00edficos llaman a este aspecto \"jugabilidad\" (Langer y K\u00f6nig 2021).<\/p>\n\n\n\n<p>Los cient\u00edficos tambi\u00e9n identificaron otras ventajas, en funci\u00f3n de la aplicaci\u00f3n, cuando evaluaron procesos de toma de decisiones asistidos por algoritmos. El resultado: con modelos no transparentes, \u00a1conducen a una mayor eficiencia! La raz\u00f3n es tan plausible como sencilla. Las m\u00e1quinas no pueden distraerse con detalles innecesarios y una avalancha de informaci\u00f3n. Adem\u00e1s, la intransparencia contribuye a la protecci\u00f3n de datos si se incluyen datos personales en el proceso de formaci\u00f3n.<\/p>\n\n\n\n<p><strong>Argumento 2:<\/strong> el compromiso entre rendimiento y transparencia. Con cualquier demanda de transparencia, debe tenerse en cuenta que la transparencia se produce a expensas de la precisi\u00f3n del modelo. El aprendizaje autom\u00e1tico est\u00e1 dise\u00f1ado para descubrir patrones detallados y no lineales en los datos y ponerlos a disposici\u00f3n de los modelos (Kellogg et al. 2020, pp. 370-371). Para aumentar la transparencia, esta complejidad podr\u00eda reducirse gradualmente o podr\u00edan utilizarse algoritmos menos complejos. Sin embargo, ambas medidas reducen posteriormente la precisi\u00f3n de los resultados de las previsiones. Por tanto, la fuerza del aprendizaje autom\u00e1tico queda anulada. Un aspecto importante que conduce directamente al tercer argumento.<\/p>\n\n\n\n<p><strong>Argumento 3:<\/strong> La falta de transparencia es una caracter\u00edstica clave del aprendizaje autom\u00e1tico. Mientras que las estad\u00edsticas tradicionales est\u00e1n dise\u00f1adas para comprender los datos, el aprendizaje autom\u00e1tico intenta utilizar los datos existentes, por ejemplo, para crear las previsiones m\u00e1s precisas posibles basadas en datos hist\u00f3ricos. Si el reconocimiento de patrones en los datos es el objetivo principal del proyecto (miner\u00eda de datos), entonces el aprendizaje autom\u00e1tico podr\u00eda ser simplemente la herramienta equivocada (Rudin 2019). En un proyecto, las estad\u00edsticas o el an\u00e1lisis descriptivo de datos al estilo de un cuadro de mando (slice and dice, drill-down) pueden combinarse con el aprendizaje autom\u00e1tico. Cada herramienta cumple entonces su prop\u00f3sito principal y se crean sinergias. Cada artesano utiliza toda una caja de herramientas. Para completar la met\u00e1fora: El aprendizaje autom\u00e1tico es una herramienta universal muy buena, comparable a un destornillador inal\u00e1mbrico. Pero eso no significa que pueda utilizarse para serrar tableros.<\/p>\n\n\n\n<p><strong>Argumento 4:<\/strong> Mientras funcione... Perm\u00edtame empezar con un breve experimento. \u00bfPreferir\u00eda usted volar en un avi\u00f3n que ha inspeccionado a fondo t\u00e9cnicamente y diseccionado hasta el \u00faltimo tornillo, o en uno que ha superado con \u00e9xito todas las normas de ensayo prescritas y los vuelos de prueba? Seguramente casi todo el mundo carece de los conocimientos de ingenier\u00eda o, al menos, de la paciencia para la primera opci\u00f3n. Por eso nos decantamos por la segunda opci\u00f3n. Esta analog\u00eda procede de Cassie Kozyrkov, famosa por su trabajo como Chief Decision Scientist en Google.<\/p>\n\n\n\n<p>Cassie Kozyrkov tambi\u00e9n se\u00f1ala que en el aprendizaje autom\u00e1tico tambi\u00e9n se realiza un ensayo fuera de muestra. Esta llamada prueba fuera de muestra es b\u00e1sicamente un examen: los conjuntos de datos (tareas) son diferentes de los proporcionados para el entrenamiento (deberes). En la pr\u00e1ctica, a menudo merece la pena llevar a cabo estas pruebas fuera de muestra de forma detallada y minuciosa en lugar de perseguir un nivel deseado de transparencia. Este argumento tiene ciertamente mucho peso, pero exige replantearse la forma en que se basan los procesos de toma de decisiones operativas. Por eso tarda en calar en la mente de los usuarios. Los cient\u00edficos de datos se enfrentan aqu\u00ed al reto de explicar las implicaciones de sus estrategias y resultados de las pruebas en t\u00e9rminos f\u00e1ciles de entender.<\/p>\n\n\n\n<p><strong>Argumento 5:<\/strong> La investigaci\u00f3n y la tecnolog\u00eda no se detienen - Explainable AI. Por \u00faltimo, me gustar\u00eda se\u00f1alar el importante hecho de que no siempre se puede prescindir de la transparencia en el aprendizaje autom\u00e1tico. La transparencia es absolutamente esencial en aplicaciones de alto riesgo que tienen un impacto directo en la vida inmediata de las personas. Esto incluye el apoyo a la toma de decisiones a trav\u00e9s del aprendizaje autom\u00e1tico en \u00e1reas sensibles que pueden cerrar puertas. Esto se aplica a los pr\u00e9stamos, la contrataci\u00f3n y los recursos humanos, entre otros. En estos \u00e1mbitos, garantizar la equidad y la igualdad de trato es una prioridad absoluta y no puede lograrse sin transparencia y sin que los modelos sean explicables. Afortunadamente, el progreso tecnol\u00f3gico no se detiene aqu\u00ed. SAP, por ejemplo, lleva varios a\u00f1os incorporando continuamente la IA explicable a sus productos de an\u00e1lisis predictivo. En tecnolog\u00edas como SAP Analytics Cloud o Hana Predictive Analytics Library, los modelos complejos de aprendizaje autom\u00e1tico a\u00fan pueden hacerse m\u00e1s transparentes hasta cierto punto. Los m\u00e9todos extraen informaci\u00f3n como el efecto de los factores de influencia individuales en los resultados de los modelos o aproximan los modelos con sistemas de reglas comprensibles basados en preguntas fundamentales: \u00bfY si...? Y, sobre todo, \u00bfqu\u00e9 pasa si cambia el factor de influencia X?<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusi\u00f3n: IA explicable<\/h2>\n\n\n\n<p><br>No siempre tiene sentido utilizar el aprendizaje autom\u00e1tico s\u00f3lo porque encaje bien en el bombo de la IA que rodea a ChatGPT. Si el objetivo es la extracci\u00f3n de conocimientos, quiz\u00e1 deber\u00eda utilizarse una herramienta diferente al principio del proyecto. Sin embargo, una vez que se ha encontrado un caso de uso adecuado para el aprendizaje autom\u00e1tico, las pruebas exhaustivas son el factor decisivo para la validaci\u00f3n. La transparencia tambi\u00e9n puede crearse para modelos complejos si es necesario, pero entonces hay que invertir en conocimientos adicionales y en el uso de m\u00e9todos de IA explicables. Mi opini\u00f3n final con respecto al t\u00edtulo de este art\u00edculo: El fen\u00f3meno de la caja negra para el aprendizaje autom\u00e1tico s\u00f3lo deber\u00eda ser un obst\u00e1culo para los proyectos innovadores de ML en casos cr\u00edticos excepcionales.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><a href=\"https:\/\/e3mag.com\/de\/partners\/windhoff-group\/\" target=\"_blank\" rel=\"noreferrer noopener\"><img loading=\"lazy\" decoding=\"async\" width=\"1000\" height=\"112\" src=\"https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu.jpg\" alt=\"\" class=\"wp-image-121800\" srcset=\"https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu.jpg 1000w, https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu-400x45.jpg 400w, https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu-768x86.jpg 768w, https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu-100x11.jpg 100w, https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu-480x54.jpg 480w, https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu-640x72.jpg 640w, https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu-720x81.jpg 720w, https:\/\/e3mag.com\/wp-content\/uploads\/2023\/02\/ci-banner-windhoff-neu-960x108.jpg 960w\" sizes=\"auto, (max-width: 1000px) 100vw, 1000px\" \/><\/a><\/figure>","protected":false},"excerpt":{"rendered":"<p>El aprendizaje autom\u00e1tico solo me proporciona una caja negra, no podemos hacer nada con ella.<br \/>\nEsta frase, que encuentro a menudo en la pr\u00e1ctica, suele venir de futuros usuarios de un proyecto de IA menos formados en el an\u00e1lisis de datos. Pero, \u00bfes cierta esta afirmaci\u00f3n?<\/p>","protected":false},"author":2368,"featured_media":134306,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"pmpro_default_level":"","footnotes":""},"categories":[2,43645],"tags":[625,43669],"coauthors":[40405],"class_list":["post-134303","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sap-nachrichten","category-mag-23-11","tag-ai","tag-blackbox","pmpro-has-access"],"acf":[],"featured_image_urls_v2":{"full":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"thumbnail":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-150x150.jpg",150,150,true],"medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-400x160.jpg",400,160,true],"medium_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-768x307.jpg",768,307,true],"large":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"image-100":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-100x40.jpg",100,40,true],"image-480":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-480x192.jpg",480,192,true],"image-640":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-640x256.jpg",640,256,true],"image-720":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-720x288.jpg",720,288,true],"image-960":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-960x384.jpg",960,384,true],"image-1168":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"image-1440":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"image-1920":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"1536x1536":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"2048x2048":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"trp-custom-language-flag":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-18x7.jpg",18,7,true],"bricks_large_16x9":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"bricks_large":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"bricks_large_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553.jpg",1000,400,false],"bricks_medium":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-600x240.jpg",600,240,true],"bricks_medium_square":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-600x400.jpg",600,400,true],"profile_24":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-24x24.jpg",24,24,true],"profile_48":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-48x48.jpg",48,48,true],"profile_96":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-96x96.jpg",96,96,true],"profile_150":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-150x150.jpg",150,150,true],"profile_300":["https:\/\/e3mag.com\/wp-content\/uploads\/2023\/11\/WEB_AI_shutterstock_1468576553-300x300.jpg",300,300,true]},"post_excerpt_stackable_v2":"<p>Maschinelles Lernen liefert mir lediglich eine Blackbox, damit k\u00f6nnen wir nichts anfangen.<br \/>\nDer Satz, der mir h\u00e4ufig in der Praxis begegnet, stammt meist von in Datenanalytik weniger ausgebildeten, zuk\u00fcnftigen Nutzern eines KI-Projektes. Doch stimmt diese Aussage?<\/p>\n","category_list_v2":"<a href=\"https:\/\/e3mag.com\/es\/categoria\/noticias-sap\/\" rel=\"category tag\">Community Nachrichten<\/a>, <a href=\"https:\/\/e3mag.com\/es\/categoria\/mag-23-11\/\" rel=\"category tag\">MAG 23-11<\/a>","author_info_v2":{"name":"E3 Magazine","url":"https:\/\/e3mag.com\/es\/author\/e3_magazin\/"},"comments_num_v2":"1 comentario","_links":{"self":[{"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/posts\/134303","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/users\/2368"}],"replies":[{"embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/comments?post=134303"}],"version-history":[{"count":2,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/posts\/134303\/revisions"}],"predecessor-version":[{"id":134307,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/posts\/134303\/revisions\/134307"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/media\/134306"}],"wp:attachment":[{"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/media?parent=134303"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/categories?post=134303"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/tags?post=134303"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/e3mag.com\/es\/wp-json\/wp\/v2\/coauthors?post=134303"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}