1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,330 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,930 --> 00:00:29,650 ¡Empezamos! 4 00:00:37,100 --> 00:00:43,540 Hola y bienvenidos. Hoy retomamos nuestra serie especial para BIMPRAXIS, los papers que cambiaron la historia de la IA. 5 00:00:43,540 --> 00:00:45,780 Y este es el análisis número 17. 6 00:00:45,780 --> 00:00:49,680 Y creo que el de hoy encaja perfectamente en esa descripción. 7 00:00:50,120 --> 00:00:54,980 Nos sumergimos en un artículo que, aunque es muy reciente, no se limita a presentar un avance, 8 00:00:55,400 --> 00:01:00,460 sino que se atreve a desafiar la dirección en la que parece moverse todo el campo. 9 00:01:00,860 --> 00:01:06,040 Totalmente. Tenemos sobre la mesa un paper de Archive, la gran plataforma de prepublicación científica. 10 00:01:06,360 --> 00:01:08,480 Y el título ya es todo una declaración de intenciones. 11 00:01:09,040 --> 00:01:12,320 Small Language Models are the Future of Agentic AI. 12 00:01:12,320 --> 00:01:13,420 O en español. 13 00:01:14,020 --> 00:01:15,760 Los modelos de lenguaje pequeños son el futuro de la IA. 14 00:01:15,780 --> 00:01:25,480 Es un título que te obliga a leerlo dos veces, porque choca frontalmente con la narrativa que llevamos, vamos, años escuchando. 15 00:01:25,640 --> 00:01:30,000 Claro, la idea de que el progreso en IA es sinónimo de escala. 16 00:01:30,660 --> 00:01:36,140 Más parámetros, más datos de entrenamiento, modelos cada vez más y más grandes. 17 00:01:36,440 --> 00:01:41,260 Exacto. Hemos estado inmersos en una especie de carrera armamentística por el tamaño. 18 00:01:41,260 --> 00:01:45,760 Y de repente llega este equipo liderado por Peter Belzac y dice… 19 00:01:45,780 --> 00:01:50,580 Un momento. ¿Y si hemos estado mirando en la dirección equivocada? 20 00:01:51,100 --> 00:01:55,900 ¿Y si el futuro no es más grande, sino más astuto y especializado? 21 00:01:56,000 --> 00:01:56,540 Justo. 22 00:01:56,820 --> 00:02:02,220 Y es clave entender cómo lo presentan. El propio documento lo califica de declaración de valor. 23 00:02:02,600 --> 00:02:05,060 No es un simple experimento con una tabla de resultados. 24 00:02:05,620 --> 00:02:10,600 Es una tesis, un argumento casi filosófico sobre eficiencia y sostenibilidad. 25 00:02:11,020 --> 00:02:14,900 Publicado en junio de 2025 y revisado en septiembre. 26 00:02:14,900 --> 00:02:15,640 Así que estamos… 27 00:02:15,780 --> 00:02:18,040 Estamos analizando el pensamiento más vanguardista. 28 00:02:18,160 --> 00:02:23,020 Pues vamos a desgranar esa tesis. Por lo que veo, no empiezan atacando directamente. 29 00:02:23,640 --> 00:02:28,960 De hecho, el resumen reconoce el mérito de los grandes modelos de lenguaje, los LLMS. 30 00:02:29,420 --> 00:02:33,640 Correcto. No es una refutación. Es una recontextualización. 31 00:02:34,000 --> 00:02:35,720 Parten de un respeto por lo que se ha conseguido. 32 00:02:36,040 --> 00:02:40,240 Los LLMS son una maravilla, capaces de una flexibilidad casi humana. 33 00:02:40,900 --> 00:02:43,940 Pero justo después introducen el concepto que lo cambia todo. 34 00:02:43,940 --> 00:02:45,440 Los sistemas agénticos. 35 00:02:45,780 --> 00:02:49,140 Y esta definición es el corazón de su argumento. 36 00:02:49,340 --> 00:02:49,860 Totalmente. 37 00:02:50,240 --> 00:02:51,480 ¿Y cómo los definen exactamente? 38 00:02:51,960 --> 00:02:55,840 Porque agente es una de esas palabras que se usan para todo en este sector. 39 00:02:56,180 --> 00:02:57,940 Pues el paper es muy preciso aquí. 40 00:02:58,480 --> 00:03:07,900 Los define como aplicaciones donde los modelos de lenguaje realizan un número reducido de tareas especializadas de forma repetitiva y con poca variación. 41 00:03:08,340 --> 00:03:10,220 O sea, no hablamos de un chat filosófico. 42 00:03:10,380 --> 00:03:13,780 Para nada. Estamos hablando de la IA que trabaja en segundo plano. 43 00:03:14,000 --> 00:03:15,220 Entendido. Entonces, ¿no es un tema de la IA que trabaja en segundo plano? 44 00:03:15,220 --> 00:03:15,320 Entonces, ¿no es un tema de la IA que trabaja en segundo plano? 45 00:03:15,320 --> 00:03:15,600 Entonces, ¿no es un tema de la IA que trabaja en segundo plano? 46 00:03:15,600 --> 00:03:18,500 No hablamos de pedirle un chatbot que nos escriba un poema, 47 00:03:18,940 --> 00:03:24,540 sino de un sistema que, por ejemplo, procesa miles de facturas al día para extraer datos concretos. 48 00:03:24,980 --> 00:03:26,080 Exactamente esos casos. 49 00:03:26,500 --> 00:03:30,840 O un agente que monitoriza redes sociales para clasificar menciones de un producto. 50 00:03:31,560 --> 00:03:36,460 Es la IA como una herramienta industrial, no como un compañero de conversación. 51 00:03:36,980 --> 00:03:39,640 Y es en ese contexto donde lanzan su idea principal. 52 00:03:39,640 --> 00:03:45,580 Para estas tareas, los modelos pequeños, los SLMs, son una opción superior. 53 00:03:45,600 --> 00:03:47,400 Y lo basan en tres pilares. 54 00:03:48,040 --> 00:03:54,740 Suficientemente potentes, inherentemente más adecuados y, por supuesto, necesariamente más económicos. 55 00:03:54,920 --> 00:03:58,200 A ver, el tercer punto, el del coste, parece el más obvio. 56 00:03:58,660 --> 00:04:01,280 Pero los dos primeros son más atrevidos. 57 00:04:01,800 --> 00:04:05,200 ¿De verdad un modelo pequeño es suficientemente potente? 58 00:04:05,440 --> 00:04:07,480 Esa es la primera gran afirmación que hacen. 59 00:04:07,880 --> 00:04:11,420 Sostienen que los SLMs ya han cruzado un umbral de calidad 60 00:04:11,420 --> 00:04:15,420 que les permite ejecutar estas tareas concretas con una eficacia aleatoria. 61 00:04:15,600 --> 00:04:16,280 Esa es la primera gran afirmación que hacen. 62 00:04:16,280 --> 00:04:21,380 La complejidad de un modelo gigante, que sabe de física cuántica y de la dinastía Ming, 63 00:04:21,860 --> 00:04:24,080 es un desperdicio absoluto para leer una factura. 64 00:04:24,480 --> 00:04:27,880 Suena al viejo dicho de no usar un mazo para cascar una nuez. 65 00:04:28,700 --> 00:04:30,920 Pero es solo una cuestión de desperdicio. 66 00:04:31,720 --> 00:04:33,240 Ahí es donde entra el segundo pilar. 67 00:04:34,040 --> 00:04:35,520 Inherentemente más adecuados. 68 00:04:36,400 --> 00:04:38,540 Y no es solo que el mazo sea excesivo. 69 00:04:39,080 --> 00:04:42,680 Es que el mazo puede romper la mesa, la nuez y hasta los dedos. 70 00:04:42,920 --> 00:04:43,320 Entiendo. 71 00:04:43,320 --> 00:04:45,120 Un LLM. 72 00:04:45,600 --> 00:04:49,420 Por su propia naturaleza expansiva, es más propenso a alucinar, 73 00:04:49,780 --> 00:04:52,180 a inventarse un dato o a salirse del guión. 74 00:04:52,600 --> 00:04:53,200 Interesante. 75 00:04:53,660 --> 00:04:56,940 O sea que para una tarea que exige precisión y fiabilidad, 76 00:04:57,400 --> 00:04:59,160 como extraer datos financieros, 77 00:04:59,700 --> 00:05:03,180 la creatividad de un LLM se puede convertir en un riesgo. 78 00:05:03,420 --> 00:05:04,020 Precisamente. 79 00:05:04,600 --> 00:05:07,920 Un SLM, entrenado específicamente para esa tarea, 80 00:05:08,280 --> 00:05:09,880 es como un cirujano con un bisturí. 81 00:05:10,160 --> 00:05:13,780 Su dominio restringido es una ventaja, no una limitación. 82 00:05:14,420 --> 00:05:15,080 Es más rápido. 83 00:05:15,080 --> 00:05:18,280 Más predecible y, en última instancia, más seguro. 84 00:05:18,580 --> 00:05:18,820 Vale. 85 00:05:19,180 --> 00:05:23,440 Esos dos puntos dibujan un cuadro muy convincente a nivel técnico. 86 00:05:23,880 --> 00:05:28,040 Pero volvamos al tercer pilar, necesariamente más económicos. 87 00:05:28,300 --> 00:05:30,860 Porque creo que aquí es donde el argumento pasa de ser 88 00:05:30,860 --> 00:05:34,260 una discusión académica a una revolución industrial. 89 00:05:34,800 --> 00:05:35,240 Sin duda. 90 00:05:35,880 --> 00:05:39,020 Y la escala de la diferencia es difícil de exagerar. 91 00:05:39,500 --> 00:05:42,760 El coste de entrenar un LLM se cuenta en cientos de millones. 92 00:05:42,760 --> 00:05:44,840 Pero el verdadero coste oculto, 93 00:05:44,840 --> 00:05:46,920 está en la operación, en la inferencia. 94 00:05:47,040 --> 00:05:48,340 Cada vez que le pides que haga algo. 95 00:05:48,600 --> 00:05:49,120 Exacto. 96 00:05:49,580 --> 00:05:52,820 Y esos costes pueden sumar millones al MIS para una empresa grande. 97 00:05:52,980 --> 00:05:57,600 Entonces, si una empresa tiene un agente que procesa un millón de correos al día, 98 00:05:57,960 --> 00:06:02,180 el coste de usar un LLM gigante para cada uno de esos correos es… 99 00:06:02,180 --> 00:06:03,020 Astronómico. 100 00:06:03,280 --> 00:06:03,800 Exacto. 101 00:06:04,220 --> 00:06:08,000 Con un SLM optimizado, el coste por inferencia se desploma. 102 00:06:08,220 --> 00:06:10,660 Puede ser cientos o miles de veces más barato. 103 00:06:11,060 --> 00:06:12,960 Y esto tiene dos consecuencias enormes. 104 00:06:12,960 --> 00:06:13,960 La primera, imagino, 105 00:06:13,960 --> 00:06:15,160 es la democratización. 106 00:06:15,500 --> 00:06:16,100 Desde luego. 107 00:06:16,880 --> 00:06:21,600 Pequeños y medianas empresas podrían desplegar soluciones de IA que hoy son prohibitivas. 108 00:06:22,480 --> 00:06:24,980 Y la segunda es el impacto energético. 109 00:06:25,520 --> 00:06:29,820 La huella de carbono de estos sistemas es un tema cada vez más preocupante. 110 00:06:30,500 --> 00:06:35,920 Un cambio masivo a SLMs sería un paso gigantesco hacia una IA más sostenible. 111 00:06:36,300 --> 00:06:36,740 Sin duda. 112 00:06:37,480 --> 00:06:38,540 Entiendo el argumento. 113 00:06:38,800 --> 00:06:41,180 Es demoledor para esas tareas repetitivas. 114 00:06:41,660 --> 00:06:43,000 Pero me queda una duda importante. 115 00:06:43,000 --> 00:06:43,080 ¿Qué es el cambio de LLM? 116 00:06:43,080 --> 00:06:43,120 ¿Qué es el cambio de LLM? 117 00:06:43,120 --> 00:06:43,140 ¿Qué es el cambio de LLM? 118 00:06:43,140 --> 00:06:43,200 ¿Qué es el cambio de LLM? 119 00:06:43,200 --> 00:06:43,260 ¿Qué es el cambio de LLM? 120 00:06:43,260 --> 00:06:43,300 ¿Qué es el cambio de LLM? 121 00:06:43,300 --> 00:06:43,320 ¿Qué es el cambio de LLM? 122 00:06:43,320 --> 00:06:49,260 Si mi agente está clasificando facturas con un SLM y de repente se topa con una nota 123 00:06:49,260 --> 00:06:51,720 extraña escrita a mano, ¿se queda bloqueado? 124 00:06:52,060 --> 00:06:56,400 ¿No hemos perdido justo esa flexibilidad que nos vendieron como la gran ventaja de 125 00:06:56,400 --> 00:06:57,400 los LLMs? 126 00:06:57,940 --> 00:06:59,600 Esa es la pregunta clave. 127 00:07:00,300 --> 00:07:04,640 Y la respuesta que da el paper es, en mi opinión, la parte más elegante de toda la 128 00:07:04,640 --> 00:07:05,080 propuesta. 129 00:07:05,480 --> 00:07:06,040 ¿Y cuál es? 130 00:07:06,040 --> 00:07:08,860 No abogan por un mundo solo de SLMs. 131 00:07:09,540 --> 00:07:12,960 Proponen lo que llaman sistemas agénticos heterogéneos. 132 00:07:13,080 --> 00:07:13,140 ¿Heterogéneos? 133 00:07:13,320 --> 00:07:14,000 ¿Heterogéneos? 134 00:07:14,380 --> 00:07:15,420 O sea, una mezcla. 135 00:07:16,020 --> 00:07:19,360 ¿Quieren decir que un agente no tiene por qué usar un único cerebro? 136 00:07:19,700 --> 00:07:20,220 Exacto. 137 00:07:20,660 --> 00:07:22,540 La idea es brillante en su simplicidad. 138 00:07:23,100 --> 00:07:28,240 Piensa en ello no como un único empleado que lo sabe todo, sino como un equipo de especialistas 139 00:07:28,240 --> 00:07:29,860 gestionado por un jefe de proyecto. 140 00:07:30,260 --> 00:07:30,720 Ah, vale. 141 00:07:31,040 --> 00:07:34,360 Es como un capataz de obra que tiene una caja de herramientas. 142 00:07:34,600 --> 00:07:40,960 Para el 90% de las tareas, los tornillos de siempre, usa una llave inglesa pequeña 143 00:07:40,960 --> 00:07:41,820 y eficiente. 144 00:07:41,820 --> 00:07:43,020 ¿Un SLM? 145 00:07:43,320 --> 00:07:43,860 Eso es. 146 00:07:44,620 --> 00:07:49,740 Pero si de repente aparece un muro que hay que derribar, en lugar de darle golpecitos 147 00:07:49,740 --> 00:07:56,640 con la llave, saca el teléfono y llama al martillo pilón, el LLM, solo para esa tarea 148 00:07:56,640 --> 00:07:57,440 específica. 149 00:07:57,580 --> 00:07:58,820 Esa analogía es perfecta. 150 00:07:59,160 --> 00:08:04,100 El agente actúa como ese capataz, o como me gusta llamarlo a mí, un director de orquesta. 151 00:08:04,320 --> 00:08:04,800 Me gusta. 152 00:08:05,140 --> 00:08:10,860 La mayor parte del tiempo, la melodía la llevan los violines, los SLMs, que son ágiles. 153 00:08:11,100 --> 00:08:12,860 Pero cuando la sinfonía lo requiere… 154 00:08:13,320 --> 00:08:18,500 El director da la entrada a los timbales, el LLM, que interviene con toda su potencia. 155 00:08:19,020 --> 00:08:20,380 Y luego vuelve al silencio. 156 00:08:20,720 --> 00:08:23,680 Se trata de usar el recurso adecuado en el momento adecuado. 157 00:08:23,760 --> 00:08:24,160 Justo. 158 00:08:24,600 --> 00:08:28,420 Pero esto, que suena genial en teoría, me genera nuevas preguntas. 159 00:08:29,140 --> 00:08:31,400 Ese director de orquesta, ¿quién es? 160 00:08:31,800 --> 00:08:33,680 ¿Cómo decide qué herramienta usar? 161 00:08:34,100 --> 00:08:38,160 Porque esa decisión en sí misma parece un problema de IA bastante complejo. 162 00:08:38,840 --> 00:08:39,440 Absolutamente. 163 00:08:39,440 --> 00:08:43,280 Y ese es uno de los grandes desafíos técnicos que esta visión, 164 00:08:43,380 --> 00:08:43,740 implica. 165 00:08:44,440 --> 00:08:48,840 El sistema necesita un enrutador inteligente, una especie de meta-agente, 166 00:08:49,180 --> 00:08:53,560 que analiza la tarea y decide si es para un SLM o requiere al LLM. 167 00:08:54,180 --> 00:08:58,900 Y si se equivoca, el resultado puede ser o un fallo en la tarea o un coste disparado, 168 00:08:59,220 --> 00:09:02,440 si por error envía miles de tareas simples al LLM. 169 00:09:02,720 --> 00:09:04,620 La ventaja económica desaparece, claro. 170 00:09:05,180 --> 00:09:08,360 La implementación de este director es crucial. 171 00:09:08,780 --> 00:09:13,080 El paper no entra en los detalles, pero reconoce que la orquestación de estos sistemas, 172 00:09:13,320 --> 00:09:14,640 es el siguiente gran reto. 173 00:09:15,420 --> 00:09:20,120 La habilidad del futuro quizá no sea tanto el prompt engineering, sino la arquitectura de sistemas. 174 00:09:20,560 --> 00:09:24,020 La visión es muy convincente, pero parece una auténtica revolución. 175 00:09:24,360 --> 00:09:26,980 Y las revoluciones siempre encuentran resistencia. 176 00:09:27,520 --> 00:09:31,200 Me imagino que el paper debe abordar las barreras para que esta idea se adopte, ¿no? 177 00:09:31,500 --> 00:09:33,400 Sí, sí, lo mencioné explícitamente. 178 00:09:33,900 --> 00:09:37,700 Y aunque el resumen no las detalla, podemos especular sobre ellas. 179 00:09:37,700 --> 00:09:40,260 A ver, yo veo una barrera económica obvia. 180 00:09:40,560 --> 00:09:43,300 Las grandes tecnológicas han invertido miles de millones, 181 00:09:43,320 --> 00:09:45,820 en la infraestructura para LLMs gigantes. 182 00:09:46,340 --> 00:09:48,220 ¿Cambiar el rumbo de ese transatlántico? 183 00:09:48,400 --> 00:09:51,060 No es trivial. Esa es la inercia del mercado. 184 00:09:51,480 --> 00:09:53,100 Y es una fuerza poderosísima. 185 00:09:53,640 --> 00:09:56,960 Tienen un foso económico construido alrededor de los LLMs. 186 00:09:57,180 --> 00:10:00,840 ¿Qué incentivo real tienen para canibalizar su propio producto estrella? 187 00:10:01,240 --> 00:10:04,500 Bueno, también se podría argumentar que son las únicas con los recursos 188 00:10:04,500 --> 00:10:08,340 para construir y ofrecer estos ecosistemas heterogéneos de forma eficaz. 189 00:10:08,720 --> 00:10:11,120 Podría ser su siguiente gran línea de negocio. 190 00:10:11,120 --> 00:10:12,340 Y luego está el factor humano. 191 00:10:12,340 --> 00:10:12,420 ¿Qué es el factor humano? 192 00:10:12,420 --> 00:10:12,500 ¿Qué es el factor humano? 193 00:10:12,500 --> 00:10:12,520 ¿Qué es el factor humano? 194 00:10:12,520 --> 00:10:12,620 ¿Qué es el factor humano? 195 00:10:12,620 --> 00:10:12,680 ¿Qué es el factor humano? 196 00:10:12,680 --> 00:10:12,780 ¿Qué es el factor humano? 197 00:10:12,780 --> 00:10:12,860 ¿Qué es el factor humano? 198 00:10:12,860 --> 00:10:15,060 Si eres desarrollador, te han dicho durante años 199 00:10:15,060 --> 00:10:17,460 que tienes que usar lo último y lo más grande. 200 00:10:17,940 --> 00:10:19,300 Hay un factor de prestigio. 201 00:10:19,560 --> 00:10:22,640 Es más sexy decir que tu app usa el último gran modelo. 202 00:10:23,120 --> 00:10:25,140 Totalmente. Es una barrera cultural. 203 00:10:25,760 --> 00:10:27,740 Hay que reeducar a una generación de ingenieros 204 00:10:27,740 --> 00:10:30,180 que ha crecido con el mantra de más grande es mejor. 205 00:10:30,780 --> 00:10:33,820 Hay que demostrar que usar un modelo más pequeño no es un paso atrás, 206 00:10:34,260 --> 00:10:36,660 sino una decisión de ingeniería más inteligente. 207 00:10:36,660 --> 00:10:39,720 Entonces, tenemos barreras económicas, culturales 208 00:10:39,720 --> 00:10:41,740 y los desafíos técnicos que mencionamos. 209 00:10:41,740 --> 00:10:45,000 ¿El paper se queda solo en señalar la dirección 210 00:10:45,000 --> 00:10:47,340 o propone alguna ayuda para empezar el camino? 211 00:10:47,720 --> 00:10:50,340 Aquí es donde demuestran que su intención es práctica. 212 00:10:50,860 --> 00:10:56,440 Proponen un Algoritmo General de Conversión de Agente de LLM a SLM. 213 00:10:56,720 --> 00:10:57,780 Ah, eso es crucial. 214 00:10:58,240 --> 00:11:01,340 No solo dicen, este es el futuro, sino que añaden, 215 00:11:01,600 --> 00:11:04,200 y aquí tenéis una receta, una hoja de ruta 216 00:11:04,200 --> 00:11:06,480 para empezar a convertir vuestros sistemas. 217 00:11:07,260 --> 00:11:08,200 Eso lo cambia todo. 218 00:11:08,640 --> 00:11:10,940 Es pasar de la visión a la herramienta. 219 00:11:10,940 --> 00:11:11,040 ¿Qué es el factor humano? 220 00:11:11,040 --> 00:11:11,100 ¿Qué es el factor humano? 221 00:11:11,100 --> 00:11:11,200 ¿Qué es el factor humano? 222 00:11:11,200 --> 00:11:11,280 ¿Qué es el factor humano? 223 00:11:11,280 --> 00:11:11,340 ¿Qué es el factor humano? 224 00:11:11,340 --> 00:11:11,380 ¿Qué es el factor humano? 225 00:11:11,380 --> 00:11:11,440 ¿Qué es el factor humano? 226 00:11:11,440 --> 00:11:11,520 ¿Qué es el factor humano? 227 00:11:11,520 --> 00:11:11,540 ¿Qué es el factor humano? 228 00:11:11,540 --> 00:11:13,700 Esto conecta con algo que me llamó la atención del resumen, 229 00:11:14,320 --> 00:11:16,360 su compromiso con el debate público. 230 00:11:16,900 --> 00:11:20,300 Sí, y es algo bastante inusual y, en mi opinión, muy admirable. 231 00:11:20,920 --> 00:11:24,760 Se comprometen a publicar toda la correspondencia relacionada con el paper, 232 00:11:25,200 --> 00:11:28,640 tanto las contribuciones que apoyan su tesis como las críticas, 233 00:11:28,840 --> 00:11:30,140 en una URL pública. 234 00:11:30,400 --> 00:11:33,280 Es un gesto de transparencia admirable, casi radical, 235 00:11:33,780 --> 00:11:35,320 pero, siendo un poco cínico, 236 00:11:35,840 --> 00:11:38,400 ¿podría ser una maniobra para controlar la narrativa? 237 00:11:38,760 --> 00:11:39,820 Suena un poco idealista. 238 00:11:39,820 --> 00:11:41,080 Es una lectura posible. 239 00:11:41,080 --> 00:11:43,400 Pero yo tiendo a verlo de otra forma. 240 00:11:44,120 --> 00:11:47,160 Creo que refleja que son conscientes de la magnitud de lo que proponen. 241 00:11:47,720 --> 00:11:49,220 Es una llamada abierta a la comunidad. 242 00:11:49,620 --> 00:11:53,860 Como un, aquí está nuestra tesis, por favor, atacadla, mejoradla, 243 00:11:54,060 --> 00:11:56,020 pero tengamos esta conversación en abierto. 244 00:11:56,780 --> 00:11:57,260 Exacto. 245 00:11:57,440 --> 00:12:02,420 Porque definirá la economía, la sostenibilidad y la accesibilidad de la IA en la próxima década. 246 00:12:02,700 --> 00:12:04,280 Visto así, tiene todo el sentido. 247 00:12:04,800 --> 00:12:08,980 Si juntamos todas las piezas, el panorama que dibuja este paper es fascinante. 248 00:12:09,320 --> 00:12:10,980 Quizás el futuro de la IA en nuestro diálogo, 249 00:12:10,980 --> 00:12:11,060 quizás el futuro de la IA en nuestro diálogo, 250 00:12:11,060 --> 00:12:14,060 no sea un único asistente omnipotente como en las películas. 251 00:12:14,780 --> 00:12:18,260 Sino más bien una red invisible de pequeños especialistas eficientes. 252 00:12:18,640 --> 00:12:21,020 Un ejército de agentes silenciosos. 253 00:12:21,260 --> 00:12:21,780 Exacto. 254 00:12:22,000 --> 00:12:24,820 Cada uno haciendo una cosa muy bien y de forma muy barata. 255 00:12:25,560 --> 00:12:28,120 El artículo nos obliga a cambiar la pregunta fundamental. 256 00:12:28,940 --> 00:12:32,600 Durante años la pregunta ha sido, ¿cómo hacemos los modelos más grandes? 257 00:12:32,880 --> 00:12:37,360 TIL, ¿cuál es el modelo del tamaño adecuado para esta tarea concreta? 258 00:12:37,600 --> 00:12:39,800 Es un cambio de paradigma total. 259 00:12:39,800 --> 00:12:42,660 Pasar de la fuerza bruta a la elegancia. 260 00:12:42,920 --> 00:12:44,460 De la escala a la eficiencia. 261 00:12:44,980 --> 00:12:46,020 Y a la sostenibilidad. 262 00:12:46,660 --> 00:12:49,720 Es una visión de la IA mucho más madura, más pragmática. 263 00:12:50,220 --> 00:12:53,000 Y con esto, como siempre, dejamos una reflexión final. 264 00:12:53,620 --> 00:12:57,400 Si esta visión es correcta, si el futuro son estos pequeños agentes, 265 00:12:57,940 --> 00:13:00,160 pensemos por un momento en nuestras propias rutinas. 266 00:13:00,460 --> 00:13:02,540 Que tareas repetitivas de nuestro trabajo, 267 00:13:03,060 --> 00:13:04,540 esas que hacemos casi sin pensar, 268 00:13:04,980 --> 00:13:08,260 podrían ser las primeras en ser gestionadas por este ejército invisible. 269 00:13:08,620 --> 00:13:09,780 No por un gran asistente. 270 00:13:09,780 --> 00:13:11,300 No por un gran asistente al que le damos órdenes. 271 00:13:11,460 --> 00:13:15,680 Sino por decenas de pequeños optimizadores que, sin que apenas nos demos cuenta, 272 00:13:16,160 --> 00:13:18,280 van puliendo las fricciones de nuestro día a día. 273 00:13:18,600 --> 00:13:19,620 Una idea muy potente. 274 00:13:19,980 --> 00:13:24,580 Mañana volveremos con otro análisis y les aseguro que el paper que tenemos preparado 275 00:13:24,580 --> 00:13:29,220 es de los que realmente hacen pensar en las fronteras de la inteligencia artificial, 276 00:13:29,900 --> 00:13:33,280 en la naturaleza misma de la conciencia y la creatividad. 277 00:13:33,800 --> 00:13:34,700 No se lo pierdan. 278 00:13:35,600 --> 00:13:47,530 Y hasta aquí el episodio de hoy. 279 00:13:47,530 --> 00:13:49,530 Muchas gracias por tu atención. 280 00:13:49,570 --> 00:13:51,570 Esto es BIMPRAXIS. 281 00:13:58,990 --> 00:14:00,990 Nos escuchamos en el próximo episodio.