1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,350 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,950 --> 00:00:29,630 ¡Empezamos! 4 00:00:37,120 --> 00:00:41,540 Bienvenidos a una entrega que es, bueno, yo diría que muy especial para nosotros. 5 00:00:42,060 --> 00:00:45,040 Sí, la verdad es que sí, es un día importante. 6 00:00:45,040 --> 00:00:51,280 Hoy cerramos nuestra serie, los papers que cambiaron la historia de la IA, que sabemos que os ha gustado mucho. 7 00:00:51,620 --> 00:00:54,800 Y la cerramos por todo lo alto, con algo un poco diferente. 8 00:00:55,120 --> 00:01:00,400 Totalmente, porque hoy no vamos a analizar un único paper histórico, como veníamos haciendo. 9 00:01:00,680 --> 00:01:05,100 No, hoy hacemos algo distinto. Es que nos ha picado el gusanillo de la investigación. 10 00:01:05,620 --> 00:01:12,340 Así que, bueno, durante los últimos meses, el equipo de BIMPRAXIS se ha sumergido a fondo en la vanguardia más absoluta de la IA. 11 00:01:12,340 --> 00:01:15,020 Y cuando dice a fondo, no es una forma de hablar. 12 00:01:15,040 --> 00:01:15,940 Para nada. 13 00:01:16,180 --> 00:01:20,380 Hemos analizado cerca de 40 artículos científicos de primerísimo nivel. 14 00:01:20,620 --> 00:01:28,280 Todos publicados desde el verano de 2025 hasta hoy mismo, 7 de enero de 2026. Vamos, lo más reciente de lo reciente. 15 00:01:28,520 --> 00:01:34,660 El objetivo era, era detectar la corriente de fondo, ¿no? Hacia dónde va todo esto. 16 00:01:35,040 --> 00:01:42,940 Exacto. Y la hemos encontrado. No es una idea aislada en un paper. Es una convergencia clarísima en casi todos los trabajos. 17 00:01:42,940 --> 00:01:44,940 ¿Y el concepto que lo define todo? 18 00:01:45,040 --> 00:01:47,260 Todo es la IA autoevolutiva. 19 00:01:47,660 --> 00:01:52,420 Justo eso. Una IA que se programa, se corrige y se mejora a sí misma. 20 00:01:52,940 --> 00:01:56,480 Suena a ciencia ficción, la verdad, pero vamos a ver que no lo es para nada. 21 00:01:57,040 --> 00:02:01,460 Y para que se entienda bien, nos vamos a centrar en el mejor ejemplo que hemos encontrado. 22 00:02:01,680 --> 00:02:05,040 Un agente de codificación de Google DeepMind llamado AlphaEvolve. 23 00:02:05,820 --> 00:02:10,280 Vale, vamos a desgranar esto. ¿Qué es exactamente este agente evolutivo? 24 00:02:10,280 --> 00:02:14,960 A primera vista, una podría pensar que es simplemente otro modelo de lenguaje. 25 00:02:15,040 --> 00:02:17,120 Grande. Otro LLM más. 26 00:02:17,540 --> 00:02:18,740 Pero no, es mucho más. 27 00:02:19,160 --> 00:02:27,380 Eso parece. AlphaEvolve no es un LLM, sino un sistema completo que orquesta a varios LLMs para que trabajen juntos. 28 00:02:27,620 --> 00:02:31,360 Ah, o sea que es como un director de orquesta. 29 00:02:31,940 --> 00:02:42,020 Es una buena analogía, sí. Es una cadena de montaje autónoma y su única misión es coger un programa y mejorarlo, haciendo cambios directamente en su código. 30 00:02:42,380 --> 00:02:45,020 La palabra clave entonces es evolutivo. 31 00:02:45,040 --> 00:02:52,880 Evolutivo. Suena muy potente. Pero, siendo un poco cínica, ¿no es solo un bucle de prueba y error a toda velocidad? 32 00:02:53,420 --> 00:02:59,340 Es una pregunta buenísima. O hay algo más que lo haga realmente evolutivo en un sentido más profundo. 33 00:02:59,800 --> 00:03:07,920 Ahí está el cambio de juego. Sí, es un proceso iterativo, de proponer y probar. Pero la clave es cómo aprende de ese feedback. 34 00:03:07,920 --> 00:03:14,240 Claro. Propone un cambio, unos evaluadores automáticos le dan una nota, le dicen si ha sido una mejora o no, 35 00:03:14,240 --> 00:03:18,240 y el sistema usa esa información para que la siguiente propuesta sea más inteligente. 36 00:03:19,100 --> 00:03:22,340 O sea, no es un ensayo y error ciego, para nada. Es dirigido. 37 00:03:22,680 --> 00:03:30,660 Precisamente. Es una evolución sobre sistemas anteriores, como FoundSearch, que ya eran una pasada, pero estaban más limitados. 38 00:03:31,160 --> 00:03:32,460 ¿Y cuál es la gran diferencia? 39 00:03:32,820 --> 00:03:38,640 La escala y la complejidad. FoundSearch era un genio descubriendo pequeñas funciones, fragmentos de código. 40 00:03:38,640 --> 00:03:47,500 Alfa Evolve puede coger una base de código entera con docenas de funciones que interactúan entre sí, y reescribirla de arriba a abajo para hacerla mejor. 41 00:03:47,500 --> 00:03:56,500 Vale. El concepto general lo tengo. Pero suena casi a magia. ¿Cómo es ese proceso por dentro? ¿Cómo empieza una de esas vueltas de mejora? 42 00:03:56,500 --> 00:04:06,400 Pues el punto de partida es humano. Un programador le da tres cosas. El programa que quiere mejorar, el código que servirá para evaluar si las mejoras funcionan… 43 00:04:06,400 --> 00:04:07,500 ¿El juez, por así decirlo? 44 00:04:07,500 --> 00:04:08,500 Exacto. 45 00:04:08,500 --> 00:04:14,500 El juez, y algunas configuraciones. A partir de ahí, se pone en marcha el bucle de descubrimiento. 46 00:04:14,840 --> 00:04:21,100 Y el primer paso es que el sistema se inspire en sí mismo, ¿no? El muestreador de prompts. 47 00:04:21,460 --> 00:04:21,980 Correcto. 48 00:04:22,220 --> 00:04:32,160 En lugar de empezar de cero, mira las versiones del código que ya han funcionado bien, y construye una petición, un prompt, muy detallado para los LLMs. 49 00:04:32,300 --> 00:04:38,160 Eso es. Y ese es un paso crucial. Con esos prompts tan ricos en contexto, los LLMs… 50 00:04:38,500 --> 00:04:44,120 …entran en juego. Y ojo, no generan el programa entero de nuevo, que sería muy ineficiente. 51 00:04:44,300 --> 00:04:46,380 Ah, no. ¿Qué generan, entonces? 52 00:04:46,580 --> 00:04:47,800 Generan un diff. 53 00:04:48,120 --> 00:04:55,420 ¿Un diff? Para quien no venga del mundo del desarrollo, eso es como las sugerencias de edición de un documento de Word, ¿verdad? 54 00:04:55,520 --> 00:04:56,840 Es la analogía perfecta. 55 00:04:56,900 --> 00:05:02,200 No reescribe el texto, solo te dice, borra esta frase, añade esta otra aquí. 56 00:05:02,580 --> 00:05:08,480 Justo eso. Es una instrucción precisa de qué líneas cambiar. Ese diff se aplica, se crea un código, y se pone en marcha el bucle de descubrimiento. 57 00:05:08,480 --> 00:05:13,200 Se crea un nuevo programa candidato, y el juez automático lo evalúa y le da una puntuación. 58 00:05:13,400 --> 00:05:14,820 ¿Y si la puntuación es buena? 59 00:05:15,140 --> 00:05:19,860 Se guarda. En una especie de salón de la fama de los mejores programas encontrados hasta ahora. 60 00:05:20,120 --> 00:05:28,120 Y ese salón de la fama es lo que alimenta al muestrador de prompts para la siguiente vuelta. Es un ciclo de retroalimentación perfecto. 61 00:05:28,380 --> 00:05:36,500 Exacto. Se va siendo más inteligente en cada iteración. En cada vuelta, parte de una base mejor y pide las cosas de una forma más informada. 62 00:05:36,820 --> 00:05:38,460 Entiendo el bucle, pero me da la sensación… 63 00:05:38,480 --> 00:05:43,720 Me da la sensación de que falta algo. ¿Qué evita que se quede dando vueltas sobre la misma idea una y otra vez? 64 00:05:43,940 --> 00:05:44,660 Buena pregunta. 65 00:05:44,980 --> 00:05:48,480 ¿Hay algún truco, algún ingrediente secreto que lo haga tan potente? 66 00:05:48,620 --> 00:05:53,640 Los hay. Y son la clave de su éxito. El primero es una genialidad llamada metaprompts. 67 00:05:54,180 --> 00:05:54,620 ¿Metaprompts? 68 00:05:54,860 --> 00:06:02,900 Sí. Aquí la cosa se vuelve recursiva. El propio sistema no solo evoluciona el código, sino que también evoluciona los prompts con los que pide las mejoras. 69 00:06:03,120 --> 00:06:08,400 Espera, espera. ¿Cómo? ¿La IA aprende a pedirse las cosas a sí misma de mejor manera? 70 00:06:08,740 --> 00:06:19,700 Justo eso. Es como si un escritor no solo mejorara su novela, sino que también aprendiera a darse a sí mismo las instrucciones perfectas para inspirarse. Es una optimización a dos niveles. 71 00:06:20,120 --> 00:06:26,620 Eso es fascinante. Y he visto que otro de los trucos es que no usan un único tipo de LLM. 72 00:06:26,740 --> 00:06:33,920 Es una decisión muy inteligente, sí. Combinan modelos grandes y potentes, que son caros, con modelos más pequeños y baratos. 73 00:06:34,120 --> 00:06:34,740 ¿Y eso por qué? 74 00:06:34,740 --> 00:06:37,620 Los grandes aportan la calidad, la coherencia. 75 00:06:38,480 --> 00:06:44,440 Los pequeños inyectan variedad, una especie de creatividad ingenua o ruido inteligente. 76 00:06:44,760 --> 00:06:49,960 A veces, una sugerencia un poco rara de un modelo pequeño es lo que saca al sistema de un atasco. 77 00:06:50,160 --> 00:06:54,760 ¿Un atasco? ¿Te refieres a eso que en los papers llaman máximo local? 78 00:06:55,520 --> 00:07:03,140 Exacto. Un máximo local es cuando el sistema encuentra una solución que es bastante buena, y cualquier pequeño cambio que intenta la empeora. 79 00:07:03,440 --> 00:07:04,400 Y se queda ahí, claro. 80 00:07:04,400 --> 00:07:08,400 Se queda ahí, pensando que ha llegado a la cima, cuando en realidad hay una montaña. 81 00:07:08,480 --> 00:07:12,300 Una montaña mucho más alta. Una solución mucho mejor, más lejos. 82 00:07:12,640 --> 00:07:16,000 Y los modelos pequeños le dan el empujón para salir de ahí. 83 00:07:16,300 --> 00:07:21,100 Eso es. Con sus ideas extrañas, a veces le ayudan a salir de ese valle y seguir buscando. 84 00:07:21,500 --> 00:07:27,420 Entendido. ¿Y el tercer ingrediente es el feedback? Que no es solo un número, una puntuación. 85 00:07:27,800 --> 00:07:36,600 Efectivamente. Además de la nota objetiva del juez, se pueden usar otros LLMs para que den feedback sobre cosas más abstractas, más humanas. 86 00:07:36,760 --> 00:07:37,400 ¿Como por ejemplo? 87 00:07:37,400 --> 00:07:38,120 Por ejemplo. 88 00:07:38,480 --> 00:07:43,220 Lorenzi, el código nuevo es más simple, más elegante o más fácil de entender que el anterior. 89 00:07:43,420 --> 00:07:52,320 Ah, qué bueno. O sea que guía la evolución no solo hacia soluciones que funcionan, sino hacia soluciones que son buenas, en un sentido más amplio. 90 00:07:52,600 --> 00:07:53,080 Precisamente. 91 00:07:53,320 --> 00:08:01,740 Vale. Y toda esta arquitectura tan sofisticada no es teoría. Ha conseguido resultados que son, literalmente, históricos. 92 00:08:02,220 --> 00:08:04,080 Sí, aquí es donde la cosa se pone seria. 93 00:08:04,460 --> 00:08:07,820 Hablemos del primer granito, el de la multiplicación de matrices. 94 00:08:08,480 --> 00:08:09,660 ¿Cómo es para enmarcarlo? 95 00:08:10,000 --> 00:08:14,260 Es un problema central en computación. Vamos, de los que se estudian en primero de carrera. 96 00:08:14,800 --> 00:08:19,320 Y desde 1969, el algoritmo de Strassen era el rey. 97 00:08:19,680 --> 00:08:22,640 Un momento. ¿Has dicho 1969? 98 00:08:23,840 --> 00:08:30,700 1969. Durante 56 años, nadie había conseguido mejorarlo para un caso muy concreto. 99 00:08:31,340 --> 00:08:35,020 La multiplicación de matrices complejas de 4x4. Era un techo. 100 00:08:35,520 --> 00:08:36,640 56 años. 101 00:08:36,640 --> 00:08:36,740 56 años. 102 00:08:36,740 --> 00:08:39,600 Y entiendo que Alfa y Wolf se puso a ello. 103 00:08:39,920 --> 00:08:43,560 Se puso a ello y descubrió un procedimiento completamente nuevo. 104 00:08:44,100 --> 00:08:48,220 El método de Strassen necesitaba 49 multiplicaciones para resolverlo. 105 00:08:48,480 --> 00:08:49,300 ¿Y Alfa y Wolf? 106 00:08:49,540 --> 00:08:52,600 Alfa y Wolf encontró la manera de hacerlo con 48. 107 00:08:53,000 --> 00:09:02,220 Una. Parece un paso pequeño, pero romper un récord que ha durado más de medio siglo es una barbaridad. Es un hito monumental. 108 00:09:02,220 --> 00:09:03,600 Y no es un caso aislado. 109 00:09:03,600 --> 00:09:11,220 De los 54 tipos de multiplicaciones que analizaron, igualó las mejores soluciones conocidas en 38 casos. 110 00:09:11,480 --> 00:09:12,180 ¿Y en el resto? 111 00:09:12,580 --> 00:09:18,900 Y encontró un método superior en 14 de ellos. Es una demostración de fuerza bruta y descubrimiento. 112 00:09:19,140 --> 00:09:24,600 Y no se queda ahí. También lo han enfrentado a problemas matemáticos puros, de esos que llevan décadas abiertos. 113 00:09:25,320 --> 00:09:33,000 Sí, y los resultados son igual de alucinantes. Lo probaron con más de 50 problemas de campos como el análisis, la combinatoria, la geometría. 114 00:09:33,000 --> 00:09:33,280 ¿Y en la matemática? 115 00:09:33,280 --> 00:09:33,380 Sí. 116 00:09:33,380 --> 00:09:33,580 ¿Y en la matemática? 117 00:09:33,580 --> 00:09:36,100 En la mayoría de casos redescubrió lo que ya sabíamos, ¿no? 118 00:09:36,360 --> 00:09:44,180 En el 75% de los casos, sí. Redescubrió por sí solo las mejores soluciones que ya conocíamos. Lo cual ya es impresionante. 119 00:09:44,360 --> 00:09:46,000 Pero, ¿y el otro 25%? 120 00:09:46,340 --> 00:09:56,900 Ahí es donde está la magia. En el 20% de los problemas, uno de cada cinco, Alfa y Wolf descubrió un objeto matemático nuevo y mejor que cualquiera conocido hasta la fecha. 121 00:09:57,300 --> 00:09:59,140 O sea, mejoró el estado del arte. 122 00:09:59,580 --> 00:10:03,360 Exacto. Por ejemplo, consiguió refinar ligeramente el límite superior de la matemática. 123 00:10:03,360 --> 00:10:08,360 El límite superior del problema del solapamiento mínimo de ER2. Un problema con muchísima historia. 124 00:10:09,040 --> 00:10:12,840 Son pequeñas victorias que demuestran una capacidad de descubrimiento genuina. 125 00:10:13,200 --> 00:10:17,720 Esto nos lleva a las aplicaciones prácticas, que es donde se ve el impacto real. 126 00:10:18,360 --> 00:10:21,540 ¿Cómo se está usando esto ya dentro de un gigante como Google? 127 00:10:21,860 --> 00:10:24,500 Aquí es donde la cosa se traduce en millones de dólares. 128 00:10:25,140 --> 00:10:28,220 Google gestiona sus centros de datos con un sistema llamado BORG. 129 00:10:28,220 --> 00:10:33,220 Es un problema de planificación colosal, lo que se conoce como beanpacking. 130 00:10:33,520 --> 00:10:36,820 Beanpacking. Como jugar al Tetris a una escala demencial, ¿no? 131 00:10:37,000 --> 00:10:38,660 Es la mejor forma de explicarlo, sí. 132 00:10:38,960 --> 00:10:47,540 Tienes que meter piezas de trabajo, que necesitan CPU y memoria, en las cajas que son los servidores, intentando no dejar huecos. 133 00:10:47,820 --> 00:10:55,960 Y la eficiencia aquí es crítica. Pues usaron Alfa y Wolf para optimizar la fórmula, la heurística que decide dónde va cada pieza del Tetris. 134 00:10:56,200 --> 00:10:56,860 ¿Y qué encontró? 135 00:10:57,100 --> 00:11:01,240 Descubrió una función sorprendentemente simple, de apenas siete líneas de código. 136 00:11:01,240 --> 00:11:10,740 Pero implementar esa pequeña fórmula ha supuesto una recuperación continua del 0,7% de los recursos computacionales de toda la flota de servidores de Google. 137 00:11:11,140 --> 00:11:18,380 Espera, para un momento. El 0,7% suena a poco, pero en la escala de Google. ¿De qué estamos hablando? 138 00:11:18,660 --> 00:11:22,080 Estamos hablando de una cifra de ahorro y eficiencia absolutamente descomunal. 139 00:11:22,340 --> 00:11:22,940 Me lo imagino. 140 00:11:22,940 --> 00:11:29,980 Y hay un detalle importantísimo. En los informes cuentan que había una alternativa basada en Deep Reinforcement Learning, 141 00:11:29,980 --> 00:11:33,840 que también funcionaba bien, pero prefirieron la de Alfa y Wolf. 142 00:11:34,240 --> 00:11:34,720 ¿Por qué? 143 00:11:35,000 --> 00:11:40,760 Porque la solución de Deep Learning era una caja negra. Funcionaba, pero nadie sabía muy bien por qué. 144 00:11:41,240 --> 00:11:49,040 La de Alfa y Wolf era una fórmula en código, interpretable, fácil de depurar y segura de implementar en un sistema tan crítico como Borg. 145 00:11:49,320 --> 00:11:55,380 Claro. A veces la mejor solución no es la más compleja, sino la más elegante y comprensible. 146 00:11:55,640 --> 00:11:56,200 Totalmente. 147 00:11:56,200 --> 00:11:57,300 Es un punto clave. 148 00:11:57,780 --> 00:11:59,960 Pero la cosa se vuelve todavía más loca. 149 00:11:59,980 --> 00:12:06,480 La recursividad de todo esto es vertiginosa. También se usó para acelerar la propia IA, ¿no es así? 150 00:12:06,780 --> 00:12:14,700 Es el ejemplo perfecto del ciclo de automejora. Alfa y Wolf optimizó esos algoritmos de multiplicación de matrices que comentábamos antes. 151 00:12:14,900 --> 00:12:15,240 Ajá. 152 00:12:15,420 --> 00:12:22,300 A entrenar a Gemini, el LLM, que a su vez es uno de los motores del propio Alfa y Wolf. 153 00:12:22,640 --> 00:12:25,380 O sea que la IA se está acelerando a sí misma. 154 00:12:25,380 --> 00:12:29,860 Se está acelerando a sí misma. No solo mejora el software de los centros de datos. 155 00:12:30,340 --> 00:12:32,660 Mejora el software que la entrena a ella misma. 156 00:12:33,060 --> 00:12:34,000 Es increíble. 157 00:12:34,220 --> 00:12:36,260 Y no solo el software, también el hardware. 158 00:12:36,900 --> 00:12:42,860 Encontró simplificaciones en el diseño de los circuitos de los aceleradores de hardware de Google, los TPUs. 159 00:12:43,140 --> 00:12:50,020 O sea que está optimizando el software de gestión, el software de entrenamiento y el chip sobre el que todo eso corre. 160 00:12:50,560 --> 00:12:52,020 Cierra el círculo por completo. 161 00:12:52,360 --> 00:12:53,140 Cierra el círculo. 162 00:12:53,400 --> 00:12:55,720 Entonces, ¿qué significa todo esto? 163 00:12:56,360 --> 00:12:59,540 Está claro que no se trata solo de que una IA resuelva problemas. 164 00:12:59,980 --> 00:13:01,900 Es la versatilidad con la que lo hace. 165 00:13:02,420 --> 00:13:02,900 Exacto. 166 00:13:02,900 --> 00:13:06,160 Puede buscar una solución directa, como la fórmula para Borg. 167 00:13:06,520 --> 00:13:09,800 O puede encontrar un programa que construya esa solución. 168 00:13:10,400 --> 00:13:17,700 O, y esto ya es el siguiente nivel, puede evolucionar un algoritmo de búsqueda para que sea ese algoritmo el que encuentre la solución. 169 00:13:18,180 --> 00:13:21,300 Es una capacidad de abstracción a múltiples niveles. 170 00:13:22,020 --> 00:13:24,340 Y esto nos lleva directamente a la siguiente pregunta. 171 00:13:25,160 --> 00:13:28,340 ¿Cuál es nuestro papel, el de los humanos, en todo esto? 172 00:13:28,660 --> 00:13:29,000 Claro. 173 00:13:29,000 --> 00:13:29,060 ¿Por qué no? 174 00:13:29,060 --> 00:13:29,100 ¿Por qué no? 175 00:13:29,100 --> 00:13:29,420 ¿Por qué no? 176 00:13:29,420 --> 00:13:31,620 Porque la idea no es reemplazar, sino colaborar. 177 00:13:32,080 --> 00:13:36,940 Los descubrimientos de Alpha Evolve no son un punto final, son el punto de partida. 178 00:13:37,300 --> 00:13:39,340 ¿Colaboración con humanos o con otras IAs? 179 00:13:39,620 --> 00:13:40,140 Con ambos. 180 00:13:40,700 --> 00:13:43,300 Ya se está viendo un ecosistema de IAs especialistas. 181 00:13:43,740 --> 00:13:49,360 Por ejemplo, un nuevo objeto matemático que descubre Alpha Evolve se le puede pasar a otra IA llamada DeepThink. 182 00:13:49,540 --> 00:13:50,360 ¿Para que lo analice? 183 00:13:50,560 --> 00:13:54,020 Para que intente encontrar una fórmula general que explique el patrón. 184 00:13:54,020 --> 00:13:58,940 Y esa fórmula, a su vez, se le puede enviar a una tercera IA, Alpha Proof, 185 00:13:58,940 --> 00:14:02,540 para que genere una prueba matemática formal y rigurosa. 186 00:14:03,340 --> 00:14:03,980 Alucinante. 187 00:14:04,560 --> 00:14:07,180 Un equipo de investigación formado por IAs. 188 00:14:07,540 --> 00:14:08,740 Y supervisado por humanos. 189 00:14:09,520 --> 00:14:12,980 Hay una anécdota fantástica sobre el problema de empaquetar hexágonos. 190 00:14:13,680 --> 00:14:20,860 Alpha Evolve encontró la mejor forma conocida de meter 11 y 12 hexágonos pequeños dentro de uno grande, batiendo el récord. 191 00:14:21,240 --> 00:14:21,580 Vale. 192 00:14:21,820 --> 00:14:26,760 Pero la solución que encontró, aunque era la más eficiente, no era perfectamente simétrica. 193 00:14:26,760 --> 00:14:28,760 Algo que a un matemático le chirriaría. 194 00:14:28,940 --> 00:14:29,740 Y lo haría inmediatamente. 195 00:14:30,300 --> 00:14:32,420 La belleza y la simetría son importantes. 196 00:14:32,980 --> 00:14:33,460 Exacto. 197 00:14:33,720 --> 00:14:39,080 Un matemático, Johann Schellhorn, vio la solución y se dio cuenta de que con un pequeño ajuste manual, 198 00:14:39,280 --> 00:14:44,020 un toque de intuición humana, podía hacerla perfectamente simétrica, sin perder nada de eficiencia. 199 00:14:44,240 --> 00:14:46,320 Es la prueba de que la combinación es la clave. 200 00:14:46,600 --> 00:14:47,400 Esa es la clave. 201 00:14:47,980 --> 00:14:53,880 La combinación de la fuerza de búsqueda casi infinita de la IA con la intuición humana para la estética y la simplicidad 202 00:14:53,880 --> 00:14:55,780 es donde está el verdadero potencial. 203 00:14:56,260 --> 00:14:58,780 Lo que nos deja con una reflexión final... 204 00:14:58,940 --> 00:15:01,940 Es una reflexión total que es casi obligatoria. 205 00:15:01,940 --> 00:15:06,940 Hemos visto una IA que optimiza el software que la entrena y el hardware sobre el que corre. 206 00:15:06,940 --> 00:15:13,940 Si una IA puede mejorar de forma autónoma y recurrente sus propios algoritmos y la infraestructura que la soporta, 207 00:15:13,940 --> 00:15:15,940 ¿qué implicaciones tiene esto a largo plazo? 208 00:15:15,940 --> 00:15:17,940 Esa es la gran pregunta. 209 00:15:17,940 --> 00:15:22,940 Estamos en la primera etapa de un ciclo de automejora que podría volverse exponencial. 210 00:15:22,940 --> 00:15:26,940 No tenemos la respuesta, pero la tendencia que hemos identificado en estos 40 artículos, 211 00:15:26,940 --> 00:15:28,940 apunta a que esta pregunta ya no es ciencia. 212 00:15:28,940 --> 00:15:30,940 Es un problema de ingeniería. 213 00:15:30,940 --> 00:15:33,940 Es un problema de ingeniería a corto y medio plazo. 214 00:15:33,940 --> 00:15:36,940 La IA autoevolutiva no es una promesa. 215 00:15:36,940 --> 00:15:39,940 Es una tendencia tangible que ya está aquí. 216 00:15:39,940 --> 00:15:43,940 Y está produciendo resultados que superan décadas de investigación humana. 217 00:15:43,940 --> 00:15:48,940 Ha sido un viaje increíble a través de los papers que cambiaron la historia de la IA. 218 00:15:48,940 --> 00:15:51,940 Y sólo podemos daros las gracias por habernos acompañado. 219 00:15:51,940 --> 00:15:52,940 Desde luego. 220 00:15:52,940 --> 00:15:53,940 Pero que nadie se confunda. 221 00:15:53,940 --> 00:15:57,940 Que acabe la serie no significa que se acaben nuestras exploraciones en BIMPRAXIS. 222 00:15:57,940 --> 00:15:58,940 Ni mucho menos. 223 00:15:58,940 --> 00:15:59,940 Para nada. 224 00:15:59,940 --> 00:16:01,940 El campo de la IA avanza a una velocidad de locos. 225 00:16:01,940 --> 00:16:02,940 Y seguiremos aquí. 226 00:16:02,940 --> 00:16:08,940 Con el microscopio puesto sobre las publicaciones más relevantes para destilarlas y entenderlas juntos. 227 00:16:08,940 --> 00:16:12,940 De hecho, para la próxima entrega ya tenemos preparado un contenido fascinante 228 00:16:12,940 --> 00:16:17,940 sobre una herramienta que está cambiando las reglas del juego en cómo accedemos al conocimiento. 229 00:16:17,940 --> 00:16:19,940 Una herramienta que está en boca de todos en el sector. 230 00:16:19,940 --> 00:16:20,940 Y con razón. 231 00:16:20,940 --> 00:16:26,940 Una herramienta que, os lo aseguro, os va a dejar perplejos. 232 00:16:26,940 --> 00:16:28,940 Se capta la indirecta. 233 00:16:28,940 --> 00:16:41,240 Y hasta aquí el episodio de hoy. 234 00:16:41,240 --> 00:16:43,240 Muchas gracias por tu atención. 235 00:16:45,240 --> 00:16:54,510 Esto es BIMPRAXIS. 236 00:16:54,510 --> 00:16:57,510 Nos escuchamos en el próximo episodio.