1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,330 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,930 --> 00:00:29,650 ¡Empezamos! 4 00:00:37,190 --> 00:00:39,390 Bienvenidos al episodio 15. 5 00:00:40,190 --> 00:00:44,190 Hoy no hablamos de las noticias de ayer, hoy viajamos al origen de todo. 6 00:00:44,190 --> 00:00:48,290 Bueno, arrancamos una serie especial, los papers que cambiaron la historia. 7 00:00:48,810 --> 00:00:52,250 Y para el primero, nos tenemos que ir a 1986. 8 00:00:52,570 --> 00:00:57,150 Un viaje a una época que, para la inteligencia artificial, era de todo menos optimista. 9 00:00:57,650 --> 00:00:59,930 Se conoce como el invierno de la IA. 10 00:01:00,210 --> 00:01:01,690 No es una metáfora, ¿verdad? 11 00:01:01,950 --> 00:01:04,110 Para nada. Era un invierno muy real. 12 00:01:04,510 --> 00:01:08,870 La financiación, tanto pública como privada, se había evaporado. 13 00:01:09,390 --> 00:01:11,370 Los grandes proyectos, cancelados. 14 00:01:11,830 --> 00:01:13,710 El campo estaba lleno de promesas rotas. 15 00:01:13,710 --> 00:01:17,130 Y en el epicentro de ese pesimismo estaban las redes neuronales. 16 00:01:17,790 --> 00:01:22,730 Esa idea de imitar el cerebro humano con software se consideraba un fracaso. 17 00:01:23,430 --> 00:01:24,470 Un callejón sin salida. 18 00:01:24,810 --> 00:01:25,370 Totalmente. 19 00:01:25,750 --> 00:01:32,410 El golpe de gracia, de hecho, lo había dado años antes un libro, Perceptrons, de Marvin Minsky y Seymour Papert. 20 00:01:32,570 --> 00:01:33,270 Me suena, sí. 21 00:01:33,470 --> 00:01:39,590 Pues demostraron, matemáticamente, que las redes neuronales más simples de la época, los perceptrones, 22 00:01:39,590 --> 00:01:42,110 no podían resolver problemas lógicos. 23 00:01:42,330 --> 00:01:43,590 Que eran increíblemente... 24 00:01:44,230 --> 00:01:49,230 Espera, espera. Recuérdame el problema X o R. 25 00:01:49,390 --> 00:01:51,470 Es la lógica del O exclusivo. 26 00:01:52,010 --> 00:01:53,590 O sea, o una cosa o la otra. 27 00:01:53,930 --> 00:01:54,930 Pero no las dos a la vez. 28 00:01:55,290 --> 00:01:55,550 ¿Vale? 29 00:01:55,930 --> 00:01:57,590 El típico ejemplo es... 30 00:01:58,790 --> 00:02:05,250 Claro, un concepto que entiende un niño de cinco años. 31 00:02:05,550 --> 00:02:05,990 Exacto. 32 00:02:05,990 --> 00:02:11,150 Pues bien, las redes neuronales de la época eran incapaces de aprender esa regla tan simple. 33 00:02:11,750 --> 00:02:12,550 ¿Se las consideraba? 34 00:02:12,910 --> 00:02:13,350 Pues eso. 35 00:02:13,350 --> 00:02:18,430 O sea, que el campo estaba básicamente muerto. 36 00:02:18,650 --> 00:02:23,350 Y entonces, en mitad de esa glaciación intelectual, en octubre de 1986... 37 00:02:23,870 --> 00:02:28,270 La revista Nature, una de las más prestigiosas del mundo, publica un artículo. 38 00:02:28,590 --> 00:02:30,790 Y no uno muy largo, por lo que tengo entendido. 39 00:02:31,330 --> 00:02:32,630 Apenas cuatro páginas. 40 00:02:32,970 --> 00:02:33,410 Brevísimo. 41 00:02:33,770 --> 00:02:37,290 El título, Learning Representations by Backpropagating Errors. 42 00:02:37,670 --> 00:02:41,870 Aprendiendo representaciones mediante la retropropagación de errores. 43 00:02:41,870 --> 00:02:43,170 Y lo firmaban tres investigadores. 44 00:02:43,170 --> 00:02:47,870 David E. Rumelhart, Geoffrey E. Hinton y Ronald J. Williams. 45 00:02:48,450 --> 00:02:52,170 Y bueno, nuestra misión hoy es entender cómo ese texto, contra todo pronóstico, 46 00:02:52,490 --> 00:02:55,530 se convirtió en la chispa que encendió la hoguera de la IA moderna. 47 00:02:56,030 --> 00:02:57,170 Es que la historia es increíble. 48 00:02:58,330 --> 00:03:01,710 Y para entenderla de verdad, creo que tenemos que empezar por quienes la escribieron. 49 00:03:02,130 --> 00:03:07,370 Porque su propia historia, con un premio Nobel de por medio, es casi tan fascinante como el algoritmo. 50 00:03:07,510 --> 00:03:09,430 Es que es el punto de partida perfecto. 51 00:03:09,430 --> 00:03:13,150 Conecta ese momento de 1986 directamente con nuestra actualidad, 52 00:03:13,170 --> 00:03:14,750 enero de 2026. 53 00:03:15,070 --> 00:03:15,670 Totalmente. 54 00:03:15,890 --> 00:03:19,070 Hace poco más de un año, en octubre de 2024, 55 00:03:19,570 --> 00:03:25,510 la Real Academia de las Ciencias de Suecia le dio el premio Nobel de Física a Geoffrey Hinton, 56 00:03:26,030 --> 00:03:27,130 uno de los autores. 57 00:03:27,550 --> 00:03:30,310 Junto a John Hopfield, otro pionero. 58 00:03:30,550 --> 00:03:31,130 Exacto. 59 00:03:31,250 --> 00:03:33,470 Pero, claro, la pregunta salta sola. 60 00:03:33,750 --> 00:03:35,270 Un momento, ¿el Nobel de...? 61 00:03:35,270 --> 00:03:35,810 Física. 62 00:03:36,610 --> 00:03:37,390 Ahí me he perdido. 63 00:03:37,950 --> 00:03:40,630 Hinton era psicólogo cognitivo e informático, ¿no? 64 00:03:40,630 --> 00:03:41,630 ¿Qué tiene que ver...? 65 00:03:41,630 --> 00:03:47,370 La física con un algoritmo de software, no, no veo la conexión. 66 00:03:47,370 --> 00:03:49,370 Y, sin embargo, es total. 67 00:03:49,370 --> 00:03:52,370 Ahí reside parte de la genialidad. 68 00:03:52,370 --> 00:03:57,370 Lo que hicieron en ese artículo fue tomar prestados conceptos, directamente de la física estadística. 69 00:03:57,370 --> 00:03:58,370 ¿Ah, sí? 70 00:03:58,370 --> 00:04:01,370 Sí, para describir matemáticamente cómo aprende una máquina. 71 00:04:01,370 --> 00:04:03,370 Usaron la idea de energía. 72 00:04:03,370 --> 00:04:09,370 A ver, imagina que la red neuronal es un sistema físico, como un paisaje, un valle con montañas. 73 00:04:09,370 --> 00:04:09,870 Vale. 74 00:04:09,870 --> 00:04:11,370 Cada estado posible de la red tiene un sistema físico. 75 00:04:11,370 --> 00:04:13,370 Cada red tiene un nivel de energía. 76 00:04:13,370 --> 00:04:17,370 El estado con el error más alto es como estar en la cima de una montaña. 77 00:04:17,370 --> 00:04:19,370 Es muy inestable. 78 00:04:19,370 --> 00:04:23,370 Aprender, para ellos, era el proceso de minimizar esa energía. 79 00:04:23,370 --> 00:04:26,370 Como dejar que una bola ruede cuesta abajo. 80 00:04:26,370 --> 00:04:27,370 Justo. 81 00:04:27,370 --> 00:04:30,370 Que ruede hasta encontrar el punto más bajo y estable del valle. 82 00:04:30,370 --> 00:04:32,370 Ese punto sería la respuesta correcta. 83 00:04:32,370 --> 00:04:34,370 Vaya, es brillante. 84 00:04:34,370 --> 00:04:38,370 Usar una metáfora de la física para describir cómo se reduce en error matemático. 85 00:04:38,370 --> 00:04:40,370 Pero, si hablamos del Nobel. 86 00:04:41,370 --> 00:04:43,370 Los autores del paper, hay una ausencia que duele. 87 00:04:43,370 --> 00:04:44,370 Sí. 88 00:04:44,370 --> 00:04:48,370 El primer autor, la persona que lideraba la investigación, era David Rumelhart. 89 00:04:48,370 --> 00:04:51,370 ¿Por qué no compartió el premio con Hinton? 90 00:04:51,370 --> 00:04:53,370 Por la razón más triste y definitiva. 91 00:04:53,370 --> 00:04:56,370 David Rumelhart falleció en 2011. 92 00:04:56,370 --> 00:04:59,370 Y las reglas del Comité Nobel son inflexibles. 93 00:04:59,370 --> 00:05:01,370 Los premios no se pueden conceder a título póstumo. 94 00:05:01,370 --> 00:05:04,370 Qué injusticia poética. 95 00:05:04,370 --> 00:05:09,370 El líder del proyecto no recibe el máximo reconocimiento por una regla burocrática. 96 00:05:09,370 --> 00:05:10,370 Es terrible. 97 00:05:10,370 --> 00:05:16,370 Y eso pone su contribución, la visión que venía de la psicología, en un relieve todavía más importante. 98 00:05:16,370 --> 00:05:17,370 Totalmente. 99 00:05:17,370 --> 00:05:18,370 Exacto. 100 00:05:18,370 --> 00:05:22,370 Por eso es fundamental que este análisis sirva también como un homenaje a su figura. 101 00:05:22,370 --> 00:05:24,370 Rumelhart no era sólo un nombre en la portada. 102 00:05:24,370 --> 00:05:29,370 Era el motó intelectual del grupo de investigación PDP, procesamiento distribuido en paralelo. 103 00:05:29,370 --> 00:05:31,370 En la Universidad de California en San Diego. 104 00:05:31,370 --> 00:05:32,370 Ajá. 105 00:05:32,370 --> 00:05:36,370 Su obsesión, desde la psicología cognitiva, era entender cómo aprende nuestro cerebro. 106 00:05:36,370 --> 00:05:38,370 No interesaba la lógica pura. 107 00:05:38,370 --> 00:05:42,370 Sino cómo procesamos información de forma masivamente paralela, distribuida. 108 00:05:42,370 --> 00:05:44,370 Él aportó la pregunta fundamental. 109 00:05:44,370 --> 00:05:47,370 Y los otros dos completaron el equipo perfecto. 110 00:05:47,370 --> 00:05:49,370 Un equipo de ensueño, vamos. 111 00:05:49,370 --> 00:05:50,370 Geoffrey Hinton. 112 00:05:50,370 --> 00:05:52,370 Era el genio computacional y teórico. 113 00:05:52,370 --> 00:05:57,370 El que podía traducir esas intuiciones sobre el cerebro en algoritmos elegantes. 114 00:05:57,370 --> 00:05:59,370 Y faltaría el tercero. 115 00:05:59,370 --> 00:06:01,370 Y no hay que olvidar al tercer autor. 116 00:06:01,370 --> 00:06:02,370 Ronald Williams. 117 00:06:02,370 --> 00:06:04,370 Él era el ingeniero matemático. 118 00:06:04,370 --> 00:06:07,370 El que aportó el rigor, la solidez, la prueba formal a las ecuaciones. 119 00:06:07,370 --> 00:06:09,370 Que lo hacían todo posible. 120 00:06:09,370 --> 00:06:11,370 Un psicólogo con la visión. 121 00:06:11,370 --> 00:06:13,370 Un informático con el algoritmo. 122 00:06:13,370 --> 00:06:15,370 Y un matemático con la prueba. 123 00:06:15,370 --> 00:06:16,370 Juntos. 124 00:06:16,370 --> 00:06:18,370 En mitad del invierno de la IA. 125 00:06:18,370 --> 00:06:20,370 A punto de encender la mecha. 126 00:06:20,370 --> 00:06:21,370 Vale. 127 00:06:21,370 --> 00:06:26,370 Tenemos a este equipo de ensueño trabajando mientras el resto del mundo cree que su campo es un fracaso. 128 00:06:26,370 --> 00:06:30,370 ¿Cuál fue exactamente la joya de la corona de ese paper? 129 00:06:30,370 --> 00:06:32,370 El concepto que lo cambió todo. 130 00:06:32,370 --> 00:06:34,370 La retropropagación de errores. 131 00:06:34,370 --> 00:06:36,370 O como se la conoce en todo el mundo. 132 00:06:36,370 --> 00:06:37,370 Backpropagation. 133 00:06:37,370 --> 00:06:39,370 El corazón de todo. 134 00:06:39,370 --> 00:06:46,370 Y antes de que la palabra propagación asuste a alguien, la idea es increíblemente intuitiva si usamos la analogía correcta. 135 00:06:46,370 --> 00:06:47,370 Venga. 136 00:06:47,370 --> 00:06:50,370 Olvidémonos de las matemáticas y pensemos en una orquesta. 137 00:06:50,370 --> 00:06:51,370 Me apunto. 138 00:06:51,370 --> 00:06:55,370 Imagina una orquesta sinfónica enorme. Cientos de músicos. 139 00:06:55,370 --> 00:06:59,370 Y el director les pide que toquen una sinfonía nueva y muy compleja. 140 00:06:59,370 --> 00:07:03,370 Pero, para complicarlo todo, no les da la partitura. 141 00:07:03,370 --> 00:07:04,370 O sea, de oído. 142 00:07:04,370 --> 00:07:05,370 De oído. 143 00:07:05,370 --> 00:07:06,370 El desastre está garantizado. 144 00:07:06,370 --> 00:07:08,370 Un caos de sonido absoluto. 145 00:07:08,370 --> 00:07:09,370 Exacto. 146 00:07:09,370 --> 00:07:13,370 Ese primer intento es lo que en el paper llaman el forward pass. 147 00:07:13,370 --> 00:07:15,370 La pasada hacia delante. 148 00:07:15,370 --> 00:07:16,370 El director da la señal. 149 00:07:16,370 --> 00:07:17,370 La orquesta toca. 150 00:07:17,370 --> 00:07:22,370 Y el resultado, pues un ruido desafinado, atonal, un desastre. 151 00:07:22,370 --> 00:07:26,370 La información fluye hacia delante, de los músicos al oído del director. 152 00:07:26,370 --> 00:07:27,370 Bien. Paso uno. 153 00:07:27,370 --> 00:07:28,370 El intento fallido. 154 00:07:28,370 --> 00:07:29,370 Paso dos. 155 00:07:29,370 --> 00:07:31,370 El cálculo del error. 156 00:07:31,370 --> 00:07:34,370 El director, que sí tiene la partitura perfecta en su cabeza, 157 00:07:34,370 --> 00:07:38,370 compara el ruido que acaba de oír con la sinfonía ideal. 158 00:07:38,370 --> 00:07:43,370 La diferencia, esa distancia entre el caos y la perfección, es el error. 159 00:07:43,370 --> 00:07:45,370 Vale. Hasta aquí entiendo. 160 00:07:45,370 --> 00:07:48,370 Pero esto ya se sabía hacer, ¿no? 161 00:07:48,370 --> 00:07:50,370 Sí. Hasta aquí nada nuevo. 162 00:07:50,370 --> 00:07:53,370 Esto ya se sabía hacer en 1986. 163 00:07:53,370 --> 00:07:57,370 Sabían que la red estaba equivocada, pero no sabían cómo arreglarla. 164 00:07:57,370 --> 00:08:00,370 Claro. El problema es qué hacer con ese error. 165 00:08:00,370 --> 00:08:03,370 Supongo que gritar, lo habéis hecho fatal. 166 00:08:03,370 --> 00:08:06,370 Repetid. No ayuda a nadie a mejorar. 167 00:08:06,370 --> 00:08:08,370 Justo ahí está la clave. 168 00:08:08,370 --> 00:08:11,370 Y aquí llega la magia de 1986. 169 00:08:11,370 --> 00:08:13,370 El backward pass. 170 00:08:13,370 --> 00:08:14,370 La pasada hacia atrás. 171 00:08:14,370 --> 00:08:15,370 ¿Y qué hace el director? 172 00:08:15,370 --> 00:08:18,370 Pues no se limita a dar una crítica general e inútil. 173 00:08:18,370 --> 00:08:21,370 Lo que hace es recorrer la orquesta en sentido inverso. 174 00:08:21,370 --> 00:08:24,370 Empieza por la última fila, la de la percusión. 175 00:08:24,370 --> 00:08:25,370 Hacia atrás. 176 00:08:25,370 --> 00:08:28,370 Y va avanzando hacia delante hasta los primeros violines. 177 00:08:28,370 --> 00:08:32,370 Y le da una instrucción precisa y específica a cada músico. 178 00:08:33,370 --> 00:08:35,370 No una bronca colectiva. 179 00:08:35,370 --> 00:08:37,370 Sino un susurro individual. 180 00:08:37,370 --> 00:08:38,370 Precisamente. 181 00:08:38,370 --> 00:08:40,370 Se acerca al timbalista y le dice. 182 00:08:40,370 --> 00:08:43,370 Tú tocaste demasiado fuerte en el compás 32. 183 00:08:43,370 --> 00:08:46,370 Reduce tu intensidad un 10%. 184 00:08:46,370 --> 00:08:47,370 Luego va al OVE. 185 00:08:47,370 --> 00:08:49,370 Tu nota LA estaba un poco baja de tono. 186 00:08:49,370 --> 00:08:50,370 Súbela ligeramente. 187 00:08:50,370 --> 00:08:53,370 O sea que sabe exactamente cuánta culpa tiene cada uno. 188 00:08:53,370 --> 00:08:56,370 Sabe cuánta culpa del error final tiene cada músico. 189 00:08:56,370 --> 00:08:58,370 Y se la asigna de forma justa. 190 00:08:58,370 --> 00:09:01,370 Quizás se acerca a la flautista de la tercera fila y le dice. 191 00:09:01,370 --> 00:09:02,370 Tú lo hiciste perfecto. 192 00:09:02,370 --> 00:09:04,370 No cambies absolutamente nada. 193 00:09:04,370 --> 00:09:08,370 Me imagino al pobre timbalista recibiendo toda la bronca en la primera ronda. 194 00:09:08,370 --> 00:09:10,370 Y en realidad el problema era el OVE. 195 00:09:10,370 --> 00:09:11,370 Podría pasar. 196 00:09:11,370 --> 00:09:12,370 Pero el algoritmo es justo. 197 00:09:12,370 --> 00:09:14,370 Reparte la culpa proporcionalmente. 198 00:09:14,370 --> 00:09:16,370 Y este reparto es el cuarto paso. 199 00:09:16,370 --> 00:09:18,370 El ajuste de pesos. 200 00:09:18,370 --> 00:09:19,370 El ajuste. 201 00:09:19,370 --> 00:09:22,370 Cada músico, que en nuestra red es una neurona, 202 00:09:22,370 --> 00:09:24,370 ajusta su forma de tocar. 203 00:09:24,370 --> 00:09:29,370 Ese ajuste es lo que llamamos cambiar los pesos de sus conexiones. 204 00:09:29,370 --> 00:09:31,370 Y el quinto paso es simplemente iterar. 205 00:09:31,370 --> 00:09:34,370 Vuelven a tocar la sinfonía desde el principio. 206 00:09:34,370 --> 00:09:37,370 Y ahora suena un poco menos a desastre. 207 00:09:37,370 --> 00:09:38,370 Un poco mejor, sí. 208 00:09:38,370 --> 00:09:39,370 El error es menor. 209 00:09:39,370 --> 00:09:42,370 Así que el director vuelve a hacer lo mismo. 210 00:09:42,370 --> 00:09:44,370 Compara, calcula el nuevo error, 211 00:09:44,370 --> 00:09:48,370 y vuelve a recorrer la orquesta hacia atrás repartiendo nuevas instrucciones. 212 00:09:48,370 --> 00:09:49,370 Más refinadas, imagino. 213 00:09:49,370 --> 00:09:50,370 Mucho más. 214 00:09:50,370 --> 00:09:54,370 Ahora el timbal está bien, pero el trombón se ha pasado un poco. 215 00:09:54,370 --> 00:09:57,370 Y repite en este ciclo no diez ni cien veces, 216 00:09:57,370 --> 00:09:59,370 sino miles, millones de veces. 217 00:09:59,370 --> 00:10:01,370 En cada iteración, 218 00:10:01,370 --> 00:10:03,370 la orquesta suena un poquito más afinada. 219 00:10:03,370 --> 00:10:05,370 Hasta que finalmente... 220 00:10:05,370 --> 00:10:06,370 La sinfonía es perfecta. 221 00:10:06,370 --> 00:10:08,370 ...indistinguible de la perfección. 222 00:10:08,370 --> 00:10:09,370 Es increíble. 223 00:10:09,370 --> 00:10:13,370 O sea que el secreto no era sólo saber que la orquesta sonaba mal, 224 00:10:13,370 --> 00:10:16,370 sino tener una fórmula matemática 225 00:10:16,370 --> 00:10:20,370 para que el director pudiera susurrarle la corrección exacta a cada músico. 226 00:10:20,370 --> 00:10:21,370 Exacto. 227 00:10:21,370 --> 00:10:24,370 Sobre todo a los de las filas de en medio, 228 00:10:24,370 --> 00:10:27,370 las capas ocultas, que están más escondidos 229 00:10:27,370 --> 00:10:30,370 y cuyo impacto en el sonido final es más difícil de medir. 230 00:10:31,370 --> 00:10:33,370 No sabía cómo hacer eso con las neuronas. 231 00:10:33,370 --> 00:10:34,370 Diste en el clavo. 232 00:10:34,370 --> 00:10:36,370 Ese era el gran muro. 233 00:10:36,370 --> 00:10:38,370 Se sabía entrenar redes de una sola capa. 234 00:10:38,370 --> 00:10:41,370 Pero en cuanto metías capas intermedias, 235 00:10:41,370 --> 00:10:42,370 las capas ocultas, 236 00:10:42,370 --> 00:10:45,370 era imposible saber si una neurona de en medio 237 00:10:45,370 --> 00:10:48,370 había contribuido mucho, poco o nada al error final. 238 00:10:48,370 --> 00:10:51,370 ¿Y la retropropagación? 239 00:10:51,370 --> 00:10:54,370 Fue la llave que resolvió ese misterio del reparto de la culpa. 240 00:10:54,370 --> 00:10:57,370 Permitió que la señal de error fluyera hacia atrás 241 00:10:57,370 --> 00:11:00,370 a través de toda la red, por muy profunda que fuera. 242 00:11:00,370 --> 00:11:03,370 Esta idea de repartir la culpa hacia atrás 243 00:11:03,370 --> 00:11:05,370 parece tan intuitiva con tu analogía. 244 00:11:05,370 --> 00:11:08,370 Pero, ¿cuáles fueron las consecuencias reales? 245 00:11:08,370 --> 00:11:11,370 ¿Por qué esto no fue sólo un paper ingenioso más, 246 00:11:11,370 --> 00:11:13,370 sino el inicio de una revolución? 247 00:11:13,370 --> 00:11:16,370 El impacto fue doble y es gigantesco. 248 00:11:16,370 --> 00:11:20,370 El primer gran impacto es que permitió la profundidad. 249 00:11:20,370 --> 00:11:23,370 La palabra deep en deep learning, aprendizaje profundo, 250 00:11:23,370 --> 00:11:26,370 existe gracias a la retropropagación. 251 00:11:26,370 --> 00:11:27,370 ¿Por qué? 252 00:11:27,370 --> 00:11:29,370 ¿No se podían hacer redes con muchas capas antes? 253 00:11:29,370 --> 00:11:32,370 Se podían dibujar en una pizarra, pero no se podían entrenar. 254 00:11:32,370 --> 00:11:35,370 Era como tener una orquesta de mil filas de músicos. 255 00:11:35,370 --> 00:11:38,370 El director podía oír el caos al final, 256 00:11:38,370 --> 00:11:41,370 pero su voz no llegaba a los de la primera fila. 257 00:11:41,370 --> 00:11:44,370 El error se diluía, se desvanecía en el camino hacia atrás. 258 00:11:44,370 --> 00:11:47,370 ¿Y la retropropagación es como un megáfono? 259 00:11:47,370 --> 00:11:50,370 Es el megáfono que permite que la señal de corrección 260 00:11:50,370 --> 00:11:53,370 llegue intacta hasta la primera neurona de la primera capa, 261 00:11:53,370 --> 00:11:55,370 sin importar si hay cien capas en medio. 262 00:11:55,370 --> 00:11:58,370 Y esa profundidad es lo que permite a la IA aprender conceptos abstractos. 263 00:11:59,370 --> 00:12:03,370 Es como construir con ladrillos cada vez más complejos. 264 00:12:03,370 --> 00:12:04,370 Exactamente. 265 00:12:04,370 --> 00:12:08,370 Una red superficial puede aprender a detectar algo muy simple en una imagen, 266 00:12:08,370 --> 00:12:10,370 como una línea diagonal. 267 00:12:10,370 --> 00:12:12,370 Pero si añades más capas, 268 00:12:12,370 --> 00:12:14,370 la segunda capa puede aprender a combinar esas líneas 269 00:12:14,370 --> 00:12:16,370 para detectar bordes y esquinas. 270 00:12:16,370 --> 00:12:19,370 La tercera, a combinar bordes para detectar formas 271 00:12:19,370 --> 00:12:21,370 como un ojo o una nariz. 272 00:12:21,370 --> 00:12:22,370 Y la capa final… 273 00:12:22,370 --> 00:12:25,370 Combina ojos y narices para reconocer una cara. 274 00:12:25,370 --> 00:12:28,370 Esa jerarquía de conocimiento, de lo simple a lo abstracto, 275 00:12:28,370 --> 00:12:30,370 solo es posible con profundidad. 276 00:12:30,370 --> 00:12:33,370 Y la profundidad solo se puede entrenar con retropropagación. 277 00:12:33,370 --> 00:12:36,370 Así que la palabra Deep en Deep Learning es literal. 278 00:12:36,370 --> 00:12:39,370 Se refiere a tener muchas, muchas capas de músicos. 279 00:12:39,370 --> 00:12:43,370 Y la retropropagación es el único director que sabe cómo dirigirlas a todas. 280 00:12:43,370 --> 00:12:45,370 Entendido. 281 00:12:45,370 --> 00:12:47,370 Ese es el primer impacto, la profundidad. 282 00:12:47,370 --> 00:12:49,370 ¿Y el segundo? 283 00:12:49,370 --> 00:12:53,370 Su increíble, casi milagrosa resistencia al tiempo. 284 00:12:53,370 --> 00:12:55,370 Estamos en enero de 2026. 285 00:12:55,370 --> 00:12:56,370 Cierto. 286 00:12:56,370 --> 00:12:57,370 Las arquitecturas de IA, 287 00:12:57,370 --> 00:12:59,370 que dominan el mundo, 288 00:12:59,370 --> 00:13:02,370 son inmensamente más sofisticadas que las de 1986. 289 00:13:02,370 --> 00:13:04,370 Hablamos de Transformers, 290 00:13:04,370 --> 00:13:06,370 de modelos de estado espacio como Mamba, 291 00:13:06,370 --> 00:13:08,370 de redes CAN. 292 00:13:08,370 --> 00:13:12,370 Son como naves espaciales comparadas con el biplano de los hermanos Wright. 293 00:13:12,370 --> 00:13:13,370 Totalmente. 294 00:13:13,370 --> 00:13:15,370 Pero si abres el capó de GPT-5, 295 00:13:15,370 --> 00:13:16,370 o de un coche autónomo, 296 00:13:16,370 --> 00:13:18,370 o de un robot humanoide, 297 00:13:18,370 --> 00:13:22,370 el motor, el mecanismo fundamental que ajusta los miles de millones de parámetros 298 00:13:22,370 --> 00:13:24,370 para que la máquina aprenda, 299 00:13:24,370 --> 00:13:26,370 sigue siendo, en esencia, 300 00:13:26,370 --> 00:13:29,370 una variante de la repropropagación de 1986. 301 00:13:29,370 --> 00:13:30,370 Es alucinante. 302 00:13:30,370 --> 00:13:33,370 La idea central sigue viva y funcionando 303 00:13:33,370 --> 00:13:36,370 en el corazón de la tecnología más avanzada del planeta, 304 00:13:36,370 --> 00:13:38,370 casi 40 años después. 305 00:13:38,370 --> 00:13:40,370 Es el motor de combustión de la inteligencia artificial. 306 00:13:40,370 --> 00:13:42,370 La carrocería ha cambiado, 307 00:13:42,370 --> 00:13:44,370 los extras son de ciencia ficción, 308 00:13:44,370 --> 00:13:47,370 pero el principio de cómo el pistón sube y baja 309 00:13:47,370 --> 00:13:48,370 para generar el aprendizaje, 310 00:13:48,370 --> 00:13:50,370 sigue siendo el mismo. 311 00:13:50,370 --> 00:13:52,370 Y pensar en la perseverancia que hizo falta. 312 00:13:52,370 --> 00:13:55,370 Hinton y los demás defendieron esta idea durante décadas. 313 00:13:55,370 --> 00:13:59,370 Esa travesía por el desierto debió ser increíblemente frustrante. 314 00:13:59,370 --> 00:14:00,370 Durísima. 315 00:14:00,370 --> 00:14:02,370 Tener el mapa del tesoro, 316 00:14:02,370 --> 00:14:04,370 pero que nadie te preste un barco para ir a por él. 317 00:14:04,370 --> 00:14:06,370 Fue una batalla intelectual tremenda. 318 00:14:06,370 --> 00:14:08,370 Durante los 80 y los 90, 319 00:14:08,370 --> 00:14:10,370 la corriente dominante, 320 00:14:10,370 --> 00:14:12,370 liderada por figuras como el propio Minsky, 321 00:14:12,370 --> 00:14:14,370 era la IA simbólica. 322 00:14:14,370 --> 00:14:15,370 La de las reglas. 323 00:14:15,370 --> 00:14:16,370 Eso es. 324 00:14:16,370 --> 00:14:21,370 Que IA ante la inteligencia debía programarse con reglas lógicas explícitas. 325 00:14:21,370 --> 00:14:25,370 La idea de que una red aprendiera patrones de forma borrosa, 326 00:14:25,370 --> 00:14:28,370 casi estadística, como un cerebro, 327 00:14:28,370 --> 00:14:30,370 era vista como poco científica, 328 00:14:30,370 --> 00:14:32,370 casi como alquimia. 329 00:14:32,370 --> 00:14:34,370 Los conexionistas, como se les llamaba, 330 00:14:34,370 --> 00:14:36,370 eran una minoría casi herética. 331 00:14:36,370 --> 00:14:39,370 Tuvieron que aguantar años de escepticismo, 332 00:14:39,370 --> 00:14:41,370 esperando a que el mundo se diera cuenta. 333 00:14:41,370 --> 00:14:44,370 Y eso nos lleva a la gran conclusión. 334 00:14:44,370 --> 00:14:48,370 ¿Cuál es la lección final de este viaje a 1986? 335 00:14:48,370 --> 00:14:50,370 La lección, yo creo, 336 00:14:50,370 --> 00:14:52,370 es que un artículo puramente teórico, 337 00:14:52,370 --> 00:14:54,370 de apenas cuatro páginas, 338 00:14:54,370 --> 00:14:56,370 nacido en mitad de una crisis de fe, 339 00:14:56,370 --> 00:14:58,370 contenía la semilla matemática 340 00:14:58,370 --> 00:15:01,370 de toda la revolución tecnológica que estamos viviendo. 341 00:15:01,370 --> 00:15:02,370 Es una locura. 342 00:15:02,370 --> 00:15:04,370 Demuestra, de una forma bellísima, 343 00:15:04,370 --> 00:15:07,370 cómo una idea brillante puede necesitar décadas 344 00:15:07,370 --> 00:15:09,370 para que el mundo, y sobre todo el hardware, 345 00:15:09,370 --> 00:15:11,370 esté a su altura. 346 00:15:11,370 --> 00:15:14,370 La teoría, a veces, corre mucho más rápido que la práctica. 347 00:15:14,370 --> 00:15:16,370 Punto perfecto para cerrar. 348 00:15:16,370 --> 00:15:19,370 Porque lo fascinante es que en 1986 349 00:15:19,370 --> 00:15:22,370 tenían la teoría, tenían el mapa del tesoro, 350 00:15:22,370 --> 00:15:25,370 pero les faltaban dos cosas cruciales. 351 00:15:25,370 --> 00:15:27,370 Dos cosas enormes. 352 00:15:27,370 --> 00:15:29,370 Les faltaba la gasolina, 353 00:15:29,370 --> 00:15:32,370 la escala masiva de datos de Internet que aún no existía, 354 00:15:32,370 --> 00:15:34,370 y les faltaba el motor, 355 00:15:34,370 --> 00:15:37,370 la brutal potencia de cálculo de las GPUs, 356 00:15:37,370 --> 00:15:39,370 las tarjetas gráficas de los videojuegos. 357 00:15:39,370 --> 00:15:42,370 Tenían el diseño del coche de carreras más rápido del mundo, 358 00:15:42,370 --> 00:15:45,370 pero solo tenían carreteras de tierra 359 00:15:45,370 --> 00:15:47,370 y un combustible de muy bajo octanaje. 360 00:15:47,370 --> 00:15:49,370 Exacto. 361 00:15:49,370 --> 00:15:51,370 Tuvieron que esperar 26 largos años 362 00:15:51,370 --> 00:15:53,370 en las sombras, casi olvidados, 363 00:15:53,370 --> 00:15:57,370 hasta que un concurso de reconocimiento de imágenes en 2012 364 00:15:57,370 --> 00:15:59,370 lo cambió todo para siempre. 365 00:15:59,370 --> 00:16:02,370 Pero esa historia la exploraremos en nuestro próximo análisis. 366 00:16:02,370 --> 00:16:05,370 Y esto nos deja con una idea para reflexionar. 367 00:16:05,370 --> 00:16:08,370 Si el algoritmo que define nuestra era 368 00:16:08,370 --> 00:16:11,370 tuvo que esperar casi 30 años a que el hardware lo alcanzara, 369 00:16:11,370 --> 00:16:14,370 ¿qué ideas que hoy consideramos imposibles, 370 00:16:14,370 --> 00:16:16,370 académicas o pura ciencia ficción 371 00:16:16,370 --> 00:16:18,370 están solo a la espera de un avance tecnológico 372 00:16:18,370 --> 00:16:20,370 para convertirse en la realidad cotidiana de 2012? 373 00:16:22,370 --> 00:16:34,870 Y hasta aquí el episodio de hoy. 374 00:16:34,870 --> 00:16:36,870 Muchas gracias por tu atención. 375 00:16:38,870 --> 00:16:48,320 Esto es BIMPRAXIS. 376 00:16:48,320 --> 00:16:51,320 Nos escuchamos en el próximo episodio.