1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,350 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,970 --> 00:00:29,650 ¡Empezamos! 4 00:00:37,120 --> 00:00:43,520 Bienvenidos, hoy retomamos nuestra serie, los papers que cambiaron la historia de la IA, con la segunda entrega. 5 00:00:43,520 --> 00:00:48,780 Y si la primera fue sobre los cimientos teóricos, la de hoy es, vamos, el Big Bang. 6 00:00:49,160 --> 00:00:56,760 Totalmente. Es el momento en que toda esa teoría explota y se convierte en una fuerza que, bueno, ha definido la última década por completo. 7 00:00:57,220 --> 00:01:06,540 Hablamos del paper ImageNet Classification with Deep Convolutional Neural Networks, publicado por tres nombres clave de la Universidad de Toronto. 8 00:01:06,540 --> 00:01:13,500 Alex Krisevsky, Ilya Sutskever y, de nuevo con nosotros, el padrino del Deep Learning, Geoffrey Hinton. 9 00:01:14,280 --> 00:01:14,920 Exacto. 10 00:01:15,200 --> 00:01:22,840 La misión de hoy es entender qué pasó exactamente ese día, el 30 de septiembre de 2012. Porque no es una fecha cualquiera. 11 00:01:23,060 --> 00:01:23,500 Para nada. 12 00:01:23,800 --> 00:01:28,680 Muchos la consideran el nacimiento de la inteligencia artificial moderna, la que conocemos hoy. 13 00:01:29,240 --> 00:01:33,960 Y para entender esa explosión, primero hay que viajar al silencio que había justo antes. 14 00:01:33,960 --> 00:01:39,380 Desde luego. El mundo antes de 2012 era radicalmente distinto. 15 00:01:40,200 --> 00:01:43,500 La visión por computador, por ejemplo, era un campo con avances. 16 00:01:43,520 --> 00:01:46,840 Avances muy, muy lentos. Casi glaciales. 17 00:01:47,120 --> 00:01:48,820 ¿Y eso por qué? ¿Faltaba interés? 18 00:01:49,020 --> 00:01:52,980 Faltaba financiación, porque los resultados prácticos eran muy modestos. 19 00:01:53,420 --> 00:02:01,440 Todo el mundo, toda la comunidad científica pensaba que el progreso vendría de algoritmos más elegantes, de refinar las matemáticas. 20 00:02:01,740 --> 00:02:02,760 No de la fuerza bruta. 21 00:02:02,960 --> 00:02:12,700 Para nada. La idea de usar redes neuronales gigantes, el Deep Learning, se consideraba una excentricidad, una curiosidad teórica, pero impracticable. 22 00:02:12,960 --> 00:02:13,480 Inviable. 23 00:02:13,920 --> 00:02:16,460 ¿Y cuál era el bloqueo? ¿Qué impedía que funcionara? 24 00:02:16,680 --> 00:02:20,420 Pues había dos bloqueos fundamentales. El primero, la computación. 25 00:02:20,740 --> 00:02:25,360 Se creía que entrenar algo así requería una potencia que simplemente no existía. 26 00:02:25,500 --> 00:02:27,740 O no era accesible para los investigadores, claro. 27 00:02:28,140 --> 00:02:36,080 Exacto. Y el segundo, que quizá es más importante, era la creencia de que no había suficientes datos en el mundo. 28 00:02:36,760 --> 00:02:42,940 Datos etiquetados, organizados, para enseñarle a una red tan enorme, sin que se limitara a memorizarla. 29 00:02:43,520 --> 00:02:43,920 Las fotos. 30 00:02:44,400 --> 00:02:46,020 En lugar de aprender de verdad. 31 00:02:46,360 --> 00:02:46,800 Justo. 32 00:02:47,180 --> 00:02:52,000 Y es ahí, precisamente en el problema de los datos, donde arranca esta historia. 33 00:02:52,620 --> 00:02:58,260 Porque, para entender el éxito de AlexNet, que es el modelo del que hablamos, hay que hablar de su combustible. 34 00:02:59,020 --> 00:02:59,500 Totalmente. 35 00:02:59,500 --> 00:03:04,420 Un combustible que fue tan revolucionario como el motor. El conjunto de datos ImageNet. 36 00:03:05,120 --> 00:03:09,160 Y todo empieza con la visión de una investigadora, Fei-Fei Li, allá por 2006. 37 00:03:09,520 --> 00:03:12,920 Exacto. Fei-Fei Li tuvo una especie de epifanía. 38 00:03:12,920 --> 00:03:19,640 Se dio cuenta de que todo el campo estaba obsesionado con construir mejores modelos. Mejores coches, por así decirlo. 39 00:03:19,860 --> 00:03:21,780 Pero nadie construía las carreteras. 40 00:03:22,060 --> 00:03:23,740 Ni se preocupaba de la gasolina. 41 00:03:24,520 --> 00:03:25,020 Exacto. 42 00:03:25,080 --> 00:03:32,920 Los estaban alimentando con conjuntos de datos que hoy nos parecerían de risa. Miles de imágenes, como mucho. Decenas de miles. 43 00:03:33,260 --> 00:03:35,800 No reflejaban la complejidad del mundo real, vamos. 44 00:03:36,060 --> 00:03:40,900 En absoluto. Ella vio que el cuello de botella no era el algoritmo. Era la materia prima. 45 00:03:40,900 --> 00:03:42,900 Y lo más fascinante es... 46 00:03:42,920 --> 00:03:46,860 ¿De dónde saca la inspiración? De un proyecto de lingüística de los años 80. 47 00:03:47,060 --> 00:03:56,460 Una conexión brillante. Se inspiró en Wernet, que es básicamente un mapa de las relaciones entre palabras. Organiza conceptos en una jerarquía. 48 00:03:56,660 --> 00:03:57,200 A ver, un ejemplo. 49 00:03:57,660 --> 00:04:04,120 Pues, un bastón alemán es un tipo de perro, que es un tipo de cánido, que es un mamífero. Esa estructura. 50 00:04:04,120 --> 00:04:09,680 Ya. La idea de Lino fue de una simplicidad genial. Construir un Wernet con ojos. 51 00:04:10,260 --> 00:04:12,840 Asociar a cada uno de esos conceptos un torrente. 52 00:04:12,920 --> 00:04:20,280 La idea es genial, pero la escala es... demencial. Una cosa es tener la idea y otra llevarla a cabo. 53 00:04:20,380 --> 00:04:27,340 Las cifras marean. La primera versión, de 2009, tenía 12 millones de imágenes en 22.000 categorías. 54 00:04:27,580 --> 00:04:35,980 12 millones. Es que, si una persona se pone a etiquetar una imagen por minuto, sin parar, tardaría más de 22 años. 55 00:04:36,380 --> 00:04:42,160 Imposible para un laboratorio. Una tarea titánica. Y aquí es donde su enfoque fue tan ingenioso. 56 00:04:42,160 --> 00:04:42,900 ¿Qué hicieron? 57 00:04:42,920 --> 00:04:47,800 Recurrieron a una herramienta que entonces era muy nueva. Amazon Mechanical Turk. 58 00:04:47,800 --> 00:04:49,800 Ah, la plataforma de crowdsourcing. 59 00:04:49,800 --> 00:05:00,520 Exacto. Externalizaron microtareas a miles de personas en todo el mundo. Convirtieron un problema de investigación de décadas en un problema de logística masiva. Y lo resolvieron. 60 00:05:00,520 --> 00:05:09,900 Vale, consiguen lo imposible, crean esa especie de biblioteca de alejandría visual y la presentan en 2009. Uno esperaría que la comunidad científica se volviera loca. 61 00:05:09,900 --> 00:05:12,900 Pues la reacción fue un silencio sepulcral. 62 00:05:12,920 --> 00:05:22,500 En serio. Casi total. El feedback fue descorazonador. Es demasiado grande. Es un desastre. Demasiado complejo. No me lo puedo creer. 63 00:05:22,760 --> 00:05:32,060 Piensa que los modelos punteros de la época manejaban, con suerte, una docena de categorías. Enfrentarlos a 22.000. A la mayoría les pareció una locura. 64 00:05:32,300 --> 00:05:37,200 Entonces, tienen un circuito de Fórmula 1 increíble, pero nadie quiere correr en él. 65 00:05:37,440 --> 00:05:41,620 Justo. Así que, ¿qué hicieron? ¿Organizar su propia carrera? 66 00:05:41,620 --> 00:05:42,060 Claro. 67 00:05:42,920 --> 00:05:53,980 El ImageNet Large Scale Visual Recognition Challenge. El ILS VRC. Una competición anual. Simplificaron el problema a mil categorías y lanzaron el guante. 68 00:05:54,220 --> 00:05:56,420 Este es el nuevo estándar. A ver qué podéis hacer. 69 00:05:56,540 --> 00:06:01,520 Y funcionó. Se convirtió de la noche a la mañana en el mundial de la visión por computador. 70 00:06:01,740 --> 00:06:11,000 Y con ese escenario llegamos a 2012. El 30 de septiembre se publican los resultados. Y un equipo de Toronto con un modelo llamado AlexNet no es que gane. 71 00:06:11,000 --> 00:06:11,640 Cifras. 72 00:06:12,920 --> 00:06:17,960 El mejor resultado tenía una tasa de error del 25,8%. 73 00:06:17,960 --> 00:06:20,960 Bajar del 25 era como el gran objetivo, ¿no? 74 00:06:21,300 --> 00:06:26,780 Era la barrera psicológica. Bueno, pues AlexNet consiguió un 15,3%. 75 00:06:26,780 --> 00:06:28,480 Un momento. ¿15,3? 76 00:06:28,800 --> 00:06:36,920 15,3. El segundo clasificado de ese año, que usaba la mejor tecnología clásica, se quedó en un 26,2%. 77 00:06:36,920 --> 00:06:39,520 O sea, casi 11 puntos de diferencia. 78 00:06:42,920 --> 00:06:51,780 Una demolición. Fue como si un corredor de 100 metros lisos batiera el récord mundial por dos segundos. Un shock absoluto. 79 00:06:52,300 --> 00:06:56,400 Y todo el mundo se hizo la misma pregunta. ¿Qué demonios ha pasado aquí? 80 00:06:56,880 --> 00:07:00,800 Y la respuesta fue que habían apostado por el caballo que todos daban por muerto. 81 00:07:01,380 --> 00:07:06,140 Una red neuronal convolucional. Una CNN, pero muy, muy profunda. 82 00:07:06,660 --> 00:07:08,040 La tormenta perfecta. 83 00:07:08,040 --> 00:07:11,400 Se alinearon tres factores. Primero, los datos. 84 00:07:11,400 --> 00:07:13,660 Por fin tenían ImageNet. 85 00:07:14,240 --> 00:07:18,440 Segundo, el hardware. Las tarjetas gráficas de videojuegos, las GPUs. 86 00:07:18,600 --> 00:07:24,240 Gracias a CUDA de NVIDIA. Eso es, habían alcanzado una potencia que permitía esos cálculos masivos. 87 00:07:24,880 --> 00:07:30,500 Y tercero, el modelo. Una arquitectura de ocho capas con 60 millones de parámetros. 88 00:07:31,160 --> 00:07:36,900 Entiendo. Suena perfecto. Pero otros habían intentado usar redes profundas y habían fracasado. 89 00:07:37,420 --> 00:07:39,960 El truco tuvo que estar en los detalles del modelo, ¿no? 90 00:07:39,960 --> 00:07:41,320 ¿Qué tenía por dentro? 91 00:07:41,400 --> 00:07:42,540 Para que funcionara tan bien. 92 00:07:42,920 --> 00:07:43,740 Esa es la clave. 93 00:07:44,140 --> 00:07:46,900 No eran solo los ingredientes, era la receta. 94 00:07:47,320 --> 00:07:49,980 Y el paper es muy claro sobre cuáles fueron sus trucos. 95 00:07:49,980 --> 00:07:55,980 El primero, y según ellos el más importante, fue cambiar una pieza minúscula, la función de activación. 96 00:07:57,040 --> 00:07:59,200 Usaron algo llamado ReLU. 97 00:07:59,900 --> 00:08:01,740 Rectified Linear Units. 98 00:08:02,360 --> 00:08:05,380 Suena muy técnico, pero la idea es casi ridículamente simple. 99 00:08:05,800 --> 00:08:07,240 Es insultantemente simple. 100 00:08:07,860 --> 00:08:10,980 Las redes de la época usaban funciones matemáticamente complejas. 101 00:08:11,400 --> 00:08:13,860 Como las sigmoides, que se saturan. 102 00:08:14,080 --> 00:08:15,820 Hacen que el aprendizaje sea muy lento. 103 00:08:16,400 --> 00:08:20,980 Agónicamente lento. ReLU es simplemente la función max 0,x. 104 00:08:21,340 --> 00:08:25,860 Si la señal es negativa, la neurona se apaga. Si es positiva, la deja pasar tal cual. 105 00:08:26,360 --> 00:08:26,860 Es trivial. 106 00:08:27,660 --> 00:08:28,180 ¿Y el efecto? 107 00:08:28,700 --> 00:08:34,420 Demoledor. El paper demuestra que las redes con ReLU entrenaban hasta seis veces más rápido. 108 00:08:35,200 --> 00:08:37,160 ¿Seis veces? Es una locura. 109 00:08:37,160 --> 00:08:41,360 Sin esa simpleza, probablemente no habrían tenido tiempo de entrenar su modelo para la computadora. 110 00:08:41,820 --> 00:08:47,260 Es fascinante que la solución no fuera un algoritmo más complejo, sino radicalmente más simple. 111 00:08:47,600 --> 00:08:49,240 Fue un shock cultural, totalmente. 112 00:08:50,020 --> 00:08:53,120 Demostró que a veces la solución más elegante no es la que funciona. 113 00:08:53,740 --> 00:08:57,900 Pero la velocidad era sólo el primer problema. El siguiente era de pura fuerza bruta. 114 00:08:57,980 --> 00:08:58,700 ¿A qué te refieres? 115 00:08:59,300 --> 00:09:03,960 Su modelo era tan gigantesco que no cabía en la memoria de una sola GPU de la época. 116 00:09:04,200 --> 00:09:08,320 Claro. Hablamos de tarjetas con tres gigas de memoria. Hoy nos parece de risa. 117 00:09:08,720 --> 00:09:09,240 Exacto. 118 00:09:09,400 --> 00:09:11,240 Un modelo de 60 millones de kilómetros. 119 00:09:11,400 --> 00:09:12,940 ¿De parámetros no entra ahí? 120 00:09:13,300 --> 00:09:16,240 Parecía un obstáculo insalvable. ¿Cómo lo solucionaron? 121 00:09:16,240 --> 00:09:24,460 Con pura ingeniería. Partieron la red por la mitad, entrenaron unas capas en una GPU y el resto en otra. 122 00:09:24,960 --> 00:09:27,180 Y las comunicaban en puntos concretos. 123 00:09:27,560 --> 00:09:30,180 Y al hacerlo descubrieron algo que no se esperaban. 124 00:09:30,520 --> 00:09:38,080 Algo fascinante. El sistema se autoorganizó. Observaron que cada GPU se especializaba de forma espontánea. 125 00:09:38,420 --> 00:09:39,600 ¿Cómo que se especializaba? 126 00:09:39,600 --> 00:09:39,940 ¿Cómo se especializaba? 127 00:09:39,940 --> 00:09:40,720 Pues, por ejemplo. 128 00:09:41,400 --> 00:09:48,520 Los filtros de una GPU aprendieron a ignorar el color. Se especializaron en detectar bordes, texturas, formas. 129 00:09:48,880 --> 00:09:49,440 Entiendo. 130 00:09:49,740 --> 00:09:55,000 Mientras la otra GPU se especializó justo en lo contrario, en detectar manchas de color. 131 00:09:55,820 --> 00:10:01,300 El sistema creó por sí mismo una especie de hemisferio para la forma y otro para el color. 132 00:10:01,640 --> 00:10:04,260 Eso es alucinante. Es casi biológico. 133 00:10:04,520 --> 00:10:09,520 Totalmente. Vale, ya tienen un modelo que entrena rápido y que cabe en las máquinas. 134 00:10:09,520 --> 00:10:10,520 Pero ahora viene… 135 00:10:11,400 --> 00:10:16,720 El gran fantasma de las redes neuronales. El sobreajuste. El enemigo a batir. 136 00:10:17,420 --> 00:10:22,460 El riesgo de que el modelo se memorizara las fotos en lugar de aprender a generalizar. 137 00:10:22,760 --> 00:10:24,080 ¿Y qué hicieron para evitarlo? 138 00:10:24,320 --> 00:10:28,060 Usaron un arsenal de técnicas, pero dos fueron revolucionarias. 139 00:10:28,660 --> 00:10:32,460 La primera, el data augmentation. El aumento de datos. 140 00:10:32,880 --> 00:10:36,760 La idea de… si no tienes suficientes datos, invéntatelos. 141 00:10:37,160 --> 00:10:41,380 Exactamente. De cada imagen extraían múltiples recortes de datos. 142 00:10:41,380 --> 00:10:44,600 Múltiples, aleatorios y también sus reflejos, como en un espejo. 143 00:10:45,280 --> 00:10:50,900 Con esa técnica tan simple, multiplicaron el tamaño de su dataset por un factor de 2.048. 144 00:10:51,560 --> 00:10:55,220 Brutal. Una forma barata de generar una cantidad ingente de datos. 145 00:10:56,020 --> 00:11:00,160 ¿Y la segunda técnica? Porque esta sí que se ha convertido en un estándar absoluto. 146 00:11:00,380 --> 00:11:07,620 La segunda es dropout. Una de las ideas más brillantes y contraintuitivas del deep learning propuesta por el propio Hinton. 147 00:11:07,800 --> 00:11:09,380 ¿Qué consiste en…? 148 00:11:09,380 --> 00:11:11,360 Durante el entrenamiento, en cada paso de la carrera, se han convertido en un estándar absoluto. 149 00:11:11,380 --> 00:11:15,380 En este caso, apagas al azar la mitad de las neuronas. Simplemente no participan. 150 00:11:16,060 --> 00:11:21,980 Parece una locura. Estás haciendo que tu red sea más tonta a propósito. ¿Por qué funciona eso? 151 00:11:22,220 --> 00:11:30,240 Porque la obliga a ser robusta. Evita que una neurona dependa demasiado de una característica concreta, porque sabe que en cualquier momento puede desaparecer. 152 00:11:30,420 --> 00:11:37,100 La fuerza a aprender representaciones redundantes. Exacto. Al final, todas las neuronas se vuelven más versátiles. 153 00:11:37,100 --> 00:11:41,100 El paper es tajante. Sin dropout, su red sufría de un sobreajuste. 154 00:11:41,380 --> 00:11:42,360 Un sobreajuste sustancial. 155 00:11:42,800 --> 00:11:45,580 Entiendo que, además de esto, hubo otros retoques más finos. 156 00:11:45,720 --> 00:11:55,580 Sí, y eso demuestra la atención al detalle que pusieron. Mencionan una normalización inspirada en la biología y una técnica de pooling solapado. Cada una arañó alguna décima al error. 157 00:11:55,800 --> 00:11:57,140 ¿Fueron el pulido final? 158 00:11:57,620 --> 00:12:04,280 Eso es. Pero las grandes palancas fueron relu, los datos aumentados y, sobre todo, dropout. 159 00:12:04,720 --> 00:12:10,180 El impacto de todo esto fue… sísmico. No fue solo ganar una competición. 160 00:12:10,300 --> 00:12:10,820 No. 161 00:12:11,380 --> 00:12:21,180 Fue demostrarle a todo un campo de investigación que el camino que la mayoría seguía estaba equivocado. Y que esa vía excéntrica de las redes profundas era el futuro. 162 00:12:21,620 --> 00:12:23,420 Un cambio de paradigma total. 163 00:12:23,880 --> 00:12:33,640 Instantáneo. Hay un gráfico muy famoso del repositorio científico Archive. Durante años, la línea de papers de IA es casi plana. Y en 2012… 164 00:12:33,640 --> 00:12:35,200 Se convierte en una pared vertical. 165 00:12:35,200 --> 00:12:41,000 Una pared vertical que no ha dejado de crecer. Alex Nett abrió las compuertas. 166 00:12:41,380 --> 00:12:46,380 Toda la comunidad, y poco después la industria, pivotó masivamente hacia el deep learning. 167 00:12:46,780 --> 00:12:51,640 Y la propia competición, el ILSBRC, es el mejor termómetro de esa revolución. 168 00:12:51,760 --> 00:13:01,100 El mejor. Siguió hasta 2017. Para entonces, la mayoría de modelos ya superaban el umbral del 5% de error que se considera rendimiento sobrehumano. 169 00:13:01,360 --> 00:13:02,420 En solo 5 años. 170 00:13:02,620 --> 00:13:11,040 En 5 años pasamos de luchar por un 25% a superar la capacidad humana. Todo gracias a la explosión que inició Alex Nett. 171 00:13:11,040 --> 00:13:17,100 Mirando hacia atrás, leyendo el paper, ¿eran ellos conscientes de la revolución que estaban desatando? 172 00:13:17,800 --> 00:13:31,100 El párrafo final es que es profético. Pone la piel de gallina. Señalan dos cosas. Primero, dicen que no usaron pre-entrenamiento no supervisado, pero que esperaban que fuera una vía muy fructífera. 173 00:13:31,400 --> 00:13:34,520 Que hoy es el pilar de los modelos como GPT. Lo vieron venir. 174 00:13:34,800 --> 00:13:38,980 Lo vieron venir. Y la segunda parte de la profecía es aún más potente. 175 00:13:38,980 --> 00:13:40,980 ¿Qué dicen? ¿Concluyen diciendo…? 176 00:13:41,040 --> 00:13:43,040 Más o menos. 177 00:13:43,040 --> 00:13:49,040 Nuestros resultados mejoran cuanto más grande hacemos la red y más tiempo la entrenamos. 178 00:13:49,040 --> 00:13:51,040 La receta de la última década. 179 00:13:51,040 --> 00:13:53,040 Y terminan con una frase increíble. 180 00:13:53,040 --> 00:14:01,040 Pero todavía nos quedan muchos órdenes de magnitud para igualar la vía inferotemporal del sistema visual humano. 181 00:14:01,040 --> 00:14:03,040 Alucinante. 182 00:14:03,040 --> 00:14:09,040 O sea, en su momento de mayor triunfo, ya están diciendo, esto es solo el principio y el camino a seguir es la escala. 183 00:14:09,040 --> 00:14:11,040 ¿Más datos? 184 00:14:11,040 --> 00:14:14,040 Modelos más grandes, más computación. 185 00:14:14,040 --> 00:14:21,040 Dejaron clarísimo que el rendimiento estaba ligado a la escala, pero que la brecha con la biología seguía siendo abismal. 186 00:14:21,040 --> 00:14:26,040 AlexNet no fue un invento milagroso. Fue la sinergia perfecta de tres pilares. 187 00:14:26,040 --> 00:14:29,040 Datos masivos, gracias a ImagenNet. 188 00:14:29,040 --> 00:14:33,040 Computación paralela asequible, gracias a las GPUs de los videojuegos. 189 00:14:33,040 --> 00:14:40,040 Y una arquitectura de red profunda, resucitada con innovaciones clave como Relu y Dropout, que por fin la hicieron entrenable. 190 00:14:40,040 --> 00:14:47,040 Esa es la síntesis perfecta. AlexNet no solo resolvió un problema de visión. Cambió las reglas del juego para toda la IA. 191 00:14:47,040 --> 00:14:54,040 Demostró que la escala, tanto de datos como de modelo, era un camino tremendamente poderoso hacia la inteligencia. 192 00:14:54,040 --> 00:15:00,040 Lo que nos deja con una pregunta final. Para reflexionar sobre dónde estamos hoy, más de una década después. 193 00:15:00,040 --> 00:15:08,040 Así es. En 2012, el equipo de Hinton identificó la escala como el camino. Pero reconoció la enorme brecha con el cerebro. 194 00:15:08,040 --> 00:15:12,040 Hoy, operamos con modelos miles de veces más grandes. 195 00:15:12,040 --> 00:15:16,040 Entrenados con datasets que hacen que ImagenNet parezca un juguete. 196 00:15:16,040 --> 00:15:23,040 Exacto. La pregunta que sigue en el aire es, ¿estamos simplemente escalando la misma idea fundamental que ellos propusieron? 197 00:15:23,040 --> 00:15:29,040 ¿O hemos descubierto en este tiempo nuevos principios que nos acerquen de verdad a esa vía infratemporal del cerebro? 198 00:15:29,040 --> 00:15:33,040 Dicho de otro modo, ¿es la inteligencia solo una cuestión de escala computacional? 199 00:15:33,040 --> 00:15:37,040 ¿O nos siguen faltando piezas conceptuales que ni siquiera el Big Bang de AlexNet llegó a iluminar? 200 00:15:38,040 --> 00:15:53,830 Y hasta aquí el episodio de hoy. Muchas gracias por tu atención. 201 00:15:53,830 --> 00:16:07,350 Esto es BIMPRAXIS. Nos escuchamos en el próximo episodio.