1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,330 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,930 --> 00:00:29,650 ¡Empezamos! 4 00:00:37,140 --> 00:00:41,220 Hola, y bienvenidos a un nuevo análisis de BIMPRAXIS. 5 00:00:41,600 --> 00:00:42,440 Hola, ¿qué tal? 6 00:00:42,440 --> 00:00:48,520 Este es el octavo episodio de nuestra serie especial, los papers que cambiaron la historia de la IA. 7 00:00:48,900 --> 00:00:53,380 Y el de hoy es uno de esos que, sin hacer mucho ruido al principio, lo cambió todo. 8 00:00:54,020 --> 00:00:59,720 Hoy vamos a examinar un documento de 2022 que, efectivamente, cambió las reglas del juego. 9 00:01:00,320 --> 00:01:04,740 Se titula Training Language Models to Follow Instructions with Human Feedback. 10 00:01:05,240 --> 00:01:10,980 O, eh, Entrenar Modelos de Lenguaje para Seguir Instrucciones con Retroalimentación Humana. 11 00:01:10,980 --> 00:01:16,140 Es de un equipo de OpenAI, con nombres como Longwu Yang y Jeff Wu. 12 00:01:16,360 --> 00:01:17,640 Y hay que situarse en ese momento. 13 00:01:18,100 --> 00:01:24,960 Totalmente. La filosofía que dominaba era, bueno, bastante simple. Si quieres una IA mejor, hazla más grande. 14 00:01:25,240 --> 00:01:28,280 Más datos, más parámetros, más… y más potencia. 15 00:01:28,640 --> 00:01:34,500 Pero los autores de este paper lanzaron una idea que era casi, casi una herejía en aquel entonces. 16 00:01:34,860 --> 00:01:35,280 Pues sí. 17 00:01:35,540 --> 00:01:40,920 Dijeron que hacer los modelos más grandes no los hace inherentemente mejores, 18 00:01:41,080 --> 00:01:43,640 a la hora de entender lo que de verdad quiere un usuario. 19 00:01:43,980 --> 00:01:45,740 De hecho, a menudo los hacía peores. 20 00:01:46,180 --> 00:01:51,940 Exacto. Generando respuestas falsas, tóxicas o que simplemente no venían a cuento. 21 00:01:52,320 --> 00:01:54,740 Daban palos de ciego por muy potentes que fueran. 22 00:01:55,400 --> 00:01:59,740 El problema de fondo que este documento ataca de frente es el de la alineación. 23 00:02:00,720 --> 00:02:02,740 Una palabra que ahora oímos constantemente. 24 00:02:03,560 --> 00:02:05,600 Pero que entonces era más un concepto teórico. 25 00:02:06,220 --> 00:02:10,560 Se trata de cómo conseguir que una IA potentísima no solo sepa mucho, 26 00:02:10,980 --> 00:02:18,280 sino que use ese conocimiento para alinearse con la intención, los valores y las necesidades de una persona. 27 00:02:18,700 --> 00:02:20,480 Y ese es el reto con mayúsculas. 28 00:02:20,480 --> 00:02:23,380 Pues precisamente eso es lo que vamos a analizar. 29 00:02:23,960 --> 00:02:28,720 Queremos entender el método que propusieron para educar a estos gigantes digitales. 30 00:02:28,920 --> 00:02:33,620 Un método que nos dio una nueva familia de IAS, la llamada InstructGPT. 31 00:02:33,840 --> 00:02:38,460 Que no es otra que la precursora directa de las herramientas que han revolucionado nuestro mundo. 32 00:02:38,820 --> 00:02:39,200 Justo. 33 00:02:39,440 --> 00:02:40,960 Vale, vamos a empezar por el principio. 34 00:02:40,980 --> 00:02:45,680 Porque la primera frase del resumen es toda una declaración de intenciones. 35 00:02:45,820 --> 00:02:47,260 Sí, va directa al grano. 36 00:02:47,680 --> 00:02:48,020 Dice, 37 00:02:48,960 --> 00:02:58,880 ¿Por qué era tan rompedor decir esto en voz alta? 38 00:02:59,300 --> 00:03:02,300 Porque iba totalmente en contra de la inercia de toda una industria. 39 00:03:02,900 --> 00:03:06,800 Estábamos en plena carrera armamentística de los parámetros. 40 00:03:07,180 --> 00:03:07,540 Claro. 41 00:03:07,540 --> 00:03:10,540 Teníamos a GPT-3 con sus 175 millones de... 42 00:03:10,980 --> 00:03:16,540 17 parámetros, una auténtica bestia computacional que podía escribir un texto que parecía humano. 43 00:03:16,920 --> 00:03:17,480 Parecía. 44 00:03:17,760 --> 00:03:19,360 Pero era una bestia salvaje. 45 00:03:19,820 --> 00:03:22,380 Le faltaba, digamos, don de gentes. 46 00:03:22,540 --> 00:03:23,660 No entendía el contexto. 47 00:03:23,900 --> 00:03:24,300 Ajá. 48 00:03:24,440 --> 00:03:27,120 Podía inventarse datos con una seguridad pasmosa. 49 00:03:27,500 --> 00:03:32,560 Soltar una barbaridad o irse por las ramas y escribirte un ensayo cuando solo le habías pedido un resumen. 50 00:03:33,000 --> 00:03:34,080 No estaba alineado. 51 00:03:34,440 --> 00:03:37,120 Es la imagen del genio un poco sociópata, ¿no? 52 00:03:37,420 --> 00:03:37,980 Totalmente. 53 00:03:38,320 --> 00:03:39,200 Sabe de todo. 54 00:03:39,600 --> 00:03:40,940 Puede recitarte la enciclopedia. 55 00:03:41,220 --> 00:03:46,260 Pero es incapaz de mantener una conversación normal o de entender algo tan simple como 56 00:03:46,260 --> 00:03:48,260 explícamelo para que lo entienda un niño. 57 00:03:48,600 --> 00:03:49,540 Justo esa es la imagen. 58 00:03:50,160 --> 00:03:52,920 Tenías una máquina potentísima, pero no te servía de mucho. 59 00:03:53,260 --> 00:03:55,400 Como tener un Ferrari para ir a comprar el pan. 60 00:03:55,820 --> 00:03:56,340 Exacto. 61 00:03:56,680 --> 00:04:00,920 El problema no era la falta de conocimiento, sino la falta de comprensión de la tarea. 62 00:04:01,640 --> 00:04:03,980 Este paper cambió la pregunta fundamental. 63 00:04:04,280 --> 00:04:05,140 ¿Y cuál fue ese cambio? 64 00:04:05,140 --> 00:04:09,040 Pasamos de preguntarnos cuánta información puede almacenar un modelo 65 00:04:09,040 --> 00:04:13,640 a qué tan bien puede usar esa información para ayudar de verdad a una persona. 66 00:04:13,900 --> 00:04:15,040 ¿Entendido el problema? 67 00:04:15,580 --> 00:04:20,860 Entonces, si añadir más y más datos no era la solución, ¿cuál fue su propuesta? 68 00:04:21,300 --> 00:04:24,040 Porque suena a un problema casi filosófico. 69 00:04:24,400 --> 00:04:29,200 Pues su solución fue sorprendentemente elegante y, viéndolo ahora, casi de sentido común. 70 00:04:29,540 --> 00:04:29,900 A ver. 71 00:04:30,480 --> 00:04:34,940 Propusieron un método de entrenamiento en tres fases que no se basaba en más datos de Internet, 72 00:04:34,940 --> 00:04:37,240 sino en la opinión humana. 73 00:04:37,580 --> 00:04:38,940 En enseñar al modelo a base de… 74 00:04:39,040 --> 00:04:40,540 De criterio y preferencia. 75 00:04:40,840 --> 00:04:43,840 Me intriga eso de enseñarle con criterio. 76 00:04:44,320 --> 00:04:46,820 ¿Cómo funciona exactamente el primer paso? 77 00:04:47,100 --> 00:04:49,840 El primer paso lo llamaron ajuste fino supervisado. 78 00:04:50,280 --> 00:04:53,160 Lo que hicieron fue contratar a un equipo de etiquetadores humanos… 79 00:04:53,160 --> 00:04:53,880 ¿Personas, vaya? 80 00:04:54,000 --> 00:04:57,740 Sí, personas, para crear un conjunto de datos de altísima calidad. 81 00:04:58,440 --> 00:04:59,860 Este conjunto tenía dos partes. 82 00:05:00,280 --> 00:05:03,400 Por un lado, una serie de instrucciones muy variadas… 83 00:05:03,400 --> 00:05:04,660 ¿De dónde las sacaban? 84 00:05:04,660 --> 00:05:06,260 Algunas las escribían ellos, 85 00:05:06,660 --> 00:05:08,900 otras eran peticiones reales de usuarios a la app… 86 00:05:09,040 --> 00:05:17,460 Y, por otro lado, los etiquetadores escribían a mano la respuesta que ellos considerarían ideal para cada una de esas instrucciones. 87 00:05:17,820 --> 00:05:24,420 Ah, o sea que, en lugar de soltarlo en la biblioteca infinita de Internet para que aprenda por su cuenta… 88 00:05:24,420 --> 00:05:24,960 Exacto. 89 00:05:24,960 --> 00:05:27,260 ¿Le dieron un manual de buenos ejemplos? 90 00:05:27,380 --> 00:05:35,320 ¿Es como enseñarle a un estudiante no solo con los libros de texto, sino mostrándole los mejores exámenes, los de matrícula de honor, para que vea a qué debe aspirar? 91 00:05:35,360 --> 00:05:36,320 Has captado la esencia. 92 00:05:36,800 --> 00:05:38,960 Es una forma de anclar todo ese conocimiento abstracto. 93 00:05:39,040 --> 00:05:42,020 Y gigantesco a ejemplos concretos de excelencia. 94 00:05:42,360 --> 00:05:44,000 Pero esto es solo el calentamiento. 95 00:05:44,120 --> 00:05:44,500 Ah, ¿sí? 96 00:05:44,700 --> 00:05:49,260 Es en el segundo paso donde la cosa se vuelve mucho más sofisticada y, para mí, brillante. 97 00:05:49,400 --> 00:05:50,540 Pues adelante, cuéntamelo. 98 00:05:50,840 --> 00:05:53,900 El paso 12 es entrenar un modelo de recompensa. 99 00:05:54,560 --> 00:06:02,040 Aquí tomaron el modelo que ya habían ajustado en el paso 1 y, para una misma instrucción, le pidieron que generara varias respuestas distintas. 100 00:06:02,700 --> 00:06:03,060 Vale. 101 00:06:03,480 --> 00:06:05,500 Digamos entre 4 y 9. 102 00:06:05,500 --> 00:06:06,940 Y aquí viene la magia. 103 00:06:06,940 --> 00:06:10,080 Los etiquetadores humanos no tenían que escribir nada. 104 00:06:10,340 --> 00:06:13,140 Solo tenían que ordenar esas respuestas de mejor a peor. 105 00:06:13,260 --> 00:06:13,520 Ah. 106 00:06:13,880 --> 00:06:18,420 La respuesta A es mejor que la C, que, a su vez, es mejor que la D y la B. 107 00:06:18,560 --> 00:06:19,040 Un ranking. 108 00:06:19,300 --> 00:06:19,740 Entiendo. 109 00:06:19,960 --> 00:06:21,220 Aquí la clave es el matiz. 110 00:06:21,780 --> 00:06:25,880 Ya no es un simple esto está bien, sino que le dan una clasificación completa. 111 00:06:26,500 --> 00:06:30,140 Esta respuesta es genial, esta es aceptable, esta otra es bastante mala. 112 00:06:30,300 --> 00:06:30,700 Justo. 113 00:06:30,840 --> 00:06:34,860 Con eso, el sistema puede aprender lo que es la preferencia, la sutileza. 114 00:06:34,860 --> 00:06:36,860 Le están enseñando a tener buen gusto. 115 00:06:37,280 --> 00:06:38,060 Por así decirlo. 116 00:06:38,140 --> 00:06:38,600 Exacto. 117 00:06:38,760 --> 00:06:46,280 Ese conjunto de datos, con miles y miles de comparaciones, se usa para entrenar a un segundo modelo de IA, uno completamente distinto. 118 00:06:46,380 --> 00:06:47,680 ¿Y qué hace ese segundo modelo? 119 00:06:47,860 --> 00:06:50,880 Su única misión en la vida es actuar como un juez. 120 00:06:51,300 --> 00:06:58,360 Se le llama modelo de recompensa y aprende a predecir para cualquier par de respuestas cuál de ellas preferiría un humano. 121 00:06:59,040 --> 00:07:00,440 Internaliza el juicio humano. 122 00:07:00,760 --> 00:07:03,940 Se convierte en una especie de crítico de IA automatizado. 123 00:07:04,620 --> 00:07:05,060 Justo. 124 00:07:05,060 --> 00:07:06,920 Y es la pieza clave del último paso. 125 00:07:07,240 --> 00:07:10,100 Y ese último paso es el que lo une todo, imagino. 126 00:07:10,480 --> 00:07:10,920 Precisamente. 127 00:07:11,300 --> 00:07:13,580 El paso 3 es el que da nombre a toda la técnica. 128 00:07:14,220 --> 00:07:16,880 Aprendizaje por refuerzo con retroalimentación humana. 129 00:07:16,960 --> 00:07:19,820 El famoso RLHF, por sus siglas en inglés. 130 00:07:20,000 --> 00:07:20,460 Ese mismo. 131 00:07:20,980 --> 00:07:25,880 Aquí cogen el modelo de lenguaje original y lo ponen a jugar contra el juez que acabamos de crear. 132 00:07:26,420 --> 00:07:29,340 El modelo recibe una instrucción nueva, genera una respuesta. 133 00:07:29,540 --> 00:07:30,800 Y el juez le pone nota. 134 00:07:31,060 --> 00:07:31,480 Eso es. 135 00:07:31,920 --> 00:07:36,480 El modelo de recompensa le da una puntuación, una recompensa. 136 00:07:36,940 --> 00:07:40,680 Y el objetivo del modelo de lenguaje, a partir de ahí, es simple. 137 00:07:41,380 --> 00:07:45,080 Aprender a generar respuestas que maximicen esa puntuación. 138 00:07:45,740 --> 00:07:47,480 Es un bucle constante de mejora. 139 00:07:47,480 --> 00:07:52,700 El modelo prueba algo, el juez le dice frío, frío o caliente, caliente. 140 00:07:53,200 --> 00:07:55,940 Y el modelo ajusta su estrategia para la siguiente vez. 141 00:07:56,300 --> 00:07:56,480 Sí. 142 00:07:57,560 --> 00:08:04,580 Pasa de ser un simple loro que repite patrones a ser un asistente que intenta activamente dar la mejor respuesta posible. 143 00:08:05,120 --> 00:08:06,560 Un cambio de paradigma brutal. 144 00:08:06,940 --> 00:08:08,340 Has dado en el clavo. 145 00:08:09,040 --> 00:08:14,880 La genialidad está en traducir un concepto tan subjetivo y humano como una buena respuesta 146 00:08:14,880 --> 00:08:20,820 en una señal matemática, una recompensa, que una máquina puede entender y optimizar. 147 00:08:21,360 --> 00:08:23,800 Suena increíblemente bien en la teoría. 148 00:08:24,380 --> 00:08:27,880 Pero la pregunta del millón es, ¿funcionó tan bien en la práctica? 149 00:08:28,300 --> 00:08:29,480 ¿Cuáles fueron los resultados? 150 00:08:30,020 --> 00:08:31,360 Los resultados no fueron buenos. 151 00:08:31,760 --> 00:08:33,260 Fueron espectaculares. 152 00:08:33,540 --> 00:08:36,920 Y hubo un dato que dejó a toda la comunidad de IA con la boca abierta. 153 00:08:37,200 --> 00:08:37,680 ¿Cuál? 154 00:08:38,080 --> 00:08:43,140 En las evaluaciones a ciegas, donde los humanos comparaban respuestas sin saber de qué modelo venían, 155 00:08:43,680 --> 00:08:47,740 las respuestas del modelo InstructGPT de 1.300 millones de parámetros… 156 00:08:47,740 --> 00:08:48,700 El pequeño, digamos. 157 00:08:48,880 --> 00:08:49,680 El pequeño, sí. 158 00:08:50,160 --> 00:08:57,140 Eran preferidas, de forma consistente, a las del gigantesco y todopoderoso GPT-3 de 175.000 millones de parámetros. 159 00:08:57,620 --> 00:08:58,460 Espera un momento. 160 00:08:59,040 --> 00:09:04,380 ¿Me estás diciendo que un modelo 100 veces más pequeño era considerado mejor por la gente? 161 00:09:04,660 --> 00:09:05,340 100 veces, sí. 162 00:09:05,520 --> 00:09:06,440 ¿Esto rompe? 163 00:09:06,440 --> 00:09:08,380 ¿Esto rompe por completo la lógica que imperaba? 164 00:09:08,760 --> 00:09:12,900 O sea, ¿que el sector entero estaba corriendo una maratón en la dirección equivocada? 165 00:09:13,160 --> 00:09:14,880 Les pilló totalmente por sorpresa. 166 00:09:15,140 --> 00:09:21,620 Mientras todos presumían de músculo, de tamaño, OpenAI se centró en la técnica, en la inteligencia real. 167 00:09:21,880 --> 00:09:26,960 Fue la demostración empírica de que la alineación es más importante que la escala bruta. 168 00:09:27,280 --> 00:09:32,580 De repente, la clave para una IA útil no era tener el superordenador más grande del mundo… 169 00:09:32,580 --> 00:09:34,100 Sino ser el mejor profesor. 170 00:09:34,300 --> 00:09:34,820 Exacto. 171 00:09:34,820 --> 00:09:41,160 Y esa elección es la que ha hecho posible que hoy cualquiera pueda tener una conversación coherente con una IA desde su móvil. 172 00:09:41,520 --> 00:09:46,280 Abrió la puerta a crear IAs más eficientes, más baratas y, sobre todo, más seguras. 173 00:09:46,520 --> 00:09:50,000 Y no era solo una cuestión de que las respuestas gustaran más, ¿verdad? 174 00:09:50,580 --> 00:09:53,060 El paper menciona otras mejoras muy concretas. 175 00:09:53,300 --> 00:09:54,520 Sí. Y no solo eso. 176 00:09:55,100 --> 00:09:59,440 Los modelos Instruct GPT mostraron mejoras muy significativas en veracidad. 177 00:09:59,820 --> 00:10:01,960 Dicho de otro modo, inventaban menos cosas. 178 00:10:02,140 --> 00:10:02,820 Las famosas alucinaciones. 179 00:10:03,620 --> 00:10:04,140 Exacto. 180 00:10:04,140 --> 00:10:05,140 Las redujeron drásticamente. 181 00:10:06,400 --> 00:10:11,560 Y, además, se observó una caída en picado en la generación de textos tóxicos u ofensivos. 182 00:10:12,140 --> 00:10:17,420 El entrenamiento con preferencias humanas lo empujó de forma natural hacia respuestas más seguras y fiables. 183 00:10:17,700 --> 00:10:23,040 Entiendo que lo hicieron más amable y seguro, pero a mí eso me suena a que lo caparon un poco. 184 00:10:23,700 --> 00:10:29,580 Al especializarlo tanto en ser útil y correcto, ¿no perdió potencia o versatilidad por el camino? 185 00:10:30,160 --> 00:10:31,340 Es una pregunta fundamental. 186 00:10:31,740 --> 00:10:33,420 Y los propios investigadores se la hicieron. 187 00:10:34,140 --> 00:10:34,840 Fue un gran riesgo. 188 00:10:35,380 --> 00:10:35,640 Claro. 189 00:10:35,940 --> 00:10:41,520 Pero la respuesta que encontraron fue que el modelo tuvo una regresión mínima en su rendimiento en las tareas académicas estándar. 190 00:10:41,780 --> 00:10:44,860 Es decir, no se volvió tonto por aprender a ser más útil y seguro. 191 00:10:45,240 --> 00:10:45,640 Ah, bien. 192 00:10:45,960 --> 00:10:53,360 Mantuvo casi toda su potencia y su conocimiento enciclopédico, pero ahora sabía cómo aplicarlos de una manera mucho más centrada en lo que el usuario necesitaba. 193 00:10:53,980 --> 00:10:54,460 Fascinante. 194 00:10:55,240 --> 00:10:59,480 Mejoraba en utilidad, veracidad y seguridad sin un coste significativo. 195 00:10:59,900 --> 00:11:03,900 A pesar de todo, algo que me llama la atención es que el propio paper es muy humilde. 196 00:11:04,700 --> 00:11:07,020 Admite que aún comete errores simples. 197 00:11:07,440 --> 00:11:08,820 No lo venden como la panacea. 198 00:11:09,060 --> 00:11:13,000 Y esa honestidad es, para mí, una de las grandes virtudes del trabajo. 199 00:11:13,540 --> 00:11:15,600 Son muy transparentes con las limitaciones. 200 00:11:16,220 --> 00:11:17,500 ¿Qué tipo de limitaciones? 201 00:11:18,060 --> 00:11:28,960 Pues que el modelo alineado todavía podía equivocarse en una suma básica, podía generar información falsa si se le insistía o a veces seguía instrucciones dañinas si se le pedían con picaresca. 202 00:11:28,960 --> 00:11:32,220 Y los sesgos de los propios etiquetadores, imagino. 203 00:11:32,300 --> 00:11:32,800 Por supuesto. 204 00:11:34,140 --> 00:11:37,680 Los sesgos de las personas que habían definido lo que era una buena respuesta. 205 00:11:38,080 --> 00:11:44,320 O sea, no lo presentan como el destino final, sino más bien como el mapa que señala un nuevo camino a seguir. 206 00:11:44,660 --> 00:11:45,140 Exactamente. 207 00:11:45,600 --> 00:11:51,560 Lo describen como una dirección prometedora para alinear los modelos de lenguaje con la intención humana. 208 00:11:52,060 --> 00:11:53,460 Y vaya si fue prometedora. 209 00:11:53,460 --> 00:12:00,740 Visto en perspectiva, el método que describen, el RLHF, se ha convertido en el estándar absoluto de la industria. 210 00:12:00,740 --> 00:12:05,620 Es la receta que han seguido todos los grandes modelos de chat que conocemos y usamos hoy. 211 00:12:05,900 --> 00:12:14,260 Este paper no solo nos dio un producto, InstructGPT, sino que regaló al mundo una metodología que ha definido esta era de la IA. 212 00:12:14,580 --> 00:12:15,140 Totalmente. 213 00:12:15,540 --> 00:12:26,280 En resumen, si tuviéramos que quedarnos con una sola idea clave de este trabajo de 2022, sería que la calidad de una IA no depende de su tamaño, sino de lo bien alineada que esté con nosotros. 214 00:12:26,280 --> 00:12:30,280 Y que el método para lograrlo pasa por enseñarle, con paciencia y buenos ejemplos… 215 00:12:30,900 --> 00:12:32,560 ¿Qué es lo que valoramos los humanos? 216 00:12:32,740 --> 00:12:33,020 Claro. 217 00:12:33,480 --> 00:12:36,620 Y esto nos abre una puerta a una conversación mucho más profunda, ¿no? 218 00:12:36,660 --> 00:12:37,560 ¿A qué te vejeres? 219 00:12:37,800 --> 00:12:46,360 Si este método fue tan eficaz para enseñar a una IA a ser más útil y veraz, ¿qué otros valores y matices del comportamiento humano podríamos enseñarle? 220 00:12:47,020 --> 00:12:52,020 La discusión dejó de ser puramente técnica y pasó a ser sobre utilidad, seguridad y valores. 221 00:12:52,460 --> 00:12:56,620 Pasamos de preguntarnos qué pueden hacer a qué deberían hacer. 222 00:12:56,880 --> 00:12:57,320 Justo. 223 00:12:57,460 --> 00:13:00,720 Y para cerrar, creo que merece la pena dejar una reflexión en el aire. 224 00:13:00,740 --> 00:13:06,200 Mire, todo este sistema se basa en un grupo de personas que deciden qué respuesta es mejor. 225 00:13:06,460 --> 00:13:07,900 Sí, ahí está el debate. 226 00:13:08,520 --> 00:13:15,020 Pero, ¿qué ocurre cuando los propios humanos no nos ponemos de acuerdo sobre lo que es verdadero, útil o correcto? 227 00:13:15,440 --> 00:13:21,040 Este trabajo no solo abrió un pamino tecnológico, sino también un profundo debate filosófico. 228 00:13:21,260 --> 00:13:23,240 ¿Sobre qué valores y los valores de quién? 229 00:13:23,620 --> 00:13:27,300 Estamos grabando a fuego en la inteligencia artificial que definirá nuestro futuro. 230 00:13:27,720 --> 00:13:28,240 Exacto. 231 00:13:28,720 --> 00:13:30,140 Un tema fascinante. 232 00:13:30,140 --> 00:13:30,720 Desde luego. 233 00:13:30,740 --> 00:13:39,240 Mañana, en esta serie de BIMPRAXIS, continuaremos nuestro viaje por la historia de la IA con otro paper que, de nuevo, cambió las reglas del juego. 234 00:13:39,840 --> 00:13:40,700 No se lo pierdan. 235 00:13:41,140 --> 00:13:42,140 Va a ser muy interesante. 236 00:13:43,020 --> 00:13:44,120 Gracias por acompañarnos. 237 00:13:55,080 --> 00:13:59,140 Y hasta aquí el episodio de hoy. Muchas gracias por tu atención. 238 00:14:08,850 --> 00:14:13,190 Esto es BIMPRAXIS. Nos escuchamos en el próximo episodio.