1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,350 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,950 --> 00:00:29,630 ¡Empezamos! 4 00:00:37,090 --> 00:00:44,490 Bueno, acaba de aparecer en escena una nueva empresa de inteligencia artificial que parece sacada de una novela de ciencia ficción. 5 00:00:45,350 --> 00:00:46,030 Totalmente. 6 00:00:46,030 --> 00:00:54,790 Se llama Thinking Machines Lab. La funda Mira Murati, la exdirectora de tecnología de OpenEI. Y atención a la cifra. 7 00:00:55,130 --> 00:00:57,290 Uf, la cifra es de locos. 8 00:00:57,590 --> 00:01:03,250 Han recaudado 2.000 millones de dólares. 2.000 millones en una ronda semilla. 9 00:01:03,550 --> 00:01:08,150 Y eso les da una valoración de 12.000 millones. Antes de tener nada. 10 00:01:08,510 --> 00:01:10,070 Antes de tener un producto público. 11 00:01:10,330 --> 00:01:11,630 Es una auténtica locura. 12 00:01:11,630 --> 00:01:14,370 Y fíjate, no estamos hablando de inversores de medio pelo. 13 00:01:14,370 --> 00:01:21,290 La lista incluye a gigantes como NVIDIA, Andreessen Horowitz, ACIZ, Cisco, AMD. 14 00:01:21,710 --> 00:01:28,510 Cuando ellos apuestan tan fuerte y tan pronto por algo, no es una simple inversión. Es una declaración de intenciones. 15 00:01:28,670 --> 00:01:33,870 Es una señal. Una señal muy clara de que ahí se está cociendo algo que podría cambiar las reglas del juego. 16 00:01:34,110 --> 00:01:40,270 Justo. Totalmente. Pero su comunicación inicial ha sido, bueno, increíblemente críptica. 17 00:01:40,810 --> 00:01:42,370 Muy misteriosa. Sí. 18 00:01:42,370 --> 00:01:44,370 Han lanzado una web que es... 19 00:01:44,370 --> 00:01:51,870 Básicamente una pantalla en blanco y tweets hablando de IA multimodal y de la forma desordenada en que colaboramos. 20 00:01:52,170 --> 00:01:53,230 Muy abstracto todo. 21 00:01:53,470 --> 00:01:55,890 Así que hoy vamos a hacer precisamente eso, ¿no? 22 00:01:56,230 --> 00:02:04,890 Vamos a desentrañar qué es Thinking Machines Lab y sobre todo analizar a fondo su primer producto que acaban de lanzar, llamado Tinker. 23 00:02:05,210 --> 00:02:09,370 A ver si es un nuevo chatbot, un competidor de OpenAI o... 24 00:02:09,370 --> 00:02:10,930 O algo radicalmente distinto. 25 00:02:11,210 --> 00:02:12,830 Esa es la pregunta del Millén. 26 00:02:12,830 --> 00:02:21,710 Vamos a sumergirnos en los documentos técnicos y en los detalles que han ido saliendo para entender qué hay detrás de esta inversión monumental y de tanto secretismo. 27 00:02:21,990 --> 00:02:23,850 De acuerdo. Pues vamos a desgranarlo. 28 00:02:24,070 --> 00:02:29,850 Lo primero que hay que entender sobre Thinking Machines Lab es que su objetivo no es crear otro modelo de lenguaje. 29 00:02:30,150 --> 00:02:31,350 No. No van por ahí. 30 00:02:31,550 --> 00:02:40,430 Su misión declarada es mucho más fundamental. Quieren atacar de raíz dos de los mayores desafíos de la IA. La consistencia y el razonamiento. 31 00:02:40,430 --> 00:02:42,510 Y esto es absolutamente crucial. 32 00:02:42,830 --> 00:02:48,850 Cuando hablamos de consistencia en IA, a ver, nos referimos a algo que parece muy básico, pero que no lo es. 33 00:02:49,110 --> 00:02:49,910 ¿A qué exactamente? 34 00:02:50,270 --> 00:03:00,330 A la capacidad de un modelo para dar resultados fiables, predecibles, que no te dé una respuesta brillante un día y una completamente ilógica al día siguiente con una pregunta parecida. 35 00:03:00,750 --> 00:03:06,010 Claro. Porque de nada sirve tener una IA que sea un genio el lunes y el martes se vuelve un completo idiota. 36 00:03:06,490 --> 00:03:06,970 Exacto. 37 00:03:07,250 --> 00:03:09,770 Nadie se subiría a un coche autónomo que funcionase así. 38 00:03:10,030 --> 00:03:12,810 Justo. Piensa en un sistema de diagnóstico médico. 39 00:03:12,830 --> 00:03:18,370 En análisis financieros, para tomar decisiones de miles de millones, o en la conducción autónoma. 40 00:03:18,770 --> 00:03:20,150 Aplicaciones de alto riesgo. 41 00:03:20,550 --> 00:03:30,830 Efectivamente. No puedes tener un sistema que a veces acierta y a veces improvisa o se vuelve impredecible. La fiabilidad lo es todo. Por eso su misión es tan ambiciosa. 42 00:03:31,770 --> 00:03:34,990 Quieren que la IA no solo sea creativa, sino también confiable. 43 00:03:35,270 --> 00:03:42,010 Y para lograrlo han reunido a un equipo que es, literalmente, el Dream Team que hizo posible ChatGPT. 44 00:03:42,010 --> 00:03:44,690 Ahí quería llegar. No es solo Mira Murati. 45 00:03:44,950 --> 00:03:55,510 Para nada. Han fichado a gente como John Shulman, cofundador de OpenAI, y una de las mentes clave detrás de las técnicas que hacen que ChatGPT parezca tan, bueno, tan humano. 46 00:03:55,570 --> 00:03:56,750 Uf, palabras mayores. 47 00:03:57,130 --> 00:04:06,770 Es que cuando juntas a ese nivel de talento, con esa misión tan clara, y con 2.000 millones de dólares, pues todo el sector de la IA se para a escuchar con mucha atención. 48 00:04:06,870 --> 00:04:11,770 Bien. Entonces, con esa misión de crear una IA más fiable, lanzan superiores. 49 00:04:12,010 --> 00:04:15,950 El primer producto, Tinker. Y al principio hubo mucha confusión, ¿no? 50 00:04:16,570 --> 00:04:17,010 Muchísima. 51 00:04:17,250 --> 00:04:24,190 La gente esperaba un competidor directo de ChatGPT o de Cloud. Pero resulta que no tiene nada que ver. 52 00:04:24,490 --> 00:04:30,770 Nada que ver. Tinker no es un producto para el consumidor final. No es una app con la que te pones a hablar. 53 00:04:31,370 --> 00:04:34,450 Y aquí está la clave para entender la revolución que proponen. 54 00:04:34,850 --> 00:04:35,170 A ver. 55 00:04:35,170 --> 00:04:41,450 No se trata de hacer un ChatGPT un poco mejor. Se trata de permitir que un hospital cree un radiólogo de IA 56 00:04:42,010 --> 00:04:47,510 y a cualquier humano, o que un bufete de abogados entrena a un experto en patentes que no comete errores. 57 00:04:47,590 --> 00:04:51,410 O sea, es el paso del sabelotodo generalista al genio especialista. 58 00:04:51,930 --> 00:04:54,850 Exacto. Y eso es un cambio de paradigma total. 59 00:04:55,050 --> 00:05:00,350 O sea, no nos dan el plato cocinado, sino que nos ofrecen la cocina para que cada uno se prepare su receta. 60 00:05:00,550 --> 00:05:02,710 Mmm. Esa analogía es perfecta. 61 00:05:02,710 --> 00:05:08,590 He leído que es como el paso de los ordenadores mainframe de los 70, que solo tenían las grandes instituciones, 62 00:05:09,070 --> 00:05:11,970 a la llegada de los ordenadores personales que democratizaron. 63 00:05:12,010 --> 00:05:16,250 Es una analogía buenísima. Pero con un matiz importante. 64 00:05:17,250 --> 00:05:21,930 Tinker no es una herramienta mágica que crea un modelo de IA a partir de una idea. 65 00:05:22,090 --> 00:05:23,650 Ah, ¿no es pulsar un botón y ya? 66 00:05:23,890 --> 00:05:29,930 No. No le dices créame un experto en derecho mercantil y funciona. Requiere conocimientos técnicos. 67 00:05:30,370 --> 00:05:30,650 Vale. 68 00:05:31,370 --> 00:05:36,190 Siguiendo con la metáfora, Tinker te proporciona una cocina industrial de última generación. 69 00:05:36,670 --> 00:05:39,930 Te da la infraestructura, los clústeres de GPUs, la potencia de cálculo… 70 00:05:39,930 --> 00:05:41,930 Todo lo que es carísimo… 71 00:05:42,010 --> 00:05:43,770 … y complicadísimo de gestionar. 72 00:05:43,950 --> 00:05:49,790 Justo. Pero el usuario tiene que traer dos cosas fundamentales. Los ingredientes, que son sus datos… 73 00:05:49,790 --> 00:05:50,470 Y la receta. 74 00:05:50,890 --> 00:05:52,530 ¿Y la receta? ¿Qué es su código? 75 00:05:52,770 --> 00:06:00,490 Entiendo. El objetivo, entonces, es que un investigador o un desarrollador pueda centrarse solo en su algoritmo y en la calidad de sus datos. 76 00:06:00,770 --> 00:06:01,290 Exacto. 77 00:06:01,450 --> 00:06:08,330 Y se olvide de la pesadilla que es gestionar el hardware la fiabilidad de cientos de GPUs en paralelo. Toda esa orquestación. 78 00:06:08,690 --> 00:06:11,930 Precisamente. Quieren que el talento se dedique a la ciencia. 79 00:06:12,010 --> 00:06:13,910 No a ser administrador de sistemas. 80 00:06:14,050 --> 00:06:14,250 Claro. 81 00:06:14,910 --> 00:06:23,110 Hablé con una de las primeras investigadoras que lo usó y me contó que llevaba meses atascada intentando configurar un clúster para un experimento. 82 00:06:23,430 --> 00:06:25,650 Con Tinker, lo tuvo funcionando en una tarde. 83 00:06:25,930 --> 00:06:26,250 ¡Qué bueno! 84 00:06:26,610 --> 00:06:33,270 Su frase fue, sentí que me habían quitado una mochila llena de piedras de encima y por fin podía volver a hacer ciencia. 85 00:06:33,530 --> 00:06:40,950 ¡Qué pasada! Y lo fascinante es que, a pesar de toda esa complejidad que gestionan por debajo, la interacción parece increíblemente sencilla. 86 00:06:41,050 --> 00:06:41,170 Sí. 87 00:06:41,170 --> 00:06:41,990 ¿El usuario? 88 00:06:42,010 --> 00:06:49,630 El usuario escribe un script en Python como si lo ejecutaran su propio ordenador y toda la magia negra ocurre en la nube. 89 00:06:50,070 --> 00:06:59,250 Así es. Como decíamos, el usuario aporta su receta. Y esta receta tiene tres elementos. Primero, eliges un modelo base. 90 00:06:59,550 --> 00:07:00,570 Ah, no empiezas de cero. 91 00:07:00,870 --> 00:07:10,310 No, sería prohibitivamente caro. Escoges un modelo de código abierto potente, como Lama de Meta o Cuen de Alihuabá, y lo usas como punto de partida. 92 00:07:10,310 --> 00:07:11,590 ¿Y lo personalizas? 93 00:07:12,010 --> 00:07:22,990 Lo personalizas con una técnica muy eficiente llamada Lora, que en lugar de modificar todo el modelo, entrena una especie de adaptador muy pequeño. Es mucho más rápido y barato. 94 00:07:23,450 --> 00:07:27,870 Vale. Tienes la base. Luego, los ingredientes, que son los datos… 95 00:07:27,870 --> 00:07:39,170 El componente más importante. El usuario es responsable de sus datos. Y aquí es donde se crea la especialización. Y un detalle muy importante. Garantizan total privacidad. 96 00:07:39,530 --> 00:07:40,190 ¿En qué sentido? 97 00:07:40,190 --> 00:07:47,310 Los datos de un cliente se usan exclusivamente para entrenar su modelo. Nunca para los de Thinking Machines ni para los de otros clientes. 98 00:07:47,610 --> 00:07:56,650 Pero ese método de entrenar con datos, por ejemplo, con aprendizaje supervisado, dándole pares de pregunta-respuesta, suena increíblemente laborioso, ¿no? 99 00:07:56,850 --> 00:07:57,430 Uf, sí. 100 00:07:57,530 --> 00:08:03,770 ¿No hay una forma más inteligente de que la IA aprenda, quizá por su cuenta, sin que tengamos que darle todo masticado? 101 00:08:03,770 --> 00:08:06,990 Es una pregunta excelente y toca el corazón del asunto. 102 00:08:07,450 --> 00:08:10,010 El aprendizaje supervisado es muy potente. 103 00:08:10,190 --> 00:08:12,110 Pero, como dices, muy costoso. 104 00:08:12,290 --> 00:08:12,510 Claro. 105 00:08:13,150 --> 00:08:25,650 Por eso, Tinker también soporta plenamente el aprendizaje por refuerzo, el RL. Ahí no le das las respuestas, sino que creas un entorno, una simulación, donde un agente de IA aprende por prueba y error. 106 00:08:26,410 --> 00:08:28,130 Recibiendo recompensas o castigos. 107 00:08:28,450 --> 00:08:39,130 Exacto. Además, soporta modelos multimodales. Así que los ingredientes pueden ser texto, pero también imágenes, lo que abre la puerta a entrenar modelos que entiendan radiografías… 108 00:08:40,190 --> 00:08:40,870 … planos… 109 00:08:41,070 --> 00:08:45,830 Entendido. Tenemos el modelo base y los datos. Y el tercer componente. 110 00:08:46,270 --> 00:08:53,790 El código. El script de Python que mencionabas. Es el director de orquesta. Y aquí está la genialidad de su diseño. 111 00:08:53,870 --> 00:08:54,370 A ver… 112 00:08:54,550 --> 00:09:09,630 Toda esa complejidad de coordinar cientos de GPUs se controla con un puñado de comandos. Es como decirle a la máquina, toma estos datos y aprende. Ahora actualiza el modelo. Générame un ejemplo para ver cómo vas. Y guarda el progreso. 113 00:09:09,710 --> 00:09:10,170 O sea… 114 00:09:10,350 --> 00:09:14,650 Simplifican algo que es increíblemente complejo en cuatro ideas básicas. 115 00:09:14,850 --> 00:09:15,370 Justo. 116 00:09:15,690 --> 00:09:23,730 Ah, ahora entiendo mucho mejor su comunicación inicial. Cuando hablaban de la forma desordenada en que colaboramos, no se referían a nosotros, los usuarios. 117 00:09:24,030 --> 00:09:27,930 No, se referían a la propia comunidad de investigadores de IA. 118 00:09:28,090 --> 00:09:33,550 Están intentando arreglar el caos y la complejidad que supone construir estos modelos desde cero. 119 00:09:34,070 --> 00:09:39,590 Exactamente. Su cliente es el investigador, el desarrollador, el científico de datos. 120 00:09:40,190 --> 00:09:45,010 Y la flexibilidad es total. Si quieres cambiar tu modelo base, de Lama a Cuban. 121 00:09:45,230 --> 00:09:46,550 No tienes que rehacer todo. 122 00:09:46,550 --> 00:09:54,190 No, es literalmente cambiar una línea de texto en tu código. Abstraen la complejidad del hardware para potenciar la innovación en el software. 123 00:09:54,530 --> 00:10:03,170 Vale. Tenemos una herramienta que pone el poder de un gigante tecnológico en manos de equipos mucho más pequeños. Eso suena increíblemente potente. 124 00:10:03,250 --> 00:10:03,750 Lo es. 125 00:10:03,910 --> 00:10:09,550 Pero también me hace pensar inmediatamente en las consecuencias. Si cualquiera puede construir una IA súper especializada… 126 00:10:09,550 --> 00:10:09,710 ¿Qué es la IA? 127 00:10:09,710 --> 00:10:12,450 ¿Qué es lo primero que puede salir mal? 128 00:10:12,770 --> 00:10:19,090 Esa es la otra cara de la moneda, el arma de doble filo. Por un lado, tienes el efecto de la democratización. 129 00:10:19,310 --> 00:10:19,590 Claro. 130 00:10:19,690 --> 00:10:31,350 Permite a investigadores universitarios, hospitales o startups pequeñas experimentar con capacidades que hasta ahora estaban reservadas casi en exclusiva para Google, Meta u OpenAI. 131 00:10:31,730 --> 00:10:35,710 Y eso puede acelerar la investigación en curas para enfermedades, en nuevos materiales… 132 00:10:36,630 --> 00:10:38,710 Lo que se te ocurra. Pero por otro lado… 133 00:10:38,710 --> 00:10:39,070 Por otro… 134 00:10:39,070 --> 00:10:47,070 Por otro, si de repente es mucho más fácil crear modelos de IA muy potentes y personalizados que impide que alguien lo use para fines maliciosos. 135 00:10:47,970 --> 00:10:49,250 Uf, ese es el tema. 136 00:10:49,650 --> 00:10:56,710 Imagina un modelo experto en generar desinformación política hiperrealista, en buscar vulnerabilidades de software a gran escala. 137 00:10:56,930 --> 00:11:00,230 O en crear contenido dañino. Es un riesgo muy real. 138 00:11:00,510 --> 00:11:06,030 Y ellos son conscientes de esto, supongo. ¿Cómo están gestionando ese riesgo? Porque parece una caja de Pandora. 139 00:11:06,030 --> 00:11:09,030 Lo son. Por ahora, su solución es muy importante. 140 00:11:09,070 --> 00:11:14,310 Están revisando personalmente cada solicitud de acceso a la plataforma. 141 00:11:14,650 --> 00:11:15,110 Una a una. 142 00:11:15,230 --> 00:11:23,650 Una a una, para asegurarse de que los proyectos tienen fines legítimos. Pero ellos mismos admiten que eso no es escalable a largo plazo. 143 00:11:24,150 --> 00:11:25,290 Claro. Imposible. 144 00:11:25,810 --> 00:11:31,730 Han dicho que planean implementar sistemas automatizados en el futuro para detectar y prevenir el mal uso. 145 00:11:32,690 --> 00:11:36,670 Sinceramente, es un debate muy complejo y todavía abierto en toda la comunidad. 146 00:11:37,050 --> 00:11:38,670 Suena bien en teoría, pero… 147 00:11:39,610 --> 00:11:45,790 ¿Es realista pensar que pueden controlarlo? Si la herramienta es tan buena, ¿no es inevitable que acaben las manos equivocadas? 148 00:11:45,890 --> 00:11:48,010 Es el gran dilema de nuestro tiempo. 149 00:11:48,310 --> 00:11:53,130 La historia de la tecnología está llena de herramientas bien intencionadas usadas para fines terribles. 150 00:11:53,530 --> 00:11:59,810 Sí, no hay una respuesta fácil. Su enfoque actual es un primer paso, un intento de filtrar los casos más obvios. 151 00:12:00,130 --> 00:12:07,810 Pero a medida que la tecnología se extienda, la responsabilidad recaerá en una combinación de salvaguardas técnicas, regulación… 152 00:12:09,070 --> 00:12:11,990 No, imposible. 153 00:12:11,990 --> 00:12:22,550 Y hay otro punto que me genera dudas. ¿No crea esto una nueva dependencia? Antes dependías de OpenAI para usar su modelo, y ahora dependes de Thinking Machines para construir el tuyo. 154 00:12:22,750 --> 00:12:24,210 Es una objeción muy inteligente. 155 00:12:24,330 --> 00:12:27,210 ¿Es realmente una democratización o solo un cambio de proveedor? 156 00:12:27,330 --> 00:12:39,050 Y la han abordado de una forma que creo que es clave. A diferencia de las APIs cerradas, donde solo puedes hablar con el modelo, aquí el modelo final que tú creas con tus datos es tuyo. 157 00:12:39,170 --> 00:12:40,470 Ah, ¿te lo puedes descargar? 158 00:12:40,550 --> 00:12:47,790 Te lo puedes descargar. Puedes ejecutarlo en tus propios servidores, en la nube que tú elijas, donde quieras. No estás atado a su plataforma. 159 00:12:47,990 --> 00:12:50,410 O sea, te dan la fábrica para construir el coche. 160 00:12:50,930 --> 00:12:56,370 Exacto. Pero una vez construido, el coche es tuyo y te lo llevas. Esa es una diferencia fundamental. 161 00:12:56,670 --> 00:13:04,350 Eso sí que cambia las cosas. Y para que la gente pueda empezar, han publicado recursos. He visto que mencionan un Tinker Cookbook. 162 00:13:04,350 --> 00:13:06,990 Sí, es un repositorio en GitHub. 163 00:13:09,070 --> 00:13:12,230 Es un repositorio de recetas, con ejemplos prácticos de código, para empezar. 164 00:13:12,610 --> 00:13:12,890 Vale. 165 00:13:13,290 --> 00:13:27,910 Cubre desde el aprendizaje supervisado más básico hasta configuraciones muy avanzadas de aprendizaje por refuerzo, como RLHF o DPO, que son, bueno, formas de enseñar a la IA a ser más útil y segura usando feedback humano. 166 00:13:28,310 --> 00:13:34,850 Muy bien. A modo de recapitulación. ¿Queda claro que Thinking Machines Lab no es un competidor directo de ChatGPT? 167 00:13:35,150 --> 00:13:35,710 Correcto. 168 00:13:35,710 --> 00:13:38,610 No están construyendo un producto para el gran público. 169 00:13:39,070 --> 00:13:48,690 Es un proveedor de herramientas de alto nivel. Si la IA es la nueva fiebre del oro, ellos no venden el oro, venden los picos, las palas y la maquinaria pesada para que otros lo encuentren. 170 00:13:49,030 --> 00:13:50,610 Y Tinker es su primera gran máquina. 171 00:13:50,730 --> 00:13:51,250 Exacto. 172 00:13:51,450 --> 00:13:57,830 Y el modelo final que creas es tuyo, lo que resuelve el problema de la dependencia. Puedes llevártelo y usarlo como quieras. 173 00:13:58,310 --> 00:14:07,810 Exacto. Y yo diría que el verdadero poder de Tinker, su promesa a largo plazo, reside precisamente en esa capacidad de crear expertos de nicho. 174 00:14:07,810 --> 00:14:08,310 ¿Modelos únicos? 175 00:14:08,310 --> 00:14:09,050 ¿Modelos únicos? 176 00:14:09,050 --> 00:14:10,190 Ultraespecializados. 177 00:14:10,390 --> 00:14:24,010 Eso es. Modelos que puedan superar con creces a los generalistas en tareas específicas. El futuro podría no ser una única IA que lo hace todo bien, sin un ecosistema de miles de IAs especializadas colaborando entre sí. 178 00:14:24,410 --> 00:14:35,270 Y eso nos deja con una reflexión final, ¿no? La historia de la tecnología nos enseña que cuando las herramientas de creación se vuelven más accesibles, la innovación explota en direcciones que nadie esperaba. 179 00:14:35,910 --> 00:14:36,430 Totalmente. 180 00:14:36,430 --> 00:14:36,710 Totalmente. 181 00:14:36,710 --> 00:14:36,730 Totalmente. 182 00:14:36,730 --> 00:14:36,770 Totalmente. 183 00:14:36,770 --> 00:14:36,870 Totalmente. 184 00:14:36,870 --> 00:14:36,890 Totalmente. 185 00:14:36,890 --> 00:14:36,990 Totalmente. 186 00:14:36,990 --> 00:14:37,010 Totalmente. 187 00:14:37,010 --> 00:14:37,030 Totalmente. 188 00:14:37,030 --> 00:14:37,090 Totalmente. 189 00:14:37,090 --> 00:14:37,150 Totalmente. 190 00:14:37,150 --> 00:14:37,210 Totalmente. 191 00:14:37,210 --> 00:14:37,230 Totalmente. 192 00:14:37,230 --> 00:14:37,270 Totalmente. 193 00:14:37,270 --> 00:14:37,330 Totalmente. 194 00:14:37,330 --> 00:14:37,390 Totalmente. 195 00:14:37,390 --> 00:14:37,450 Totalmente. 196 00:14:37,450 --> 00:14:37,510 Totalmente. 197 00:14:37,510 --> 00:14:37,530 Totalmente. 198 00:14:37,530 --> 00:14:37,550 Totalmente. 199 00:14:37,550 --> 00:14:37,570 Totalmente. 200 00:14:39,050 --> 00:14:40,050 Totalmente. 201 00:14:40,050 --> 00:14:41,050 Totalmente. 202 00:14:41,050 --> 00:14:41,110 Totalmente. 203 00:14:41,110 --> 00:14:41,150 Totalmente. 204 00:14:41,150 --> 00:14:41,210 Totalmente. 205 00:14:41,210 --> 00:14:41,230 Totalmente. 206 00:14:41,230 --> 00:14:41,270 Totalmente. 207 00:14:41,270 --> 00:14:41,290 Totalmente. 208 00:14:41,290 --> 00:14:41,310 Totalmente. 209 00:14:41,310 --> 00:14:41,350 Totalmente. 210 00:14:41,350 --> 00:14:41,410 Totalmente. 211 00:14:41,410 --> 00:14:41,430 Totalmente. 212 00:14:41,430 --> 00:14:41,490 Totalmente. 213 00:14:41,490 --> 00:14:41,510 Totalmente. 214 00:14:41,510 --> 00:14:41,590 Totalmente. 215 00:14:41,590 --> 00:14:41,690 Totalmente. 216 00:14:41,690 --> 00:14:41,750 Totalmente. 217 00:14:41,750 --> 00:14:48,610 La pregunta es inevitable, ¿qué tipo de asistentes hiperinteligentes para tareas que hoy ni imaginamos podrían surgir? 218 00:14:48,690 --> 00:14:51,770 Y lo más importante, ¿quiénes serán los que los construyan? 219 00:14:52,630 --> 00:14:59,910 Ya no solo los gigantes tecnológicos, sino quizás cualquiera con una buena idea, buenos datos y una buena receta. 220 00:15:11,800 --> 00:15:15,800 Y hasta aquí el episodio de hoy. Muchas gracias por tu atención. 221 00:15:17,680 --> 00:15:27,320 Esto es BIMPRAXIS. 222 00:15:27,320 --> 00:15:29,920 Nos escuchamos en el próximo episodio.