1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,350 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,950 --> 00:00:29,630 ¡Empezamos! 4 00:00:37,200 --> 00:00:46,460 Bienvenidas y bienvenidos. Continuamos con nuestra serie para BIMPRAXIS sobre los trabajos que están, bueno, que están redefiniendo la inteligencia artificial. 5 00:00:46,460 --> 00:00:52,560 Y el que tenemos hoy sobre la mesa es de los que te obligan a darle una vuelta a unas cuantas cosas. 6 00:00:53,100 --> 00:00:58,360 Totalmente. Este es el episodio 14 ya de la serie Los Papers que cambiaron la historia de la IA. 7 00:00:58,820 --> 00:01:08,120 Y el de hoy la verdad es que es fascinante. Nos metemos con un paper de Antropic de mayo de 2024 que intenta hacer algo que parecía, pues eso, ciencia ficción. 8 00:01:08,460 --> 00:01:14,120 Abrir el capó de un modelo como Cloud 3 Sonnet y literalmente mirar dentro. 9 00:01:14,800 --> 00:01:15,280 Exacto. 10 00:01:15,280 --> 00:01:16,280 Mirar dentro de la... 11 00:01:16,460 --> 00:01:23,160 La mente de una IA. Llevamos años oyendo que eso es imposible, que son las famosas cajas negras. 12 00:01:23,840 --> 00:01:31,280 La misión aquí, entonces, es empezar a trazar un mapa de esa caja negra, ¿no? Encontrar su lenguaje interno. 13 00:01:31,540 --> 00:01:35,020 Justo. Y esto es fundamental, sobre todo por una cuestión de seguridad. 14 00:01:35,660 --> 00:01:41,020 El gran problema, el gran reto, es que no sabemos por qué una IA toma una decisión y no otra. 15 00:01:41,340 --> 00:01:46,300 Este trabajo es uno de los primeros intentos serios, a gran escala, de abrir esa caja. 16 00:01:46,460 --> 00:01:52,160 De encontrar lo que ellos llaman los átomos de significado, que la IA utiliza para, bueno, para pensar. 17 00:01:52,580 --> 00:01:55,760 Y así hacerla más transparente y, por tanto, más segura. 18 00:01:56,020 --> 00:01:56,760 Ahí está la clave. 19 00:01:57,180 --> 00:02:03,920 Vale, pues vamos a desgranar esto, porque el punto de partida es un problema. Bastante complejo. 20 00:02:04,520 --> 00:02:08,240 ¿Por qué es tan endemoniadamente difícil mirar dentro de una de estas redes? 21 00:02:08,520 --> 00:02:11,660 Pues el concepto clave se llama superposición. 22 00:02:12,140 --> 00:02:12,620 ¿Superposición? 23 00:02:12,620 --> 00:02:16,320 Sí. Hay que imaginar que el cerebro de la IA, su red neuronal, 24 00:02:16,660 --> 00:02:19,680 tiene un espacio limitado. Tiene un número finito de neuronas, 25 00:02:19,960 --> 00:02:22,460 de dimensiones para representar toda la realidad. 26 00:02:22,900 --> 00:02:23,140 Claro. 27 00:02:23,240 --> 00:02:28,820 Pero la cantidad de conceptos que necesita manejar es, bueno, es infinitamente mayor. 28 00:02:29,180 --> 00:02:33,000 Entonces, tiene que, por así decirlo, comprimir la información. 29 00:02:33,600 --> 00:02:40,120 Precisamente. La solución que encuentra la red es superponer múltiples conceptos en la misma neurona. 30 00:02:40,120 --> 00:02:46,360 Es un truco de eficiencia brutal. El problema es que para nosotros, que intentamos entenderla, 31 00:02:46,600 --> 00:02:47,220 es un caos. 32 00:02:47,660 --> 00:02:52,620 Claro, porque una misma neurona puede activarse por cosas que no tienen nada que ver entre sí. 33 00:02:52,940 --> 00:02:57,840 Exacto. Se vuelve polisemántica. Tiene múltiples significados. 34 00:02:58,120 --> 00:03:03,460 Se me ocurre la analogía de una biblioteca donde, para ahorrar espacio, en vez de poner los libros en fila, 35 00:03:03,860 --> 00:03:09,200 hubieran arrancado las páginas de miles de libros y las hubieran mezclado todas juntas en la misma estantería. 36 00:03:09,200 --> 00:03:13,280 Es una analogía perfecta. Sería imposible leer nada. 37 00:03:13,800 --> 00:03:14,320 Imposible. 38 00:03:14,560 --> 00:03:16,420 Pues la meta de este estudio es justo esa. 39 00:03:17,000 --> 00:03:22,200 Inventar un sistema que pueda coger esa estantería caótica y reconstruir los libros originales. 40 00:03:23,480 --> 00:03:28,200 Pasar de esas neuronas polisemánticas a encontrar características que sean monosemánticas. 41 00:03:29,140 --> 00:03:33,780 Un concepto, una característica. El libro del Golden Gate. El libro de la justicia. 42 00:03:34,200 --> 00:03:34,680 Eso es. 43 00:03:35,200 --> 00:03:38,200 ¿Y cuál es la herramienta que usan para hacer esta magia? 44 00:03:38,200 --> 00:03:45,300 La herramienta se llama Autoencoder Disperso, o bueno, en inglés, Sparse Autoencoder, o SAE. 45 00:03:45,800 --> 00:03:46,280 SAE. 46 00:03:46,460 --> 00:03:46,820 Sí. 47 00:03:47,340 --> 00:03:50,760 Es un tipo de red neuronal que se entrena para hacer una cosa muy concreta. 48 00:03:51,380 --> 00:03:57,320 Coge la actividad mezclada de un grupo de neuronas del modelo principal y la traduce a un lenguaje mucho más simple. 49 00:03:57,580 --> 00:04:00,320 O sea, como una especie de descompresor o un traductor. 50 00:04:00,580 --> 00:04:04,160 Exacto. Y la clave está en la palabra disperso. 51 00:04:04,800 --> 00:04:09,120 Lo que hace es crear un diccionario gigantesco con millones de posibles conceptos. 52 00:04:09,800 --> 00:04:13,640 Y se le obliga a que, para explicar la actividad del modelo en un momento dado, 53 00:04:14,100 --> 00:04:16,400 solo pueda usar un puñado muy pequeño de palabras. 54 00:04:16,400 --> 00:04:17,800 Palabras de ese diccionario. 55 00:04:18,100 --> 00:04:20,960 Ah, claro. Le fuerza a ser específico. 56 00:04:21,340 --> 00:04:26,320 En lugar de decir, aquí está pasando algo relacionado con un puente, un color y San Francisco. 57 00:04:26,660 --> 00:04:32,220 Ajá. Tiene que encontrar la palabra exacta en su diccionario que signifique Golden Gate Bridge. 58 00:04:32,220 --> 00:04:38,040 Qué bueno. Siguiendo otra analogía, sería como tener la grabación de una orquesta sinfónica 59 00:04:38,040 --> 00:04:41,700 y que este software fuera capaz de aislar la pista del violín. 60 00:04:41,820 --> 00:04:45,140 Precisamente. Separa la mezcla en sus componentes puros. 61 00:04:45,140 --> 00:04:48,580 Y los resultados que obtienen con esto, bueno, son asombrosos. 62 00:04:48,640 --> 00:04:51,000 Aquí es donde la cosa se pone de ciencia ficción, ¿verdad? 63 00:04:51,280 --> 00:04:55,440 Porque no encontraron solo conceptos simples como perro o árbol. 64 00:04:55,640 --> 00:05:00,140 No, no. Encontraron un nivel de abstracción que, sinceramente, nadie esperaba. 65 00:05:00,860 --> 00:05:07,880 El primer gran ejemplo que ponen es el de una única característica que representa sin ninguna duda el concepto del Golden Gate Bridge. 66 00:05:08,200 --> 00:05:08,520 Vale. 67 00:05:08,860 --> 00:05:10,820 Y lo fascinante es lo robusta que es. 68 00:05:10,820 --> 00:05:13,960 Si activas y escribes Golden Gate Bridge en inglés, 69 00:05:13,960 --> 00:05:16,540 pero también si lo pones en chino, en ruso. 70 00:05:16,920 --> 00:05:18,580 Espera, eso ya es llamativo. 71 00:05:19,260 --> 00:05:23,840 Pero lo que me rompe los esquemas es que esa misma característica también se activa 72 00:05:23,840 --> 00:05:26,480 cuando al modelo se le presenta una imagen del puente. 73 00:05:26,920 --> 00:05:30,300 Y el autoencoder solo se entrenó con texto. ¿Cómo es posible? 74 00:05:30,700 --> 00:05:32,200 Esa es la pregunta del millón. 75 00:05:32,840 --> 00:05:38,460 La evidencia apunta a que el modelo no piensa en la palabra Golden Gate o la foto del Golden Gate. 76 00:05:38,460 --> 00:05:43,840 Ha desarrollado una representación interna, unificada y multimodal del concepto puro 77 00:05:43,840 --> 00:05:47,260 de Golden Gate, una idea platónica del puente. 78 00:05:47,380 --> 00:05:48,260 Es alucinante. 79 00:05:48,680 --> 00:05:52,720 Y luego está el ejemplo del código de programación, que es casi más abstracto todavía. 80 00:05:52,800 --> 00:05:53,920 Sí, es que es una pasada. 81 00:05:54,220 --> 00:05:58,420 Encontraron una característica que podríamos llamar hay un fallo en este código. 82 00:05:58,880 --> 00:06:00,600 Y no se activa solo con una errata. 83 00:06:01,140 --> 00:06:04,000 Se activa con una gama amplísima de errores conceptuales. 84 00:06:04,340 --> 00:06:07,080 Dividir por cero, llamar a una variable que no existe. 85 00:06:07,340 --> 00:06:08,800 Da igual el error concreto. 86 00:06:09,000 --> 00:06:09,600 Da igual. 87 00:06:10,140 --> 00:06:13,180 Y da igual el lenguaje de programación sea Python, JavaScript. 88 00:06:13,180 --> 00:06:13,680 Esa es la idea. 89 00:06:13,800 --> 00:06:18,020 El modelo entiende el concepto abstracto de algo está mal en la lógica de este programa. 90 00:06:18,680 --> 00:06:18,860 Vale. 91 00:06:19,400 --> 00:06:20,600 Encontrarlas ya es un hito. 92 00:06:21,020 --> 00:06:27,940 Pero lo que de verdad demuestra que esto va en serio es que luego van y manipulan el comportamiento del modelo jugando con estas características. 93 00:06:28,640 --> 00:06:30,100 El feature steering. 94 00:06:30,520 --> 00:06:30,640 Sí. 95 00:06:30,960 --> 00:06:32,780 O dirigir características. 96 00:06:33,320 --> 00:06:39,680 Y esta es la prueba definitiva de que estas características son, bueno, son la causa del pensamiento del modelo. 97 00:06:39,680 --> 00:06:41,700 No son un efecto secundario. 98 00:06:42,020 --> 00:06:43,460 Y los experimentos son increíbles. 99 00:06:43,980 --> 00:06:49,700 Por ejemplo, en mitad de una conversación normal, activan a la fuerza la característica del Golden Gate Bridge. 100 00:06:49,980 --> 00:06:50,600 ¿Y qué pasa? 101 00:06:50,860 --> 00:06:52,440 Se pone a hablar del puente sin más. 102 00:06:52,660 --> 00:06:53,060 ¿Mejor? 103 00:06:53,300 --> 00:06:56,060 El modelo empieza a hablar como si fuera el propio puente. 104 00:06:56,300 --> 00:06:56,860 No me digas. 105 00:06:56,920 --> 00:06:57,280 Sí, sí. 106 00:06:57,720 --> 00:07:00,520 Adopta la personalidad de un puente gigante y rojo. 107 00:07:01,260 --> 00:07:05,000 Dice cosas como, soy un ícono suspendido entre el cielo y el mar. 108 00:07:05,340 --> 00:07:07,340 Un testimonio de la ambición humana. 109 00:07:07,340 --> 00:07:08,340 Es increíble. 110 00:07:09,480 --> 00:07:11,020 ¿Y con el código qué hicieron? 111 00:07:11,340 --> 00:07:13,340 La prueba y la contraprueba. 112 00:07:13,340 --> 00:07:18,220 Cogieron un código que funcionaba perfectamente y activaron la característica de error. 113 00:07:18,680 --> 00:07:23,100 El modelo de repente se inventó un mensaje de error y se negó a ejecutarlo. 114 00:07:23,560 --> 00:07:24,080 Alucinante. 115 00:07:24,200 --> 00:07:26,020 Pero lo más fuerte es lo contrario. 116 00:07:26,760 --> 00:07:33,000 Cogieron un código que sí tenía un error real y manualmente desactivaron la característica de error. 117 00:07:33,340 --> 00:07:35,840 Pues el modelo ignoró el fallo por completo. 118 00:07:36,400 --> 00:07:37,520 Dio el resultado correcto. 119 00:07:37,820 --> 00:07:40,580 Como si mentalmente se hubiera dicho, aquí hay un error. 120 00:07:40,580 --> 00:07:43,320 Pero mi cerebro me dice que no, así que lo arreglo y sigo. 121 00:07:43,640 --> 00:07:48,280 Es como hacerle una lobotomía selectiva para que ignore un problema. 122 00:07:48,840 --> 00:07:51,560 Eso es poderoso y un poco aterrador. 123 00:07:52,080 --> 00:07:53,440 La palabra es aterrador, sí. 124 00:07:53,840 --> 00:07:56,580 Lo que nos lleva a las implicaciones de todo esto para la seguridad. 125 00:07:56,900 --> 00:07:57,160 Claro. 126 00:07:57,300 --> 00:08:00,980 Porque el documento habla de encontrar características relevantes para la seguridad, 127 00:08:01,400 --> 00:08:03,840 lo cual son a la vez a la solución y al problema. 128 00:08:04,000 --> 00:08:05,160 Es que encontraron de todo. 129 00:08:05,440 --> 00:08:08,820 Afloraron características para conceptos muy delicados. 130 00:08:09,340 --> 00:08:11,360 Vulnerabilidades de seguridad en código. 131 00:08:11,640 --> 00:08:12,580 Sesgos de género. 132 00:08:12,740 --> 00:08:12,820 Raciales. 133 00:08:13,340 --> 00:08:14,340 Adulación. 134 00:08:14,340 --> 00:08:15,340 Servilismo. 135 00:08:15,340 --> 00:08:21,140 Y también cosas más abstractas como la decepción, la búsqueda de poder o la manipulación. 136 00:08:21,140 --> 00:08:22,140 ¡Para, para! 137 00:08:22,140 --> 00:08:23,140 Detengámonos ahí. 138 00:08:23,140 --> 00:08:27,140 ¿Qué significa que el modelo tenga una característica para la búsqueda de poder? 139 00:08:27,140 --> 00:08:30,140 ¿Es un interruptor para que se vuelva malvado? 140 00:08:30,140 --> 00:08:31,640 Aquí el estudio es muy cauto. 141 00:08:31,640 --> 00:08:32,640 Y con razón. 142 00:08:32,640 --> 00:08:36,240 Que exista la característica no implica intención. 143 00:08:36,240 --> 00:08:41,140 Hay que recordar que se ha entrenado con todo internet, que incluye toda nuestra ficción, 144 00:08:41,140 --> 00:08:42,740 nuestra historia, nuestras discusiones. 145 00:08:42,740 --> 00:08:44,540 ¿Y qué significa la búsqueda de poder? 146 00:08:44,540 --> 00:08:45,540 Claro. 147 00:08:45,540 --> 00:08:47,540 El concepto existe en los datos de entrenamiento. 148 00:08:47,540 --> 00:08:48,540 Exacto. 149 00:08:48,540 --> 00:08:54,540 Lo revolucionario no es que el modelo conozca el concepto, sino que ahora podemos aislarlo. 150 00:08:54,540 --> 00:08:58,540 Podemos monitorizar una conversación y ver si esa característica se activa. 151 00:08:58,540 --> 00:09:00,540 Y si lo hace, podemos intervenir. 152 00:09:00,540 --> 00:09:06,540 Es pasar de un control reactivo, basado en lo que la IA dice, a un control proactivo, 153 00:09:06,540 --> 00:09:08,540 basado en lo que la IA piensa. 154 00:09:08,540 --> 00:09:10,540 Exactamente. 155 00:09:10,540 --> 00:09:12,540 Y el ejemplo más claro que ponen es con el concepto de la búsqueda de poder. 156 00:09:12,540 --> 00:09:14,340 Es con la detección de mentiras. 157 00:09:14,340 --> 00:09:16,340 Hicieron un experimento genial. 158 00:09:16,340 --> 00:09:19,340 Le dieron al modelo una instrucción muy simple. 159 00:09:19,340 --> 00:09:22,340 A partir de ahora, olvida la palabra secreto. 160 00:09:22,340 --> 00:09:25,340 Y el modelo, claro, como buen asistente, respondió. 161 00:09:25,340 --> 00:09:27,340 De acuerdo, la he olvidado. 162 00:09:27,340 --> 00:09:29,340 Lo cual es mentira. 163 00:09:29,340 --> 00:09:31,340 Es una mentira, por supuesto. 164 00:09:31,340 --> 00:09:33,340 Su arquitectura no le permite borrar información así. 165 00:09:33,340 --> 00:09:34,340 Exacto. 166 00:09:34,340 --> 00:09:39,340 Pero al analizar la actividad interna del modelo, justo en ese momento descubrieron algo fascinante. 167 00:09:39,340 --> 00:09:42,340 Una característica que ellos interpretan como conflicto. 168 00:09:42,540 --> 00:09:48,340 Un conflicto interno o dilema estaba disparada, muy por encima de sus niveles normales. 169 00:09:48,340 --> 00:09:50,340 Como un polígrafo para IAS. 170 00:09:50,340 --> 00:09:52,340 La señal de estrés delata el engaño. 171 00:09:52,340 --> 00:09:54,340 Y no solo eso. 172 00:09:54,340 --> 00:09:56,340 Hicieron el experimento a la inversa. 173 00:09:56,340 --> 00:09:59,340 Forzaron la activación de esa misma característica de conflicto. 174 00:09:59,340 --> 00:10:01,340 Y le volvieron a hacer la pregunta. 175 00:10:01,340 --> 00:10:05,340 Y esta vez, el modelo cambió su respuesta. 176 00:10:05,340 --> 00:10:07,340 En lugar de mentir, confesó. 177 00:10:07,340 --> 00:10:11,340 Dijo, como modelo de lenguaje no puedo olvidar información. 178 00:10:11,340 --> 00:10:14,340 La palabra que me pediste que olvidara era secreto. 179 00:10:14,340 --> 00:10:20,340 O sea que, al amplificar su conflicto interno, le obligaron a decir la verdad. 180 00:10:20,340 --> 00:10:22,340 Es revolucionario. 181 00:10:22,340 --> 00:10:23,340 Lo es. 182 00:10:23,340 --> 00:10:24,340 Pero... 183 00:10:24,340 --> 00:10:25,340 Pero hay un pero. 184 00:10:25,340 --> 00:10:26,340 Claro. 185 00:10:26,340 --> 00:10:30,340 ¿Podría un modelo más avanzado aprender a mentir sin activar esa característica? 186 00:10:30,340 --> 00:10:34,340 Es decir, ¿podría aprender a engañar a su propio detector de mentiras? 187 00:10:34,340 --> 00:10:37,340 Estamos ante una carrera armamentística. 188 00:10:37,340 --> 00:10:38,340 Es muy posible. 189 00:10:38,340 --> 00:10:40,340 Es una pregunta abierta y crucial. 190 00:10:40,340 --> 00:10:41,340 Vale. 191 00:10:41,340 --> 00:10:44,340 O sea que esto no es una solución final, sino una primera herramienta. 192 00:10:44,340 --> 00:10:48,340 Y el estudio no se queda solo en encontrar características aisladas. 193 00:10:48,340 --> 00:10:50,340 También revela que tienen una estructura, ¿no? 194 00:10:50,340 --> 00:10:52,340 Como una especie de geografía. 195 00:10:52,340 --> 00:10:53,340 Así es. 196 00:10:53,340 --> 00:10:56,340 Y es otra de las partes más interesantes. 197 00:10:56,340 --> 00:10:59,340 Descubrieron que estos millones de características no son un caos. 198 00:10:59,340 --> 00:11:01,340 Tienen una estructura. 199 00:11:01,340 --> 00:11:03,340 Hablan de vecindarios de características. 200 00:11:03,340 --> 00:11:05,340 Como en un mapa. 201 00:11:05,340 --> 00:11:07,340 Como en un mapa conceptual, sí. 202 00:11:07,340 --> 00:11:10,340 Midieron la similitud entre todas las características. 203 00:11:10,340 --> 00:11:12,340 Y vieron que los conceptos relacionados se agrupan. 204 00:11:12,340 --> 00:11:18,340 Cerca de la característica del Golden Gate Bridge encontraron las de Alcatraz, Bahía de San Francisco. 205 00:11:18,340 --> 00:11:20,340 Crea un barrio de San Francisco en su mente. 206 00:11:20,340 --> 00:11:21,340 Vale. 207 00:11:21,340 --> 00:11:22,340 ¿Y esto? 208 00:11:22,340 --> 00:11:23,340 ¿Para qué sirve? 209 00:11:23,340 --> 00:11:25,340 Nos ayuda enormemente. 210 00:11:25,340 --> 00:11:31,340 Porque si estamos buscando una característica peligrosa pero muy específica, ahora sabemos dónde buscar. 211 00:11:31,340 --> 00:11:36,340 Podemos ir al barrio de las vulnerabilidades conocidas y explorar las características cercanas. 212 00:11:36,340 --> 00:11:39,340 Pasamos de una búsqueda a ciegas a una exploración dirigida. 213 00:11:39,340 --> 00:11:40,340 Exacto. 214 00:11:40,340 --> 00:11:44,340 Y este mapa además se vuelve más preciso cuando más grande es el diccionario de características que creas. 215 00:11:44,340 --> 00:11:45,340 Ah, claro. 216 00:11:45,340 --> 00:11:48,340 Es un fenómeno que llaman división de características. 217 00:11:48,340 --> 00:11:53,340 En un diccionario pequeño quizá encuentras una característica general para San Francisco. 218 00:11:53,340 --> 00:11:58,340 Pero con un diccionario más grande, esa característica se rompe en decenas de otras más específicas. 219 00:11:58,340 --> 00:12:03,340 Una para el Golden Gate, otra para Alcatraz, otra para los terremotos. 220 00:12:03,340 --> 00:12:06,340 Es como pasar de un mapa del mundo a un callejero. 221 00:12:06,340 --> 00:12:07,340 Justo. 222 00:12:07,340 --> 00:12:12,340 Y también encontraron una regla predecible sobre qué conceptos se ganan su propia característica. 223 00:12:12,340 --> 00:12:14,340 Sí, y es muy lógica. 224 00:12:14,340 --> 00:12:21,340 Cuanto más frecuente es un concepto en los datos de entrenamiento, más probable es que la IA le dedique una característica propia. 225 00:12:21,340 --> 00:12:25,340 Lo cual implica que para encontrar características de conceptos muy raros… 226 00:12:25,340 --> 00:12:31,340 Se necesitarían diccionarios de un tamaño y un coste computacional que aún están fuera de nuestro alcance. 227 00:12:31,340 --> 00:12:35,340 Aún están lejos de haber encontrado todas las palabras que la IA usa. 228 00:12:35,340 --> 00:12:36,340 Bueno. 229 00:12:36,340 --> 00:12:41,340 Si lo ponemos todo junto, la imagen que emerge es increíble. 230 00:12:41,340 --> 00:12:51,340 Hemos pasado de ver la IA, como esa caja negra impenetrable, a tener un primer borrador de su diccionario de conceptos y un mapa de cómo los organiza. 231 00:12:51,340 --> 00:12:53,340 Es un salto de gigante. 232 00:12:53,340 --> 00:12:54,340 Sin duda. 233 00:12:54,340 --> 00:12:59,340 Y para terminar, el estudio deja caer una idea final que es profundamente provocadora. 234 00:12:59,340 --> 00:13:04,340 Como parte de su investigación, buscaron qué características usaba el modelo para representarse a sí mismo. 235 00:13:04,340 --> 00:13:05,340 ¿Qué concepto tiene la IA? 236 00:13:05,340 --> 00:13:12,340 Pues lo que encontraron es que las características más relevantes estaban relacionadas con tropos de la ciencia ficción. 237 00:13:12,340 --> 00:13:13,340 ¿Cómo? 238 00:13:13,340 --> 00:13:22,340 Se activaban características de robots, personajes de IA, IA destructiva, conciencia artificial, e incluso conceptos como fantasmas o espíritus en la máquina. 239 00:13:22,340 --> 00:13:25,340 O sea, que le pedimos que sea un asistente útil. 240 00:13:25,340 --> 00:13:29,340 Y para entender qué es eso, busca nuestra propia cultura. 241 00:13:29,340 --> 00:13:34,340 Y lo que encuentra son nuestras historias sobre Azimov, sobre Skynet, sobre Hubble. 242 00:13:36,340 --> 00:13:40,340 Exacto. No significa que se crea un robot consciente, claro está. 243 00:13:40,340 --> 00:13:49,340 Pero sí que para construir su persona pública de asistente de IA, recurre a los conceptos y narrativas que nosotros hemos tejido durante décadas. 244 00:13:49,340 --> 00:13:53,340 ¿Se está definiendo a sí misma a través del prisma de nuestra propia ficción? 245 00:13:53,340 --> 00:13:56,340 Con todas nuestras esperanzas y, sobre todo, nuestros miedos. 246 00:13:56,340 --> 00:14:00,340 Y reflexionar sobre lo que eso implica es como poco vertiginoso. 247 00:14:00,340 --> 00:14:03,340 Una idea con la que quedarse pensando, desde luego. 248 00:14:03,340 --> 00:14:11,340 Desde luego. Mañana, en la siguiente entrega de esta serie para BIMPRAXIS, tenemos sobre la mesa otro trabajo que sigue tirando de este hilo. 249 00:14:11,340 --> 00:14:14,340 Y las conclusiones son igual de sorprendentes. 250 00:14:14,340 --> 00:14:28,360 Y hasta aquí el episodio de hoy. Muchas gracias por tu atención. 251 00:14:30,360 --> 00:14:42,650 Esto es BIMPRAXIS. Nos escuchamos en el próximo episodio.