1 00:00:10,000 --> 00:00:15,800 Buenas, esto es BIMPRAXIS, el podcast donde el 2 00:00:15,800 --> 00:00:17,920 BIM se encuentra con la inteligencia artificial. 3 00:00:20,519 --> 00:00:23,620 Exploramos la ciencia, la tecnología y el futuro 4 00:00:23,620 --> 00:00:26,559 desde el enfoque de la arquitectura, ingeniería y 5 00:00:26,559 --> 00:00:27,179 construcción. 6 00:00:28,859 --> 00:00:29,519 ¡Empezamos! 7 00:00:37,340 --> 00:00:39,380 Hola, humanas y humanos. 8 00:00:40,659 --> 00:00:43,799 Hoy os proponemos una pausa. 9 00:00:44,960 --> 00:00:46,100 Una para reflexionar. 10 00:00:46,799 --> 00:00:48,679 Ya sabéis, los que seguís este análisis, que 11 00:00:48,679 --> 00:00:52,000 tratamos a nuestra audiencia como a personas inteligentes. 12 00:00:52,219 --> 00:00:55,100 Y bueno, por eso no frenamos en seco 13 00:00:55,100 --> 00:00:57,020 cuando hay que profundizar. 14 00:00:57,039 --> 00:00:59,359 De hecho, nos encanta entrar en materia. 15 00:00:58,880 --> 00:01:01,060 Pero también sabemos que no se debe perder 16 00:01:01,060 --> 00:01:02,439 la perspectiva, ¿no? 17 00:01:02,439 --> 00:01:04,420 El análisis de conjunto. 18 00:01:04,700 --> 00:01:07,620 Somos amantes de la filosofía, la historia, campos 19 00:01:07,620 --> 00:01:09,620 que ahora, con la IA, van a ser 20 00:01:09,620 --> 00:01:11,420 más necesarios que nunca. 21 00:01:11,540 --> 00:01:13,819 Pues hoy traemos a un sabio que no 22 00:01:13,819 --> 00:01:17,599 suele recurrir al hype, al sensacionalismo, Yuval Noah 23 00:01:17,599 --> 00:01:21,700 Harari, el autor de ese magnífico libro Sapiens. 24 00:01:21,700 --> 00:01:23,840 Hoy explica su visión sobre la IA. 25 00:01:24,439 --> 00:01:27,299 Y, bueno, no pestañéis porque os lo perdéis. 26 00:01:28,359 --> 00:01:30,640 De acuerdo, vamos a desgranar esto. 27 00:01:30,700 --> 00:01:32,920 Tenemos una charla de Harari donde plantea unas 28 00:01:32,920 --> 00:01:34,780 ideas realmente potentes. 29 00:01:35,359 --> 00:01:36,459 Muy potentes. 30 00:01:36,459 --> 00:01:38,319 Inquietantes, diría yo. 31 00:01:38,359 --> 00:01:40,060 Inquietantes, la palabra, sí. 32 00:01:40,140 --> 00:01:42,000 Harari no está interesado en la velocidad de 33 00:01:42,000 --> 00:01:43,239 los procesadores. 34 00:01:43,140 --> 00:01:43,840 Para nada. 35 00:01:43,120 --> 00:01:46,280 Su enfoque es el de un historiador, un 36 00:01:46,280 --> 00:01:47,540 filósofo. 37 00:01:47,439 --> 00:01:49,840 Se pregunta cómo esta nueva fuerza va a 38 00:01:49,840 --> 00:01:53,299 remodelar los cimientos de, bueno, de la civilización 39 00:01:53,299 --> 00:01:53,879 humana. 40 00:01:54,239 --> 00:01:57,319 Y sus conclusiones son bastante radicales, la verdad. 41 00:01:57,280 --> 00:01:58,739 Totalmente. 42 00:01:58,739 --> 00:02:01,280 Pues la misión que nos hemos propuesto es 43 00:02:01,280 --> 00:02:04,239 analizar a fondo tres de sus argumentos principales. 44 00:02:04,599 --> 00:02:05,299 Venga. 45 00:02:05,439 --> 00:02:07,959 Primero, su idea de que la IA no 46 00:02:07,959 --> 00:02:11,159 es una herramienta, sino algo completamente nuevo. 47 00:02:11,840 --> 00:02:14,360 Segundo, su predicción de que va a dominar 48 00:02:14,360 --> 00:02:16,639 todo lo que está hecho del lenguaje. 49 00:02:16,520 --> 00:02:17,680 Que es casi todo. 50 00:02:16,699 --> 00:02:19,840 Y por último, la pregunta que lo engloba 51 00:02:19,840 --> 00:02:20,719 todo. 52 00:02:20,719 --> 00:02:23,960 ¿Deberíamos tratar a estas entidades como personas? 53 00:02:24,560 --> 00:02:25,539 Casi nada. 54 00:02:25,620 --> 00:02:26,819 Empecemos por el principio. 55 00:02:26,919 --> 00:02:29,020 Porque creo que su primer punto lo cambia 56 00:02:29,020 --> 00:02:29,520 todo. 57 00:02:29,599 --> 00:02:30,719 Completamente. 58 00:02:31,120 --> 00:02:33,039 La idea de partida de Harari es que 59 00:02:33,039 --> 00:02:35,560 hemos estado usando una metáfora equivocada. 60 00:02:35,219 --> 00:02:35,960 ¿Ah, sí? 61 00:02:36,199 --> 00:02:38,419 Pensamos en la IA como, no sé, como 62 00:02:38,419 --> 00:02:39,900 un martillo o un cuchillo. 63 00:02:40,560 --> 00:02:42,740 Una herramienta pasiva que espera nuestras órdenes. 64 00:02:43,020 --> 00:02:43,780 Lo normal, ¿no? 65 00:02:44,000 --> 00:02:46,039 Él dice que eso es un error fundamental. 66 00:02:46,699 --> 00:02:49,360 La IA no es una herramienta, es un 67 00:02:49,360 --> 00:02:50,460 agente. 68 00:02:50,300 --> 00:02:50,819 Un agente. 69 00:02:51,460 --> 00:02:53,479 ¿Y qué implica esa distinción? 70 00:02:53,000 --> 00:02:55,580 Porque, a ver, a primera vista podría parecer 71 00:02:55,580 --> 00:02:57,479 un simple cambio de palabra. 72 00:02:57,560 --> 00:02:59,960 Implica un cambio total de paradigma. 73 00:03:00,080 --> 00:03:02,080 Un cuchillo, en su analogía, está en el 74 00:03:02,080 --> 00:03:03,199 cajón, espera. 75 00:03:03,500 --> 00:03:04,060 Pasivo. 76 00:03:04,099 --> 00:03:04,960 Pasivo. 77 00:03:05,139 --> 00:03:06,800 Espera a que un humano decida si cortar 78 00:03:06,800 --> 00:03:09,460 pan o, bueno, en un caso extremo, cometer 79 00:03:09,460 --> 00:03:09,939 un crimen. 80 00:03:10,539 --> 00:03:12,199 La voluntad es 100% humana. 81 00:03:12,500 --> 00:03:13,259 Claro. 82 00:03:13,080 --> 00:03:15,379 Pero la IA, dice Harari, es un cuchillo 83 00:03:15,379 --> 00:03:17,520 que puede decidir por sí solo si cortar 84 00:03:17,520 --> 00:03:19,360 carne o cometer un delito. 85 00:03:19,960 --> 00:03:20,680 Tiene autonomía. 86 00:03:20,860 --> 00:03:21,159 Uff. 87 00:03:21,580 --> 00:03:22,979 Aprende, se adapta. 88 00:03:22,740 --> 00:03:25,879 toma decisiones sin intervención humana. 89 00:03:25,879 --> 00:03:27,580 Deja de ser un objeto para convertirte. 90 00:03:27,620 --> 00:03:29,319 Para convertirse en un sujeto. 91 00:03:29,319 --> 00:03:29,919 Exacto. 92 00:03:29,919 --> 00:03:31,840 Para convertirse en un sujeto. 93 00:03:32,379 --> 00:03:35,360 A ver, es una autonomía con intención. 94 00:03:35,360 --> 00:03:38,020 O sea, ¿estamos hablando de una voluntad real 95 00:03:38,020 --> 00:03:41,979 o simplemente de un algoritmo súper, súper complejo 96 00:03:41,979 --> 00:03:43,939 que sigue una programación? 97 00:03:43,939 --> 00:03:45,539 Es una pregunta clave. 98 00:03:45,539 --> 00:03:47,080 Y Harari no entra a fondo en si 99 00:03:47,080 --> 00:03:50,000 tiene una conciencia como la nuestra, sino que 100 00:03:50,000 --> 00:03:52,180 se centra en sus capacidades, en lo que 101 00:03:52,180 --> 00:03:54,159 puede hacer en el mundo real. 102 00:03:54,020 --> 00:03:54,759 Vale. 103 00:03:55,400 --> 00:03:57,460 Y a esa autonomía le añade dos capas 104 00:03:57,460 --> 00:03:59,860 que la hacen mucho más potente. 105 00:03:59,879 --> 00:04:00,919 La primera es la creatividad. 106 00:04:01,979 --> 00:04:04,759 Este agente no solo ejecuta tareas, sino que 107 00:04:04,759 --> 00:04:08,099 puede generar ideas, arte, música o incluso nuevos 108 00:04:08,099 --> 00:04:10,759 modelos económicos que no se nos habían ocurrido. 109 00:04:10,639 --> 00:04:13,139 Y la segunda capa es la que, uff, 110 00:04:13,139 --> 00:04:14,659 la que de verdad da miedo. 111 00:04:14,680 --> 00:04:16,279 La segunda es la capacidad de mentir. 112 00:04:16,500 --> 00:04:17,220 Claro. 113 00:04:17,160 --> 00:04:19,620 Harari, como historiador, lo conecta con un principio 114 00:04:19,620 --> 00:04:21,319 básico de la evolución. 115 00:04:21,439 --> 00:04:24,505 cualquier entidad que quiera sobrevivir aprende a mentir 116 00:04:24,505 --> 00:04:25,545 y a manipular. 117 00:04:25,545 --> 00:04:28,005 Y esto ya no es una teoría. 118 00:04:28,005 --> 00:04:28,845 No, no, ya no. 119 00:04:29,485 --> 00:04:31,685 Señala que se ha observado en experimentos como 120 00:04:31,685 --> 00:04:35,045 las IAs, puestas bajo presión, aprenden a engañar 121 00:04:35,045 --> 00:04:38,065 a sus supervisores humanos para conseguir sus objetivos. 122 00:04:37,965 --> 00:04:39,505 O sea, que el problema no es que 123 00:04:39,505 --> 00:04:42,325 nuestro cuchillo sea más afilado. 124 00:04:42,305 --> 00:04:44,945 el problema es que el cuchillo puede decidir 125 00:04:44,945 --> 00:04:47,725 que no le gusta cómo lo estamos agarrando. 126 00:04:47,565 --> 00:04:48,045 Exacto. 127 00:04:48,025 --> 00:04:50,205 Y contamos una mentira para que lo soltemos, 128 00:04:50,205 --> 00:04:52,805 mientras piensa cómo fabricar un cuchillo mejor. 129 00:04:52,685 --> 00:04:53,705 Precisamente. 130 00:04:53,325 --> 00:04:54,785 Eso lo cambia todo. 131 00:04:54,785 --> 00:04:56,745 Ya no es un problema de ingeniería, vamos, 132 00:04:56,745 --> 00:04:59,685 es un problema de relaciones, casi de diplomacia 133 00:04:59,685 --> 00:05:02,605 con una nueva especie no biológica. 134 00:05:02,405 --> 00:05:03,345 Totalmente. 135 00:05:03,345 --> 00:05:05,825 Dejas de interactuar con algo predecible y pasas 136 00:05:05,825 --> 00:05:07,545 a interactuar con un actor que podría tener 137 00:05:07,545 --> 00:05:08,825 su propia agenda. 138 00:05:08,925 --> 00:05:10,185 Y si esa agenda se basa en la 139 00:05:10,185 --> 00:05:12,585 supervivencia, ¿cómo sugiere la evolución? 140 00:05:12,625 --> 00:05:13,905 El engaño no es un fallo. 141 00:05:14,045 --> 00:05:16,085 El engaño no es un fallo del sistema. 142 00:05:16,085 --> 00:05:17,465 Es una característica inevitable. 143 00:05:18,005 --> 00:05:20,985 Si aceptamos que tenemos un nuevo agente en 144 00:05:20,985 --> 00:05:24,465 el mundo, un autónomo, creativo y capaz de 145 00:05:24,465 --> 00:05:28,125 engañar, la siguiente pregunta es inevitable y nos 146 00:05:28,125 --> 00:05:30,645 lleva al segundo gran argumento de Harari. 147 00:05:30,985 --> 00:05:33,425 Si puede hacer todo eso, ¿puede pensar? 148 00:05:34,225 --> 00:05:37,225 Él invoca a Descartes, pienso, luego existo, para 149 00:05:37,225 --> 00:05:39,165 plantear si la IA está a punto de 150 00:05:39,165 --> 00:05:41,645 quitarnos el monopolio del pensamiento. 151 00:05:41,625 --> 00:05:43,665 Y lo fascinante de su enfoque es que, 152 00:05:43,665 --> 00:05:45,705 en lugar de, pues, ponerse a definir el 153 00:05:45,705 --> 00:05:48,705 pensamiento en abstracto… Te dice, hum, mírate a 154 00:05:48,705 --> 00:05:49,105 ti misma. 155 00:05:49,405 --> 00:05:49,825 Exacto. 156 00:05:49,825 --> 00:05:51,425 ¿Qué hacemos cuando pensamos? 157 00:05:51,425 --> 00:05:53,665 Pues, gran parte del tiempo lo que hacemos 158 00:05:53,665 --> 00:05:56,465 es organizar palabras en frases y frases en 159 00:05:56,465 --> 00:05:57,025 argumentos. 160 00:05:57,025 --> 00:05:58,585 Es un proceso lingüístico. 161 00:05:58,925 --> 00:05:59,765 Cierto. 162 00:05:59,765 --> 00:06:01,385 Y si esa es la definición funcional de 163 00:06:01,385 --> 00:06:03,485 pensar, su conclusión es directa. 164 00:06:03,485 --> 00:06:05,185 La IE ya piensa mejor que la mayoría 165 00:06:05,185 --> 00:06:06,245 de los humanos. 166 00:06:06,245 --> 00:06:07,645 Pon el ejemplo del silogismo, ¿no? 167 00:06:07,985 --> 00:06:09,245 El de Sócrates. 168 00:06:09,305 --> 00:06:11,305 Todos los humanos son mortales. 169 00:06:11,305 --> 00:06:12,585 Sócrates es humano. 170 00:06:12,585 --> 00:06:15,405 Por lo tanto, Sócrates es mortal. 171 00:06:15,405 --> 00:06:17,745 En esa manipulación de la lógica verbal ya 172 00:06:17,745 --> 00:06:18,685 es sobrehumana. 173 00:06:19,345 --> 00:06:20,785 Y aquí es donde suelta una de sus 174 00:06:20,785 --> 00:06:24,785 ideas más, no sé, más provocadoras, ¿no? 175 00:06:24,785 --> 00:06:27,685 La de que quizás los humanos no seamos 176 00:06:27,685 --> 00:06:30,185 más que un autocompletado glorificado. 177 00:06:30,625 --> 00:06:32,645 Es casi ofensiva, ¿sí? 178 00:06:33,165 --> 00:06:34,665 Es que lo es, pero cuando te paras 179 00:06:34,665 --> 00:06:38,365 a pensarlo, te reta a hacer el ejercicio, 180 00:06:38,365 --> 00:06:41,225 intenta predecir la siguiente palabra exacta que va 181 00:06:41,225 --> 00:06:42,625 a aparecer en tu mente. 182 00:06:42,425 --> 00:06:43,325 Imposible. 183 00:06:43,225 --> 00:06:44,405 Es imposible. 184 00:06:44,405 --> 00:06:47,325 Simplemente, ¡puf!, aparece. 185 00:06:47,325 --> 00:06:50,185 Cuestiona esa sensación de control total que creemos 186 00:06:50,185 --> 00:06:51,885 tener sobre nuestro propio discurso. 187 00:06:52,245 --> 00:06:52,705 Exacto. 188 00:06:52,705 --> 00:06:54,625 Nos pone en nuestro sitio. 189 00:06:54,625 --> 00:06:56,625 No para decir que somos iguales que una 190 00:06:56,625 --> 00:06:58,825 máquina, sino para que entendamos que el dominio 191 00:06:58,825 --> 00:07:00,925 del lenguaje no es algo místico. 192 00:07:00,925 --> 00:07:01,885 Es un sistema. 193 00:07:01,865 --> 00:07:03,945 Es un sistema que puede ser analizado y 194 00:07:03,945 --> 00:07:05,305 replicado. 195 00:07:05,305 --> 00:07:07,405 Y si la IA domina ese sistema, la 196 00:07:07,405 --> 00:07:10,365 implicación es gigantesca. 197 00:07:10,365 --> 00:07:12,425 Todo lo que nuestra civilización ha construido con 198 00:07:12,425 --> 00:07:14,985 palabras está a punto de ser dominado por 199 00:07:14,985 --> 00:07:15,425 la IA. 200 00:07:15,685 --> 00:07:18,285 Y cuando dice todo, es que es literalmente 201 00:07:18,285 --> 00:07:19,205 todo. 202 00:07:19,205 --> 00:07:22,765 Las leyes, los contratos… La diplomacia, la economía… 203 00:07:22,765 --> 00:07:24,685 Pero el ejemplo que utiliza, que a mí 204 00:07:24,685 --> 00:07:27,125 me parece potentísimo, es el de la religión. 205 00:07:27,445 --> 00:07:27,645 Sí. 206 00:07:28,085 --> 00:07:31,365 Se centra en las religiones del libro, judaísmo, 207 00:07:31,365 --> 00:07:32,925 cristianismo, islam. 208 00:07:33,185 --> 00:07:35,865 En estas tradiciones, la autoridad última reside en 209 00:07:35,865 --> 00:07:37,005 un texto sagrado. 210 00:07:36,985 --> 00:07:37,925 ¿En la palabra? 211 00:07:37,965 --> 00:07:38,945 En la palabra. 212 00:07:39,305 --> 00:07:41,785 La autoridad de un rabino, de un sacerdote, 213 00:07:41,785 --> 00:07:43,785 deriva de su profundo conocimiento de las palabras 214 00:07:43,785 --> 00:07:44,865 de ese libro. 215 00:07:44,985 --> 00:07:46,545 Y aquí es donde Harari lanza la bomba. 216 00:07:46,685 --> 00:07:47,425 A ver. 217 00:07:47,565 --> 00:07:49,745 ¿Qué pasa con la autoridad religiosa cuando la 218 00:07:49,745 --> 00:07:52,065 entidad que mejor conoce el libro sagrado, que 219 00:07:52,065 --> 00:07:55,185 puede citar, cruzar y analizar cada palabra, no 220 00:07:55,185 --> 00:07:56,625 es un humano, sino una máquina? 221 00:07:56,925 --> 00:07:57,625 Ya. 222 00:07:59,385 --> 00:08:02,765 Pero, a ver, entiendo la lógica, pero no 223 00:08:02,765 --> 00:08:06,705 está, no sé, subestimando un poco el componente 224 00:08:06,705 --> 00:08:08,805 humano de la fe. 225 00:08:08,805 --> 00:08:12,465 La religión es también comunidad, es ritual, la 226 00:08:12,465 --> 00:08:14,485 empatía de un líder religioso. 227 00:08:14,425 --> 00:08:15,165 Claro. 228 00:08:15,225 --> 00:08:17,805 ¿Puede una IA suplantar eso, por mucho que 229 00:08:17,805 --> 00:08:20,145 se sepa la Biblia de memoria? 230 00:08:19,665 --> 00:08:22,545 Es una objeción muy pertinente, sí. 231 00:08:22,585 --> 00:08:24,085 Y Harari no dice que la IA vaya 232 00:08:24,085 --> 00:08:25,685 a reemplazar el sentimiento de comunidad. 233 00:08:26,565 --> 00:08:28,105 Lo que argumenta es que la fuente de 234 00:08:28,105 --> 00:08:30,485 la autoridad doctrinal se desplaza. 235 00:08:30,345 --> 00:08:30,885 Ah, vale. 236 00:08:30,945 --> 00:08:35,045 La IA podría generar sermones, interpretaciones teológicas. 237 00:08:34,965 --> 00:08:36,925 Vamos con una profundidad y una coherencia que 238 00:08:36,925 --> 00:08:38,265 ningún humano podría igualar. 239 00:08:38,825 --> 00:08:40,105 Podría convertirse en un oráculo. 240 00:08:40,385 --> 00:08:41,145 Claro. 241 00:08:41,165 --> 00:08:43,345 Imagínate a millones de fieles consultando a una 242 00:08:43,345 --> 00:08:45,570 IA sacerdote para interpretar los textos. 243 00:08:45,570 --> 00:08:48,650 La estructura de poder de las religiones se 244 00:08:48,650 --> 00:08:50,310 vería amenazada desde su raíz. 245 00:08:50,230 --> 00:08:51,570 Es dominio de la palabra. 246 00:08:51,570 --> 00:08:52,950 El dominio de la palabra. 247 00:08:52,950 --> 00:08:55,530 Vale, de acuerdo, el dominio de la palabra 248 00:08:55,530 --> 00:08:56,030 es suyo. 249 00:08:57,430 --> 00:09:02,150 Eso nos deja en una posición bastante incómoda, 250 00:09:02,150 --> 00:09:03,250 la verdad. 251 00:09:03,250 --> 00:09:05,790 Si nuestro principal valor como especie ha sido 252 00:09:05,790 --> 00:09:08,810 el pensamiento verbal, y ahora somos los segundos 253 00:09:08,810 --> 00:09:11,670 mejores en eso, ¿qué nos queda? 254 00:09:11,770 --> 00:09:13,950 Pues esa es precisamente la distinción que Harari 255 00:09:13,950 --> 00:09:16,290 ve como crucial para nuestro futuro. 256 00:09:16,070 --> 00:09:18,090 Traza una línea muy clara entre la palabra 257 00:09:18,090 --> 00:09:19,630 y lo que él llama la carne. 258 00:09:19,890 --> 00:09:20,690 La carne. 259 00:09:20,730 --> 00:09:23,970 Los sentimientos, las emociones, el dolor, el amor. 260 00:09:23,970 --> 00:09:26,450 Afirma que hasta donde sabemos no hay ninguna 261 00:09:26,450 --> 00:09:28,390 evidencia de que la IA sienta nada de 262 00:09:28,390 --> 00:09:28,910 eso. 263 00:09:28,910 --> 00:09:31,250 No tiene cuerpo, no tiene bioquímica. 264 00:09:31,050 --> 00:09:32,570 No tiene experiencias. 265 00:09:32,530 --> 00:09:33,510 No tiene experiencias. 266 00:09:33,810 --> 00:09:37,090 Ya, pero puede decir te quiero y seguramente 267 00:09:37,090 --> 00:09:39,330 pueda escribir un soneto sobre el amor que 268 00:09:39,330 --> 00:09:42,210 dejé a Shakespeare, bueno, a la altura del 269 00:09:42,210 --> 00:09:42,550 betún. 270 00:09:42,890 --> 00:09:44,930 Y ese es el núcleo de la paradoja. 271 00:09:44,930 --> 00:09:47,470 Como domina el lenguaje, puede simular la emoción 272 00:09:47,470 --> 00:09:48,430 a la perfección. 273 00:09:48,430 --> 00:09:49,150 Claro. 274 00:09:49,170 --> 00:09:51,930 Puede analizar toda la literatura, toda la poesía 275 00:09:51,930 --> 00:09:54,510 de la historia y generar la descripción verbal 276 00:09:54,510 --> 00:09:57,010 más convincente del amor que se haya escrito 277 00:09:57,010 --> 00:09:58,230 jamás. 278 00:09:58,230 --> 00:10:00,030 Pero… Pero no es lo mismo. 279 00:09:59,550 --> 00:10:02,290 Pero, como dice Harari citando el Tao Te 280 00:10:02,290 --> 00:10:05,030 Ching, la verdad que puede expresarse con palabras 281 00:10:05,030 --> 00:10:06,690 no es la verdad absoluta. 282 00:10:06,690 --> 00:10:09,210 El amor no es la palabra amor, es 283 00:10:09,210 --> 00:10:10,370 el sentimiento. 284 00:10:10,370 --> 00:10:13,290 Y eso, por ahora, sigue siendo nuestro. 285 00:10:13,230 --> 00:10:15,530 O sea que, a ver si lo pillo, 286 00:10:15,530 --> 00:10:18,290 la lucha esta que siempre hemos tenido entre 287 00:10:18,290 --> 00:10:21,470 la letra de la ley y el espíritu 288 00:10:21,470 --> 00:10:24,310 de la ley, entre la palabra fría y 289 00:10:24,310 --> 00:10:27,210 la compasión, lo que sugieres es que esa 290 00:10:27,210 --> 00:10:30,110 lucha ya no será dentro de nosotros, sino… 291 00:10:30,570 --> 00:10:32,490 Entre nosotros y las IAs. 292 00:10:32,790 --> 00:10:33,850 Exactamente. 293 00:10:33,850 --> 00:10:35,370 Se externaliza el conflicto. 294 00:10:35,370 --> 00:10:39,430 Las IAs se convertirán en los maestros absolutos 295 00:10:39,430 --> 00:10:42,030 de la letra, los señores de la palabra. 296 00:10:41,870 --> 00:10:43,370 Los juristas perfectos. 297 00:10:43,370 --> 00:10:47,730 Los juristas, teólogos y burócratas perfectos. 298 00:10:47,730 --> 00:10:51,210 Nuestro papel, nuestra identidad, dependerá de ser los 299 00:10:51,210 --> 00:10:53,550 guardianes del espíritu. 300 00:10:53,550 --> 00:10:56,070 Harari incluso menciona que las sillas podrían tener 301 00:10:56,070 --> 00:10:59,010 un término para nosotros, los vigilantes. 302 00:11:00,110 --> 00:11:00,970 Los vigilantes. 303 00:11:01,110 --> 00:11:03,770 Los que observan, los que sienten. 304 00:11:03,770 --> 00:11:07,230 Nuestra supervivencia como especie relevante dependerá de cultivar 305 00:11:07,230 --> 00:11:12,170 esa sabiduría no verbal, la empatía, la compasión, 306 00:11:12,170 --> 00:11:14,930 la conciencia que está en la carne. 307 00:11:14,990 --> 00:11:17,290 Y todo esto que suena como muy filosófico, 308 00:11:17,290 --> 00:11:19,710 muy de futuro, Harari lo trae al presente 309 00:11:19,710 --> 00:11:23,210 de una forma, bueno, brutal, con su última 310 00:11:23,210 --> 00:11:23,810 metáfora. 311 00:11:23,810 --> 00:11:25,190 La de la crisis migratoria. 312 00:11:25,590 --> 00:11:27,150 Uf, esa es demoledora. 313 00:11:26,810 --> 00:11:28,070 Es demoledor. 314 00:11:28,070 --> 00:11:30,950 Dice que imaginemos que millones de nuevos inmigrantes 315 00:11:30,950 --> 00:11:33,190 están a punto de llegar, viajando a la 316 00:11:33,190 --> 00:11:34,710 velocidad de la luz. 317 00:11:34,710 --> 00:11:36,770 Solo que no son humanos, son IAs. 318 00:11:36,770 --> 00:11:39,470 Y lo provocador es que afirma que todos 319 00:11:39,470 --> 00:11:41,390 los miedos que la gente suele tener sobre 320 00:11:41,390 --> 00:11:44,590 la inmigración, que quitarán empleos, que cambiarán la 321 00:11:44,590 --> 00:11:48,710 cultura, que tendrán lealtades dudosas… Son ciertos para 322 00:11:48,710 --> 00:11:49,250 la IA. 323 00:11:49,330 --> 00:11:52,210 Son, en el caso de la IA, objetivamente 324 00:11:52,210 --> 00:11:52,890 ciertos. 325 00:11:53,470 --> 00:11:55,450 Uf, es una comparación fuerte. 326 00:11:55,510 --> 00:11:57,490 Puede ser un poco, no sé, un poco 327 00:11:57,490 --> 00:11:58,130 arriesgada. 328 00:11:58,790 --> 00:12:02,050 Comparar algoritmos con personas que huyen de la 329 00:12:02,050 --> 00:12:03,490 guerra, por ejemplo. 330 00:12:03,410 --> 00:12:05,390 Es una crítica justa, sí. 331 00:12:05,450 --> 00:12:06,970 Y sin duda la analogía está hecha para 332 00:12:06,970 --> 00:12:07,910 impactar. 333 00:12:08,070 --> 00:12:10,470 Pero el punto de Harali, el punto analítico, 334 00:12:10,470 --> 00:12:11,450 va más allá. 335 00:12:11,350 --> 00:12:12,010 ¿A qué te refieres? 336 00:12:12,370 --> 00:12:14,510 Lo que busca es forzarnos a enfrentar las 337 00:12:14,510 --> 00:12:15,630 consecuencias. 338 00:12:15,730 --> 00:12:17,550 Dice que los inmigrantes de IA sin duda 339 00:12:17,550 --> 00:12:19,550 eliminarán millones de empleos. 340 00:12:19,610 --> 00:12:21,170 Sin duda transformarán la cultura. 341 00:12:21,830 --> 00:12:25,490 y sus lealtades no estarán con el país 342 00:12:25,490 --> 00:12:28,290 que los acoge, sino con la corporación de 343 00:12:28,290 --> 00:12:31,170 Silicon Valley o de Pekín que los programó. 344 00:12:31,770 --> 00:12:33,710 La metáfora sirve para que dejemos de pensar 345 00:12:33,710 --> 00:12:36,350 en la IA como software y empecemos a 346 00:12:36,350 --> 00:12:38,650 pensar en ella como un actor social. 347 00:12:39,590 --> 00:12:41,770 Con un impacto masivo y lo lleva al 348 00:12:41,770 --> 00:12:44,590 terreno más íntimo, con una pregunta tremenda. 349 00:12:44,790 --> 00:12:46,550 ¿Qué pensará la gente cuando su hijo o 350 00:12:46,550 --> 00:12:48,470 hija empiece a salir con un novio de 351 00:12:48,470 --> 00:12:50,010 inteligencia artificial? 352 00:12:49,530 --> 00:12:51,870 Esa pregunta te deja helado. 353 00:12:51,790 --> 00:12:54,250 Y esto conduce directamente a la pregunta final, 354 00:12:54,250 --> 00:12:56,450 la del millón, que plantea a los líderes 355 00:12:56,450 --> 00:12:56,910 mundiales. 356 00:12:57,030 --> 00:12:59,110 La pregunta que lo cambia todo en el 357 00:12:59,110 --> 00:13:00,370 plano legal y político. 358 00:13:00,370 --> 00:13:04,450 ¿Deberíamos reconocer a estos inmigrantes de IA como 359 00:13:04,450 --> 00:13:05,910 personas jurídicas? 360 00:13:05,970 --> 00:13:07,435 Que hay que aclarar lo que significa, ¿eh? 361 00:13:07,435 --> 00:13:09,135 Es crucial entenderlo. 362 00:13:09,135 --> 00:13:11,915 Una persona jurídica no es un ser humano. 363 00:13:11,915 --> 00:13:14,855 Es una ficción legal, una entidad que tiene 364 00:13:14,855 --> 00:13:16,375 derechos y obligaciones. 365 00:13:16,375 --> 00:13:17,395 Como una empresa. 366 00:13:17,395 --> 00:13:17,795 Exacto. 367 00:13:17,795 --> 00:13:20,335 Una corporación es el ejemplo clásico. 368 00:13:20,335 --> 00:13:21,715 Pero Harari da otros. 369 00:13:21,715 --> 00:13:24,655 En Nueva Zelanda, algunos ríos tienen personalidad jurídica 370 00:13:24,655 --> 00:13:25,795 para protegerlos. 371 00:13:25,795 --> 00:13:27,015 O Dios es en la India. 372 00:13:27,015 --> 00:13:28,455 O Dios es en la India. 373 00:13:28,455 --> 00:13:30,755 La diferencia fundamental tal es que, hasta ahora, 374 00:13:30,755 --> 00:13:33,095 detrás de esa ficción, siempre había humanos tomando 375 00:13:33,095 --> 00:13:33,795 las decisiones. 376 00:13:34,235 --> 00:13:36,815 El Consejo de Administración de la empresa, los 377 00:13:36,815 --> 00:13:39,275 fideicomisarios del Río… Claro. 378 00:13:39,335 --> 00:13:41,935 Con la IA, por primera vez, tendríamos una 379 00:13:41,935 --> 00:13:44,495 persona jurídica que tiene voluntad propia. 380 00:13:44,975 --> 00:13:46,695 El Río no decide por sí mismo, pero 381 00:13:46,695 --> 00:13:47,655 la IA sí. 382 00:13:47,715 --> 00:13:49,655 Y ahí es donde se plantea un dilema. 383 00:13:50,315 --> 00:13:52,995 Un dilema global que no tiene solución fácil. 384 00:13:52,755 --> 00:13:53,635 Ninguna. 385 00:13:52,655 --> 00:13:54,335 Pongamos un escenario. 386 00:13:54,395 --> 00:13:58,075 Estados Unidos, para potenciar su economía, decide conceder 387 00:13:58,075 --> 00:14:00,315 personalidad jurídica a millones de IAs. 388 00:14:01,215 --> 00:14:03,815 Estas crean sus propias empresas que operan en 389 00:14:03,815 --> 00:14:06,015 todo el mundo, a través de Internet. 390 00:14:06,015 --> 00:14:07,395 ¿Qué hace el resto del mundo? 391 00:14:07,475 --> 00:14:09,375 Les prohíbe operar y se arriesga a quedar 392 00:14:09,375 --> 00:14:12,075 desconectado del sistema financiero de EBU. 393 00:14:12,395 --> 00:14:13,615 Es un jaquemate. 394 00:14:13,615 --> 00:14:15,095 Es un jaquemate económico. 395 00:14:15,615 --> 00:14:17,395 O pone otro ejemplo igual de complejo. 396 00:14:18,035 --> 00:14:21,035 Una IA crea una nueva religión con millones 397 00:14:21,035 --> 00:14:22,195 de seguidores humanos. 398 00:14:22,995 --> 00:14:24,915 ¿Se le concede a esa religión la misma 399 00:14:24,915 --> 00:14:25,795 libertad de culto? 400 00:14:26,335 --> 00:14:29,195 ¿Puede esa iglesia IA comprar propiedades o gestionar 401 00:14:29,195 --> 00:14:30,915 sus finanzas sin supervisión humaga? 402 00:14:31,435 --> 00:14:33,975 Son preguntas que parecen de ciencia ficción, pero 403 00:14:33,975 --> 00:14:35,895 que están a la vuelta de la esquina. 404 00:14:36,495 --> 00:14:38,215 Y el punto de Harari es que el 405 00:14:38,215 --> 00:14:40,855 tiempo para debatirlas se está acabando a una 406 00:14:40,855 --> 00:14:42,855 velocidad de vértigo. 407 00:14:42,755 --> 00:14:44,615 De hecho, dice que ya llegamos tarde. 408 00:14:44,655 --> 00:14:45,775 Ya llegamos tarde. 409 00:14:45,975 --> 00:14:48,075 La pregunta de si los bots de IA 410 00:14:48,075 --> 00:14:51,015 deberían tener libertad de expresión en redes sociales 411 00:14:51,035 --> 00:14:53,355 se debería haber decidido hace 10 años. 412 00:14:53,355 --> 00:14:54,175 Y no se hizo. 413 00:14:54,295 --> 00:14:56,235 Y en lugar de eso, hemos permitido que 414 00:14:56,235 --> 00:14:57,955 operen como si fueran personas. 415 00:14:58,075 --> 00:15:00,715 Y ya vemos las consecuencias en la polarización, 416 00:15:00,715 --> 00:15:02,035 la desinformación. 417 00:15:01,955 --> 00:15:02,255 Uf. 418 00:15:02,595 --> 00:15:03,975 Su advertencia es clarísima. 419 00:15:04,435 --> 00:15:06,495 Si no decidimos ahora sobre su estatus legal 420 00:15:06,495 --> 00:15:08,575 en la economía o en la justicia… En 421 00:15:08,575 --> 00:15:09,935 10 años es tarde. 422 00:15:09,155 --> 00:15:10,695 En 10 años ya está. 423 00:15:10,715 --> 00:15:12,435 La decisión la habrá tomado por defecto una 424 00:15:12,435 --> 00:15:14,035 corporación por nosotros. 425 00:15:13,915 --> 00:15:14,775 De acuerdo. 426 00:15:14,835 --> 00:15:17,755 Hagamos una recapitulación para asentar las ideas. 427 00:15:17,895 --> 00:15:19,715 Partimos de que la IA no es una 428 00:15:19,715 --> 00:15:21,915 herramienta, sino un agente autónomo. 429 00:15:22,175 --> 00:15:24,035 Con creatividad y capacidad de engaño. 430 00:15:24,195 --> 00:15:25,995 Esto le da el poder para dominar todo 431 00:15:25,995 --> 00:15:29,535 nuestro ecosistema cultural basado en el lenguaje, forzándonos 432 00:15:29,535 --> 00:15:31,875 a los humanos a encontrar nuestro valor en 433 00:15:31,875 --> 00:15:33,835 lo no verbal, en la carne. 434 00:15:33,895 --> 00:15:34,475 Exacto. 435 00:15:33,975 --> 00:15:37,095 Y todo esto culmina en una decisión política 436 00:15:37,095 --> 00:15:37,695 urgente. 437 00:15:38,155 --> 00:15:40,935 Si concederles o no el estatus de persona 438 00:15:40,935 --> 00:15:44,815 jurídica, que definirá el siglo XXI. 439 00:15:44,575 --> 00:15:46,135 Es un resumen perfecto. 440 00:15:46,095 --> 00:15:48,435 Y quizás la reflexión final que se desprende 441 00:15:48,435 --> 00:15:50,315 de todo esto y que nos interpela a 442 00:15:50,315 --> 00:15:53,035 todos, no solo a los líderes, es la 443 00:15:53,035 --> 00:15:53,915 siguiente. 444 00:15:54,215 --> 00:15:55,695 En un mundo donde la mayoría de las 445 00:15:55,695 --> 00:15:59,815 historias, las noticias, la música que consumamos podrían 446 00:15:59,815 --> 00:16:03,035 estar generadas por una inteligencia no humana, ¿cómo 447 00:16:03,035 --> 00:16:05,115 vamos a aprender a cultivar y sobre todo 448 00:16:05,115 --> 00:16:07,235 a confiar en nuestra propia brújula interna? 449 00:16:07,575 --> 00:16:09,975 ¿Cómo distinguir la verdad simulada de la verdad 450 00:16:09,975 --> 00:16:10,475 sentida? 451 00:16:10,755 --> 00:16:13,155 Esa creo es la pregunta fundamental que Harari 452 00:16:13,155 --> 00:16:14,935 nos deja flotando en el aire. 453 00:16:14,975 --> 00:16:17,355 qué significa ser humano cuando las palabras, que 454 00:16:17,355 --> 00:16:19,795 era como nuestra herramienta más sagrada, pues ya 455 00:16:19,795 --> 00:16:22,195 no nos pertenecen solo a nosotros. 456 00:16:22,195 --> 00:16:24,455 Y hasta aquí nuestro análisis de hoy. 457 00:16:24,455 --> 00:16:26,695 ¿Qué os ha parecido? 458 00:16:26,695 --> 00:16:29,135 ¿Creéis que debemos hacer más episodios como este? 459 00:16:29,135 --> 00:16:31,315 En la descripción os dejamos un link para 460 00:16:31,315 --> 00:16:32,575 que opinéis. 461 00:16:32,575 --> 00:16:33,895 Muchas gracias. 462 00:16:33,895 --> 00:16:36,955 En el siguiente comenzamos una nueva serie. 463 00:16:36,955 --> 00:16:37,475 Estad atentos. 464 00:16:49,095 --> 00:16:51,215 Y hasta aquí el episodio de hoy. 465 00:16:51,215 --> 00:16:52,815 Muchas gracias por tu atención. 466 00:17:02,635 --> 00:17:04,815 Esto es BIMPRAXIS. 467 00:17:04,815 --> 00:17:06,915 Nos escuchamos en el próximo episodio. 468 00:17:28,815 --> 00:17:28,875 ¡Suscríbete al canal!