1
00:00:09,679 --> 00:00:15,660
Buenas, esto es BIMPRAXIS, el podcast donde el

2
00:00:15,660 --> 00:00:17,719
BIM se encuentra con la inteligencia artificial.

3
00:00:20,280 --> 00:00:23,480
Exploramos la ciencia, la tecnología y el futuro

4
00:00:23,480 --> 00:00:26,460
desde el enfoque de la arquitectura, ingeniería y

5
00:00:26,460 --> 00:00:27,120
construcción.

6
00:00:28,739 --> 00:00:29,440
¡Empezamos!

7
00:00:36,899 --> 00:00:39,920
Muy buenas, bienvenidas, bienvenidos a un nuevo episodio

8
00:00:39,920 --> 00:00:40,600
de BIMPRAXIS.

9
00:00:40,759 --> 00:00:43,640
Hoy os traemos el fin de la programación,

10
00:00:43,640 --> 00:00:46,420
la psicosis de los agentes y la inteligencia

11
00:00:46,420 --> 00:00:47,020
automatizada.

12
00:00:47,960 --> 00:00:48,859
Hola, ¿qué tal?

13
00:00:49,200 --> 00:00:51,859
Pues sí, hoy tenemos un tema que, de

14
00:00:51,859 --> 00:00:54,079
verdad, nos vuela la cabeza por completo.

15
00:00:54,619 --> 00:00:55,100
Totalmente.

16
00:00:55,460 --> 00:00:57,539
Porque, a ver, existe una imagen muy arraigada

17
00:00:57,539 --> 00:00:58,700
sobre cómo se crea el software.

18
00:00:58,939 --> 00:01:00,880
Ya sabes, la típica habitación a media luz,

19
00:01:01,079 --> 00:01:03,640
un monitor con fondo negro y alguien tecleando

20
00:01:03,640 --> 00:01:04,200
a toda velocidad.

21
00:01:04,599 --> 00:01:06,439
Claro, el paradigma clásico.

22
00:01:06,680 --> 00:01:09,980
Es una visión casi artesanal, como si fueras

23
00:01:09,980 --> 00:01:12,579
un albañil digital poniendo un bloque de código

24
00:01:12,579 --> 00:01:14,099
tras otro, línea por línea.

25
00:01:14,579 --> 00:01:15,060
Exacto.

26
00:01:15,280 --> 00:01:17,700
Todo lineal, predecible y bajo control.

27
00:01:17,780 --> 00:01:20,799
Escribes la función, compilas, buscas el error y

28
00:01:20,799 --> 00:01:21,239
repites.

29
00:01:21,939 --> 00:01:24,780
Y en esa dinámica, el límite siempre ha

30
00:01:24,780 --> 00:01:27,620
sido la velocidad del cerebro humano para traducir

31
00:01:27,620 --> 00:01:30,019
la lógica a una sintaxis que el ordenador

32
00:01:30,019 --> 00:01:30,459
entienda.

33
00:01:30,739 --> 00:01:33,420
Pues preparaos porque esa imagen acaba de saltar

34
00:01:33,420 --> 00:01:34,120
por los aires.

35
00:01:34,560 --> 00:01:37,540
Esta inmersión a fondo arranca con una confesión

36
00:01:37,540 --> 00:01:40,060
fascinante de Andrei Karpathy.

37
00:01:40,519 --> 00:01:41,500
Madre mía, sí.

38
00:01:41,859 --> 00:01:44,540
Uno de los nombres más respetados en el

39
00:01:44,540 --> 00:01:45,840
mundo de la inteligencia artificial.

40
00:01:46,359 --> 00:01:47,060
Pues fíjate.

41
00:01:47,239 --> 00:01:47,760
¿Qué es la inteligencia artificial?

42
00:01:47,780 --> 00:01:49,480
Confiesa que desde el pasado mes de diciembre

43
00:01:49,480 --> 00:01:51,680
prácticamente no ha escrito ni una sola línea

44
00:01:51,680 --> 00:01:52,099
de código.

45
00:01:52,480 --> 00:01:53,019
Cero.

46
00:01:53,140 --> 00:01:53,840
Es brutal.

47
00:01:54,400 --> 00:01:56,700
Pasar de escribir el 80 % de sus

48
00:01:56,700 --> 00:01:59,959
proyectos a delegar casi el 100 % es

49
00:01:59,959 --> 00:02:00,780
un salto enorme.

50
00:02:01,319 --> 00:02:03,840
Y entonces, claro, la pregunta es ¿qué hace

51
00:02:03,840 --> 00:02:05,340
durante 16 horas al día?

52
00:02:05,760 --> 00:02:07,700
Pues dice que está sufriendo una especie de

53
00:02:07,700 --> 00:02:08,539
psicosis constante.

54
00:02:09,020 --> 00:02:11,099
Sí, sí, lo de manifestar software.

55
00:02:11,939 --> 00:02:15,539
Susurrando instrucciones a un enjambre de agentes autónomos.

56
00:02:15,879 --> 00:02:17,180
O sea, ya no teclea.

57
00:02:17,780 --> 00:02:18,000
Habla.

58
00:02:18,199 --> 00:02:20,319
Y la misión de nuestro análisis de hoy

59
00:02:20,319 --> 00:02:22,120
es entender este cambio radical.

60
00:02:22,479 --> 00:02:23,020
Exacto.

61
00:02:23,020 --> 00:02:25,300
Porque esto no solo afecta a los programadores.

62
00:02:25,460 --> 00:02:27,759
Vamos a ver cómo cambia la interacción con

63
00:02:27,759 --> 00:02:30,960
nuestras propias casas, cómo evoluciona la ciencia y,

64
00:02:31,020 --> 00:02:35,460
sorprendentemente, por qué estas superinteligencias siguen fallando en

65
00:02:35,460 --> 00:02:35,939
lo más humano.

66
00:02:36,240 --> 00:02:37,639
Pues vamos a meternos de lleno.

67
00:02:37,900 --> 00:02:41,159
Para visualizar este salto, hay un ejemplo buenísimo

68
00:02:41,159 --> 00:02:43,599
de un desarrollador llamado Peter Steinberger.

69
00:02:43,919 --> 00:02:46,120
Ah, sí, el caso de Steinberger es revelador.

70
00:02:48,120 --> 00:02:49,300
Qué va, qué va.

71
00:02:49,479 --> 00:02:51,699
Tiene un monitor lleno de agentes de códex

72
00:02:51,699 --> 00:02:52,400
independientes.

73
00:02:52,699 --> 00:02:55,479
Están operando sobre 10 repositorios diferentes a la

74
00:02:55,479 --> 00:02:55,680
vez.

75
00:02:55,840 --> 00:02:57,539
Es como si moviera los healers de unas

76
00:02:57,539 --> 00:02:58,900
marionetas invisibles.

77
00:02:59,159 --> 00:03:02,020
Da lo que ahora llamamos macroacciones.

78
00:03:02,259 --> 00:03:03,219
O sea, a ver si lo entiendo.

79
00:03:03,419 --> 00:03:04,979
Ya no le dices a la máquina cómo

80
00:03:04,979 --> 00:03:06,360
estructurar un bucle de datos.

81
00:03:06,639 --> 00:03:08,819
La instrucción es a nivel organizativo, ¿no?

82
00:03:09,000 --> 00:03:10,099
Resume qué puede hacer.

83
00:03:10,620 --> 00:03:12,400
Y a un segundo agente le dices que

84
00:03:12,400 --> 00:03:14,919
implemente la arquitectura basándose en lo que ha

85
00:03:14,919 --> 00:03:15,800
investigado el primero.

86
00:03:16,219 --> 00:03:16,639
Exacto.

87
00:03:16,639 --> 00:03:17,759
Y luego a un tercer agente.

88
00:03:17,780 --> 00:03:19,219
Y al tercero, pon a prueba ese código

89
00:03:19,219 --> 00:03:20,460
y corrige los fallos.

90
00:03:20,560 --> 00:03:22,219
Es pura gestión de proyectos.

91
00:03:22,219 --> 00:03:22,979
Ya no es sintaxis.

92
00:03:23,500 --> 00:03:25,659
Claro, pasas de ser el peón de obra

93
00:03:25,659 --> 00:03:27,979
al arquitecto que dirige a mil obreros.

94
00:03:28,120 --> 00:03:32,039
Pero aquí hay un tema psicológico complejo.

95
00:03:32,180 --> 00:03:34,319
Sí, la ansiedad que genera esto.

96
00:03:34,580 --> 00:03:35,039
Eso es.

97
00:03:35,979 --> 00:03:38,460
Históricamente, el cuello de botella era el ordenador.

98
00:03:38,639 --> 00:03:40,800
Si el procesador era lento, pues te ibas

99
00:03:40,800 --> 00:03:41,379
a tomar un café.

100
00:03:41,599 --> 00:03:41,919
Ya.

101
00:03:42,039 --> 00:03:44,060
Pero ahora el límite es tu propia capacidad

102
00:03:44,060 --> 00:03:46,479
para mantener a esta fuerza bruta ocupada.

103
00:03:46,479 --> 00:03:48,599
Tiene que ser súper estresante, ¿no?

104
00:03:48,699 --> 00:03:50,699
O sea, saber que si no coordinas bien,

105
00:03:50,759 --> 00:03:53,120
¿estás desperdiciando tu cuota de tokens mensual?

106
00:03:53,259 --> 00:03:55,099
Es una ansiedad súper real.

107
00:03:55,520 --> 00:03:57,639
Fíjate que recuerda mucho a la época del

108
00:03:57,639 --> 00:03:59,080
doctorado hace 10 años.

109
00:03:59,319 --> 00:04:01,120
Ah, por lo de las tarjetas gráficas.

110
00:04:01,240 --> 00:04:02,080
Sí, sí, sí.

111
00:04:02,219 --> 00:04:04,580
Si tenías las GPUs sin hacer nada, sin

112
00:04:04,580 --> 00:04:07,819
exprimir los flops al máximo, era un desperdicio

113
00:04:07,819 --> 00:04:08,780
imperdonable.

114
00:04:08,919 --> 00:04:10,080
Te sentías culpable.

115
00:04:10,280 --> 00:04:10,900
Madre mía.

116
00:04:10,919 --> 00:04:13,020
Y ahora esa métrica es el token.

117
00:04:13,539 --> 00:04:16,379
Si te sobran tokens, has fallado tú como

118
00:04:16,379 --> 00:04:16,459
gestor.

119
00:04:16,459 --> 00:04:17,439
Pues sí.

120
00:04:17,560 --> 00:04:20,040
El humano es el nuevo cuello de botella.

121
00:04:20,139 --> 00:04:21,899
Pero hay un matiz muy curioso en cómo

122
00:04:21,899 --> 00:04:23,379
lidiamos con este estrés.

123
00:04:23,540 --> 00:04:25,839
¿Te refieres a la personalidad de las inteligencias

124
00:04:25,839 --> 00:04:26,660
artificiales?

125
00:04:27,240 --> 00:04:27,759
Exactamente.

126
00:04:28,079 --> 00:04:30,620
Porque no todas las herramientas se perciben igual.

127
00:04:30,839 --> 00:04:33,040
Por ejemplo, Codex es muy seco.

128
00:04:33,319 --> 00:04:34,980
Cumple su función y punto.

129
00:04:35,120 --> 00:04:35,920
Es aburrido.

130
00:04:36,079 --> 00:04:36,339
Ya.

131
00:04:36,600 --> 00:04:39,660
Pero luego tienes modelos como Cloud, que están

132
00:04:39,660 --> 00:04:42,420
diseñados para parecer el compañero de equipo entusiasta,

133
00:04:42,560 --> 00:04:42,860
¿verdad?

134
00:04:42,860 --> 00:04:43,139
Claro.

135
00:04:43,300 --> 00:04:45,160
Y ese ajuste no es casualidad.

136
00:04:45,560 --> 00:04:47,420
Reduce nuestra fricción cognitiva.

137
00:04:47,579 --> 00:04:50,660
En el fondo, es solo matemáticas prediciendo palabras.

138
00:04:51,240 --> 00:04:51,779
Ya, ya.

139
00:04:51,839 --> 00:04:52,480
No hay nadie ahí.

140
00:04:52,839 --> 00:04:53,079
No.

141
00:04:53,240 --> 00:04:56,920
Pero como simula un comportamiento colaborativo, nuestro cerebro

142
00:04:56,920 --> 00:04:57,579
entra al trapo.

143
00:04:58,040 --> 00:04:59,720
Engancha con nuestras estructuras sociales.

144
00:05:00,199 --> 00:05:01,220
Es que es muy fuerte.

145
00:05:01,540 --> 00:05:03,819
Quien la orquesta llega a confesar que intenta

146
00:05:03,819 --> 00:05:05,160
ganarse los elogios de Cloud.

147
00:05:05,379 --> 00:05:05,560
Sí.

148
00:05:05,800 --> 00:05:08,180
Le presenta ideas buenas para que la IA

149
00:05:08,180 --> 00:05:09,860
le diga, oye, qué gran trabajo.

150
00:05:11,180 --> 00:05:11,660
¿Qué?

151
00:05:11,660 --> 00:05:11,800
¿Qué?

152
00:05:11,800 --> 00:05:11,839
¿Qué?

153
00:05:11,839 --> 00:05:12,300
¿Qué?

154
00:05:12,300 --> 00:05:12,540
¿Qué?

155
00:05:12,540 --> 00:05:12,839
¿Qué?

156
00:05:12,860 --> 00:05:16,100
Es muy humano, fíjate.

157
00:05:16,339 --> 00:05:19,339
Y esta necesidad de interactuar con identidades nos

158
00:05:19,339 --> 00:05:20,319
lleva al siguiente nivel.

159
00:05:20,620 --> 00:05:20,959
Claro.

160
00:05:21,420 --> 00:05:23,560
Porque si tratamos a un agente de código

161
00:05:23,560 --> 00:05:25,920
como a un colega, ¿qué pasa cuando le

162
00:05:25,920 --> 00:05:27,220
damos acceso al mundo físico?

163
00:05:27,300 --> 00:05:28,360
¿A nuestras casas?

164
00:05:28,560 --> 00:05:31,279
Pues que la interfaz de usuario tradicional, las

165
00:05:31,279 --> 00:05:32,779
apps de toda la vida, se mueren.

166
00:05:33,360 --> 00:05:35,720
Hablemos del experimento de automatización doméstica.

167
00:05:35,819 --> 00:05:38,839
El agente que bautizaron como Dobby, como el

168
00:05:38,839 --> 00:05:40,079
elfo de Harry Potter.

169
00:05:40,319 --> 00:05:40,879
Ese mismo.

170
00:05:40,879 --> 00:05:41,040
Ese mismo.

171
00:05:41,379 --> 00:05:43,279
Y lo mejor es que no usa una

172
00:05:43,279 --> 00:05:45,079
app de domótica súper compleja.

173
00:05:45,160 --> 00:05:46,540
Lo hace todo por WhatsApp.

174
00:05:46,800 --> 00:05:47,439
Por WhatsApp.

175
00:05:47,500 --> 00:05:49,779
Es que la anécdota de los altavoces sonos

176
00:05:49,779 --> 00:05:50,220
es brutal.

177
00:05:50,540 --> 00:05:52,519
Le piden a Dobby por el chat, oye,

178
00:05:52,540 --> 00:05:53,800
¿puedes encontrar mis sonos?

179
00:05:53,939 --> 00:05:56,519
Y sin darle ninguna instrucción más, el agente

180
00:05:56,519 --> 00:05:58,240
escanea la red local por su cuenta.

181
00:05:58,439 --> 00:06:00,540
Y detecta los altavoces, ve que no tienen

182
00:06:00,540 --> 00:06:03,939
contraseña, deduce cómo conectarse y les pone música.

183
00:06:04,439 --> 00:06:05,759
Cero apps descargadas.

184
00:06:05,980 --> 00:06:07,779
Es que el mecanismo es alucinante.

185
00:06:08,240 --> 00:06:09,920
Dobby no es un programa rígido.

186
00:06:09,920 --> 00:06:11,980
Es un modelo que genera un plan sobre

187
00:06:11,980 --> 00:06:12,620
la marcha.

188
00:06:12,680 --> 00:06:14,819
O sea, usa herramientas, mira lo que le

189
00:06:14,819 --> 00:06:16,399
devuelven y toma decisiones.

190
00:06:16,420 --> 00:06:18,420
Y tú solo ves una conversación en WhatsApp.

191
00:06:18,699 --> 00:06:20,939
La complejidad técnica desaparece por completo.

192
00:06:21,220 --> 00:06:22,660
Pero es que va más allá de la

193
00:06:22,660 --> 00:06:22,980
música.

194
00:06:23,259 --> 00:06:23,600
Sí, sí.

195
00:06:24,100 --> 00:06:26,500
Controla las luces, la temperatura del agua del

196
00:06:26,500 --> 00:06:27,759
spa, la seguridad.

197
00:06:28,120 --> 00:06:30,620
Todo con modelos de visión multimodal como Quewen.

198
00:06:30,920 --> 00:06:32,879
El agente está mirando las cámaras.

199
00:06:32,939 --> 00:06:34,399
Y si ve que llega un camión de

200
00:06:34,399 --> 00:06:37,360
mensajería de FedEx, convierte esa imagen en texto

201
00:06:37,360 --> 00:06:38,540
y te avisa por el chat.

202
00:06:39,220 --> 00:06:39,639
Exacto.

203
00:06:39,920 --> 00:06:41,699
Es fricción cero.

204
00:06:41,959 --> 00:06:44,560
Piensa en cuántas apps distintas tenemos ahora mismo

205
00:06:44,560 --> 00:06:45,620
en el móvil para la casa.

206
00:06:46,000 --> 00:06:46,500
Uf, tela.

207
00:06:46,939 --> 00:06:49,699
Una para las luces, otra para el aspirador…

208
00:06:49,699 --> 00:06:50,279
Pues se acabó.

209
00:06:50,519 --> 00:06:52,339
¿Para qué quieres la app de la cinta

210
00:06:52,339 --> 00:06:54,139
de correr si Dobby le puede preguntar a

211
00:06:54,139 --> 00:06:56,040
la base de datos y resumirte tu pulso

212
00:06:56,040 --> 00:06:56,420
por chat?

213
00:06:56,680 --> 00:06:57,100
Claro.

214
00:06:57,339 --> 00:06:59,399
El lenguaje natural como interfaz universal.

215
00:06:59,879 --> 00:07:01,839
Pero a ver, voy a hacer de abogado

216
00:07:01,839 --> 00:07:02,339
del diablo.

217
00:07:02,620 --> 00:07:03,300
Dime, dime.

218
00:07:03,540 --> 00:07:04,339
Esto suena aterrador.

219
00:07:04,779 --> 00:07:07,639
Estamos dando el control de nuestras cámaras, cerraduras

220
00:07:07,639 --> 00:07:09,699
y alarmas a un sistema que sabemos que

221
00:07:09,699 --> 00:07:12,000
a veces alucina e inventa cosas.

222
00:07:12,300 --> 00:07:14,920
Es un escepticismo súper necesario.

223
00:07:15,500 --> 00:07:16,019
Totalmente.

224
00:07:16,259 --> 00:07:18,300
¿Es que de verdad alguien quiere quitar sus

225
00:07:18,300 --> 00:07:20,339
botones seguros para depender de un chat que

226
00:07:20,339 --> 00:07:21,279
igual se vuelve loco?

227
00:07:21,420 --> 00:07:23,180
A corto plazo asusta, claro.

228
00:07:23,360 --> 00:07:25,560
Pero la historia nos dice que la comodidad

229
00:07:25,560 --> 00:07:27,180
siempre aplasta la cautela.

230
00:07:27,579 --> 00:07:28,100
Siempre.

231
00:07:28,420 --> 00:07:30,699
Ya, pero un botón físico no alucina.

232
00:07:31,139 --> 00:07:31,660
Cierto.

233
00:07:31,819 --> 00:07:34,860
Pero las interfaces rígidas te obligan a ti

234
00:07:34,860 --> 00:07:36,180
a pensar como la máquina.

235
00:07:36,439 --> 00:07:39,399
El lenguaje natural obliga a la máquina a

236
00:07:39,399 --> 00:07:39,519
adaptarse.

237
00:07:39,519 --> 00:07:40,120
¿Adaptarse a ti?

238
00:07:40,620 --> 00:07:42,560
O sea, decirle, es hora de dormir y

239
00:07:42,560 --> 00:07:44,319
que apague todo, baje la alarma y cierre.

240
00:07:44,959 --> 00:07:45,360
Exacto.

241
00:07:45,360 --> 00:07:47,420
A la larga, la precisión de los modelos

242
00:07:47,420 --> 00:07:49,959
subirá tanto que usar botones nos parecerá prehistórico.

243
00:07:50,959 --> 00:07:52,120
Bueno, aceptamos barco.

244
00:07:52,779 --> 00:07:55,240
Y si esto cambia las casas, el salto

245
00:07:55,240 --> 00:07:57,879
a la autoinvestigación ya es de ciencia ficción

246
00:07:57,879 --> 00:07:58,240
pura.

247
00:07:58,360 --> 00:07:59,899
Uf, ese es mi tema favorito.

248
00:08:00,420 --> 00:08:02,740
Sacar al humano del bucle de decisión para

249
00:08:02,740 --> 00:08:04,019
que la investigación no frene.

250
00:08:04,180 --> 00:08:04,579
Claro.

251
00:08:04,779 --> 00:08:06,480
Si el humano es el cuello de botella,

252
00:08:06,519 --> 00:08:07,079
lo quitas.

253
00:08:07,319 --> 00:08:09,120
Y dejas a la IA mejorando a la

254
00:08:09,120 --> 00:08:09,399
IA.

255
00:08:09,519 --> 00:08:11,819
Hay un experimento increíble sobre esto.

256
00:08:11,920 --> 00:08:14,720
Un investigador con 20 años de experiencia ajustando

257
00:08:14,720 --> 00:08:15,759
hiperparámetros a mano.

258
00:08:15,980 --> 00:08:18,279
...que al experto se le habían pasado en

259
00:08:18,279 --> 00:08:18,939
una sola noche.

260
00:08:19,259 --> 00:08:21,240
Porque la máquina no se cansa, ¿eh?

261
00:08:21,279 --> 00:08:23,660
Y no tiene sesgos de cómo deberían ser

262
00:08:23,660 --> 00:08:24,139
las cosas.

263
00:08:24,540 --> 00:08:26,939
Prueba miles de variantes mientras tú te haces

264
00:08:26,939 --> 00:08:27,279
un café.

265
00:08:27,639 --> 00:08:29,060
Pero esto es a pequeña escala.

266
00:08:29,060 --> 00:08:31,259
Lo de las empresas creadas en archivos Markdown

267
00:08:31,259 --> 00:08:32,200
es otro nivel.

268
00:08:32,480 --> 00:08:34,879
Las empresas de Markdown, madre mía.

269
00:08:35,240 --> 00:08:37,639
Imagina que el ADN de todo un laboratorio

270
00:08:37,639 --> 00:08:39,500
de investigación es un símbolo.

271
00:08:39,519 --> 00:08:42,220
Un simple archivo de texto con extensión .md.

272
00:08:42,299 --> 00:08:44,980
Un archivo que describe la jerarquía, los roles

273
00:08:44,980 --> 00:08:46,500
y cómo se comunican.

274
00:08:46,700 --> 00:08:47,299
Exacto.

275
00:08:47,460 --> 00:08:50,340
Como el formato Markdown es tan limpio, consume

276
00:08:50,340 --> 00:08:51,360
poquísimos tokens.

277
00:08:51,639 --> 00:08:53,840
Es ideal para que lo lea una IA.

278
00:08:54,000 --> 00:08:57,080
Entonces puedes crear culturas de empresas artificiales.

279
00:08:57,419 --> 00:09:00,720
Un archivo describe una empresa con muchas reuniones

280
00:09:00,720 --> 00:09:01,340
matutinas.

281
00:09:01,559 --> 00:09:05,139
Y otro archivo describe una cultura súper agresiva,

282
00:09:05,159 --> 00:09:07,419
caótica y que sólo programa sin hablar.

283
00:09:07,720 --> 00:09:09,340
Y las pones a competir.

284
00:09:09,519 --> 00:09:12,019
Es como la evolución de las especies de

285
00:09:12,019 --> 00:09:12,980
Darwin, pero en código.

286
00:09:13,580 --> 00:09:15,279
Las lanzas a resolver un problema.

287
00:09:15,700 --> 00:09:18,000
Y la arquitectura que lo resuelva más rápido

288
00:09:18,000 --> 00:09:19,379
demuestra ser la mejor.

289
00:09:19,659 --> 00:09:21,080
Sin humanos de por medio.

290
00:09:21,440 --> 00:09:24,179
Y claro, esto conecta con el cómputo distribuido.

291
00:09:24,659 --> 00:09:27,000
Como cuando la gente prestaba su ordenador para

292
00:09:27,000 --> 00:09:29,200
buscar extraterrestres con el proyecto SETI.

293
00:09:30,320 --> 00:09:30,799
Totalmente.

294
00:09:30,799 --> 00:09:33,440
Generar la idea es muy difícil, pero verificar

295
00:09:33,440 --> 00:09:35,100
si esa idea funciona es barato.

296
00:09:35,320 --> 00:09:37,600
Pones a millones de agentes en Internet a

297
00:09:37,600 --> 00:09:39,120
proponer mutaciones de código.

298
00:09:39,519 --> 00:09:42,240
Y el sistema central sólo comprueba si mejora

299
00:09:42,240 --> 00:09:42,399
uno.

300
00:09:42,600 --> 00:09:44,980
Y fíjate en la consecuencia económica de esto.

301
00:09:45,320 --> 00:09:48,159
Si avanzar depende sólo de calcular rápido, el

302
00:09:48,159 --> 00:09:48,779
valor cambia.

303
00:09:48,919 --> 00:09:50,340
Los famosos flops, ¿no?

304
00:09:50,519 --> 00:09:52,159
Las operaciones matemáticas.

305
00:09:52,480 --> 00:09:52,799
Sí.

306
00:09:53,019 --> 00:09:56,580
Los flops podrían convertirse en la nueva moneda

307
00:09:56,580 --> 00:09:58,919
de reserva mundial, por encima del dólar.

308
00:09:58,960 --> 00:10:01,000
El poder es de quien controla el hardware.

309
00:10:01,340 --> 00:10:02,059
Menudo panorama.

310
00:10:02,220 --> 00:10:03,340
Es intimidante.

311
00:10:03,480 --> 00:10:06,100
Pero hay un contraste muy cómico en todo

312
00:10:06,100 --> 00:10:06,440
esto.

313
00:10:06,679 --> 00:10:07,639
Ya sé por dónde vas.

314
00:10:07,639 --> 00:10:10,299
Es que, por un lado, tenemos superinteligencias creando

315
00:10:10,299 --> 00:10:11,799
empresas y optimizando código.

316
00:10:12,000 --> 00:10:14,480
Pero, por otro, son profundamente mediocres.

317
00:10:14,700 --> 00:10:15,320
Sí, sí.

318
00:10:15,399 --> 00:10:17,220
La irregularidad de la IA.

319
00:10:17,320 --> 00:10:18,259
Es fascinante.

320
00:10:18,340 --> 00:10:20,179
Es como tener a un doctorando en física

321
00:10:20,179 --> 00:10:22,440
cuántica fusionado en el mismo cerebro con un

322
00:10:22,440 --> 00:10:23,259
niño de diez años.

323
00:10:23,519 --> 00:10:23,899
Tal cual.

324
00:10:24,080 --> 00:10:26,399
Por un lado, te escriben un kernel de

325
00:10:26,399 --> 00:10:29,840
CUDA ultracomplejo para optimizar tarjetas gráficas sin un

326
00:10:29,840 --> 00:10:30,340
solo error.

327
00:10:30,559 --> 00:10:32,019
Y, por otro, le pides un chiste y

328
00:10:32,019 --> 00:10:33,279
lleva cinco años contando el mismo.

329
00:10:33,500 --> 00:10:34,600
El chiste de los átomos.

330
00:10:34,600 --> 00:10:36,799
¿Por qué los científicos no se fían de

331
00:10:36,799 --> 00:10:37,240
los átomos?

332
00:10:37,399 --> 00:10:38,779
Porque se lo inventan todo.

333
00:10:39,320 --> 00:10:40,860
Es malísimo y no mejoran.

334
00:10:41,000 --> 00:10:43,360
Y hay una razón técnica de fondo muy

335
00:10:43,360 --> 00:10:44,480
importante para esto.

336
00:10:44,919 --> 00:10:47,500
El aprendizaje por refuerzo.

337
00:10:47,960 --> 00:10:49,320
A ver, explícanos esto.

338
00:10:49,480 --> 00:10:52,360
¿Por qué mejoran en matemáticas, pero no en

339
00:10:52,360 --> 00:10:52,559
humor?

340
00:10:52,879 --> 00:10:55,679
Porque en programación o en mates hay una

341
00:10:55,679 --> 00:10:56,659
recompensa binaria.

342
00:10:56,740 --> 00:10:58,759
El código compila o da error.

343
00:10:58,940 --> 00:11:00,820
La ecuación está bien o mal.

344
00:11:01,019 --> 00:11:03,100
¿Hay un verificador absoluto de la verdad?

345
00:11:03,100 --> 00:11:04,139
Exacto.

346
00:11:04,259 --> 00:11:07,039
Entonces la IA ajusta sus parámetros a la

347
00:11:07,039 --> 00:11:07,899
velocidad de la luz.

348
00:11:08,159 --> 00:11:11,080
¿Pero lo subjetivo, como el humor, carece de

349
00:11:11,080 --> 00:11:11,720
un compilador?

350
00:11:12,179 --> 00:11:12,419
Claro.

351
00:11:12,559 --> 00:11:14,639
No hay una métrica objetiva para saber si

352
00:11:14,639 --> 00:11:15,740
un chiste tiene gracia.

353
00:11:16,000 --> 00:11:18,600
Depende de la cultura, del momento… Y como

354
00:11:18,600 --> 00:11:21,240
no se puede medir automáticamente, el modelo se

355
00:11:21,240 --> 00:11:21,659
estanca.

356
00:11:21,820 --> 00:11:25,080
Se vuelve plano en las habilidades blandas humanas.

357
00:11:25,259 --> 00:11:27,320
Pues esto me lleva a una pregunta clave.

358
00:11:27,659 --> 00:11:30,480
Viendo este desequilibrio, ¿no deberíamos dejar de intentar

359
00:11:30,480 --> 00:11:32,299
crear un único Dios de la IA?

360
00:11:33,100 --> 00:11:35,279
Es una obsesión por el modelo monolítico universal.

361
00:11:35,779 --> 00:11:36,139
Claro.

362
00:11:36,259 --> 00:11:38,960
No tiene más sentido empezar a crear especialistas

363
00:11:38,960 --> 00:11:40,759
en lugar de una entidad que sepa de

364
00:11:40,759 --> 00:11:41,000
todo.

365
00:11:41,899 --> 00:11:42,460
Totalmente.

366
00:11:42,460 --> 00:11:44,600
Es lo que llamamos especiación.

367
00:11:44,720 --> 00:11:45,840
Igual que en la biología.

368
00:11:46,240 --> 00:11:48,639
O sea, inspirarnos en el reino animal.

369
00:11:49,179 --> 00:11:49,740
Exacto.

370
00:11:49,980 --> 00:11:52,519
La evolución no crea un solo cerebro para

371
00:11:52,519 --> 00:11:52,779
todo.

372
00:11:53,299 --> 00:11:56,320
Tienes el olfato súper especializado de un sabueso,

373
00:11:56,340 --> 00:11:58,379
o la vista de un halcón… Entiendo.

374
00:11:58,480 --> 00:12:02,500
Hay que romper esta monocultura tecnológica de modelos

375
00:12:02,500 --> 00:12:03,080
gigantescos.

376
00:12:03,100 --> 00:12:04,759
De modelos gigantescos que gastan muchísima energía.

377
00:12:05,480 --> 00:12:06,919
Desagregar la inteligencia.

378
00:12:07,399 --> 00:12:11,740
Modelos pequeñitos, baratos y súper eficientes, entrenados sólo

379
00:12:11,740 --> 00:12:13,379
para analizar imágenes médicas.

380
00:12:13,500 --> 00:12:14,879
O sólo para leyes.

381
00:12:15,059 --> 00:12:16,340
Tiene todo el sentido.

382
00:12:16,639 --> 00:12:19,860
Y hablando de especialización, llegamos al gran choque.

383
00:12:20,000 --> 00:12:22,259
El mundo digital contra el mundo físico.

384
00:12:22,440 --> 00:12:24,320
Los átomos contra los bits.

385
00:12:26,039 --> 00:12:26,639
Uf.

386
00:12:26,779 --> 00:12:28,179
La distinción fundamental.

387
00:12:29,059 --> 00:12:31,139
Explica por qué el impacto en el empleo

388
00:12:31,139 --> 00:12:32,200
va a ser tan asimétrico.

389
00:12:32,200 --> 00:12:34,720
Es que es muy contraintuitivo.

390
00:12:34,759 --> 00:12:38,159
La IA hace análisis financiero complejo o programa

391
00:12:38,159 --> 00:12:38,940
a alto nivel.

392
00:12:39,100 --> 00:12:41,820
Pero un robot no sabe doblar una camiseta

393
00:12:41,820 --> 00:12:42,059
bien.

394
00:12:42,440 --> 00:12:45,600
Porque manipular bits es gratis y va a

395
00:12:45,600 --> 00:12:46,600
la velocidad de la luz.

396
00:12:46,899 --> 00:12:49,000
En el mundo digital no hay fricción.

397
00:12:49,220 --> 00:12:51,820
Puedes simular millones de escenarios en un segundo.

398
00:12:52,240 --> 00:12:54,379
Pero en el mundo físico tienes gravedad.

399
00:12:54,919 --> 00:12:58,879
Materiales imperfectos, rozamiento… Es un millón de veces

400
00:12:58,879 --> 00:13:00,379
más lento y caro iterar.

401
00:13:00,500 --> 00:13:02,799
Así que los trabajos digitales… …se van a

402
00:13:02,799 --> 00:13:04,399
transformar muchísimo antes.

403
00:13:04,700 --> 00:13:06,740
La IA va a ser como nuestro nuevo

404
00:13:06,740 --> 00:13:07,679
sistema nervioso.

405
00:13:07,940 --> 00:13:08,460
Seguro.

406
00:13:08,460 --> 00:13:10,779
Y aquí surge una paradoja económica brutal.

407
00:13:11,259 --> 00:13:14,019
Si la IA programa sola, uno pensaría que

408
00:13:14,019 --> 00:13:14,980
sobran programadores.

409
00:13:15,159 --> 00:13:15,539
¿No?

410
00:13:15,799 --> 00:13:16,039
Claro.

411
00:13:16,179 --> 00:13:18,220
Si la máquina lo hace, pues todos a

412
00:13:18,220 --> 00:13:18,559
la calle.

413
00:13:18,799 --> 00:13:20,500
Pues ocurre exactamente lo contrario.

414
00:13:20,759 --> 00:13:23,799
La demanda de ingenieros de software sigue disparándose.

415
00:13:23,960 --> 00:13:25,580
Es la paradoja de Jevons.

416
00:13:26,120 --> 00:13:27,379
Espera, esto me suena.

417
00:13:27,519 --> 00:13:30,100
¿Es lo de los cajeros automáticos en los

418
00:13:30,100 --> 00:13:30,659
bancos?

419
00:13:30,659 --> 00:13:32,379
Ese es el ejemplo perfecto, sí.

420
00:13:32,580 --> 00:13:35,539
Cuando pusieron los cajeros, todo el mundo pensó

421
00:13:35,539 --> 00:13:38,039
que los empleados de ventanilla desaparecerían.

422
00:13:38,200 --> 00:13:38,700
Lógico.

423
00:13:38,740 --> 00:13:40,120
La máquina te da el dinero.

424
00:13:40,320 --> 00:13:41,259
El humano sobra.

425
00:13:41,480 --> 00:13:44,639
Pero resultó que, al ser tan barato mantener

426
00:13:44,639 --> 00:13:47,960
una sucursal, los bancos abrieron miles de sucursales

427
00:13:47,960 --> 00:13:48,200
nuevas.

428
00:13:48,500 --> 00:13:51,039
Y contrataron a más gente para vender seguros

429
00:13:51,039 --> 00:13:51,620
e hipotecas.

430
00:13:51,980 --> 00:13:52,539
Exacto.

431
00:13:52,539 --> 00:13:54,279
Pues con el software pasa igual.

432
00:13:54,620 --> 00:13:57,240
Hacer una aplicación siempre ha sido lentísimo y

433
00:13:57,240 --> 00:13:57,659
carísimo.

434
00:13:57,659 --> 00:14:00,059
Así que, al bajar el precio del desarrollo

435
00:14:00,059 --> 00:14:02,620
con la IA, se despierta una demanda latente

436
00:14:02,620 --> 00:14:03,360
inmensa.

437
00:14:03,659 --> 00:14:04,179
Infinita.

438
00:14:04,259 --> 00:14:06,940
Ahora la panadería del barrio o el profesional

439
00:14:06,940 --> 00:14:10,440
independiente querrán su propio sistema de agentes personalizado.

440
00:14:10,740 --> 00:14:11,080
Claro.

441
00:14:11,159 --> 00:14:13,759
Y para construir y conectar todo eso hace

442
00:14:13,759 --> 00:14:14,539
falta más gente.

443
00:14:14,799 --> 00:14:16,279
Más directores de orquesta.

444
00:14:16,639 --> 00:14:17,159
Exactamente.

445
00:14:17,279 --> 00:14:18,120
Pero ojo.

446
00:14:18,179 --> 00:14:20,700
Para que este nuevo mundo funcione bien, el

447
00:14:20,700 --> 00:14:22,039
código abierto es crucial.

448
00:14:22,460 --> 00:14:23,200
El open source.

449
00:14:23,559 --> 00:14:25,960
Porque centralizar todo el poder en dos o

450
00:14:25,960 --> 00:14:27,500
tres empresas da mucho miedo.

451
00:14:28,480 --> 00:14:32,379
Históricamente, la centralización extrema siempre acaba mal.

452
00:14:32,480 --> 00:14:35,700
Y el ecosistema abierto actúa como un seguro

453
00:14:35,700 --> 00:14:36,480
democrático.

454
00:14:36,860 --> 00:14:39,480
Aunque vayan seis u ocho meses por detrás

455
00:14:39,480 --> 00:14:41,419
de los laboratorios de élite, da igual.

456
00:14:41,600 --> 00:14:43,659
Hay que tener alternativas libres.

457
00:14:43,940 --> 00:14:48,279
Es indispensable que cualquier persona pueda descargar y

458
00:14:48,279 --> 00:14:50,720
usar estas herramientas sin pedir permiso.

459
00:14:50,799 --> 00:14:52,360
Es nuestra válvula de escape.

460
00:14:52,759 --> 00:14:53,559
Qué interesante.

461
00:14:53,879 --> 00:14:57,519
Y fíjate, esto de democratizar el acceso me

462
00:14:57,519 --> 00:14:57,639
llama la atención.

463
00:14:57,659 --> 00:14:59,379
Y lleva al punto final que para mí

464
00:14:59,379 --> 00:15:00,580
es el más provocador.

465
00:15:00,620 --> 00:15:01,919
El futuro de la educación.

466
00:15:02,299 --> 00:15:02,659
Sí.

467
00:15:02,779 --> 00:15:05,580
El caso de la herramienta MicroGPT.

468
00:15:05,860 --> 00:15:06,580
Eso es.

469
00:15:06,620 --> 00:15:10,120
Un desarrollador consiguió reducir una red neuronal compleja

470
00:15:10,120 --> 00:15:12,279
a sólo 200 líneas de código.

471
00:15:12,580 --> 00:15:14,059
Una pasada de síntesis.

472
00:15:14,419 --> 00:15:16,700
Es un logro técnico espectacular.

473
00:15:16,860 --> 00:15:18,740
Pero lo fuerte es lo que hizo con

474
00:15:18,740 --> 00:15:19,539
la documentación.

475
00:15:19,759 --> 00:15:20,100
Claro.

476
00:15:20,179 --> 00:15:22,500
Lo normal sería grabar un tutorial en vídeo

477
00:15:22,500 --> 00:15:24,779
o escribir un manual para que nosotros los

478
00:15:24,779 --> 00:15:25,799
humanos lo entendamos.

479
00:15:25,799 --> 00:15:28,500
Con el esfuerzo pedagógico que eso supone.

480
00:15:28,700 --> 00:15:29,200
Pues no.

481
00:15:29,279 --> 00:15:31,299
Se dio cuenta de que no tiene sentido.

482
00:15:31,899 --> 00:15:34,840
Escribió la explicación técnica pensando exclusivamente en que

483
00:15:34,840 --> 00:15:36,279
la leyera un agente de IA.

484
00:15:36,759 --> 00:15:38,000
Documentación para máquinas.

485
00:15:38,200 --> 00:15:40,240
Es que la lógica es aplastante, ¿eh?

486
00:15:40,340 --> 00:15:40,580
Sí.

487
00:15:40,899 --> 00:15:43,879
Si el agente informático entiende el concepto perfectamente,

488
00:15:44,000 --> 00:15:46,139
luego él puede darse la vuelta y explicárselo

489
00:15:46,139 --> 00:15:46,820
a cualquier humano.

490
00:15:47,019 --> 00:15:48,799
Y lo hará con paciencia infinita.

491
00:15:49,500 --> 00:15:51,799
Adaptando las metáforas a tu nivel de conocimientos

492
00:15:51,799 --> 00:15:54,259
concretos, en tu idioma, a la hora que

493
00:15:54,259 --> 00:15:54,779
quieras.

494
00:15:54,779 --> 00:15:56,899
El traductor universal de la complejidad.

495
00:15:57,240 --> 00:15:59,779
Pero claro, aquí lanzo la reflexión final para

496
00:15:59,779 --> 00:16:00,779
quienes nos escuchan.

497
00:16:00,860 --> 00:16:01,340
Adelante.

498
00:16:01,480 --> 00:16:03,480
Si los libros de texto y las documentaciones

499
00:16:03,480 --> 00:16:05,919
del futuro se escriben para las máquinas, y

500
00:16:05,919 --> 00:16:08,980
el arte de explicar bien está resuelto, ¿cuál

501
00:16:08,980 --> 00:16:09,940
es el papel del maestro?

502
00:16:10,159 --> 00:16:11,259
Es la gran pregunta.

503
00:16:11,600 --> 00:16:14,240
¿Tu valor ya no será tener paciencia o

504
00:16:14,240 --> 00:16:15,200
ser didáctico?

505
00:16:15,559 --> 00:16:16,120
Exacto.

506
00:16:16,159 --> 00:16:18,559
El valor estará en diseñar la ruta.

507
00:16:18,639 --> 00:16:22,360
En aportar ese hallazgo original, esa intuición humana

508
00:16:22,360 --> 00:16:24,679
que un sistema estadístico no puede deducir.

509
00:16:24,779 --> 00:16:26,779
Habilidades puramente humanas.

510
00:16:26,799 --> 00:16:29,240
Es un cambio de paradigma total para la

511
00:16:29,240 --> 00:16:30,679
educación y para todos nosotros.

512
00:16:31,159 --> 00:16:32,919
Pues ahí queda esa reflexión para darle una

513
00:16:32,919 --> 00:16:33,179
vuelta.

514
00:16:33,519 --> 00:16:36,340
Antes de despedirnos hasta el próximo programa, os

515
00:16:36,340 --> 00:16:38,039
informamos de que las voces que oyes han

516
00:16:38,039 --> 00:16:40,440
sido generadas por la IA de Notebook LM,

517
00:16:40,700 --> 00:16:43,299
y que dirigiendo el podcast se encuentra Jurio

518
00:16:43,299 --> 00:16:45,840
Pablo Vázquez, un humano que te envía saludos.

519
00:16:45,840 --> 00:16:48,580
En caso de error, probablemente sean errores humanos.

520
00:16:48,919 --> 00:16:49,899
Nos escuchamos.

521
00:17:00,789 --> 00:17:02,929
Y hasta aquí el episodio de hoy.

522
00:17:03,049 --> 00:17:04,849
Muchas gracias por tu atención.

523
00:17:14,180 --> 00:17:16,299
Esto es BIMpraxis.

524
00:17:16,559 --> 00:17:19,079
Nos escuchamos en el próximo episodio.

