1
00:00:10,000 --> 00:00:15,800
Buenas, esto es BIMPRAXIS, el podcast donde el

2
00:00:15,800 --> 00:00:17,920
BIM se encuentra con la inteligencia artificial.

3
00:00:20,519 --> 00:00:23,620
Exploramos la ciencia, la tecnología y el futuro

4
00:00:23,620 --> 00:00:26,559
desde el enfoque de la arquitectura, ingeniería y

5
00:00:26,559 --> 00:00:27,179
construcción.

6
00:00:28,859 --> 00:00:29,519
¡Empezamos!

7
00:00:37,280 --> 00:00:38,619
Muy buenas.

8
00:00:38,619 --> 00:00:42,399
Bienvenidas, bienvenidos a un nuevo episodio de BIMPRAXIS.

9
00:00:42,399 --> 00:00:44,799
Hoy os traemos la crisis existencial de la

10
00:00:44,799 --> 00:00:45,479
programación.

11
00:00:45,479 --> 00:00:48,060
Y si la inteligencia artificial va a dejarnos

12
00:00:48,060 --> 00:00:49,880
a todos en el paro en cuestión de

13
00:00:49,880 --> 00:00:50,100
meses.

14
00:00:51,039 --> 00:00:52,060
Hola, ¿qué tal?

15
00:00:52,060 --> 00:00:54,740
Y, a ver, es un titular fuerte, pero

16
00:00:54,740 --> 00:00:57,159
es que la ansiedad ahora mismo es real,

17
00:00:57,159 --> 00:00:59,259
o sea, se palpa en el ambiente.

18
00:00:59,179 --> 00:01:00,259
Totalmente.

19
00:01:00,259 --> 00:01:02,479
Imaginemos la situación de alguien que lleva cinco

20
00:01:02,479 --> 00:01:05,799
o seis años dejándose los codos estudiando a

21
00:01:05,799 --> 00:01:10,180
fondo ingeniería de software, algoritmos, estructuras de datos,

22
00:01:10,180 --> 00:01:12,040
patrones de diseño, todo eso.

23
00:01:12,459 --> 00:01:14,439
Sí, sí, una paliza de estudio.

24
00:01:14,579 --> 00:01:14,980
Exacto.

25
00:01:14,980 --> 00:01:17,819
Y de repente una mañana abre su ordenador,

26
00:01:17,959 --> 00:01:20,140
escribe un párrafo en inglés normal y corriente

27
00:01:20,140 --> 00:01:23,000
en plan conversacional y en tres segundos la

28
00:01:23,000 --> 00:01:26,120
inteligencia artificial le escupe una arquitectura perfecta.

29
00:01:26,680 --> 00:01:28,239
Algo que a esa persona le habría costado

30
00:01:28,239 --> 00:01:29,319
semanas enteras.

31
00:01:29,299 --> 00:01:31,159
Claro, y te quedas a cuadros.

32
00:01:31,280 --> 00:01:34,000
Es un vértigo completamente comprensible, ¿sabes?

33
00:01:34,439 --> 00:01:37,659
Porque tendemos a imaginar el progreso tecnológico como

34
00:01:37,659 --> 00:01:39,500
una escalera mecánica.

35
00:01:39,560 --> 00:01:43,120
En plan, sube de manera constante, predecible… Pero

36
00:01:43,120 --> 00:01:44,180
no es así.

37
00:01:44,019 --> 00:01:44,560
¿Qué va?

38
00:01:44,560 --> 00:01:44,799
¿Qué va?

39
00:01:45,459 --> 00:01:48,700
El desarrollo de software avanza a sacudidas.

40
00:01:48,700 --> 00:01:51,120
Da unos saltos bruscos que dejan a muchísima

41
00:01:51,120 --> 00:01:52,579
gente descolocada.

42
00:01:52,700 --> 00:01:54,439
Quienes ven hoy a la máquina programar a

43
00:01:54,439 --> 00:01:57,099
esa velocidad, pues sienten que el suelo desaparece

44
00:01:57,099 --> 00:01:58,260
bajo sus pies.

45
00:01:58,400 --> 00:02:00,719
Y para abordar este miedo, que té la

46
00:02:00,719 --> 00:02:03,640
marinera, hoy tenemos un material de origen excepcional

47
00:02:03,640 --> 00:02:05,579
para nuestro análisis a fondo.

48
00:02:05,680 --> 00:02:07,980
Vamos a desgranar una entrevista reciente del canal

49
00:02:07,980 --> 00:02:10,599
de Pragmatic Engineer a Grady Butch.

50
00:02:10,800 --> 00:02:12,159
¿Palabras mayores?

51
00:02:12,219 --> 00:02:14,699
Para poner en contexto a quienes nos escuchan,

52
00:02:14,759 --> 00:02:17,199
estamos hablando de una auténtica leyenda viva de

53
00:02:17,199 --> 00:02:20,800
la informática, co-creador del lenguaje unificado de modelado,

54
00:02:20,800 --> 00:02:23,960
el famoso UML, y alguien que, literal, ha

55
00:02:23,960 --> 00:02:25,879
estado en la sala de máquinas de cada

56
00:02:25,879 --> 00:02:28,240
revolución tecnológica desde los años 70.

57
00:02:28,319 --> 00:02:29,080
No es un teórico, ¿eh?

58
00:02:29,419 --> 00:02:30,400
No, no.

59
00:02:30,400 --> 00:02:33,000
Es alguien que ha construido los cimientos sobre

60
00:02:33,000 --> 00:02:34,979
los que todos operamos hoy en día.

61
00:02:35,080 --> 00:02:37,039
Y su tesis central en esta entrevista es

62
00:02:37,039 --> 00:02:39,419
brutal para rebajar los humos y la ansiedad

63
00:02:39,419 --> 00:02:40,280
actual.

64
00:02:39,919 --> 00:02:41,139
A ver, cuenta, cuenta.

65
00:02:41,139 --> 00:02:42,740
Pues él utiliza la historia de la informática

66
00:02:42,740 --> 00:02:45,219
para demostrar que no estamos asistiendo al funeral

67
00:02:45,219 --> 00:02:46,620
de la programación.

68
00:02:46,439 --> 00:02:48,939
Que va, con datos históricos en la mano,

69
00:02:48,939 --> 00:02:51,120
argumenta que estamos cruzando el umbral hacia lo

70
00:02:51,120 --> 00:02:52,800
que él llama la tercera edad de oro

71
00:02:52,800 --> 00:02:54,479
de la ingeniería de software.

72
00:02:54,520 --> 00:02:55,840
O sea que este pánico ya lo hemos

73
00:02:55,840 --> 00:02:56,680
vivido antes.

74
00:02:56,699 --> 00:02:57,719
Muchas veces.

75
00:02:57,719 --> 00:03:00,340
Y siempre, siempre, acaba liberando el talento humano

76
00:03:00,340 --> 00:03:02,919
para resolver problemas mucho más gordos.

77
00:03:02,759 --> 00:03:05,300
Vale, vamos a desgranar esto poco a poco.

78
00:03:05,439 --> 00:03:07,099
Porque para aceptar que la IA no va

79
00:03:07,099 --> 00:03:09,659
a destruir la profesión, primero hay que entender

80
00:03:09,659 --> 00:03:11,900
qué narices es exactamente esta profesión.

81
00:03:12,580 --> 00:03:14,520
Hay un malentendido gigante sobre lo que hace

82
00:03:14,520 --> 00:03:16,120
un ingeniero de software, ¿verdad?

83
00:03:16,219 --> 00:03:17,620
Enorme.

84
00:03:17,620 --> 00:03:19,599
La gente se cree que es picar código

85
00:03:19,599 --> 00:03:20,759
a lo loco.

86
00:03:20,759 --> 00:03:23,580
Y Butch nos lleva al origen del término.

87
00:03:23,659 --> 00:03:25,819
Nos planta en los años 60 con Margaret

88
00:03:25,819 --> 00:03:28,379
Hamilton durante el programa Polo de la NASA.

89
00:03:28,520 --> 00:03:30,599
Qué locura de historia la de Hamilton.

90
00:03:29,680 --> 00:03:32,360
Es el pilar de todo.

91
00:03:32,360 --> 00:03:34,979
Ella formaba parte de ese ínfima porcentaje de

92
00:03:34,979 --> 00:03:38,039
personas, casi todas mujeres en aquel entonces, que

93
00:03:38,039 --> 00:03:40,419
escribía los programas para ir a la Luna.

94
00:03:40,740 --> 00:03:43,400
Pero claro, estaba rodeada de hombres que diseñaban

95
00:03:43,400 --> 00:03:45,719
el hardware, los motores, el metal.

96
00:03:45,620 --> 00:03:46,599
Lo tangible.

97
00:03:46,599 --> 00:03:47,379
Eso es.

98
00:03:47,379 --> 00:03:52,319
Y para esos ingenieros tradicionales, el software era

99
00:03:52,319 --> 00:03:54,759
como una tarea de secretariado.

100
00:03:54,759 --> 00:03:57,620
En plan, teclear notas y ya está.

101
00:03:57,620 --> 00:04:00,560
Hamilton tuvo que pelear a brazo partido para

102
00:04:00,560 --> 00:04:03,360
acuñar el término ingeniería de software.

103
00:04:03,360 --> 00:04:05,280
Y que la tomaran en serio.

104
00:04:04,800 --> 00:04:07,219
Y el argumento que usó es brillante, a

105
00:04:07,219 --> 00:04:08,800
ver si estás de acuerdo.

106
00:04:08,800 --> 00:04:11,139
Ella decía que no estaban tecleando comandos sin

107
00:04:11,139 --> 00:04:13,860
más, estaban haciendo ingeniería pura.

108
00:04:13,740 --> 00:04:15,599
Exacto, exacto.

109
00:04:15,699 --> 00:04:18,019
Es que yo lo comparo con un arquitecto.

110
00:04:18,019 --> 00:04:20,240
Si tú diseñas un rascacielos, no te pagan

111
00:04:20,240 --> 00:04:23,360
por apilar ladrillos rapidísimo, te pagan por entender

112
00:04:23,360 --> 00:04:26,519
el presupuesto, la física del suelo, los vientos

113
00:04:26,519 --> 00:04:27,959
y cómo los humanos van a vivir ahí

114
00:04:27,959 --> 00:04:28,740
dentro.

115
00:04:28,300 --> 00:04:30,379
Claro, dice en el clavo.

116
00:04:30,379 --> 00:04:33,899
Ella demostró que los programadores estaban equilibrando fuerzas

117
00:04:33,899 --> 00:04:35,680
complejísimas.

118
00:04:35,680 --> 00:04:39,415
Limitaciones físicas inamovibles, como la memoria minúscula que

119
00:04:39,415 --> 00:04:40,995
tenían los ordenadores del Apolo.

120
00:04:41,135 --> 00:04:42,935
Que hoy en día cualquier reloj tiene más

121
00:04:42,935 --> 00:04:43,755
memoria.

122
00:04:43,815 --> 00:04:45,155
Muchísima más.

123
00:04:45,155 --> 00:04:47,195
Tenían que lidiar con la velocidad de la

124
00:04:47,195 --> 00:04:50,775
luz para transmitir datos a la Tierra, presupuestos

125
00:04:50,775 --> 00:04:54,615
ajustados… O sea, la ingeniería nunca ha consistido

126
00:04:54,615 --> 00:04:56,035
en escribir código.

127
00:04:55,895 --> 00:04:57,775
El código es solo la herramienta.

128
00:04:57,895 --> 00:05:00,875
El código es un subproducto, digamos.

129
00:05:00,875 --> 00:05:03,915
La ingeniería de verdad es equilibrar fuerzas dinámicas

130
00:05:03,915 --> 00:05:06,495
para crear soluciones que no exploten en el

131
00:05:06,495 --> 00:05:07,235
mundo real.

132
00:05:07,235 --> 00:05:09,255
Y entender esta diferencia es lo que nos

133
00:05:09,255 --> 00:05:11,015
abre la puerta a esa primera edad de

134
00:05:11,015 --> 00:05:11,355
oro, ¿no?

135
00:05:11,355 --> 00:05:13,795
Que va desde los años 40 a los

136
00:05:13,795 --> 00:05:15,215
70.

137
00:05:15,215 --> 00:05:18,455
Una época en la que programar significaba literalmente

138
00:05:18,455 --> 00:05:21,475
ir a un armario metálico y enchufar y

139
00:05:21,475 --> 00:05:22,815
desenchufar cables.

140
00:05:22,655 --> 00:05:24,635
Sí, sí, sudando la gota gorda.

141
00:05:24,635 --> 00:05:26,755
El hardware y el software eran la misma

142
00:05:26,755 --> 00:05:28,255
cosa física.

143
00:05:28,255 --> 00:05:30,695
Pero gracias a pioneras como Grace Hopper y

144
00:05:30,695 --> 00:05:34,195
luego la inversión brutal de IBM, logramos separar

145
00:05:34,195 --> 00:05:34,635
eso.

146
00:05:34,655 --> 00:05:37,635
Pasamos del código ensamblador, que estaba súper atado

147
00:05:37,635 --> 00:05:40,135
a los circuitos de una máquina específica, a

148
00:05:40,135 --> 00:05:42,015
la abstracción algorítmica.

149
00:05:41,855 --> 00:05:42,955
Eso es.

150
00:05:42,955 --> 00:05:46,255
Inventamos cosas como COBOL o FORTRAN.

151
00:05:46,255 --> 00:05:47,875
En vez de hablarle a las válvulas de

152
00:05:47,875 --> 00:05:51,815
vacío, empezamos a usar fórmulas matemáticas comprensibles por

153
00:05:51,815 --> 00:05:52,275
los humanos.

154
00:05:52,595 --> 00:05:55,295
Y aquí, según las fuentes, estalla el primer

155
00:05:55,295 --> 00:05:58,535
pánico monumental de la historia de la informática.

156
00:05:58,795 --> 00:06:00,815
Los expertos en ensamblador se aterrorizaron.

157
00:06:01,275 --> 00:06:02,195
¿Normal?

158
00:06:02,195 --> 00:06:05,015
Vieron los primeros compiladores y pensaron que se

159
00:06:05,015 --> 00:06:06,115
iban al paro.

160
00:06:05,835 --> 00:06:08,715
Creían que esos programas, que traducían Fortran a

161
00:06:08,715 --> 00:06:11,395
código máquina automáticamente, iban a hacer que el

162
00:06:11,395 --> 00:06:13,095
ordenador se programara solo.

163
00:06:13,015 --> 00:06:15,755
Y como siempre, el miedo fue infundado.

164
00:06:15,875 --> 00:06:18,015
Esa capa de abstracción no eliminó a los

165
00:06:18,015 --> 00:06:18,575
ingenieros.

166
00:06:18,575 --> 00:06:19,775
Al revés.

167
00:06:19,495 --> 00:06:20,895
Les quitó el trabajo sucio.

168
00:06:20,795 --> 00:06:21,675
Claro.

169
00:06:21,675 --> 00:06:23,675
Al no tener que gestionar ceros y unos

170
00:06:23,675 --> 00:06:26,675
a mano, pudieron levantar la vista y construir

171
00:06:26,675 --> 00:06:28,595
sistemas gigantescos.

172
00:06:28,595 --> 00:06:31,095
Y hay que hablar de quién ponía la

173
00:06:31,095 --> 00:06:32,095
pasta para esto.

174
00:06:32,115 --> 00:06:34,515
Uf, sí, esto me dejó de piedra.

175
00:06:34,515 --> 00:06:36,615
No era el sector privado en su garaje.

176
00:06:36,615 --> 00:06:38,595
Era la guerra fría pura y dura.

177
00:06:38,215 --> 00:06:39,235
Totalmente.

178
00:06:39,235 --> 00:06:42,035
Butch menciona el sistema SAJ, un proyecto de

179
00:06:42,035 --> 00:06:44,595
defensa de Estados Unidos para coordinar radares y

180
00:06:44,595 --> 00:06:46,775
detectar bombarderos nucleares soviéticos.

181
00:06:46,835 --> 00:06:49,775
fue tan masivo, tan bestia, que llegó a

182
00:06:49,775 --> 00:06:51,875
absorber entre el 20 y el 30% de

183
00:06:51,875 --> 00:06:54,395
todos los desarrolladores de Estados Unidos.

184
00:06:54,655 --> 00:06:55,135
Espera, espera.

185
00:06:55,135 --> 00:06:57,175
¿Un tercio del talento de todo un país

186
00:06:57,175 --> 00:06:59,055
en un solo proyecto militar?

187
00:06:59,055 --> 00:07:00,215
Es una locura.

188
00:07:00,055 --> 00:07:02,095
Es que el incentivo era no desaparecer del

189
00:07:02,095 --> 00:07:02,615
mapa.

190
00:07:02,615 --> 00:07:05,635
Con la amenaza nuclear, el presupuesto era infinito.

191
00:07:05,735 --> 00:07:07,715
Satch obligó a inventar el futuro de golpe.

192
00:07:07,715 --> 00:07:09,655
O sea, tuvieron que inventar el procesamiento en

193
00:07:09,655 --> 00:07:12,295
tiempo real, los sistemas distribuidos.

194
00:07:12,155 --> 00:07:14,075
Hasta las primeras interfaces gráficas, ¿no?

195
00:07:14,075 --> 00:07:16,815
Con aquellas pantallas de tubos de rayos catódicos.

196
00:07:17,075 --> 00:07:19,835
Sí, forzando los límites del cerebro humano.

197
00:07:19,835 --> 00:07:22,815
Pero claro, ese éxito tan gigante fue precisamente

198
00:07:22,815 --> 00:07:25,215
lo que rompió la baraja poco después.

199
00:07:25,455 --> 00:07:27,455
Llegamos a los años 70 y el invento

200
00:07:27,455 --> 00:07:29,435
colapsa por su propio peso.

201
00:07:28,635 --> 00:07:31,115
Es que era predecible.

202
00:07:31,115 --> 00:07:34,895
A ver, la demanda para gestionar misiles, bancos,

203
00:07:34,895 --> 00:07:37,835
gobiernos, creció tanto que el cerebro humano ya

204
00:07:37,835 --> 00:07:40,475
no podía rastrear los errores en un código

205
00:07:40,475 --> 00:07:42,995
que era completamente secuencial.

206
00:07:43,275 --> 00:07:46,095
Entramos en la famosa crisis del software.

207
00:07:45,995 --> 00:07:49,035
Sí, acuñado por la OTAN, nada menos.

208
00:07:49,035 --> 00:07:51,115
Entregar un proyecto a tiempo y sin errores

209
00:07:51,115 --> 00:07:53,135
era poco menos que un milagro.

210
00:07:53,895 --> 00:07:56,415
Hay un dato escalofriante en las fuentes.

211
00:07:56,415 --> 00:07:58,295
El gobierno de Estados Unidos se dio cuenta

212
00:07:58,295 --> 00:08:00,695
de que tenían sus sistemas escritos en más

213
00:08:00,695 --> 00:08:03,715
de 14.000 lenguajes de programación distintos.

214
00:08:03,715 --> 00:08:04,415
¡14.000!

215
00:08:04,955 --> 00:08:06,195
Imagínate el caos.

216
00:08:06,195 --> 00:08:08,495
Una base antiaérea no podía comunicarse con la

217
00:08:08,495 --> 00:08:10,815
de al lado porque hablaban idiomas distintos.

218
00:08:10,815 --> 00:08:12,735
Tuvieron que lanzar el proyecto ADA a la

219
00:08:12,735 --> 00:08:14,695
desesperada para unificar eso.

220
00:08:14,555 --> 00:08:16,775
Y esa crisis tan bestial es la que

221
00:08:16,775 --> 00:08:19,115
nos empuja a la segunda edad de oro.

222
00:08:19,115 --> 00:08:20,555
Y ojo, no fue un salto de mejor

223
00:08:20,555 --> 00:08:23,415
tecnología, fue un cambio de mentalidad.

224
00:08:23,415 --> 00:08:26,375
De la abstracción algorítmica pasamos a la programación

225
00:08:26,375 --> 00:08:30,535
orientada a objetos, la famosa OOP.

226
00:08:30,495 --> 00:08:31,115
Exacto.

227
00:08:31,115 --> 00:08:34,555
Y aquí Butch se pone filosófico, que me

228
00:08:34,555 --> 00:08:35,795
encanta.

229
00:08:35,795 --> 00:08:38,555
Nos dice que este cambio refleja un debate

230
00:08:38,555 --> 00:08:41,655
de Platón sobre cómo entendemos la realidad.

231
00:08:41,595 --> 00:08:43,315
O sea, frena un momento.

232
00:08:43,315 --> 00:08:45,615
¿Qué tiene que ver Platón con arreglar un

233
00:08:45,615 --> 00:08:47,215
código desastroso en los 70?

234
00:08:47,955 --> 00:08:49,295
Pues muchísimo.

235
00:08:49,295 --> 00:08:51,775
A ver, tiene que ver con cómo ordenamos

236
00:08:51,775 --> 00:08:52,835
el caos.

237
00:08:53,055 --> 00:08:56,015
Platón debatía si debíamos mirar el mundo como

238
00:08:56,015 --> 00:09:00,735
procesos, o sea, acciones continuas, o como cosas,

239
00:09:00,735 --> 00:09:01,975
objetos con propiedades.

240
00:09:02,495 --> 00:09:03,335
¿Vale?

241
00:09:03,575 --> 00:09:06,535
Hasta los 70 todo era proceso.

242
00:09:06,535 --> 00:09:10,915
Funciones matemáticas larguísimas, modificando datos sueltos, cuando el

243
00:09:10,915 --> 00:09:14,390
programa se hacía enorme, encontrar qué función había

244
00:09:14,390 --> 00:09:17,190
roto qué dato era misión imposible.

245
00:09:17,090 --> 00:09:18,830
Vale, lo voy pillando.

246
00:09:18,830 --> 00:09:21,370
Cambiamos de bando platónico, digamos.

247
00:09:21,470 --> 00:09:24,950
Sí, la orientación a objetos dijo, basta, vamos

248
00:09:24,950 --> 00:09:27,170
a juntar los datos y las funciones en

249
00:09:27,170 --> 00:09:28,550
una caja cerrada.

250
00:09:28,510 --> 00:09:29,210
Un objeto.

251
00:09:29,490 --> 00:09:31,390
Y así ocultas la complejidad.

252
00:09:31,390 --> 00:09:34,250
Un equipo hace el semáforo, otro el coche,

253
00:09:34,250 --> 00:09:35,470
y el sistema no colapsa.

254
00:09:35,930 --> 00:09:37,470
Es brillante.

255
00:09:37,470 --> 00:09:39,010
Pero lo que me parece más flipante es

256
00:09:39,010 --> 00:09:41,510
la mezcla cultural donde nace esto.

257
00:09:41,510 --> 00:09:43,970
En los 80, esta tecnología choca con dos

258
00:09:43,970 --> 00:09:44,730
mundos opuestos.

259
00:09:45,190 --> 00:09:47,270
Sí, es una mezcla rarísima.

260
00:09:47,270 --> 00:09:49,750
Por un lado, tenemos a Silicon Valley, empresas

261
00:09:49,750 --> 00:09:53,010
como Failed Child, fabricando microchips de silicio para

262
00:09:53,010 --> 00:09:54,470
el guiado de misiles balísticos.

263
00:09:54,970 --> 00:09:56,790
Tecnología militar de la dura.

264
00:09:56,890 --> 00:10:00,710
Y por otro lado, esos mismos transistores superminiaturizados

265
00:10:00,710 --> 00:10:03,070
caen en manos de la contracultura hippie de

266
00:10:03,070 --> 00:10:03,510
California.

267
00:10:04,010 --> 00:10:06,350
Me estás diciendo que el ordenador personal nace

268
00:10:06,350 --> 00:10:08,570
de cruzar la guerra nuclear con el rollo

269
00:10:08,570 --> 00:10:09,930
de paz y amor de los hippies.

270
00:10:10,210 --> 00:10:12,170
Es una ironía maravillosa.

271
00:10:12,190 --> 00:10:14,910
Los transistores bajaron tanto de precio que la

272
00:10:14,910 --> 00:10:16,770
gente los compraba en revistas.

273
00:10:16,850 --> 00:10:19,170
Y los hippies dijeron, oye, el poder para

274
00:10:19,170 --> 00:10:21,790
el pueblo, liberemos la información.

275
00:10:21,790 --> 00:10:24,330
Empezaron a soldar placas en los garajes.

276
00:10:24,110 --> 00:10:27,190
Sí, para comunicarse fuera del radar del gobierno.

277
00:10:27,310 --> 00:10:29,230
Así nace The Well, una de las primeras

278
00:10:29,230 --> 00:10:30,470
comunidades virtuales.

279
00:10:30,870 --> 00:10:32,930
Y ahí está el germen del código abierto.

280
00:10:32,610 --> 00:10:35,510
Lo que Grady Butch llama el telar del

281
00:10:35,510 --> 00:10:36,030
dolor.

282
00:10:36,290 --> 00:10:38,230
¡Qué expresión tan poética y oscura!

283
00:10:38,430 --> 00:10:39,590
Es buenísima.

284
00:10:39,610 --> 00:10:41,870
El telar del dolor explica que nuestra historia

285
00:10:41,870 --> 00:10:44,190
siempre ha estado impulsada por el comercio y

286
00:10:44,190 --> 00:10:45,270
por la guerra.

287
00:10:45,250 --> 00:10:47,830
Esa colisión crea el PC y democratiza el

288
00:10:47,830 --> 00:10:48,490
código.

289
00:10:48,410 --> 00:10:50,170
Y ese código abierto es lo que levanta

290
00:10:50,170 --> 00:10:51,930
a los monstruos de la nube actual, como

291
00:10:51,930 --> 00:10:54,330
Amazon Web Services o Salesforce.

292
00:10:54,170 --> 00:10:55,190
Exacto.

293
00:10:54,750 --> 00:10:56,750
Pero claro, todo esto nos lanza de bruces

294
00:10:56,750 --> 00:10:57,970
a la actualidad.

295
00:10:57,990 --> 00:11:00,250
Si en la segunda era agrupamos procesos en

296
00:11:00,250 --> 00:11:03,890
objetos, Hoy, según Butch, usamos inteligencia artificial para

297
00:11:03,890 --> 00:11:05,590
agrupar sistemas masivos.

298
00:11:05,590 --> 00:11:06,630
Y aquí viene la bomba.

299
00:11:06,630 --> 00:11:09,170
Que la tercera edad de oro no empezó

300
00:11:09,170 --> 00:11:12,830
el año pasado con ChatGPT, empezó a principios

301
00:11:12,830 --> 00:11:14,010
de los 2000.

302
00:11:13,870 --> 00:11:15,010
Tiene sentido.

303
00:11:15,010 --> 00:11:17,370
Con Internet y la nube, la cantidad de

304
00:11:17,370 --> 00:11:21,970
bibliotecas, código de terceros, microservicios, ha crecido tanto

305
00:11:21,970 --> 00:11:25,950
que es biológicamente imposible memorizarlo todo.

306
00:11:25,870 --> 00:11:27,150
Imposible.

307
00:11:27,150 --> 00:11:30,430
Las herramientas como Cursor o Copilot no son

308
00:11:30,430 --> 00:11:31,970
magia alienígena.

309
00:11:31,990 --> 00:11:34,230
Son el salvavidas natural que hemos tenido que

310
00:11:34,230 --> 00:11:37,370
inventar para no ahogarnos en tanta complejidad.

311
00:11:37,270 --> 00:11:39,530
Pero claro, aquí hay tortas.

312
00:11:39,530 --> 00:11:41,890
Porque Butch lo ve como una herramienta más,

313
00:11:41,890 --> 00:11:44,430
pero figuras como Dario Amodei, el mismísimo CEO

314
00:11:44,430 --> 00:11:47,430
de Anthrotropic, dicen otra cosa muy distinta.

315
00:11:47,230 --> 00:11:49,190
Ay, Dario Amodei.

316
00:11:49,250 --> 00:11:51,510
Dice que la ingeniería de software humana estará

317
00:11:51,510 --> 00:11:54,310
automatizada casi por completo en apenas 12 meses.

318
00:11:54,370 --> 00:11:56,230
12 meses.

319
00:11:56,230 --> 00:11:58,370
Y Butch es demoledor con eso.

320
00:11:58,370 --> 00:12:02,290
Lo califica literalmente como una reverenda estupidez.

321
00:12:02,290 --> 00:12:04,390
Other bullshit en inglés.

322
00:12:04,390 --> 00:12:06,370
Un término muy técnico, como dice él.

323
00:12:06,370 --> 00:12:08,910
A ver, déjame hacer de abogado del diablo.

324
00:12:08,910 --> 00:12:11,070
Es fácil decirle estúpido a Modei, pero yo

325
00:12:11,070 --> 00:12:12,990
abro Cloud, le pido en español que me

326
00:12:12,990 --> 00:12:15,070
programe una base de datos de usuarios en

327
00:12:15,070 --> 00:12:17,530
Python y me lo escupe en 10 segundos.

328
00:12:17,530 --> 00:12:18,810
Y funciona.

329
00:12:18,810 --> 00:12:20,090
Claro que funciona.

330
00:12:20,090 --> 00:12:21,430
Entonces, ¿por qué se equivoca?

331
00:12:21,430 --> 00:12:24,050
¿Si la máquina saca código que funciona perfecto?

332
00:12:24,050 --> 00:12:28,530
Porque estás confundiendo picar código repetitivo con hacer

333
00:12:28,530 --> 00:12:29,850
ingeniería de verdad.

334
00:12:29,850 --> 00:12:32,710
Butch no niega que la IA escriba código

335
00:12:32,710 --> 00:12:33,550
genial.

336
00:12:33,550 --> 00:12:36,050
De hecho, automatiza a la perfección las operaciones

337
00:12:36,050 --> 00:12:37,490
CRUD de nivel bajo.

338
00:12:37,490 --> 00:12:40,710
O sea, crear, leer, actualizar y borrar datos.

339
00:12:40,710 --> 00:12:42,370
Sí, lo aburrido.

340
00:12:42,370 --> 00:12:44,550
La IA ha visto esos patrones millones de

341
00:12:44,550 --> 00:12:46,710
veces y te los clava.

342
00:12:46,710 --> 00:12:50,270
Pero la ingeniería, volviendo a Margaret Hamilton, requiere

343
00:12:50,270 --> 00:12:52,910
cosas que un modelo estadístico no tiene.

344
00:12:52,910 --> 00:12:54,290
A ver, ponme un ejemplo.

345
00:12:54,290 --> 00:12:57,250
La IA no toma decisiones éticas sobre la

346
00:12:57,250 --> 00:12:58,570
privacidad.

347
00:12:58,570 --> 00:13:00,730
No entiende tu modelo de negocio para saber

348
00:13:00,730 --> 00:13:02,550
qué tiene que ser escalable.

349
00:13:02,550 --> 00:13:05,130
Y no sabe de seguridad frente a hackers.

350
00:13:05,130 --> 00:13:07,930
Solo rejurgita promedios estadísticos.

351
00:13:07,930 --> 00:13:08,930
Entiendo.

352
00:13:08,930 --> 00:13:10,730
La fuente de hecho cuenta que Butch usó

353
00:13:10,730 --> 00:13:13,290
la IA para hacer visualizaciones en JavaScript con

354
00:13:13,290 --> 00:13:15,670
una librería muy compleja, de tres.

355
00:13:15,670 --> 00:13:17,950
Se lo pidió en inglés y listo.

356
00:13:17,950 --> 00:13:19,930
Dice que el inglés es el nuevo código.

357
00:13:19,930 --> 00:13:20,750
Eso es.

358
00:13:20,750 --> 00:13:22,890
Pero le ve una trampa mortal a esto.

359
00:13:22,890 --> 00:13:25,510
Imagínate un directivo sin idea de tecnología.

360
00:13:25,510 --> 00:13:27,950
Lea a Amodei, despide a sus seniors y

361
00:13:27,950 --> 00:13:29,670
se pone a pedirle a la aplicación a

362
00:13:29,670 --> 00:13:31,830
la IA hablando en español o en inglés.

363
00:13:31,830 --> 00:13:33,530
Un desastre garantizado.

364
00:13:33,530 --> 00:13:35,990
Claro, porque el lenguaje humano es poético, es

365
00:13:35,990 --> 00:13:38,890
ambiguo, es súper impreciso comparado con la matemática

366
00:13:38,890 --> 00:13:40,370
pura del código.

367
00:13:40,370 --> 00:13:41,930
La IA le va a devolver una aplicación

368
00:13:41,930 --> 00:13:44,330
que parece que funciona, pero por dentro será

369
00:13:43,830 --> 00:13:46,910
un castillo de naipes lleno de vulnerabilidades.

370
00:13:46,830 --> 00:13:47,710
Los clavado.

371
00:13:47,710 --> 00:13:50,085
Si no sabes pedir pedir exactamente la lógica

372
00:13:50,085 --> 00:13:53,005
que necesitas, la IAs inventa las cosas.

373
00:13:53,265 --> 00:13:56,125
Entonces, ¿por qué los feos como Amodei dicen

374
00:13:56,125 --> 00:13:57,885
estas barbaridades apocalípticas?

375
00:13:58,345 --> 00:13:58,985
A ver, dímelo tú.

376
00:13:59,485 --> 00:14:01,065
Butch lo tiene clarísimo.

377
00:14:01,065 --> 00:14:03,065
Es puro teatro para los inversores.

378
00:14:03,225 --> 00:14:06,585
Tienen unas valoraciones económicas tan infladas que necesitan

379
00:14:06,585 --> 00:14:08,725
prometer que van a sustituir a los trabajadores

380
00:14:08,725 --> 00:14:10,625
más caros del mundo, los programadores.

381
00:14:10,545 --> 00:14:12,125
Para pillar más capital.

382
00:14:12,025 --> 00:14:13,585
Todo por el hype, claro.

383
00:14:13,225 --> 00:14:16,065
Vale, apocalipsis de los 12 meses desmontado.

384
00:14:16,065 --> 00:14:18,725
Pero la audiencia que nos escucha, profesionales o

385
00:14:18,725 --> 00:14:22,145
estudiantes, pensarán, a ver, si la máquina pica

386
00:14:22,145 --> 00:14:23,985
el código aburrido, ¿qué hago yo con mi

387
00:14:23,985 --> 00:14:24,445
vida ahora?

388
00:14:24,805 --> 00:14:26,545
Pues hay dos caminos.

389
00:14:26,545 --> 00:14:29,385
Primero, la explosión de perfiles híbridos.

390
00:14:29,385 --> 00:14:31,005
Butch habla de su vecina contable.

391
00:14:31,305 --> 00:14:32,065
Ah, sí.

392
00:14:32,085 --> 00:14:33,785
Que no sabe programar, pero usa la IA

393
00:14:33,785 --> 00:14:35,905
para hacerse pequeñas aplicaciones de un solo uso

394
00:14:35,905 --> 00:14:37,445
que le automatizan el Excel.

395
00:14:37,445 --> 00:14:39,345
Software desechable, lo llama.

396
00:14:39,185 --> 00:14:40,645
Democratización pura.

397
00:14:41,105 --> 00:14:42,845
Pero, ¿y el ingeniero de verdad?

398
00:14:42,945 --> 00:14:44,885
¿Cuál es su valor diferencial ahora?

399
00:14:45,065 --> 00:14:47,465
Tiene que subir un nivel de abstracción.

400
00:14:47,705 --> 00:14:49,505
Butch da un consejo que te deja un

401
00:14:49,505 --> 00:14:51,105
poco a cuadros, la verdad.

402
00:14:51,325 --> 00:14:53,885
Dice que dejemos de memorizar el último framework

403
00:14:53,885 --> 00:14:56,645
de JavaScript y nos pongamos a estudiar teoría

404
00:14:56,645 --> 00:15:00,245
de sistemas, complejidad y, atención, biología.

405
00:15:01,005 --> 00:15:02,145
No me lo trago.

406
00:15:02,025 --> 00:15:03,725
O sea, ¿me estás diciendo que el creador

407
00:15:03,725 --> 00:15:06,385
de UML nos recomienda sobrevivir a la IA

408
00:15:06,405 --> 00:15:08,705
leyendo sobre el cerebro de una lombriz de

409
00:15:08,705 --> 00:15:09,465
tierra.

410
00:15:09,605 --> 00:15:11,945
Suena broma, pero es súper profundo.

411
00:15:12,145 --> 00:15:14,365
Piensa que la ingeniería de verdad choca con

412
00:15:14,365 --> 00:15:15,725
el mundo físico.

413
00:15:15,885 --> 00:15:18,965
Robótica, redes eléctricas, roverse en Marte...

414
00:15:18,965 --> 00:15:19,845
Vale.

415
00:15:19,925 --> 00:15:22,085
La IA actual es un bicho estadístico en

416
00:15:22,085 --> 00:15:23,105
un servidor.

417
00:15:23,225 --> 00:15:26,405
Pero la naturaleza lleva millones de años resolviendo

418
00:15:26,405 --> 00:15:29,685
flujos de información complejos con poquísima energía.

419
00:15:28,705 --> 00:15:31,425
Y de ahí la anécdota del gusano y

420
00:15:31,425 --> 00:15:33,005
la cucaracha de las fuentes.

421
00:15:32,945 --> 00:15:33,405
Exacto.

422
00:15:33,965 --> 00:15:37,285
Conocemos el mapa neuronal de un gusano nematodo.

423
00:15:37,365 --> 00:15:39,665
Tiene 302 neuronas.

424
00:15:39,905 --> 00:15:42,885
Y si miras una cucaracha reaccionando al peligro,

425
00:15:42,885 --> 00:15:44,745
no tiene un gran cerebro central en la

426
00:15:44,745 --> 00:15:45,405
nube.

427
00:15:45,465 --> 00:15:46,585
Todo está distribuido, ¿no?

428
00:15:47,085 --> 00:15:49,485
Sí, sus reflejos locales actúan antes de que

429
00:15:49,485 --> 00:15:51,225
la señal llegue a la cabeza.

430
00:15:51,365 --> 00:15:53,145
Esto es la famosa teoría de Minsky de

431
00:15:53,145 --> 00:15:54,645
la sociedad de la mente.

432
00:15:53,985 --> 00:15:58,105
Que la inteligencia son muchos agentes pequeñitos cooperando.

433
00:15:57,925 --> 00:15:59,325
Y hacia ahí vamos.

434
00:15:59,725 --> 00:16:02,325
No usaremos una IA gigante para todo.

435
00:16:02,365 --> 00:16:04,665
Tendremos arquitecturas multiagente.

436
00:16:04,765 --> 00:16:08,065
Un agente revisa la seguridad, otro la memoria.

437
00:16:08,205 --> 00:16:10,385
Entender cómo fluye la información ahí sin que

438
00:16:10,385 --> 00:16:12,185
explote todo es biología pura.

439
00:16:12,625 --> 00:16:14,145
Es teoría de sistemas.

440
00:16:14,405 --> 00:16:16,205
La IA no hace eso sola.

441
00:16:16,205 --> 00:16:18,065
Visto así, no es un funeral.

442
00:16:18,065 --> 00:16:20,025
Es una liberación monumental.

443
00:16:20,225 --> 00:16:22,045
Nos quitan el trabajo aburrido y nos dejan

444
00:16:22,045 --> 00:16:23,685
la imaginación pura.

445
00:16:23,425 --> 00:16:26,345
Es que la tecnología verdaderamente exitosa se vuelve

446
00:16:26,345 --> 00:16:27,245
invisible.

447
00:16:27,505 --> 00:16:30,505
Acuérdate del famoso Efecto 2000, el I2K.

448
00:16:30,385 --> 00:16:31,825
Madre mía la que se montó.

449
00:16:31,505 --> 00:16:33,425
poco inquietante.

450
00:16:33,425 --> 00:16:35,745
Si la IA hace el código base y

451
00:16:35,745 --> 00:16:38,225
nosotros nos dedicamos a diseñar la arquitectura desde

452
00:16:38,225 --> 00:16:40,685
las nubes, llegará un día en que perdamos

453
00:16:40,685 --> 00:16:43,785
la memoria muscular de cómo funcionan los engranajes.

454
00:16:43,785 --> 00:16:45,525
Buf, es un riesgo enorme.

455
00:16:45,525 --> 00:16:47,385
O sea, si la sala de máquinas es

456
00:16:47,385 --> 00:16:50,805
invisible y se rompe algo crítico, ¿qué pasará

457
00:16:50,805 --> 00:16:52,625
si ya nadie recuerda cómo coger la llave

458
00:16:52,625 --> 00:16:53,865
inglesa de los ceros y unos?

459
00:16:53,865 --> 00:16:57,385
Es el peligro de la abstracción excesiva.

460
00:16:57,385 --> 00:16:59,965
Alejarnos tanto de los cimientos hará que perdamos

461
00:16:59,965 --> 00:17:03,045
la capacidad de auditar a la propia máquina.

462
00:17:03,045 --> 00:17:05,805
Por eso, entender los fundamentos y tener pensamiento

463
00:17:05,345 --> 00:17:08,125
crítico va a ser la habilidad más cara

464
00:17:08,125 --> 00:17:09,025
del futuro.

465
00:17:09,025 --> 00:17:11,705
Pues ahí dejamos el aviso a navegantes, a

466
00:17:11,705 --> 00:17:13,885
no dejarse llevar por el alarmismo y a

467
00:17:13,885 --> 00:17:15,745
mirar a los gusanos del jardín con más

468
00:17:15,745 --> 00:17:16,725
respeto.

469
00:17:17,565 --> 00:17:19,985
Antes de despedirnos hasta el próximo programa, os

470
00:17:19,985 --> 00:17:22,005
informamos de que las voces que oyes han

471
00:17:22,005 --> 00:17:24,445
sido generadas por la IA de Notebook LM

472
00:17:24,445 --> 00:17:27,245
y que dirigiendo el podcast se encuentra Julio

473
00:17:27,245 --> 00:17:30,625
Pablo Vázquez, un humano que te envía saludos.

474
00:17:30,625 --> 00:17:34,145
En caso de error, probablemente sean errores humanos.

475
00:17:34,145 --> 00:17:34,845
Nos escuchamos.

476
00:17:46,085 --> 00:17:48,245
Y hasta aquí el episodio de hoy.

477
00:17:48,245 --> 00:17:50,305
Muchas gracias por tu atención.

478
00:17:59,585 --> 00:18:01,865
Esto es BIMPRAXIS.

479
00:18:01,865 --> 00:18:03,945
Nos escuchamos en el próximo episodio.

