1 00:00:09,679 --> 00:00:15,660 Buenas, esto es BIMPRAXIS, el podcast donde el 2 00:00:15,660 --> 00:00:17,739 BIM se encuentra con la inteligencia artificial. 3 00:00:20,219 --> 00:00:23,480 Exploramos la ciencia, la tecnología y el futuro 4 00:00:23,480 --> 00:00:26,440 desde el enfoque de la arquitectura, ingeniería y 5 00:00:26,440 --> 00:00:27,120 construcción. 6 00:00:28,679 --> 00:00:29,440 ¡Empezamos! 7 00:00:36,759 --> 00:00:38,880 ¡Hola, humanas y humanos! 8 00:00:39,200 --> 00:00:42,619 Aquí estamos con un episodio nuevo de BIMPRAXIS. 9 00:00:42,619 --> 00:00:45,219 En el episodio de hoy seguimos con la 10 00:00:45,219 --> 00:00:48,460 serie dedicada a los RAG, los Retrieval Aumented 11 00:00:48,460 --> 00:00:48,759 Generation. 12 00:00:49,280 --> 00:00:52,759 Hoy traemos una potente combinación de técnicas. 13 00:00:53,060 --> 00:00:54,880 Una combinación muy, muy potente, sí. 14 00:00:55,100 --> 00:00:57,479 Vamos a ver cómo estos sistemas están empezando 15 00:00:57,479 --> 00:00:59,399 a, bueno, a razonar de verdad. 16 00:01:00,100 --> 00:01:00,640 Exacto. 17 00:01:00,640 --> 00:01:02,939 El objetivo de los RAG, para poner un 18 00:01:02,939 --> 00:01:05,099 poco de contexto, es dar a las IAs 19 00:01:05,099 --> 00:01:07,959 la capacidad de buscar en nuestro propio conocimiento, 20 00:01:08,099 --> 00:01:09,739 en nuestros documentos, vaya. 21 00:01:10,000 --> 00:01:12,459 Pero claro, no todas las formas de buscar. 22 00:01:12,620 --> 00:01:13,299 Son iguales. 23 00:01:13,299 --> 00:01:15,180 Y creo que lo mejor es empezar por 24 00:01:15,180 --> 00:01:17,319 la más básica, la que a veces llaman 25 00:01:17,319 --> 00:01:19,840 RAG vainilla o RAG ingenuo. 26 00:01:19,939 --> 00:01:21,579 Sí, es el punto de partida de todo 27 00:01:21,579 --> 00:01:21,859 esto. 28 00:01:21,980 --> 00:01:23,859 El RAG, digamos, clásico. 29 00:01:24,019 --> 00:01:26,400 Venga, pues explícanos ese flujo tradicional. 30 00:01:26,959 --> 00:01:28,359 A ver, es bastante lineal. 31 00:01:28,840 --> 00:01:32,420 Primero, coges tus documentos, lo que sea, PDFs, 32 00:01:32,439 --> 00:01:33,280 webs, da igual. 33 00:01:33,480 --> 00:01:35,519 Y los partes en trocitos más pequeños. 34 00:01:35,680 --> 00:01:36,959 Se les suele llamar chunks. 35 00:01:37,319 --> 00:01:39,459 Claro, porque no puedes meter un informe de 36 00:01:39,459 --> 00:01:42,599 100 páginas de golpe en el computador. 37 00:01:42,620 --> 00:01:43,819 En el contexto del modelo no cabe. 38 00:01:44,060 --> 00:01:45,439 Ni cabe ni es eficiente. 39 00:01:46,079 --> 00:01:49,480 Una vez tienes esos fragmentos, creas una representación 40 00:01:49,480 --> 00:01:51,340 vectorial de cada uno. 41 00:01:51,480 --> 00:01:52,280 Un embedding. 42 00:01:52,480 --> 00:01:54,219 O sea, lo traduces a números que la 43 00:01:54,219 --> 00:01:54,859 máquina entiende. 44 00:01:55,060 --> 00:01:55,540 Precisamente. 45 00:01:55,739 --> 00:01:58,400 Y esos vectores, esos números, los guardas en 46 00:01:58,400 --> 00:01:59,900 una base de datos vectorial. 47 00:02:00,200 --> 00:02:02,299 El ejemplo de la fuente, de hecho, usa 48 00:02:02,299 --> 00:02:05,780 PostgreSQL con la extensión pgVector, que es muy 49 00:02:05,780 --> 00:02:06,599 popular para esto. 50 00:02:06,859 --> 00:02:07,159 Vale. 51 00:02:07,859 --> 00:02:10,180 Conocimiento troceado y convertido en vectores. 52 00:02:10,300 --> 00:02:12,280 Y ahora llega la pregunta del usuario. 53 00:02:12,620 --> 00:02:13,560 Y se repite el proceso. 54 00:02:13,819 --> 00:02:16,259 La pregunta también se convierte en un vector. 55 00:02:16,500 --> 00:02:18,520 Y entonces lo que hace el sistema es 56 00:02:18,520 --> 00:02:21,259 buscar en la base de datos qué fragmentos 57 00:02:21,259 --> 00:02:24,120 tienen los vectores más parecidos, más cercanos al 58 00:02:24,120 --> 00:02:24,639 de la pregunta. 59 00:02:24,919 --> 00:02:27,120 Y esos fragmentos son los que se usan 60 00:02:27,120 --> 00:02:30,520 como contexto para que el LLM, el modelo 61 00:02:30,520 --> 00:02:32,580 de lenguaje, genere la respuesta final. 62 00:02:32,939 --> 00:02:33,460 Exacto. 63 00:02:33,580 --> 00:02:34,460 Se le dice. 64 00:02:35,199 --> 00:02:37,780 Responde a esto, pero usando esta información. 65 00:02:38,259 --> 00:02:39,400 Suena bastante lógico. 66 00:02:39,639 --> 00:02:41,400 Entonces, ¿dónde está el problema? 67 00:02:41,659 --> 00:02:42,479 ¿Cuál es la pega? 68 00:02:42,620 --> 00:02:46,219 Pues mira, la principal debilidad es su inflexibilidad. 69 00:02:46,819 --> 00:02:49,000 Es una tubería totalmente rígida. 70 00:02:49,199 --> 00:02:49,960 ¿Una tubería? 71 00:02:50,080 --> 00:02:50,240 Sí. 72 00:02:50,719 --> 00:02:53,180 El contexto se recupera y se inyecta la 73 00:02:53,180 --> 00:02:55,240 fuerza en el prompt del LLM. 74 00:02:55,740 --> 00:02:58,240 El agente de IA no tiene ninguna opción. 75 00:02:58,340 --> 00:02:58,699 Ah, vale. 76 00:02:58,879 --> 00:03:00,039 Debe usar ese contexto. 77 00:03:00,319 --> 00:03:01,000 Sí o sí. 78 00:03:01,240 --> 00:03:03,620 Le guste o no le guste, sea relevante 79 00:03:03,620 --> 00:03:04,139 o no. 80 00:03:04,280 --> 00:03:06,159 Es como si no pudiera levantar la mano 81 00:03:06,159 --> 00:03:07,599 y decir, oye, esto que me has dado 82 00:03:07,599 --> 00:03:08,280 no me sirve. 83 00:03:08,479 --> 00:03:08,960 Justo. 84 00:03:09,039 --> 00:03:11,539 No puede refinar su búsqueda ni pensar en 85 00:03:11,539 --> 00:03:12,319 una estrategia mejor. 86 00:03:12,620 --> 00:03:14,659 Ni consultar otras fuentes si las tuviera. 87 00:03:14,719 --> 00:03:16,319 Es un receptor pasivo. 88 00:03:16,539 --> 00:03:16,819 Vale. 89 00:03:16,939 --> 00:03:20,639 Entonces necesitamos darle más autonomía, más iniciativa. 90 00:03:20,680 --> 00:03:23,039 Aquí es donde entra en juego el concepto 91 00:03:23,039 --> 00:03:24,879 de Agent X RAG, ¿no? 92 00:03:25,259 --> 00:03:25,780 Exactamente. 93 00:03:25,939 --> 00:03:27,780 Ahí está el cambio de paradigma. 94 00:03:27,960 --> 00:03:30,099 La idea central es dar a la gente 95 00:03:30,099 --> 00:03:33,099 la capacidad de razonar sobre cómo explora la 96 00:03:33,099 --> 00:03:34,080 base de conocimiento. 97 00:03:34,300 --> 00:03:36,719 Que deje de ser un simple ejecutor de 98 00:03:36,719 --> 00:03:37,099 órdenes. 99 00:03:37,259 --> 00:03:37,800 Eso es. 100 00:03:37,900 --> 00:03:40,439 En lugar de ese paso previo forzado, el 101 00:03:40,439 --> 00:03:43,180 agente ahora puede, por ejemplo, formular sus propias 102 00:03:43,180 --> 00:03:44,300 consultas para buscar. 103 00:03:44,460 --> 00:03:47,039 O sea, reformular mi pregunta para que la 104 00:03:47,039 --> 00:03:48,460 base de datos la entienda mejor. 105 00:03:48,699 --> 00:03:48,879 Sí. 106 00:03:49,000 --> 00:03:51,860 O puede decidir si necesita buscar más información 107 00:03:51,860 --> 00:03:53,879 o refinar la búsqueda que ya ha hecho. 108 00:03:54,039 --> 00:03:56,960 Y lo más importante, puede elegir entre diferentes 109 00:03:56,960 --> 00:03:59,620 herramientas o fuentes de conocimiento si las tiene 110 00:03:59,620 --> 00:04:00,199 disponibles. 111 00:04:00,439 --> 00:04:02,080 Es un cambio fundamental, vaya. 112 00:04:02,460 --> 00:04:05,360 De ser un receptor pasivo de contexto a 113 00:04:05,360 --> 00:04:07,439 ser un explorador activo de la información. 114 00:04:07,960 --> 00:04:08,479 Totalmente. 115 00:04:08,599 --> 00:04:10,780 ¿Qué pasa de ser un bibliotecario que solo 116 00:04:10,780 --> 00:04:11,699 busca en el fichero? 117 00:04:11,879 --> 00:04:13,759 ¿Qué le dicen a ser un investigador que 118 00:04:13,759 --> 00:04:15,319 decide qué libros consultar? 119 00:04:15,460 --> 00:04:18,800 Y aquí es donde se pone realmente interesante. 120 00:04:19,420 --> 00:04:22,180 Porque el material que analizamos no se queda 121 00:04:22,180 --> 00:04:25,459 solo en darle autonomía a la gente, sino 122 00:04:25,459 --> 00:04:27,839 que le da una herramienta completamente diferente. 123 00:04:28,519 --> 00:04:30,339 Los grafos de conocimiento. 124 00:04:30,720 --> 00:04:31,639 Y esto es crucial. 125 00:04:32,019 --> 00:04:34,339 Porque no es solo darle a elegir, es 126 00:04:34,339 --> 00:04:37,660 darle opciones que son conceptualmente distintas. 127 00:04:37,800 --> 00:04:39,300 A ver, explícanos la diferencia. 128 00:04:39,920 --> 00:04:41,519 ¿Base de datos vectorial? 129 00:04:41,879 --> 00:04:42,939 ¿Oltragrafo de conocimiento? 130 00:04:43,139 --> 00:04:45,839 Mira, la base de datos vectorial es ideal 131 00:04:45,839 --> 00:04:48,519 para encontrar información por similitud semántica. 132 00:04:48,680 --> 00:04:49,720 Lo que hablábamos. 133 00:04:49,939 --> 00:04:53,279 Responde genial a preguntas como, ¿qué iniciativas de 134 00:04:53,279 --> 00:04:54,040 IA tiene Google? 135 00:04:54,459 --> 00:04:57,699 Buscará textos que usen palabras parecidas a Google, 136 00:04:57,899 --> 00:04:59,459 IA, iniciativas. 137 00:04:59,699 --> 00:05:00,319 Correcto. 138 00:05:00,319 --> 00:05:03,100 Pero un grafo de conocimiento, un knowledge graph, 139 00:05:03,319 --> 00:05:04,360 juega en otra liga. 140 00:05:04,540 --> 00:05:07,259 Su fuerte no es la similitud, son las 141 00:05:07,259 --> 00:05:10,019 relaciones, las conexiones entre entidades. 142 00:05:10,240 --> 00:05:11,860 ¿No almacena solo datos? 143 00:05:11,879 --> 00:05:13,139 No, no almacena solo datos, sino cómo se 144 00:05:13,139 --> 00:05:14,279 conectan esos datos. 145 00:05:14,560 --> 00:05:15,939 Ahí está la clave. 146 00:05:16,180 --> 00:05:18,740 Usa ejemplos muy claros en la fuente. 147 00:05:18,860 --> 00:05:21,740 Por ejemplo, no tienes solo un nodo Amazon 148 00:05:21,740 --> 00:05:23,100 y un nodo Anthropic. 149 00:05:23,379 --> 00:05:25,980 Tienes el nodo Amazon que se relaciona con 150 00:05:25,980 --> 00:05:28,319 el nodo Anthropic a través de un enlace, 151 00:05:28,399 --> 00:05:31,560 una relación, que dice ha invertido en. 152 00:05:32,000 --> 00:05:32,680 ¡Ostras! 153 00:05:32,920 --> 00:05:33,600 ¡Claro! 154 00:05:33,639 --> 00:05:36,220 O el nodo Microsoft que se relaciona con 155 00:05:36,220 --> 00:05:39,339 OpenAI a través de relaciones como son socios 156 00:05:39,339 --> 00:05:41,420 o usa exclusivamente Azure. 157 00:05:42,060 --> 00:05:44,879 Captura la estructura, el esqueleto del conocimiento. 158 00:05:45,160 --> 00:05:45,579 Lo veo. 159 00:05:45,819 --> 00:05:48,680 El agente ahora tiene dos formas muy distintas 160 00:05:48,680 --> 00:05:50,019 de ver la misma información. 161 00:05:50,399 --> 00:05:53,399 Una es semántica y la otra es... 162 00:05:54,480 --> 00:05:54,959 Relacional. 163 00:05:55,220 --> 00:05:57,420 Una es una biblioteca y la otra es 164 00:05:57,420 --> 00:05:58,600 un mapa de conexiones. 165 00:05:58,779 --> 00:06:01,000 Y eso le da una potencia increíble. 166 00:06:01,160 --> 00:06:02,660 Vamos a llevar esto a la práctica, que 167 00:06:02,660 --> 00:06:03,800 creo que es como mejor se va a 168 00:06:03,800 --> 00:06:04,019 entender. 169 00:06:04,360 --> 00:06:06,899 La fuente describe un agente que tiene acceso 170 00:06:06,899 --> 00:06:08,139 a las dos herramientas. 171 00:06:08,160 --> 00:06:10,600 Y lo interesante es ver cómo elige una 172 00:06:10,600 --> 00:06:11,779 u otra según la pregunta. 173 00:06:11,879 --> 00:06:12,240 Sí. 174 00:06:12,339 --> 00:06:14,259 La demostración es muy, muy clara. 175 00:06:14,339 --> 00:06:15,660 Ponen tres ejemplos. 176 00:06:15,680 --> 00:06:17,600 El primero, una pregunta sencilla. 177 00:06:17,839 --> 00:06:20,680 ¿Cuáles son las iniciativas de IA de Google? 178 00:06:21,019 --> 00:06:22,100 La que ya hemos dicho. 179 00:06:22,240 --> 00:06:24,579 Un caso de libro para la búsqueda vectorial. 180 00:06:24,720 --> 00:06:26,139 Y el agente lo pilla al vuelo. 181 00:06:26,259 --> 00:06:28,560 Su razonamiento interno es algo como... 182 00:06:28,560 --> 00:06:30,620 A ver, la pregunta va sobre una única 183 00:06:30,620 --> 00:06:31,600 entidad, Google. 184 00:06:31,800 --> 00:06:33,980 No necesito explorar relaciones complejas. 185 00:06:34,220 --> 00:06:35,680 No hay que conectar puntos, vaya. 186 00:06:36,060 --> 00:06:36,579 Exacto. 187 00:06:36,600 --> 00:06:38,060 Así que su acción es clara. 188 00:06:38,180 --> 00:06:39,959 Elige usar la búsqueda vectorial. 189 00:06:40,420 --> 00:06:41,860 ¿Recupera los fragmentos sobre Google? 190 00:06:41,860 --> 00:06:42,819 ¿Recupera los fragmentos sobre Google y responde? 191 00:06:42,860 --> 00:06:44,040 ¿Eficiente y directo? 192 00:06:44,060 --> 00:06:44,459 Vale. 193 00:06:44,560 --> 00:06:45,120 Fácil. 194 00:06:45,660 --> 00:06:46,500 Segundo escenario. 195 00:06:46,759 --> 00:06:50,259 La segunda pregunta es, ¿cómo se relacionan OpenAI 196 00:06:50,259 --> 00:06:50,959 y Microsoft? 197 00:06:51,300 --> 00:06:52,560 Ah, amigo. 198 00:06:52,779 --> 00:06:55,060 Aquí la palabra clave es relacionan. 199 00:06:55,100 --> 00:06:56,220 Es una pista enorme. 200 00:06:56,500 --> 00:06:57,459 Es un dispararar total. 201 00:06:57,800 --> 00:07:00,379 El agente detecta que la pregunta va explícitamente 202 00:07:00,379 --> 00:07:02,100 sobre la conexión entre dos entidades. 203 00:07:02,420 --> 00:07:03,160 Con lo cual... 204 00:07:03,160 --> 00:07:05,279 Con lo cual, elige usar la búsqueda en 205 00:07:05,279 --> 00:07:05,699 el grafo. 206 00:07:06,180 --> 00:07:08,639 Ignora la biblioteca de textos y se va 207 00:07:08,639 --> 00:07:10,079 directo al mapa de conexiones. 208 00:07:10,079 --> 00:07:13,379 Sigue el enlace entre el nodo OpenAI y 209 00:07:13,379 --> 00:07:16,279 el nodo Microsoft y extrae la información de 210 00:07:16,279 --> 00:07:16,899 esa relación. 211 00:07:17,300 --> 00:07:18,360 Es mucho más preciso. 212 00:07:18,560 --> 00:07:20,860 Te evitas el ruido de encontrar un artículo 213 00:07:20,860 --> 00:07:22,680 que las mencione a las dos de pasada, 214 00:07:22,680 --> 00:07:23,939 pero sin explicar nada. 215 00:07:24,180 --> 00:07:25,100 Va directo al grano. 216 00:07:25,259 --> 00:07:27,420 Y el tercer caso es el que lo 217 00:07:27,420 --> 00:07:27,879 une todo. 218 00:07:28,100 --> 00:07:31,279 La pregunta es, ¿cuáles son las iniciativas de 219 00:07:31,279 --> 00:07:33,740 Microsoft y cómo se relacionan con Anthropic? 220 00:07:34,319 --> 00:07:34,879 Interesante. 221 00:07:34,959 --> 00:07:36,100 Es una pregunta doble. 222 00:07:36,259 --> 00:07:36,819 Efectivamente. 223 00:07:37,060 --> 00:07:39,699 Una parte es descriptiva, sobre Microsoft. 224 00:07:40,079 --> 00:07:42,899 Y la otra es relacional, sobre su conexión 225 00:07:42,899 --> 00:07:43,439 con Anthropic. 226 00:07:43,620 --> 00:07:45,319 Y el agente es capaz de darse cuenta, 227 00:07:45,459 --> 00:07:45,839 supongo. 228 00:07:45,980 --> 00:07:46,120 Sí. 229 00:07:46,220 --> 00:07:47,740 Y de descomponer la pregunta. 230 00:07:48,160 --> 00:07:51,579 Su razonamiento es, vale, necesito dos tipos de 231 00:07:51,579 --> 00:07:51,860 información. 232 00:07:52,360 --> 00:07:54,399 Por un lado, info general de Microsoft. 233 00:07:54,779 --> 00:07:57,040 Para eso lo mejor es la búsqueda vectorial. 234 00:07:57,300 --> 00:07:59,199 Por otro, analizar una relación. 235 00:07:59,600 --> 00:08:01,540 Para eso el grafo es la herramienta. 236 00:08:01,579 --> 00:08:03,899 Con lo que decide usar las dos. 237 00:08:04,860 --> 00:08:05,360 Exacto. 238 00:08:05,360 --> 00:08:07,379 Lanza una consulta a la base de datos 239 00:08:07,379 --> 00:08:08,939 vectorial para lo de Microsoft. 240 00:08:09,139 --> 00:08:10,060 Y otra a la base de datos vectorial. 241 00:08:10,079 --> 00:08:12,199 Al grafo, para ver la conexión con Anthropic. 242 00:08:12,480 --> 00:08:14,860 Y luego junta los dos resultados para dar 243 00:08:14,860 --> 00:08:15,819 una respuesta completa. 244 00:08:16,120 --> 00:08:18,000 Y lo más importante, y creo que este 245 00:08:18,000 --> 00:08:20,360 es el punto clave, no es el usuario 246 00:08:20,360 --> 00:08:21,879 quien elige la herramienta. 247 00:08:21,879 --> 00:08:25,079 Es el agente quien razona y toma la 248 00:08:25,079 --> 00:08:25,660 decisión. 249 00:08:25,839 --> 00:08:27,339 Ese es el salto cualitativo. 250 00:08:27,639 --> 00:08:29,519 Pasamos de un sistema que busca a un 251 00:08:29,519 --> 00:08:30,560 sistema que investiga. 252 00:08:30,660 --> 00:08:32,740 Esto suena muy potente, pero también me da 253 00:08:32,740 --> 00:08:35,080 la sensación de que es complejo de implementar. 254 00:08:35,360 --> 00:08:37,960 ¿Qué piezas se necesitan para montar un sistema 255 00:08:37,960 --> 00:08:38,240 así? 256 00:08:38,440 --> 00:08:39,259 Bueno, no es trivial. 257 00:08:39,259 --> 00:08:41,720 Pero las herramientas son cada vez más accesibles. 258 00:08:41,879 --> 00:08:44,740 La fuente menciona su tech stack, su pila 259 00:08:44,740 --> 00:08:45,419 tecnológica. 260 00:08:45,460 --> 00:08:45,960 A ver. 261 00:08:46,240 --> 00:08:49,019 Usan Vosgres con PG Vector para los vectores, 262 00:08:49,139 --> 00:08:50,000 como dijimos. 263 00:08:50,259 --> 00:08:53,419 Para el grafo de conocimiento usan Neo4, que 264 00:08:53,419 --> 00:08:55,100 es como el estándar de la industria. 265 00:08:55,360 --> 00:08:57,340 Y todo el cerebro de la gente lo 266 00:08:57,340 --> 00:08:59,159 montan con una librería de Python que se 267 00:08:59,159 --> 00:09:01,679 llama Pydantic A, servido con FastTP. 268 00:09:02,019 --> 00:09:02,539 Vale. 269 00:09:02,759 --> 00:09:05,440 Son herramientas más o menos conocidas en el 270 00:09:05,440 --> 00:09:05,820 mundillo. 271 00:09:06,059 --> 00:09:07,480 Sí, no es nada esotérico. 272 00:09:08,480 --> 00:09:09,240 ¿Qué es lo que se usa para montar 273 00:09:09,240 --> 00:09:09,240 un sistema así? 274 00:09:09,240 --> 00:09:10,440 La tecnología es solo una parte. 275 00:09:10,960 --> 00:09:13,340 Lo que más me intriga es cómo le 276 00:09:13,340 --> 00:09:16,039 dices a la gente cuándo usar cada herramienta, 277 00:09:16,059 --> 00:09:18,919 cómo se le dan esas instrucciones, esas reglas. 278 00:09:19,139 --> 00:09:20,460 Esa es la pregunta del millón. 279 00:09:20,799 --> 00:09:22,639 Y la respuesta está en lo que se 280 00:09:22,639 --> 00:09:23,740 llama el System Prompt. 281 00:09:24,000 --> 00:09:26,080 ¿El Prompt de Sistema? 282 00:09:26,440 --> 00:09:28,200 ¿Las instrucciones iniciales? 283 00:09:28,279 --> 00:09:28,779 Justo. 284 00:09:29,139 --> 00:09:31,500 Es el conjunto de instrucciones que guían todo 285 00:09:31,500 --> 00:09:32,860 el comportamiento de la gente. 286 00:09:33,179 --> 00:09:34,779 Es como su constitución. 287 00:09:34,980 --> 00:09:37,879 El desarrollador define ahí las reglas de razonamiento. 288 00:09:38,120 --> 00:09:39,059 Dame un ejemplo. 289 00:09:39,240 --> 00:09:40,000 ¿Qué es una de esas reglas? 290 00:09:40,240 --> 00:09:42,700 La fuente cita uno muy claro de su 291 00:09:42,700 --> 00:09:43,379 propio proyecto. 292 00:09:43,639 --> 00:09:46,379 Le dicen algo como, usa el grafo de 293 00:09:46,379 --> 00:09:48,980 conocimiento solo cuando el usuario pregunte por dos 294 00:09:48,980 --> 00:09:50,360 empresas en la misma pregunta. 295 00:09:50,600 --> 00:09:52,720 En caso contrario, usa la base de datos 296 00:09:52,720 --> 00:09:53,279 vectorial. 297 00:09:53,620 --> 00:09:55,639 Combina ambas solo si se te pide explícitamente. 298 00:09:56,340 --> 00:09:58,419 O sea que es bastante explícito. 299 00:09:58,539 --> 00:09:59,340 No es magia. 300 00:09:59,519 --> 00:10:00,159 Para nada. 301 00:10:00,279 --> 00:10:03,639 Es un trabajo de ingeniería de prompts muy 302 00:10:03,639 --> 00:10:04,340 cuidadoso. 303 00:10:04,480 --> 00:10:06,399 Tienes que pensar en los casos de uso 304 00:10:06,399 --> 00:10:08,779 y traducirlos a instrucciones claras para la IA. 305 00:10:09,240 --> 00:10:11,139 Y este prompt, claro, tienes que adaptarlo a 306 00:10:11,139 --> 00:10:12,720 tus datos y a tu problema concreto. 307 00:10:13,200 --> 00:10:13,659 Claro. 308 00:10:13,720 --> 00:10:16,019 Me imagino que es un punto muy delicado. 309 00:10:16,259 --> 00:10:18,399 Si el prompt es ambiguo o te dejas 310 00:10:18,399 --> 00:10:21,159 fuera un caso importante, el agente puede tomar 311 00:10:21,159 --> 00:10:22,340 una decisión equivocada. 312 00:10:22,759 --> 00:10:23,220 Totalmente. 313 00:10:23,399 --> 00:10:24,840 Es un proceso iterativo. 314 00:10:25,220 --> 00:10:28,019 Pruebas, ves dónde fallar y refinas las instrucciones. 315 00:10:28,240 --> 00:10:29,580 No hay una solución universal. 316 00:10:29,919 --> 00:10:32,879 Y como apunte final, hay un detalle en 317 00:10:32,879 --> 00:10:34,600 el material que es fascinante. 318 00:10:35,139 --> 00:10:37,279 Sobre cómo se construyó este proyecto. 319 00:10:37,620 --> 00:10:37,879 ¿Ah, sí? 320 00:10:39,240 --> 00:10:40,700 Es una capa meta que te deja pensando, 321 00:10:40,960 --> 00:10:41,440 la verdad. 322 00:10:42,000 --> 00:10:42,519 Cuéntalo. 323 00:10:42,679 --> 00:10:45,039 El autor del proyecto comenta que para crear 324 00:10:45,039 --> 00:10:48,000 gran parte del agente, utilizó un asistente de 325 00:10:48,000 --> 00:10:49,139 codificación de IA. 326 00:10:49,240 --> 00:10:50,480 Usó Cloud Code. 327 00:10:51,059 --> 00:10:53,720 Espera, ¿me estás diciendo que usó una IA 328 00:10:53,720 --> 00:10:55,340 para programar esta otra IA? 329 00:10:55,480 --> 00:10:57,620 Una IA construyendo a otra IA. 330 00:10:57,639 --> 00:10:59,500 Pero lo increíble no es solo eso, es 331 00:10:59,500 --> 00:11:00,240 cómo lo hizo. 332 00:11:00,419 --> 00:11:00,700 ¿Cómo? 333 00:11:00,919 --> 00:11:03,220 No le fue dando órdenes paso a paso 334 00:11:03,220 --> 00:11:04,600 en plan, ahora escribe esta función. 335 00:11:04,759 --> 00:11:05,000 No. 336 00:11:05,120 --> 00:11:08,019 El propio proceso de desarrollo fue agéntico. 337 00:11:08,240 --> 00:11:09,000 ¿Qué quieres decir? 338 00:11:09,000 --> 00:11:09,419 ¿Qué quieres decir con eso? 339 00:11:09,580 --> 00:11:11,340 Pues que le dio al asistente de codificación 340 00:11:11,340 --> 00:11:13,279 un plan de alto nivel, una lista de 341 00:11:13,279 --> 00:11:15,019 tareas y unas reglas generales. 342 00:11:15,059 --> 00:11:15,779 ¿Y con eso? 343 00:11:15,899 --> 00:11:16,980 ¿Lo dejó trabajar solo? 344 00:11:17,159 --> 00:11:19,720 Lo dejó trabajar solo durante largos periodos. 345 00:11:19,820 --> 00:11:21,700 La fuente habla de una sesión de 35 346 00:11:21,700 --> 00:11:23,500 minutos seguidos en la que la IA estuvo 347 00:11:23,500 --> 00:11:26,679 escribiendo código, creando las bases de datos, validando 348 00:11:26,679 --> 00:11:27,200 su trabajo. 349 00:11:27,500 --> 00:11:28,179 ¡Madre mía! 350 00:11:28,340 --> 00:11:30,679 Es un agente de IA que, de forma 351 00:11:30,679 --> 00:11:33,539 autónoma, construye otro agente de IA. 352 00:11:33,679 --> 00:11:36,059 Es una muñeca rusa de inteligencia artificial. 353 00:11:36,460 --> 00:11:38,980 Así que, ¿cuál es…? 354 00:11:39,000 --> 00:11:41,899 ¿Cuál es la gran conclusión de todo esto, 355 00:11:42,019 --> 00:11:43,700 la idea con la que nos tenemos que 356 00:11:43,700 --> 00:11:43,940 quedar? 357 00:11:44,360 --> 00:11:46,960 Pues yo diría que la idea principal es 358 00:11:46,960 --> 00:11:48,799 que estamos yendo más allá de la simple 359 00:11:48,799 --> 00:11:50,259 recuperación de información. 360 00:11:50,899 --> 00:11:54,440 La combinación de este enfoque agéntico, con múltiples 361 00:11:54,440 --> 00:11:57,179 formas de ver el conocimiento, vectores y grafos, 362 00:11:57,299 --> 00:11:59,799 permite a las IAs no sólo recuperar datos, 363 00:12:00,000 --> 00:12:03,000 sino hacerlo de una forma mucho más inteligente. 364 00:12:03,179 --> 00:12:04,840 ¿Mucho más humana? 365 00:12:04,980 --> 00:12:07,799 Eligiendo la herramienta adecuada para cada tarea, como 366 00:12:07,799 --> 00:12:08,639 haría un experto. 367 00:12:08,639 --> 00:12:09,440 Exacto. 368 00:12:09,440 --> 00:12:11,799 Ya no se trata sólo de buscar, se 369 00:12:11,799 --> 00:12:12,919 trata de investigar. 370 00:12:13,000 --> 00:12:14,899 Y esto me lleva a una reflexión final, 371 00:12:15,059 --> 00:12:18,019 un pensamiento un poco provocador. 372 00:12:18,679 --> 00:12:21,899 Si un agente de IA ya puede aprender 373 00:12:21,899 --> 00:12:24,919 a elegir la mejor herramienta para buscar en 374 00:12:24,919 --> 00:12:27,259 la información que le damos… ¿Qué pasará cuando 375 00:12:27,259 --> 00:12:30,039 empiece a cuestionar la calidad de esas fuentes 376 00:12:30,039 --> 00:12:31,100 que le proporcionamos? 377 00:12:31,659 --> 00:12:34,500 ¿Cuándo pasará de ser un recuperador de datos 378 00:12:34,500 --> 00:12:38,259 a un evaluador crítico del conocimiento? 379 00:12:38,639 --> 00:12:41,580 Nos despedimos por hoy, recordándoos que las voces 380 00:12:41,580 --> 00:12:44,019 que escuchas han sido generadas por una IA, 381 00:12:44,120 --> 00:12:45,159 Notebook LM. 382 00:12:45,580 --> 00:12:48,059 Aunque el podcast no carece del factor humano, 383 00:12:48,120 --> 00:12:50,659 porque en la trastienda está Julio Pablo Vázquez, 384 00:12:50,799 --> 00:12:54,159 que investiga buscando temas interesantes que traeros prácticamente 385 00:12:54,159 --> 00:12:55,080 todos los días. 386 00:12:55,220 --> 00:12:56,279 Os manda saludos. 387 00:12:56,299 --> 00:12:58,240 Hasta el próximo episodio, queridos humanos. 388 00:13:09,490 --> 00:13:11,690 Y hasta aquí el episodio de hoy. 389 00:13:11,809 --> 00:13:13,549 Muchas gracias por tu atención. 390 00:13:23,179 --> 00:13:25,039 Esto es BIMPRAXIS. 391 00:13:26,779 --> 00:13:27,840 El próximo episodio.