1 00:00:10,000 --> 00:00:15,800 Buenas, esto es BIMPRAXIS, el podcast donde el 2 00:00:15,800 --> 00:00:17,920 BIM se encuentra con la inteligencia artificial. 3 00:00:20,519 --> 00:00:23,620 Exploramos la ciencia, la tecnología y el futuro 4 00:00:23,620 --> 00:00:26,559 desde el enfoque de la arquitectura, ingeniería y 5 00:00:26,559 --> 00:00:27,179 construcción. 6 00:00:28,859 --> 00:00:29,519 ¡Empezamos! 7 00:00:37,299 --> 00:00:39,259 Hola de nuevo a un episodio más de 8 00:00:39,259 --> 00:00:41,219 BIMPRAXIS. 9 00:00:41,219 --> 00:00:43,619 Hoy llegamos al número 50. 10 00:00:43,619 --> 00:00:45,659 50 ya, felicidades. 11 00:00:45,759 --> 00:00:46,539 Gracias. 12 00:00:46,539 --> 00:00:48,979 Y para celebrar este número tan redondo, vamos 13 00:00:48,979 --> 00:00:51,060 a comenzar una nueva serie dedicada a una 14 00:00:51,060 --> 00:00:54,359 tecnología que está, bueno, en boca de todos. 15 00:00:54,359 --> 00:00:57,299 El RAG, Retrieval Augmented Generation. 16 00:00:57,740 --> 00:00:58,799 Exacto. 17 00:00:58,799 --> 00:01:00,380 Hoy vamos a ver qué es eso de 18 00:01:00,380 --> 00:01:01,439 los RAG. 19 00:01:01,439 --> 00:01:03,520 Porque, a ver, a menudo oímos que los 20 00:01:03,520 --> 00:01:06,540 grandes modelos de lenguaje, los LLMs, a veces 21 00:01:06,540 --> 00:01:07,900 se inventan cosas, ¿no? 22 00:01:07,900 --> 00:01:10,680 O dan información que ya está anticuada. 23 00:01:10,640 --> 00:01:11,719 Totalmente. 24 00:01:11,719 --> 00:01:14,299 ¿Y si hubiera una forma de darles, no 25 00:01:14,299 --> 00:01:17,459 sé, como una biblioteca personalizada y que estuviera 26 00:01:17,459 --> 00:01:18,239 siempre al día? 27 00:01:18,480 --> 00:01:19,939 Pues es que has dado justo en el 28 00:01:19,939 --> 00:01:20,319 clavo. 29 00:01:20,319 --> 00:01:22,700 Ese es uno de los mayores desafíos de 30 00:01:22,700 --> 00:01:23,780 los LLMs ahora mismo. 31 00:01:24,000 --> 00:01:24,780 Claro. 32 00:01:24,620 --> 00:01:27,280 Y RAG es precisamente la solución a ese 33 00:01:27,280 --> 00:01:28,260 problema. 34 00:01:28,260 --> 00:01:30,219 Es una arquitectura que permite que un modelo, 35 00:01:30,219 --> 00:01:33,519 antes de responder, pueda consultar fuentes de información 36 00:01:33,519 --> 00:01:36,500 muy específicas y, sobre todo, actualizadas. 37 00:01:36,780 --> 00:01:39,420 Bien, pues vamos a desgranar esto. 38 00:01:39,420 --> 00:01:41,900 La analogía de la biblioteca me parece muy, 39 00:01:41,900 --> 00:01:43,000 muy potente. 40 00:01:42,939 --> 00:01:44,739 Sí, funciona muy bien. 41 00:01:44,739 --> 00:01:47,000 O sea, es como tener un asistente virtual 42 00:01:47,000 --> 00:01:48,799 al que, en lugar de confiar solo en 43 00:01:48,799 --> 00:01:51,099 lo que aprendió durante su entrenamiento hace meses 44 00:01:51,099 --> 00:01:54,000 o años, que se queda viejo enseguida. 45 00:01:54,140 --> 00:01:56,719 le damos acceso a una biblioteca en tiempo 46 00:01:56,719 --> 00:01:57,420 real. 47 00:01:57,459 --> 00:01:58,340 Eso es. 48 00:01:58,500 --> 00:02:01,219 El proceso, a grandes rasgos, es bastante elegante 49 00:02:00,760 --> 00:02:03,359 y se puede dividir como en tres pasos. 50 00:02:03,540 --> 00:02:04,140 A ver. 51 00:02:04,260 --> 00:02:05,379 Primero, la búsqueda. 52 00:02:06,060 --> 00:02:08,340 El sistema recibe la pregunta y, en lugar 53 00:02:08,340 --> 00:02:10,680 de lanzarse a responder, lo que hace es 54 00:02:10,680 --> 00:02:12,780 usar esa pregunta para buscar en una base 55 00:02:12,780 --> 00:02:15,439 de datos de conocimiento que hemos creado nosotros. 56 00:02:14,659 --> 00:02:17,960 Una base de datos con nuestros propios documentos, 57 00:02:17,960 --> 00:02:18,439 ¿no? 58 00:02:18,599 --> 00:02:22,719 PDFs, manuales, lo que sea. 59 00:02:22,280 --> 00:02:23,979 Justo, lo que necesitemos. 60 00:02:24,500 --> 00:02:26,199 Una vez que ha buscado, llega el segundo 61 00:02:26,199 --> 00:02:28,060 paso, la recuperación. 62 00:02:28,060 --> 00:02:30,599 De todo lo que encuentra, el sistema elige 63 00:02:30,599 --> 00:02:34,199 sólo los fragmentos de información más relevantes, los 64 00:02:34,199 --> 00:02:36,280 trocitos de texto que de verdad parecen contener 65 00:02:36,280 --> 00:02:36,879 la respuesta. 66 00:02:37,360 --> 00:02:41,840 Ok, busca, recupera lo importante y… El tercer 67 00:02:41,840 --> 00:02:43,800 paso, la generación. 68 00:02:43,900 --> 00:02:45,020 Y aquí es donde está la magia. 69 00:02:45,680 --> 00:02:48,840 El modelo de lenguaje, el LLM, recibe dos 70 00:02:48,840 --> 00:02:52,780 cosas, la pregunta original y, además, esos fragmentos 71 00:02:52,780 --> 00:02:53,960 que hemos recuperado. 72 00:02:54,000 --> 00:02:56,060 Ah, como contexto adicional. 73 00:02:56,080 --> 00:02:56,580 Exacto. 74 00:02:56,580 --> 00:02:59,460 Es como si le dijéramos, oye, responde a 75 00:02:59,460 --> 00:03:01,620 esto, pero por favor, basándote en esta información 76 00:03:01,620 --> 00:03:03,520 que te estoy dando ahora mismo. 77 00:03:03,379 --> 00:03:05,840 Aquí es donde se pone realmente interesante para 78 00:03:05,840 --> 00:03:06,620 mí. 79 00:03:06,620 --> 00:03:09,680 Quiero entender bien ese viaje de los datos. 80 00:03:09,680 --> 00:03:12,500 O sea, ¿cómo se construye esa biblioteca? 81 00:03:12,795 --> 00:03:13,315 Claro. 82 00:03:13,315 --> 00:03:16,795 Porque hablamos de PDFs, documentos de Notion, Excel. 83 00:03:16,795 --> 00:03:19,955 ¿Cómo transformamos, por ejemplo, un manual de 500 84 00:03:19,955 --> 00:03:22,835 páginas en algo que una máquina pueda consultar 85 00:03:22,835 --> 00:03:23,935 así de rápido? 86 00:03:23,795 --> 00:03:25,735 Esa es la pregunta del millón, porque ahí 87 00:03:25,735 --> 00:03:27,675 está el núcleo de un buen sistema RAG. 88 00:03:27,675 --> 00:03:29,535 Hay dos fases muy claras. 89 00:03:29,535 --> 00:03:31,335 La primera es la preparación de los datos. 90 00:03:31,875 --> 00:03:34,255 Que se hace solo una vez, imagino. 91 00:03:34,135 --> 00:03:36,035 Eso es, al principio. 92 00:03:36,035 --> 00:03:37,895 Y lo primero dentro de esa preparación es 93 00:03:37,895 --> 00:03:40,495 lo que llamamos chunking o fragmentación. 94 00:03:41,135 --> 00:03:42,455 Trocear los documentos. 95 00:03:42,955 --> 00:03:44,095 Exacto. 96 00:03:44,095 --> 00:03:45,575 No le puedes dar al modelo las 500 97 00:03:45,575 --> 00:03:46,855 páginas de golpe. 98 00:03:46,855 --> 00:03:48,915 Sería un caos. 99 00:03:49,255 --> 00:03:51,535 Así que lo divides en chunks, en fragmentos 100 00:03:51,535 --> 00:03:53,455 más pequeños, más manejables. 101 00:03:53,335 --> 00:03:56,215 ¿Y hay un tamaño ideal para esos trozos? 102 00:03:56,215 --> 00:03:57,115 ¿Una frase? 103 00:03:57,115 --> 00:03:57,795 ¿Un párrafo? 104 00:03:58,175 --> 00:04:00,295 Uf, no hay una fórmula mágica. 105 00:04:00,295 --> 00:04:01,755 Ahí empieza un poco el arte de esto, 106 00:04:01,755 --> 00:04:02,055 ¿sabes? 107 00:04:02,735 --> 00:04:04,695 Depende totalmente del caso de uso. 108 00:04:04,895 --> 00:04:07,295 Un chunk muy pequeño puede no tener contexto. 109 00:04:07,255 --> 00:04:09,935 Y uno muy grande puede tener demasiado ruido, 110 00:04:09,935 --> 00:04:11,855 información que no viene al caso. 111 00:04:11,755 --> 00:04:12,095 Justo. 112 00:04:12,695 --> 00:04:14,815 El siguiente paso es clave, porque los modelos, 113 00:04:14,815 --> 00:04:18,775 como bien decías, no entienden texto, entienden números. 114 00:04:18,555 --> 00:04:19,255 Claro. 115 00:04:19,175 --> 00:04:21,135 Así que hay que traducir. 116 00:04:21,135 --> 00:04:24,295 Y eso se llama crear embeddings, o vectorizar. 117 00:04:24,515 --> 00:04:26,435 Cada uno de esos chunks de texto se 118 00:04:26,435 --> 00:04:29,735 convierte en una representación numérica, en un vector. 119 00:04:29,655 --> 00:04:32,135 Como una coordenada en un mapa de significados, 120 00:04:32,135 --> 00:04:32,175 ¿no? 121 00:04:32,315 --> 00:04:33,675 Me gusta esa analogía. 122 00:04:33,675 --> 00:04:35,435 Es exactamente eso. 123 00:04:35,435 --> 00:04:37,895 Cada trozo de texto tiene su propia coordenada. 124 00:04:38,115 --> 00:04:39,835 Y estas coordenadas se guardan en una base 125 00:04:39,835 --> 00:04:43,075 de datos especial, una base de datos vectorial. 126 00:04:42,915 --> 00:04:45,535 Vale, que está pensada para buscar por similitud, 127 00:04:45,535 --> 00:04:47,355 no por palabras exactas. 128 00:04:47,135 --> 00:04:47,815 Eso es. 129 00:04:47,815 --> 00:04:50,475 Hay soluciones muy complejas, pero muchas veces basta 130 00:04:50,475 --> 00:04:52,155 con una base de datos postgres de toda 131 00:04:52,155 --> 00:04:54,675 la vida con una extensión como PG Vector. 132 00:04:54,555 --> 00:04:55,435 Entendido. 133 00:04:55,435 --> 00:04:58,535 Entonces, esa es la fase de preparación. 134 00:04:58,535 --> 00:05:00,235 La biblioteca está lista. 135 00:05:00,235 --> 00:05:02,715 Ahora llega una pregunta de un usuario. 136 00:05:02,715 --> 00:05:03,395 ¿Qué pasa? 137 00:05:03,475 --> 00:05:04,935 Pues se repite el proceso, pero a la 138 00:05:04,935 --> 00:05:05,875 inversa. 139 00:05:05,875 --> 00:05:07,855 La pregunta del usuario también se convierte en 140 00:05:07,855 --> 00:05:09,815 un vector, en una coordenada en ese mismo 141 00:05:09,815 --> 00:05:10,595 mapa. 142 00:05:10,335 --> 00:05:13,315 Usando el mismo modelo de traducción, supongo. 143 00:05:13,315 --> 00:05:14,475 El mismo, sí. 144 00:05:14,635 --> 00:05:16,715 Y con esa coordenada, el sistema va a 145 00:05:16,715 --> 00:05:19,155 la base de datos vectorial y le dice, 146 00:05:19,215 --> 00:05:21,655 encuéntrame los 5 o 10 fragmentos que estén 147 00:05:21,655 --> 00:05:23,315 más cerca de este punto. 148 00:05:23,535 --> 00:05:25,195 Y esos fragmentos son los que se le 149 00:05:25,195 --> 00:05:27,935 dan al ELM junto a la pregunta original. 150 00:05:27,775 --> 00:05:28,315 Exacto. 151 00:05:28,315 --> 00:05:29,955 Ese es el contexto. 152 00:05:30,035 --> 00:05:32,655 Así es como aumentamos su conocimiento para que 153 00:05:32,655 --> 00:05:35,475 dé una respuesta precisa y, sobre todo, basada 154 00:05:35,475 --> 00:05:36,355 en nuestros datos. 155 00:05:36,895 --> 00:05:37,235 Vale. 156 00:05:37,235 --> 00:05:39,775 El proceso técnico queda claro. 157 00:05:39,715 --> 00:05:41,795 Pero, vamos a la práctica. 158 00:05:42,215 --> 00:05:44,515 ¿Qué significa todo esto para una empresa? 159 00:05:44,495 --> 00:05:46,435 Pues significa un cambio radical. 160 00:05:46,755 --> 00:05:48,635 Piensa en un chatbot de servicio al cliente. 161 00:05:48,935 --> 00:05:51,435 ¿El que recomendaba productos de la competencia? 162 00:05:51,475 --> 00:05:52,595 Ese mismo. 163 00:05:52,595 --> 00:05:55,155 Con RAH, ese chatbot podría consultar en tiempo 164 00:05:55,155 --> 00:05:57,215 real los manuales de producto y guiar a 165 00:05:57,215 --> 00:05:59,335 una persona paso a paso para solucionar un 166 00:05:59,335 --> 00:06:00,215 problema. 167 00:06:00,055 --> 00:06:02,155 ¿Citando la página exacta del manual? 168 00:06:02,175 --> 00:06:03,335 Por ejemplo. 169 00:06:03,335 --> 00:06:05,415 O un asistente para un equipo de médicos 170 00:06:05,415 --> 00:06:07,715 que esté al día con las últimas investigaciones 171 00:06:07,715 --> 00:06:10,695 publicadas la semana pasada, no hace dos años. 172 00:06:11,395 --> 00:06:14,215 Un tutor virtual que pueda citar fuentes académicas 173 00:06:14,215 --> 00:06:16,375 actualizadas para un estudiante. 174 00:06:16,375 --> 00:06:18,315 Las aplicaciones son enormes. 175 00:06:18,675 --> 00:06:19,875 Lo son. 176 00:06:19,875 --> 00:06:22,075 Y las ventajas son muy claras. 177 00:06:22,075 --> 00:06:24,935 Primero, la información está siempre actualizada. 178 00:06:25,051 --> 00:06:28,031 Segundo, las respuestas son mucho más fiables. 179 00:06:28,031 --> 00:06:30,491 Se reducen las alucinaciones a casi cero. 180 00:06:30,411 --> 00:06:32,611 Y tercero, que para mí es crucial, son 181 00:06:32,611 --> 00:06:34,371 respuestas verificables. 182 00:06:34,471 --> 00:06:36,091 Se puede saber de dónde ha salido la 183 00:06:36,091 --> 00:06:36,931 información. 184 00:06:36,911 --> 00:06:38,851 Eso da una confianza brutal. 185 00:06:38,851 --> 00:06:39,831 Y luego está el coste. 186 00:06:40,511 --> 00:06:42,571 Reentrenar un modelo entero, lo que se conoce 187 00:06:42,571 --> 00:06:45,531 como fine tuning, es lentísimo y carísimo. 188 00:06:46,391 --> 00:06:48,971 Mientras que actualizar una base de datos es 189 00:06:48,971 --> 00:06:50,691 mucho más ágil y barato. 190 00:06:50,731 --> 00:06:51,931 Muchísimo más. 191 00:06:51,931 --> 00:06:54,371 Ahora, bueno, tampoco es una solución mágica, tiene 192 00:06:54,371 --> 00:06:55,591 sus desafíos. 193 00:06:55,671 --> 00:06:57,411 Claro, no todo va a ser perfecto. 194 00:06:57,371 --> 00:07:00,331 La implementación puede tener su complejidad técnica. 195 00:07:00,350 --> 00:07:02,371 Y esa base de datos hay que mantenerla, 196 00:07:02,371 --> 00:07:03,311 hay que actualizarla. 197 00:07:03,991 --> 00:07:05,011 Y luego está la latencia. 198 00:07:05,391 --> 00:07:06,631 El tiempo de respuesta, ¿no? 199 00:07:07,051 --> 00:07:08,071 Porque hay más pasos. 200 00:07:08,350 --> 00:07:08,850 Exacto. 201 00:07:08,850 --> 00:07:10,711 Puede tardar un poquito más. 202 00:07:10,791 --> 00:07:12,171 Y el coste por consulta. 203 00:07:12,171 --> 00:07:15,011 Al pasarle más texto al modelo, puede ser 204 00:07:15,011 --> 00:07:16,451 un poco más alto. 205 00:07:16,451 --> 00:07:17,551 Hay que buscar un equilibrio. 206 00:07:18,131 --> 00:07:19,171 Entendido. 207 00:07:19,171 --> 00:07:21,171 O sea, el RAG básico es un punto 208 00:07:21,171 --> 00:07:22,471 de partida genial. 209 00:07:22,471 --> 00:07:24,631 Pero la conversación de verdad está en cómo 210 00:07:24,631 --> 00:07:26,211 optimizarlo, ¿no? 211 00:07:26,211 --> 00:07:29,051 Veo que a menudo se combinan varias estrategias. 212 00:07:28,751 --> 00:07:30,431 Sí, aquí es donde entramos ya en la 213 00:07:30,431 --> 00:07:31,671 parte avanzada. 214 00:07:31,671 --> 00:07:34,350 Por ejemplo, una técnica muy común es el 215 00:07:34,350 --> 00:07:35,011 re-ranking. 216 00:07:35,491 --> 00:07:36,751 Reordenar, supongo. 217 00:07:36,471 --> 00:07:38,791 Sí, es un enfoque de dos pasos. 218 00:07:38,791 --> 00:07:40,211 En lugar de pedirle a la base de 219 00:07:40,211 --> 00:07:43,331 datos los cinco mejores resultados, le pides, no 220 00:07:43,331 --> 00:07:43,850 sé, 50. 221 00:07:44,431 --> 00:07:48,551 Pero, espera, darle 50 fragmentos al LLM no 222 00:07:48,551 --> 00:07:50,011 es contraproducente. 223 00:07:50,011 --> 00:07:51,211 ¿Lo puedes aturar? 224 00:07:51,251 --> 00:07:52,131 Claro. 225 00:07:52,131 --> 00:07:54,011 Por eso está el segundo paso. 226 00:07:54,011 --> 00:07:56,011 Se usa un modelo mucho más pequeño y 227 00:07:56,011 --> 00:08:00,091 especializado, un re-ranker, cuya única misión es coger 228 00:08:00,091 --> 00:08:04,671 esos 50 fragmentos y reordenarlos por relevancia real. 229 00:08:04,571 --> 00:08:05,691 Ah, vale. 230 00:08:05,671 --> 00:08:08,011 Y solo después de ese filtro le pasas 231 00:08:08,011 --> 00:08:11,451 al LLM grande los cinco mejores de verdad. 232 00:08:11,451 --> 00:08:14,350 La calidad de la respuesta mejora una barbaridad. 233 00:08:14,611 --> 00:08:15,791 Inteligente. 234 00:08:15,791 --> 00:08:18,391 Primero una búsqueda amplia y luego un filtro 235 00:08:18,391 --> 00:08:19,231 preciso. 236 00:08:19,231 --> 00:08:20,251 Me gusta. 237 00:08:20,251 --> 00:08:23,391 También he leído sobre la fragmentación consciente del 238 00:08:23,391 --> 00:08:24,411 contexto. 239 00:08:24,291 --> 00:08:25,631 Context-aware chunking. 240 00:08:25,631 --> 00:08:27,051 Exacto. 241 00:08:27,051 --> 00:08:28,231 Va de la mano con lo que decíamos 242 00:08:28,231 --> 00:08:29,291 antes. 243 00:08:29,291 --> 00:08:31,031 No vale con cortar un texto cada mil 244 00:08:31,031 --> 00:08:32,191 caracteres y ya. 245 00:08:32,171 --> 00:08:33,931 Hay que respetar la estructura. 246 00:08:33,850 --> 00:08:36,530 Hay que buscar los límites naturales del documento. 247 00:08:37,091 --> 00:08:39,571 El final de un párrafo, un título, el 248 00:08:39,571 --> 00:08:41,791 pie de una tabla… Se trata de preservar 249 00:08:41,791 --> 00:08:42,711 el sentido. 250 00:08:43,071 --> 00:08:44,471 Es que la calidad de lo que metes 251 00:08:44,471 --> 00:08:46,350 en la base de datos tiene un impacto 252 00:08:46,350 --> 00:08:48,610 directo en la calidad de lo que sacas. 253 00:08:48,650 --> 00:08:50,110 Basura entra, basura sale. 254 00:08:50,110 --> 00:08:51,530 De toda la vida. 255 00:08:51,371 --> 00:08:52,490 Así es. 256 00:08:52,490 --> 00:08:55,091 Luego, hay otra estrategia muy potente. 257 00:08:55,131 --> 00:08:57,131 El agentic RAG. 258 00:08:57,131 --> 00:08:59,811 El ra-agéntico. 259 00:08:59,711 --> 00:09:01,831 Esto ya suena a ciencia ficción. 260 00:09:01,751 --> 00:09:03,431 Bueno, un poco. 261 00:09:03,431 --> 00:09:05,711 Es darle al sistema la capacidad de razonar 262 00:09:05,711 --> 00:09:07,410 sobre cómo tiene que buscar. 263 00:09:07,410 --> 00:09:09,311 O sea, que no siga siempre los mismos 264 00:09:09,311 --> 00:09:09,751 pasos. 265 00:09:10,091 --> 00:09:11,211 Eso es. 266 00:09:11,211 --> 00:09:13,610 El agente analiza la pregunta y decide. 267 00:09:13,610 --> 00:09:15,270 Si es una pregunta muy concreta, como cuál 268 00:09:15,270 --> 00:09:17,711 fue el beneficio en 2023, pues hace una 269 00:09:17,711 --> 00:09:19,350 búsqueda muy específica. 270 00:09:19,071 --> 00:09:21,451 Pero si es algo más abierto, como cuáles 271 00:09:21,451 --> 00:09:23,471 son los riesgos estratégicos de la empresa. 272 00:09:23,490 --> 00:09:25,691 Pues a lo mejor decide que es más 273 00:09:25,691 --> 00:09:28,891 útil recuperar y leerse el informe anual completo, 274 00:09:28,891 --> 00:09:30,910 para tener una visión global. 275 00:09:30,091 --> 00:09:33,471 Es más flexible, pero también menos predecible. 276 00:09:33,490 --> 00:09:36,110 Claro, hay que programarlo con mucho cuidado para 277 00:09:36,110 --> 00:09:37,886 que tome buenas decisiones. 278 00:09:37,886 --> 00:09:38,806 Desde luego. 279 00:09:38,966 --> 00:09:40,446 Y ya por último, una que a mí 280 00:09:40,446 --> 00:09:43,106 me parece fascinante, que es el fine tuning 281 00:09:43,106 --> 00:09:44,586 de los embeddings. 282 00:09:44,466 --> 00:09:46,766 O sea, afinar al traductor. 283 00:09:46,706 --> 00:09:47,686 Exacto. 284 00:09:47,506 --> 00:09:49,866 El modelo que convierte texto en vectores suele 285 00:09:49,866 --> 00:09:53,926 ser genérico, pero podemos reentrenarlo con datos de 286 00:09:53,926 --> 00:09:57,666 un dominio muy específico, legal, médico, financiero, para 287 00:09:57,666 --> 00:09:59,766 que entienda la jerga y los matices de 288 00:09:59,766 --> 00:10:00,486 ese campo. 289 00:10:00,286 --> 00:10:02,366 Y lo que se consigue es que un 290 00:10:02,366 --> 00:10:06,026 modelo de embeddings pequeño, pero muy especializado, supera 291 00:10:06,026 --> 00:10:08,566 a modelos gigantescos y genéricos en esas tareas 292 00:10:08,566 --> 00:10:09,646 concretas. 293 00:10:09,646 --> 00:10:12,306 La comprensión del dominio es mucho más profunda. 294 00:10:12,306 --> 00:10:13,366 Es increíble. 295 00:10:13,366 --> 00:10:15,526 Esto me recuerda a un ejemplo que leí. 296 00:10:15,526 --> 00:10:17,446 Entrenar un modelo no para que busque por 297 00:10:17,446 --> 00:10:19,926 similitud de significado, sino por sentimiento. 298 00:10:20,646 --> 00:10:22,346 Sí, es un caso de uso genial. 299 00:10:22,526 --> 00:10:24,726 De forma que una frase como el pedido 300 00:10:24,726 --> 00:10:27,606 llegó roto se considere muy similar a la 301 00:10:27,606 --> 00:10:29,926 web siempre dice que no hay stock. 302 00:10:29,926 --> 00:10:32,026 No porque usen las mismas palabras, sino porque 303 00:10:32,026 --> 00:10:34,166 ambas expresan frustración. 304 00:10:33,806 --> 00:10:35,546 Ese es el poder de la técnica. 305 00:10:35,546 --> 00:10:38,666 Te permite redefinir qué significa similar para tu 306 00:10:38,666 --> 00:10:39,746 problema. 307 00:10:39,746 --> 00:10:41,506 La personalización es total. 308 00:10:41,506 --> 00:10:44,386 Entonces, si lo unimos todo, queda claro que 309 00:10:44,386 --> 00:10:46,826 el RAGE no es solo una mejora técnica, 310 00:10:46,826 --> 00:10:46,846 ¿no? 311 00:10:46,846 --> 00:10:49,586 Es un paso hacia una inteligencia artificial, no 312 00:10:49,586 --> 00:10:51,386 sé, más transparente, más fiable. 313 00:10:51,946 --> 00:10:52,906 Totalmente. 314 00:10:52,906 --> 00:10:54,306 Es que pasamos de una IA que es 315 00:10:54,306 --> 00:10:57,266 como un sabelotodo que a veces patina… ¿Y 316 00:10:57,266 --> 00:10:58,786 que no sabes de dónde saca las cosas? 317 00:10:59,006 --> 00:11:00,806 A una IA que se comporta como una 318 00:11:00,806 --> 00:11:04,806 investigadora experta, que consulta, contrasta y cita sus 319 00:11:04,806 --> 00:11:05,126 fuentes. 320 00:11:05,826 --> 00:11:07,766 Y para una empresa o un gobierno, eso 321 00:11:07,766 --> 00:11:09,546 es infinitamente más valioso. 322 00:11:09,746 --> 00:11:11,406 Por eso se está convirtiendo en la arquitectura 323 00:11:11,406 --> 00:11:14,146 por defecto para resolver problemas del mundo real. 324 00:11:14,266 --> 00:11:16,146 Y esto me lleva a una reflexión final, 325 00:11:16,146 --> 00:11:17,886 una pregunta que me queda en el aire. 326 00:11:17,886 --> 00:11:18,506 A ver, dispara. 327 00:11:18,606 --> 00:11:22,266 Todas estas estrategias se centran en encontrar información 328 00:11:22,266 --> 00:11:25,686 que es semánticamente similar a una pregunta. 329 00:11:25,966 --> 00:11:28,846 Pero, ¿qué pasa cuando la respuesta más útil, 330 00:11:28,846 --> 00:11:31,406 la más creativa, no está en un pasaje 331 00:11:31,406 --> 00:11:34,186 que suena parecido, sino en un dato que 332 00:11:34,186 --> 00:11:36,826 a primera vista no parece tener relación? 333 00:11:37,926 --> 00:11:40,846 ¿Cómo podrían los futuros sistemas aprender a dar 334 00:11:40,846 --> 00:11:44,366 esos saltos, a conectar piezas de información dispares 335 00:11:43,886 --> 00:11:47,086 dispares para resolver un problema como hace la 336 00:11:47,086 --> 00:11:48,726 intuición de una persona experta. 337 00:11:50,006 --> 00:11:51,706 Llegamos al final por hoy. 338 00:11:51,706 --> 00:11:54,066 El podcast de BIMPRAXIS está dirigido por un 339 00:11:54,066 --> 00:11:56,246 humano, Julio Pablo Vázquez. 340 00:11:56,246 --> 00:11:57,926 Te esperamos en el próximo episodio. 341 00:12:09,306 --> 00:12:11,486 Y hasta aquí el episodio de hoy. 342 00:12:11,486 --> 00:12:13,066 Muchas gracias por tu atención. 343 00:12:22,946 --> 00:12:25,086 Esto es BIMPRAXIS. 344 00:12:25,086 --> 00:12:27,186 Nos escuchamos en el próximo episodio. 345 00:12:43,886 --> 00:12:44,266 Música