1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,350 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,950 --> 00:00:29,630 ¡Empezamos! 4 00:00:37,050 --> 00:00:43,190 Imagina la escena, un desayuno familiar, un domingo cualquiera, y de repente alguien suelta. 5 00:00:43,190 --> 00:00:48,550 Oye, ¿qué he pensado que voy a montar una empresa? Para competir con Google. 6 00:00:48,930 --> 00:00:52,230 Las carcajadas se oirían, no sé, a un kilómetro a la redonda. 7 00:00:52,570 --> 00:00:58,650 Sería una broma fantástica, claro. Pues bien, esa es la historia real de Aravind Srinivas, 8 00:00:59,030 --> 00:01:06,150 un científico brillante sin ninguna experiencia empresarial que un día decidió desafiar al mayor gigante tecnológico del planeta. 9 00:01:06,510 --> 00:01:11,570 Y lo más increíble de todo es que contra todo pronóstico parece que podría estar consiguiéndolo. 10 00:01:11,570 --> 00:01:13,170 Hoy vamos a meternos de lleno. 11 00:01:13,190 --> 00:01:22,090 En la historia de Perplexity AI, la fuente principal que tenemos sobre la mesa es un análisis muy, muy completo del canal de YouTube Gustavo Entrala. 12 00:01:22,130 --> 00:01:31,850 Y nuestra misión es desgranar cómo una idea que, a ver, sonaba a suicidio empresarial, se está convirtiendo en un competidor muy serio. 13 00:01:32,690 --> 00:01:38,530 Vamos a ver la estrategia, la mentalidad de su fundador y un crecimiento que, la verdad, desafía toda lógica. 14 00:01:38,530 --> 00:01:42,230 Es que, para que nos hagamos una idea de la locura que es esto, 15 00:01:42,230 --> 00:01:45,230 hay que entender primero la magnitud del monstruo. 16 00:01:45,490 --> 00:01:45,510 Claro. 17 00:01:45,970 --> 00:01:46,910 Google no es una empresa. 18 00:01:47,590 --> 00:01:49,590 Es, es un verbo. 19 00:01:50,550 --> 00:01:55,930 Es el dueño absoluto de la puerta de entrada a Internet para 5.000 millones de personas. 20 00:01:56,290 --> 00:01:58,350 5.000 millones, es que la cifra marea. 21 00:01:58,570 --> 00:01:59,190 Totalmente. 22 00:01:59,690 --> 00:02:06,850 En 2024, sus ingresos solo por anuncios de búsqueda se acercaron a los 200.000 millones de dólares. 23 00:02:07,490 --> 00:02:08,450 Es una mina de oro. 24 00:02:09,230 --> 00:02:09,870 Inagotable. 25 00:02:09,870 --> 00:02:12,130 Y en medio de todo eso llega Perplexity. 26 00:02:12,350 --> 00:02:14,990 Con una idea que es, bueno, radicalmente opuesta. 27 00:02:15,110 --> 00:02:15,590 Justo. 28 00:02:16,010 --> 00:02:22,010 En lugar de la lista de 10 enlaces azules, que ya conocemos, rodeados de publicidad, 29 00:02:22,730 --> 00:02:26,270 te doy una respuesta directa, concisa. 30 00:02:26,830 --> 00:02:29,410 Y esto es clave, con sus fuentes. 31 00:02:29,890 --> 00:02:32,670 Como si te la estuviera dando una experta en el tema. 32 00:02:33,370 --> 00:02:36,690 Y claro, la primera pregunta que a uno se le viene a la cabeza es, 33 00:02:37,470 --> 00:02:38,730 ¿por qué no hace esto Google? 34 00:02:38,730 --> 00:02:42,190 O sea, tiene la tecnología, el talento, el dinero. 35 00:02:42,370 --> 00:02:45,490 ¿Podría aplastar a Perplexity mañana mismo si quisiera? 36 00:02:45,730 --> 00:02:47,170 Y esa es la pregunta al Millén. 37 00:02:47,810 --> 00:02:52,070 Nos lleva directos a lo que en estrategia se llama el dilema del innovador. 38 00:02:52,790 --> 00:02:57,510 Google podría hacer exactamente lo mismo que Perplexity, sin ninguna duda. 39 00:02:58,250 --> 00:03:02,110 Pero si lo hiciera, canibalizaría su negocio actual. 40 00:03:02,310 --> 00:03:03,570 ¿Se estaría disparando en el P? 41 00:03:03,850 --> 00:03:04,410 Exacto. 42 00:03:04,890 --> 00:03:07,150 Destruiría su propia máquina de hacer dinero, 43 00:03:07,450 --> 00:03:10,870 que son los anuncios que rodean a esos 10 enlaces azules. 44 00:03:10,870 --> 00:03:12,830 Es un dilema clásico. 45 00:03:13,150 --> 00:03:15,450 O proteges el negocio que te da de comer hoy, 46 00:03:15,850 --> 00:03:19,170 o apuestas por una innovación que podría destruirlo, 47 00:03:19,370 --> 00:03:20,650 pero que sabes que es el futuro. 48 00:03:21,030 --> 00:03:24,170 Y ese dilema es como una especie de maldición del éxito, ¿no? 49 00:03:24,530 --> 00:03:27,870 Cuanto más ganas, más tienes que perder, y eso te paraliza. 50 00:03:28,270 --> 00:03:28,750 Totalmente. 51 00:03:29,230 --> 00:03:33,230 Perplexity, al no tener nada que perder, pues tenía la libertad de ser radical. 52 00:03:33,850 --> 00:03:37,730 Pero, más allá del dinero, ¿no es también un problema de mentalidad? 53 00:03:37,990 --> 00:03:38,790 ¿A qué te refieres? 54 00:03:38,790 --> 00:03:39,230 A ver. 55 00:03:39,230 --> 00:03:43,390 Una empresa construida durante 20 años sobre 10 enlaces azules. 56 00:03:43,770 --> 00:03:45,910 ¿Puede realmente pensar en un mundo sin ellos? 57 00:03:46,270 --> 00:03:49,090 ¿Qué pasaría con los miles de ingenieros y comerciales 58 00:03:49,090 --> 00:03:51,090 cuyo trabajo gira en torno a ese modelo? 59 00:03:51,350 --> 00:03:52,450 Has dado en el clavo. 60 00:03:52,610 --> 00:03:56,090 Es un problema cultural y organizativo profundísimo. 61 00:03:56,770 --> 00:04:00,390 La inercia de una organización tan gigantesca es brutal. 62 00:04:00,970 --> 00:04:04,650 Cambiar el rumbo de ese transatlántico no es solo una decisión de negocio, 63 00:04:04,750 --> 00:04:07,210 es una batalla cultural interna. 64 00:04:07,270 --> 00:04:07,610 Claro. 65 00:04:08,390 --> 00:04:08,950 Perplexity. 66 00:04:08,950 --> 00:04:10,210 Sí, no tenía ese problema. 67 00:04:10,750 --> 00:04:12,630 Pero es que tenía todos los demás. 68 00:04:13,170 --> 00:04:15,950 La receta para el fracaso era, vamos, casi perfecta. 69 00:04:16,770 --> 00:04:19,570 Es que si lo pones en un papel de verdad parece una broma. 70 00:04:20,190 --> 00:04:21,150 Vamos a desglosarlo. 71 00:04:21,370 --> 00:04:21,670 Venga. 72 00:04:22,030 --> 00:04:23,590 Primero, el competidor. 73 00:04:24,210 --> 00:04:24,730 Invencible. 74 00:04:25,310 --> 00:04:25,590 Google. 75 00:04:25,890 --> 00:04:27,510 El Goliath definitivo, sí. 76 00:04:27,790 --> 00:04:29,850 Segundo, el modelo de negocio. 77 00:04:30,310 --> 00:04:31,350 Bueno, suicida. 78 00:04:31,950 --> 00:04:35,670 Sin anuncios, que es la única forma conocida de monetizar la búsqueda. 79 00:04:35,870 --> 00:04:36,450 Uf, sí. 80 00:04:36,730 --> 00:04:38,110 Tercero, los costes. 81 00:04:38,110 --> 00:04:39,390 Desorbitados. 82 00:04:39,390 --> 00:04:43,810 Por el almacenamiento de datos y sobre todo por los carísimos chips de envidia. 83 00:04:43,930 --> 00:04:44,870 Una barbaridad. 84 00:04:45,210 --> 00:04:48,650 Y para rematar el fundador, un académico puro, 85 00:04:49,070 --> 00:04:53,850 un investigador sin la más mínima experiencia en rondas de financiación 86 00:04:53,850 --> 00:04:56,270 o estrategias de mercado. 87 00:04:56,850 --> 00:04:59,290 Parecía la receta perfecta para el desastre. 88 00:04:59,690 --> 00:05:00,330 Totalmente. 89 00:05:00,790 --> 00:05:03,030 Y sin embargo, aquí estamos hablando de ellos. 90 00:05:03,450 --> 00:05:07,370 Lo que nos obliga a preguntarnos qué pieza del puzzle nos estamos perdiendo. 91 00:05:07,370 --> 00:05:07,450 ¿Qué pieza? 92 00:05:07,450 --> 00:05:07,470 ¿Qué pieza? 93 00:05:07,470 --> 00:05:07,530 ¿Qué pieza? 94 00:05:07,530 --> 00:05:07,590 ¿Qué pieza? 95 00:05:07,590 --> 00:05:07,650 ¿Qué pieza? 96 00:05:07,650 --> 00:05:07,690 ¿Qué pieza? 97 00:05:07,690 --> 00:05:07,710 ¿Qué pieza? 98 00:05:07,710 --> 00:05:07,730 ¿Qué pieza? 99 00:05:07,730 --> 00:05:07,750 ¿Qué pieza? 100 00:05:07,750 --> 00:05:07,770 ¿Qué pieza? 101 00:05:07,770 --> 00:05:07,790 ¿Qué pieza? 102 00:05:07,790 --> 00:05:07,890 ¿Qué pieza? 103 00:05:08,110 --> 00:05:08,590 ¿Qué pieza es? 104 00:05:08,770 --> 00:05:12,410 Sin duda, la mentalidad y la historia personal de Aravind Srinivas. 105 00:05:12,590 --> 00:05:15,050 Es que para creer que alguien puede asumir este reto, 106 00:05:15,490 --> 00:05:18,310 casi hay que entender de dónde viene, cuál es su motor. 107 00:05:19,010 --> 00:05:23,450 Y el suyo se forjó a miles de kilómetros de Silicon Valley, en Chennai, India. 108 00:05:24,010 --> 00:05:27,890 Creció en una familia donde el conocimiento se valoraba por encima de la riqueza. 109 00:05:28,610 --> 00:05:31,510 Su madre trabajaba para el gobierno, su padre era contable. 110 00:05:31,910 --> 00:05:34,390 Y la educación era el fin último de la vida. 111 00:05:34,890 --> 00:05:35,090 Ya. 112 00:05:35,090 --> 00:05:38,090 La fuente cuenta una anécdota que lo dice todo. 113 00:05:38,570 --> 00:05:44,030 A día de hoy, sus padres están más orgullosos de que tenga un doctorado por la Universidad de Berkeley 114 00:05:44,030 --> 00:05:47,370 que de que su empresa esté valorada en miles de millones de dólares. 115 00:05:47,990 --> 00:05:50,130 Esa anécdota es fantástica. 116 00:05:50,550 --> 00:05:51,810 Te pinta el personaje entero. 117 00:05:52,710 --> 00:05:55,510 Y esa ambición por el conocimiento se la inculcó su madre, 118 00:05:56,110 --> 00:06:00,670 que desde pequeño le señalaba el prestigioso campus del IIT de Madras y le decía 119 00:06:00,670 --> 00:06:02,410 ¡Ahí es donde vas a estudiar! 120 00:06:02,550 --> 00:06:03,670 Y claro, lo consiguió. 121 00:06:03,890 --> 00:06:04,350 Por supuesto. 122 00:06:04,750 --> 00:06:07,750 Pero lo fascinante es cómo una experiencia casi casualmente, 123 00:06:08,090 --> 00:06:10,450 por lo cual forjó su filosofía de trabajo. 124 00:06:10,850 --> 00:06:15,450 Se apuntó a un concurso de machine learning sin tener, vamos, ni idea del tema. 125 00:06:15,730 --> 00:06:16,230 ¿Y qué hizo? 126 00:06:16,610 --> 00:06:18,810 Se empolló 20 libros en una semana. 127 00:06:19,250 --> 00:06:19,930 Todo lo contrario. 128 00:06:20,530 --> 00:06:22,690 Su método fue el antítesis del académico. 129 00:06:23,170 --> 00:06:27,550 En lugar de estudiar la teoría en profundidad, empezó a probar algoritmos a fuerza bruta. 130 00:06:27,850 --> 00:06:28,970 A lo loco, a lo loco. 131 00:06:29,390 --> 00:06:32,150 Uno tras otro, sin saber si era el enfoque correcto. 132 00:06:32,730 --> 00:06:35,870 Era pura ejecución, prueba y error. 133 00:06:36,610 --> 00:06:37,030 Y ganó. 134 00:06:37,030 --> 00:06:38,330 No me digas. 135 00:06:38,410 --> 00:06:38,730 Ganó. 136 00:06:39,430 --> 00:06:43,870 Y esa victoria le enseñó una lección fundamental que marcaría toda su carrera. 137 00:06:44,310 --> 00:06:48,190 El inmenso valor de actuar, de probar cosas, de ejecutar. 138 00:06:48,490 --> 00:06:51,030 Sin tener todas las garantías ni un plan perfecto. 139 00:06:51,890 --> 00:06:53,930 La acción por encima de la planificación. 140 00:06:54,490 --> 00:07:00,410 Esa mentalidad de hacer primero, planificar después, le llevó a Estados Unidos en 2017. 141 00:07:01,210 --> 00:07:04,530 Consiguió una beca para un doctorado en inteligencia artificial en Berkeley. 142 00:07:04,890 --> 00:07:06,650 Uno de los mejores programas del mundo. 143 00:07:06,650 --> 00:07:07,010 Ya. 144 00:07:07,030 --> 00:07:07,430 ¿Ves? 145 00:07:07,850 --> 00:07:10,070 Cuentan que su capacidad de trabajo era mítica. 146 00:07:10,490 --> 00:07:12,270 Su asesor de doctorado llegó a decirle, 147 00:07:12,670 --> 00:07:15,130 Arabin, ¿te das cuenta de que también hay que dormir? 148 00:07:16,130 --> 00:07:19,210 La pesadilla de cualquier departamento de recursos humanos. 149 00:07:19,370 --> 00:07:19,930 Totalmente. 150 00:07:20,390 --> 00:07:21,930 Pero esa obsesión fue clave. 151 00:07:22,310 --> 00:07:22,910 Desde luego. 152 00:07:23,590 --> 00:07:27,290 Pero el verdadero punto de inflexión, el momento de la revelación, 153 00:07:27,930 --> 00:07:30,590 le llegó durante unas prácticas en OpenAI. 154 00:07:31,210 --> 00:07:33,030 Tuvo una conversación con Ilya Sutskever, 155 00:07:33,030 --> 00:07:36,010 que en aquel momento era el científico jefe, 156 00:07:36,010 --> 00:07:38,170 una figura legendaria en el campo. 157 00:07:39,110 --> 00:07:41,510 Arabin llegó a la reunión lleno de ideas, 158 00:07:41,670 --> 00:07:44,190 de algoritmos, complejos, sofisticados. 159 00:07:44,270 --> 00:07:45,690 Con su carpeta bajo el brazo. 160 00:07:45,950 --> 00:07:46,010 Exacto. 161 00:07:47,010 --> 00:07:49,930 Y la respuesta de Sutskever fue directa y brutal. 162 00:07:50,850 --> 00:07:52,370 Todas tus ideas son basura. 163 00:07:53,130 --> 00:07:54,550 Qué manera de empezar una reunión. 164 00:07:54,990 --> 00:07:56,490 Me lo imagino quedándose blanco. 165 00:07:57,030 --> 00:07:58,870 Pero no fue solo una crítica destructiva. 166 00:07:59,430 --> 00:08:03,230 A continuación, Sutskever le dibujó dos círculos en una pizarra. 167 00:08:03,230 --> 00:08:05,990 Un gráfico muy simple que le cambió la vida. 168 00:08:06,010 --> 00:08:07,010 ¿Y qué le dijo? 169 00:08:07,010 --> 00:08:11,750 Le explicó que el futuro de la IA no estaba en diseñar algoritmos elegantes. 170 00:08:11,750 --> 00:08:15,010 El futuro era la combinación de dos conceptos. 171 00:08:15,010 --> 00:08:19,010 El aprendizaje no supervisado y el aprendizaje por refuerzo. 172 00:08:19,010 --> 00:08:20,010 Vale. 173 00:08:20,010 --> 00:08:24,010 Y el motor que alimentaría todo eso sería una cantidad masiva de datos 174 00:08:24,010 --> 00:08:27,010 y una capacidad de computación gigantesca. 175 00:08:27,010 --> 00:08:28,010 Vale. 176 00:08:28,010 --> 00:08:30,010 Esos dos conceptos suenan muy técnicos. 177 00:08:30,010 --> 00:08:31,010 ¿Podemos traducirlos? 178 00:08:31,010 --> 00:08:32,010 Claro. 179 00:08:32,010 --> 00:08:35,110 Para que nos entendamos, el aprendizaje no supervisado, 180 00:08:35,110 --> 00:08:39,110 es como darle a un niño una biblioteca entera y decirle 181 00:08:39,110 --> 00:08:41,110 encuentra patrones por tu cuenta. 182 00:08:41,110 --> 00:08:45,110 El niño aprende la estructura, los conceptos, por sí mismo. 183 00:08:45,110 --> 00:08:46,110 Entendido. 184 00:08:46,110 --> 00:08:50,110 Y el aprendizaje por refuerzo es como enseñarle a jugar a un videojuego, 185 00:08:50,110 --> 00:08:54,110 dándole puntos cuando lo hace bien y quitándoselos cuando lo hace mal. 186 00:08:54,110 --> 00:08:56,110 Vale. La combinación de ambos a escala masiva. 187 00:08:56,110 --> 00:09:00,110 Exacto. Con todos los datos de internet y miles de chips. 188 00:09:00,110 --> 00:09:02,110 Eso es lo que crea la magia. 189 00:09:02,110 --> 00:09:04,110 Para Arabin fue una epifanía. 190 00:09:04,110 --> 00:09:08,110 Comprendió que el camino no era programar a las IAS para que fueran inteligentes, 191 00:09:08,110 --> 00:09:12,110 sino crear las condiciones para que aprendieran por sí mismas. 192 00:09:12,110 --> 00:09:17,110 Y con esa revelación en la cabeza, Arabin, mientras trabajaba en Google, 193 00:09:17,110 --> 00:09:21,110 se obsesionó con la figura de su cofundador, de Larry Page. 194 00:09:21,110 --> 00:09:22,110 Se empapó de su historia. 195 00:09:22,110 --> 00:09:25,110 Devoró libros sobre la historia de la compañía. 196 00:09:25,110 --> 00:09:27,110 Quedó fascinado. 197 00:09:27,110 --> 00:09:30,110 Se dio cuenta de que Google también nació de una tesis doctoral. 198 00:09:30,110 --> 00:09:32,110 Pero le marcó una idea de Page. 199 00:09:32,110 --> 00:09:37,110 Si quieres ejecutar una visión súper ambiciosa, solo hay dos caminos. 200 00:09:37,110 --> 00:09:38,110 ¿Cuáles? 201 00:09:38,110 --> 00:09:41,110 O eres profesor universitario o eres emprendedor. 202 00:09:41,110 --> 00:09:43,110 Arabin descogió el segundo. 203 00:09:43,110 --> 00:09:46,110 Y lo que me parece increíble es que no solo se inspiró en Page, 204 00:09:46,110 --> 00:09:50,110 sino que literalmente creó una lista de verificación, como si fuera una receta. 205 00:09:50,110 --> 00:09:52,110 Es casi un calco, ¿es verdad? 206 00:09:52,110 --> 00:09:56,110 Modeló Perplexity siguiendo meticulosamente la fórmula de Page. 207 00:09:56,110 --> 00:10:02,110 El primer paso que copió, saltar directamente de la tesis doctoral a crear una compañía. 208 00:10:02,110 --> 00:10:04,110 De la academia a la empresa, sin más. 209 00:10:04,110 --> 00:10:06,110 Sin pasos intermedios. 210 00:10:06,110 --> 00:10:10,110 El segundo, y esto es una obsesión en Perplexity, el producto. 211 00:10:10,110 --> 00:10:14,110 Concretamente, la velocidad, la latencia y la precisión. 212 00:10:14,110 --> 00:10:18,110 Está obsesionado con reducir cada milisegundo en el tiempo de respuesta. 213 00:10:18,110 --> 00:10:22,110 Sabe que en la búsqueda, la velocidad no es una característica más. 214 00:10:22,110 --> 00:10:24,110 Es la característica. 215 00:10:24,110 --> 00:10:25,110 Exacto. 216 00:10:25,110 --> 00:10:29,110 Y el tercer punto que importa de Page es el rigor académico. 217 00:10:29,110 --> 00:10:31,110 Esto es fundamental para entender Perplexity. 218 00:10:31,110 --> 00:10:36,110 Las respuestas siempre, siempre incluyen citas y enlaces a las fuentes. 219 00:10:36,110 --> 00:10:38,110 Como en un artículo científico. 220 00:10:38,110 --> 00:10:39,110 Que no es un capricho. 221 00:10:39,110 --> 00:10:40,110 Para nada. 222 00:10:40,110 --> 00:10:44,110 Es el mecanismo fundamental para minimizar las famosas alucinaciones de la IA. 223 00:10:44,110 --> 00:10:47,110 Y construir confianza con quien usa el producto. 224 00:10:47,110 --> 00:10:51,110 Es decir, no te fíes de mí, fíjate en mis fuentes. 225 00:10:51,110 --> 00:10:55,110 El cuarto punto es la máxima de que el usuario nunca se equivoca. 226 00:10:55,110 --> 00:10:57,110 Si alguien formula mal una pregunta, 227 00:10:57,110 --> 00:11:01,110 es el producto el que debe ser lo bastante inteligente para entender la intención real. 228 00:11:01,110 --> 00:11:02,110 Ya. 229 00:11:02,110 --> 00:11:05,110 Y el último, una velocidad de iteración demencial. 230 00:11:05,110 --> 00:11:10,110 Lanzar, mejorar, descartar y recuperar ideas de producto constantemente. 231 00:11:10,110 --> 00:11:11,110 Sin miedo a equivocarse. 232 00:11:11,110 --> 00:11:13,110 Vio en Page un espejo. 233 00:11:13,110 --> 00:11:16,110 Un académico que había logrado algo monumental. 234 00:11:16,110 --> 00:11:19,110 Pero necesitaba una chispa final para dar el salto. 235 00:11:19,110 --> 00:11:24,110 Y esa chispa fue el éxito de GitHub Copilot a finales de 2022. 236 00:11:24,110 --> 00:11:26,110 La herramienta para programadores. 237 00:11:26,110 --> 00:11:27,110 Eso es. 238 00:11:27,110 --> 00:11:29,110 Esta herramienta de Microsoft le demostró que la IA 239 00:11:29,110 --> 00:11:30,110 no era sólo un campo de estudio, 240 00:11:30,110 --> 00:11:32,110 era sólo un campo de estudio teórico. 241 00:11:32,110 --> 00:11:35,110 Podía generar productos rentables, útiles. 242 00:11:35,110 --> 00:11:37,110 Que cambiaran la forma en que trabajamos. 243 00:11:37,110 --> 00:11:40,110 Y eso fue lo que le convenció para crear su empresa. 244 00:11:40,110 --> 00:11:45,110 Vale. Tenía la visión, la revelación técnica y el modelo a seguir. 245 00:11:45,110 --> 00:11:47,110 Pero volvemos a los problemas prácticos. 246 00:11:47,110 --> 00:11:50,110 ¿Cómo superó esos obstáculos que parecían insalvables? 247 00:11:50,110 --> 00:11:52,110 Empecemos por la financiación. 248 00:11:52,110 --> 00:11:54,110 No sabía hacer una presentación para inversores. 249 00:11:54,110 --> 00:11:56,110 No venía de ese mundo. 250 00:11:56,110 --> 00:11:58,110 Su solución fue pura ejecución. 251 00:11:58,110 --> 00:12:00,110 Fiel a su estilo. 252 00:12:00,110 --> 00:12:03,110 En lugar de un PowerPoint con proyecciones financieras infladas, 253 00:12:03,110 --> 00:12:06,110 construyó un prototipo funcional. 254 00:12:06,110 --> 00:12:07,110 Un producto. 255 00:12:07,110 --> 00:12:08,110 Un producto. 256 00:12:08,110 --> 00:12:11,110 Creó una demo que permitía hacer búsquedas en lenguaje natural 257 00:12:11,110 --> 00:12:13,110 sobre los datos de Twitter. 258 00:12:13,110 --> 00:12:15,110 Podías preguntarle cosas como 259 00:12:15,110 --> 00:12:20,110 ¿Qué tweets han retuiteado tanto Jeff Bezos como Elon Musk en el último mes? 260 00:12:20,110 --> 00:12:22,110 Y te daba la respuesta al instante. 261 00:12:22,110 --> 00:12:25,110 Así que, en lugar de un PowerPoint, les dio un juguete. 262 00:12:25,110 --> 00:12:27,110 Me imagino la cara de los inversores. 263 00:12:27,110 --> 00:12:28,110 Exacto. 264 00:12:28,110 --> 00:12:30,110 No les estaba vendiendo una promesa. 265 00:12:30,110 --> 00:12:32,110 Les estaba demostrando una realidad. 266 00:12:32,110 --> 00:12:35,110 En un mundo de proyecciones y humo, 267 00:12:35,110 --> 00:12:40,110 ver algo que funcionaba de forma casi mágica era irresistible. 268 00:12:40,110 --> 00:12:41,110 ¿Y funcionó? 269 00:12:41,110 --> 00:12:43,110 Entusiasmó a los primeros inversores 270 00:12:43,110 --> 00:12:46,110 y así consiguió el apoyo de figuras clave de Silicon Valley, 271 00:12:46,110 --> 00:12:50,110 incluido, irónicamente, el propio Jeff Bezos. 272 00:12:50,110 --> 00:12:52,110 Resuelto el primer problema. 273 00:12:52,110 --> 00:12:54,110 Pero quedaba el más gordo. 274 00:12:54,110 --> 00:12:56,110 Los costes de entrenamiento de los modelos, 275 00:12:56,110 --> 00:12:59,110 donde los grandes laboratorios habían invertido miles de millones. 276 00:12:59,110 --> 00:13:02,110 ¿Cómo compites con eso siendo una startup? 277 00:13:02,110 --> 00:13:05,110 Aquí es donde su ingenio brilló de nuevo. 278 00:13:05,110 --> 00:13:10,110 La solución fue lo que la fuente llama el modelo del director de orquesta. 279 00:13:10,110 --> 00:13:11,110 Suena bien. 280 00:13:11,110 --> 00:13:15,110 Perplexity no crea sus propios grandes modelos de lenguaje desde cero, 281 00:13:15,110 --> 00:13:19,110 lo que habría supuesto un coste astronómico en chips de envidia. 282 00:13:19,110 --> 00:13:24,110 En su lugar, utiliza y coordina los mejores modelos que ya existen. 283 00:13:24,110 --> 00:13:25,110 ¿Los de otras empresas? 284 00:13:25,110 --> 00:13:28,110 Sí, los de OpenA, Antropic, los de Google. 285 00:13:28,110 --> 00:13:31,110 Para diferentes partes de una misma pregunta. 286 00:13:31,110 --> 00:13:34,110 O sea que es como un puzzle, usa una pieza de cada uno. 287 00:13:34,110 --> 00:13:35,110 Justo. 288 00:13:35,110 --> 00:13:39,110 Puede usar un modelo que es muy bueno para entender la intención del usuario, 289 00:13:39,110 --> 00:13:42,110 otro que es excelente para buscar en la web en tiempo real 290 00:13:42,110 --> 00:13:46,110 y un tercero que es el mejor para resumir la información de forma coherente. 291 00:13:46,110 --> 00:13:47,110 Claro. 292 00:13:47,110 --> 00:13:52,110 Y coordinar todo esto para dar una respuesta rápida, precisa y fiable 293 00:13:52,110 --> 00:13:55,110 es un desafío de ingeniería brutal. 294 00:13:55,110 --> 00:13:58,110 Y ahí es donde reside su verdadera ventaja competitiva. 295 00:13:58,110 --> 00:14:02,110 Convertieron una debilidad en su mayor fortaleza. 296 00:14:02,110 --> 00:14:05,110 Y el resultado de toda esta innovación se ve en los números. 297 00:14:05,110 --> 00:14:09,110 A mediados de 2025 el crecimiento es explosivo. 298 00:14:09,110 --> 00:14:12,110 Hace poco más de un año tenían 10 millones de usuarios activos mensuales. 299 00:14:12,110 --> 00:14:13,110 Hoy. 300 00:14:13,110 --> 00:14:14,110 ¿Cuántos? 301 00:14:14,110 --> 00:14:17,110 Las cifras hablan de hasta 22 millones. 302 00:14:17,110 --> 00:14:21,110 Pero el dato que a mí me parece más espectacular es el número de consultas. 303 00:14:21,110 --> 00:14:27,110 780 millones al mes, con un crecimiento mensual del 20%. 304 00:14:27,110 --> 00:14:28,110 Es una locura. 305 00:14:28,110 --> 00:14:31,110 Si ese ritmo se mantiene, que es mucho suponer, 306 00:14:31,110 --> 00:14:37,110 pero bueno, si se mantiene, en un año estarían contestando 230 millones de preguntas al día. 307 00:14:37,110 --> 00:14:40,110 Son cifras que ya empiezan a hacer ruido en las oficinas de Google. 308 00:14:40,110 --> 00:14:41,110 Ya ves. 309 00:14:41,110 --> 00:14:44,110 Y claro, la valoración de la empresa se ha disparado. 310 00:14:44,110 --> 00:14:49,110 A principios de 2024 era de unos 520 millones de dólares. 311 00:14:49,110 --> 00:14:54,110 Hoy, tras varias rondas de financiación, se sitúa en los 14 mil millones. 312 00:14:54,110 --> 00:14:56,110 Pero Aravind sabe que un gran producto 313 00:14:56,110 --> 00:14:59,110 no es suficiente, necesita distribución. 314 00:14:59,110 --> 00:15:02,110 Y aquí es donde la historia se pone aún más interesante. 315 00:15:02,110 --> 00:15:05,110 Está empezando a jugar en las grandes ligas. 316 00:15:05,110 --> 00:15:07,110 Alianzas estratégicas. 317 00:15:07,110 --> 00:15:08,110 Exacto. 318 00:15:08,110 --> 00:15:12,110 Ha cerrado acuerdos con Deutsche Telekom en Europa y con Motorola en Estados Unidos, 319 00:15:12,110 --> 00:15:15,110 para que su aplicación venga preinstalada en sus móviles. 320 00:15:15,110 --> 00:15:18,110 Y en Japón, una alianza clave con SoftBank. 321 00:15:18,110 --> 00:15:22,110 Este crecimiento, obviamente, no ha pasado desapercibido. 322 00:15:22,110 --> 00:15:26,110 Es como si una barca de pesca de repente estuviera adelantando a los transatlánticos. 323 00:15:26,110 --> 00:15:32,110 Mark Zuckerberg, por ejemplo, hizo una oferta de compra por Perplexity en mayo de 2025. 324 00:15:32,110 --> 00:15:34,110 ¿Para comprar la empresa? 325 00:15:34,110 --> 00:15:40,110 Bueno, su objetivo, más que el producto, era incorporar el talento y la visión de Aravind y su equipo. 326 00:15:40,110 --> 00:15:45,110 Pero lo más interesante ahora mismo son los dos novios que podrían cambiarlo todo. 327 00:15:45,110 --> 00:15:47,110 El primero es Samsung. 328 00:15:47,110 --> 00:15:50,110 Esto ha salido en la prensa, ¿verdad? 329 00:15:50,110 --> 00:15:52,110 Sí, hay negociaciones públicas. 330 00:15:52,110 --> 00:15:55,110 Ambas partes han reconocido que están hablando para que Perplexity 331 00:15:55,110 --> 00:16:00,110 sea la IA por defecto en todos los terminales Galaxy. 332 00:16:00,110 --> 00:16:02,110 Sería un golpe sobre la mesa tremendo. 333 00:16:02,110 --> 00:16:07,110 Totalmente. Millones de teléfonos con Perplexity como opción principal. 334 00:16:07,110 --> 00:16:09,110 ¿Y por qué no se ha cerrado todavía ese acuerdo? 335 00:16:09,110 --> 00:16:11,110 Si parece tan bueno para ambos. 336 00:16:11,110 --> 00:16:13,110 Porque hay otro gran rumor en los mercados. 337 00:16:13,110 --> 00:16:15,110 Un pez mucho más gordo. 338 00:16:15,110 --> 00:16:19,110 Se dice que Apple podría terminar comprando Perplexity. 339 00:16:19,110 --> 00:16:21,110 Y si lo piensas, tiene mucho sentido. 340 00:16:21,110 --> 00:16:25,110 Por un lado, todos sabemos que Siri necesita una mejora urgente. 341 00:16:25,110 --> 00:16:27,110 Es casi un chiste a estas alturas. 342 00:16:27,110 --> 00:16:28,110 Ya ves. 343 00:16:28,110 --> 00:16:31,110 Y por otro, Apple se enfrenta a problemas legales muy serios 344 00:16:31,110 --> 00:16:35,110 por su acuerdo de 20 mil millones de dólares al año con Google. 345 00:16:35,110 --> 00:16:37,110 ¿El de ser el buscador por defecto en el iPhone? 346 00:16:37,110 --> 00:16:40,110 Exacto. Un acuerdo que los reguladores consideran monopolístico. 347 00:16:40,110 --> 00:16:44,110 Claro. Comprar Perplexity podría ser una solución elegante para Apple 348 00:16:44,110 --> 00:16:46,110 a ambos problemas de un solo plomazo. 349 00:16:46,110 --> 00:16:50,110 Mejorarían por fin a Siri y al mismo tiempo reducirían su dependencia de Google, 350 00:16:50,110 --> 00:16:52,110 calmando a los reguladores. 351 00:16:52,110 --> 00:16:53,110 Sería una jugada maestra. 352 00:16:53,110 --> 00:16:54,110 Exactamente. 353 00:16:55,110 --> 00:16:58,110 Se convertiría en el arma de Apple en la guerra de la IA 354 00:16:58,110 --> 00:17:01,110 y resolvería un problema legal multimillonario. 355 00:17:01,110 --> 00:17:05,110 El futuro de Perplexity podría decidirse en esta partida de ajedrez entre gigantes. 356 00:17:05,110 --> 00:17:06,110 Es fascinante. 357 00:17:06,110 --> 00:17:08,110 Y para cerrar el círculo de esta historia, 358 00:17:08,110 --> 00:17:11,110 hay un último detalle sobre el nombre de la empresa que me encanta. 359 00:17:11,110 --> 00:17:12,110 Perplexity. 360 00:17:12,110 --> 00:17:13,110 Perplejidad. 361 00:17:13,110 --> 00:17:15,110 No es un nombre elegido al azar. 362 00:17:15,110 --> 00:17:18,110 Es un concepto técnico clave en inteligencia artificial. 363 00:17:18,110 --> 00:17:19,110 Así es. 364 00:17:19,110 --> 00:17:21,110 En el campo de los modelos de lenguaje, 365 00:17:21,110 --> 00:17:24,110 la perplejidad es una medida que cuantifica cómo desordenar 366 00:17:24,110 --> 00:17:29,110 y cuantifica cómo desorprendido está un modelo ante nueva información que recibe. 367 00:17:29,110 --> 00:17:33,110 Una puntuación de perplejidad baja significa que el modelo es muy bueno 368 00:17:33,110 --> 00:17:35,110 para predecir y comprender el lenguaje. 369 00:17:35,110 --> 00:17:40,110 Una puntuación alta indica más incertidumbre, más sorpresa. 370 00:17:40,110 --> 00:17:43,110 El objetivo es siempre minimizar la perplejidad. 371 00:17:43,110 --> 00:17:46,110 Y ese nombre conecta perfectamente con la historia. 372 00:17:46,110 --> 00:17:50,110 El auge de la inteligencia artificial es un entorno lleno de perplejidad, 373 00:17:50,110 --> 00:17:52,110 de giros inesperados, de sorpresas. 374 00:17:52,110 --> 00:17:53,110 Desde luego. 375 00:17:53,110 --> 00:17:56,110 La historia de Aravind Srinivas y Perplexity demuestra que, 376 00:17:56,110 --> 00:18:00,110 a veces, una visión audaz y una ejecución metódica pueden, como mínimo, 377 00:18:00,110 --> 00:18:03,110 hacer que un gigante como Google se tambalee. 378 00:18:03,110 --> 00:18:06,110 O que al menos note un rasguño serio en su espalda. 379 00:18:06,110 --> 00:18:07,110 Sin duda. 380 00:18:07,110 --> 00:18:10,110 Y esto nos deja con una última idea para reflexionar, 381 00:18:10,110 --> 00:18:11,110 que quizás es la más importante. 382 00:18:11,110 --> 00:18:12,110 A ver. 383 00:18:12,110 --> 00:18:16,110 Hasta ahora hemos hablado de Perplexity como un rival para la búsqueda de Google, 384 00:18:16,110 --> 00:18:19,110 para sustituir los diez enlaces azules. 385 00:18:19,110 --> 00:18:22,110 Pero la visión original de Srinivas va mucho más allá. 386 00:18:22,110 --> 00:18:24,110 ¿A qué te refieres? 387 00:18:24,110 --> 00:18:27,110 Perplexity ya está desarrollando lo que llaman agentes, 388 00:18:27,110 --> 00:18:31,110 IAs especializadas en finanzas o en planificación de viajes. 389 00:18:31,110 --> 00:18:33,110 Herramientas que no solo buscan, 390 00:18:33,110 --> 00:18:35,110 sino que actúan en nuestro nombre. 391 00:18:35,110 --> 00:18:39,110 Que pueden comparar vuelos, hoteles y actividades, 392 00:18:39,110 --> 00:18:43,110 y reservarnos unas vacaciones completas con una sola instrucción. 393 00:18:43,110 --> 00:18:47,110 O analizar nuestra cartera de inversión y proponer cambios. 394 00:18:47,110 --> 00:18:50,110 O sea que el objetivo final no es ser un motor de respuestas, 395 00:18:50,110 --> 00:18:51,110 sino un motor de acciones. 396 00:18:51,110 --> 00:18:52,110 Exacto. 397 00:18:52,110 --> 00:18:55,110 Y esa es la verdadera pregunta que nos deja esta historia. 398 00:18:55,110 --> 00:18:59,110 La cuestión no es solo si Perplexity puede sustituir a Google Search. 399 00:18:59,110 --> 00:19:01,110 La verdadera cuestión es, 400 00:19:01,110 --> 00:19:05,110 si logra crear agentes que actúen por nosotros de forma fiable, 401 00:19:05,110 --> 00:19:08,110 ¿qué significa eso para nuestra relación con Internet en su totalidad? 402 00:19:08,110 --> 00:19:09,110 Claro. 403 00:19:09,110 --> 00:19:12,110 Si una IA puede ejecutar tareas complejas por nosotros, 404 00:19:12,110 --> 00:19:14,110 ya no hablamos de cambiar la búsqueda. 405 00:19:14,110 --> 00:19:17,110 Hablamos de cambiar la forma en que interactuamos con todo el ecosistema digital. 406 00:19:17,110 --> 00:19:20,110 Y ese es un futuro mucho más perplejo y revolucionario. 407 00:19:21,110 --> 00:19:24,110 Que simplemente encontrar una mejor manera de responder preguntas. 408 00:19:24,110 --> 00:19:37,470 Y hasta aquí el episodio de hoy. 409 00:19:37,470 --> 00:19:39,470 Muchas gracias por tu atención. 410 00:19:41,470 --> 00:19:51,020 Esto es BIMPRAXIS. 411 00:19:51,020 --> 00:19:54,020 Nos escuchamos en el próximo episodio.