1 00:00:09,680 --> 00:00:17,950 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,330 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,930 --> 00:00:29,650 ¡Empezamos! 4 00:00:37,170 --> 00:00:45,330 Hola y bienvenidos. Volvemos a la carga con nuestra serie especial de BIMPRAXIS, los papers que cambiaron la historia de la IA. 5 00:00:45,330 --> 00:00:46,110 Pues sí. 6 00:00:46,110 --> 00:00:51,930 Ya vamos por el duodécimo análisis y la verdad cada vez se pone más interesante. 7 00:00:52,530 --> 00:01:02,570 Totalmente. Y el que traemos hoy es de los que te dejan pensando días. Es muy reciente, de febrero de 2024, pero el revuelo que ha montado es tremendo. 8 00:01:02,830 --> 00:01:03,290 A ver, cuenta. 9 00:01:03,830 --> 00:01:10,570 Se titula The Era of One-Bit LLMs. All Large Language Models are in 1.58 Bits. 10 00:01:10,670 --> 00:01:14,430 Uf, el título ya es una bofetada a todo lo establecido. 11 00:01:15,010 --> 00:01:16,070 La era de los LLMs. 12 00:01:16,110 --> 00:01:18,690 El LLM es de un bit. Suena casi a herejía. 13 00:01:19,010 --> 00:01:19,950 Es que es muy provocador. 14 00:01:20,270 --> 00:01:22,110 Vale, vamos a meternos en este jardín. 15 00:01:22,830 --> 00:01:26,850 La misión de hoy es entender qué demonios es un modelo de lenguaje de un bit. 16 00:01:27,110 --> 00:01:30,850 ¿Por qué narices dicen que rinde igual que los gigantes actuales? 17 00:01:31,030 --> 00:01:33,190 Y sobre todo, ¿qué puertas abre esto para el futuro? 18 00:01:33,670 --> 00:01:37,530 Exacto. Si esto es una afantasmada o si de verdad es la próxima revolución. 19 00:01:37,530 --> 00:01:45,390 Pues esa es la clave. Vamos a desgranar las afirmaciones del equipo de Shuming Ma, que son de una audacia increíble, 20 00:01:45,470 --> 00:01:46,090 y a explicarles cómo es posible que el mundo no sea así. 21 00:01:46,090 --> 00:01:52,190 Y a explorar si de verdad estamos a las puertas de una nueva era para la IA, una mucho más eficiente y accesible. 22 00:01:52,610 --> 00:01:58,850 Perfecto. Pues antes de hablar de la cura milagrosa, hablemos un poco de la enfermedad, el problema de base. 23 00:01:59,110 --> 00:01:59,630 El coste. 24 00:01:59,750 --> 00:02:04,750 Claro. Los grandes modelos de lenguaje que usamos todos los días son una pasada. 25 00:02:05,130 --> 00:02:10,230 Pero tienen un secreto a voces. Son carísimos. De entrenar, de mantener, de todo. 26 00:02:10,870 --> 00:02:14,750 El paper habla de los modelos de precisión completa, o FP16. 27 00:02:15,230 --> 00:02:15,450 ¿Qué es el paper? 28 00:02:15,450 --> 00:02:18,130 Para quien no esté en el ajo. ¿Qué es esto en cristiano? 29 00:02:18,450 --> 00:02:25,690 A ver, imagina que el cerebro del modelo está hecho de millones de pequeñas neuronas, que en la jerga se llaman parámetros o pesos. 30 00:02:26,030 --> 00:02:26,370 Vale. 31 00:02:26,370 --> 00:02:35,190 Son los que almacenan el conocimiento. En un modelo estándar, uno de FP16, cada una de esas neuronas se representa con un número de 16 bits. 32 00:02:35,930 --> 00:02:44,870 Pues significa que cada parámetro puede tener unos 65.000 valores distintos. Es un nivel de detalle de matiz altísimo. 33 00:02:45,450 --> 00:02:46,010 Muchísimo. 34 00:02:46,530 --> 00:02:52,430 Piensa en un potenciómetro de volumen que, en lugar de ir de 0 a 10, tiene 65.000 posiciones intermedias. 35 00:02:53,030 --> 00:02:57,190 Esa precisión permite capturar relaciones muy sutiles en los datos, pero tiene un coste. 36 00:02:57,310 --> 00:03:00,550 Un coste energético y computacional salvaje, me imagino. 37 00:03:01,050 --> 00:03:07,570 Exacto. Es como pedirle a un ordenador que para cada mínima decisión haga cálculos con números con muchísimos decimales. 38 00:03:08,050 --> 00:03:13,590 Requiere una memoria inmensa, una capacidad de proceso brutal y, claro, el consumo de energía se dispara. 39 00:03:13,590 --> 00:03:14,590 O sea que… 40 00:03:14,590 --> 00:03:15,290 ¿La potencia de estos…? 41 00:03:15,290 --> 00:03:24,410 Estos modelos vienen de su complejidad y su tamaño. Para ser inteligentes necesitan ser gigantescos y consumir una cantidad de energía absurda. 42 00:03:24,650 --> 00:03:33,530 Esa ha sido la premisa hasta ahora. Más parámetros, más datos, más bits de precisión, igual a más inteligencia. Es una carrera armamentística de fuerza bruta. 43 00:03:33,930 --> 00:03:34,990 El peaje que pagamos, ¿no? 44 00:03:35,030 --> 00:03:39,610 Justo. El peaje por tener una IA potente es que sea ineficiente por diseño. 45 00:03:39,610 --> 00:03:43,330 Pero claro, aquí llega este paper y le pega una patada a la mesa. 46 00:03:43,330 --> 00:03:53,830 La pregunta que lanzan es demoledora en su simplicidad. ¿Y si toda esa precisión, todo ese despilfarro, no es necesario? 47 00:03:54,070 --> 00:04:03,470 Justo. Cuestionan el dogma. Se preguntan si estamos construyendo rascacielos con vigas de oro macizo cuando a lo mejor, con acero, nos valía. Y de sobra. 48 00:04:03,470 --> 00:04:12,630 Vale, y aquí es donde la cosa se pone de ciencia ficción. La propuesta que hacen se llama BitNet B1.5. Y rompe la baraja por completo. 49 00:04:13,330 --> 00:04:16,830 En lugar de sus 65.000 valores posibles por parámetro… 50 00:04:16,830 --> 00:04:17,730 Lo reducen a 3. 51 00:04:18,090 --> 00:04:18,750 ¿Cómo que a 3? 52 00:04:19,070 --> 00:04:24,970 A 3. No es una errata. Cada parámetro solo puede ser menos 1, 0 o 1. Sácaro. 53 00:04:24,970 --> 00:04:32,390 Un momento, un momento. O sea, o está encendido en negativo, apagado o encendido en positivo. 54 00:04:32,590 --> 00:04:36,010 Eso es. Es lo que se conoce como un sistema ternario. 55 00:04:36,270 --> 00:04:43,170 Pero es que esto es tan simple que parece absurdo. Pasamos de un dial con 65.000 posiciones a un interruptor de 3. 56 00:04:43,490 --> 00:04:47,770 Y afirman que el resultado es el mismo. A mí esto me suela que hay truco. 57 00:04:47,910 --> 00:04:56,250 Es que es tan contraintuitivo que choca. Pero la clave está en el título. En ese 1.58 bits. No es un número puesto al azar, ¿eh? 58 00:04:56,510 --> 00:05:03,370 Explícame de dónde sale ese número tan específico porque no es un bit ni es dos bits. ¿Qué es 1.58? 59 00:05:03,790 --> 00:05:11,330 A ver, es una forma muy precisa de medir la cantidad de información. La unidad básica, el bit, tiene dos estados. 0 y 1. 60 00:05:11,650 --> 00:05:12,490 Sí, hasta ahí llego. 61 00:05:12,490 --> 00:05:12,770 ¿Qué es eso? 62 00:05:12,770 --> 00:05:19,150 Para saber cuántos bits necesitas para representar un número de estados, usas el logaritmo en base 2 de ese número de estados. 63 00:05:19,730 --> 00:05:22,750 Para dos estados, logaritmo en base 2 de 2 es 1. 64 00:05:23,150 --> 00:05:23,550 ¿Un bit? 65 00:05:23,670 --> 00:05:24,150 Lógico. 66 00:05:24,370 --> 00:05:30,670 Pues para representar tres estados, como aquí con menos 1, 0, 1, necesitas el logaritmo en base 2 de 3. 67 00:05:31,390 --> 00:05:34,830 Y eso da aproximadamente 1.5849. 68 00:05:35,490 --> 00:05:36,390 Ah, vale. 69 00:05:36,650 --> 00:05:38,590 Lo redondean a 1.58. 70 00:05:38,930 --> 00:05:42,590 Es su manera de decir, ojo, hemos reducido la información necesaria. 71 00:05:42,770 --> 00:05:54,770 Es una reducción brutal, pero la afirmación que te vuela la cabeza, la que está en el abstract y que todo el mundo está debatiendo… 72 00:05:55,310 --> 00:05:56,790 La de que iguala el rendimiento, ¿no? 73 00:05:56,910 --> 00:06:05,710 Esa. Que este modelo esquelético iguala el rendimiento del transformer de precisión completa del mismo tamaño. Es que me parece increíble. 74 00:06:06,070 --> 00:06:06,870 Sí, sí, lo es. 75 00:06:06,870 --> 00:06:12,510 Es como si me dices que has construido un coche con el motor de un avespino y corre lo mismo con Fórmula 1. 76 00:06:12,930 --> 00:06:14,150 ¿Cómo es posible? 77 00:06:14,470 --> 00:06:17,590 Esa es la pregunta del millón. Y el núcleo de la disrupción. 78 00:06:18,210 --> 00:06:22,250 El paper sugiere que, bueno, que nos hemos estado equivocando de foco. 79 00:06:22,510 --> 00:06:23,190 ¿En qué sentido? 80 00:06:23,370 --> 00:06:27,750 O menos 1, 0 o 1, el modelo aprende a ser extremadamente eficiente. 81 00:06:28,310 --> 00:06:29,470 No se anda con tonterías. 82 00:06:30,090 --> 00:06:33,050 O una conexión es importante y la pone a 1 o menos 1. 83 00:06:33,290 --> 00:06:35,690 O no lo es y la pone a 0. La anula. 84 00:06:35,810 --> 00:06:42,450 Es como si en una orquesta lo importante no fuera que cada músico pueda tocar miles de matices sutiles, 85 00:06:42,770 --> 00:06:46,090 sino que todos toquen la nota correcta en el momento justo. 86 00:06:46,550 --> 00:06:47,910 Es una analogía fantástica. 87 00:06:48,150 --> 00:06:51,750 La magia está en la coordinación, no en la complejidad individual. 88 00:06:52,190 --> 00:06:52,670 Exactamente. 89 00:06:53,330 --> 00:06:58,270 Parece que este enfoque obliga a la red a aprender las rutas de información más importantes y a descartar el ruido. 90 00:06:58,810 --> 00:06:59,770 Se centra en lo esencial. 91 00:07:00,310 --> 00:07:06,130 Y lo más loco es que, según ellos, lo esencial es sufriente para igualar a sus hermanos mayores, los de 16 bits. 92 00:07:06,130 --> 00:07:10,310 Vale, vamos a asumir por un momento que no es un farol, que es cierto. 93 00:07:10,810 --> 00:07:12,050 Si el rendimiento es el mismo, 94 00:07:12,050 --> 00:07:16,010 pero el coste computacional, la memoria y la energía se desploman, 95 00:07:16,430 --> 00:07:19,350 las consecuencias tienen que ser gigantescas. 96 00:07:19,730 --> 00:07:20,250 Gigantescas. 97 00:07:20,550 --> 00:07:23,390 No hablamos de una mejora, hablamos de un cambio de paradigma. 98 00:07:23,870 --> 00:07:24,390 Totalmente. 99 00:07:24,890 --> 00:07:28,450 El paper no se corta y habla de tres consecuencias transformadoras 100 00:07:28,450 --> 00:07:31,450 que van mucho más allá de ahorrar en la factura de la luz. 101 00:07:32,010 --> 00:07:35,050 Esto no es una optimización, es una reinvención. 102 00:07:35,990 --> 00:07:37,850 Pues vamos a por ellas. ¿Cuál es la primera? 103 00:07:38,310 --> 00:07:40,850 La primera es que define una nueva ley de escalado. 104 00:07:40,850 --> 00:07:41,850 Esto suena muy técnico. 105 00:07:42,050 --> 00:07:44,130 Sí, es técnico, pero es cambiar las reglas del juego. 106 00:07:44,250 --> 00:07:44,610 A ver. 107 00:07:45,310 --> 00:07:49,310 Hasta ahora, la ley no escrita, la de OpenAI, Google y compañía, 108 00:07:49,730 --> 00:07:53,910 era que para tener modelos más potentes necesitabas escalar exponencialmente tres cosas. 109 00:07:54,450 --> 00:07:56,970 Número de parámetros, cantidad de datos y cómputo. 110 00:07:57,290 --> 00:07:58,750 Más grande siempre era mejor. 111 00:07:58,970 --> 00:08:03,130 Diciendo que la carrera por hacer modelos cada vez más gigantescos, 112 00:08:03,550 --> 00:08:08,730 los GPT-5, 6 y 7, podría ser un callejón sin salida energético y económico. 113 00:08:08,890 --> 00:08:10,030 Eso es lo que sugieren. 114 00:08:10,030 --> 00:08:12,030 Que la nueva ley podría ser... 115 00:08:12,050 --> 00:08:15,550 ¿Más eficiente es mejor en lugar de más grande es mejor? 116 00:08:15,850 --> 00:08:16,570 Exactamente eso. 117 00:08:17,010 --> 00:08:20,090 Proponen una nueva receta para construir los modelos del futuro. 118 00:08:20,590 --> 00:08:23,790 Una donde la eficiencia no es algo que intentas apañar al final, 119 00:08:24,170 --> 00:08:26,550 sino que está integrada en el diseño desde el principio. 120 00:08:27,170 --> 00:08:29,910 Podría significar que el camino a la inteligencia artificial general 121 00:08:29,910 --> 00:08:33,090 no es la fuerza bruta, sino la inteligencia en el diseño. 122 00:08:33,510 --> 00:08:36,110 Me dejas sin palabras. Es un hordago a la grande. 123 00:08:36,650 --> 00:08:38,590 Vale. ¿Cuál es la segunda consecuencia? 124 00:08:38,710 --> 00:08:41,950 La segunda es que habilita un nuevo paradigma de computación. 125 00:08:42,350 --> 00:08:46,370 A ver, las GPUs, los chips de NVIDIA, que son los reyes absolutos de la IA, 126 00:08:47,010 --> 00:08:50,030 son extraordinariamente buenas haciendo una cosa. 127 00:08:51,030 --> 00:08:54,210 Multiplicaciones masivas de números complejos y de alta precisión. 128 00:08:54,670 --> 00:08:55,610 Los de 16 bits. 129 00:08:56,290 --> 00:08:58,210 Toda la arquitectura está pensada para eso. 130 00:08:58,750 --> 00:09:02,810 Pero claro, un modelo que solo tiene los valores menos uno, cero y una, 131 00:09:03,390 --> 00:09:05,190 no necesita multiplicar casi nada. 132 00:09:05,330 --> 00:09:05,850 Ahí está. 133 00:09:06,250 --> 00:09:08,530 Multiplicar por uno es dejar el número como está, 134 00:09:08,530 --> 00:09:11,730 por menos uno es cambiarle el signo y por cero es anularlo. 135 00:09:12,050 --> 00:09:14,550 La operación principal pasa a ser la suma. 136 00:09:14,730 --> 00:09:15,190 Justo. 137 00:09:15,790 --> 00:09:18,830 Y usar una GPU de 5.000 euros para sumar y restar 138 00:09:18,830 --> 00:09:21,570 es como usar un martillo pilón para cascar una nuez. 139 00:09:21,790 --> 00:09:23,570 Es un derroche absoluto de potencial. 140 00:09:23,810 --> 00:09:24,290 Entiendo. 141 00:09:24,570 --> 00:09:28,230 Este paper abre la puerta a un tipo de computación mucho más simple, 142 00:09:28,710 --> 00:09:31,050 que sería muchísimo más rápida y eficiente energéticamente. 143 00:09:31,930 --> 00:09:34,310 Y eso nos lleva de cabeza a la tercera consecuencia, 144 00:09:34,770 --> 00:09:37,390 que si no me equivoco es la que más nos va a afectar a todos. 145 00:09:37,910 --> 00:09:40,050 La posibilidad de crear hardware específico. 146 00:09:40,490 --> 00:09:42,030 Y aquí es donde la cosa se va. 147 00:09:42,050 --> 00:09:43,710 Ahora se pone realmente tangible. 148 00:09:44,390 --> 00:09:46,830 Si ya no necesitas la arquitectura de una GPU, 149 00:09:47,470 --> 00:09:48,990 podrías diseñar un chip nuevo, 150 00:09:49,510 --> 00:09:53,570 llamémosle un Bit Processing Unit o BPU, 151 00:09:54,130 --> 00:09:58,110 optimizado solo para trabajar con estos modelos de 1.58 bits. 152 00:09:58,310 --> 00:09:59,170 ¿Y serían chips? 153 00:09:59,570 --> 00:10:03,230 Mucho más sencillos, más pequeños, más baratos de producir 154 00:10:03,230 --> 00:10:06,450 y, sobre todo, consumirían una fracción de la energía. 155 00:10:06,870 --> 00:10:08,010 Pero seamos realistas. 156 00:10:08,010 --> 00:10:12,030 Eso es un ciclo de desarrollo de años y una inversión de miles de millones. 157 00:10:12,050 --> 00:10:16,230 ¿De verdad una empresa como NVIDIA, que tiene un monopodio de facto, 158 00:10:16,610 --> 00:10:19,350 va a tirar por la borda décadas de I plus D por un paper? 159 00:10:19,710 --> 00:10:21,410 Esa es la gran pregunta comercial, claro. 160 00:10:21,990 --> 00:10:23,670 A corto plazo, seguramente no. 161 00:10:24,150 --> 00:10:26,270 Pero si esta tecnología demuestra ser viable, 162 00:10:26,610 --> 00:10:28,990 la presión del mercado podría ser irresistible. 163 00:10:29,230 --> 00:10:29,510 Claro. 164 00:10:29,770 --> 00:10:32,690 Imagina que un nuevo competidor diseña un chip de estos 165 00:10:32,690 --> 00:10:36,870 y ofrece el mismo rendimiento por una décima parte del precio y del consumo. 166 00:10:37,450 --> 00:10:39,610 O piensa en Apple, Google o Samsung, 167 00:10:39,870 --> 00:10:41,930 diseñando sus propios chips para sus móviles. 168 00:10:42,370 --> 00:10:43,870 Ahí es donde quería llegar. 169 00:10:44,350 --> 00:10:47,490 La idea de tener una IA con la potencia de GPT-4, 170 00:10:47,750 --> 00:10:50,330 pero funcionando de forma nativa en mi teléfono, 171 00:10:50,610 --> 00:10:52,170 sin necesidad de conexión a Internet. 172 00:10:52,810 --> 00:10:54,390 Eso es el verdadero cambio de juego. 173 00:10:54,770 --> 00:10:55,250 Exacto. 174 00:10:55,670 --> 00:10:56,930 Las implicaciones son brutales. 175 00:10:57,270 --> 00:10:58,330 Primero, la privacidad. 176 00:10:58,630 --> 00:11:00,390 Tus datos no salen de tu dispositivo. 177 00:11:00,770 --> 00:11:01,250 Fundamental. 178 00:11:01,790 --> 00:11:02,810 Segundo, la latencia. 179 00:11:03,030 --> 00:11:04,510 La respuesta es instantánea. 180 00:11:04,870 --> 00:11:05,870 Y tercero, el acceso. 181 00:11:06,790 --> 00:11:08,310 Democratizaría la IA de alto nivel. 182 00:11:08,830 --> 00:11:11,870 Gente en zonas con mala conectividad tendría acceso a la misma tecnología. 183 00:11:12,570 --> 00:11:15,590 Asistentes personales realmente inteligentes en el coche, 184 00:11:15,790 --> 00:11:18,110 en el reloj, en cualquier sitio, sin depender de la nube. 185 00:11:18,470 --> 00:11:18,910 Justo. 186 00:11:19,250 --> 00:11:22,730 Vale, vamos a recapitular para que no se nos vaya la cabeza. 187 00:11:23,390 --> 00:11:27,850 El problema es que los modelos actuales son como motores de un Bugatti Veyron. 188 00:11:28,590 --> 00:11:29,670 Increíblemente potentes. 189 00:11:29,970 --> 00:11:32,650 Pero necesitan un tanque de combustible gigantesco. 190 00:11:32,750 --> 00:11:34,110 Y un mantenimiento carísimo. 191 00:11:34,370 --> 00:11:36,430 Y una autopista perfecta para funcionar. 192 00:11:36,930 --> 00:11:38,970 Son un prodigio de la fuerza bruta. 193 00:11:38,970 --> 00:11:40,170 Buena analogía. 194 00:11:40,830 --> 00:11:41,970 Y la solución que propone... 195 00:11:42,050 --> 00:11:47,430 Este equipo es como si hubieran inventado un motor eléctrico del tamaño de una pila que da la misma potencia. 196 00:11:47,590 --> 00:11:49,230 Y lo consiguen cambiando el diseño. 197 00:11:49,770 --> 00:11:55,390 En lugar de miles de ajustes de precisión, los 16 bits usan un simple interruptor de tres posiciones. 198 00:11:55,950 --> 00:11:57,490 Menos uno, cero y uno. 199 00:11:57,670 --> 00:12:00,070 Lo que equivale a 1.58 bits. 200 00:12:00,190 --> 00:12:05,150 Y la afirmación bomba es que este motor minimalista rinde igual que el motor gigante. 201 00:12:05,750 --> 00:12:08,690 Si esto se confirma, no solo abarata los costes de la IA. 202 00:12:08,690 --> 00:12:09,430 No, no. 203 00:12:09,570 --> 00:12:11,690 Sino que podría cambiar las reglas para construir... 204 00:12:12,050 --> 00:12:19,930 ...el tipo de chips que usaremos y, finalmente, permitiría que la IA más potente viva dentro de nuestros propios bolsillos. 205 00:12:19,930 --> 00:12:21,930 En resumen, no es una mejora. 206 00:12:21,930 --> 00:12:25,930 Es una de esas ideas que te obliga a repensar todo lo que dabas por sentado. 207 00:12:25,930 --> 00:12:29,930 Cuestiona la base sobre la que se ha construido la IA en los últimos cinco años. 208 00:12:29,930 --> 00:12:33,930 Esto me deja con una pregunta que va más allá de la propia IA. 209 00:12:33,930 --> 00:12:39,930 ¿Estamos construyendo nuestros modelos de una forma innecesariamente compleja solo por inercio? 210 00:12:39,930 --> 00:12:41,930 Porque es la única manera que... 211 00:12:42,050 --> 00:12:43,530 ...hemos conocido hasta ahora. 212 00:12:43,530 --> 00:12:47,370 Esa es la gran reflexión que deja este trabajo de Xu Ming-Ma y su equipo. 213 00:12:47,370 --> 00:12:51,770 A veces, en tecnología, nos obsesionamos tanto con escalar la solución que ya tenemos... 214 00:12:51,770 --> 00:12:55,930 ...que no nos paramos a pensar si existe una solución fundamentalmente más simple y elegante. 215 00:12:55,930 --> 00:12:56,430 Cierto. 216 00:12:56,430 --> 00:13:02,810 Este paper, sea cual sea su impacto final, es un recordatorio de que a veces el mayor salto adelante... 217 00:13:02,810 --> 00:13:06,730 ...no es añadir más complejidad, sino atreverse a quitarla. 218 00:13:06,730 --> 00:13:09,810 La verdad es que te deja dándole vueltas a la cabeza. 219 00:13:09,810 --> 00:13:11,890 Un análisis fascinante. 220 00:13:11,890 --> 00:13:14,610 Muchas gracias por guiarnos a través de este laberinto. 221 00:13:14,610 --> 00:13:16,010 Un placer. 222 00:13:16,010 --> 00:13:20,370 Es que es de esos trabajos que te remueven por dentro y te fuerzan a cuestionarlo todo. 223 00:13:20,370 --> 00:13:21,570 Totalmente. 224 00:13:21,570 --> 00:13:26,010 Y para quienes nos escuchan, y se han quedado con ganas de más, que no se preocupen. 225 00:13:26,010 --> 00:13:30,770 Mañana volvemos a la carga con otro de esos papers que te obligan a replantearlo todo. 226 00:13:30,770 --> 00:13:32,130 Otro muy interesante. 227 00:13:32,130 --> 00:13:33,650 No se lo pierdan. 228 00:13:59,970 --> 00:14:02,690 Nos escuchamos en el próximo episodio.