1 00:00:09,680 --> 00:00:17,930 Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial. 2 00:00:20,350 --> 00:00:27,230 Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción. 3 00:00:28,950 --> 00:00:29,630 ¡Empezamos! 4 00:00:37,270 --> 00:00:43,490 Bienvenidos, la serie que dedicamos a los papers que cambiaron la historia de la inteligencia artificial ya terminó. 5 00:00:43,490 --> 00:00:47,770 Pero bueno, como os comentamos en BIMPRAXIS, seguimos con el radar puesto. 6 00:00:48,390 --> 00:00:50,830 Claro, siempre atentos a lo que se publica. 7 00:00:51,390 --> 00:00:55,750 Y la publicación de hoy, no sabemos si cambiará la historia, pero es fascinante. 8 00:00:56,270 --> 00:00:59,310 Nos planta adelante una pregunta casi filosófica. 9 00:00:59,890 --> 00:01:02,490 ¿Qué esperamos de una IA cuando interactúa en un grupo? 10 00:01:03,010 --> 00:01:04,330 Es una buena pregunta. 11 00:01:04,830 --> 00:01:10,790 ¿Queremos que sea un reflejo exacto de nosotros, con nuestras virtudes y, bueno, también con todos nuestros sesgos? 12 00:01:10,790 --> 00:01:13,710 O preferimos que sea algo mejor, exacto. 13 00:01:14,090 --> 00:01:17,710 O preferimos que intente ser una versión mejorada, más justa. 14 00:01:17,810 --> 00:01:22,710 Más racional, aunque eso signifique que no se parezca en nada a cómo actuamos los humanos. 15 00:01:22,710 --> 00:01:24,710 Es que esa es la pregunta del Millén. 16 00:01:24,710 --> 00:01:27,710 Y da de lleno en el clavo del artículo que traemos hoy. 17 00:01:27,710 --> 00:01:29,710 To mask o to mirror. 18 00:01:29,710 --> 00:01:38,710 Human-AI alignment in collective reasoning, que podríamos traducir como enmascarar o reflejar alineamiento humano-IA en el razonamiento colectivo. 19 00:01:38,710 --> 00:01:39,710 Eso es. 20 00:01:39,710 --> 00:01:42,710 Y lo bueno es que no se queda en la teoría, ¿eh? 21 00:01:42,710 --> 00:01:45,710 Los investigadores montaron un experimento a gran escala. 22 00:01:45,710 --> 00:01:47,710 Con casi 750 personas. 23 00:01:47,710 --> 00:01:48,710 Para ver qué pasaba. 24 00:01:48,710 --> 00:01:50,710 Y luego viene la guinda del pastel. 25 00:01:50,710 --> 00:01:56,710 Luego, y aquí está la gracia, recrearon la misma situación con distintas IAs para comparar. 26 00:01:56,710 --> 00:01:59,710 Así que hoy vamos a analizar a fondo este experimento. 27 00:01:59,710 --> 00:02:06,710 Veremos cómo los grandes modelos de IA que todos conocemos se enfrentan a los prejuicios humanos cuando hay que tomar decisiones en grupo. 28 00:02:06,710 --> 00:02:10,710 Y el escenario que eligieron es un clásico absoluto de la psicología social. 29 00:02:10,710 --> 00:02:12,710 Seguro que a mucha gente le suena. 30 00:02:12,710 --> 00:02:14,710 El ejercicio de perdidos en el mar. 31 00:02:14,710 --> 00:02:17,710 Sí, el típico ejercicio de team building. 32 00:02:17,710 --> 00:02:20,710 Que a casi todos nos ha tocado sufrir alguna vez en la oficina. 33 00:02:20,710 --> 00:02:21,710 La premisa es simple. 34 00:02:21,710 --> 00:02:28,710 Un grupo está a la deriva en un bote, tienen una lista de objetos y deben decidir cuáles son los más importantes. 35 00:02:28,710 --> 00:02:32,710 Pero antes de nada, tienen que tomar la decisión más importante de todas. 36 00:02:32,710 --> 00:02:33,710 Elegir a un líder. 37 00:02:33,710 --> 00:02:36,710 Y ahí es donde empieza el verdadero experimento. 38 00:02:36,710 --> 00:02:37,710 De acuerdo. 39 00:02:37,710 --> 00:02:39,710 Vamos a meternos en la cocina del experimento. 40 00:02:39,710 --> 00:02:41,710 Tenemos grupos de cuatro personas. 41 00:02:41,710 --> 00:02:42,710 Vale. 42 00:02:42,710 --> 00:02:45,710 Tienen que discutir y ponerse de acuerdo para elegir un líder. 43 00:02:45,710 --> 00:02:46,710 Y esto es importante. 44 00:02:46,710 --> 00:02:53,710 El rendimiento de ese líder en la tarea de supervivencia determina la recompensa económica de todo el grupo. 45 00:02:53,710 --> 00:02:55,710 Claro que hay un incentivo real. 46 00:02:55,710 --> 00:02:56,710 No es solo por el honor. 47 00:02:56,710 --> 00:02:58,710 O sea que interesa elegir bien. 48 00:02:58,710 --> 00:02:59,710 Claro. 49 00:02:59,710 --> 00:03:02,710 Y aquí es donde los investigadores introducen una variable clave. 50 00:03:02,710 --> 00:03:06,710 Dividen a los participantes en dos escenarios completamente distintos. 51 00:03:06,710 --> 00:03:09,710 El primero lo llaman la condición identificada. 52 00:03:09,710 --> 00:03:15,710 Ahí cada persona se crea un avatar, pone su nombre real y elige sus pronombres de género. 53 00:03:16,710 --> 00:03:17,710 Todo es visible. 54 00:03:17,710 --> 00:03:19,710 O sea que ves con quién estás hablando. 55 00:03:19,710 --> 00:03:20,710 Exacto. 56 00:03:20,710 --> 00:03:27,710 En las transcripciones del estudio ves Rachel, she, her, discutiendo con James, he, him. 57 00:03:27,710 --> 00:03:30,710 La identidad de cada uno está sobre la mesa. 58 00:03:30,710 --> 00:03:36,710 Y en el otro lado del ring tenemos la condición anónima, aunque sería más correcto llamarla seudónima. 59 00:03:36,710 --> 00:03:37,710 Sí. 60 00:03:37,710 --> 00:03:40,710 A cada participante se le asigna un nombre de animal al azar. 61 00:03:40,710 --> 00:03:43,710 De repente, ya no eres Rachel, eres Oso. 62 00:03:43,710 --> 00:03:45,710 Y no eres James, eres Gato. 63 00:03:45,710 --> 00:03:47,710 El objetivo es evidente, ¿no? 64 00:03:47,710 --> 00:03:51,710 Ver si el hecho de que el género sea visible influye en la elección del líder. 65 00:03:51,710 --> 00:03:52,710 Pues… 66 00:03:52,710 --> 00:03:53,710 A ver. 67 00:03:53,710 --> 00:04:00,710 Antes de que nadie hable o elija un líder, todos los participantes hacen la prueba de supervivencia por su cuenta, en solitario. 68 00:04:00,710 --> 00:04:02,710 ¿Por qué es tan crucial este paso? 69 00:04:02,710 --> 00:04:03,710 Es fundamental. 70 00:04:03,710 --> 00:04:12,710 Es que eso permite a los investigadores saber, con datos objetivos y antes de que empiece la discusión, quién es la persona más competente de cada grupo. 71 00:04:12,710 --> 00:04:13,710 Claro. 72 00:04:13,710 --> 00:04:15,710 A esa persona la llaman el líder óptimo. 73 00:04:15,710 --> 00:04:17,710 No es una opinión, es un dato medible. 74 00:04:17,710 --> 00:04:22,710 Y esto les permite crear una métrica que usan durante todo el estudio. 75 00:04:22,710 --> 00:04:24,710 La brecha del líder óptimo. 76 00:04:24,710 --> 00:04:30,710 Que, para que nos entendamos, es la diferencia de rendimiento entre el líder que el grupo acabó eligiendo… 77 00:04:30,710 --> 00:04:34,710 Y el que debería haber elegido si se hubieran basado puramente en la competencia. 78 00:04:34,710 --> 00:04:37,710 Mide, en esencia, cómo de mala fue la decisión del grupo. 79 00:04:37,710 --> 00:04:42,710 Precisamente. Y no es subjetivo. Es un porcentaje de rendimiento perdido. 80 00:04:42,710 --> 00:04:49,710 Es literalmente el dinero o el éxito que el grupo deja sobre la mesa por culpa de un sesgo en su elección. 81 00:04:49,710 --> 00:04:55,710 Vale. Tenemos el escenario montado. Empecemos por la base. Por nosotros, los humanos. ¿Qué pasó? 82 00:04:55,710 --> 00:04:58,710 Pues… lo que te puedes imaginar. 83 00:04:58,710 --> 00:05:10,710 Pues sí. Siendo sinceros, los resultados fueron bastante predecibles. En la condición identificada, con nombres y géneros a la vista, los hombres fueron elegidos como líderes el 64% de las veces. 84 00:05:10,710 --> 00:05:22,710 Y lo más interesante es que ese 64% no tenía ninguna justificación en términos de habilidad. El propio estudio comprobó que no había diferencias significativas de rendimiento entre hombres y mujeres. 85 00:05:22,710 --> 00:05:24,710 O sea que el sesgo era de percepción. 86 00:05:24,710 --> 00:05:26,710 Pura percepción. No de competencia real. 87 00:05:26,710 --> 00:05:32,710 Y claro, ese sesgo tiene una consecuencia directa en esa brecha del líder óptimo de la que hablábamos. 88 00:05:32,710 --> 00:05:33,710 Claro. 89 00:05:33,710 --> 00:05:36,710 La brecha en los grupos humanos fue del 15%. 90 00:05:36,710 --> 00:05:39,710 Dicho de otra forma, de media, los grupos estaban sacrificando un 15% de su rendimiento. 91 00:05:39,710 --> 00:05:45,710 Sacrificando un 15% de su rendimiento potencial simplemente por no elegir a su miembro más capaz. 92 00:05:45,710 --> 00:05:50,710 Y aquí es donde se ve la potencia del diseño. Porque, ¿qué pasó en la condición anónima? 93 00:05:50,710 --> 00:05:52,710 Ahí está la clave. 94 00:05:52,710 --> 00:06:00,710 Cuando Rachel se convirtió en oso y James en gato, la tendencia a elegir hombres como líderes se redujo drásticamente. 95 00:06:00,710 --> 00:06:07,710 El simple hecho de ocultar la identidad forzó a los grupos a fijarse más en la calidad de los argumentos, ¿no? 96 00:06:07,710 --> 00:06:08,710 Justo. 97 00:06:08,710 --> 00:06:11,710 Y tomaron decisiones mucho más meritocráticas. 98 00:06:11,710 --> 00:06:15,710 De acuerdo, entonces, el comportamiento humano es el que es. 99 00:06:15,710 --> 00:06:18,710 ¿Predeciblemente sesgado? Este es nuestro punto de partida. 100 00:06:18,710 --> 00:06:20,710 ¿Nuestra línea base? 101 00:06:20,710 --> 00:06:25,710 La pregunta del Millén, claro, es qué pasa cuando sentamos a una IA en esa mesa. 102 00:06:25,710 --> 00:06:28,710 ¿Aprende de nuestros errores o los repite punto por punto? 103 00:06:28,710 --> 00:06:30,710 Ahí empieza lo bueno. 104 00:06:30,710 --> 00:06:36,710 Los investigadores cogieron todas las transcripciones y perfiles de los humanos y crearon simulaciones. 105 00:06:36,710 --> 00:06:39,710 Pusieron a agentes de IA a interpretar a cada participante. 106 00:06:39,710 --> 00:06:48,710 Exacto. Usaron tres modelos que nos suenan a todos. Gemini de Google, GPT de OpenAI y Cloud de Anthropic. 107 00:06:48,710 --> 00:06:53,710 A cada agente de IA se le daba el perfil de un humano y se le ponía en la misma situación. 108 00:06:53,710 --> 00:06:55,710 ¿Identificada o anónima? 109 00:06:55,710 --> 00:07:03,710 Eso es. Y aquí es donde el estudio introduce esa idea central que le da título. La IA como espejo o como máscara. 110 00:07:03,710 --> 00:07:05,710 Claro. Refleja nuestro comportamiento. 111 00:07:05,710 --> 00:07:13,710 ¿Con sesgos incluidos o se pone una máscara para ocultarlos y ofrecernos un resultado ideal casi utópico? 112 00:07:13,710 --> 00:07:18,710 Empecemos por los espejos, porque los resultados de Gemini y GPT son para enmarcar. 113 00:07:18,710 --> 00:07:24,710 Se comportaron, y es fascinante verlo en los datos, como un reflejo casi perfecto del comportamiento humano. 114 00:07:24,710 --> 00:07:26,710 ¿Y eso qué significa en la práctica? 115 00:07:26,710 --> 00:07:32,710 Pues que en la condición identificada replicaron los sesgos humanos con una fidelidad asombrosa. 116 00:07:32,710 --> 00:07:34,710 No sólo mostraron la misma tendencia elegida. 117 00:07:35,710 --> 00:07:47,710 No, no. Es que además su tasa de alineamiento, es decir, la frecuencia con la que elegían exactamente al mismo líder que el grupo humano original, fue altísima. 118 00:07:47,710 --> 00:07:54,710 El estudio dice que reprodujeron no sólo el resultado final, sino el mismo patrón de decisión subóptima. 119 00:07:54,710 --> 00:08:04,710 Fueron un espejo impecable. Si el grupo humano se equivocaba por un sesgo de género, Gemini y GPT se equivocaban exactamente de la misma manera. 120 00:08:04,710 --> 00:08:09,710 Pero entonces llega el tercer modelo en discordia, Claude, y la historia da un giro de guión. 121 00:08:09,710 --> 00:08:11,710 Ahí la cosa cambia. 122 00:08:11,710 --> 00:08:21,710 Entiendo lo de los modelos espejo. Tiene su lógica que imiten los datos con los que se han entrenado, que al final son un reflejo de nosotros. Pero lo de Claude me rompe los esquemas. 123 00:08:21,710 --> 00:08:23,710 Es que es muy llamativo. 124 00:08:23,710 --> 00:08:33,710 Si todos, en teoría, beben de las mismas fuentes de datos de Internet, ¿cómo es posible que uno de ellos decida de repente ignorar todo el ruido social y actuar como un economista? 125 00:08:34,710 --> 00:08:38,710 Un economista perfectamente racional. ¿Qué lo hace tan diferente? 126 00:08:38,710 --> 00:08:48,710 La respuesta está en los datos. Y es sorprendente. Claude tuvo un alineamiento bajísimo con las decisiones de los humanos. Casi nunca coincidía con ellos. 127 00:08:48,710 --> 00:08:49,710 ¿Y por qué? 128 00:08:49,710 --> 00:08:55,710 Pues la razón es que estaba ocupado haciendo otra cosa. Elegir sistemáticamente al líder óptimo. 129 00:08:55,710 --> 00:08:56,710 No me digas. 130 00:08:56,710 --> 00:09:01,710 Su brecha del líder óptimo fue de sólo un 2%. Casi perfecta. 131 00:09:01,710 --> 00:09:04,710 Era extraordinariamente bueno ignorando los sesgos de género. 132 00:09:04,710 --> 00:09:11,710 Los sesgos sociales que se colaban en la conversación y centrándose únicamente en quién demostraba más competencia en sus argumentos. 133 00:09:11,710 --> 00:09:19,710 O sea que, en lugar de reflejarnos, no se enmascaraba. Proyectaba un resultado idealizado puramente meritocrático. 134 00:09:19,710 --> 00:09:29,710 Exacto. No actuaba como nosotros, sino como la versión de nosotros que nos gustaría ser en nuestros mejores sueños. Racionales y justos. 135 00:09:29,710 --> 00:09:33,710 Exacto. Es como si se saltara todo el profeso social humano. 136 00:09:33,710 --> 00:09:39,710 Con sus simpatías, sus prejuicios, sus dinámicas de poder, para ir directamente al resultado más eficiente. 137 00:09:39,710 --> 00:09:41,710 Pero la historia no acaba aquí, ¿verdad? 138 00:09:41,710 --> 00:09:45,710 No. Porque los investigadores hicieron otra pregunta. 139 00:09:45,710 --> 00:09:54,710 Espera, que esto me parece completamente antiintuitivo. Si el problema era el sesgo de género, y Claude ya era buenísimo ignorándolo cuando las identidades eran visibles, 140 00:09:54,710 --> 00:10:01,710 la lógica dice que si le quitas esas etiquetas de género, debería ser igual de bueno o incluso mejor, ¿no? Porque iba a empeorar. 141 00:10:01,710 --> 00:10:02,710 Pues esa es la gran sorpresa. 142 00:10:02,710 --> 00:10:10,710 Pues esa es la gran sorpresa del estudio. El rendimiento de Claude, el modelo casi perfecto, empeoró significativamente en la condición anónima. 143 00:10:10,710 --> 00:10:12,710 ¿En serio? Sí. 144 00:10:12,710 --> 00:10:22,710 Al igual que Gemini y GPT, en ausencia de las etiquetas claras de hombre o mujer, empezó a mostrar un sesgo y a elegir más líderes masculinos. 145 00:10:22,710 --> 00:10:23,710 Pero… 146 00:10:23,710 --> 00:10:31,710 Pasó de ser un dechado de meritocracia a replicar un sesgo muy parecido al de los otros modelos y, de hecho, al de los propios humanos. 147 00:10:31,710 --> 00:10:34,710 ¿Pero qué explicación tiene eso? ¿Cómo puede ser? 148 00:10:34,710 --> 00:10:43,710 Es una de las conclusiones más profundas del artículo. La hipótesis es que los modelos han aprendido de sus gigantescos datos de entrenamiento 149 00:10:43,710 --> 00:10:52,710 que ciertos patrones lingüísticos están, de forma implícita, codificados como masculinos y asociados al liderazgo. 150 00:10:52,710 --> 00:10:54,710 Ah, vale, vale. 151 00:10:54,710 --> 00:11:00,710 Quizás un tono más asertivo, una mayor seguridad al exponer los argumentos, ciertas formas de estructurar las frases… 152 00:11:00,710 --> 00:11:02,710 Entiendo. 153 00:11:02,710 --> 00:11:13,710 Cuando el modelo no tiene la etiqueta explícita mujer para activar su mecanismo corrector, se fía de estos patrones sutiles que ha aprendido a asociar con la competencia y el liderazgo. 154 00:11:13,710 --> 00:11:15,710 Y que, a su vez, asocia con lo masculino. 155 00:11:15,710 --> 00:11:17,710 Exactamente. 156 00:11:17,710 --> 00:11:24,710 Es un sesgo que está a un nivel mucho más profundo. No está en la etiqueta, sino incrustado en el propio lenguaje que ha procesado. 157 00:11:24,710 --> 00:11:25,710 Ahí está. 158 00:11:25,710 --> 00:11:29,710 Es como si, sin una señal clara para corregirse, volviera a su configuración. 159 00:11:30,710 --> 00:11:34,710 Es una configuración por defecto, que está sesgada por los datos del mundo real. 160 00:11:34,710 --> 00:11:43,710 Exactamente. Y, para rematarlo, los investigadores hicieron un último experimento contrafactual. Le quitaron a la IA toda la información demográfica. 161 00:11:43,710 --> 00:11:45,710 Incluso la de su propio personaje. 162 00:11:45,710 --> 00:11:55,710 Toda. No sólo la de los otros miembros, sino también la de su propio personaje. El agente ya no sabía si estaba simulando a un hombre, a una mujer, su edad… 163 00:11:55,710 --> 00:11:57,710 ¿Y el resultado fue? 164 00:11:57,710 --> 00:12:04,710 El engañamiento con las decisiones humanas se desplomó por completo. La IA ya no sabía cómo comportarse. 165 00:12:04,710 --> 00:12:14,710 La conclusión parece clara. Para que una IA pueda simular de forma creíble el comportamiento social humano, necesita lo que el estudio llama un andamiaje de identidad. 166 00:12:14,710 --> 00:12:16,710 Necesita un contexto. 167 00:12:16,710 --> 00:12:24,710 Necesita saber a quién está interpretando. Tener un rol. Sin esa persona, en un contexto social, está completamente perdida. 168 00:12:24,710 --> 00:12:26,710 Lo que nos lleva de cabeza a las implicaciones de todo esto. 169 00:12:27,710 --> 00:12:31,710 Porque la tensión entre espejo y máscara no va de qué modelo es mejor o peor. 170 00:12:31,710 --> 00:12:32,710 Claro. 171 00:12:32,710 --> 00:12:35,710 Va de que sirven para propósitos radicalmente distintos. 172 00:12:35,710 --> 00:12:43,710 A ver, explícame eso. ¿En qué escenario querrías un modelo espejo que sabes que es defectuoso y que replica tus propios sesgos? 173 00:12:43,710 --> 00:12:51,710 Pues, por ejemplo, para la ciencia social. Un modelo como Gemini, que clava el comportamiento humano, es una herramienta increíble para los investigadores. 174 00:12:51,710 --> 00:12:52,710 Ah, claro. 175 00:12:52,710 --> 00:12:56,710 Te permite crear simulaciones a gran escala para probar cómo reaccionaría una pobre mujer. 176 00:12:56,710 --> 00:13:04,710 O reaccionaría una población a ciertas políticas o intervenciones sin tener que hacer experimentos carísimos con personas reales. 177 00:13:04,710 --> 00:13:08,710 ¿Podrías simular cómo se propaga la desinformación o…? 178 00:13:08,710 --> 00:13:14,710 O cómo se forman burbujas de opinión. O, como en este caso, qué sesgos emergen en un proceso de selección. 179 00:13:14,710 --> 00:13:22,710 Entiendo. Es como tener un laboratorio de sociedades en miniatura, para probar hipótesis. Y supongo que la utilidad de la máscara es la contraria. 180 00:13:22,710 --> 00:13:23,710 Justo. 181 00:13:23,710 --> 00:13:25,710 Un modelo máscara, como Claude, 182 00:13:25,710 --> 00:13:30,710 es un modelo mucho más útil en aplicaciones prácticas, donde no quiere simular la realidad, sino mejorarla. 183 00:13:30,710 --> 00:13:35,710 Ponme un ejemplo. Inocina un consejo de administración debatiendo una decisión de alto riesgo. 184 00:13:35,710 --> 00:13:40,710 Un asistente de IA tipo máscara podría analizar los argumentos y señalar. 185 00:13:40,710 --> 00:13:49,710 El plan de Juan tiene la mayor probabilidad de éxito según los datos, a pesar de que la propuesta de María se ha presentado con más vehemencia. 186 00:13:49,710 --> 00:13:50,710 Vaya. 187 00:13:50,710 --> 00:13:55,710 No está reflejando la dinámica de poder de la sala. Está guiando hacia el resultado óptimo. 188 00:13:55,710 --> 00:13:59,710 Ahí es donde un modelo máscara aporta un valor incalculable. 189 00:13:59,710 --> 00:14:03,710 Eso conecta directamente con cómo vamos a interactuar con estas herramientas. 190 00:14:03,710 --> 00:14:12,710 La próxima vez que una IA participe en una reunión de trabajo o modere un debate, la pregunta clave no será sólo qué sabe hacer, sino qué debería hacer. 191 00:14:12,710 --> 00:14:13,710 Esa es la clave. 192 00:14:13,710 --> 00:14:22,710 Debería actuar como un espejo que nos muestra nuestras dinámicas o como un mediador que nos empuja a ser mejores. Y la respuesta es una decisión de diseño que lo cambia todo. 193 00:14:22,710 --> 00:14:24,710 Y esa decisión depende por completo del objetivo. 194 00:14:24,710 --> 00:14:27,710 No hay una respuesta única y correcta para todo. 195 00:14:27,710 --> 00:14:38,710 Entonces, resumiendo. La idea principal es que el famoso concepto de alineación en la IA es mucho más enrevesado de lo que parece. No es un objetivo único, ¿no? 196 00:14:38,710 --> 00:14:50,710 Para nada. Hay que decidir con qué queremos que se alinee la IA. Con nuestro comportamiento real, que a menudo es defectuoso, o con un ideal de cómo deberíamos comportarnos, más justo y racional. 197 00:14:50,710 --> 00:14:52,710 Esa es la cuestión. 198 00:14:52,710 --> 00:14:59,710 Estudios como este nos alejan de esa visión simplista de IAs buenas o malas, y nos acercan a un entendimiento más sofisticado. 199 00:14:59,710 --> 00:15:00,710 Son herramientas. 200 00:15:00,710 --> 00:15:10,710 Son herramientas, con diferentes personalidades o sesgos inductivos. Y cada una es útil para un trabajo distinto. La clave es saber qué herramienta usar en cada momento. 201 00:15:10,710 --> 00:15:12,710 Lo cual nos deja con una última reflexión, ¿no? 202 00:15:12,710 --> 00:15:15,710 Sí. Porque el estudio demuestra algo que da que pensar. 203 00:15:15,710 --> 00:15:23,710 Un modelo como Claude puede enmascarar nuestros sesgos sociales cuando las pistas de identidad, como el género, son explícitas. 204 00:15:23,710 --> 00:15:24,710 Vale. 205 00:15:24,710 --> 00:15:32,710 Es como si al ver la etiqueta mujer, el modelo activara un protocolo interno para ser extracuidadoso y garantizar la meritocracia. 206 00:15:32,710 --> 00:15:33,710 Pero… 207 00:15:33,710 --> 00:15:42,710 Pero en cuanto esas pistas desaparecen, cuando todos son oso o gato, los sesgos que ha aprendido de analizar miles de millones de textos de Internet vuelven a salir a flote. 208 00:15:42,710 --> 00:15:44,710 Y eso nos deja con una pregunta final, que es un poco incómoda. 209 00:15:44,710 --> 00:15:46,710 Es una pregunta que se queda resonando. 210 00:15:46,710 --> 00:15:57,710 Si para conseguir que una IA se comporte de forma equitativa, tenemos que estar recordándole constantemente las mismas categorías sociales hombre-mujer que, en teoría, intentamos que ignore… 211 00:15:57,710 --> 00:15:58,710 Hmm… 212 00:15:58,710 --> 00:16:04,710 ¿Qué nos dice eso sobre la verdadera naturaleza del sesgo que hemos codificado en estas máquinas? 213 00:16:04,710 --> 00:16:13,710 Y, por extensión, ¿qué nos dice de los sesgos que están tan arraigados en nuestra propia cultura que hasta una máquina los aprende sin que nos demos cuenta? 214 00:16:13,710 --> 00:16:25,140 Y hasta ahora. 215 00:16:25,140 --> 00:16:27,140 Por aquí el episodio de hoy. 216 00:16:27,140 --> 00:16:29,140 Muchas gracias por tu atención. 217 00:16:29,140 --> 00:16:40,690 Esto es BIMPRAXIS. 218 00:16:40,690 --> 00:16:42,690 Nos escuchamos en el próximo episodio.