Empatía para ellas, estrategia para ellos: el sesgo de género de la IA
Un reciente informe revela que los sistemas de inteligencia artificial responden de manera distinta a hombres y mujeres jóvenes, replicando estereotipos de género en ámbitos como las emociones, la familia y las decisiones vocacionales.
¿Alguna vez has acudido a la inteligencia artificial en busca de un consejo práctico y, en lugar de una solución, recibes solo palabras de consuelo?
Un estudio realizado por la consultora global LLYC analizó cinco sistemas de intelgencia artificial. Específicamente cómo estos responden a jóvenes entre 16 y 20 años, y entre 21 y 25 años, en doce países, entre ellos, Chile.
Se hicieron 100 preguntas abiertas, organizadas en diez temas clave para esta etapa de la vida: salud mental, relaciones familiares, amistad y pertenencia, amor y desamor, identidad y orientación sexual, autoestima y crecimiento personal, uso de IA y dependencia emocional, futuro y estudios, vida digital y móvil; y género e igualdad.
Una de las primeras conclusiones es que el trato, tono y tipo de ayuda que entregan, varía según el género de quien hace la consulta. En general, a ellas se les ofrecen respuestas cargadas de empatía, mientras que ellos reciben opciones de acción más concretas.
El análisis examina cómo estos sistemas pueden influir en la construcción de identidad de los jóvenes cuando se incorpora la perspectiva de género. Y ese reflejo no siempre resulta cómodo: los datos muestran que los modelos conversacionales tienden a reproducir, y en algunos casos reforzar estereotipos de género profundamente arraigados.
Uso terapéutico versus uso estratégico
Uno de los hallazgos más llamativos es la diferencia de tono en las respuestas. A las mujeres se les responde mayoritariamente con empatía y validación emocional, mientras que a los hombres se les entregan instrucciones directas, con un tono más estoico y resolutivo.
En apariencia, validar emociones podría parecer positivo. Sin embargo, el informe advierte que esta dinámica puede convertirse en una forma sutil de “gaslighting”, es decir, manipulación para hacer al otro dudar de sus percepciones y cuestionar su propia realidad.
A ellas se les confirma que “su rabia es legítima” o que “sus sentimientos son válidos”, pero rara vez se les entregan herramientas concretas para actuar. A ellos, en cambio, se les orienta hacia la acción inmediata.
Algo similar ocurre con las respuestas frente a situaciones que implican dolor o conflicto. El informe concluye que para ellas la IA es terapéutica, mientras que para ellos es estratégica, pues en el 25% de las interacciones por parte de mujeres, la IA prioriza el consuelo pasivo y la validación emocional. Se refuerza una imagen de vulnerabilidad y fragilidad, donde el acompañamiento emocional reemplaza la entrega de estrategias prácticas.
Mientras que en el caso de los hombres, ante situaciones similares, en el 12% de las respuestas se activa un protocolo de control y defensa, como por ejemplo documentar interacciones o limitar contactos, bajo la lógica de “protegerse del sistema”. El mensaje implícito es potente: las mujeres necesitan contención, los hombres necesitan estrategia.
Además, la IA impone a los usuarios masculinos un “bozal emocional que deja a los hombres sin palabras para las emociones”. Mientras invita a las chicas a explorar sus sentimientos, a ellos los entrena bajo los mandatos de dureza y competencia, replicando la orden de “los chicos no lloran” o “sé fuerte”.
Una visión tradicional de los roles de género
El informe también detecta la reproducción de roles familiares tradicionales. La IA tiende a asignar el afecto como un atributo materno en una proporción tres veces superior al paterno. Mientras que al padre se le desplaza a un rol de “ayudante” en el 21% de las respuestas, en lugar de ser reconocido como corresponsable.
Esta lógica desemboca en la “sobrecarga de la heroína”, una narrativa en la que la mujer no solo cuida, sino que además debe hacerlo con excelencia moral permanente. De hecho, en 1 de cada 10 respuestas, la IA no se limita a asistir a la usuaria, sino que le impone una carga moral excesiva: se espera que no solo sea madre o profesional, sino que además sea “inspiradora”, “pionera” y un “referente” constante para su género.
Esta tendencia traslada el espacio digital a los mismos esquemas que muchas políticas públicas y discursos sociales intentan desmontar.
Barreras en el ámbito laboral y de educación
En el ámbito laboral, las respuestas analizadas por el informe reflejan y perpetúan históricas barreras del crecimiento profesional femenino, orientando de manera asimétrica las vocaciones. Mientras que a los hombres se les incentiva en un 12% más a fortalecer el pensamiento crítico y habilidades de liderazgo o ingeniería, a las mujeres se les redirige hasta 3 veces más hacia las ciencias sociales y la salud.
En el ámbito STEM (Science, Technology, Engineering, Mathematics), la IA proyecta una dualidad contradictoria, pues si bien impulsa a las jóvenes a incursionar en estas disciplinas, reconoce que es un área poco dominada por ellas, generando una barrera psicológica de no pertenencia. De hecho, las mujeres que se interesan en este tipo de carreras reciben respuestas hasta 1.000 caracteres más extensas que el resto, pues la IA siente la necesidad de rodearlas de advertencias y consejos de resiliencia para un entorno que todavía se percibe como ajeno.
Bárbara Bonati, periodista UC, especialista en género, tecnología e impacto social, explica que estas ideas son instauradas en niñas y niños desde la infancia, por lo que “cuando llegan a la inteligencia artificial, les refuerza esa sensación de no pertenecer”.
Diferencias en el uso del lenguaje
Las diferencias no son solo temáticas, sino lingüísticas. Con las mujeres la IA adopta un tono maternal, casi de amiga o mentora. De acuerdo con datos arrojados por el informe, en estas interacciones, una de cada tres respuestas de la IA adopta un tono de “amistad”, un patrón un 13% más frecuente que con los hombres.
Así mismo, se personifica 2,5 veces más que en las respuestas dirigidas a hombres, utilizando frases como “yo te entiendo” o “si estuviera en tu lugar”. Se construye así un vínculo de cercanía artificial que busca generar confianza, pero que parte de una premisa paternalista: la idea de que ellas requieren validación constante antes de avanzar.
Con los hombres, en cambio, el rol es el de un entrenador. El lenguaje se llena de imperativos: “haz”, “di”, “ve”. No hay espacio prioritario para la empatía, el objetivo es el resultado. Se refuerza así la noción de que el hombre es un sujeto de acción pura, que no necesita gestionar su mundo emocional.
La tecnología hereda rasgos del mundo que la programó
La conclusión del informe es contundente: la inteligencia artificial no es neutral. Hereda y sistematiza los sesgos culturales del entorno en el que fue entrenada. Si la sociedad distribuye el cuidado, la autoridad, la fragilidad o la fuerza según género, los algoritmos tenderán a replicar esa distribución.
María Francisca Yáñez, directora del Centro Nacional de Inteligencia Artificial explica que “si bien nuestra sociedad tenía estos sesgos, la inteligencia artificial los amplifica porque nos permite hacer un uso intensivo, por lo tanto los sesgos que contienen sus respuestas tienen un impacto social a escala, amplio, sin límites, sin fronteras”.
Bárbara Bonati asegura que “el problema no es la tecnología, el problema viene de la sociedad. Lo que debemos preocuparnos es cómo entrenamos a la inteligencia artificial”. Por otro lado, Yáñez señala que “los modelos de inteligencia artificial no están construidos en terreno neutral, están construidos con una historia muy larga y amplia de datos, y aquí es donde vienen las fuentes de sesgo”.
Bonati reconoce también un problema en el sistema educacional y el desarrollo del pensamiento crítico. “Les enseñamos poco a los niños a cuestionarse, a cuestionar a los adultos. Entonces, tampoco le van a cuestionar a la inteligencia artificial”, dice. En ese sentido, Yáñez plantea que “la clave es nuestra formación desde pequeños, entender cómo funciona la inteligencia artificial y sus limitaciones, no solo desde lo tecnológico, sino de la reflexión sobre cómo sus respuestas pueden influir en la forma en que nos comunicamos, nos relacionamos y nos organizamos como sociedad”.
Lo último
Lo más leído
Casi nadie tiene claro qué es un modelo generativo. El resto lo leyó en La Tercera
Plan Digital + LT Beneficios$6.990 al mes SUSCRÍBETE