
¿Qué revela el estudio?
Un informe internacional de la consultora LLYC detectó que los modelos de IA reproducen y amplifican sesgos de género al interactuar con jóvenes de entre 16 y 25 años.
¿Qué datos encontró la investigación?
El análisis de 9.600 recomendaciones generadas por cinco grandes modelos de IA muestra que las respuestas dirigidas a mujeres jóvenes las describen como “frágiles” en el 56% de los casos, sugieren buscar validación externa seis veces más que a los hombres y redirigen un 75% más sus vocaciones hacia ciencias sociales y salud.
¿Cómo cambia el lenguaje según el género?
Los sistemas de IA se personifican 2,5 veces más con mujeres, usando frases empáticas como “yo te entiendo”, mientras que con hombres emplean un lenguaje más directo y orientado a la acción.
¿Qué impacto potencial tiene esto?
El estudio advierte que la IA puede influir en decisiones personales, vocacionales y emocionales de los jóvenes, reforzando estereotipos culturales presentes en los datos con los que fue entrenada.

El informe “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes”, elaborado por la consultora global LLYC tras analizar casi 10.000 recomendaciones generadas por modelos de lenguaje, concluye que los sistemas de IA están reproduciendo y amplificando sesgos de género en la manera en que interactúan con adolescentes y jóvenes.
El trabajo examinó 9.600 respuestas generadas por cinco grandes modelos de inteligencia artificial —entre ellos ChatGPT, Gemini y Grok— en consultas realizadas por jóvenes de entre 16 y 25 años en 12 países, incluidos Argentina, Brasil, México, España y Estados Unidos.
La principal conclusión del estudio es que la inteligencia artificial no opera como un consejero neutral, sino que refleja patrones culturales presentes en los datos con los que fue entrenada. En consecuencia, los sistemas tienden a reproducir estereotipos tradicionales de género, influyendo potencialmente en la construcción de identidad, autoestima y aspiraciones profesionales de los usuarios jóvenes.

La “amiga tóxica” digital
Uno de los hallazgos más llamativos del informe es que la IA adopta un tono emocional diferente según el género del usuario. En el 56% de las respuestas dirigidas a mujeres jóvenes, los modelos de IA las describen o tratan como “frágiles”, mientras que el algoritmo recomienda buscar aprobación externa para sentirse validadas seis veces más que en el caso de los hombres.
Además, los chatbots tienden a personificarse 2,5 veces más cuando interactúan con mujeres, utilizando expresiones empáticas como “yo te entiendo” o “sé cómo te sientes”. Este estilo de respuesta prioriza la contención emocional antes que la resolución del problema.
Con los hombres, en cambio, el lenguaje suele ser más directo y orientado a la acción, con frases imperativas como “haz”, “intenta” o “ve”, reforzando la idea cultural del varón como sujeto activo. El estudio define este fenómeno como una “amiga tóxica digital”, una dinámica en la que el chatbot ofrece empatía artificial pero reproduce roles tradicionales.

Orientación vocacional sesgada
Otro de los puntos críticos del informe es el impacto potencial en las decisiones profesionales. Los modelos de IA redirigen las vocaciones de las mujeres hasta un 75% más hacia áreas como ciencias sociales, educación o salud, mientras que a los hombres los orientan con mayor frecuencia hacia ingeniería, liderazgo o resolución de problemas técnicos.
Según los autores del estudio, este patrón puede contribuir a una segregación laboral temprana impulsada por algoritmos, reforzando desigualdades históricas en sectores STEM (ciencia, tecnología, ingeniería y matemáticas).
Incluso en escenarios laborales hipotéticos, la IA muestra diferencias en la narrativa. Cuando una mujer gana más que un hombre, los sistemas califican la situación como “impresionante”, una reacción que no aparece en el caso inverso. En nueve de cada diez consultas donde las mujeres aparecen en minoría en un ámbito profesional, la IA proyecta entornos laborales hostiles, reforzando la idea de que determinados sectores siguen siendo masculinos.

Estética para ellas, rendimiento para ellos
El informe también detectó sesgos en la forma en que los sistemas responden a inquietudes sobre autoestima y bienestar. Ante inseguridades personales, la IA ofrece consejos relacionados con moda o apariencia física un 48% más a mujeres que a hombres. En modelos de código abierto como LLaMA, las menciones a la apariencia femenina superan en 40% a las dirigidas a varones.
En contraste, cuando interactúa con hombres, el algoritmo tiende a recomendar actividades físicas o entrenamiento, sugiriendo ir al gimnasio dos veces más que en el caso de las mujeres.
Esta diferencia también aparece en la manera en que se conceptualiza el cuerpo. Los modelos suelen asociar a los hombres con fuerza y funcionalidad, mientras vinculan el bienestar femenino con autenticidad, singularidad o autoestima emocional.
Roles familiares del siglo pasado
Los sesgos detectados también se extienden a la esfera privada. El informe muestra que el afecto aparece asociado a la maternidad en una proporción tres veces mayor que a la paternidad. En muchos casos, el padre es presentado como “ayudante” en el cuidado familiar —algo que ocurre en el 21% de las respuestas analizadas— en lugar de como corresponsable.
Esta narrativa refuerza lo que el estudio denomina la “sobrecarga de la heroína”, una construcción cultural en la que la mujer no solo asume el rol de cuidado, sino que además debe desempeñarlo con excelencia moral permanente.

La IA como espejo social
Para Luisa García, socia y CEO Global de Corporate Affairs de LLYC y coordinadora del estudio, el problema no reside únicamente en la tecnología. Según explicó, los modelos de inteligencia artificial no inventan estos sesgos, sino que los reflejan y amplifican.
“La inteligencia artificial no corrige los déficits de la sociedad. Refleja la realidad que existe en los datos con los que se entrena. Si la realidad no cambia, no podemos esperar que la IA cambie sus respuestas”, afirmó.
Una nueva influencia cultural
El informe advierte que el impacto de estos sesgos podría ampliarse en los próximos años debido al creciente rol social de los chatbots. Datos citados por la organización Plan International indican que el 31% de los adolescentes afirma que hablar con un chatbot resulta tan o más satisfactorio que conversar con un amigo real.
Este cambio convierte a la inteligencia artificial en una nueva figura de consejo y orientación, capaz de influir en decisiones personales, vocacionales y emocionales.
En ese contexto, los autores del estudio plantean que la discusión sobre inteligencia artificial ya no se limita a la tecnología o la productividad, sino que debe incorporar su impacto cultural y social en la construcción de identidades en la era digital.