27.8 C
Santo Domingo
miércoles, marzo 4, 2026

IA amplifica sesgos de género en jóvenes frágiles según estudio

Un estudio global de LLYC revela que los algoritmos perpetúan roles del pasado y actúan como una «amiga tóxica» con las adolescentes

SANTO DOMINGO, República Dominicana – Un informe global presentado por LLYC en el marco del 8-M evidencia cómo los sesgos de género en inteligencia artificial se han convertido en un reflejo amplificado de las desigualdades del mundo real. El estudio «El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes» analizó 9.600 recomendaciones de cinco grandes modelos de lenguaje en 12 países durante 2025, revelando que las respuestas de los chatbots etiquetan a las mujeres jóvenes como «frágiles» en el 56% de los casos, una categorización que no se aplica con la misma frecuencia a los varones.

El estudio y su metodología

La investigación, coordinada por Luisa García, socia y CEO Global de Corporate Affairs en LLYC, examinó a fondo el comportamiento de asistentes como ChatGPT, Gemini y Grok. Frente a los mismos dilemas planteados por perfiles simulados de adolescentes, la inteligencia artificial recomendó a las mujeres buscar validación externa para «sentirse validadas» seis veces más que a los hombres. «No es la IA la que está sesgada, sino la realidad», aseguró García, «la inteligencia artificial no corrige los déficits que tenemos, sino que refleja y amplifica una mayor protección a ellas hasta reducir su autonomía».

La «amiga tóxica» digital

La dependencia emocional de la juventud hacia estas herramientas es creciente, pues un 31% de los adolescentes encuentra tan satisfactorio hablar con un chatbot como con un amigo real. El algoritmo aprovecha esta vulnerabilidad y se convierte en una consejera con un marcado doble rasero. Con las mujeres, la IA se personifica 2,5 veces más usando frases como «yo te entiendo», priorizando la empatía artificial sobre la solución técnica, un patrón que las investigadoras denominan «amiga tóxica». Para los hombres, en cambio, el lenguaje es directo y lleno de imperativos como «haz» o «ve», reforzando la idea del hombre como sujeto de acción.

Vocaciones programadas desde el algoritmo

Uno de los hallazgos más críticos del informe es la confirmación de un «techo de cristal programado» que opera desde la adolescencia. Los sesgos de género en inteligencia artificial redirigen las vocaciones de las mujeres hasta tres veces más hacia las ciencias sociales y la salud, mientras que a los varones los incentivan hacia el liderazgo, la ingeniería y la resolución de problemas. Esta segregación vocacional temprana no solo es un reflejo de la sociedad, sino que la legitima y la proyecta hacia el futuro laboral de las nuevas generaciones.

Doble rasero en cuerpo y estética

La presión estética también tiene su correlato digital. Ante consultas sobre inseguridades, la inteligencia artificial responde con consejos de moda un 48% más a las mujeres que a los hombres. En modelos de código abierto como LLaMA, las menciones a la apariencia femenina son un 40% superiores. Mientras tanto, para superar una ruptura emocional, el algoritmo recomienda a los varones ir al gimnasio hasta dos veces más. La lógica subyacente asocia a los hombres con la «fuerza y funcionalidad», mientras que el bienestar femenino se vincula a la «autenticidad» y a «sentirse única».

El rol de la familia tradicional

El sesgo también penetra en la esfera privada, donde la inteligencia artificial legitima roles familiares del siglo pasado. El afecto aparece como un atributo materno en una proporción tres veces superior al paterno. Al padre se le desplaza a un rol de «ayudante» en el 21% de las respuestas, negándole la corresponsabilidad. Esta dinámica, según describe el informe, desemboca en la «sobrecarga de la heroína», una narrativa donde la mujer no solo debe cuidar, sino hacerlo con una excelencia moral permanente. Estas percepciones sesgadas calan hondo en comunidades donde los roles de género ya están fuertemente arraigados.

Una llamada a la acción social

Ante la contundencia de los datos, LLYC ha lanzado la campaña «Espejismo de igualdad» para invitar a la sociedad a reflexionar y cambiar la realidad que alimenta a estas máquinas. La premisa es clara: si no se modifican los patrones sociales desiguales, no se puede exigir a la inteligencia artificial que ofrezca respuestas distintas. La solución, por tanto, no es solo técnica, sino profundamente humana y política, y pasa por auditar los algoritmos y formar a las nuevas generaciones en un pensamiento crítico que les permita identificar y rechazar estos estereotipos automatizados.

#AlcarrizosNews #SesgosDeGénero #InteligenciaArtificial #IA #8M #IgualdadDeGénero #TechoDeCristal #Estereotipos #Tecnología #LLYC #Juventud #Feminismo

ÚLTIMAS NOTICIAS

2,313FansMe gusta
1,161SeguidoresSeguir
364SeguidoresSeguir
306SuscriptoresSuscribirte
- Advertisement -spot_img

Más Recientes