En el Día Internacional de las Mujeres, Jóvenes y Niñas en la Ciencia, la doctora Alejandra Ciria Fernández, investigadora de la UNAM, advirtió que los sesgos de género siguen influyendo en el desarrollo científico y tecnológico, especialmente en la inteligencia artificial.
Escucha esta entrevista que Adriana Esthela Flores realizó a la Doctora, Alejandra Ciria, investigadora de la UNAM.
Laura Velarde
En el marco del Día Internacional de las Mujeres, Jóvenes y Niñas en la Ciencia, la doctora Alejandra Ciria Fernández, investigadora del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la UNAM, advirtió que los sesgos de género continúan influyendo en el desarrollo científico y tecnológico. Particularmente en áreas como la inteligencia artificial.
La especialista explicó en entrevista para IMER Noticias, que muchos algoritmos reproducen prejuicios históricos porque son entrenados con datos que ya contienen desigualdades. En diversos procesos tecnológicos, los sesgos de género pueden reproducirse de manera silenciosa a través de los datos y el diseño.
«De puestos de técnicos tenían estos estos currículos de los técnicos tenían sesgo. Entonces, el algoritmo aprendió este sesgo y pues las candidatas no se ajustaban al perfil requerido por la empresa dado al sesgo que había tenido los datos de entrenamiento. Entonces, a veces datos que aparentemente son neutros, pues pueden esconder poderosos sesgos de género. Esto mismo ocurre con algoritmos de reconocimiento de rostros y esto tiene que ver con la representatividad de los datos, para los datos de entrenamiento. Otros sesgos también son relacionados con los sesgos de diseño, que eso es muy importante. Por ejemplo, el diseño de herramientas y creo que todos lo hemos lo hemos experimentado una vez. Como los asistentes de voz, como Siri, como Alexa, que tienen voces femeninas, y si se traslada esto como en un plano tecnológico, se continúa con este estereotipo. De la mujer como como asistente. Eso tiene que ver con que hay un pequeño porcentaje de investigadores en el desarrollo de estas de estas herramientas».
«Efecto Matilda»
A lo largo de la historia de la ciencia, el reconocimiento no siempre ha sido otorgado de manera justa. Numerosas investigadoras han realizado aportaciones fundamentales que, sin embargo, fueron minimizadas, ignoradas o directamente atribuidas a colegas hombres. Esta forma de exclusión sistemática tiene nombre: el “efecto Matilda”.
«La invisibilidad del trabajo de las de las mujeres en la ciencia. De hecho, esto se le conoce como el efecto Matilda, eh que se acuñó el término en 1993 por una por Matilda Joslyn Gagque señalaba que el trabajo de las de las mujeres, ¿no? No tenía el reconocimiento o era invisibilidad todos estos logros científicos y si se tiende a atribuir estos logros a menudo a los colegas varones».
También alertó sobre sesgos culturales asociadas al género en las ciencias. Principalmente en niñas pequeñas que ya asocian la ingeniería con hombres por falta de diversidad en los libros:
«No se habla de la contribución de las mujeres en muchos en muchos muchas investigaciones y logros científicos. Entonces, se deja de tener como estos estos referentes eh que permiten a las mujeres entender que toda la contribución que también han tenido a la ciencia, ¿no? Entonces, estos estereotipos culturales.
Se van replicando, se van propagando y generando ideas como construcciones sociales vinculadas a carreras relacionadas con la ciencia, la tecnología, ingeniería, matemática, etcétera, con lo masculino. Incluso niñas pequeñas de desde los 6 años. Se ha observado en distintas investigaciones que ya asocian, por ejemplo, a la ingeniería con hombres».
🟣Mensaje de la Presidenta @Claudiashein con motivo del Día Internacional de la Mujer y la Niña en la Ciencia. “Hay que impulsar que las niñas estudien matemáticas, biología, física, química, también filosofía y ciencias sociales”. pic.twitter.com/J5FAR74n1z
— Secretaría de Ciencia (@Secihti_Mx) February 11, 2026
Lo anterior, refleja la baja representación femenina en el desarrollo de estas herramientas. Además, enfatiza que se debe tener conciencia de nuestros propios sesgos y de los prejuicios culturales asociados al género es fundamental para poder contrarrestarlos.
«Tener noción de nuestros propios sesgos y de los sesgos culturales asociados al género ayuda mucho a contrarrestarlos. A que las niñas tomen decisiones distintas y quieren estudiar una carrera relacionada con la ciencia o la tecnología o matemáticas. Sabiendo que pueden sentir temor y que esto proviene de un sesgo cultural asociado al ser al género, eso ayuda mucho entender esos miedos, entender esas dudas que no tienen que ver tal cual con las habilidades, sino que tiene que ver con sesgos históricos de género».
Para contrarrestar estas desigualdades, subrayó la importancia de políticas de igualdad, cuotas de género y programas de visibilidad. Mismas que deben implementarse en distintos espacios. Por ejemplo, en universidades impartir foros o pláticas incluyentes:
«Hay políticas públicas e institucionales que están dirigidas a la creación de leyes de igualdad eh de género y una de ellas que ha sido muy relevante es la de cuota de género en empresas de tecnología o en universidades, por mencionar algunas, para asegurar la representación femenina en puestos de diversos».
Finalmente, destacó la necesidad de impulsar la educación temprana con perspectiva de género para ampliar las oportunidades de niñas y jóvenes en ciencia y tecnología.
Te recomendamos:
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio
https://noticias.imer.mx/blog/los-algoritmos-reproducen-prejuicios-historicos-alertan-sobre-sesgos-en-la-inteligencia-artificial/