¿Exclusión en el algoritmo?

AutorGADGETS / STAFF

Aunque el desarrollo tecnológico ha traído innovaciones como acortar las distancias de comunicación, aún persisten exclusiones en los algoritmos de Internet que afectan a mujeres en el acceso a información, oportunidades educativas y hasta laborales.

Un documento de la ONU señala que las mujeres deben formar parte de la economía digital para evitar que la Industria 4.0 perpetúe los prejuicios tradicionales de género.

A medida que aumenta el impacto de la Inteligencia Artificial en la sociedad, la escasa contribución de mujeres a la investigación y el desarrollo supone que se pasen por alto sus necesidades y perspectivas en el diseño de productos que repercuten en nuestra vida cotidiana, añade el reporte.

Grisel Ancona, directora de Women Who Code en Mérida, explica que la brecha de género presente en la red se debe a que los equipos de desarrollo de tecnología no incluyen a mujeres para aportar otra visión.

"El hecho de no tener una mujer dentro de los equipos hace que al momento en que desarrollas algoritmos no seas incluyente en los lenguajes. Es una cuestión cultural, hay un líder y hay pruebas pero se reproducen modelos de la realidad que excluyen a mujeres", menciona.

Ancona pone de manifiesto algunos ejemplos en donde el algoritmo opera de forma sesgada: el primero es el traductor DeepL, que al momento de escribir "nurse", el primer resultado será femenino (enfermera) pero al momento de ingresar "lawyer", el sistema arrojará un resultado en masculino (abogado).

El segundo caso fue el resonado escándalo de Amazon cuando en 2014 la empresa puso en marcha un sistema de reclutamiento automatizado que resultó sexista, según reportes de Reuters, porque descartaba perfiles por el hecho de ser mujeres. Al ser una tecnología con Machine Learning, el algoritmo "aprendió" que los candidatos hombres eran la preferencia.

Juana Martínez, cofundadora de la organización Women in Data Science, Power and Engineering, agrega que para enfrentar los sesgos se requieren bases de datos más diversas, lo que implica una lucha social y no tan tecnológica.

"Si queremos una Inteligencia Artificial más equilibrada y mejores experiencias para usuarias, necesitamos datos más extensos y muestras más representativas de nuestra población", argumenta.

Además de la disparidad de géneros, se presenta otra problemática: la adopción de modelos estéticos que no corresponden al contexto de México.

"Si estamos acostumbradas a que todo lo que consumimos es casi siempre...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR