IA y brecha de género: ¿algoritmos que empoderan o que discriminan? El (imprescindible) papel corrector de la regulación

10 mar. 2025

Concepción Campos

La iniciativa de la Fundación Aranzadi LA LEY Mujeres por Derecho te ofrece con motivo del Día de la Mujer una selección de artículos de mujeres juristas con un eje común: el cumplimiento de la igualdad supone una forma de enriquecer y democratizar la sociedad. Desde su lanzamiento en abril de 2021 Mujeres por Derecho ha contado con la participación de más de 300 juristas, lo que le convierte en el foro de referencia para el debate sobre el pasado, presente y futuro del papel de las mujeres en la profesión jurídica.

El vertiginoso despliegue de la inteligencia artificial ha multiplicado los considerables desafíos que planteaba tempranamente ya la aparición de la tecnología, poniendo el acento en la preocupación que existe a nivel internacional y a nivel regulatorio en garantizar un uso ético y responsable de la misma.

Un uso ético y responsable que, entre otros objetivos, pretende evitar no sólo perpetuar las desigualdades existentes, sino que éstas puedan amplíarse por un uso indebido de la IA. Entre este posible efecto no deseado resulta especialmente necesaria la actuación sobre la brecha digital de género, que no es otra cosa que una prolongación de la brecha de género existente en el mundo offline que traslada e incluso, en algunos casos, amplifica la desigualdad existente entre hombres y mujeres al mundo online.

Porque el elevado riesgo de que esto suceda no es una mera hipótesis de futuro, sino una realidad y así lo demuestran distintas experiencias, estudios y análisis académicos. Pero más allá de una cuestión de justicia social, la igualdad de género real y efectiva se proyecta en la obtención de otros beneficios para el conjunto de la sociedad, pues los análisis demuestran que la presencia igualitaria de las mujeres en las dimensiones económica y política son fundamentales para promover una mayor inversión y una toma de decisiones más equitativa y un mayor crecimiento, pues podría suponer un aumento del 20% del PIB mundial, según estimaciones del Banco Mundial recogidas en el Informe Global Gender Gap 2024.

Por ello, la pregunta es ¿cómo puede la IA perjudicar a la brecha de género? Vamos a intentar responder a esta pregunta con tres razones. La primera, el propio funcionamiento de la IA. La IA aprende de datos históricos que reflejan desigualdades pasadas. Si estos datos contienen sesgos de género, los modelos los replican y amplifican. Es decir, si entrenamos a la IA con datos del pasado, perpetuaremos las desigualdades del pasado en el futuro. No hablamos de hipótesis, entre los casos más conocidos se encuentra el de una gran compañía que detectó que su algoritmo de selección de personal descartaba candidatas mujeres porque había sido entrenado con datos históricos de contratación dominados por hombres, en concreto para trabajos de desarrollo de software y otros puestos técnicos.

La segunda, la baja presencia de la mujer en el sector profesional TIC evidencia una situación preocupante, es una representación femenina muy inferior que conlleva la falta de diversidad y perspectiva de género en la definición de las políticas de tecnología, pero también en su diseño, despliegue e implementación. Podemos decir que existe una subrepresentación de mujeres en el desarrollo de IA y, en consecuencia, la falta de diversidad en los equipos que diseñan algoritmos puede llevar a la creación de sistemas que no consideran adecuadamente la perspectiva de género.

Y la tercera, el efecto de la IA en el empleo femenino y en el desarrollo de su vida. La automatización afecta más a sectores donde predominan las mujeres y a trabajos más sensibles de automatización, lo que podría incrementar la precarización laboral. Y también en todos los aspectos de su vida, pues estudios del MIT y la Universidad de Standford han demostrado que los algoritmos de reconocimiento facial cometen más errores con mujeres, especialmente mujeres racializadas, el 35% de las veces. Sin embargo, apenas comenten errores en el caso de los hombres, sólo en el 0,8% de las ocasiones. Podría parecer un tema menor, no lo es, por ejemplo, ha conducido a detenciones de mujeres por errores en su identificación.

Frente a este escenario que podría parecer apocalíptico en la combinación de IA y mujer, la proyección puede girar y ser muy positiva. Para ello, necesitamos el efecto de la regulación, el derecho, una vez más, moldeando las realidades para proteger los derechos de las personas, en este caso, un derecho fundamental, como es el derecho a la igualdad. Y es en ese punto en el que podemos felicitarnos por enfoque del Reglamento Europeo de Inteligencia Artificial, un enfoque centrado en una IA ética y responsable, que exige transparencia en el entrenamiento de algoritmos y auditorías para identificar sesgos de género, así como códigos de conducta que eviten usos prohibidos.  

Pero la solución no sólo está en las normas. El despliegue de la IA exige el diseño de un modelo de gobernanza de la IA, como un mecanismo de carácter orgánico que permita asegurar el diseño e implantación de una IA ética y responsable, respetuosa con los derechos de las personas, en especial, de aquéllas más vulnerables, en España será clave el papel que desempeñe la Agencia Española de Supervisión de Inteligencia Artificial.

En definitiva, la existencia de discriminación algorítmica sin el efecto corrector del derecho es una realidad. Desde sistemas de selección de personal que filtran CV con nombres femeninos hasta modelos de crédito que otorgan peores condiciones a mujeres emprendedoras. Por ello, frente a esta realidad, la solución debe partir de una adecuada alfabetización y de una IA ética y transparente desde el diseño, con la aplicación del marco regulatorio pero también en el diseño y evaluación de políticas públicas con perspectiva de género, y en el fomento de la formación en STEM desde edades tempranas y la contratación de mujeres en equipos de IA.

Según los datos del último Global Gender Gap (2024) necesitamos 134 años para cerrar la brecha de género. Un reto mayúsculo. La IA no es neutral en este reto, pero tampoco será la culpable, tan sólo refleja y amplifica los sesgos de quienes la crean y los datos con los que se entrena. Por ello, debemos preguntarnos si estamos creando una IA para el futuro o perpetuando las injusticias del pasado, pues si la IA puede replicar los sesgos de género, también podemos programarla para eliminarlos. La elección es nuestra, de ahí que el Derecho tenga ante sí un gran reto: no sólo reducir la brecha de género, sino evitar que la IA lo amplíe.

Artículo original publicado en Legal Today

Etiquetas:
Tecnología
Buscador de artículos
Últimos Artículos
La dualidad en la comunicación legal: lo que dice el despacho y lo que dicen de él
La dualidad en la comunicación legal: lo que dice el despacho y lo que dicen de...
10 mar. 2025
IA y brecha de género: ¿algoritmos que empoderan o que discriminan? El (imprescindible) papel corrector de la regulación
IA y brecha de género: ¿algoritmos que empoderan o que discriminan? El...
10 mar. 2025
Mujeres Referentes del Sector Legal 2025
Mujeres Referentes del Sector Legal 2025
08 mar. 2025
IA: Alucinaciones, presión y estrategia
IA: Alucinaciones, presión y estrategia
03 mar. 2025
Por etiquetas
Inkietos
31
Tendencias del sector
15
Finanzas
2
Libro
11
Marketing
14
Innovación
33
Comunicación
12
Gestión del talento
18
Tecnología
25
Desarrollo de negocio
15
Estrategia
4
Estudio
1
Informe
1

Nuestros Partners

Santander
Mutualidad

Newsletter

Recibe mensualmente información relevante de nuestra actividad.