Discriminación estructural en versión digital: del estereotipo al código
Uno de los aspectos negativos de los procesos de selección es que estos se han visto históricamente marcados por criterios subjetivos y por la ausencia de la perspectiva de género. Los procedimientos se han legitimado bajo discursos de eficiencia o mérito, sin analizar las estructuras de poder y los estereotipos que determinan qué se considera un buen perfil.
Con la llegada de herramientas digitales y sistemas algorítmicos, estos criterios no han desaparecido, sino que se han incorporado al entorno tecnológico; por eso, en lugar de corregir los sesgos, tienden a reproducirlos de forma automatizada. La llamada «objetividad algorítmica», presentada como un avance, actúa en realidad como una pantalla que oculta desigualdades estructurales; así, lo que cambia no es la lógica discriminatoria, sino su forma de presentación. Esto es lo que autores como Mayson (2019) denominaron discriminación algorítmica indirecta. Esta no se basa en un trato desigual intencional, sino en la estructura misma del sistema y en sus datos de entrada. Al mostrarse como procesos automáticos, se pierde la capacidad crítica para analizarlos y se transfiere la responsabilidad a la tecnología. En palabras de Pérez (2023), «las inteligencias artificiales replicarán y mantendrán dichos sesgos de no establecer medidas de restricción en el uso de inteligencias artificiales y algoritmos de selección cercenando el acceso de las mujeres al empleo del futuro» (pág. 202).
En ese sentido, los datos que alimentan los algoritmos provienen de contextos atravesados por desigualdades estructurales; de esa forma, si no se incorpora una mirada crítica al diseño y a la evaluación, la IA perpetúa modelos de exclusión laboral. Como apuntó Birhane (2021), muchos de estos sistemas no fallan por errores técnicos, sino por no tener en cuenta a quienes han sido históricamente excluidas. De acuerdo con esto, la discriminación algorítmica no es un fallo puntual; en cambio, surge de una combinación de factores: datos sesgados, equipos poco diversos, opacidad en la toma de decisiones, y ausencia de auditorías o protocolos correctivos. Además, los criterios que se integran penalizan trayectorias no lineales o interrupciones por cuidados, lo que afecta directamente a muchas mujeres. Ante esto, Noble (2018) advirtió que estos sistemas no están preparados para reconocer formas de mérito que se alejan del modelo normativo masculino.
Por lo anterior, adoptar una perspectiva de género no solo implica identificar exclusiones, sino también cuestionar los propios fundamentos de lo que se entiende por selección» y mérito ¿Qué decisiones se consideran objetivas? ¿Desde qué modelos laborales se construyen? El enfoque de género permite desnaturalizar la lógica técnica dominante y evidenciar que no solo se trata de corregir errores, sino que también es necesario revisar en profundidad los procesos. Como recordó Álvarez (2020), su uso solo es transformador si se acompaña de una revisión ética de las relaciones laborales.
Ahora bien, el derecho al trabajo en igualdad de condiciones entre mujeres y hombres está reconocido en múltiples normas, pero el marco jurídico actual no está preparado para los retos de la automatización. En esa medida, la normativa va por detrás de la tecnología y las medidas de control existentes son débiles. Por eso es urgente revisar el papel de la IA en la selección: no basta con ajustes técnicos; es imprescindible establecer un marco ético y jurídico sólido que garantice el derecho al trabajo en condiciones de igualdad y evite que estas tecnologías sigan profundizando las desigualdades que sufren las mujeres en el mundo laboral. En suma, luchar contra la discriminación sistémica que sufren las mujeres en el mundo laboral requiere un conjunto de actores y fuentes que actúen de forma coordinada (López, 2019).
Herramientas metodológicas para mitigar la discriminación algorítmica
Es importante una reflexión profunda para plantear qué herramientas y estrategias concretas pueden ayudar a detectar, prevenir y corregir estas formas de discriminación. No basta con identificar el problema: hay que intervenir desde el diagnóstico, desde la norma, desde la práctica y desde el diseño de los procesos selectivos. A continuación, se exponen algunas propuestas metodológicas eficaces y eficientes para evitar la discriminación que sufren las mujeres en el acceso al empleo mediante herramientas de IA.
La auditoría algorítmica se presenta como un mecanismo esencial para asegurar la transparencia, la equidad y el cumplimiento de principios éticos y normativos en el uso de algoritmos. Para que las auditorías resulten efectivas, es necesario que estén sujetas a una regulación rigurosa y que sean de carácter obligatorio. Este tipo de auditorías comparte su enfoque con las sociolaborales clásicas, las cuales se basan en metodologías para evaluar objetivamente los procesos, identificar sesgos y vulnerabilidades, y proponer mejoras continuas que aseguren la equidad y la eficacia en su aplicación (Baleriola, 2024). De esa manera, la auditoría algorítmica no solo debería examinar los resultados de los sistemas automatizados, sino también los datos utilizados en su entrenamiento y diseño, y los parámetros de decisión que se ponen en práctica.
En ese orden de ideas, en los procedimientos de selección de personal resulta imprescindible garantizar la no discriminación. Por tanto, la auditoría algorítmica podría ayudar a detectar patrones discriminatorios que han pasado desapercibidos debido a la opacidad de las herramientas de IA. Además, como ya se ha visto en la presente investigación, debe prestarse especial atención a la calidad de los datos con los que se alimenta y se entrena al algoritmo. Si los datos están sesgados, el sistema reproducirá y amplificará la desigualdad (Barocas, Hardt y Narayanan, 2023).
Apostar firmemente por la transparencia y el derecho a la información es lo que subyace en la reforma al artículo 64.4 del Estatuto de los Trabajadores. Mediante el Real Decreto-Ley 9/2021, se establece que las empresas deben informar a los comités sobre los algoritmos o sistemas de IA que incidan en el acceso o mantenimiento del empleo. Así las cosas, la norma entrega el poder de la información algorítmica a la negociación colectiva, y esta debe ser capaz de entender, analizar y señalar las posibles discriminaciones existentes en la herramienta. Esta novedad normativa es relevante, pero a todas luces insuficiente para abordar los riesgos específicos que plantea la automatización de los procesos de selección.
Por lo señalado, se puede sostener que el derecho ha quedado desfasado respecto al ritmo de la tecnología. Es por ello por lo que el nuevo Reglamento (UE) 2024/1689 contempla que los sistemas de IA destinados a tomar decisiones sobre contratación laboral se clasifiquen como de alto riesgo. Esto implica obligaciones para las empresas, como por ejemplo realizar evaluaciones de impacto, asegurar trazabilidad de los datos, y establecer supervisión humana y mecanismos de control y transparencia. No obstante, este reglamento todavía no tiene un efecto real en los procesos de selección de las empresas. Por eso es necesario que la propia normativa laboral trate de forma directa la discriminación algorítmica.
En este contexto en el que la tecnología está integrada en los procesos selectivos y la gestión de los recursos humanos, la formación en lenguaje tecnológico, IA y discriminaciones algorítmicas con perspectiva de género es clave para ejercer una gobernanza algorítmica ética. No se trata solo de capacitar a equipos técnicos, sino también a comisiones negociadoras, departamentos de recursos humanos, y a quienes están implicados en los procesos de diseño, evaluación o validación de estas herramientas. La formación debe incluir la perspectiva de género como eje central; sin ella, se corre el riesgo de abordar la IA como un tema puramente técnico, cuando en realidad lo que está en juego son los derechos fundamentales. En suma, es necesario cuestionar desde dónde se diseñan estas herramientas y para qué se usan, a fin de saber si se está haciendo de manera ética.
En contraposición a un uso incontrolado y discriminatorio de las herramientas de IA, se hallan una conceptualización y una formulación de estas herramientas al servicio de la igualdad de género. Si se cuenta con un diseño algorítmico que señale las discriminaciones que sufren las mujeres en el mundo empresarial y se dota a las empresas de las herramientas metodológicas mencionadas, se tendría una oportunidad. En esa medida, las herramientas algorítmicas pueden usarse como apoyo en los diagnósticos de los planes de igualdad y en procesos de evaluación o selección de personal. Esto exige un cambio de enfoque: dejar de ver la tecnología como una amenaza y pensar en cómo esta se puede poner al servicio de la igualdad y la justicia social.
La incorporación de herramientas de IA a la selección de personal no ha sido, como en ocasiones se presenta, una solución neutral o técnica para un problema estructural; más bien, ha funcionado como una nueva forma de discriminar a las mujeres en el acceso al empleo. Se trata de una vía más opaca y difícil de cuestionar, que consigue perpetuar las desigualdades históricas en el acceso al empleo. Así, lo que se prometía como un avance en cuanto a la neutralidad ha derivado, en muchos casos, en una sofisticación de los mismos sesgos de siempre.
Como han demostrado autoras como Raji y Buolamwini (2019), la supervisión externa e independiente de estas herramientas es clave para identificar sesgos y forzar cambios en los sistemas automatizados que impactan directamente en la vida laboral de las mujeres. Del mismo modo, Birhane (2021) ha advertido que muchos de estos sistemas no fallan por accidente, sino porque no se han diseñado pensando en quienes históricamente han sido excluidas.
Ante esto, es urgente establecer mecanismos de gobernanza algorítmica, implementar auditorías con perspectiva de género, formar a los equipos responsables de la selección, y garantizar el derecho a la transparencia en todas las fases del proceso. Asimismo, las empresas, los desarrolladores de IA, los departamentos de recursos humanos y las instituciones públicas deben trabajar para garantizar que las herramientas que se utilicen no perpetúen las desigualdades; se trata de tomar la decisión sobre el uso que se les debe dar a las nuevas herramientas para gestionar el capital humano de las empresas. En síntesis, se busca ejercer la gobernanza ética para evitar que se perpetúen los sesgos de género en el acceso al empleo.
Referencias
ÁLVAREZ, Henar (2020). El impacto de la inteligencia artificial en el trabajo: desafíos y propuestas. Cizur Menor: Aranzadi.
BALERIOLA, Enrique (2024). Técnicas cuantitativas en auditoría sociolaboral. Barcelona: Fundació Universitat Oberta de Catalunya.
BAROCAS, Solon; HARDT, Moritz; NARAYANAN, Arvind (2023). Fairness and machine learning: limitations and opportunities. Massachusetts: The MIT Press.
BIRHANE, Abeba (2021). «Algorithmic injustice: a relational ethics approach». Patterns, vol. 2, nº 2, págs. 1-2. DOI: https://doi.org/10.1016/j.patter.2021.100205
BOE (2021). Real Decreto-ley 9/2021, de 11 de mayo, por el que se modifica el texto refundido de la Ley del Estatuto de los Trabajadores, aprobado por el Real Decreto Legislativo 2/2015, de 23 de octubre, para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales. Boletín Oficial del Estado, 12 de mayo de 2021, n.º 113, págs. 56733-56738.
BUOLAMWINI, Joy; RAJI, Inioluwa (2019). «Actionable auditing: investigating the impact of publicly naming biased performance results of commercial AI products». MIT media lab [en línea]. Disponible en: https://www.media.mit.edu/publications/actionable-auditing-investigating-the-impact-of-publicly-naming-biased-performance-results-of-commercial-ai-products
DIARIO OFICIAL DE LA UNIÓN EUROPEA (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los reglamentos (CE) 300/2008, (UE) 167/2013, (UE) 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial). Diario Oficial de la Unión Europea, 12 de julio de 2024, n.º 1689, págs. 1-144.
LÓPEZ, Julia (2019). «Systemic discrimination y políticas de igualdad efectiva de género». Revista del Ministerio de Empleo y Seguridad Social, vol. 1, n.° 1, págs. 35-50 [en línea]. Disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=7249090
MAYSON, Sandra (2019). «Bias in, bias out». Yale Law Journal, vol. 128, n.º 1, págs. 2218-2300 [en línea]. Disponible en: https://yalelawjournal.org/pdf/Mayson_p5g2tz2m.pdf
NOBLE, Safiya (2018). Algorithms of oppression: how search engines reinforce racism. Nueva York: NYU Press. DOI: https://doi.org/10.18574/nyu/9781479833641.001.0001
PÉREZ, José (2023). «Inteligencia artificial y contratación laboral». Revista de Estudios Jurídico-Laborales y de Seguridad Social, vol. 1, n.º 7, págs. 186-205. DOI: https://doi.org/10.24310/rejlss7202317557
Cita recomendada: BELTRÁN VALLÉS, Meritxell. Discriminación algorítmica en la selección de personal: sesgos de género en los sistemas automatizados de acceso al empleo Mosaic [en línea], diciembre 2025, no. 206. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n206.2515



Deja un comentario