Gender bias in artificial intelligence: A critical perspective and legal analysis

Contenido principal del artículo

Trilce Fabiola Ovilla Bueno

Resumen

La Inteligencia Artificial (IA) está transformando sectores clave como el empleo, la sanidad y la justicia penal, pero también plantea importantes retos éticos y legales, en particular en lo que respecta al sesgo de género. Los sistemas de IA, a menudo entrenados con datos históricos sesgados, pueden perpetuar e incluso amplificar las desigualdades de género existentes. Este ensayo examina las implicaciones legales del sesgo de género en la IA, centrándose en los desafíos a las leyes antidiscriminatorias, los problemas de transparencia y la necesidad de supervisión regulatoria. El sesgo de género en la IA surge cuando los sistemas se entrenan con conjuntos de datos que reflejan desigualdades sociales, lo que conduce a resultados discriminatorios. Este sesgo no es un fallo técnico, sino una consecuencia del uso de datos y algoritmos que reflejan patrones de discriminación. La falta de diversidad entre los desarrolladores de IA, predominantemente hombres, agrava este problema al no tener en cuenta las perspectivas y necesidades de las mujeres y los grupos marginados.


En contextos legales, el uso de la IA en la contratación, la justicia penal y la evaluación de riesgos plantea preocupaciones éticas. Los sistemas impulsados por IA corren el riesgo de reforzar los sesgos de género históricos, lo que puede socavar la equidad en los procesos de toma de decisiones. Si no se controlan, estos sesgos podrían agravar las disparidades en áreas cruciales como la contratación y la administración de justicia, poniendo en peligro las protecciones legales. Un desafío legal importante es cómo la IA interactúa con las leyes antidiscriminación vigentes. Para abordar estos desafíos, la transparencia en la toma de decisiones sobre IA es esencial. Los marcos regulatorios deben evolucionar para exigir auditorías periódicas de los sistemas de IA y exigir la rendición de cuentas por los resultados sesgados. Las directrices éticas son insuficientes; se necesita una supervisión legal obligatoria para garantizar que la IA promueva la equidad y la inclusión.


In legal contexts, the use of AI in hiring, criminal justice, and risk assessment raises ethical concerns. AI-driven systems risk reinforcing historical gender biases, which can undermine fairness in decision-making processes. Unchecked, these biases could worsen disparities in critical areas such as recruitment and justice administration, threatening legal protections. A major legal challenge is how AI interacts with existing anti-discrimination laws. To address these challenges, transparency in AI decision-making is essential. Regulatory frameworks must evolve to require regular audits of AI systems and enforce accountability for biased outcomes. Ethical guidelines are insufficient; mandatory legal oversight is needed to ensure AI promotes fairness and inclusivity.

Detalles del artículo

Cómo citar
Ovilla Bueno, T. F. (2024). Gender bias in artificial intelligence: A critical perspective and legal analysis. Amicus Curiae. Revista Electrónica De La Facultad De Derecho, (26), 20–29. https://doi.org/10.22201/fder.23959045e.2024.26.90464

Citas en Dimensions Service

Biografía del autor/a

Trilce Fabiola Ovilla Bueno, Universidad Nacional Autónoma de México

Abogada mexicana. Doctora en Derecho. Maestra en Derecho Corporativo y con estudios de maestría en Derecho Procesal Constitucional. Especializada en Formación Política: Perspectivas Europa-América Latina. Profesora titular de la Facultad de Derecho de la UNAM.

Citas

Buolamwini, Joy y Timnit Gebru, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”, en Proceedings of the 1st Conference on Fairness, Accountability, and Transparency (PMLR), 2018 [en línea], <https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf>.

Dastin, Jeffrey, “Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women”, en Reuters, 10 de octubre, 2018 [en línea], <https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G>.

Eubanks, Virginia, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poo, [s.d.], St. Martin’s Press, 2018.

European Commission, Ethics Guidelines for Trustworthy AI, 2020 [en línea], <https://ec.europa.eu/futurium/en/ai-alliance-consultation>.

Haraway, Donna, “Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective”, en Feminist Studies, EUA, vol. 14, núm. 3, 1988.

Harding, Sandra, Whose Science? Whose Knowledge? Thinking from Women’s Lives, [s.d.], Cornell University Press, 1991.

Intersoft Consulting, General Data Protection Regulation (GDPR), Art. 22 GDPR, Automated Individual Decision-Making, Including Profiling, 2024 [en línea], <https://gdpr-info.eu/art-22-gdpr>.

Noble, Safiya Umoja, Algorithms of Oppression: How Search Engines Reinforce Racism, [s.d.], New York University Press, 2018.

U.S. Department of Labor, Equal Pay Act of 1963, 2024 [en línea], <https://www.dol.gov/agencies/wb/equal-pay-act>.

U.S. Equal Employment Opportunity Commission (EEOC), Title VII of the Civil Rights Act of 1964, 2024 [en línea], <https://www.eeoc.gov/statutes/title-vii-civil-rights-act-1964>.

Wachter, Sandra, Brent Mittelstadt y Luciano Floridi, “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation”, en International Data Privacy Law, Oxford University Press, vol. 7, núm. 2, mayo, 2017 [en línea], <https://doi.org/10.1093/idpl/ipx005>.

Wachter-Boettcher, Sara, Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech, [s.d.], W.W. Norton & Company, 2017.