Decisiones automatizadas y discriminación: aproximación y propuestas generales. (RI §423439)
Automated decision-making and discrimination: general approach and proposals -
Alba Soriano Arnanz
El presente trabajo se centra en la perpetuación de la desigualdad a través de los sistemas automatizados de toma de decisiones y de creación de perfiles, analizando las formas en que la normativa en materia de igualdad y no discriminación y, en menor medida, en materia de protección de datos, puede prevenir y hacer frente a las situaciones de discriminación algorítmica. Asimismo, la parte final del artículo se dedica a realizar un esbozo general de posibles propuestas para la elaboración de un marco jurídico que, de manera efectiva, controle y lidie con los diferentes riesgos y daños derivados del creciente uso de sistemas algorítmicos, tanto en el sector público, como en el sector privado.
I. EL CRECIENTE USO DE SISTEMAS AUTOMATIZADOS Y SUS RIESGOS. EN CONCRETO, LA DISCRIMINACIÓN ALGORÍTMICA. 1. Los sistemas automatizados de toma de decisions. 2. La discriminación algorítmica. 2.1. La discriminación algorítmica como fenómeno bicéfalo. 2.2. La discriminación algorítmica como fenómeno supranacional. II. EL MARCO JURÍDICO PARA LA PROTECCIÓN DE LA IGUALDAD Y LA NO DISCRIMINACIÓN Y SU APLICACIÓN A LA DISCRIMINACIÓN ALGORÍTMICA. 4.3.1. La prueba de la discriminación algorítmica indirecta. 4.3.2. Igualdad como paridad en la prueba de la discriminación algorítmica indirecta. 4.3.3. Igualdad como paridad en la precisión en la prueba de la discriminación algorítmica indirecta. 4.3.4. El problema de la justificación de la discriminación indirecta. III. EL MARCO JURÍDICO EN MATERIA DE PROTECCIÓN DE DATOS. 1. El marco jurídico en materia de protección de datos para prevenir y responder de manera conjunta frente a los diferentes riesgos generados por el uso de algoritmos. 2. Deficiencias del marco jurídico europeo en materia de protección de datos. IV. CONCLUSIONES Y PROPUESTAS.
This paper focuses on the perpetuation of inequality through automated decision-making and profiling systems, analysing the ways in which equality and non-discrimination regulations, and to a lesser extent, data protection regulatory instruments, can prevent and address situations of algorithmic discrimination. In addition, the final part of the paper draws a general outline of possible proposals for the development of a legal framework that effectively controls and deals with the different risks and damages derived from the growing use of algorithmic systems, both in the public and private sectors.