¿Cuándo “no es no”? criterios para definir los sistemas de inteligencia artificial prohibidos en la Unión Europea. (RI §428358)
When does "no means no"? Criteria for defining artificial intelligence systems prohibited in de European Union -
Lorenzo Cotino Hueso
El Reglamento de Inteligencia Artificial de la Unión Europea se aplica desde febrero de 2025 respecto de las prohibiciones que establece su artículo 5. Este artículo prohíbe sistemas de IA que impliquen manipulación subliminal, explotación de vulnerabilidades, puntuación social, predicción delictiva basada en perfiles, rastreo masivo de imágenes faciales, inferencia de emociones en entornos laborales y educativos, categorización biométrica para inferir características sensibles y el uso de identificación biométrica remota en tiempo real en espacios públicos con fines policiales. En ocasiones las prohibiciones se formulan como absolutas y en otras ocasiones se prevén expresamente excepciones. Lo cierto es que más que un “no es no”, en la mayoría de los supuestos se configura un "no, pero sí", por lo que las prohibiciones requieren una interpretación detallada en cuanto a sus elementos, alcance y exclusiones, así como respecto a las condiciones que permiten aplicar excepciones. El estudio analiza los Criterios establecidos por la Comisión Europea al respecto de cada prohibición. Entre ellas, tiene especial relevancia el uso policial de identificación biométrica remota en tiempo real y su detallado régimen de excepciones que requiere autorización judicial previa, limitaciones temporales, geográficas y personales, así como mecanismos de supervisión reforzada. Además, el estudio analiza la delgada línea que separa los sistemas prohibidos de los de alto riesgo.
I. La necesidad de concretar cuándo “no es no” en la inteligencia artificial o si se trata de un “no pero sí”; II. La prohibición de la manipulación subliminal y explotación de vulnerabilidades (artículo 5.1.a y b); III. Cuándo se considera un “social scoring” prohibido (artículo 5, 1 c); IV. Cuándo se da la prohibición sobre predicción delictiva sobre perfiles y personalidad del artículo 5, 1, d); V. Los requisitos de la prohibición de rastreo no selectivo de imágenes faciales, artículo 5, 1, e); VI. La prohibición de sistemas de inferencia de emociones en el trabajo y la educación(artículo 5.1.f); VII. La prohibición de sistemas de categorización biométrica para inferir características especialmente sensibles de las personas (artículo 5.1.g); VIII. El alcance de la prohibición del uso de sistemas de identificación biométrica a distancia en tiempo real en espacios públicos con fines policiales (art. 5.1. h); IX. Las excepciones a la prohibición del artículo 5.1. H); X. Requisitos, salvaguardias y condiciones para las excepciones del artículo 5.1. H); X. Para concluir.
The European Union's Artificial Intelligence Regulation is applicable as of February 2025 with regard to the prohibitions established in Article 5. It prohibits AI systems that involve subliminal manipulation, exploitation of vulnerabilities, social scoring, crime prediction based solely on profiling, mass facial image tracking, emotion inference in work and educational environments, biometric categorization to infer sensitive characteristics, and the use of real-time remote biometric identification in public spaces for law enforcement purposes. Sometimes the prohibitions are formulated as absolute, while in others, explicit exceptions are provided. Rather than a strict ‘no means no’ approach, most cases fall into a nuanced ‘no, but with exceptions’ framework. Therefore, the prohibitions require interpretation concerning their specific elements, scope, and exclusions, as well as, where applicable, the potential applicability of exceptions. The study analyses the criteria established by the European Commission in relation to each prohibition. It is also worth emphasising the relevance of the police use of remote biometric identification in real time, which is subject to a strict exception regime requiring prior judicial authorization, temporal, geographical and personal limitations, as well as reinforced supervision mechanisms. In addition, the study takes into account the fine line between prohibited systems and high-risk systems.
I. The need to specify when ‘no means no’ in artificial intelligence or if it is a case of ‘no but yes’; II. The prohibition of subliminal manipulation and exploitation of vulnerabilities (article 5.1.a and b); III. When is ‘social scoring’ considered prohibited (article 5, 1 c); IV. When does the prohibition on criminal prediction on profiles and personality in article 5, 1, d) apply?; V. The requirements of the prohibition of non-selective facial image tracking, article 5, 1, e); VI. The prohibition of emotion inference systems at work and in education (article 5.1.f); VII. The prohibition of biometric categorisation systems to infer particularly sensitive characteristics of individuals (article 5.1.g); VIII. The scope of the prohibition of the use of remote biometric identification systems in real time in public spaces for police purposes (art. 5.1. h); IX. Exceptions to the prohibition of article 5.1. h); X. Requirements, safeguards and conditions for the exceptions of article 5.1. h); X. To conclude.