Límites jurídicos de la toma de decisiones discrecionales automatizadas mediante inteligencia artificial: racionalidad, sabiduría y necesaria reserva jurídica de humanidad en el ámbito digital. (RI §428070)
Legal limitations for automated discretionary powers: racionality, wisdom and the need for a human reserve in the digital sphere -
Juli Ponce Solé
El presente estudio analiza la relación entre la inteligencia artificial (IA) y los humanos en la toma de decisiones administrativas formalizadas discrecionales. En el mismo, tras exponer brevemente los distintos tipos de IA, se argumenta como la eliminación de la discrecionalidad (fettering), en el caso de la IA basada en reglas, y determinadas características, por el momento únicamente humanas, como la empatía y la realización de razonamientos abductivos, en el caso de la IA no simbólica o estadística (aprendizaje automático y profundo) suponen un impedimento jurídico para el ejercicio totalmente automatizado de la discrecionalidad por máquinas. Éstas no deberían realizar juicios volitivos, que deberían quedar en manos humanas, pues se violaría el derecho a una buena administración, al procedimiento administrativo debido y a una motivación comprensible, corolarios de ésta. Se sugiere la explicitación de dicha prohibición jurídica en España, como ya han realizado algunas normas de Derecho comparado y autonómico, de acuerdo con el estado actual de la técnica y el principio jurídico de precaución, sin perjuicio de que la IA puede emplearse como apoyo al decisor humano en la toma de decisiones discrecionales. Para el caso de que la IA ejerza potestades regladas, o se permita el ejercicio de la discrecionalidad por ella, lo que aquí se rechaza, se subraya la necesidad (y dificultad) de ejercer una supervisión del funcionamiento de la IA por un humano gestor público, responsable del procedimiento administrativo o/y de la decisión final. Se finaliza el análisis con las conclusiones alcanzadas y con la necesidad de reflexionar sobre el modo de desarrollar la supervisión humana y de configurarla como un auténtico derecho subjetivo de los interesados.
I.INTRODUCCIÓN: OBJETO DE ESTE ANÁLISIS. II. HUMANOS E INTELIGENCIA ARTIFICIAL: EMPATÍA E INFERENCIAS ABDUCTIVAS: 1. La IA simbólica o de reglas preprogramadas: el problema jurídico de la rigidificación (fettering) de la discrecionalidad. 2. La IA basada en estadística: el problema jurídico de la falta de empatía humana y de ausencia de capacidad de realizar inferencias inductivas. 2.1 Empatía humana. 2.2 Inferencias abductivas 2.3 Derecho a una buena administración: audiencia, información pública y motivación. 2.4 Consecuencias de la falta de empatía, de la incapacidad de abducción de la IA, de la regla audi alteram parte, de la necesaria consideración de la participación y de la motivación en el ámbito administrativo…¿y judicial? III. RESERVA JURÍDICA DE HUMANIDAD EN EL ÁMBITO DIGITAL IV. SUPERVISIÓN HUMANA DE LA IA: EL HUMANO EN EL SISTEMA (THE HUMAN IN THE LOOP). V. CONCLUSIONES Y CUESTIONES ABIERTAS.
This study analyzes the relationship between artificial intelligence (AI) and humans in formalized discretionary administrative decision making. It shows how the undue elimination of discretionary powers (fettering), in the case of rule-based AI, and certain characteristics that are for the moment only human (empathy and abductive reasoning), in the case of non-symbolic or statistical AI (automatic and deep learning) pose a legal impediment to the fully automated exercise of discretion by machines. They should not make volitional judgments, as this would violate the right to good administration, the due administrative procedure and the duty of giving reasons, a corollary of the latter. It is suggested that this legal prohibition be made explicit in Spain, as has already been done in some rules of comparative and regional law, in accordance with the current state of the art and the legal principle of precaution, without prejudice to the fact that AI can be used to support the human decision-maker in making discretionary decisions. In the case of AI exercising regulated powers, or allowing the exercise of discretion, which is rejected here, the need (and difficulty) of supervising the operation of AI by a human public manager, responsible for the administrative procedure and/or the final decision, is emphasized. The analysis ends with the conclusions reached and with the need to reflect on how to develop human supervision and to configure it as an authentic subjective right of the interested parties.