Logo de Iustel
 
 
Sello de Calidad de la Fundación Española para la Ciencia y la TecnologíaDIRECTOR
Santiago Muñoz Machado
Catedrático de Derecho Administrativo
Universidad Complutense

SUBDIRECTOR
Juan Francisco Mestre Delgado
Catedrático de Derecho Administrativo
Universidad de Alcalá

Menú de la revista

Conexión a la revista

 

Riesgos e impactos del Big Data, la inteligencia artificial y la robótica. enfoques, modelos y principios de la respuesta del derecho. (RI §421227)  


Risks and impacts of Big Data, artificial intelligence and robotics. Approaches, models and principles of the response of the law - Lorenzo Cotino Hueso

El estudio se aproxima a las nociones de los algoritmos, la inteligencia artificial, los sistemas de autoaprendizaje automático (machine learning), deep learning y redes neuronales, la robótica inteligente y el big data como “alimento” de la inteligencia artificial. Se centran y exponen los diferentes riesgos, peligros e impactos. En primer término los riesgos existenciales por una “inteligencia artificial fuerte”, “explosiva” o fuera de control. Se alertan de los errores y discriminaciones masivas y estupidez artificial así como se repasan las referencias más importantes en la literatura sobre los peligros de la “algocracia”, dictadura o fundamentalismo de los datos, “dataismo” o la “psicopolítica” y el “enjambre” por estas nuevas tecnologías. A partir de lo anterior se abordan los enfoques, modelos y principios de regulación. Se apuesta claramente por la necesidad de tomar el control y de regular a partir de la variada tipología de riesgos. Se subraya el factor o ritmo temporal de la regulación. En este sentido se valora la introducción de técnicas de un Derecho líquido o biodegradable, experimental en beta continuo, así como las llamadas “sandboxes”. Pese a las críticas que puedan formularse, se considera que hay que avanzar hacia esta innovación de la forma regulatoria. También se analiza la necesaria participación del sector tecnológico, de informáticos y de especialistas. No obstante, se alerta de los peligros por falta de legitimación, captura y manipulación algorítmica del regulador. También se tiene en cuenta la necesidad de adoptar técnicas relativas a los principios de precaución y de responsabilidad. Finalmente se hace una referencia de las primeras regulaciones que se detectan en la materia de estudio, así como sentencias y resoluciones.

I. DE LOS ALGORITMOS A LA INTELIGENCIA ARTIFICIAL, SISTEMAS DE AUTOAPRENDIZAJE, ROBOTS Y BIG DATA. HACIA EL INTERNET DE LAS COSAS ROBÓTICAS. 1. Algoritmos. 2. Inteligencia artificial. 3. Aprendizaje automático (machine learning), deep learning y redes neuronales. 4. Robótica inteligente. 5. Big data o macrodatos: el alimento de la inteligencia artificial y su procedencia. 6. Algunas notas sobre el impacto económico. II. RIESGOS, PELIGROS E IMPACTOS DE ESTAS TECNOLOGÍAS QUE EXIGEN RESPUESTAS JURÍDICAS. 1. Riesgos incluso existenciales para la humanidad por una “inteligencia artificial fuerte”, “explosiva” o fuera de control. 2. Errores y discriminaciones masivas y estupidez artificial. 3. “Algocracia”, dictadura o fundamentalismo de los datos, “dataismo”, “psicopolítica” y “enjambre”. III. LA RESPUESTA DEL DERECHO. ENFOQUES, MODELOS Y PRINCIPIOS DE REGULACIÓN. 1. La necesidad de tomar el control y de regular. 2. Clasificación de los riesgos y los enfoques y respuestas jurídicas. 3. El tiempo apremia. Necesidad e inconvenientes de un Derecho líquido o biodegradable, experimental en beta continuo. 4. Además, un Derecho nebuloso, con alta participación del sector tecnológico, de informáticos y de especialistas. Peligros de falta de legitimación, captura y manipulación algorítmica del regulador. 5. La adopción técnicas relativas a los principios de precaución y de responsabilidad. 6. La importancia de la incorporación de técnicas de responsabilidad activa y una aproximación a la responsabilidad algorítmica. 7. Autoridad y autoridades sectoriales y especializadas. IV. PARA TERMINAR. UNA REFERENCIA A LAS PRIMERAS REGULACIONES, SENTENCIAS Y RESOLUCIONES.

Palabras clave: algoritmos; inteligencia artificial; robótica; big data; derecho; derechos fundamentales.;

The study approaches the concepts of algorithms, artificial intelligence, self-learning systems), deep learning and neural networks, intelligent robotics and big data as "food" of artificial intelligence. Then, the different risks, dangers and impacts are explained. First, the existential risks to humanity for a "strong artificial intelligence", "explosive" or out of control. The errors and massive discriminations and artificial stupidity are alerted. They are also followed the most important references in the literature about the dangers of these new technologies: the "algocracy", dictatorship or fundamentalism of the data, "dataism" or "psychopolitics" and the "swarm". Based on the above, regulatory approaches, models and principles are examined. The author affirms the need to take control and to regulate from the varied typology of risks. The time factor or the rhythm of the regulation is stressed. In this sense, it is valued the introduction of techniques of a liquid or biodegradable law, experimental in continuous beta, as well as the "sandboxes" techniques. Despite the criticisms about it, it is stated that we must move towards this innovation in the form of regulation. The necessary participation of the technology sector, computer specialists and specialists is also analyzed. However, the dangers due to lack of legitimacy, capture and algorithmic manipulation of the regulator are warned. It is also taken into account the need to adopt techniques related to the principles of precaution and responsibility. Finally, the first regulations in the subject of study are described, as well as judgments and resolutions.

Keywords: algorithms; artificial intelligence; robotics; big data; law; fundamental rights.;

Documento disponible para usuarios registrados.

Para consultar gratuitamente este artículo primero deberá registrarse como usuario.

 
 
 

© PORTALDERECHO 2001-2024

Icono de conformidad con el Nivel Doble-A, de las Directrices de Accesibilidad para el Contenido Web 1.0 del W3C-WAI: abre una nueva ventana