Diario del Derecho. Edición de 30/04/2024
  • Diario del Derecho en formato RSS
  • ISSN 2254-1438
  • EDICIÓN DE 18/04/2024
 
 

La inteligente inteligencia artificial; por Antonio Garrigues Walker, jurista

18/04/2024
Compartir: 

El día 18 de abril de 2024 se ha publicado, en el diario ABC, un artículo de Antonio Garrigues Walker, en el cual el autor considera que no es fácil ahora mismo llegar a conclusiones claras y seguras, pero merece la pena, desde luego, que abramos distintos foros sobre la inteligencia artificial y que nos obliguemos a pensar en profundidad.

LA INTELIGENTE INTELIGENCIA ARTIFICIAL

Publiqué hace años una Tercera de ABC s obre este tema que se iniciaba con la afirmación de Paul Saffo, en su tiempo profesor de Stanford, de que “el problema no es si habrá o no inteligencia artificial, sino cuál será el lugar que ocuparán los humanos en un mundo cada vez más influenciando y dirigido por máquinas”.

Tengo escrito sobre esta cuestión que la diferencia entre máquinas y seres humanos podría residir fundamentalmente en el terreno de las emociones y los sentimientos, y la pregunta inevitable es la de si las máquinas podrán llegar a tenerlos. En ese terreno no hay duda de que las máquinas podrán crecer asombrosamente en inteligencia, pero la idea de que algún día pudieran también tener emociones (miedo, alegría, celos, amor, envidia, vanidad, etcétera) resulta para una mayoría de científicos inasumible, aunque haya también excepciones a esta posición. Para muchos expertos la evolución y la sinergia de la nanotecnología y de una ciencia como la biotecnología podrían lograr que los átomos de un robot pudieran funcionar de tal forma que dieran lugar a emociones auténticas. El médico y filósofo Pedro García Barreno afirma, en este sentido, que “la apropiación exclusiva por la especie humana del mundo de las emociones es un mero acto de soberbia”.

El estamento jurídico, como todos los demás estamentos sin excepción alguna, va a tener que plantearse con rigor cuál puede ser y cuál debe ser su protagonismo en una sociedad en donde se están produciendo convulsiones políticas y sociológicas inquietantes, y una revolución tecnocientífica cuya profundidad y alcance desconocemos todavía. Asuntos como la robótica, la nanotecnología, la manipulación genética, el espacio digital y su vulnerabilidad, y otros muchos se integran en el mundo de la inteligencia artificial y su relación con la humana.

Stephen Hawkinghapl anteado la confrontación entre ambas en términos dramáticos :” La inteligencia artificial puede suponer el fin de la humanidad “. Según este científico los sistemas avanzados de inteligencia artificial tendrán la capacidad de “tomar el control de los mismos, rediseñándose a un ritmo que aumentará cada vez más”, un ritmo que “los humanos, limitados por su evolución biológica, no podrán seguir y serán superados”.

Ray Kurzweil -para algunos un visionario narcisista y para Bill Gates “el mejor predictor del futuro de la inteligencia artificial”- tiene una visión más optimista sobre el futuro de la raza humana, aunque acepta que en el año 2029 los computadores alcanzarán nuestro nivel de inteligencia.

Entre estas dos posturas hay opiniones de todo género y para todos los gustos. El ‘Wall Street Journal’ reunió recientemente a varios expertos para organizar este debate. Un directivo de IBM, Guruduth Banavar, cree que el ‘peligroso’ conflicto entre máquinas y seres humanos es un conflicto falso alimentado por las películas y las novelas de ciencia ficción y que lo que ha mejorado y va a seguir haciéndolo es la colaboración entre ambos y que esa sinergia ha dado lugar ya a avances espectaculares y seguirá haciéndolo en el futuro. Las máquinas aportarán lo que no pueden hacer los humanos -y en concreto el manejo de datos masivos, los ‘ bigdata’- y los humanos aquello para lo que las máquinas no están capacitadas como la formulación de preguntas y los razonamientos lógicos.

Jean Tallin -creador de un ‘Centro sobre el riesgo existencial y el futuro de la vida’- es más sensible a los potenciales peligros de la inteligencia artificial y aconseja que se adopten desde ya las debidas precauciones para que las máquinas no estén en condiciones de tomar por sí mismas -como ya ha sucedido en el mundo financiero y en el médico- decisiones irresponsables. “Es importante -afirma- que mantengamos un cierto control sobre la posición de los átomos en nuestro universo y no cederlo inadvertidamente al mundo de la inteligencia artificial”.

El ya citado Paul Saffo, profesor de Stanford y también de la Singularity University (Universidad de la Singularidad), afirma que las máquinas podrán hacer cualquier cosa, ¡incluso sushi!, y que, de hecho, ya estamos rodeados de máquinas que hacen todo mejor que nosotros.

Siguiendo en esta línea, la revista ‘Edge’ preguntó a varios expertos si las máquinas podrían llegar a pensar y las reacciones están llenas de interés: el físico y premio Nobel Frank Wilczek lo ve como una posibilidad remota pero asumible y afirma que “conforme avanzan la neurociencia molecular y los ordenadores reproducen cada vez más los comportamientos que denominamos ‘inteligentes’ en humanos, esa hipótesis parece cada vez más verosímil”. El astrofísico John Mather coincide con Wilczek y afirma que “hasta ahora no hemos encontrado ninguna ley natural que impida el desarrollo de la inteligencia artificial así que veo que será una realidad y bastante pronto” teniendo en cuenta las ingentes inversiones que se están realizando. Por el contrario, el filósofo Daniel Dennett, considera esta posibilidad una leyenda urbana y afirma que el peligro no está en que existan máquinas más inteligentes que nosotros sino en la cesión de nuestra autoridad a máquinas estúpidas e irresponsables, que es justamente lo que estamos haciendo hasta hoy.

No es fácil ahora mismo llegar a conclusiones claras y seguras, pero merece la pena, desde luego, que abramos distintos foros sobre esta inteligencia y que nos obliguemos a pensar en profundidad. Es un ejercicio inquietante y al mismo tiempo apasionante. Aprenderemos muchas y buenas cosas.

Comentarios - 1 Escribir comentario

#1

"Lo dice el ordenador", me dijeron una vez para negar la validez de mi reclamación.
"Póngame en contacto con el estúpido que metió mal el dato en el ordenador o redactó mal el programa", repetí. "El ordenador no se ha inventado el dato" erróneo".
El problema de la IA no es su peligro.
Es la falta de Inteligencia Natural del que usa la IA por carencia propia.
El que tiene el poder no necesita de la IA para abusar, lleva siglos haciéndolo. No nos dejemos asustar.
Lo que de verdad nos tiene que asustar es la falsedad de los inventos.
La solución al problema de la convivencia internacional no es la ONU :
En la ONU cinco matones de patio del colegio hacen las guerras.
No es que la ONU las haya impedido;
las ha fomentado y realizado directamente o a raves de sus esbirros
Pero tampoco nos engañemos; matones de verdad son solo tres.
Y sus "hijos de puta" protegidos por el derecho al veto.
El caso de Putin es reciente el de los EEUU en Palestina es casi secular
Y encima siguen diciendo que "eso", la ONU, es democracia
"LE LLAMAN DEMOCRACIA Y NO LO ES"
No hay democracia si hay derecho a veto
¿O es que hasta eso hay que explicarlo?
Visto lo que pasa en el CGPJ lo parece.
Escuela pública y despensa. Costa S. XIX
¿Qué tal si le hacemos caso en el S: XXI?

Escrito el 19/04/2024 9:46:13 por Alfonso J. Vázquez Responder Es ofensivo Me gusta (0)

Escribir un comentario

Para poder opinar es necesario el registro. Si ya es usuario registrado, escriba su nombre de usuario y contraseña:

 

Si desea registrase en www.iustel.com y poder escribir un comentario, puede hacerlo a través el siguiente enlace: Registrarme en www.iustel.com.

  • Iustel no es responsable de los comentarios escritos por los usuarios.
  • No está permitido verter comentarios contrarios a las leyes españolas o injuriantes.
  • Reservado el derecho a eliminar los comentarios que consideremos fuera de tema.

Revista El Cronista:

Revista El Cronista del Estado Social y Democrático de Derecho

Lo más leído:

Secciones:

Boletines Oficiales:

 

© PORTALDERECHO 2001-2024

Icono de conformidad con el Nivel Doble-A, de las Directrices de Accesibilidad para el Contenido Web 1.0 del W3C-WAI: abre una nueva ventana