Buscador
cerrar

Los retos jurídicos de la IA

¿Qué pasaría si un software te mandase a la cárcel?

La toma de decisiones judiciales automatizadas en base a un software, presencia de algoritmos que no se ajustan a Derecho o la aparición de un nuevo modelo de verdad que dictaminan las máquinas, son solo algunas de las dudas que la Inteligencia Artificial plantea a los profesionales de la justicia.

Ana Delgado | 10/07/2018
Linkedin Whatsapp

Se abordó el tema en un evento organizado por Planeta Chatbot en Google Campus Madrid. Se habló aquí del impacto de la Inteligencia Artificial (IA) para las grandes empresas; de la conceptualización de chatbots para las mismas y de la aplicación de la IA a los negocios. Hasta entonces, todo fueron parabienes en torno a la IA hasta que llegó el turno de Rubén Agote y Andrea Ortega, ambos del despacho de abogados de Cuatrecasas. A ellos les tocó analizar el asunto desde una perspectiva jurídica, la una desde el punto de vista de cómo estas tecnologías ayudan a los abogados a prestar sus servicios, y el otro, con una visión más crítica, referente a las dudas y problemas legales que el uso de la IA plantea ya en el entorno jurídico y las que les deparan el corto y medio plazo. Son estas:

En el momento actual

En cuanto a las materias actuales en las que el Derecho está ya interviniendo y donde ya hay litigios y controversia Agote habló de:

La privacidad y protección de datos

Dando por válida la definición de la IA como la capacidad que tienen los programas informáticos o los software de generar resultados de razonamiento similares a los que alcanza la naturaleza humana, sostiene Rubén Agote que “lo primero que hay que tener en cuenta para analizar los problemas que esto puede generar es la fuente de la que se nutren para generar estos resultados de razonamiento, que son la cantidad ingente de datos que se van recopilando desde millones de dispositivos”.  La protección de datos es, pues, el primer gran reto.

Los algoritmos

Una vez garantiza la privacidad de las personas y la protección de sus datos, se da el salto a los algoritmos dado que, como recordó Agote, de estos datos se valen los programadores "que elaboran, en base a criterios de decisión que llaman algoritmos, formas de razonamiento que dan lugar a una solución”.  El riesgo aquí es que estos criterios de decisión podrían ser contrarios o no ajustarse a Derecho creando soluciones que, por ejemplo, pueden contener elementos discriminatorios o encerrar algún otro prejuicio. En estos casos, la determinación de cuál es el criterio de decisión que se ha ido adoptando será importante para tomar una posición legal.

La aparición de la verdad artificial

Otra de las cosas que observa Rubén Agote es la aparición de un tercer tipo de verdad. Hasta ahora, recordó, la tradición filosófica solo distinguía dos tipos: la verdad natural, a la que llegamos por el razonamiento humano, y la verdad revelada o sobrevenida que es la que se adopta como acto de fe en cualquier religión o creencia. Con la IA surge la que denominó verdad artificial “que sería la verdad adoptada por elementos de naturaleza artificial”, en este caso las máquinas. “Es fundamental determinar cuál es el valor jurídico que se le de a este criterio de conclusión porque, en base a él, se activan después mecanismos”.

En este punto citó varios ejemplos para ilustrar sus palabras, como conflictos legales que podría plantear el coche autónomo o el uso de un software en el sistema penitenciario en EE.UU que analiza la probabilidad del riesgo de reincidencia de un delincuente y, en función de sus conclusiones, otorgar o no al recluso la libertad condicional. El recurso ante una decisión judicial como la descrita para saber en base a qué criterios se le deniega la libertad, haría derivar el pleito en dos soluciones: Una, que la empresa programadora se negase a revelar el algoritmo acogiéndose al secreto industrial, otra, que no tuviese una explicación clara porque, gracias al machine learning y al deep learning el algoritmo ha evolucionado tanto que han perdido el control. Es decir, que “el análisis de la juridicidad o no de un determinado programa difícilmente se va a ver a través de su análisis algorítmico, sino de sus resultados. De ahí la prohibición recogida en la antigua Ley de Protección de Datos y que la nueva, mas o menos, modula, de tomar decisiones meramente automatizadas”.

A medio-largo plazo

Ya a medio y largo plazo, planteó el abogado otros escenarios posibles derivados del uso de las nuevas tecnologías y corrientes actuales:

El ser humano aumentado

Con esto se refirió Agote al desarrollo de algunos dispositivos que se anuncian con poder para mejorar las capacidades humanas, tanto a nivel físico como psicológico o intelectual, o corrientes como la del transhumanismo que vaticinan la eterna juventud y el fin de la muerte gracias a la tecnología ya disponible. “Esto que suena bonito, de cara al Derecho genera un cambio de paradigma que consiste en saber cuál es el ser humano modelo o básico al que protege y se dedica la legislación”. Observó también Agote, que hasta ahora, todo lo relativo a la mejora de la capacidad humana se había dirigido a personas con alguna minusvalía, pero no a la potenciación interna. “Ahí la normativa del dopaje puede resultar inspiradora al efecto”. También en lo que se refiere a la corriente transhumanista dijo que habrá que “definir hasta qué punto el ángulo regulatorio permitirá o no que estas corrientes se transformen en realidad porque hay elementos de igualdad básica como premisa de nuestra regulación que esto pondría en juego”, teniendo en cuenta que, en su opinión, “la tecnología no es neutral”.

El derecho de las máquinas

Este fue otro de los supuestos escenarios que quiso plantear el abogado apoyándose en la posibilidad de que “los más optimistas o forofos de la tecnología” llegue un momento en el que defiendan los derechos de las máquinas “por eso de que adquieren autoconciencia”. Ligándolo a la regulación en defensa de los animales recordó que “no le puedo dar un derecho a un animal porque es incapaz de ejercitarlo por él mismo y se dan como referencia al comportamiento humano”.

La neutralidad, o no, de la tecnología

La afirmación de Rubén Agote de la ausencia de neutralidad en la tecnología quiso rebatirla Miguel Ángel Morcuende, Territory Manager en Gartner, otro de los ponentes. “Yo creo que la tecnología es absolutamente neutral, lo que no es neutral es el uso que se hace de ella”, fue su opinión. Cuestionó también el hecho de que se debata tanto ahora sobre la ética de los algoritmos, como si las normas dictadas por los humanos estuviesen siempre privadas de algún tipo de vicio o contaminación.

No fue argumento suficiente para convencer a Agote quien se ratificó en su postura aludiendo, no a la maldad de la tecnología ni a la de los desarrolladores,  sino “a las corporaciones brutales e intereses económicos atronadores” que están detrás de muchos de los que la promueven y los efectos y desigualdades preocupantes que se están creando en la sociedad recordando que, todavía hoy, en el tercer mundo se está tratando de poner acceso a internet.

Suscríbete
  • Suscríbete a la revista y consigue 12 números por solo 28,80 € (un 20% menos).

  • Emprendedores en un iPad

    Accede a nuestro Quiosco Digital y disfruta de la revista en tu tableta, estés donde estés.


Encuentra tu franquicia

Ver más articulos