La responsabilidad civil extracontractual en la inteligencia artificial

Maite Sáenz20 octubre 20227min

Por Alma Tato Gómez y José Domínguez Leandro, de Martínez Echevarría Abogados.- El Parlamento Europeo y el Consejo, en fecha 28 de septiembre de 2022, han presentado una nueva propuesta de Directiva relativa a la adaptación de las normas de responsabilidad civil extracontractual en materia de Inteligencia Artificial. En pocas palabras, se trata de atajar las dificultades que un usuario, directo o indirecto, de sistemas de Inteligencia Artificial podrían tener ante un daño y perjuicio causado por Inteligencia Artificial. Con esta Directiva se avanza en el desarrollo legislativo relativo a la Inteligencia Artificial, atajando un problema de futuro de gran importancia para el ciudadano, todo ello conforme a la Propuesta de Reglamento de Inteligencia Artificial, de 21 de abril de 2021, y con el Libro Blanco de la IA, de 19 de febrero de 2020.

 

Como todos ya conocemos, la Inteligencia Artificial (IA), a grandes rasgos, es la combinación de una serie de logaritmos que tiene por finalidad la creación de máquinas que ostenten similares capacidades a las del ser humano. Por tanto, se trata de una rama de estudio e investigación dedicada a que ciertas máquinas puedan imitar el funcionamiento de las neuronas humanas, pudiendo resolver diferentes problemas basándose en el comportamiento humano, siempre desde mecanismos lógicos y matemáticos.

 

¿Cuáles son las razones y objetivos de la propuesta de Directiva?

 

Concretamente, la Propuesta de Directiva asienta nuevas normas sobre la posible culpa o negligencia de revelación de información originados por sistemas de IA y la reducción de la carga de la prueba respecto a los consecuentes procedimientos de reclamación por daños y perjuicios.

Debe tenerse en cuenta que la IA presenta una serie de características específicas, entre las que se incluye su complejidad, autonomía y opacidad (denominado como black box effect), que pueden llegar a dificultar o hacer excesivamente costoso para los afectados el determinar cuál es la persona responsable, así como probar que se cumplen todos los requisitos requeridos para la presentación de una demanda de responsabilidad civil.

Así las cosas, se estaría produciendo una clara indefensión del perjudicado, debiendo los órganos judiciales nacionales adaptar el modo en el que aplican las normas en vigor de forma ad hoc con el fin de llegar a un resultado justo para la víctima. Ya no solo debe hacerse referencia a la víctima, sino que, las empresas, en la actualidad, frente a un conflicto de este tipo, se ven imposibilitadas de predecir cómo deben aplicarse las normas de responsabilidad civil vigentes a casos en los que un Sistema de Inteligencia Artificial este implicado, no pudiendo evaluar ni asegurar, en consecuencia, su exposición a dicha responsabilidad. Mismo problema se encuentran las compañías de seguro, impedidas de tener una certeza de los siniestros y sus consecuencias en materia de Inteligencia Artificial.

A su vez, si nos encontramos ante una entidad que practica el comercio transfronterizo, el problema se vería agravado por la falta de armonización entre los Estados, puesto que la incertidumbre abarcaría ya diferentes jurisdicciones.

Por lo tanto, el objetivo primordial de esta futura Directiva supone promover la introducción generalizada de la IA enfocado a aprovechar sus beneficios en el mercado interior, garantizando a las víctimas de daños causados por esta una protección equivalente a la de los perjudicados de daños causados por otros productos. Del mismo modo, reduce la inseguridad jurídica respecto a las empresas que desarrollan o utilizan IA por su posible exposición a responsabilidad civil.

 

¿Cuál es su ámbito de aplicación?

 

El ámbito de aplicación seran las demandas civiles de responsabilidad extracontractual por daños y perjuicios causados por un sistema IA, cuando dichas demandas sean interpuestas en el marco de regímenes de responsabilidad subjetiva, es decir, por culpa u omisión negligente.

Las medidas que se pretenden adoptar encajan a la perfección con los sistemas de responsabilidad en vigor, puesto que el enfoque no depende de la definición de conceptos como “culpa” o “daño”, no afectando, por tanto, a las normas nacionales o comunitarias.

Cabe advertir que la futura Directiva no se aplica a la responsabilidad penal, sin perjuicio de que pueda resultar aplicable a la responsabilidad del Estado.

 

¿Qué medidas son las propuestas en la futura Directiva?

 

  1. Exhibición de pruebas. Se establece que, un órgano jurisdiccional puede ordenar la exhibición de pruebas pertinentes relativas a sistemas de IA que supongan un alto riesgo – como puede ser la categorización biométrica – debiendo estar en todo caso respaldadas por hechos y pruebas suficientes que demuestren la viabilidad de la demanda. En todo caso, esta opción de exigir la exhibición de pruebas no es absoluta, sino que la información que sea revelada será únicamente la estricta y necesaria para demostrar el daño o perjuicio, debiendo actuarse en todo momento con la diligencia debida respecto al secreto empresarial.
  2. Presunción “iuris tantum. Se tendrá por hecha siempre y cuando el demandante haya probado que el demandado es culpable de los perjuicios y daños causados, siendo razonable y probable el hecho de que exista un nexo causal provocado por los sistemas de IA. Solo se aplicará esta presunción si estamos ante:
    • Sistemas IA de alto riesgo;
    • Sistemas de riesgo no elevado cuando el tribunal determine que es excesivamente difícil para el demandante probar el nexo causal; o
    • En los casos en los que el demandado utilice el sistema de IA en actividades personales y no profesionales y haya interferido éste en las condiciones del funcionamiento del sistema.

 

¿Cuándo se producirá la transposición de la Directiva?

Los Estados miembros deberán adoptar las disposiciones legales, reglamentarias y administrativas necesarias para dar cumplimiento a esta Directiva a más tardar dos años después de su entrada en vigor, debiendo comunicar a la Comisión el texto de estas disposiciones.

 


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales