La responsabilidad civil extracontractual en la inteligenia artificial

Por Alma Tato Gómez y José Domínguez Leandro, de Martínez Echevarría Abogados.- The European Parliament and the Council, on September 28, 2022, have presented a new proposal for a Directive on the adaptation of extracontractual civil liability norms in the field of Artificial Intelligence. En pocas palabras, se trata de atajar las dificultamentes que un usuario, directo o indirecto, de sistemas de Inligencia Artificial potridencia tener ante un daño y perjuicio causados ​​por Inligencia Artificial. Con esta Directive se avanza en el desarrollo legislativo relativo a la Inligencia Artificial, atajando un problema de futuro de gran importancia para el ciudadano, todo ello conforme a la Propuesta de Reglamento de Inligencia Artificial, de 21 de abril de 2021, y con el Libro Blanco de la IA, de 19 de febrero de 2020.

As we all know, Artificial Intelligence (IA), a grandes rasgos, is the combination of a series of logarithms that aims to create machines that display similar capabilities to those of the human being. Por tanto, se trata de una rama de estudio e investigación dedicated to que certain machines puedan imitar el funcción de las neuronas humanas, pudiendo resolver diferentes problems basándos en el behaviora humano, siempre desde mecanizas logicalos y mathematicas.

What are the reasons and objectives of the directive proposal?

Concretely, the Proposal for the Directive establishes new norms on the possible fault or negligence of the disclosure of information originating from IA systems and the reduction of the burden of proof regarding the consequent procedures for reclamation for damages and perjuicios.

Debe tenerse en cuenta que la IA presentsa una serie de características specificas, entre las que se incluede su complicitas, autonomía y opacidad (denominado como black box effect), que pueden llegar a difficultar o hacer excesivamente costoso para los afectados el determinar cual es la persona responsable, así como probar que se cumplen todos los requisites requiados para la presentación de una demanda de responsabilidad civil.

Así las cosas, se estária produciendo una clara indefensión del prejudicado, debiendo los organas judiciales nacionales adaptar el modo en el que aplican las norms en force de forma ad hoc with the end of reaching a result just for the victim. Ya no solo debe hacerse referencia a la víctima, sino que, las companies, en la actualidad, frente a un conflicto de este tipo, se ven impobilitadas de predecir cómo deben aplicarse las norms de responsabilidad civil vigente a casos en los que un Sistema de Inteligencia Artificial este implicado, no pudiendo evaluator ni asegurar, en consequencia, su exposición a dicha responsabilidad. Mismo problema se encuentra las compañías de seguro, impedidas de tener una certainty de los siniestros y sus consequencias en materia de Inteligencia Artificial.

A suvez, si nos entramos ante una entity que practica el commerce transfronterizo, el problema se vería agravado por la falta de harmonización entre los Estados, puesto que la incertidumbre abarcaría ya different jurisdictions.

Therefore, the primary objective of this future directive is to promote the general introduction of AI focused on taking advantage of its benefits in the internal market, guaranteeing the victims of damage caused by this una protection equivalent to the damage caused by other products. Del miso modo, reduce la inseguridad jurídica respecto a las empresas que desarrollan o utilizán IA por su posible exposición a responsabilidad civil.

What is the scope of application?

The scope of the application will be the civil demands of extracontractual responsibility for damages and perjuicios caused by the IA system, when those demands are interpuestas en el marco de regímenes de responsabilidad subjective, es decir, por culpa u omisión negligente.

Las medidas que se pretenden adoptar encajan a la perfección con los sistemas de responsabilidad en force, puesto que el approach no depende de la definición de concepts como “culpa” o “damage”, no afectando, por tanto, a las norms nacionales o comunitarias .

Cabe advertir que la futura Directive no se aplica a la responsabilidad penal, sin perjuicio de que pueda resultar aplicable a la responsabilidad del Estado.

¿Qué medidas son las propuestas en la futura Directive?

  1. Exhibition of tests. Se establece que, un órgano jurisdiccional puede ordenar la exhibición de prueba pertinentes relativas de sistemas de IA que supongan un alto risego – como puede ser la categorización biometrica – debiendo estar en todo caso espaladas por hechos y prueba suficiente que demuestren la viability de demanda . In any case, this option of requiring the display of evidence is not absolute, but the information that is revealed will be solely strict and necessary to demonstrate the damage or prejudice, debiendo actuarse at all times with the due diligence regarding the business secret.
  2. Presunción “iuris tantum. It will have to be reasonable y cuando el demandante haya probado que el dedanado es culpable de los perjuicios y daños causados, siendo reasonable y probable el hecho de que exista un nexo causal provocado por los sistemas de IA. Only this presumption will apply if we are facing:
    • Sistemas IA de alto risego;
    • Sistemas de riesgo no elevado cuando el tribunal determines que es excesivamente difícil para el demandante probar el nexo causal; oh
    • En los casos en los que el demandado utilice el sistema de IA en actividades personales y no profesionales y haya interferido éste en las condiciones del funcción del sistema.
¿Cuándo se producirá la transposición de la Directive?

Los Estados miembros must adopt the legal, regulatory and administrative dispositions necessary for further fulfillment of this Directive for a further two years after its entry into force, debiendo communicating to the Comisión el texto de estas dispositions.

Leave a Comment

Your email address will not be published. Required fields are marked *