Propuesta de Directiva sobre responsabilidad civil extracontractual de la inteligencia artificial

Responsabilidad civil inteligencia artificial
Tiempo estimado de lectura: 4 minutos

El pasado 28 de septiembre de 2022, la Comisión Europea publicó la Propuesta de Directiva del Parlamento Europeo y del Consejo, relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA) para hacer frente a uno de los grandes retos que plantean los sistemas y objetos basados en inteligencia artificial. Ahora, el Parlamento Europeo y el Consejo deberán aprobar conjuntamente la propuesta de la Comisión antes de su aprobación definitiva.

1. Razón de ser de la Propuesta de Directiva

En el año 2020 la Comisión Europea realizó una encuesta empresarial sobre el uso de tecnologías basadas en inteligencia artificial, y la cuestión de la responsabilidad civil figuraba entre los tres principales obstáculos a los que se enfrentaban las empresas que utilizaban o quería utilizar inteligencia artificial.

El 20 de octubre de 2020, el Parlamento Europeo adoptó una resolución legislativa de propia iniciativa en virtud del artículo 225 del Tratado de Funcionamiento de la Unión Europea (TFUE) en la que pedía a la Comisión que adoptase una propuesta relativa a un régimen de responsabilidad civil para la inteligencia artificial basado en el artículo 114 del TFUE.

También el Libro Blanco sobre la Inteligencia Artificial, publicado en febrero de 2020, abordaba la cuestión de la responsabilidad civil y los retos específicos que la inteligencia artificial plantea.

Es en este contexto, por tanto, en el que la Comisión Europea ha adoptado la presente Propuesta de Directiva, que busca establecer normas uniformes sobre el acceso a la información y la reducción de la carga de la prueba en relación con los daños provocados por los sistemas de inteligencia artificial, a la vez que quiere armonizar normas aplicables a las reclamaciones que no entran en el ámbito de aplicación de la Propuesta de Directiva sobre responsabilidad por los daños causados por productos defectuosos, porque los daños se deben a un comportamiento ilícito.

La Propuesta de Directiva tiene como objetivo promover la introducción generalizada de una inteligencia artificial fiable, garantizando que las víctimas que sufran daños que hayan sido causados por una inteligencia artificial obtengan una protección equivalente a la de las víctimas de daños causados por los demás productos. En este sentido, cubre las demandas nacionales de responsabilidad fundamentadas en la culpa de cualquier persona.

2. Responsabilidad civil de la inteligencia artificial

Una de las funciones más importantes de las normas de responsabilidad civil es garantizar que las víctimas de daños puedan reclamar una indemnización. Con la Propuesta de Directiva ahora publicada, la Comisión pretende garantizar que las víctimas de daños causados por productos con inteligencia artificial gocen de un nivel de protección equivalente en virtud de las normas de responsabilidad civil al de las víctimas de daños causados sin que haya mediado la inteligencia artificial.

En este sentido, el ámbito de aplicación de la Propuesta de Directiva son las demandas de responsabilidad civil extracontractual subjetiva (es decir, basada en la culpa) en aquellos casos en que los daños y perjuicios hayan sido causados por un sistema de inteligencia artificial, sea o no de alto riesgo. Para entender qué es un sistema de inteligencia artificial de alto riesgo, la Propuesta de Directiva nos remite al artículo 6 de la Propuesta de Reglamento del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de inteligencia artificial (también denominada «Ley de la inteligencia artificial»), de abril del año 2021.

Así, un sistema de inteligencia artificial se considerará de alto riesgo si está destinado a ser utilizado como componente de seguridad de uno de los productos contemplados en la legislación de armonización de la Unión Europea, de conformidad con el Anexo II de la Ley de la inteligencia artificial, o si debe someterse a una evaluación de la conformidad realizada por un organismo independiente para su introducción en el mercado o puesta en servicio.

Por ejemplo, son considerados de alto riesgo los sistemas de inteligencia artificial destinados a la administración de justicia y los procesos democráticos, puesto que pueden tener efectos potencialmente importantes para la democracia, el Estado de Derecho, las libertades individuales y el derecho a la tutela judicial efectiva. También son de alto riesgo los sistemas de IA destinados a ser componentes de seguridad en la gestión y el funcionamiento del tráfico rodado y el suministro de agua, gas, calefacción y electricidad, los que que se utilizan en la educación o la formación profesional y los que se utilizan en el empleo, la gestión de los trabajadores y el acceso al autoempleo, sobre todo para la contratación y la selección de personal, entre otros.

Se establece una presunción de la existencia del nexo causal entre la culpa del demandado y los resultados producidos por el sistema de inteligencia artificial o la no producción de resultados, siempre que la persona perjudicada consiga demostrar la culpa del demandado, por ejemplo, al incumplir con sus obligaciones de diligencia debida, que demuestre que la información de salida producida por el sistema de inteligencia artificial (o la ausencia de esta información) haya causado los daños y que pueda considerarse razonablemente probable que la culpa ha influido en la producción de los daños.

Por el contrario, si el daño lo ha ocasionado un sistema de inteligencia artificial de alto riesgo, bastará acreditar por la persona perjudicada que el fabricante ha incumplido cualquiera de los requisitos que le impone la Ley de la inteligencia artificial, es decir, que no será necesario demostrar el nexo causal entre el hecho culposo y el daño, reduciendo así la carga de la prueba a los perjudicados.

Con esta Propuesta sobre la mesa, se pone de manifiesto la imperante necesidad de adaptar el régimen de responsabilidad civil extracontractual a los daños causados por la inteligencia artificial , para lo cual será necesario contar con abogados expertos en inteligencia artificial y nuevas tecnologías que conozcan la normativa y sepan cómo defender los derechos e intereses de aquellos consumidores que se vean perjudicados por la misma.

Post elaborado por Ricardo Oliva León y Elena Almazán Salazar.

5/5 - (1 voto)

Un artículo de Algoritmo Legal.

Firma de abogados española especializada en el asesoramiento legal de los negocios y la tecnología. Asesoramos negocios y proyectos que utilizan la tecnología de la inteligencia artificial con el fin de que alineen su actuación a los parámetros regulatorios y las buenas prácticas sobre una inteligencia artificial fiable (lícita, ética y robusta). Asistimos legalmente a personas que vean afectados sus derechos e intereses por el uso de dicha tecnología.


Licencia de Creative CommonsArtículo bajo licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

"NO REPRODUZCAS SIN CITAR LA FUENTE"

Querido lector: dispones del permiso del editor de Algoritmo Legal y del mismo autor de este artículo para reproducir todo o una parte del mismo, siempre que cites la fuente de origen y que no consideres importante que Google penalice tu web por tener contenido duplicado. Así que, simplemente copia lo siguiente:

Algoritmo Legal. Propuesta de Directiva sobre responsabilidad civil extracontractual de la inteligencia artificial [online]. Algoritmo Legal. 10/11/2022. https://www.abogadosinteligenciaartificial.com/responsabilidad-civil-inteligencia-artificial/. Consulta: [indicar la fecha en que has consultado el artículo].

error: ¡Contenido protegido!