LA FUNCIÓN DE LA INTERPRETACIÓN EN LA INTELIGENCIA ARTIFICIAL: 


EL PRINCIPIO GENERAL DE RESPONSABILIDAD DEL ESTADO EN SU VERTIENTE DIGITAL Y SUS LÍMITES ÉTICOS

Santiago Carretero Sánchez

Profesor Titular de la Universidad Rey Juan Carlos

Académico Correspondiente de la Real Academia de Jurisprudencia y Legislación

 

RESUMEN

Antes de que nos hayamos percatado, el mundo virtual ha ido acumulando nuestros datos para alcanzar unos objetivos que no siempre conocíamos o preveíamos. Ahora que la digitalización del mundo físico, así como el análisis que permite dicha digitalización, están muy avanzados, tomamos conciencia de su existencia y empezamos a pensar en los efectos, particularmente éticos —y, en consecuencia, jurídicos—, sobre nuestra sociedad. El derecho de la Unión Europea ha dado respuesta a esta cuestión mediante el Reglamento General sobre la Protección de Datos, que entró en vigor en mayo de 2018, propugnando el principio de que la digitalización de los elementos que permiten identificar a una persona física esté condicionada, principalmente, a un consentimiento previo de la persona física con conocimiento de causa

PALABRAS CLAVE

Responsabilidad digital

Teoría de la responsabilidad

Compromiso ético

Nueva culpabilidad

Incumplimiento de las obligaciones

 

ABSTRACT

Before we know it, the virtual world has been accumulating our data to achieve objectives that we did not always know or foresee. Now that the digitization of the physical world, as well as the analysis that digitization allows, are very advanced, we are becoming aware of its existence and we are beginning to think about the effects, particularly ethical —and, consequently, legal— on our society. The law of the European Union has responded to this question through the General Regulation on Data Protection, which came into force in May 2018, advocating the principle that the digitization of the elements that allow the identification of a natural person is conditioned , mainly, to the prior consent of the natural person with knowledge of the facts.

 

KEYWORDS

digital responsibility

responsibility theory

ethical commitment

culpability

Breach of ethical obligations

 

 

 

 

La configuración de un futuro digital de Europa, esto es, una «Europa adaptada a la Era Digital», es una de las prioridades a corto plazo de la Unión Europea. Este camino estratégico hacia la adaptación de la Unión a la Era Digital puede apreciarse no solo en materia de datos, sino también en el ámbito de las tecnologías emergentes como la Inteligencia Artificial. Es hora de preguntarse si este proceso de digitalización- imparable laboral e industrialmente- debe tener límites éticos. Esta evolución se ha venido produciendo en un sector que no es accesible para la gran mayoría de las personas, tanto por su confidencialidad como por su alta tecnicidad.

La fuerza expansiva del Principio general del Derecho de la responsabilidad del Estado se extiende a la responsabilidad digital, pues ese artículo 106.2 de nuestra Constitución garantiza el derecho de los particulares a ser indemnizados por toda lesión que sufran en cualquiera de sus bienes y derechos, salvo en los casos de fuerza mayor, siempre que la lesión sea consecuencia del funcionamiento de los servicios público, en este caso, el mal funcionamiento de los servicios digitales aprobados o implementados o autorizados por el Estado

 Antes de que nos hayamos percatado, el mundo virtual ha ido acumulando nuestros datos para alcanzar unos objetivos que no siempre conocíamos o preveíamos. Ahora que la digitalización del mundo físico, así como el análisis que permite dicha digitalización, están muy avanzados, tomamos conciencia de su existencia y empezamos a pensar en los efectos, particularmente éticos —y, en consecuencia, jurídicos—, sobre nuestra sociedad. El derecho de la Unión Europea ha dado respuesta a esta cuestión mediante el Reglamento General sobre la Protección de Datos, que entró en vigor en mayo de 2018, propugnando el principio de que la digitalización de los elementos que permiten identificar a una persona física esté condicionada, principalmente, a un consentimiento previo de la persona física con conocimiento de causa. Los agentes de esta digilitalización son los Estados modernos y las grandes empresas[1]. La digitalización y el uso que hacen empresas y Estados de las correlaciones que permite el análisis mediante inteligencia artificial son, muchas veces, una omisión de los principios fundamentales del estado de derecho, base de los sistemas jurídicos de las democracias. De manera simplificada, el Estado de derecho se concibe como aquel gobernado por un sistema jurídico en el que toda condena debe fundamentarse sobre una ley preexistente, en el que existe una verdadera tutela judicial — conocimiento de los hechos imputables, fundamentación de la ilicitud, derecho a la defensa y absolución en caso de que un poder judicial independiente no considere la culpa probada—, y en el que la ley, en su sentido amplio, se aplica a todos los individuos y entidades. Recoge, pues, los principios fundamentales del derecho, casi idénticos en todos los sistemas. Hoy en día, el análisis de datos personales y anónimos recogidos por diversas fuentes y cedidos a entidades de todo tipo posibilita que los individuos se puedan ver privados, por ejemplo, del acceso a un seguro, a un crédito o a un puesto de trabajo. Esto nos llevará sin duda, y de nuevo, al problema de la responsabilidad del Estado como persona jurídica y de las empresas igual, por esta invasión a la privacidad. Incluso se intenta un análisis digitalizado y matemático de las soluciones jurídicas que un determinado justiciable tiene cuando acude a un juzgado.

Así, antes de adentrarnos en el Reglamento Data Governance Act (también conocido por sus siglas, «DGA»), parece interesante hacer referencia a la Estrategia Europea de Datos cuyo objetivo no es otro que la Unión Europea lidere una sociedad impulsada por los datos. A través de dicha Estrategia, la Unión Europea está en proceso de configurar un marco legal estructural que ampare el uso de datos, extremo que puede observarse con la Ley de Gobernanza de Datos y la Ley Europea de Datos (más conocida por su denominación en inglés, «Data Act»), ambos reglamentos europeos del Derecho de la Unión.

Esta Estrategia Europea de Datos halla su justificación en que la Unión Europea lidere una sociedad digital impulsada por los datos, pero se sostiene especialmente en las cifras que la Comisión Europea maneja respecto a los datos para 2025.  El Reglamento Data Governance Act fue inicialmente propuesto por la Comisión Europea en 2020 y, como se ha señalado en el párrafo anterior, se aprobó el 16 de mayo de 2022. Su entrada en vigor se producirá tras el transcurso de veinte días desde su publicación en el Diario Oficial de la Unión Europea (DOUE) y las nuevas normas que el Reglamento contiene serán de aplicación quince meses después de la entrada en vigor del Reglamento DGA.

 

Los aspectos más reseñables del señalado Reglamento de Gobernanza de Datos o DGA son los siguientes:

 

— Se aboga por una mayor reutilización de los datos protegidos del sector público.

— Un nuevo modelo de negocio para la intermediación de datos facilitando, además, la identificación de los proveedores de servicios.

— Cesión altruista de datos en la Unión Europea con el bien común como objetivo[2].

— Creación del European Data Innovation Board.

— Acceso y transferencia internacional de datos no personales[3].

 

En lo que concierne a la apuesta por una mayor reutilización de determinadas categorías de datos protegidos en manos de organismos del sector público, es inevitable mencionar la «Open Data Directive» por la novedad que aporta la norma respecto a lo previsto en dicha Directiva. A la luz del artículo 3 de la DGA, el legislador apuesta por la reutilización de datos relativos a secretos comerciales y profesionales, datos estadísticos confidenciales, datos relativos a la protección de derechos de propiedad intelectual de terceros y datos personales.

Así, mediante este texto legal y a la luz de su artículo 3, se busca apostar por la reutilización de datos relativos a secretos comerciales y profesionales, datos estadísticos confidenciales, datos relativos a la protección de derechos de propiedad intelectual de terceros y datos personales. Ello supone un verdadero cambio y, podría decirse que aporta la mayor novedad, habida cuenta la exclusión de estos datos en el ámbito de aplicación de la precitada Directiva.

 

En cuanto a la creación de un nuevo modelo de negocio basado en la intermediación de datos, se pretende el intercambio de datos en un entorno seguro a través de la prestación de servicios de intermediación de datos, prestación de servicios que se encuentra sujeta a procedimiento de notificación y a la extensa relación de condiciones expuestas en el artículo 12 del Reglamento DGA.

 

Una de las condiciones para la prestación de servicios de intermediación de datos que más destaca, y de la cual merece la pena su especial mención, es la relativa a los fines de los datos ya que, de acuerdo con lo previsto en el Reglamento Data Governance Act, «los proveedores de servicios de intermediación de datos no podrán utilizar los datos en relación con los que presten sus servicios para fines diferentes de su puesta en disposición».

 

El tercer punto clave consiste en la cesión altruista de datos entre los Estados miembros con el bien común o interés general como objetivo, enmarcándose en el bien común aquellos datos relativos —se citan algunos de ellos— a la asistencia sanitaria, lucha contra el cambio climático, mejora de la prestación de servicios públicos, investigación científica de interés general[4]

 

Esta cesión altruista de datos es de carácter voluntario y se puede realizar, según lo establecido en el Capítulo IV del Reglamento DGA, mediante la cumplimentación de un formulario de consentimiento de altruismo de datos europeos en el que, si se facilitan datos personales, deberá garantizar que se cumpla con las exigencias previstas en el Reglamento General de Protección de Datos.

 

Otro de los aspectos más reseñables es que, bajo el amparo del Reglamento Data Governance Act, se crea el European Data Innovation Board que adoptará forma de grupo de expertos y estará compuesto por representantes de las autoridades competentes señaladas en el artículo 29.1 del Reglamento DGA —debiendo estar compuesto, como mínimo, por los tres subgrupos previstos en el apartado siguiente del precitado artículo—.

 

En el artículo 30 del Reglamento DGA se ofrece extensa relación de funciones del European Data Innovation Board, destacando entre estas, el asesoramiento y asistencia a la Comisión Europea para mejorar la interoperabilidad de los servicios de intermediación de datos y la propuesta de directrices para marcos interoperables de normas y prácticas comunes para el procesamiento conjunto de datos para alcanzar los fines descritos en el artículo 30.h) del Reglamento DGA.

 

Por último, tenemos el acceso y transferencia internacional de datos no personales. Es importante señalar que se protegen los datos del sector público, los servicios de intermediación de datos y las organizaciones de altruismo de datos tanto de las transferencias internacionales ilegal de datos no personales como del acceso gubernamental a estos[5].

 

Sin perjuicio de lo anterior, el Reglamento DGA permite la transferencia de datos no personales a terceros países, guardando cierta similitud con el Reglamento General de Protección de Datos (RGPD), mediante la adopción de decisiones de adecuación por las que se declare que determinados terceros países cuentan con medidas de protección similares a las de la Unión Europea o sus Estados miembros. El Reglamento Data Governance Act deja patente que la Unión Europea es consciente del papel clave que juegan los datos en la transformación socioeconómica a la que venimos acudiendo en los últimos tiempos y que, dentro del marco de la Estrategia Europea de Datos, permitirá desarrollar un auténtico espacio común europeo de datos y más productos innovadores a la altura de la Era Digital que la Unión Europea desea, más pronto que tarde, alcanzar. Eso conllevará unos mecanismos más directos en los fallos de compliance, que el propio Estado debe dotarse, y aun cuando el avance en la Unión Europea es realmente tremendo, queda mucho por hacer.

 

PROBLEMAS CONCRETOS DE LA RESPONSABILIDAD EN LA INTELIGENCIA ARTIFICIAL y SU COMPATIBILIDAD CON LA TEORÍA TRADICIONAL

Estamos ante una petición de responsabilidad exigida a una persona jurídica, Estado o gran empresa de data, que pueden vulnerar gravemente nuestra intimidad. Es por ello, que, aunque estemos hablando del delegado de protección de datos en cada momento, nos deberemos orientar a la responsabilidad penal, siendo esta la más fuerte, de las personas jurídicas, también en sus consecuencias civiles. Asistimos en estos momentos a la aparición de nuevas expectativas jurídicas, nuevos retos que el Derecho no puede desconocer. Algunos pasan desapercibidos, pero desde luego, no puede serlo la primera resolución judicial del Tribunal Supremo español que versa sobre la responsabilidad jurídica de las personas físicas, nos referimos a la importante sentencia 154/2016 de 29 de febrero que declara responsables penales a personas jurídicas. Esto rompe con una teoría sobre la persona jurídica, sobre su capacidad y voluntad para ser merecedora de un reproche penal. Hasta ahora, la responsabilidad penal venía dada por el cargo de la sociedad, por sus representantes legales, y esa misma se extendería sólo a sus bienes, sin perjuicio de que, cuando se cobraban esos bienes desde los societarios, la sociedad pudiera repetir por sus acciones civiles y penales a ese socio. Ese tema estaba claro y no rompía la teoría tradicional de la persona jurídica. Pero el caso es que la resolución de febrero de 2016 ha sido histórica, la primera, que se plantea el tema de la responsabilidad en global, a toda la persona jurídica en sí. Algo que ya permitía nuestro art. 31 bis del CP en sus letras a) y b) que permite transferir la responsabilidad de las personas físicas a las jurídicas. El primer hecho de conexión lo generan las personas con mayores responsabilidades en la entidad y el segundo las personas indebidamente controladas por aquéllas. En aquellos casos, se establece un sistema de responsabilidad por transferencia o vicarial de la persona jurídica, aunque la novedosa regulación de los programas de cumplimiento normativo introducidos por la LO 1/2015 nos acerca un poco más al ambicioso modelo de «culpabilidad por defecto de organización». Indica Legaz que el sujeto de Derecho es el ser que es capaz de derechos y obligaciones. El punto de partida de nuestro Derecho occidental es el hombre, el sujeto de Derecho es el hombre por influencia del cristianismo, de toda la doctrina ética kantiana. No se trata de hacer un repaso de clara Filosofía del Derecho sobre las doctrinas que afirman que las características de inteligencia y voluntad sí son aplicables a asociaciones de personas físicas, como las teorías de Gierke, Del Vecchio, o las teorías idealistas como Binder, Larenz…es clara ya la idea de las teorías patrimonialistas, Mayer como la teoría de la persona jurídica como empresa, o la doctrina del patrimonio colectivo (Planiol), el propio Kelsen considera la persona jurídica dentro del orden jurídico no la ve ficción alguna del Derecho. Eran otros tiempos. Había autores que negaban la existencia de la persona jurídica como tal como Duguit al negar el derecho subjetivo, o Hoelder que no entiende aplicables las características de la persona a la persona jurídica, conocimiento, voluntad, acción. Una mera ficción como indica Affolter. Hoy en Día no tiene sentido, nuestra economía está basada en personas jurídicas, bien institucionales (Estado, Nación) o bien desde el punto de vista mercantil (Sociedad de todas las diferentes formas) es más, cuantas más empresas, personas jurídicas existan, más próspero es un país. Cualquier empresa, por pequeña que sea, en cuanto aumenta su objeto social, contrata a otros trabajadores, cuando aumenta su producción, difícilmente no adopta forma societaria. Por tanto, el debate sobre la existencia o no de la persona jurídica, nos lleva a un terreno más epistemológico que jurídico, a un planteamiento pre jurídico, que, como tal, hoy en día ya no se puede volver atrás. Desde el Derecho romano, el que hace verdaderamente que exista la persona jurídica, la realidad del Derecho se ha ido institucionalizando, pero, aun así, el concepto persona jurídica era una ficción como se indicaba en el aforismo conocido ya de societas delinquere non potest. Y ello ha pasado con la responsabilidad, el proceso de objetivación del daño en el terreno civil se ha observado en el Derecho penal. De ahí que esta resolución sea histórica por sus repercusiones mercantiles, económicas, jurídicas y de reflexión. Por ello, ya nadie pone en duda la existencia de una responsabilidad estatal en este campo, la responsabilidad digital y sus nuevos derechos[6]. El Plan de España Digital 2025, alineado con la Agenda Digital para Europa, hace referencia expresa al derecho a la protección de los datos personales como derecho fundamental en la UE, abriendo un marco de acción en las administraciones públicas, que, basado en el dato seguro y su minimización, impulse la mejora de los servicios públicos digitales. En su reciente Comunicación Brújula digital 2030: el camino europeo para la década digital, la Comisión Europea hace hincapié en una administración pública conectada, así como en la construcción, desde la complementariedad, de un sistema único que permita el intercambio de datos respetando en su plenitud los derechos fundamentales; los de privacidad, protección de datos e intimidad, derecho al olvido y libertad de expresión, entre ellos, incluyendo el acceso a medios plurales, fiables y transparentes de información. La «ciudadanía digital» reclama mayor control de sus datos, mayor transparencia, seguridad y privacidad, porque el mundo de hoy está generando más datos que nunca. Navegación en las webs, redes sociales, telefonía, mails, dispositivos GPS…, gestan, de manera espontánea en su mayoría, un caudal de datos que ocasiona el fenómeno «big data» o «new data», con implicaciones en el mundo del trabajo. El «big data» y, con él, los algoritmos y otros sistemas de inteligencia artificial permiten la observación, seguimiento y control, facilitando los procesos decisorios; también posibilitan la medición de ciertos acontecimientos y la realización de predicciones. El riesgo de que los datos, los algoritmos y los softwares que los sustentan, inicialmente diseñados para usos concretos, sean utilizados con finalidades distintas son amenazas que planean en el universo digital, cuya revolución impacta en las relaciones de trabajo, abarcando un espectro multidimensional cada vez mayor. La vigilancia y gestión del rendimiento, las interacciones entre la oferta y la demanda de trabajo, la obtención de información relativamente detallada sobre las características de las personas trabajadoras y empleadoras, comportan nuevos riesgos que deben ser ampliamente abordados en el plano jurídico, tomando en consideración que los medios actuales de acopio, tratamiento y recuperación de datos revisten cada vez mayor complejidad. Sus formas de utilización y difusión, además de facilitar la vigilancia, permiten influir en las personas trabajadoras y empleadoras, en sus comportamientos y decisiones. Cada vez los juristas se preguntan más dónde encajar la responsabilidad de personas jurídicas que pertenecen al sector de la robótica y de la Inteligencia artificial[7]. A este respecto, el Dictamen de 2017 del CESE señala la controversia sobre quién asume la responsabilidad de los daños que pueda causar un sistema de inteligencia artificial, también en el caso de que se trate de sistemas autodidactas que continúan el aprendizaje después de entrar en servicio. El Parlamento indica que es conveniente definir el concepto de «Robot autónomo inteligente» teniendo en cuenta elementos tales como su autonomía, capacidad de autoaprendizaje, soporte, adaptación del comportamiento.

 

Las consideraciones que realiza el Parlamento Europeo se pueden condensar en las siguientes:

 

a) La dotación a los robots de rasgos cognitivos y autónomos, antes propios sólo de los seres humanos. Se asimilan a los agentes interactuantes del entorno y pueden modificarlo, y de ahí la cuestión de la responsabilidad por daños.

b) Autonomía y capacidad de decisión por parte de los robots con independencia del control. Si hay mayor sofisticación, habrá mayor autonomía[8].

c) La mayor autonomía se traduce en la superación de la instrumentalidad del robot, por lo que se plantea si la normativa existente en materia de responsabilidad es adecuada o se precisa normas y principios sobre la responsabilidad jurídica de los agentes (fabricante, operador, propietario, usuario) por los daños y perjuicios de los actos y omisiones de los robots, que no se pueda atribuir a un agente en concreto, y también de los actos y omisiones dañosos que podían evitarse.

d) La naturaleza jurídica de los robots incluyéndolos dentro de una categoría existente o crear una nueva exprofeso para ellos.

e) En el actual marco legal, los robots no son sujetos responsables por daños a terceros. Las normas vigentes contemplan la responsabilidad al agente humano (fabricante, operador, propietario o usuario), tanto en la previsión del daño como en la omisión de este por parte de los robots.

f) La responsabilidad por daños causados por productos defectuosos en la que el fabricante responde por un mal funcionamiento, y en las que el usuario responde por un mal comportamiento se aplica a los robots.

g) Si un robot es autónomo en la toma de decisiones, las normas existentes no serán suficientes para generar responsabilidad por los daños, ya que no pueden determinar la parte que deba indemnizar, ni la reparación del daño causado.

h) Deficiencias en las normas de responsabilidad contractual en el caso de máquinas para elegir parte contractual, celebrar contratos, por lo que es preciso adoptar normas que sean aplicables en un marco tecnológico.

i) Insuficiencia de la normativa en materia de responsabilidad extracontractual en el ámbito comunitario, ya que sólo cubre los daños ocasionados por defectos de fabricación de un robot a condición de que el perjudicado pueda demostrar el daño real, el defecto del producto y la relación causa efecto entre el defecto y el daño (responsabilidad objetiva o sin culpa). Inaplicación de la normativa referida para cubrir los daños ocasionados por robots, y teniendo en cuenta sus capacidades e imprevisibilidad en la actuación.

El Parlamento Europeo recomendó el examen de dotar a los robots de personalidad jurídica para atribuirles responsabilidad civil por daños, siendo esto importante para la exigencia de Responsabilidad del Estado también[9].

 

El Parlamento Europeo formuló recomendaciones respecto a la legislación civil en materia de robótica, y el examen de dotar a los robots de personalidad jurídica, e-personality, para atribuirles responsabilidad civil por daños.

 

Ha dictado unos «Principios generales relativos al desarrollo de la robótica y la inteligencia artificial para uso civil»:

 

1. La responsabilidad por daños y perjuicios causados por robots debe ser analizada para garantizar la eficiencia, transparencia y coherencia en la garantía de la seguridad jurídica en la UE en beneficio de ciudadanos, consumidores y empresas.

2. La importancia de las relaciones de interdependencia básicas, previsibilidad y direccionalidad para determinar la información que compartan humanos y robots.

3. Necesidad de propuesta de legislación sobre los aspectos jurídicos relacionados con el desarrollo y uso de la robótica y la inteligencia artificial[10].

4. La herramienta legislativa para la responsabilidad civil por daños y perjuicios causados por robots en casos diferentes a los perjuicios económicos, no debe limitar el alcance de la responsabilidad patrimonial que pueda ser compensada, ni su naturaleza, por el hecho de que sean causados por un robot.

5. El instrumento legislativo debe basarse en una evaluación para determinar el enfoque de la responsabilidad objetiva o el de gestión de riesgos.

6. La responsabilidad objetiva precisa probar el daño, nexo causal y perjuicios sufridos, pero no la intención, en esto ha ido de la mano de la teoría tradicional de la responsabilidad patrimonial moderna y se tendrán que regular los supuestos de hecho, detrás estará el ser humano siempre.

7. La gestión de riesgos no está centrada en el ámbito subjetivo o actuación negligente, sino en la persona capaz de minimizar riesgos y gestionar el impacto negativo.

8. La identificación de las partes será un elemento para aplicar la responsabilidad proporcionar según las instrucciones que hayan dado las mismas a los robots, y el grado de autonomía de estos. Influirá las capacidades adquiridas y la formación otorgada por el ser humano a la máquina, por lo que no se puede confundir la competencia adquirida por la formación con la competencia dependientes de la capacidad de aprendizaje autónomo.

9. Establecimiento de un régimen de seguro obligatorio similar a los vehículos, pero cubriendo todas las responsabilidades potenciales y no sólo las actuaciones humanas y los fallos mecánicos. Complemento con un fondo para garantizar la reparación de los daños en los casos de ausencia de cobertura del seguro, por lo que habría que generar nuevos productos que se adapten a dichas circunstancias[11].

 

Se solicita a la Comisión que, en la evaluación de impacto de la futura regulación, se consideren las implicaciones de todas las soluciones jurídicas, como las siguientes:

 

«a) establecer un régimen de seguro obligatorio en los casos en que sea pertinente y necesario para categorías específicas de robots, similar al existente para los automóviles, en el que los fabricantes o los propietarios de robots estarían obligados a suscribir un contrato de seguro por los posibles daños y perjuicios causados por sus robots, no siempre sería el Estado el responsable así.

 

b). - establecer un fondo de compensación que no sólo garantice la reparación de los daños o perjuicios causados por un robot ante la ausencia de un seguro.

c). - Decidir si conviene crear un fondo general para todos los robots autónomos inteligentes o crear un fondo individual para cada categoría de robot, así como la elección entre un canon único al introducir el robot en el mercado o pagos periódicos durante la vida del robot.

d) crear un número de matrícula individual que figure en un registro específico de la Unión que asegure la asociación entre el robot y el fondo del que depende y que permita que cualquier persona que interactúe con el robot esté al corriente de la naturaleza del fondo, los límites de su responsabilidad en caso de daños materiales, los nombres y las funciones de los participantes y otros datos pertinentes.

e). - crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente»[12].

Por su parte, la Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones. Inteligencia artificial para Europa (COM/2018/237 final), establece respecto a la responsabilidad por daños:

 

«La aparición de la IA, en particular el complejo ecosistema que la hace posible y la característica de la adopción autónoma de decisiones, exige una reflexión acerca de la idoneidad de algunas de las normas establecidas en materia de seguridad y de cuestiones de Derecho civil relativas a la responsabilidad.

 

Por ejemplo, los robots avanzados y los productos del internet de las cosas que se apoyan en la IA pueden no comportarse con arreglo a lo previsto cuando el sistema entró en funcionamiento por primera vez. Habida cuenta de la generalización de la utilización de la IA, es posible que sea necesario revisar las normas tanto horizontales como sectoriales.

 

El marco de seguridad de la UE ya se ocupa de la cuestión del uso previsto y del uso (o abuso) previsible de los productos cuando se comercializan. A raíz de ello, se ha elaborado un sólido conjunto de normas para los dispositivos que se apoyan en la IA, normas que se adaptan constantemente en consonancia con el progreso tecnológico.

La transferencia de responsabilidad civil al robot, al tener la normativa sobre responsabilidad un efecto de carácter preventivo o cautelar y correctivo, supondría la desaparición de esa nota. El otorgamiento de responsabilidad jurídica podría ser susceptible de un uso y aplicación indebido. No es válido compararla con la responsabilidad limitada societaria, ya que al final el responsable es una persona física. Habrá que atender también a cómo se contempla en la legislación de cada Estado la responsabilidad por producto defectuoso (entendiéndose como producto cualquier bien mueble, aun cuando esté incorporado a otro bien mueble o inmueble), teniendo en cuenta, por ejemplo, la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos, modificada por Directiva 1999/34/CE del Parlamento Europeo y del Consejo, de 10 de mayo de 1999, y en el caso de España, se atenderá a lo indicado en el Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el Texto Refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias, modificado por Ley 3/2014, de 27 de marzo, y Ley 4/2018, de 11 de junio.

Dentro de la categoría de los robots, la doctrina se refiere como agentes morales (implícitos, explícitos y plenos) a los que son capaces de tomar decisiones de transcendencia moral y jurídica, dado su grado de autonomía y complejidad, que los lleva a adoptar un comportamiento no del todo previsible. Se caracterizan con las notas de interactividad, autonomía y adaptabilidad. Dentro de ellos, nos podemos encontrar con los denominados automóviles autónomos, los robots quirúrgicos y asistenciales, los drones, o cualquier tipo de inteligencia artificial capaz de crear una obra original, que plantearía cómo resolver los derechos de autor ) , cuestión esta última que no se contempla en el Real Decreto Legislativo 1/1996, de 12 de abril, por el que se aprueba el Texto Refundido de la Ley de Propiedad Intelectual, regularizando, aclarando y armonizando las disposiciones legales vigentes sobre la materia, modificado por Real Decreto-ley 12/2007, de 3 de julio, y Real Decreto-ley 2/2018, de 13 de abril.

 

Respecto a los drones, el Real Decreto 1036/2017, de 15 de diciembre, por el que se regula la utilización civil de las aeronaves pilotadas por control remoto, y se modifican el Real Decreto 552/2014, de 27 de junio, por el que se desarrolla el Reglamento del aire y disposiciones operativas comunes para los servicios y procedimientos de navegación aérea y el Real Decreto 57/2002, de 18 de enero, por el que se aprueba el Reglamento de Circulación Aérea, en su art. 26, indica que se dispondrá de una póliza de seguro u otra garantía financiera para cubrir la responsabilidad civil a terceros por daños, estamos viendo en la guerra de Ucrania ser instrumento bélico para los ataques de Estado[13].

 

Junto a ello hay que tener en cuenta lo dispuesto en la Resolución de 2 de marzo de 2018, de la Dirección de la Agencia Estatal de Seguridad Aérea, por la que se adoptan los medios aceptables de cumplimiento y material guía, aprobados para las operaciones con aeronaves pilotadas por control remoto, en virtud de la Disposición Final Cuarta del Real Decreto 1036/2017 de 15 de diciembre.

 

En el reciente Reglamento (UE) 2018/1139 del Parlamento Europeo y del Consejo de 4 de julio de 2018 sobre normas comunes en el ámbito de la aviación civil y por el que se crea una Agencia de la Unión Europea para la Seguridad Aérea y por el que se modifican los Reglamentos (CE) n.o. 2111/2005 (CE) n.o. 1008/2008 (UE)n.o. 996/2010 (CE)n.o. 376/2014 y las Directivas 2014/30/UE y 2014/53/UE del Parlamento Europeo y del Consejo y se derogan los Reglamentos (CE) n.o. 552/2004 y (CE) n.o. 216/2008 del Parlamento Europeo y del Consejo y el Reglamento (CEE) n.o. 3922/91 del Consejo, en su Anexo VI referente a los requisitos esenciales de los organismos cualificados se indica que éste deberá contratar un seguro de responsabilidad civil, salvo que un Estado miembro asuma dicha responsabilidad según su Derecho interno.

 

Se menciona también la responsabilidad extracontractual que cuyos daños serán reparados por la Agencia o su personal, según la aplicación de los principios generales comunes al Derecho de los Estados miembros.

Con la legislación actual, la imputación de responsabilidad a la máquina o robot no es posible, ya que siempre es una persona quien asume la responsabilidad, sea el fabricante, dueño o usuario. Siguiendo el sistema de responsabilidad objetiva, existencia del daño, y no en la culpa, como sucede en la responsabilidad subjetiva. En la legislación española se opta por la primera, por la aplicación de la legislación anteriormente indicada de consumidores y usuarios. No puede desaparecer la responsabilidad personal en esta materia tampoco. La causa del daño está relacionada con la responsabilidad y quién asume la misma. En el caso de las máquinas se debe relacionar la inteligencia artificial de la que está dotada y el aprendizaje del aparato, cuanto mayor sea su autonomía en la capacidad de realizar una tarea a través del aprendizaje, mayor será la responsabilidad de la máquina; y, al contrario, si se aumenta la dependencia humana, la responsabilidad disminuirá en la máquina. En verdad, nos encontraríamos ante la denominada probatio diabólica si se optara por el sistema de culpa, por lo que la responsabilidad objetiva, daño y responsabilidad con independencia de la intención, será el más idóneo para obtener el resarcimiento, realmente no quedará otra posibilidad. A ello irá unido la contemplación del riesgo y su cobertura en materia de seguros que deberá de suscribir el fabricante de la máquina para asumir su responsabilidad civil[14].

 

PRINCIPIOS GENERALES Y NUEVA CULPABILIDAD

 

Se plantea el problema más que de culpabilidad de la delimitación de esa responsabilidad. Porque cualquier ejecución de una decisión empresarial pasa por muchas cabezas pensantes, por muchos agentes. Si bien es cierto que la implementación de las medidas es una acción empresarial conjunta la puesta en funcionamiento también lo es. La cadena de responsabilidad es lo que hay que determinar, porque esa responsabilidad puede residir en el órgano de control de la supervisión, la vigilancia de que ese protocolo se aplique. En el caso de esta sentencia histórica la existencia de una organización criminal que operaba a través de tres sociedades mercantiles dedicadas a la exportación e importación de maquinaria, en la que se llegaron a ocultar más de 6000 kg de cocaína en su interior, que hubiera alcanzado un valor superior a los 250 millones de euros de haber ingresado en el mercado. Aplicada la doctrina anterior, el TS confirma la responsabilidad penal ex art. 31 bis declarada por la Audiencia nacional respecto de dichas empresas, utilizadas para traficar con droga. En el Estado una decisión también pasa por muchos filtros que realmente hacen necesaria una responsabilidad objetiva. “La persona física o jurídica, autoridad, servicio u otro organismo que, solo o junto con otros, determine los fines y medios del tratamiento” de datos (“responsable” para el RGPD, art. 4 ap. 7)11, actuará responsablemente si cumple con los principios y normas correspondientes. Si no lo hace, si actúa irresponsablemente, deberá asumir las consecuencias que corresponden a las usualmente conocidas responsabilidades civil, penal o administrativa. 2. El principio de responsabilidad implica, entonces, la asunción por parte del “responsable” y, en su caso, del encargado del tratamiento, de la normativa aplicable respecto a una serie de conductas que en ellos recaen como sujetos pasivos.

En ese sentido y por lo antes expuesto, incluye lo que el RGPD, art. 5.1 prevé como “principios relativos al tratamiento”: hacerlo de manera lícita, leal y transparente en relación con el interesado, recoger los datos personales con fines determinados, explícitos y legítimos y no tratarlos ulteriormente con fines incompatibles; que ellos sean “adecuados, pertinentes y limitados a lo necesario en relación con los fines (…) (‘minimización de datos)”; que sean “exactos” y, en su caso, actualizarlos; limitar temporalmente el plazo de su conservación; tratarlos de manera que se garantice una seguridad adecuada, aplicando “medidas técnicas u organizativas apropiadas” (‘integridad y confidencialidad’). Con este criterio, el principio de responsabilidad viene a constituir una especie de supra principio o “principio-paraguas”, que comprendería los de veracidad, finalidad, seguridad de los datos, reserva, confidencialidad, etc. Ello de alguna manera surgía de la Directiva 95/46/CE, en tanto luego de enunciar similares conductas en el art. 6.1, su apartado 2 decía: “Corresponderá a los responsables del tratamiento garantizar el cumplimiento de lo dispuesto en el apartado 1”. 3. En relación con el encargado, el RGPD, art. 28, establece el régimen aplicable. A lo previsto en el art. 17 de la Directiva 95/46/CE, nominado “Seguridad del tratamiento”, se agregan aspectos sobre la posible recurrencia a “otro encargado” (subencargado), con “autorización previa por escrito, específica o general” del responsable, y a los ítems que el contrato u otro acto jurídico que vincule a esos sujetos debe contener: objeto, duración, naturaleza y finalidad del tratamiento, tipo de datos personales, etc. y las diversas obligaciones, todas ellas dirigidas a la protección de las situaciones jurídicas en juego, en especial la de los titulares de los datos o interesados12. Importa, también, lo que prevé el art. 26 al establecer la situación que denomina “Corresponsables del tratamiento”: “1. Cuando dos o más responsables determinen conjuntamente los objetivos y los medios del tratamiento serán considerados corresponsables del tratamiento. Los corresponsables determinarán de modo transparente y de mutuo acuerdo sus responsabilidades respectivas en el cumplimiento de las obligaciones impuestas por el presente Reglamento, en particular en cuanto al ejercicio de los derechos del interesado y a sus respectivas obligaciones de suministro de información (…), salvo, y en la medida en que, sus responsabilidades respectivas se rijan por el Derecho de la Unión o de los Estados miembros que se les aplique a ellos. Dicho acuerdo podrá designar un punto de contacto para los interesados. 2. El acuerdo indicado en el apartado 1 reflejará debidamente las funciones y relaciones respectivas de los corresponsables en relación con los interesados. Se pondrán a disposición del interesado los aspectos esenciales del acuerdo. 3. Independientemente de los términos del acuerdo a que se refiere el apartado 1, los interesados podrán ejercer los derechos que les reconoce el presente Reglamento frente a, y en contra de, cada uno de los responsables”. Este último numeral protege al titular de los derechos que integran el complejo de facultades de la protección de datos, más allá de acuerdos en que ellos no sean parte, aunque puedan acceder a su contenido. La responsabilidad aparece en calidad de “proactiva” con una configuración que lleva a que se hable del principio de accountability en tanto y en cuanto destaca el rendir cuentas (“responder, origen latino de la palabra responsabilidad) aplicada a la protección de datos personales, lo cual comprende diversos aspectos y el enfoque de que los responsables y, en su caso, los encargados del tratamiento adopten medidas de cumplimiento efectivo de la normativa[15]. Postula una posición preventiva y diligente y que ella pueda acreditarse en vez de un modelo reactivo, con una modalidad diversa en la operación de los datos personales. Esta nueva configuración tiene antecedente en las Directrices de la Organización para la Cooperación y el Desarrollo Económico (OCDE) de 23-IX-1980 ajustadas el 12-IX-2013 y en el Dictamen N.º 3/2010 del Grupo de Trabajo del art. 29 de la Directiva Europea 95/46/CE, de 13-VII-2010. Este expresa que los principios y obligaciones de protección de datos “no se reflejan suficientemente en medidas internas y prácticas concretas. Si la protección de datos no forma parte de los valores compartidos y las prácticas de una organización y no se asignan expresamente responsabilidades por la misma, se corre un gran peligro de que no se respeten y de que se sigan produciéndose desajustes en la protección de datos”. Al efecto propone introducir el principio de responsabilidad “que reclamaría de los responsables del tratamiento de datos la implementación de medidas apropiadas y efectivas que garantizaran” el debido cumplimiento y que lo “demostraran cuando se lo solicitaran las autoridades de control. Ello contribuiría a que la protección de datos progresara ‘de la teoría a la práctica’ y ayudaría a las autoridades de protección de datos en sus funciones de supervisión y ejecución”. Agrega que se trata de “mostrar cómo se ejerce la responsabilidad y hacer esto verificable”13. En el RGPD, el “Considerando” 74 explicita tal objetivo: “Debe quedar establecida la responsabilidad del responsable del tratamiento por cualquier tratamiento de datos personales realizado por él mismo o por su cuenta. En particular, el responsable debe estar obligado a aplicar medidas oportunas y eficaces y ha de poder demostrar la conformidad de las actividades de tratamiento con el presente Reglamento, incluida la eficacia de las medidas. Dichas medidas deben tener en cuenta la naturaleza, el ámbito, el contexto y los fines del tratamiento, así como el riesgo para los derechos y libertades de las personas”14/ 15.

 

EL INCUMPLIMIENTO Y SU RESPONSABILIDAD

En esta situación procede la aplicación de sanciones, o sea las consecuencias previstas por el ordenamiento jurídico para el caso de incumplimiento. La Directiva 95/46/CE tenía sobre este tema una previsión bajo la denominación “Responsabilidad”, art. 23, que decía “1. Los Estados miembros dispondrán que toda persona que sufra un perjuicio como consecuencia de un tratamiento ilícito o de una acción incompatible con las disposiciones nacionales adoptadas en aplicación de la presente Directiva, tenga derecho a obtener del responsable del tratamiento la reparación del perjuicio sufrido. 2. El responsable del tratamiento podrá ser eximido parcial o totalmente de dicha responsabilidad si demuestra que no se le puede imputar el hecho que ha provocado el daño”. A su vez, el art. 24, denominado “Sanciones”, decía: “Los Estados miembros adoptarán las medidas adecuadas para garantizar la plena aplicación de las disposiciones de la presente Directiva y determinarán, en particular, las sanciones que deben aplicarse en caso de incumplimiento de las disposiciones adoptadas en ejecución de la presente Directiva”. Esas disposiciones integraban el Capítulo III, que tenía tres artículos. 2. El RGPD tiene similares previsiones en su Capítulo VIII, pero comprende varias disposiciones, los arts. 77 a 84, cada uno de ellos con importante desarrollo, lo que condice con la aplicación directa del RGPD a los Estados y la búsqueda de uniformidad en la materia. Prevé el “derecho a la tutela judicial efectiva contra un responsable o encargado del tratamiento”, arts. 78 y 79, “sin perjuicio de los recursos administrativos o extrajudiciales disponibles”, incluido el derecho a reclamar ante una autoridad de control[16]. La referida tutela judicial implica varios aspectos: asegurar el acceso a la Justicia; un proceso con las garantías debidas, entre ellas para que en ese proceso las partes argumenten, aporten prueba, puedan controlar el diligenciamiento de esa u otras pruebas, que toda ella se examine y valor e y, además, la certeza en lo relativo a la ejecución de la sentencia que se dicte. Relacionado con el tema, el art. 79.2 dispone que “Las acciones contra un responsable o encargado del tratamiento deberán ejercitarse ante los tribunales del Estado miembro en el que el responsable o encargado tenga un establecimiento. Alternativamente, tales acciones podrán ejercitarse ante los tribunales del Estado miembro en que el interesado tenga su residencia habitual, a menos que el responsable o el encargado sea una autoridad de un Estado miembro que actúe en ejercicio de sus poderes públicos”. Esta cuestión y los procedimientos de aplicación exceden el objeto de estas líneas. 3. El tema de las garantías emerge también del art. 83.8 para otro ámbito del ejercicio de la respectiva potestad, el administrativo: “El ejercicio por una autoridad de control de sus poderes en virtud del presente artículo estará sujeto a garantías procesales adecuadas de conformidad con el Derecho de la Unión y de los Estados miembros, entre ellas la tutela judicial efectiva y el respeto de las garantías procesales” En ese sentido el “Considerando” 129 expresa: “(…) Los poderes de las autoridades de control deben ejercerse de conformidad con garantías procesales adecuadas establecidas en el Derecho de la Unión y los Estados miembros, de forma imparcial, equitativa y en un plazo razonable. En particular, toda medida debe ser adecuada, necesaria y proporcionada con vistas a garantizar el cumplimiento del presente Reglamento, teniendo en cuenta las circunstancias de cada caso concreto, respetar el derecho de todas las personas a ser oídas antes de Felipe Eduardo Rotondo que se adopte cualquier medida que las afecte negativamente y evitar costes superfluos y molestias excesivas para las personas afectadas. Los poderes de investigación en lo que se refiere al acceso a instalaciones deben ejercerse de conformidad con los requisitos específicos del Derecho procesal de los Estados miembros, como el de la autorización judicial previa. Toda medida jurídicamente vinculante de la autoridad de control debe constar por escrito, ser clara e inequívoca, indicar la autoridad de control que dictó la medida y la fecha en que se dictó, llevar la firma del director o de un miembro de la autoridad de control autorizado por este, especificar los motivos de la medida y mencionar el derecho a la tutela judicial efectiva. Esto no debe obstar a que se impongan requisitos adicionales con arreglo al Derecho procesal de los Estados miembros. La adopción de una decisión jurídicamente vinculante implica que puede ser objeto de control judicial en el Estado miembro de la autoridad de control que adoptó la decisión”. Se indican allí, con precisión, los deberes de los órganos administrativos de control, los principios esenciales que rigen su actuación y las garantías con que deben contar las personas26. 4. El art. 82, con el nomen iuris “Derecho a indemnización y responsabilidad”, trata del “derecho a recibir del responsable o el encargado del tratamiento” la indemnización por daños y perjuicios sufridos, sean materiales o inmateriales, como consecuencia de una infracción del Reglamento. El perfil de esta responsabilidad civil surge de los seis apartados de la disposición; en ella se destaca la solidaridad que emerge del apartado 4 y su motivación, ya que “Cuando más de un responsable o encargado del tratamiento, o un responsable y un encargado hayan participado en la misma operación de tratamiento y sean, con arreglo a los apartados 2 y 3 responsables de cualquier daño o perjuicio causado por dicho tratamiento, cada responsable o encargado será considerado responsable de todos los daños y perjuicios, a fin de garantizar la indemnización efectiva del interesado”27. Obviamente sin perjuicio del respectivo derecho de repetición contra los demás responsables o encargados por la parte correspondiente. 5. El art. 83 establece el régimen de aplicación de multas administrativas: precisa que ellas deben poseer las condiciones propias de estas medidas, en particular ser “en cada caso individual efectivas, proporcionadas y disuasorias”. Se trata de expresiones del principio de razonabilidad propio de la juridicidad en el Derecho administrativo correctivo, enfocadas en un aspecto sustancial. El apartado 2 de este art. 83 tiene en cuenta las circunstancias que determinan la cuantía de la sanción, específicamente el elemento motivo de la sanción (“naturaleza, gravedad y duración de la infracción”, según la operación de tratamiento, el número de afectados y los daños y perjuicios; el elemento culpabilidad (“intencionalidad o negligencia”), los antecedentes del infractor, las medidas que el responsable o encargado hayan adoptado para paliar los daños, el grado de cooperación con el órgano de control, la adhesión a códigos de conducta o mecanismos de certificación, etc. El apartado 3 refiere al incumplimiento “de forma intencionada o negligente” (dolo o culpa), en relación con las operaciones de tratamiento u operaciones vinculadas, que impliquen infracción de “diversas disposiciones” del Reglamento, caso en el cual “la cuantía total de la multa administrativa no será superior a la cuantía prevista para las infracciones más graves”. 6. En cuanto al régimen sancionatorio, como se dijo, procede considerar las características de la infracción. En términos de la Ley Orgánica española 3/018 de 5-XII de Protección de Datos Personales y garantía de los Derechos digitales (Preámbulo-Parte V al referir a su Título IX), el RGPD “establece un sistema de sanciones o actuaciones correctivas que permite un amplio margen de apreciación”. En ese marco, dicha ley “procede a describir las conductas típicas, estableciendo la distinción entre infracciones muy graves, graves y leves, tomando en consideración la diferenciación que el RGPD establece al fijar la cuantía de las sanciones. La categorización de las infracciones se introduce a los solos efectos de determinar los plazos de prescripción, teniendo la descripción de las conductas típicas como único objeto la enumeración de manera ejemplificativa de algunos de los actos sancionables que deben entenderse incluidos dentro de los tipos generales establecidos en la norma europea”. En ese sentido, entonces, la ley distingue las infracciones muy graves, graves y leves y prevé una prescripción, respectivamente, de tres, dos y un año. El instituto de la prescripción responde al valor seguridad jurídica propio del Estado de Derecho, cuando el factor tiempo no puede resultar indiferente. Asimismo, la Ley Orgánica citada, art. 75, prevé la interrupción de esa prescripción por el inicio, con conocimiento del interesado, del procedimiento sancionador, reiniciándose el plazo de prescripción si el expediente se paraliza durante más de seis meses por causas no imputables al presunto infractor. Por su parte, su art. 78 regula la prescripción de las sanciones de multa según su monto; el plazo de prescripción “comenzará a contarse desde el día siguiente a aquel en que sea ejecutable la resolución por la que se impone la sanción o haya transcurrido el plazo para recurrirla”. 7. De acuerdo con el RGPD las multas tienen un tope máximo de 10 millones de euros o, tratándose de una empresa, “de una cuantía equivalente al 2% como máximo del volumen de negocio total anual global del ejercicio financiero anterior, optándose por la de mayor cuantía” con relación a ciertas infracciones. En otros casos, el tope máximo es de 20 millones de euros o del 4%28. El art. 83.2 prevé que ellas pueden ser adicionales o sustitutivas de algunas de las medidas que adopten las autoridades de control y que establece el art. 58.2 (advertencia, apercibimiento, mandato u orden de seguir ciertas conductas (atender solicitud de ejercicio de derechos del titular de los datos, comunicar violaciones de seguridad, suspender flujos transfronterizos) y limitar o prohibir el tratamiento. De manera que la norma habilita, en algunos casos, la acumulación de más de una sanción; en cambio en otros, una de las medidas tiene un contenido que no es de esencia punitiva o aplicación de un mal jurídico como consecuencia de la infracción precedente.

Desde el punto de vista jurídico no cabe duda de la responsabilidad civil de las personas jurídicas dado que tienen capacidad de acción, y por tanto capacidad de obrar en el ámbito civil y mercantil. Pues bien, el cambio histórico es que se ha producido un Derecho Penal orientado a la persona física, pero autores como Hirsch, Tiedemann, Brender…ya plantearon hace mucho que se necesitaba un nuevo Derecho penal para las personas jurídicas[17]. El Derecho penal se refiere a la acción física individual o colectiva que asigna responsabilidades, por ello, muchos autores dirían, que sería más conveniente un derecho penal de la persona jurídica gradual. El problema es grave dado que el daño lo puede sufrir el gran directivo y el empleado que nada tuvo que ver en la decisión tomada. La culpa in vigilando es la que establece su propio código de disciplina y su exoneración está más o menos clara desde el punto de vista teórico. La culpa in eligendo de los ejecutores de las acciones empresariales —los empleados y directivos— es indudable que tiene que ser concretada de nuevo por nuestros tribunales. No puede ser, no es justo, que tenga la misma consecuencia jurídica decidir acciones delictivas que ejecutar las mismas con una apariencia de legalidad, como ocurre en los casos de la competencia desleal a otras empresas. Tendremos que preguntarnos dónde queda el principio de presunción de inocencia, cuando no queda delimitada la responsabilidad. Y la negligencia como acción que genere un daño, es decir, la acción tomada sin la diligencia debida que, respetando las medidas de implementación, sin embargo, produzca daño objetivo por la sociedad o empresa. Nuestro Derecho reconoce el principio de presunción de inocencia y es la parte acusatoria quien tendrá que demostrar el daño y sobre todo la causalidad de la actuación de la empresa en ese daño. No queda resuelto este tema, y la medida de que la empresa ha implementado toda una serie de medidas anteriormente indicadas nada prueba de que realmente no se quisieran incumplir, pero también pueden fallar la vigilancia de esas medidas. Las tradicionales teorías del Derecho civil, la de la responsabilidad objetiva, la del riesgo… no parecen extrapolables a la responsabilidad penal. Una empresa o sociedad puede haber implementado un sistema de seguridad y, sin embargo, saber su punto débil para poder incumplirlo, y hablaríamos de dolo. La diligencia en la implementación de las medidas de vigilancia es un tema enormemente delicado y entendemos polémico. La comisión por omisión del deber de control es un tema dificultoso por cuanto un agente o varios pueden generar un daño que se expanda a toda la empresa. Los problemas de imputación vendrán mucho más fácilmente resueltos con una clara, diáfana y poderosa delimitación de responsabilidades de los órganos de control y vigilancia.

 

La primera de las leyes de la robótica, comúnmente aceptadas y acuñadas por Isaac Asimov, establece que «un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño». Esto significa, que el principio básico de un futuro derecho de la responsabilidad de los robots deberá ser proteger al ser humano, frente a cualquier daño que pueda causarle un robot.

 

Y como es principio general, también del derecho, el «alterum non laedere», de cuyo incumplimiento surge la correspondiente responsabilidad civil, que generalmente se traduce en la indemnización de los daños y perjuicios causados ya de desde la lex Aquilina, está claro que, también en el ámbito de la robótica y de la inteligencia artificial que pueda integrarla, surgirá dicha responsabilidad por los daños y perjuicios que causen los robots y/o sus mecanismos directrices inteligentes. En el ámbito de la responsabilidad contractual el criterio de la responsabilidad objetiva o de la creación del riesgo es el que parece imponerse. Habrá que ver qué se entiende por fuerza mayor o causa excluyente de la responsabilidad (los llamados y conocidos problemas técnicos). En el campo extracontractual habría que decantarse por el riesgo creado como teoría de la responsabilidad[18]. Aunque también las partes son las que pueden pactar fallos o sistemas y su consecuencia en un régimen específico de responsabilidad, deberán los contratos establecer las causas técnicas más frecuentes para que ello tenga lugar. La cuestión que se plantea es la de determinar quién será el sujeto pagador de las pertinentes indemnizaciones por daños, toda vez que los robots y demás mecanismos de inteligencia automatizada, no son personas equiparables a los seres humanos y, por tanto, no pueden ser sujetos ni objeto de derechos y obligaciones personales.

Descartada la posibilidad de otorgar personalidad jurídica propia a estas sofisticadas máquinas, tan superiores a las personas humanas en muchos ámbitos, pero carentes —por el momento- de conciencia de su propio ser y de libre albedrío más allá de sus correspondientes programaciones y de su propia capacidad de aprendizaje, se han barajado al respecto varias alternativas, destacando las siguientes:

 

a) Trasladar la responsabilidad al fabricante del producto, asignándole la responsabilidad en caso de defectuoso funcionamiento del sistema robótico de inteligencia artificial, parece ser un criterio controlable. Teoría no aplicable por ejemplo al uso de los Drones civiles en los que el propietario responderá por el uso realizado y los daños producidos (como establece el art. 1908.1 del CC.)

b) Asignársela al usuario del robot o a aquel a quien pertenezca, como guardián de este. La primera opción, tiene la ventaja de que ya está diseñada en las leyes de responsabilidad por productos defectuosos, si bien no llega para cubrir todos los supuestos planteables, dado que el daño puede causarse por la máquina aun no siendo esta defectuosa, por un lado, y, por otro, los fabricantes del complejo integrado en el robot o sus modificaciones pueden ser muchos y difícil deslindar su responsabilidad, a costa del dañado. Debemos preguntarnos qué ocurre en el tema de la responsabilidad civil de los vehículos autónomos sin intervención del agente humano en cuanto a su conducción o funcionamiento: quizás deberíamos acudir a la responsabilidad del fabricante siempre que se hayan cumplido los estándares de revisión y otros de la maquinaria[19].

La segunda opción, tiene la ventaja de que puede estar prevista en la legislación general como cláusula residual, pero su aplicación puede resultar injusta, toda vez que el usuario o poseedor del robot no es culpable de los defectos que, en origen, esté pueda presentar después de su puesta en funcionamiento automatizada y, mantener lo contrario, podría suponer la culpabilización de un inocente.

 

Quizás, la respuesta pase por simultanear ambos sistemas de imputación de responsabilidad, pero combinándolos con un seguro obligatorio que haga factible la integra puesta en funcionamiento automatizada y, mantener lo contrario, podría suponer la culpabilización de un inocente. Se ha planteado en el terreno jurídico en las herramientas de búsqueda y solución de litigios de forma automatizada y baremada, acerca de la responsabilidad de esos buscadores, pero en la actuación de la Abogacía esto sería un tema todavía de ciencia ficción, la e- persona y sus derechos[20].

Articular disposiciones específicas, delimitando la responsabilidad por productos defectuosos de los distintos fabricantes que integren el mecanismo robótico, pero manteniendo la regla de solidaridad de todos ellos frente al dañado, incluyendo como tal al propio usuario en su caso; con la responsabilidad directa del productor y subsidiariamente del proveedor. Fijar la responsabilidad interna entre los distintos fabricantes como subjetiva y, frente al usuario, poseedor y dañado, como objetiva.

 

B. Ordenar el aseguramiento obligatorio de la responsabilidad por el productor, con importante cobertura y fondo de garantía en su defecto, de todas las responsabilidades derivadas del funcionamiento del robot. Establecer un derecho de repetición en caso de culpa grave de los fabricantes, para mantener un elevado estándar de calidad y contener el precio del seguro.

Y al propio tiempo, introducir en la legislación general de responsabilidad civil la llamada por «hechos de las cosas» al modo que, desde Josserand, aplica el Code francés que, precisamente, va a mantenerla tras el proyecto de reforma del año 2005, de tal forma que el usuario o poseedor, en calidad de guardián o garante del robot, deviene siempre en responsable objetivo de los daños que la máquina cause, como también puede inferirse del texto del artículo 1183 de nuestro Código civil, que tendría que enmendarse al efecto.

Tratándose de daños causados por un robot o mecanismo inteligente, de cuya utilidad se aprovecha el usuario o poseedor, pero que pueden ser causados tanto por el funcionamiento anormal, como por el normal del robot, resulta necesaria esta cláusula general de salvaguarda de responsabilidad en el derecho común, precisamente para cubrir la segunda hipótesis, en la que no entraría en juego la responsabilidad por productos defectuosos. Lógicamente, aunque el criterio de imputación residual se mantenga en el guardián o garante (usuario o poseedor), también deberá combinarse aquí el régimen de responsabilidad con el seguro obligatorio que, estando ya establecido para el fabricante, parece debiera prolongarse obligatoriamente también para aquel, a lo largo de toda la vida del robot; pudiendo estar comprendida la prima en el precio de su adquisición o arrendamiento, o abonarse por el usuario independientemente, siempre con el respaldo de un fondo subsidiario de garantía[21].

Imaginemos el acto más personal tocante a la salud, la operación llevada a cabo por robots, por material médico autónomo, es verdad siempre dirigido por un ser humano o los supuestos de la tecnología Blockchain, entendiendo por esta esa ayuda tecnológica- incluso a distancia- compartiendo una operación quirúrgica varios médicos, dirigiéndola quien no está presente en el quirófano operante.

 Si bien en el tema de la responsabilidad médica parece que las delimitaciones de responsabilidad son más claras. Aunque la ejecución puede estar robotizada y errar, la responsabilidad es del facultativo que está al frente de la intervención en este sentido no variaría en nada la teoría de la responsabilidad patrimonial en el caso de la Sanidad pública.

Otro concepto problemático son los supuestos Cyborg, es decir, aquellos en que ciertas funcionalidades humanas son reconstruidas, sanadas o ayudadas por dispositivos tecnológicos especiales, supone un avance como el párkinson, la epilepsia, la traumatología, la oftalmología…tantas y tantas especiales donde esta herramienta y la nanotecnología pueden actuar y ayudar. La responsabilidad en este tema sanitario tiene que ser específica, y desde luego, no puede excluir al Estado en el funcionamiento normal o anormal de su sanidad[22].

Es cierto que es un producto que al estar en el mercado queda sometido a la legislación general de los consumidores y usuarios, quedando clara la responsabilidad del fabricante, pues el enfermo, es en este caso, un claro consumidor de su tecnología especializada, pero la del Estado es clara en la autorización y control de este tipo de dispositivos… se pone en tela de juicio la teoría clásica de la responsabilidad en la que se basó siempre nuestro 1902 del Código civil. Y es que, por acción en el producto, por omisión de determinados requisitos. Se ha causado un mal a otro, y ha intervenido culpa o negligencia, algo que se ha planteado en innumerables ocasiones con el tema de las vacunas COVID y sus efectos secundarios.

Todo lo anterior puede tener cierta utilidad al momento actual. Pero, probablemente, los conceptos manejados se vean superados por la realidad de los vertiginosos avances tecnológicos en el campo de la inteligencia artificial, si se llegan a crear seres artificiales que adquieran conocimiento de su propio ser y, quizás entonces, con sus extraordinarias capacidades, dispongan y legislen ellos para nosotros. Entonces y, aunque no sea solución mágica, nace una nueva responsabilidad que transformará la teoría tradicional del daño y la responsabilidad con total seguridad.

 



[5] La transferencia de datos personales a terceros países no debe aun así menoscabar el nivel de protección reconocido en la UE, STJUE, Gran Sala, Sentencia de 16 de julio de 2020, estudio de esta en Actualidad Administrativa, número 9, 2020.


Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)