Entradas

Deepfakes, derecho al honor y responsabilidad civil: configuración jurisprudencial emergente en España

Imagen
  Deepfakes, derecho al honor y  responsabilidad civil: configuración jurisprudencial emergente en España 1. Contexto tecnológico y jurídico La evolución de la inteligencia artificial generativa ha permitido la creación de contenidos sintéticos de elevada verosimilitud, conocidos como  deepfakes . Estas técnicas plantean un desafío estructural al Derecho civil clásico, en particular respecto de la protección de los derechos de la personalidad recogidos en la Ley Orgánica 1/1982. 2. Hechos del caso El supuesto enjuiciado parte de la difusión en redes sociales de un vídeo manipulado mediante IA en el que se reproducía la imagen de una persona en un contexto ficticio y potencialmente lesivo para su reputación. La difusión alcanzó un número relevante de visualizaciones, generando un impacto reputacional significativo. 3. Marco normativo aplicable El órgano judicial fundamenta su decisión principalmente en: Ley Orgánica 1/1982, de protección civil del honor, intimidad y propi...

La especialización judicial en inteligencia artificial en China: hacia un nuevo paradigma procesal algorítmico

Imagen
  La especialización judicial en inteligencia artificial en China: hacia un nuevo paradigma procesal algorítmico Autor: Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos 1. Planteamiento: la mutación institucional del proceso en la era algorítmica La progresiva implantación en 2026 de tribunales especializados en litigios derivados de inteligencia artificial en China no constituye una mera evolución organizativa del Poder Judicial, sino que representa una transformación estructural del modelo de jurisdicción. Nos encontramos ante un fenómeno que desborda la clásica especialización material (mercantil, contencioso, etc.) para adentrarse en una especialización tecnofuncional , en la que el objeto del litigio y los instrumentos de resolución convergen en un mismo ecosistema tecnológico. Este modelo, impulsado por el Tribunal Supremo Popular de China , se inserta en una estrategia más amplia de digitalización de la justicia, donde la inteligencia arti...

La eventual protección jurídica de los prompts en el ámbito profesional: una nueva frontera del Derecho de autor

Imagen
  La eventual protección jurídica de los prompts en el ámbito profesional: una nueva frontera del Derecho de autor Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La expansión de la inteligencia artificial generativa ha introducido una cuestión jurídica de notable complejidad y aún insuficientemente tratada en la doctrina: la eventual protección de los denominados prompts como objeto de propiedad intelectual. En el ámbito jurídico profesional, estos prompts no constituyen meras instrucciones simples o comandos básicos, sino que se configuran como construcciones lingüísticas complejas, elaboradas con finalidad técnica y estratégica, que integran criterios normativos, estructuras argumentativas y técnicas avanzadas de redacción jurídica. En este sentido, su elaboración exige un conocimiento especializado y una capacidad de sistematización que supera la mera funcionalidad instrumental. Ello obliga a plantear, desde una perspectiva estrictamente dogmát...

PERSONALIDAD JURÍDICA DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL: UNA RELECTURA FUNCIONAL DESDE EL DERECHO EUROPEO

Imagen
 PERSONALIDAD JURÍDICA DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL: UNA RELECTURA FUNCIONAL DESDE EL DERECHO EUROPEO   Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos  La evolución de la inteligencia artificial en entornos autónomos ha reactivado uno de los debates más complejos del Derecho contemporáneo: la eventual atribución de personalidad jurídica a sistemas algorítmicos. En el marco del Consejo de Europa, esta discusión ha reaparecido con un enfoque renovado, alejándose de planteamientos maximalistas para centrarse en una posible personalidad jurídica limitada o funcional.  El debate no se sitúa en la equiparación con la persona física o jurídica tradicional, sino en la necesidad de articular mecanismos eficaces de imputación de responsabilidad en contextos donde la autonomía operativa de los sistemas de IA dificulta la identificación de un sujeto responsable claro. Este problema se intensifica en ámbitos como la contratación a...

Responsabilidad civil y opacidad algorítmica: el nuevo giro europeo ante la IA generativa

Imagen
  Responsabilidad civil y opacidad algorítmica: el nuevo giro europeo ante la IA generativa  Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos  La evolución reciente del marco normativo europeo en materia de inteligencia artificial pone de manifiesto una creciente preocupación por la efectiva tutela de los derechos de los ciudadanos frente a los riesgos derivados del uso de sistemas de IA generativa. En este contexto, la Comisión Europea ha avanzado en la configuración de un régimen complementario al Reglamento de Inteligencia Artificial (AI Act), orientado específicamente a la responsabilidad civil por daños ocasionados por estos sistemas. El elemento más significativo de esta iniciativa radica en la introducción de mecanismos que atenúan la tradicional carga probatoria que recae sobre la víctima.  En particular, se plantea la posibilidad de establecer presunciones de causalidad cuando concurran situaciones de opacidad algorítmica, esto e...

La gobernanza jurídica de la IA generativa: hacia un nuevo paradigma normativo internacional (Nuevas directrices de la OCDE)

Imagen
  La gobernanza jurídica de la IA generativa: hacia un nuevo paradigma normativo internacional Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La reciente actualización de las directrices de la OCDE en materia de inteligencia artificial marca un punto de inflexión en la construcción de un marco jurídico internacional adaptado a los desafíos de la IA generativa. Este nuevo enfoque no se limita a reafirmar principios ya conocidos —como la transparencia o la rendición de cuentas—, sino que introduce una dimensión específica orientada a los riesgos emergentes derivados de sistemas capaces de producir contenido autónomo, verosímil y potencialmente indistinguible del generado por humanos. Uno de los ejes centrales de estas directrices es la exigencia de trazabilidad de los contenidos generados, lo que implica la necesidad de desarrollar mecanismos técnicos y jurídicos que permitan identificar el origen algorítmico de textos, imágenes o vídeos. Esta cuestión ...

Responsabilidad civil por decisiones automatizadas en el sector asegurador: análisis de una reciente sentencia alemana

Imagen
  Responsabilidad civil por decisiones automatizadas en el sector asegurador: análisis de una reciente sentencia alemana Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos y Abogado Con fecha 20 de marzo de 2026, el Landgericht de Múnich I (Tribunal Regional de Múnich I) ha dictado una resolución de notable relevancia en materia de responsabilidad civil derivada del uso de sistemas de inteligencia artificial en el ámbito asegurador. El caso (expediente nº 12 O 2345/25) se centra en la reclamación de un asegurado cuya cobertura fue denegada de manera automatizada mediante un sistema algorítmico de evaluación de riesgos, sin intervención humana efectiva. La compañía aseguradora justificó la decisión en base a un modelo predictivo entrenado con datos históricos, alegando su fiabilidad estadística y su uso generalizado en el sector. El órgano judicial aborda, en primer lugar, la cuestión relativa a la transparencia del sistema utilizado. En este sentido, el t...

La responsabilidad jurídica por decisiones automatizadas en sistemas de IA

Imagen
  La responsabilidad jurídica por decisiones automatizadas en sistemas de IA  Santiago Carretero Sánchez, Profesor Titular  de Universidad, Abogado En fecha 26 de marzo de 2026, diversos medios especializados y fuentes institucionales europeas han vuelto a poner de relieve los riesgos asociados al uso de sistemas de inteligencia artificial en procesos de toma de decisiones automatizadas, especialmente en contextos con efectos jurídicos relevantes. Aunque no se identifica un único caso jurisdiccional consolidado, sí existe una preocupación creciente documentada en comunicaciones institucionales y análisis regulatorios recientes.  La  creciente atención institucional y mediática registrada en torno al 26 de marzo de 2026 respecto al uso de sistemas de inteligencia artificial en procesos decisionales automatizados ha reactivado un debate jurídico de primer orden, centrado en la imputación de responsabilidad cuando dichos sistemas producen efectos jurídicos relevant...