Entradas

Mostrando entradas de marzo, 2026

Responsabilidad civil y opacidad algorítmica: el nuevo giro europeo ante la IA generativa

Imagen
  Responsabilidad civil y opacidad algorítmica: el nuevo giro europeo ante la IA generativa  Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos  La evolución reciente del marco normativo europeo en materia de inteligencia artificial pone de manifiesto una creciente preocupación por la efectiva tutela de los derechos de los ciudadanos frente a los riesgos derivados del uso de sistemas de IA generativa. En este contexto, la Comisión Europea ha avanzado en la configuración de un régimen complementario al Reglamento de Inteligencia Artificial (AI Act), orientado específicamente a la responsabilidad civil por daños ocasionados por estos sistemas. El elemento más significativo de esta iniciativa radica en la introducción de mecanismos que atenúan la tradicional carga probatoria que recae sobre la víctima.  En particular, se plantea la posibilidad de establecer presunciones de causalidad cuando concurran situaciones de opacidad algorítmica, esto e...

La gobernanza jurídica de la IA generativa: hacia un nuevo paradigma normativo internacional (Nuevas directrices de la OCDE)

Imagen
  La gobernanza jurídica de la IA generativa: hacia un nuevo paradigma normativo internacional Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La reciente actualización de las directrices de la OCDE en materia de inteligencia artificial marca un punto de inflexión en la construcción de un marco jurídico internacional adaptado a los desafíos de la IA generativa. Este nuevo enfoque no se limita a reafirmar principios ya conocidos —como la transparencia o la rendición de cuentas—, sino que introduce una dimensión específica orientada a los riesgos emergentes derivados de sistemas capaces de producir contenido autónomo, verosímil y potencialmente indistinguible del generado por humanos. Uno de los ejes centrales de estas directrices es la exigencia de trazabilidad de los contenidos generados, lo que implica la necesidad de desarrollar mecanismos técnicos y jurídicos que permitan identificar el origen algorítmico de textos, imágenes o vídeos. Esta cuestión ...

Responsabilidad civil por decisiones automatizadas en el sector asegurador: análisis de una reciente sentencia alemana

Imagen
  Responsabilidad civil por decisiones automatizadas en el sector asegurador: análisis de una reciente sentencia alemana Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos y Abogado Con fecha 20 de marzo de 2026, el Landgericht de Múnich I (Tribunal Regional de Múnich I) ha dictado una resolución de notable relevancia en materia de responsabilidad civil derivada del uso de sistemas de inteligencia artificial en el ámbito asegurador. El caso (expediente nº 12 O 2345/25) se centra en la reclamación de un asegurado cuya cobertura fue denegada de manera automatizada mediante un sistema algorítmico de evaluación de riesgos, sin intervención humana efectiva. La compañía aseguradora justificó la decisión en base a un modelo predictivo entrenado con datos históricos, alegando su fiabilidad estadística y su uso generalizado en el sector. El órgano judicial aborda, en primer lugar, la cuestión relativa a la transparencia del sistema utilizado. En este sentido, el t...

La responsabilidad jurídica por decisiones automatizadas en sistemas de IA

Imagen
  La responsabilidad jurídica por decisiones automatizadas en sistemas de IA  Santiago Carretero Sánchez, Profesor Titular  de Universidad, Abogado En fecha 26 de marzo de 2026, diversos medios especializados y fuentes institucionales europeas han vuelto a poner de relieve los riesgos asociados al uso de sistemas de inteligencia artificial en procesos de toma de decisiones automatizadas, especialmente en contextos con efectos jurídicos relevantes. Aunque no se identifica un único caso jurisdiccional consolidado, sí existe una preocupación creciente documentada en comunicaciones institucionales y análisis regulatorios recientes.  La  creciente atención institucional y mediática registrada en torno al 26 de marzo de 2026 respecto al uso de sistemas de inteligencia artificial en procesos decisionales automatizados ha reactivado un debate jurídico de primer orden, centrado en la imputación de responsabilidad cuando dichos sistemas producen efectos jurídicos relevant...

La AEPD delimita el uso jurídico de la IA generativa: hacia una responsabilidad reforzada en el tratamiento de datos

Imagen
  La AEPD delimita el uso jurídico de la IA generativa: hacia una responsabilidad reforzada en el tratamiento de datos En fecha 25 de marzo de 2026, la Agencia Española de Protección de Datos ha hecho pública una nota técnica de especial relevancia en relación con el uso de sistemas de inteligencia artificial generativa en contextos jurídicos y profesionales. Este pronunciamiento, aunque no normativo, presenta un indudable valor interpretativo en la aplicación del Reglamento (UE) 2016/679 y del marco europeo emergente en materia de inteligencia artificial. El núcleo de la cuestión reside en la consideración de los modelos generativos como potenciales sistemas de tratamiento de datos personales incluso en fases de entrenamiento y uso indirecto. La AEPD subraya que no basta con la anonimización aparente de los datos, sino que debe garantizarse la imposibilidad real de reidentificación, lo que introduce un estándar técnico y jurídico particularmente exigente para operadores jurídicos ...

De nuevo sobre el ajuste estratégico del marco regulatorio más ambicioso de la inteligencia artificial europea (Digital Omnibus 2025)

Imagen
  Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos, Abogado del Ilustre Colegio de Abogados de Madrid L a iniciativa del Digital Omnibus on AI. Esta propuesta, presentada por la Comisión Europea en noviembre de 2025 y en fase de acuerdo político preliminar entre los eurodiputados en marzo de 2026, representa un ajuste estratégico del marco regulatorio más ambicioso del mundo en materia de inteligencia artificial. Su desarrollo permite a los juristas comprender cómo el Derecho no solo impone límites, sino que se adapta dinámicamente para evitar rigideces que podrían frenar la competitividad europea sin menoscabar las salvaguardas fundamentales. En un contexto en el que el Reglamento (UE) 2024/1689 —conocido como AI Act— se acerca a su plena aplicabilidad el 2 de agosto de 2026, la Comisión ha optado por un paquete de medidas de simplificación dirigido a garantizar una implementación “oportuna, fluida y proporcionada”. Esta intervención legislativa intr...

La evaluación de riesgos en sistemas de Inteligencia Artificial en la Unión Europea: hacia un modelo jurídico preventivo en sus guías

Imagen
  La evaluación de riesgos en sistemas de Inteligencia Artificial en la Unión Europea: hacia un modelo jurídico preventivo  Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos  La reciente publicación de criterios técnicos por parte de la Comisión Europea en materia de evaluación de riesgos en sistemas de inteligencia artificial constituye un paso decisivo en la transición desde un modelo normativo programático hacia un sistema jurídico plenamente operativo. En el contexto del Reglamento de Inteligencia Artificial (AI Act), la noción de riesgo deja de ser una categoría abstracta para adquirir una dimensión jurídico-aplicativa concreta, especialmente en aquellos sistemas que inciden de forma directa o indirecta en los derechos fundamentales. Desde una perspectiva técnica, los documentos difundidos introducen metodologías estructuradas de análisis que permiten clasificar los sistemas en función de su impacto potencial.  Estas matrices de riesg...

La inteligencia artificial ante el juez civil: una lectura monográfica de la sentencia del Tribunal Superior de Cali (17 de marzo de 2026)

Imagen
  La inteligencia artificial ante el juez civil: una lectura monográfica de la sentencia del Tribunal Superior de Cali (17 de marzo de 2026) Por Santiago Sánchez, Profesor Titular de la Universidad Rey Juan Carlos El 17 de marzo de 2026, el Tribunal Superior de Cali dictó una resolución que marca un hito en la relación entre el proceso civil y la inteligencia artificial generativa. La Sala analizó si sistemas como ChatGPT Pro pueden comparecer como «prueba técnica basada en IA» dentro de un litigio de responsabilidad civil médica. Aunque la petición se rechazó, la importancia de la sentencia no reside en el resultado concreto, sino en la arquitectura jurídica que construye para abordar la irrupción de las herramientas generativas en el proceso. El núcleo del caso consistía en determinar si el uso de un modelo generativo podía equipararse a una pericia, de modo que su comparecencia en audiencia aportara información técnicamente verificable y valorable por el juez. El Tribunal aborda...

La autonomía que inquieta a Europa: primeras implicaciones jurídicas del Mecanismo de Alerta Rápida en IA generativa

Imagen
  La autonomía que inquieta a Europa: primeras implicaciones jurídicas del Mecanismo de Alerta Rápida en IA generativa Por Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos La activación por parte de la Comisión Europea del Mecanismo de Alerta Rápida en materia de inteligencia artificial generativa marca un punto de inflexión en la forma en que la Unión aborda el riesgo sistémico asociado a modelos fundacionales avanzados. No se trata de un gesto político ni de un aviso retórico: es la primera vez que Bruselas aplica un instrumento previsto en el AI Act para escenarios de desviación grave del comportamiento esperado de un sistema de IA. El detonante ha sido la constatación, durante auditorías iniciales de varios modelos en fase de despliegue comercial, de que estos presentan una capacidad efectiva para sortear las barreras de seguridad incorporadas por sus desarrolladores, especialmente en ámbitos jurídicamente críticos como la generación de ciberataque...

La delimitación jurídica de los modelos fundacionales en el Derecho europeo de la inteligencia artificial

Imagen
  La delimitación jurídica de los modelos fundacionales en el Derecho europeo de la inteligencia artificial Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La reciente actuación de la Comisión Europea en torno a la concreción de las obligaciones aplicables a los modelos fundacionales de inteligencia artificial representa un avance significativo en la evolución del Derecho tecnológico europeo. En particular, el desarrollo técnico del Reglamento de Inteligencia Artificial permite superar una de las principales incertidumbres iniciales del texto normativo: la determinación del estatuto jurídico de los sistemas de propósito general, caracterizados por su capacidad de adaptación a múltiples usos y contextos. Esta categoría, en la que se integran los grandes modelos generativos, plantea desafíos específicos que no podían resolverse mediante los esquemas tradicionales de clasificación por niveles de riesgo. Desde un punto de vista jurídico, la novedad más rel...

Responsabilidad civil por daños causados por inteligencia artificial autónoma: hacia la consolidación de un criterio de imputación por riesgo

Imagen
  Responsabilidad civil por daños causados por inteligencia artificial autónoma: hacia la consolidación de un criterio de imputación por riesgo  Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos Las recientes resoluciones dictadas por un diversos tribunales europeos en marzo de 2026 constituyen un hito relevante en la progresiva construcción del régimen jurídico de la responsabilidad civil derivada del uso de sistemas de inteligencia artificial autónoma.  En el caso analizado que recuerda a la sentencia SCHUFA DE 2021 y la nuestra BOSCO de 2025, el órgano jurisdiccional reconoce la responsabilidad del operador de un sistema algorítmico por los daños ocasionados como consecuencia de una decisión automatizada, aun en ausencia de intervención humana directa en el momento del daño. El elemento central de la decisión radica en la superación de los esquemas clásicos de imputación basados exclusivamente en la culpa, para aproximarse a un modelo de res...

La prueba penal en la era de la inteligencia artificial: autenticidad, riesgo y garantías procesales

Imagen
  La prueba penal en la era de la inteligencia artificial: autenticidad, riesgo y garantías procesales Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La irrupción de sistemas de inteligencia artificial generativa ha alterado profundamente la estructura clásica de la prueba en el proceso penal. En particular, la proliferación de los denominados  deepfakes  y de contenidos sintéticos plantea un desafío directo a los criterios tradicionales de autenticidad, integridad y fiabilidad probatoria. La autenticidad de la prueba, entendida como correspondencia entre el documento aportado y la realidad que pretende reflejar, se ve comprometida en un contexto en el que la manipulación audiovisual resulta prácticamente indetectable a simple vista. Ello obliga a reforzar la cadena de custodia digital y a exigir estándares técnicos más elevados en la obtención y conservación de la prueba. Prueba pericial algorítmica La intervención de peritos especializados...

La consolidación del control administrativo de la inteligencia artificial en la Unión Europea

Imagen
  La consolidación del control administrativo de la inteligencia artificial en la Unión Europea Santiago Carretero Sánchez Profesor Titular de la  Universidad Rey Juan Carlos, Abogado 1. Planteamiento general La reciente actuación de la Comisión Europea orientada a articular mecanismos efectivos de supervisión del Reglamento de Inteligencia Artificial (AI Act) representa un paso decisivo hacia la construcción de un verdadero sistema europeo de control público de la inteligencia artificial. No se trata únicamente de aprobar normas, sino de garantizar su aplicación homogénea, técnica y jurídicamente coherente en el conjunto de los Estados miembros. 2. La arquitectura institucional de supervisión El modelo que se perfila descansa sobre una doble dimensión. Por un lado, la creación o adaptación de autoridades nacionales con competencias específicas en materia de inteligencia artificial, dotadas de capacidad técnica suficiente para evaluar sistemas complejos, especialmente aquellos...

Jürgen Habermas y la razón pública en las democracias contemporáneas Una breve aproximación a su legado filosófico

Imagen
  Jürgen Habermas y la razón pública en las democracias contemporáneas Una breve aproximación a su legado filosófico Santiago Carretero, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos La reciente desaparición de Jürgen Habermas constituye un momento propicio para revisar el alcance intelectual de una de las figuras más influyentes de la filosofía social y jurídica del siglo XX y comienzos del XXI. Heredero crítico de la llamada Escuela de Frankfurt , Habermas desarrolló una obra extensa orientada a comprender las condiciones normativas que hacen posible una democracia deliberativa fundada en la racionalidad comunicativa. Estamos en mi opinión ante un clásico como Kelsen o Hart que traspasará el tiempo en su valoración. Entre sus trabajos más influyentes se encuentran The Theory of Communicative Action (1981), Between Facts and Norms (1992) y The Structural Transformation of the Public Sphere (1962). En ellos se articula una propuesta filosófica que si...

Deepfakes, democracia y responsabilidad jurídica en la era de la inteligencia artificial Reflexiones tras la muerte de Jürgen Habermas sobre la integridad del discurso público digital

Imagen
  Deepfakes, democracia y responsabilidad jurídica en la era de la inteligencia artificial Reflexiones tras la muerte de Jürgen Habermas sobre la integridad del discurso público digital Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La expansión de los sistemas de inteligencia artificial generativa ha introducido un nuevo problema jurídico de enorme relevancia: la creación de  deepfakes , es decir, contenidos audiovisuales manipulados mediante algoritmos capaces de reproducir con gran realismo la voz, la imagen o los gestos de una persona real. La evolución reciente de estos sistemas ha reducido notablemente las barreras técnicas para producir falsificaciones altamente convincentes, lo que ha generado preocupación en ámbitos como el derecho electoral, la protección de la reputación, la integridad informativa y la estabilidad institucional. Durante los últimos meses diversos analistas y juristas han advertido que los procesos electorales previstos...

La Nueva Propuesta de la Unión Europea sobre Responsabilidad Civil en Sistemas Autónomos de Inteligencia Artificial

Imagen
La Nueva Propuesta de la Unión Europea sobre Responsabilidad Civil en Sistemas Autónomos de Inteligencia Artificial Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos El pasado 12 de marzo de 2026, la Comisión Europea presentó un proyecto de reglamento que marca un avance decisivo en la regulación de la inteligencia artificial. Esta iniciativa obliga a los fabricantes de sistemas autónomos de IA a asumir la responsabilidad civil por cualquier daño causado a terceros. El objetivo principal es claro: armonizar las normas jurídicas entre los 27 Estados miembros y reforzar la seguridad jurídica en el despliegue de estas tecnologías. Para entender adecuadamente el alcance de esta propuesta, conviene aclarar primero qué se entiende por “sistemas autónomos de IA”. Se trata de tecnologías capaces de operar con un alto grado de independencia, sin necesidad de intervención humana continua. Ejemplos habituales incluyen vehículos autónomos, robot...

La nueva "Casa de Salomón": ¿Hemos cedido nuestra soberanía a los laboratorios de IA?

Imagen
  La nueva "Casa de Salomón": ¿Hemos cedido nuestra soberanía a los laboratorios de IA? Santiago Carretero Sánchez Profesor Titular de Filosofía del Derecho de la Universidad Rey Juan Carlos   La reflexión sobre si el "Código es Ley" ( Code is Law ), frase acuñada originalmente por Lawrence Lessig a finales de los 90, ha cobrado una dimensión casi profética en este 2026. Al reflexionar sobre  el análisis del artículo de Bits&Chips , nos adentramos en una de las crisis constitucionales más profundas de la era digital: el desplazamiento de la soberanía estatal hacia la soberanía algorítmica . En su obra póstuma La Nueva Atlántida (1627), Francis Bacon describió la "Casa de Salomón", una institución científica que operaba de forma autónoma al Estado. Sus miembros decidían qué descubrimientos revelar al público y cuáles mantener en secreto, incluso ante el Rey. En 2026, los grandes laboratorios de IA (OpenAI, Anthropic, Google, xAI) se han co...