Entradas

La AEPD delimita el uso jurídico de la IA generativa: hacia una responsabilidad reforzada en el tratamiento de datos

Imagen
  La AEPD delimita el uso jurídico de la IA generativa: hacia una responsabilidad reforzada en el tratamiento de datos En fecha 25 de marzo de 2026, la Agencia Española de Protección de Datos ha hecho pública una nota técnica de especial relevancia en relación con el uso de sistemas de inteligencia artificial generativa en contextos jurídicos y profesionales. Este pronunciamiento, aunque no normativo, presenta un indudable valor interpretativo en la aplicación del Reglamento (UE) 2016/679 y del marco europeo emergente en materia de inteligencia artificial. El núcleo de la cuestión reside en la consideración de los modelos generativos como potenciales sistemas de tratamiento de datos personales incluso en fases de entrenamiento y uso indirecto. La AEPD subraya que no basta con la anonimización aparente de los datos, sino que debe garantizarse la imposibilidad real de reidentificación, lo que introduce un estándar técnico y jurídico particularmente exigente para operadores jurídicos ...

De nuevo sobre el ajuste estratégico del marco regulatorio más ambicioso de la inteligencia artificial europea (Digital Omnibus 2025)

Imagen
  Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos, Abogado del Ilustre Colegio de Abogados de Madrid L a iniciativa del Digital Omnibus on AI. Esta propuesta, presentada por la Comisión Europea en noviembre de 2025 y en fase de acuerdo político preliminar entre los eurodiputados en marzo de 2026, representa un ajuste estratégico del marco regulatorio más ambicioso del mundo en materia de inteligencia artificial. Su desarrollo permite a los juristas comprender cómo el Derecho no solo impone límites, sino que se adapta dinámicamente para evitar rigideces que podrían frenar la competitividad europea sin menoscabar las salvaguardas fundamentales. En un contexto en el que el Reglamento (UE) 2024/1689 —conocido como AI Act— se acerca a su plena aplicabilidad el 2 de agosto de 2026, la Comisión ha optado por un paquete de medidas de simplificación dirigido a garantizar una implementación “oportuna, fluida y proporcionada”. Esta intervención legislativa intr...

La evaluación de riesgos en sistemas de Inteligencia Artificial en la Unión Europea: hacia un modelo jurídico preventivo en sus guías

Imagen
  La evaluación de riesgos en sistemas de Inteligencia Artificial en la Unión Europea: hacia un modelo jurídico preventivo  Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos  La reciente publicación de criterios técnicos por parte de la Comisión Europea en materia de evaluación de riesgos en sistemas de inteligencia artificial constituye un paso decisivo en la transición desde un modelo normativo programático hacia un sistema jurídico plenamente operativo. En el contexto del Reglamento de Inteligencia Artificial (AI Act), la noción de riesgo deja de ser una categoría abstracta para adquirir una dimensión jurídico-aplicativa concreta, especialmente en aquellos sistemas que inciden de forma directa o indirecta en los derechos fundamentales. Desde una perspectiva técnica, los documentos difundidos introducen metodologías estructuradas de análisis que permiten clasificar los sistemas en función de su impacto potencial.  Estas matrices de riesg...

La inteligencia artificial ante el juez civil: una lectura monográfica de la sentencia del Tribunal Superior de Cali (17 de marzo de 2026)

Imagen
  La inteligencia artificial ante el juez civil: una lectura monográfica de la sentencia del Tribunal Superior de Cali (17 de marzo de 2026) Por Santiago Sánchez, Profesor Titular de la Universidad Rey Juan Carlos El 17 de marzo de 2026, el Tribunal Superior de Cali dictó una resolución que marca un hito en la relación entre el proceso civil y la inteligencia artificial generativa. La Sala analizó si sistemas como ChatGPT Pro pueden comparecer como «prueba técnica basada en IA» dentro de un litigio de responsabilidad civil médica. Aunque la petición se rechazó, la importancia de la sentencia no reside en el resultado concreto, sino en la arquitectura jurídica que construye para abordar la irrupción de las herramientas generativas en el proceso. El núcleo del caso consistía en determinar si el uso de un modelo generativo podía equipararse a una pericia, de modo que su comparecencia en audiencia aportara información técnicamente verificable y valorable por el juez. El Tribunal aborda...

La autonomía que inquieta a Europa: primeras implicaciones jurídicas del Mecanismo de Alerta Rápida en IA generativa

Imagen
  La autonomía que inquieta a Europa: primeras implicaciones jurídicas del Mecanismo de Alerta Rápida en IA generativa Por Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos La activación por parte de la Comisión Europea del Mecanismo de Alerta Rápida en materia de inteligencia artificial generativa marca un punto de inflexión en la forma en que la Unión aborda el riesgo sistémico asociado a modelos fundacionales avanzados. No se trata de un gesto político ni de un aviso retórico: es la primera vez que Bruselas aplica un instrumento previsto en el AI Act para escenarios de desviación grave del comportamiento esperado de un sistema de IA. El detonante ha sido la constatación, durante auditorías iniciales de varios modelos en fase de despliegue comercial, de que estos presentan una capacidad efectiva para sortear las barreras de seguridad incorporadas por sus desarrolladores, especialmente en ámbitos jurídicamente críticos como la generación de ciberataque...

La delimitación jurídica de los modelos fundacionales en el Derecho europeo de la inteligencia artificial

Imagen
  La delimitación jurídica de los modelos fundacionales en el Derecho europeo de la inteligencia artificial Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La reciente actuación de la Comisión Europea en torno a la concreción de las obligaciones aplicables a los modelos fundacionales de inteligencia artificial representa un avance significativo en la evolución del Derecho tecnológico europeo. En particular, el desarrollo técnico del Reglamento de Inteligencia Artificial permite superar una de las principales incertidumbres iniciales del texto normativo: la determinación del estatuto jurídico de los sistemas de propósito general, caracterizados por su capacidad de adaptación a múltiples usos y contextos. Esta categoría, en la que se integran los grandes modelos generativos, plantea desafíos específicos que no podían resolverse mediante los esquemas tradicionales de clasificación por niveles de riesgo. Desde un punto de vista jurídico, la novedad más rel...

Responsabilidad civil por daños causados por inteligencia artificial autónoma: hacia la consolidación de un criterio de imputación por riesgo

Imagen
  Responsabilidad civil por daños causados por inteligencia artificial autónoma: hacia la consolidación de un criterio de imputación por riesgo  Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos Las recientes resoluciones dictadas por un diversos tribunales europeos en marzo de 2026 constituyen un hito relevante en la progresiva construcción del régimen jurídico de la responsabilidad civil derivada del uso de sistemas de inteligencia artificial autónoma.  En el caso analizado que recuerda a la sentencia SCHUFA DE 2021 y la nuestra BOSCO de 2025, el órgano jurisdiccional reconoce la responsabilidad del operador de un sistema algorítmico por los daños ocasionados como consecuencia de una decisión automatizada, aun en ausencia de intervención humana directa en el momento del daño. El elemento central de la decisión radica en la superación de los esquemas clásicos de imputación basados exclusivamente en la culpa, para aproximarse a un modelo de res...

La prueba penal en la era de la inteligencia artificial: autenticidad, riesgo y garantías procesales

Imagen
  La prueba penal en la era de la inteligencia artificial: autenticidad, riesgo y garantías procesales Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La irrupción de sistemas de inteligencia artificial generativa ha alterado profundamente la estructura clásica de la prueba en el proceso penal. En particular, la proliferación de los denominados  deepfakes  y de contenidos sintéticos plantea un desafío directo a los criterios tradicionales de autenticidad, integridad y fiabilidad probatoria. La autenticidad de la prueba, entendida como correspondencia entre el documento aportado y la realidad que pretende reflejar, se ve comprometida en un contexto en el que la manipulación audiovisual resulta prácticamente indetectable a simple vista. Ello obliga a reforzar la cadena de custodia digital y a exigir estándares técnicos más elevados en la obtención y conservación de la prueba. Prueba pericial algorítmica La intervención de peritos especializados...