Entradas

Mostrando entradas de diciembre, 2025

Entrada de cierre del año 2025 – Derecho e Inteligencia Artificial: Tránsito a lo desconocido y mayores caminos de incertidumbre

Imagen
Entra da de cierre del año 2025 – Derecho e Inteligencia Artificial: Tránsito a lo desconocido y mayores caminos de incertidumbre  Santiago Carretero Sánchez Profesor Titular de Filosofía del Derecho de la Universidad Rey Juan Carlos 29 de diciembre de 2025 El año 2025 se despide con una constatación jurídica incuestionable: la inteligencia artificial ha dejado de ser un fenómeno meramente tecnológico para consolidarse como objeto central de regulación, litigiosidad y reflexión doctrinal . Si hubiera que elegir un hilo conductor para cerrar este año, ese sería el paso efectivo del Derecho de la IA desde la norma al cumplimiento . Durante 2025 hemos asistido al inicio real de la aplicación escalonada del Reglamento europeo de Inteligencia Artificial (AI Act) . Ya no hablamos de borradores, propuestas o principios programáticos, sino de obligaciones concretas , especialmente en materia de sistemas de alto riesgo, gobernanza algorítmica, documentación técnica y responsabilida...

Cuando la IA aconseja Derecho: bases actuales de la responsabilidad civil

Imagen
  Cuando la IA aconseja Derecho: bases actuales de la responsabilidad civil Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos  El uso de sistemas de inteligencia artificial generativa para ofrecer orientaciones jurídicas preliminares se está extendiendo con rapidez en despachos, plataformas legales y entornos empresariales. No se trata ya de una cuestión futura, sino de una práctica presente que plantea un interrogante jurídico central: ¿quién responde cuando el consejo automatizado es incorrecto y causa un daño jurídicamente relevante? El asesoramiento automatizado como hecho generador de responsabilidad Desde la perspectiva del Derecho civil español, el punto de partida no es tecnológico, sino clásico. La posible responsabilidad nace de la concurrencia de un daño, una conducta antijurídica y un nexo causal. La intervención de un sistema de IA no elimina estos elementos, pero sí desplaza el análisis hacia la imputación del riesgo y el control efec...

Un auto judicial en España rechaza como prueba contenido generado por IA por falta de trazabilidad técnica

Imagen
  Un auto judicial en España rechaza como prueba contenido generado por IA por falta de trazabilidad técnica Santiago Carretero Sánchez— Profesor Titular de Universidad Universidad Rey Juan Carlos Con fecha  26 de diciembre de 2025 , y conocida públicamente el  28 de diciembre de 2025 , un  Juzgado de Primera Instancia español  ha dictado un auto de especial relevancia práctica en materia de  prueba digital y uso de inteligencia artificial en el proceso judicial , al acordar la  inadmisión probatoria de contenidos generados mediante IA  por ausencia de acreditación técnica suficiente. La resolución analiza la aportación al proceso de documentos textuales y audiovisuales elaborados mediante sistemas de  IA generativa , cuya parte proponente no acreditó de forma verificable el  modelo empleado, los parámetros de generación, la huella técnica del archivo ni la intervención humana efectiva . El órgano judicial subraya que, en tales condicion...

Deepfakes y Bruselas: la respuesta europea a la falsificación algorítmica de la realidad

Imagen
  Deepfakes y Bruselas: la respuesta europea a la falsificación algorítmica de la realidad Santiago Carretero Profesor Titular de Universidad Rey Juan Carlos, Abogado del Ilustre Colegio de Abogados de Madrid La proliferación de los  deepfakes  ha convertido una capacidad técnica de la inteligencia artificial en un problema jurídico, institucional y democrático de primer orden. La generación de imágenes, vídeos o audios artificiales con apariencia plenamente verosímil no solo compromete la confianza en la información digital, sino que afecta directamente a bienes jurídicos clásicos: la dignidad de la persona, el derecho a la propia imagen, la libertad de información y la integridad del debate público. Ante este escenario, la Unión Europea ha decidido intervenir de forma estructural. Bruselas no se limita a reaccionar frente a casos concretos de desinformación, sino que articula un marco normativo orientado a garantizar la transparencia del contenido generado o manipulado ...

2025: el año en que el Derecho dejó de observar a la Inteligencia Artificial

Imagen
  2025: el año en que el Derecho dejó de observar a la Inteligencia Artificial Recopilación jurídica anual sobre los principales hitos normativos, doctrinales y prácticos Santiago Carretero Profesor Titular de Filosofía del Derecho. Universidad Rey Juan Carlos 22 de diciembre de 2025 1. Un punto de inflexión jurídico El año 2025 ha marcado el tránsito definitivo de la inteligencia artificial desde el plano experimental al núcleo de las decisiones jurídicas relevantes. El Derecho ya no observa la IA: la regula, la limita y la integra como fenómeno estructural del ordenamiento. 2. La aplicación real del marco europeo La entrada en aplicación efectiva del Reglamento Europeo de Inteligencia Artificial (AI Act) ha desplazado el debate hacia su ejecución práctica, revelando tensiones entre innovación, seguridad jurídica y tutela de derechos fundamentales. La interacción entre el AI Act y el RGPD ha sido uno de los ejes jurídicos centrales de 2025. 3. IA generativa, imagen y dignidad Los ...

La consolidación jurisprudencial del derecho a la explicación en las decisiones automatizadas

Imagen
  La consolidación jurisprudencial del derecho a la explicación en las decisiones automatizadas A modo de introducción es de hacer notar que:   La jurisprudencia reciente del Tribunal de Justicia de la Unión Europea ha dado un paso decisivo en la configuración jurídica de las decisiones basadas en inteligencia artificial. En particular, la interpretación del artículo 22 del Reglamento General de Protección de Datos refuerza el carácter exigible del denominado derecho a la explicación, situándolo como una garantía sustantiva frente a decisiones automatizadas con efectos jurídicos relevantes. Fundamento normativo y alcance jurídico El artículo 22 del RGPD prohíbe, como regla general, que una persona sea objeto de una decisión basada exclusivamente en el tratamiento automatizado de datos personales cuando dicha decisión produzca efectos jurídicos o le afecte significativamente. Este precepto se conecta con los principios de transparencia, licitud y responsabilidad proactiva,...

Derechos de autor y entrenamiento de la IA generativa: el caso Adobe como punto de inflexión jurídico

Imagen
  Derechos de autor y entrenamiento de la IA generativa: el caso Adobe como punto de inflexión jurídico Autor:  Santiago Carretero Cargo:  Profesor Titular de Filosofía del Derecho El 18 de diciembre de 2025 ha vuelto a situar en el centro del debate jurídico uno de los problemas estructurales más relevantes del Derecho de la inteligencia artificial: la licitud del uso de obras protegidas por derechos de autor para el entrenamiento de sistemas de IA generativa. Una demanda colectiva presentada en Estados Unidos contra la empresa Adobe Inc. constituye un ejemplo paradigmático de esta tensión creciente entre innovación tecnológica y protección de la propiedad intelectual. El contenido esencial de la demanda La acción judicial, interpuesta ante un tribunal federal estadounidense, acusa a Adobe de haber utilizado libros protegidos por derechos de autor —presuntamente obtenidos de repositorios pirata— para entrenar modelos de inteligencia artificial integrados en sus productos...

La difamación generada por inteligencia artificial y la atribución de responsabilidad jurídica

Imagen
  La difamación generada por inteligencia artificial y la atribución de responsabilidad jurídica Autor:  Santiago Carretero Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos 1. Contexto de la noticia Los tribunales estadounidenses comienzan a enfrentarse de forma sistemática a reclamaciones por  difamación derivada de contenidos generados por sistemas de inteligencia artificial generativa . El problema jurídico emerge cuando modelos de lenguaje producen afirmaciones falsas, inexactas o lesivas para el honor y la reputación de personas físicas o jurídicas, sin intervención humana directa en el resultado final. 2. El núcleo del problema jurídico El debate no se centra únicamente en la existencia del daño, sino en la compleja cuestión de la  imputación de responsabilidad . Los tribunales analizan si la empresa desarrolladora del modelo, el proveedor del servicio, o incluso el usuario que formula la consulta, pueden ser considerados sujetos responsab...

El AI Act europeo entra en fase de cumplimiento efectivo

Imagen
  El AI Act europeo entra en fase de cumplimiento efectivo Autor:  Santiago Carretero Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos 1. De la expectativa normativa a la exigibilidad jurídica La entrada progresiva en aplicación del Reglamento Europeo de Inteligencia Artificial (AI Act) marca un punto de inflexión en el Derecho tecnológico europeo. Como ha subrayado recientemente  Diario Jurídico , innovar en inteligencia artificial ya no es una cuestión meramente técnica o estratégica, sino una actividad jurídicamente condicionada por obligaciones normativas concretas y directamente exigibles. 2. El cumplimiento como condición de la innovación El AI Act introduce un enfoque basado en el riesgo que obliga a desarrolladores, proveedores y usuarios profesionales de sistemas de IA a identificar, documentar y mitigar impactos potenciales sobre derechos fundamentales, seguridad y transparencia. El cumplimiento normativo deja de ser un elemento accesorio p...

Los primeros criterios interpretativos del Reglamento de Inteligencia Artificial de la Unión Europea

Imagen
  Los primeros criterios interpretativos del Reglamento de Inteligencia Artificial de la Unión Europea Santiago Carretero Profesor Titular de Filosofía del Derecho Universidad Rey Juan Carlos La entrada en fase de aplicación práctica del Reglamento (UE) de Inteligencia Artificial marca un punto de inflexión en el Derecho tecnológico europeo. A fecha de 15 de diciembre de 2025, comienzan a perfilarse los primeros criterios interpretativos emanados de autoridades nacionales competentes y foros de coordinación administrativa, especialmente en relación con la calificación de los denominados sistemas de alto riesgo. La noción jurídica de sistema de alto riesgo El Reglamento de IA adopta un enfoque basado en el riesgo, abandonando deliberadamente definiciones meramente técnicas. La calificación de un sistema como de alto riesgo no depende exclusivamente de su complejidad algorítmica, sino del impacto jurídico que puede desplegar sobre derechos fundamentales, igualdad, acceso a servicios ...

Inteligencia artificial y motivación judicial: una advertencia desde el Derecho disciplinario

Imagen
  Inteligencia artificial y motivación judicial: una advertencia desde el Derecho disciplinario Autor: Santiago Carretero Profesor Titular de Filosofía del Derecho Universidad Rey Juan Carlos 1. El supuesto analizado El 14 de diciembre de 2025 se hizo público un relevante pronunciamiento en Colombia: la Comisión Nacional de Disciplina Judicial acordó examinar la posible responsabilidad disciplinaria de una jueza que utilizó herramientas de inteligencia artificial para fundamentar una sentencia penal por abuso sexual. El órgano revisor detectó que parte de la motivación contenía referencias doctrinales y jurisprudenciales inexistentes, generadas automáticamente por la IA empleada. 2. Relevancia jurídica del caso Desde una perspectiva estrictamente jurídica, el núcleo del problema no reside en el uso instrumental de tecnología, sino en la quiebra del deber constitucional de motivación de las resoluciones judiciales. La motivación no es un requisito formal, sino una garantía esencial ...

La pugna competencial en la regulación de la inteligencia artificial en Estados Unidos

Imagen
  La pugna competencial en la regulación de la inteligencia artificial en Estados Unidos Santiago Carretero Profesor Titular de Filosofía del Derecho Universidad Rey Juan Carlos 13 de diciembre de 2025 Dos noticias recientes permiten constatar un problema jurídico de fondo en la regulación de la inteligencia artificial en Estados Unidos: el conflicto entre la pretensión federal de uniformar el marco normativo y la voluntad de los Estados de mantener estándares propios de protección, especialmente en ámbitos sensibles. La reacción del gobernador de California frente a la orden ejecutiva presidencial orientada a desplazar las leyes estatales de IA no es meramente política. Desde un punto de vista constitucional, reabre el debate sobre los límites de la  preemption  federal cuando no existe una ley del Congreso que establezca un régimen integral de la inteligencia artificial. En ausencia de esa base legislativa, la capacidad del poder ejecutivo para neutralizar normas estata...

GenAI.mil y la militarización avanzada de la IA: integración de Gemini en la estrategia tecnológica de EE. UU

Imagen
  GenAI.mil y la militarización avanzada de la IA: integración de Gemini en la estrategia tecnológica de EE. UU. Autor: Santiago Carretero, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos La decisión del Departamento de Defensa de Estados Unidos de integrar Gemini —el modelo de inteligencia artificial de Google— en su nueva plataforma GenAI.mil representa un punto de inflexión en la relación entre IA y defensa. Esta apuesta se enmarca en la denominada Misión Génesis , iniciativa estratégica impulsada por la administración Trump para recuperar el liderazgo tecnológico global mediante la aceleración de capacidades científicas, energéticas, innovadoras y, de forma muy destacada, militares. 1. GenAI.mil: arquitectura estratégica para la defensa digital GenAI.mil nace como plataforma de inteligencia artificial de vanguardia orientada a la modernización del ecosistema militar estadounidense. Su elemento más relevante es la adopción inicial de Gemini for Gover...

Responsabilidad civil por daños derivados de sistemas generativos: el caso Connecticut contra OpenAI y Microsoft

Imagen
  Responsabilidad civil por daños derivados de sistemas generativos: el caso Connecticut contra OpenAI y Microsoft Por Santiago Carretero, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos La demanda presentada en Connecticut el 11 de diciembre de 2025 contra OpenAI y Microsoft, en relación con un asesinato‑suicidio, se ha convertido en un punto de inflexión en el debate sobre la responsabilidad civil de los sistemas de inteligencia artificial generativa. Plantea cuestiones esenciales sobre el deber de cuidado, la previsibilidad del daño y la naturaleza jurídica de estos modelos. El núcleo de la acción gira en torno a la alegación de homicidio negligente y a la posible existencia de un producto defectuoso. Los demandantes sostienen que el sistema generativo pudo influir en la conducta del usuario y que las empresas no adoptaron medidas de seguridad suficientes para evitar efectos nocivos sobre personas vulnerables. La cuestión del deber de cuidado resulta centr...

BREVE EXPLICACIÓN DOCENTE SOBRE LA STS 1000/2025 SOBRE LA CONDENA AL FISCAL GENERAL DEL ESTADO

Imagen
  Informe sobre la STS 1000/2025 (Sala de lo Penal, Tribunal Supremo) mi visión tras su lectura Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos, Abogado del Ilustre Colegio de Abogados de Madrid I. Antecedentes y hechos probados El procedimiento se incoó por acumulación de varias querellas contra el  Fiscal General  del Estado, D. Álvaro García Ortiz, que dieron lugar a la  Causa Especial núm. 20557/2024  ante la Sala de lo Penal del Tribunal Supremo. Se documentaron denuncias y querellas presentadas entre marzo y abril de 2024 por diversas personas y asociaciones, que imputaban al  Fiscal General  la filtración y difusión de información de carácter reservado obtenida por razón de su cargo. Entre las pruebas practicadas figura el intercambio de correos electrónicos cuya copia quedó incorporada al procedimiento, peritajes informáticos (copias forenses de dispositivos), declaraciones de testigos y la nota oficial difundida ...