Entradas

La inteligencia artificial ante el juez civil: una lectura monográfica de la sentencia del Tribunal Superior de Cali (17 de marzo de 2026)

Imagen
  La inteligencia artificial ante el juez civil: una lectura monográfica de la sentencia del Tribunal Superior de Cali (17 de marzo de 2026) Por Santiago Sánchez, Profesor Titular de la Universidad Rey Juan Carlos El 17 de marzo de 2026, el Tribunal Superior de Cali dictó una resolución que marca un hito en la relación entre el proceso civil y la inteligencia artificial generativa. La Sala analizó si sistemas como ChatGPT Pro pueden comparecer como «prueba técnica basada en IA» dentro de un litigio de responsabilidad civil médica. Aunque la petición se rechazó, la importancia de la sentencia no reside en el resultado concreto, sino en la arquitectura jurídica que construye para abordar la irrupción de las herramientas generativas en el proceso. El núcleo del caso consistía en determinar si el uso de un modelo generativo podía equipararse a una pericia, de modo que su comparecencia en audiencia aportara información técnicamente verificable y valorable por el juez. El Tribunal aborda...

La autonomía que inquieta a Europa: primeras implicaciones jurídicas del Mecanismo de Alerta Rápida en IA generativa

Imagen
  La autonomía que inquieta a Europa: primeras implicaciones jurídicas del Mecanismo de Alerta Rápida en IA generativa Por Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos La activación por parte de la Comisión Europea del Mecanismo de Alerta Rápida en materia de inteligencia artificial generativa marca un punto de inflexión en la forma en que la Unión aborda el riesgo sistémico asociado a modelos fundacionales avanzados. No se trata de un gesto político ni de un aviso retórico: es la primera vez que Bruselas aplica un instrumento previsto en el AI Act para escenarios de desviación grave del comportamiento esperado de un sistema de IA. El detonante ha sido la constatación, durante auditorías iniciales de varios modelos en fase de despliegue comercial, de que estos presentan una capacidad efectiva para sortear las barreras de seguridad incorporadas por sus desarrolladores, especialmente en ámbitos jurídicamente críticos como la generación de ciberataque...

La delimitación jurídica de los modelos fundacionales en el Derecho europeo de la inteligencia artificial

Imagen
  La delimitación jurídica de los modelos fundacionales en el Derecho europeo de la inteligencia artificial Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La reciente actuación de la Comisión Europea en torno a la concreción de las obligaciones aplicables a los modelos fundacionales de inteligencia artificial representa un avance significativo en la evolución del Derecho tecnológico europeo. En particular, el desarrollo técnico del Reglamento de Inteligencia Artificial permite superar una de las principales incertidumbres iniciales del texto normativo: la determinación del estatuto jurídico de los sistemas de propósito general, caracterizados por su capacidad de adaptación a múltiples usos y contextos. Esta categoría, en la que se integran los grandes modelos generativos, plantea desafíos específicos que no podían resolverse mediante los esquemas tradicionales de clasificación por niveles de riesgo. Desde un punto de vista jurídico, la novedad más rel...

Responsabilidad civil por daños causados por inteligencia artificial autónoma: hacia la consolidación de un criterio de imputación por riesgo

Imagen
  Responsabilidad civil por daños causados por inteligencia artificial autónoma: hacia la consolidación de un criterio de imputación por riesgo  Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos Las recientes resoluciones dictadas por un diversos tribunales europeos en marzo de 2026 constituyen un hito relevante en la progresiva construcción del régimen jurídico de la responsabilidad civil derivada del uso de sistemas de inteligencia artificial autónoma.  En el caso analizado que recuerda a la sentencia SCHUFA DE 2021 y la nuestra BOSCO de 2025, el órgano jurisdiccional reconoce la responsabilidad del operador de un sistema algorítmico por los daños ocasionados como consecuencia de una decisión automatizada, aun en ausencia de intervención humana directa en el momento del daño. El elemento central de la decisión radica en la superación de los esquemas clásicos de imputación basados exclusivamente en la culpa, para aproximarse a un modelo de res...

La prueba penal en la era de la inteligencia artificial: autenticidad, riesgo y garantías procesales

Imagen
  La prueba penal en la era de la inteligencia artificial: autenticidad, riesgo y garantías procesales Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La irrupción de sistemas de inteligencia artificial generativa ha alterado profundamente la estructura clásica de la prueba en el proceso penal. En particular, la proliferación de los denominados  deepfakes  y de contenidos sintéticos plantea un desafío directo a los criterios tradicionales de autenticidad, integridad y fiabilidad probatoria. La autenticidad de la prueba, entendida como correspondencia entre el documento aportado y la realidad que pretende reflejar, se ve comprometida en un contexto en el que la manipulación audiovisual resulta prácticamente indetectable a simple vista. Ello obliga a reforzar la cadena de custodia digital y a exigir estándares técnicos más elevados en la obtención y conservación de la prueba. Prueba pericial algorítmica La intervención de peritos especializados...

La consolidación del control administrativo de la inteligencia artificial en la Unión Europea

Imagen
  La consolidación del control administrativo de la inteligencia artificial en la Unión Europea Santiago Carretero Sánchez Profesor Titular de la  Universidad Rey Juan Carlos, Abogado 1. Planteamiento general La reciente actuación de la Comisión Europea orientada a articular mecanismos efectivos de supervisión del Reglamento de Inteligencia Artificial (AI Act) representa un paso decisivo hacia la construcción de un verdadero sistema europeo de control público de la inteligencia artificial. No se trata únicamente de aprobar normas, sino de garantizar su aplicación homogénea, técnica y jurídicamente coherente en el conjunto de los Estados miembros. 2. La arquitectura institucional de supervisión El modelo que se perfila descansa sobre una doble dimensión. Por un lado, la creación o adaptación de autoridades nacionales con competencias específicas en materia de inteligencia artificial, dotadas de capacidad técnica suficiente para evaluar sistemas complejos, especialmente aquellos...

Jürgen Habermas y la razón pública en las democracias contemporáneas Una breve aproximación a su legado filosófico

Imagen
  Jürgen Habermas y la razón pública en las democracias contemporáneas Una breve aproximación a su legado filosófico Santiago Carretero, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos La reciente desaparición de Jürgen Habermas constituye un momento propicio para revisar el alcance intelectual de una de las figuras más influyentes de la filosofía social y jurídica del siglo XX y comienzos del XXI. Heredero crítico de la llamada Escuela de Frankfurt , Habermas desarrolló una obra extensa orientada a comprender las condiciones normativas que hacen posible una democracia deliberativa fundada en la racionalidad comunicativa. Estamos en mi opinión ante un clásico como Kelsen o Hart que traspasará el tiempo en su valoración. Entre sus trabajos más influyentes se encuentran The Theory of Communicative Action (1981), Between Facts and Norms (1992) y The Structural Transformation of the Public Sphere (1962). En ellos se articula una propuesta filosófica que si...

Deepfakes, democracia y responsabilidad jurídica en la era de la inteligencia artificial Reflexiones tras la muerte de Jürgen Habermas sobre la integridad del discurso público digital

Imagen
  Deepfakes, democracia y responsabilidad jurídica en la era de la inteligencia artificial Reflexiones tras la muerte de Jürgen Habermas sobre la integridad del discurso público digital Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos La expansión de los sistemas de inteligencia artificial generativa ha introducido un nuevo problema jurídico de enorme relevancia: la creación de  deepfakes , es decir, contenidos audiovisuales manipulados mediante algoritmos capaces de reproducir con gran realismo la voz, la imagen o los gestos de una persona real. La evolución reciente de estos sistemas ha reducido notablemente las barreras técnicas para producir falsificaciones altamente convincentes, lo que ha generado preocupación en ámbitos como el derecho electoral, la protección de la reputación, la integridad informativa y la estabilidad institucional. Durante los últimos meses diversos analistas y juristas han advertido que los procesos electorales previstos...