Entradas

Imágenes que mienten: el deber de etiquetar fotografías y vídeos manipulados por IA

Imagen
  Imágenes que mienten: el deber de etiquetar fotografías y vídeos manipulados por IA Santiago Carretero Sánchez — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos; Abogado (Ilustre Colegio de Madrid) Entrada orientada a juristas y operadores jurídicos. Fecha de redacción: 6 de octubre de 2025. La manipulación visual —fotografías y vídeos alterados mediante técnicas de inteligencia artificial— ha dejado de ser una curiosidad tecnológica para convertirse en un problema jurídico de primera magnitud. El nuevo marco europeo y su trasposición a España imponen un deber de transparencia que obliga a quienes generen o difundan este tipo de contenido a identificarlo clara y técnicamente. ¿Qué exige la ley?  En esencia: informar al receptor desde la primera difusión y acompañar el aviso visible con una marca técnica (metadatos, firma o marca de agua verificable) que permita a máquinas y plataformas identificar el origen artificial del archivo. El Reglamento europeo...

Claude Sonnet 4.5 y la irrupción de la programación autónoma: implicaciones jurídicas y docentes en la era del código generativo

Imagen
  Claude Sonnet 4.5 y la irrupción de la programación autónoma: implicaciones jurídicas y docentes en la era del código generativo Santiago Carretero Sánchez, Profesor URJC La reciente presentación de  Claude Sonnet 4.5  por Anthropic marca un punto de inflexión en la evolución de la inteligencia artificial aplicada al desarrollo de software. No solo por su capacidad técnica —programar de forma autónoma durante más de treinta horas consecutivas generando miles de líneas de código—, sino por lo que este avance supone para el derecho y la enseñanza jurídica en entornos digitales. 1. El salto técnico y su relevancia jurídica Los resultados de  Sonnet 4.5  en entornos de desarrollo real lo posicionan como un modelo de referencia en generación de código. Según los primeros análisis, mejora un 20 % la eficiencia computacional respecto a versiones anteriores y multiplica por cuatro el tiempo de ejecución autónoma comparado con modelos previos de OpenAI. Desde una persp...

Cuando la IA inventa el Derecho: las alucinaciones jurídicas y su control

Imagen
  Cuando la IA inventa el Derecho: las alucinaciones jurídicas y su control Santiago Carretero Sánchez  — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos; Abogado del Ilustre Colegio de Madrid 6 de octubre de 2025 Las denominadas  alucinaciones  de la inteligencia artificial —esto es, la generación de respuestas falsas o inventadas por los modelos lingüísticos— constituyen hoy una de las amenazas más serias para la aplicación de la IA en el ámbito jurídico. Su gravedad no radica tanto en la mera existencia de errores técnicos, sino en el modo en que estos se insertan en sistemas de decisión y asesoramiento que operan bajo apariencia de autoridad y objetividad. En el Derecho, una afirmación falsa revestida de forma jurídica puede tener consecuencias devastadoras: alterar la comprensión de un precedente, inducir una mala práctica administrativa o sesgar un dictamen judicial. Un estudio técnico reciente ha analizado de forma exhaustiva este fenóme...

La expiración de la ley CISA y los nuevos riesgos para la ciberseguridad global EEUU

Imagen
La expiración de la ley CISA y los nuevos riesgos para la ciberseguridad global Santiago Carretero Sánchez — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos; Abogado del Ilustre Colegio de Madrid Resumen.  La Cybersecurity Information Sharing Act (CISA) de 2015 expiró el 30 de septiembre de 2025. Diseñada para facilitar el intercambio voluntario de indicadores de amenazas entre el sector privado y el Gobierno de EE. UU., su caducidad plantea riesgos operativos y jurídicos que afectan a la detección temprana, la cooperación intersectorial y la resiliencia de infraestructuras críticas. ¿Qué protegía la CISA? La ley ofrecía protecciones legales —exenciones frente a responsabilidades civiles, limitaciones de acceso por FOIA y salvaguardas antimonopolio— para incentivar que empresas y agencias compartiesen información técnica sobre ciberamenazas. Su naturaleza voluntaria se basaba en la confianza jurídica y en mecanismos automatizados de intercambio. Consecuencias...

Más allá del cumplimiento: la alfabetización en IA como nuevo estándar jurídico europeo

Imagen
  Más allá del cumplimiento: la alfabetización en IA como nuevo estándar jurídico europeo Santiago Carretero Sánchez  — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos; Abogado del Ilustre Colegio de Madrid La entrada en vigor del Reglamento de Inteligencia Artificial de la Unión Europea (AI Act) no solo impone obligaciones técnicas a los desarrolladores y proveedores de sistemas, sino que introduce un reto cultural y profesional de enorme calado: la alfabetización en inteligencia artificial. Esto significa que los operadores jurídicos, desde jueces hasta abogados y funcionarios, deberán ser capaces de comprender el funcionamiento básico, los límites y los riesgos de las herramientas que utilicen en su práctica profesional. De la norma técnica al deber de comprensión El AI Act obliga a que los sistemas de alto riesgo —entre ellos muchos aplicados a la justicia, la administración pública o el cumplimiento normativo— sean transparentes y comprensibles para...

Consulta europea sobre incidentes graves en el AI Act: implicaciones para juristas

Imagen
  Consulta europea sobre incidentes graves en el AI Act: implicaciones para juristas Santiago Carretero Sánchez  — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos; Abogado del Ilustre Colegio de Madrid El 3 de octubre de 2025 la Comisión Europea abrió una consulta pública sobre la interpretación del artículo 73 del  Reglamento de Inteligencia Artificial  (AI Act), relativo a los llamados “incidentes graves”. Esta iniciativa busca definir con mayor claridad cómo deben notificarse los fallos de sistemas de IA que generen riesgos significativos para los derechos fundamentales, la seguridad o la integridad de las personas. ¿Qué significa un “incidente grave” en la práctica? El AI Act exige no solo un control previo al uso de sistemas de IA, sino también un mecanismo de  vigilancia poscomercialización . Los proveedores y usuarios cualificados deberán reportar a las autoridades nacionales cualquier evento adverso que evidencie un riesgo sustanci...

Guía Breve: Máximo Rendimiento Gemini y ChatGPT (Prompt Engineering)

Imagen
  Guía Breve: Máximo Rendimiento Gemini y ChatGPT (Prompt Engineering) Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos Guía breve práctica y docente sobre Prompt Engineering aplicada a Gemini y ChatGPT desde mi experiencia.    La clave para un alto rendimiento con la Inteligencia Artificial (IA) reside en la Ingeniería de Instrucciones (Prompt Engineering). No es lo que pides, sino cómo instruyes, eso es lo que he ido aprendiendo de los diversos cursos e infografías.   1. La Regla de Oro: Sé un Director de Cine o creador  Un prompt efectivo no es una pregunta, es un guion para la IA. Siempre incluye estos cuatro elementos para fijar el contexto y el resultado esperado:   Ejemplo de Prompt Avanzado (Unificado): "[ROL] Eres un copywriter experto en contenido para LinkedIn. [TAREA] Transforma el siguiente borrador de email en una publicación de LinkedIn de alto impacto. [CONTEXTO] El email trata sobre los 3 ma...

Transparencia algorítmica y Derecho administrativo: lecciones del caso BOSCO

Imagen
  Transparencia algorítmica y Derecho administrativo: lecciones del caso BOSCO Santiago Carretero Sánchez — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos Publicado: 02 de October de 2025 La Administración pública ha empezado a delegar decisiones en sistemas algorítmicos; surge así una pregunta central: ¿cómo garantizar que decisiones asistidas o tomadas por inteligencia artificial sean transparentes y controlables? La reciente sentencia  1119/2025  del Tribunal Supremo español, relativa al sistema  BOSCO  —empleado para evaluar proyectos financiados con fondos europeos— ofrece una respuesta rotunda: el código fuente debe hacerse público. Lejos de rebajar la obligación de transparencia cuando intervienen algoritmos, la obligación se eleva. La  Ley de Transparencia  de 2013 ya reconocía el derecho de la ciudadanía a conocer el funcionamiento de la Administración. Con la incorporación de algoritmos, ese derecho se amplía: el códig...