Cómo revisar una demanda jurídica en casos de IA: lo que todo jurista debe aportar y supervisar

 

Cómo revisar una demanda jurídica en casos de IA: lo que todo jurista debe aportar y supervisar

Fecha de publicación: 22 de September de 2025

La creciente integración de la inteligencia artificial (IA) en numerosas actividades —sanidad, servicios financieros, administración pública, sistemas de decisión automatizada— exige al jurista no sólo dominar el Derecho tradicional, sino comprender los elementos técnicos, éticos y normativos que condicionan cualquier demanda jurídica que involucre IA. Esta entrada ofrece una guía docente y práctica para revisar una demanda relacionada con IA: los elementos que debe contener, las pruebas imprescindibles, los puntos de supervisión técnica y las referencias normativas recientes.

1. ¿Por qué surgen demandas sobre IA?

Cuando un sistema de IA produce un resultado lesivo —por sesgo, error decisorio, violación de derechos fundamentales o uso inadecuado de datos— se abren vías de responsabilidad civil, administrativa y penal. Para que una demanda prospere no basta con alegar el daño; la demanda debe articular los hechos, las reglas infringidas y la prueba técnica que permita demostrar la relación causal entre el sistema y el perjuicio.

2. Marco normativo (selección 2024–2025)

A modo de orientación, estas son las fuentes normativas que, con mayor probabilidad, resultarán relevantes al formular o revisar una demanda sobre IA:

  • Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, sobre normas armonizadas en materia de inteligencia artificial y modificación de diversos actos legislativos de la UE.
  • Directiva (UE) 2024/2853 —modificación de la normativa sobre responsabilidad por productos defectuosos—, que adapta la regulación a productos con componentes inteligentes.
  • El AI Act y sus actos de desarrollo (entrado en vigor en 2024), que establecen obligaciones para sistemas de alto riesgo: evaluación de conformidad, transparencia, documentación técnica y registros.
  • Reglamento General de Protección de Datos (RGPD) y su jurisprudencia y guías posteriores relacionadas con decisiones automatizadas y perfiles.
  • Normativa nacional aplicable (proyectos y anteproyectos sobre gobernanza de IA), así como normas sectoriales (salud, transporte, servicios financieros) y normas técnicas (ISO y guías de buenas prácticas).

Es imprescindible citar las normas concretas en la demanda; la lista anterior es orientativa y debe completarse según el caso y la legislación aplicable.

3. Elementos esenciales que debe contener la demanda

A continuación se recogen los apartados mínimos y la información técnica que, en cada caso, hay que aportar o verificar:

ElementoQué debe aportar / supervisar
HechosDescripción precisa del sistema de IA (nombre comercial/técnico), su función concreta, responsables del diseño y despliegue, y la cronología de los hechos que causaron el perjuicio.
DañoNaturaleza del daño (material, personal, moral, a derechos fundamentales), prueba documental y pericial de su existencia y cuantía.
NormativaCitación expresa del AI Act, Directiva de Productos Defectuosos, RGPD y normas sectoriales; exposición de la obligación incumplida.
ResponsabilidadIdentificación de responsables (desarrollador, proveedor, integrador, operador), y la base jurídica: culpa, responsabilidad por defecto o infracción de obligaciones reglamentarias.
PruebasPeritajes técnicos, auditorías de modelos, análisis de datos de entrenamiento, logs de decisiones automatizadas, contratos y documentación técnica.
PeticiónMedidas cautelares, indemnización cuantificada, órdenes de modificación/retirada del sistema, costas y medidas complementarias.

4. Puntos críticos de supervisión — checklist práctico

Como jurista debes verificar con especial cuidado los siguientes asuntos técnicos y jurídicos:

  1. Transparencia y explicabilidad. ¿Existe documentación técnica que permita comprender la lógica del sistema? ¿Se han implementado técnicas de explainable AI? En sistemas de alto riesgo, la falta de documentación puede ser directamente infractora del AI Act.
  2. Evaluación de riesgos y DPIA. ¿Se ha realizado una evaluación de impacto en derechos fundamentales (Data Protection Impact Assessment) cuando proceda? ¿Qué conclusiones arrojó?
  3. Calidad y licitud de los datos. Comprobar la procedencia, representatividad y licencias de uso de los datos de entrenamiento; identificar sesgos o contaminaciones que expliquen resultados adversos.
  4. Supervisión humana. Determinar el papel efectivo del humano en la cadena decisoria: ¿puede intervenir, corregir o anular decisiones automatizadas?
  5. Seguridad y mantenimiento. Evaluar si existieron fallos de seguridad, omisiones en mantenimiento o desconocimiento de actualizaciones críticas.
  6. Contrato y asignación de riesgos. Revisar contratos de suministro, licencias y cláusulas de exención de responsabilidad que puedan limitar la acción frente a terceros.

5. Prueba pericial: cómo encargarla y qué pedir

El peritaje técnico es clave. Pide expresamente al perito:

  • Informe sobre arquitectura del modelo, datos de entrenamiento, y métricas de rendimiento.
  • Análisis de sesgos y de error diferencial entre grupos protegidos.
  • Reproducción experimental del supuesto que originó el daño (test de caja negra y caja blanca cuando sea posible).
  • Examen de logs, registros de decisión y documentación de supervisión humana.

Si el perito invoca secreto industrial para denegar información relevante, solicita al tribunal medidas para equilibrar la confidencialidad con el derecho a la tutela judicial efectiva.

6. Errores frecuentes que debes evitar

No presentar la demanda con descripciones técnicas vagas; no solicitar peritaje; no concretar la normativa infringida; y olvidar ofrecer una relación causal clara entre la conducta y el daño. Anticipa las defensas típicas: confidencialidad, complejidad técnica, o ausencia de obligación legal específica.

7. Estructura modelo sugerida para la demanda

1) Resumen ejecutivo; 2) Partes; 3) Hechos; 4) Fundamentos de Derecho (normas y jurisprudencia); 5) Pruebas; 6) Fundamentos de responsabilidad; 7) Cuantificación del daño; 8) Petición y medidas cautelares; 9) Documentación anexa.

8. Conclusión

Revisar una demanda que versé sobre IA implica una doble exigencia: rigor jurídico y comprensión técnica. El abogado debe dirigir la prueba, encargar peritajes adecuados y construir la narrativa causal con precisión. De este modo no sólo aumenta la posibilidad de éxito procesal, sino que se contribuye a la formación de una doctrina que clarifique la responsabilidad y las obligaciones en la era de las máquinas.

Referencias (APA, selección)

European Parliament & Council. (2024). Regulation (EU) 2024/1689 on harmonised rules in the field of artificial intelligence. Official Journal of the European Union.

European Union. (2024). Directive 2024/2853 on liability for defective products (amending Directive 85/374/EEC). Official Journal of the European Union.

European Commission. (2024). Artificial Intelligence Act. Consolidated text and delegated/implementing acts.

European Data Protection Board & EDPS. (2024). Guidelines on automated decision‑making and data protection.

Regulation (EU) 2016/679 (GDPR) and subsequent guidance (2024–2025).

PwC España. (2025). Marco regulatorio actual sobre inteligencia artificial. PwC España.

Entrada preparada por Santiago Carretero Sánchez. S

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)