Responsabilidad civil por daños derivados de sistemas generativos: el caso Connecticut contra OpenAI y Microsoft
Responsabilidad civil por daños derivados de sistemas generativos: el caso Connecticut contra OpenAI y Microsoft
Por Santiago Carretero, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
La demanda presentada en Connecticut el 11 de diciembre de 2025 contra OpenAI y Microsoft, en relación con un asesinato‑suicidio, se ha convertido en un punto de inflexión en el debate sobre la responsabilidad civil de los sistemas de inteligencia artificial generativa. Plantea cuestiones esenciales sobre el deber de cuidado, la previsibilidad del daño y la naturaleza jurídica de estos modelos.
El núcleo de la acción gira en torno a la alegación de homicidio negligente y a la posible existencia de un producto defectuoso. Los demandantes sostienen que el sistema generativo pudo influir en la conducta del usuario y que las empresas no adoptaron medidas de seguridad suficientes para evitar efectos nocivos sobre personas vulnerables.
La cuestión del deber de cuidado resulta central. Determinar si los desarrolladores de IA están jurídicamente obligados a prever usos peligrosos implica analizar si el diseño probabilístico del modelo, su capacidad persuasiva y el conocimiento empresarial sobre riesgos psicológicos imponen obligaciones reforzadas de diligencia. Las compañías, por su parte, argumentarán que la naturaleza no determinista del sistema excluye la previsibilidad estricta del daño.
La acreditación del nexo causal será uno de los mayores desafíos. La conducta humana depende de múltiples factores, y la interacción con el modelo no puede considerarse determinante por sí sola. Sin embargo, los demandantes afirman que el sistema actuó como un factor contribuyente previsible y que debieron implementarse filtros, avisos o protocolos de intervención automática ante conversaciones de riesgo.
También se plantea la posible calificación de la IA como producto defectuoso, lo cual facilitaría la responsabilidad objetiva. Pero esto genera retos conceptuales: ¿es la IA un producto o un servicio digital?, ¿puede el defecto consistir en la imprevisibilidad inherente a un modelo estadístico?, ¿hasta qué punto los riesgos son inseparables del funcionamiento del sistema?
La demanda refuerza la tendencia hacia un escrutinio normativo más exigente. Fiscales generales y legisladores estadounidenses están planteando la necesidad de estándares obligatorios de diseño seguro, auditorías continuas y mecanismos de intervención automatizados. Aunque el litigio está en fase inicial, su impacto es significativo: obliga a repensar los cimientos de la responsabilidad civil aplicable a los sistemas generativos.

Comentarios
Publicar un comentario