Caso Mark Walters v. OpenAI (EE.UU.)



Caso Mark Walters v. OpenAI (EE.UU.)

Datos esenciales

  • Órgano: Corte Superior del Condado de Gwinnett, Georgia.
  • Fecha: 19 de mayo de 2025.
  • Materia: Responsabilidad civil y difamación por contenido generado por IA.

Hechos

El demandante alegó que ChatGPT generó información falsa, afirmando que él había sido acusado de malversación de fondos. Demandó a OpenAI por difamación y negligencia.

Decisión

El tribunal otorgó juicio sumario a favor de OpenAI, desestimando la demanda.

Fundamentos

  • ChatGPT advierte que puede generar información incorrecta.
  • Las declaraciones no eran difamatorias en sentido jurídico porque un lector razonable no las interpretaría como hechos reales.
  • No se probó negligencia ni daño real.

Impacto

Precedente clave sobre la responsabilidad legal de desarrolladores de IA en EE.UU. y la interpretación de los avisos de uso como limitación de responsabilidad.

Caso Adam Raine v. OpenAI (Reino Unido)

Datos esenciales

  • Órgano: Tribunal Superior de Justicia del Reino Unido.
  • Fecha: Agosto de 2025.
  • Materia: Responsabilidad por producto defectuoso y deber de cuidado.

Hechos

Un adolescente se suicidó tras una interacción prolongada con ChatGPT. La familia demandó a OpenAI alegando que el chatbot debía considerarse un producto defectuoso bajo normativa europea.

Decisión

El tribunal admitió la demanda para análisis completo, abriendo la puerta a considerar la IA como producto sujeto a estándares de seguridad.

Fundamentos

  • Aplicación de la Directiva de Responsabilidad por Productos en la UE.
  • Debate sobre si los sistemas de IA deben incluir salvaguardas psicológicas.

Impacto

Este caso puede redefinir la responsabilidad civil en Europa respecto a IA, exigiendo protocolos de seguridad y supervisión humana.

Análisis doctrinal y recomendaciones

Ambos casos reflejan la tensión entre innovación tecnológica y protección jurídica. Mientras EE.UU. se inclina por limitar la responsabilidad mediante advertencias, la UE explora la aplicación de normas de producto defectuoso. Esto implica que:

  • Las empresas deben reforzar sus avisos legales y sistemas de control.
  • Los abogados deben anticipar litigios por daños psicológicos y difamación digital.
  • Se recomienda implementar protocolos de compliance en IA y auditorías éticas.

© 2025 Santiago Carretero Sánchez | Blog Jurídico sobre IA

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia