Caso Mark Walters v. OpenAI (EE.UU.)
Caso Mark Walters v. OpenAI (EE.UU.)
Datos esenciales
- Órgano: Corte Superior del Condado de Gwinnett, Georgia.
- Fecha: 19 de mayo de 2025.
- Materia: Responsabilidad civil y difamación por contenido generado por IA.
Hechos
El demandante alegó que ChatGPT generó información falsa, afirmando que él había sido acusado de malversación de fondos. Demandó a OpenAI por difamación y negligencia.
Decisión
El tribunal otorgó juicio sumario a favor de OpenAI, desestimando la demanda.
Fundamentos
- ChatGPT advierte que puede generar información incorrecta.
- Las declaraciones no eran difamatorias en sentido jurídico porque un lector razonable no las interpretaría como hechos reales.
- No se probó negligencia ni daño real.
Impacto
Precedente clave sobre la responsabilidad legal de desarrolladores de IA en EE.UU. y la interpretación de los avisos de uso como limitación de responsabilidad.
Caso Adam Raine v. OpenAI (Reino Unido)
Datos esenciales
- Órgano: Tribunal Superior de Justicia del Reino Unido.
- Fecha: Agosto de 2025.
- Materia: Responsabilidad por producto defectuoso y deber de cuidado.
Hechos
Un adolescente se suicidó tras una interacción prolongada con ChatGPT. La familia demandó a OpenAI alegando que el chatbot debía considerarse un producto defectuoso bajo normativa europea.
Decisión
El tribunal admitió la demanda para análisis completo, abriendo la puerta a considerar la IA como producto sujeto a estándares de seguridad.
Fundamentos
- Aplicación de la Directiva de Responsabilidad por Productos en la UE.
- Debate sobre si los sistemas de IA deben incluir salvaguardas psicológicas.
Impacto
Este caso puede redefinir la responsabilidad civil en Europa respecto a IA, exigiendo protocolos de seguridad y supervisión humana.
Análisis doctrinal y recomendaciones
Ambos casos reflejan la tensión entre innovación tecnológica y protección jurídica. Mientras EE.UU. se inclina por limitar la responsabilidad mediante advertencias, la UE explora la aplicación de normas de producto defectuoso. Esto implica que:
- Las empresas deben reforzar sus avisos legales y sistemas de control.
- Los abogados deben anticipar litigios por daños psicológicos y difamación digital.
- Se recomienda implementar protocolos de compliance en IA y auditorías éticas.

Comentarios
Publicar un comentario