California impulsa una unidad de supervisión de IA e intensifica la investigación contra xAI


 


California impulsa una unidad de supervisión de IA e intensifica la investigación contra xAI

Santiago Carretero
Profesor Titular de la Universidad Rey Juan Carlos

El 18 de febrero de 2026, la Fiscalía General del Estado de California anunció la creación de una unidad específica de supervisión y responsabilidad en materia de inteligencia artificial dentro de su estructura institucional. Esta decisión se produce en el marco de una investigación en curso dirigida contra la empresa xAI, desarrolladora del sistema generativo Grok, ante la presunta generación y difusión de contenidos sexualizados ilícitos mediante dicha herramienta.

Desde un punto de vista jurídico, la medida representa un paso significativo hacia la consolidación de mecanismos administrativos especializados en el control de tecnologías algorítmicas de alto impacto. No se trata únicamente de una reacción frente a un caso concreto, sino de la institucionalización de una capacidad permanente de vigilancia, análisis técnico y eventual ejercicio de potestades sancionadoras cuando el uso de sistemas de IA pueda comprometer derechos fundamentales, en particular la protección de menores y la dignidad de la persona.

La actuación de las autoridades californianas evidencia una tendencia creciente en el ordenamiento estadounidense: la intervención de autoridades estatales ante la ausencia de una legislación federal integral en materia de inteligencia artificial. Este fenómeno plantea cuestiones relevantes sobre la distribución competencial, la posible fragmentación normativa y la necesidad de estándares técnicos homogéneos en materia de seguridad algorítmica.

Desde una perspectiva doctrinal, el caso suscita interrogantes esenciales: ¿hasta qué punto puede imputarse responsabilidad a un proveedor de sistemas generativos por los resultados producidos por su modelo? ¿Qué grado de control ex ante debe exigirse sobre los prompts y las salidas generadas? ¿Cabe hablar de deberes reforzados de diligencia cuando el riesgo tecnológico afecta a bienes jurídicos especialmente protegidos?

La creación de esta unidad de supervisión anticipa un modelo regulatorio basado en la fiscalización técnica continuada, la exigencia de transparencia funcional y la eventual imposición de medidas correctivas. En términos comparados, la experiencia californiana puede influir en futuros desarrollos regulatorios tanto en Estados Unidos como en otros sistemas jurídicos que buscan equilibrar innovación tecnológica y tutela efectiva de derechos.

En consecuencia, el anuncio del 18 de febrero no constituye un hecho aislado, sino un indicio claro de la transición desde un enfoque meramente reactivo hacia un modelo estructural de gobernanza pública de la inteligencia artificial, donde el control institucional se articula como elemento esencial de garantía jurídica.

Referencia

Hu, K., Dastin, J., & Cherney, M. (2026, February 18). California builds AI oversight unit and presses on xAI investigation. Reuters.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia