Estados vs. Congreso: la defensa estatal de la regulación de la IA
Estados vs. Congreso: la defensa estatal de la regulación de la IA
Resumen breve. Un coalición bipartidista de fiscales generales de 35 estados y el Distrito de Columbia ha instado al Congreso de los Estados Unidos a no impedir que los estados promulguen o mantengan sus propias normas sobre inteligencia artificial. La carta, liderada por la fiscal general de Nueva York, plantea que la ausencia de un marco federal completo no debe traducirse en la eliminación de la capacidad estatal para proteger derechos y seguridad pública, el problema no es menor y decisivo para el futuro de la IA a nivel mundial.
Hechos esenciales
El 25 de noviembre de 2025, la coalición de fiscales generales envió una carta a los líderes del Congreso reclamando expresamente que no se incluyan en proyectos de ley federales mecánicas de pre‑empción que bloqueen la capacidad normativa estatal para regular la IA. La iniciativa fue coordinada por autoridades de estados con distintos perfiles políticos y de innovación tecnológica.
Contexto jurídico inmediato
La disputa se sitúa en la intersección de dos principios del Derecho constitucional estadounidense: la prerrogativa federal para legislar en materias de comercio y defensa, y la tradicional competencia estatal en materia de protección de la salud, la seguridad y el orden público (police powers). La cuestión central es si el Congreso puede, mediante una ley general —o mediante una enmienda a una ley anual de autorizaciones, como la National Defense Authorization Act—, establecer una pre‑empción directa que prohíba a los estados promulgar regulaciones sobre IA.
Desde la perspectiva doctrinal, existen al menos tres escenarios jurídicos posibles: (i) una pre‑empción explícita aprobada por el Congreso y sostenida por los tribunales; (ii) una pre‑empción implícita basada en conflicto o imposibilidad de coexistencia; y (iii) ausencia de pre‑empción, situación en la que subsiste la pluralidad normativa estatal. La elección entre estos escenarios condicionará la capacidad de los estados para regular cuestiones como contenidos nocivos generados por IA, discriminación algorítmica o pruebas basadas en sistemas automatizados.
Implicaciones prácticas y riesgos
La apelación de los fiscales generales a la acción estatal responde a varios riesgos observados en el despliegue de sistemas generativos y algoritmos de decisión: daños personales provocados por respuestas engañosas o peligrosas de chatbots, creación de imágenes no consentidas, manipulación política mediante deepfakes, y discriminación en ámbitos de vivienda, empleo y educación mediante modelos predictivos. La fragmentación normativa —el temor del sector tecnológico— contrasta con la necesidad de respuestas rápidas y adaptativas en contextos locales.
Si el Congreso aprobase una norma que impidiera actuar a los estados, el efecto inmediato sería doble: reduciría la heterogeneidad normativa —lo que para la industria supone menores costes de cumplimiento— pero aumentaría la dependencia de iniciativas federales que, hasta ahora, han mostrado dificultades para avanzar de manera decisiva. Esto podría dejar vacíos regulatorios en ámbitos sensibles y ralentizar mecanismos de reparación y prevención.
Análisis crítico
Desde un enfoque técnico‑jurídico, la posición de los fiscales generales presenta solidez estratégica: los estados actúan como laboratorios normativos donde pueden testarse medidas de transparencia, obligaciones de evaluación de riesgos y sanciones por mala práctica. No obstante, la coexistencia normativa exige mecanismos de armonización para evitar cargas injustificadas a operadores que actúan a escala nacional. En este punto, la doctrina recomienda instrumentos intergubernamentales horizontales: memorandos de entendimiento, estándares técnicos comunes y un marco federal que fije mínimos protectores sin clausurar la iniciativa estatal.
Con relación a la constitucionalidad, la jurisprudencia sobre pre‑empción es rica pero heterogénea; los tribunales federales analizan tanto el texto estatutario como el objeto y efecto de la norma federal. Una pre‑empción que se presente como justificable por razones de seguridad nacional o competencia federal podría encontrar acogida, aunque ello depende de la redacción legislativa y del contexto político.
Consecuencias para la práctica regulatoria
Para los legisladores estatales y los reguladores, la respuesta adecuada combina dos líneas: desplegar normas técnicas robustas (auditorías de algoritmos, obligaciones de trazabilidad, medidas de transparencia en contenidos generados por IA) y documentar el interés público que justifica cada iniciativa —elemento clave frente a eventuales impugnaciones por pre‑empción.
Propuestas doctrinales
En primer lugar, es preferible articular un marco federal que establezca estándares mínimos de protección orientados a los riesgos sistémicos de la IA, sin impedir experimentación estatal destinada a proteger colectivos vulnerables. En segundo lugar, deben instaurarse fórmulas de coordinación interjurisdiccional que reduzcan costes de cumplimiento: mecanismos regulatorios armonizados, certificaciones mutuas y protocolos técnicos comunes para la evaluación de riesgos. En tercer lugar, conviene reforzar recursos judiciales y administrativos estatales, garantizando capacitación técnica —especialmente en fiscalías y tribunales— para abordar litigios relacionados con IA con conocimiento especializado. Finalmente, es necesario exigir obligaciones de transparencia y trazabilidad a los desarrolladores que operan a escala nacional, facilitando la supervisión y la atribución de responsabilidades.

Comentarios
Publicar un comentario