La irrupción de la “IA agente” y su impacto en el Derecho de la responsabilidad y la regulación tecnológica

 


La irrupción de la “IA agente” y su impacto en el Derecho de la responsabilidad y la regulación tecnológica

Por Santiago Carretero Gómez
Profesor Titular de la Universidad Rey Juan Carlos

La edición de 2026 del Mobile World Congress ha puesto de manifiesto una evolución relevante en el desarrollo de la inteligencia artificial aplicada a dispositivos digitales: la aparición de sistemas denominados por la industria tecnológica como “IA agente” o agentes autónomos de inteligencia artificial. Esta categoría tecnológica representa un paso adicional respecto de los sistemas tradicionales de inteligencia artificial generativa o de recomendación, en la medida en que no se limitan a producir contenidos o sugerencias, sino que pueden ejecutar acciones y tomar decisiones de forma autónoma dentro de determinados entornos digitales o físicos.

El concepto de IA agente se refiere a sistemas que combinan modelos avanzados de aprendizaje automático con capacidad de interacción continuada con su entorno, gestión de tareas complejas y ejecución de acciones sin intervención humana directa en cada fase del proceso. En términos funcionales, estos sistemas pueden analizar información, establecer objetivos operativos y desplegar secuencias de acciones para alcanzarlos. Algunos prototipos presentados en el evento tecnológico permiten, por ejemplo, que dispositivos móviles o asistentes digitales gestionen reservas, negocien servicios en línea, organicen agendas o interactúen con otros sistemas informáticos en nombre del usuario.

Desde una perspectiva jurídica, esta evolución tecnológica tiene consecuencias relevantes para el Derecho tecnológico contemporáneo, particularmente en tres ámbitos: responsabilidad civil por daños causados por sistemas automatizados, exigencias regulatorias de supervisión humana y régimen de seguridad de productos con inteligencia artificial integrada.

En primer lugar, la autonomía funcional de los sistemas plantea interrogantes clásicos en torno a la imputación de responsabilidad jurídica. El Derecho tradicional ha construido sus esquemas de responsabilidad sobre la base de la conducta humana o, en el ámbito de los productos defectuosos, sobre la actuación de fabricantes y distribuidores. Sin embargo, cuando un sistema de inteligencia artificial opera mediante aprendizaje automático y adopta decisiones en contextos dinámicos, la relación entre la conducta del desarrollador y el resultado final puede resultar jurídicamente más compleja de establecer.

La cuestión central no radica únicamente en determinar si un daño ha sido causado por un sistema automatizado, sino en identificar el sujeto responsable dentro de la cadena tecnológica: desarrolladores del modelo, proveedores del sistema, empresas que lo integran en sus productos o usuarios que lo activan. Este problema ha sido ya objeto de debate en el ámbito europeo con motivo del desarrollo de la normativa sobre inteligencia artificial y responsabilidad civil en sistemas automatizados.

En segundo lugar, la aparición de sistemas con mayor autonomía operativa refuerza la importancia del principio de supervisión humana significativa, uno de los pilares regulatorios del marco europeo en materia de inteligencia artificial. El Reglamento Europeo de Inteligencia Artificial (AI Act) establece que determinados sistemas, especialmente aquellos clasificados como de alto riesgo, deben diseñarse de modo que permitan la intervención humana efectiva en su funcionamiento.

La lógica de esta exigencia normativa responde a un principio jurídico fundamental: incluso cuando se utilicen sistemas automatizados para optimizar decisiones o ejecutar tareas complejas, la responsabilidad última debe permanecer bajo control humano. No obstante, en los sistemas de tipo agente esta supervisión puede resultar más difícil de articular, dado que la toma de decisiones puede producirse de manera secuencial y adaptativa en tiempo real.

Un tercer ámbito de relevancia jurídica se refiere a la regulación de la seguridad de productos que incorporan inteligencia artificial. Muchos de los dispositivos presentados en el congreso tecnológico integran sistemas capaces de interactuar con infraestructuras digitales, plataformas comerciales o servicios personales. Esto obliga a considerar la aplicación combinada de diversas normas europeas, entre ellas la legislación sobre seguridad general de productos, responsabilidad por productos defectuosos y regulación específica de sistemas de IA.

La interacción entre estas normas resulta especialmente relevante cuando la inteligencia artificial forma parte de un producto de consumo masivo, como teléfonos inteligentes, asistentes domésticos o dispositivos conectados del denominado Internet de las cosas. En estos supuestos, la seguridad del sistema no depende únicamente del hardware, sino también del comportamiento dinámico del software basado en aprendizaje automático. Ello introduce una dimensión jurídica adicional: el riesgo puede evolucionar con el tiempo a medida que el sistema aprende o se actualiza.

Desde el punto de vista doctrinal, algunos juristas han señalado que los sistemas de IA agente podrían obligar a reinterpretar categorías tradicionales del Derecho de la responsabilidad, especialmente cuando los sistemas toman decisiones complejas basadas en datos y patrones probabilísticos. Sin embargo, la tendencia regulatoria predominante en Europa no parece dirigirse hacia el reconocimiento de una personalidad jurídica autónoma para la inteligencia artificial —tesis que fue objeto de debate en el Parlamento Europeo hace algunos años—, sino hacia el refuerzo de los mecanismos de responsabilidad de los operadores humanos que diseñan, despliegan o explotan estos sistemas.

En definitiva, la evolución hacia sistemas de inteligencia artificial con mayor autonomía operativa no supone únicamente un cambio tecnológico, sino también un desafío jurídico de notable alcance. La regulación europea intenta anticipar estos escenarios mediante instrumentos normativos basados en la gestión de riesgos, la transparencia algorítmica y la supervisión humana. No obstante, el desarrollo acelerado de estas tecnologías demuestra que el Derecho deberá continuar adaptándose para garantizar un equilibrio adecuado entre innovación tecnológica, protección de los usuarios y seguridad jurídica.

La denominada “IA agente” representa, por tanto, un ejemplo paradigmático de cómo la evolución de la inteligencia artificial no sólo transforma los mercados digitales, sino que obliga también a replantear los marcos jurídicos tradicionales de responsabilidad, control y regulación tecnológica.

Referencia

El País. (2026, marzo 1). Llega la era del móvil que piensa: la inteligencia artificial autónoma protagoniza el Mobile World Congress. El País.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia