Entradas

¿Puede una IA ejercer como abogado? La respuesta normativa comienza a llegar desde Nueva York

Imagen
  ¿Puede una IA ejercer como abogado? La respuesta normativa comienza a llegar desde Nueva York El rápido desarrollo de los sistemas de inteligencia artificial generativa ha abierto un debate jurídico de gran alcance: hasta qué punto estas tecnologías pueden intervenir en ámbitos tradicionalmente reservados a profesionales sujetos a regulación jurídica. Uno de los sectores donde esta cuestión adquiere mayor relevancia es el jurídico, dado que la prestación de asesoramiento legal está sometida en numerosos ordenamientos a requisitos de habilitación profesional, responsabilidad disciplinaria y control institucional. En este contexto, el 6 de marzo de 2026 ha adquirido relevancia una iniciativa legislativa presentada en el Estado de Nueva York destinada a impedir que los sistemas de inteligencia artificial se presenten ante los usuarios como si fueran abogados u otros profesionales sometidos a licencia. La propuesta normativa busca evitar que los chatbots jurídicos induzcan a error a ...

Ejercicio de Supuesto de Hecho: Aplicación de STC 2/2026 sobre Suspensión de Pena (ESTUDIO CON INTELIGENCIA ARTIFICIAL PARA APROVECHAMIENTO PARA JURISTAS)

Imagen
  Ejercicio de Supuesto de Hecho: Aplicación de STC 2/2026 sobre Suspensión de Pena (ESTUDIO CON INTELIGENCIA ARTIFICIAL PARA APROVECHAMIENTO PARA JURISTAS) Santiago Carretero, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos   STC 2/2026, de 12 de enero – Suspensión de la pena e impago de la responsabilidad civil Idea central: la revocación de la suspensión de una pena de prisión por impago de la responsabilidad civil no puede basarse únicamente en el hecho de que no se haya pagado , sino que exige una motivación reforzada que examine la capacidad económica real del penado y la justificación del incumplimiento . 1. Hechos del caso El recurrente fue condenado por un delito y se le impuso dos años de prisión , cuya ejecución fue suspendida durante tres años con varias condiciones, entre ellas: no delinquir, seguir un tratamiento de deshabituación, pagar la responsabilidad civil en un plan de pagos fraccionado . Ini...

La irrupción de la “IA agente” y su impacto en el Derecho de la responsabilidad y la regulación tecnológica

Imagen
  La irrupción de la “IA agente” y su impacto en el Derecho de la responsabilidad y la regulación tecnológica Por Santiago Carretero Gómez Profesor Titular de la Universidad Rey Juan Carlos La edición de 2026 del Mobile World Congress ha puesto de manifiesto una evolución relevante en el desarrollo de la inteligencia artificial aplicada a dispositivos digitales: la aparición de sistemas denominados por la industria tecnológica como “IA agente” o agentes autónomos de inteligencia artificial . Esta categoría tecnológica representa un paso adicional respecto de los sistemas tradicionales de inteligencia artificial generativa o de recomendación, en la medida en que no se limitan a producir contenidos o sugerencias, sino que pueden ejecutar acciones y tomar decisiones de forma autónoma dentro de determinados entornos digitales o físicos . El concepto de IA agente se refiere a sistemas que combinan modelos avanzados de aprendizaje automático con capacidad de interacción continuada ...

Scoring algorítmico, transparencia y tutela judicial efectiva: la acción colectiva admitida por el Tribunal Supremo alemán

Imagen
  Scoring algorítmico, transparencia y tutela judicial efectiva: la acción colectiva admitida por el Tribunal Supremo alemán La reciente admisión a trámite por el Tribunal Supremo Federal de A lemania de una acción colectiva dirigida contra una entidad financiera por el uso de sistemas automatizados de scoring crediticio introduce un punto de inflexión en la construcción jurisprudencial europea sobre decisiones algorítmicas con efectos jurídicos significativos. El núcleo del litigio se sitúa en la opacidad del modelo predictivo empleado para denegar financiación a un conjunto de consumidores, quienes sostienen que la decisión fue adoptada exclusivamente mediante tratamiento automatizado, sin intervención humana sustantiva y sin información comprensible sobre la lógica aplicada. El debate jurídico pivota sobre la correcta interpretación del artículo 22 del Reglamento General de Protección de Datos , que reconoce el derecho del interesado a no ser objeto de una decisión basada úni...

Responsabilidad civil por error diagnóstico asistido por inteligencia artificial: primera resolución judicial española (3 de marzo de 2026)

Imagen
  Responsabilidad civil por error diagnóstico asistido por inteligencia artificial: primera resolución judicial española (3 de marzo de 2026) El 3 de marzo de 2026 se ha conocido una resolución dictada por un Juzgado de Primera Instancia en España en la que se analiza, por primera vez de forma expresa, la responsabilidad civil derivada del uso de un sistema de inteligencia artificial predictiva en el ámbito sanitario. La decisión judicial se refiere a un supuesto de error diagnóstico producido en un entorno hospitalario en el que el facultativo utilizó un sistema de apoyo a la decisión clínica basado en aprendizaje automático. La fuente informativa procede de la comunicación oficial del órgano judicial difundida a través del Consejo General del Poder Judicial y recogida por diversos medios jurídicos especializados en la misma fecha. El núcleo del litigio se centraba en determinar si el daño ocasionado al paciente era imputable exclusivamente al profesional sanitario, al centro hosp...

La posición de la AEPD ante las imágenes generadas por IA y el nuevo marco europeo de conducta

Imagen
  La posición de la AEPD ante las imágenes generadas por IA y el nuevo marco europeo de conducta   El 2 de marzo de 2026 se ha difundido un análisis jurídico relevante sobre la posición de la Agencia Española de Protección de Datos respecto al uso de imágenes generadas mediante sistemas de inteligencia artificial, en conexión con el despliegue del Reglamento de Inteligencia Artificial de la Unión Europea y los futuros códigos de conducta sectoriales. 1. La cuestión nuclear: ¿hay tratamiento de datos personales? Desde una perspectiva estrictamente jurídica, la clave no reside en la tecnología empleada, sino en la eventual concurrencia de datos personales conforme al art. 4 del Reglamento General de Protección de Datos. La AEPD recuerda que: Una imagen generada artificialmente puede constituir dato personal si identifica o hace identificable a una persona física. La recreación hiperrealista de rostros, incluso sintéticos, puede generar riesgos de suplantación o afe...

La consolidación interpretativa del “alto riesgo” en el Reglamento Europeo de Inteligencia Artificial

Imagen
  La consolidación interpretativa del “alto riesgo” en el Reglamento Europeo de Inteligencia Artificial El 27 de febrero de 2026 la Comisión Europea publicó nuevas directrices interpretativas relativas a la aplicación del Reglamento (UE) 2024/1689, conocido como Reglamento de Inteligencia Artificial. El documento reviste especial relevancia práctica al precisar los criterios de calificación de los sistemas de IA como “alto riesgo”, categoría que constituye el eje estructural del modelo regulatorio europeo y determina la intensidad de las obligaciones jurídicas aplicables. Las directrices no modifican el tenor literal del Reglamento, pero sí delimitan su interpretación operativa. En particular, concretan el alcance del Anexo III y refuerzan una lectura material del riesgo, vinculada no exclusivamente al sector de utilización, sino al impacto efectivo o potencial sobre derechos fundamentales reconocidos en la Carta de Derechos Fundamentales de la Unión Europea. Se desplaza así el foc...

Hacia un marco federal de responsabilidad civil por daños derivados de la IA generativa en Estados Unidos

Imagen
  Hacia un marco federal de responsabilidad civil por daños derivados de la IA generativa en Estados Unidos El 27 de febrero de 2026 se presentó en el Congreso de los Estados Unidos un borrador legislativo orientado a establecer un marco federal específico de responsabilidad civil por los daños causados por sistemas de inteligencia artificial generativa. La iniciativa pretende ofrecer seguridad jurídica ante el crecimiento exponencial de modelos fundacionales capaces de producir contenidos textuales, audiovisuales y sintéticos con impacto económico, reputacional y social significativo. Fundamento y contexto normativo Hasta la fecha, la responsabilidad por daños derivados del uso de sistemas de IA en Estados Unidos se ha articulado mediante la aplicación fragmentaria de normas estatales de responsabilidad por productos defectuosos, negligencia o difamación. La ausencia de una regulación federal específica ha generado incertidumbre respecto al encaje jurídico de los modelos de IA gen...