Responsabilidad profesional y uso de inteligencia artificial generativa en el ejercicio de la abogacía: estándar de diligencia, normativa española y marco europeo



 Responsabilidad profesional y uso de inteligencia artificial generativa en el ejercicio de la abogacía: estándar de diligencia, normativa española y marco europeo

Autor: Santiago Carretero 
 Profesor Titular de la Universidad Rey Juan Carlos. Abogado.


I. Planteamiento jurídico

La progresiva integración de herramientas de inteligencia artificial generativa en la práctica forense ha introducido un nuevo escenario de riesgos jurídicos vinculados a la veracidad de la información procesal, la diligencia profesional y la responsabilidad del abogado firmante. Aun cuando todavía no se ha consolidado doctrina del Tribunal Supremo específicamente referida a la responsabilidad civil derivada del uso de sistemas generativos en la elaboración de escritos procesales, sí se ha producido un pronunciamiento judicial relevante por parte de la Sala de lo Civil y Penal del Tribunal Superior de Justicia de Canarias en febrero de 2026, en el que se impone sanción a un letrado por la inclusión en un recurso de múltiples citas jurisprudenciales inexistentes obtenidas mediante inteligencia artificial sin verificación posterior.

La resolución, más allá de su concreta consecuencia sancionadora, posee interés dogmático porque fija un estándar exigible de diligencia profesional en el uso de tecnologías generativas dentro del proceso judicial.


II. Marco normativo español aplicable

El análisis jurídico del supuesto debe partir del entramado normativo que disciplina la actuación del abogado en el proceso.

En primer lugar, el artículo 11.1 de la Ley Orgánica del Poder Judicial establece que los Juzgados y Tribunales rechazarán fundadamente las peticiones, incidentes y excepciones formuladas con manifiesto abuso de derecho o fraude procesal. La incorporación de resoluciones inexistentes puede encuadrarse dentro de una vulneración del principio de buena fe procesal.

En segundo término, el artículo 247 de la Ley de Enjuiciamiento Civil impone a quienes intervienen en todo tipo de procesos el deber de ajustarse en sus actuaciones a las reglas de la buena fe, facultando al tribunal para imponer multa cuando se aprecie temeridad o abuso procesal. La utilización de referencias jurisprudenciales inexistentes, aun cuando su origen sea una herramienta tecnológica, constituye objetivamente una infracción de dicho deber.

Desde la perspectiva estatutaria, el Estatuto General de la Abogacía Española (Real Decreto 135/2021) consagra el deber de diligencia y competencia profesional, así como el deber de lealtad y veracidad en la actuación ante los tribunales. El abogado responde personalmente de los escritos que firma, sin que pueda desplazar dicha responsabilidad hacia instrumentos auxiliares empleados en su redacción.

Finalmente, en el plano de la responsabilidad civil, el artículo 1101 del Código Civil establece que quedan sujetos a indemnización de daños y perjuicios quienes, en el cumplimiento de sus obligaciones, incurran en dolo, negligencia o morosidad. Si la utilización negligente de una herramienta de IA generativa ocasionara perjuicio al cliente —por ejemplo, la desestimación de un recurso o la imposición de costas— podría activarse la responsabilidad contractual profesional.


III. El estándar de diligencia en el uso de IA generativa

El elemento central del pronunciamiento judicial radica en la afirmación implícita de un estándar reforzado de control humano. La inteligencia artificial generativa no actúa como sujeto jurídico autónomo; es un instrumento técnico cuya utilización exige supervisión cualificada.

Desde una perspectiva dogmática, la conducta sancionada puede interpretarse como culpa profesional por omisión del deber mínimo de verificación. El abogado que incorpora citas jurisprudenciales a un escrito procesal tiene la obligación técnica de comprobar su existencia y exactitud en bases oficiales como el CENDOJ. La omisión de esta comprobación revela una infracción del estándar medio de diligencia exigible a un profesional del Derecho.

No resulta jurídicamente admisible invocar el funcionamiento autónomo del sistema generativo como causa exoneratoria. La responsabilidad es personalísima y deriva de la firma del escrito. La herramienta tecnológica no sustituye la función intelectual de contraste y validación jurídica.


IV. Conexión con el Reglamento (UE) 2024/1689 de Inteligencia Artificial

El análisis no puede desvincularse del marco europeo vigente. El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de inteligencia artificial (AI Act), incorpora como principio estructural el control humano significativo.

En particular, el artículo 14 del Reglamento establece que los sistemas de IA de alto riesgo deberán diseñarse y desarrollarse de modo que permitan una supervisión humana eficaz durante su utilización. Aunque las herramientas generativas de propósito general no siempre encajen automáticamente en la categoría de alto riesgo, el principio de supervisión humana se erige como pauta interpretativa general.

Asimismo, el artículo 4 del Reglamento introduce obligaciones de alfabetización en materia de IA para los proveedores y usuarios profesionales. Ello implica que los operadores jurídicos deben adquirir competencias suficientes para comprender los límites y riesgos de estas tecnologías.

La resolución judicial española se alinea, por tanto, con el espíritu del Reglamento europeo: la tecnología no elimina la responsabilidad humana, sino que exige mayor competencia técnica y mayor prudencia en su utilización.


V. Proyección en la responsabilidad civil y disciplinaria

Aunque el caso analizado se resolvió mediante sanción procesal, su relevancia excede el ámbito disciplinario. El precedente abre la puerta a eventuales reclamaciones de responsabilidad civil cuando el uso negligente de IA generativa cause un daño económicamente evaluable al cliente.

En tal hipótesis, concurrirían los elementos clásicos de la responsabilidad contractual: existencia de obligación profesional, incumplimiento por negligencia, daño y nexo causal. El uso acrítico de una herramienta generativa podría constituir incumplimiento del deber de competencia técnica.

Desde la perspectiva deontológica, además, el deber de competencia tecnológica comienza a integrarse en el contenido material de la lex artis forense. La transformación digital del ejercicio profesional no reduce el nivel de exigencia; lo incrementa.


VI. Conclusión

El pronunciamiento del Tribunal Superior de Justicia de Canarias constituye uno de los primeros hitos jurisprudenciales españoles en relación con el impacto de la inteligencia artificial generativa en el proceso judicial. No se trata aún de una doctrina consolidada sobre responsabilidad civil por daños causados por sistemas autónomos, pero sí de una delimitación clara del estándar de diligencia exigible al abogado que emplea herramientas tecnológicas en la elaboración de sus escritos.

La conclusión es inequívoca desde el punto de vista jurídico: la inteligencia artificial puede asistir en la redacción y análisis, pero la responsabilidad continúa siendo estrictamente humana. El profesional del Derecho debe integrar la competencia tecnológica dentro de su deber de diligencia, verificando, contrastando y validando toda información antes de su incorporación al proceso.


Referencia normativa en formato APA

Código Civil. (1889).
Ley Orgánica 6/1985, de 1 de julio, del Poder Judicial.
Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil.
Real Decreto 135/2021, de 2 de marzo, por el que se aprueba el Estatuto General de la Abogacía Española.
Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia