IMPLICACIONES JURÍDICAS DEL USO DE IA GENERATIVA EN LA PRAXIS PROCESAL
Análisis Jurídico: El Impacto de la Inteligencia Artificial en la Buena Fe Procesal (Auto 38/2024 TSJ Navarra)
- RESUMEN EJECUTIVO
El presente documento analiza el Auto 38/2024 del Tribunal Superior de Justicia de Navarra, dictado en el marco de una investigación por mala fe procesal tras la inclusión de citas legales inexistentes —generadas por IA— en una querella. El tribunal evalúa la responsabilidad deontológica del letrado en la supervisión de estas herramientas, resolviendo finalmente el archivo de la pieza sancionadora debido a la naturaleza novel de la tecnología y la inmediata rectificación del profesional.
- CONTEXTO Y ALCANCE DEL DOCUMENTO
La integración de la Inteligencia Artificial (IA) en la administración de justicia representa un cambio de paradigma que no puede comprometer la seguridad jurídica ni la probidad procesal. En este escenario, la modernización de la justicia exige que la supervisión humana sea un pilar innegociable; la automatización no exime al profesional del derecho de su deber de diligencia. El Auto objeto de estudio subraya que la intervención humana es la única garantía de veracidad en el foro judicial.
Los antecedentes del caso se sitúan en el Recurso 17/2024, relativo a un procedimiento de especial trascendencia: causas penales contra jueces, magistrados y fiscales. Tras la inadmisión de la querella, se acordó la apertura de una pieza separada bajo el amparo del Art. 247 de la Ley de Enjuiciamiento Civil (LEC) para investigar un posible abuso de derecho. La irregularidad detectada consistió en la mención de un precepto inexistente en el ordenamiento español: el Art. 454B del Código Penal de Colombia, el cual fue falsamente atribuido a la jurisprudencia de la Sala Segunda del Tribunal Supremo de España. Este hecho, calificado por la Sala como un "error material grosero", constituye la base de una investigación centrada en los principios fundamentales de lealtad y veracidad procesal.
- FUNDAMENTOS JURÍDICOS
El principio de probidad procesal actúa como una salvaguarda esencial del sistema judicial, facultando a los tribunales para corregir conductas que entorpezcan la administración de justicia. Este mandato legal positivo se articula principalmente a través del Artículo 247 de la Ley de Enjuiciamiento Civil (LEC):
- Obligación de Buena Fe (Apdo. 1): Establece imperativamente que todos los intervinientes en los procesos deben ajustar sus actuaciones a las reglas de la buena fe.
- Potestad Sancionadora (Apdo. 3): Faculta a los Tribunales para imponer, en pieza separada y mediante acuerdo motivado, multas que oscilan entre los 180 € y los 6.000 €.
- Principio de Proporcionalidad: Para la fijación de la cuantía, el tribunal debe evaluar las circunstancias del hecho y los perjuicios causados. En este caso, la Sala pondera la "novedad de la materia" y la disposición del letrado para aplicar este principio de forma exculpatoria.
Estos fundamentos adquieren una dimensión crítica cuando el error no es una mera omisión, sino una "alucinación" técnica que suplanta la identidad de las más altas instituciones jurisprudenciales del Estado.
- CLAVES JURÍDICAS Y REGULATORIAS
La abogacía contemporánea exige marcos éticos que guíen la integración de la IA sin que la delegación de tareas se convierta en una dejación de funciones. El tribunal fundamenta su advertencia en referencias internacionales y técnicas de alto nivel:
- Law Society (2023): Subraya que los abogados son plenamente responsables de los productos generados por soluciones tecnológicas, exigiendo una revisión exhaustiva para garantizar la exactitud.
- Consejo de la Abogacía Europea (CCBE): Define la supervisión humana efectiva como una precondición indispensable del Estado de Derecho.
- Estudio Matthew Dahl et. al. (2024): El Auto cita este análisis sobre las "alucinaciones jurídicas" en Modelos de Lenguaje de Gran Tamaño (LLM). Destaca que las tasas de error son alarmantes: 69% en ChatGPT 3.5 y 88% en Llama 2. Técnicamente, el estudio advierte que estos modelos fallan en la detección de preguntas contrafactuales (suposiciones jurídicas incorrectas del usuario), lo que imposibilita la confianza ciega en sus resultados.
Esta evidencia técnica justifica la exigencia de un control de calidad riguroso por parte del letrado, cuya ausencia puede derivar en graves implicaciones deontológicas.
- RIESGOS Y OBLIGACIONES EN LA PRÁCTICA
La delegación descuidada en herramientas como ChatGPT 3 (versión específicamente utilizada en el escrito rector de este caso) supone un riesgo sancionador y reputacional. El tribunal cita el precedente del caso Avianca (EE.UU., 2023) para recordar que los abogados tienen una "función de control" ineludible.
Riesgo Identificado Obligación Profesional Correlativa Alucinación normativa y jurisprudencial: Citar el CP de Colombia (Art. 454B) y atribuirlo falsamente a la Sala Segunda del Tribunal Supremo. Verificación de fuentes: El letrado debe validar personalmente la vigencia y la autoría de cada cita legal y jurisprudencial presentada. Mala fe procesal por descuido: Presentar como derecho positivo español normas extranjeras inexistentes en el foro nacional. Diligencia debida: Supervisión efectiva de los borradores generados por IA antes de su firma y presentación oficial. Infracción Deontológica: Delegación de la responsabilidad intelectual en un algoritmo. Función de control: Asegurar que la IA actúe como apoyo y no como sustituto del juicio crítico profesional.
El tribunal enfatiza que este tipo de errores no pueden pasar inadvertidos para ningún profesional del Derecho, independientemente de la herramienta utilizada.
- VALORACIÓN CRÍTICA Y CONCLUSIONES
La resolución del TSJ de Navarra se erige como un hito pedagógico y preventivo. El tribunal ha optado por un enfoque de advertencia hacia el conjunto de la profesión, señalando que el uso descuidado de la tecnología tiene implicaciones legales y éticas profundas.
No obstante, la Sala acordó el archivo de la pieza separada sin imposición de sanción pecuniaria por dos motivos fundamentales:
- La novedad tecnológica: El carácter emergente de la IA generativa justifica una ponderación inicial menos punitiva.
- La subsanación del error material grosero: El letrado, tras la detección de la Sala, presentó sus "más sinceras excusas" de forma inmediata, solicitando tener por no puesto el párrafo erróneo en el escrito rector de la querella.
Conclusión: Este Auto funciona como un aviso preventivo definitivo para la praxis procesal española. La IA es una herramienta de apoyo legítima, pero la responsabilidad última de la integridad del proceso descansa exclusivamente en el profesional. La buena fe procesal no permite la delegación de la veracidad en algoritmos sin una supervisión humana crítica y exhaustiva.
Artículos relacionados
Amparo Directo 6/2025: IA y Derechos de Autor en México
Análisis jurídico de la sentencia de la SCJN que rechaza la protección de obras creadas por inteligencia artificial. Estudio de las cuestiones de autoría, originalidad y dominio público bajo la LFDA.
Big Brother Watch y otros c. Reino Unido (2021): Hito Jurisprudencial en Vigilancia Masiva, Privacidad y Control Judicial - Análisis Exhaustivo IRAC
Análisis jurisprudencial integral de la sentencia de la Gran Sala del TEDH que establece estándares de control en vigilancia masiva. Examen de los 5 issues principales, jurisprudencia consolidada, implicaciones para sistemas de IA, y recepción posterior. Referencia obligatoria para regulación de vigilancia electrónica.
X.AI Corp. v. OpenAI, Inc. (2026): Hito en Misappropriación de Secretos Comerciales, Responsabilidad de Empleadores y Estándares de Pleading en Derecho de Propiedad Intelectual - Análisis IRAC Exhaustivo
Análisis jurisprudencial integral de la sentencia de desestimación del caso X.AI v. OpenAI que establece estándares críticos en misappropriación de trade secrets: posesión no es misappropriación, se requiere evidencia de uso, inducement debe ser específico, y circunstancias sospechosas son insuficientes. Análisis de DTSA, CUTSA, UCL, y jurisprudencia del Noveno Circuito aplicable a startups de IA.
Kettering Adventist Healthcare v. Collier: Sanciones Monumentales por AI Hallucinations en Investigación Legal
Análisis jurídico integral de la sentencia de la Corte de Distrito del Sur de Ohio contra abogados Mary T. Scott y H. Leon Hewitt por fabricación de citas mediante IA generativa. Examen crítico de Rule 11(b), duty of candor, contempt of court y estándares de diligencia debida en la era de IA legal.
