normativa

Guía Práctica: IA Act para Abogados

Introducción: Del IA Act a la Responsabilidad Profesional

La integración de la inteligencia artificial en la práctica jurídica ha transcendido la fase de experimentación técnica para convertirse en un imperativo de responsabilidad profesional y diligencia debida. El Reglamento (UE) 2024/1689 (IA Act) establece un marco normativo uniforme que obliga a los despachos de abogados a evaluar críticamente los riesgos derivados del despliegue de sistemas de IA.

Esta guía proporciona un análisis multidimensional del cumplimiento de la IA Act en la abogacía, abarcando:

  • Fundamentos legales y técnicos: definiciones clave, clasificación de riesgos
  • Ecosistema tecnológico: herramientas LegalTech, ciclo de vida de soluciones IA
  • Riesgos deontológicos: algoritmos opacos, alucinaciones, sesgo algorítmico
  • Marco regulatorio: IA Act como norma de seguridad de producto
  • Mitigación técnica: arquitecturas fiables, RAG, XAI, verificación post-hoc
  • Gobernanza: protocolos internos, revisión humana universal, capacitación

Capítulo 1: Fundamentos - El Desafío de la Veracidad en la Abogacía Digital

1.1 Propósito y Alcance de la Guía

La competencia tecnológica es exigencia ineludible para el ejercicio profesional moderno. El IA Act abarca la totalidad del ciclo de vida de los sistemas de IA empleados en despachos: desde su selección y entrenamiento hasta su supervisión y auditoría poscomercialización.

1.2 Definiciones Clave según el IA Act

Sistema de IA: máquina diseñada para funcionar con distintos niveles de autonomía, capaz de mostrar adaptación tras su despliegue.

Capacidad de Inferencia: facultad técnica de deducir modelos o algoritmos a partir de datos, permitiendo aprendizaje, razonamiento o modelización fáctica.

Modelos de IA de Uso General (GPAi): arquitecturas con grado significativo de generalidad, capaces de realizar amplia variedad de tareas diferenciadas.

Responsable del Despliegue (Deployer): persona física o jurídica que utiliza un sistema de IA bajo su propia autoridad en el ejercicio de actividad profesional.

1.3 La Dicotomía Fundamental: IA Generativa vs IA Consultiva

IA Generativa (Propósito General): opera mediante predicción probabilística del siguiente token, optimizando fluidez y coherencia conversacional. Es inherentemente propensa a alucinaciones —generación de información plausible pero falsa— debido a su diseño que prioriza evitar el silencio.

IA Consultiva (Especializada): basada en arquitecturas de Generación Aumentada por Recuperación (RAG), actúa como asistente experto que cita fuentes verificables, permitiendo trazabilidad y verificación humana.

1.4 Metodología de Adaptación Estratégica

La adaptación requiere evaluación multidimensional de:

  1. Niveles de Riesgo: clasificación de herramientas en categorías "Alto Riesgo" vs "Riesgo Limitado"
  2. Principio de No Sustitución: tecnología como complemento instrumental; toma de decisiones jurídicas permanece inalienablemente humana
  3. Gestión de Opacidad: implementación de medidas técnicas contra efecto "caja negra"
  4. Alfabetización en IA: obligación de garantizar que personal del despacho comprenda riesgos y limitaciones

Capítulo 2: Ecosistema Tecnológico - Clasificación y Ciclo de Vida

2.1 Funcionalidades de IA en el Despacho

La implementación no es monolítica sino bifurcada en dos categorías funcionales:

  • IA Analítica/Predictiva: detección de patrones en sentencias, clasificación de información, evaluación de riesgos
  • IA Generativa: redacción asistida, síntesis de contenido, generación de documentos contractuales

2.2 Mapa de Herramientas Relevantes

Soluciones Analíticas: vLex Analytics, Jurimetría, Tirant Analytics

Gestión y Transcripción: Copilot, Fireflies.ai, DigalawX

Investigación Asistida: Vincent AI (vLex), Iberley IA, CoCounsel (Thomson Reuters), Justicio

IA de Propósito General: ChatGPT, Claude (con niveles de riesgo elevados sin integración de recuperación)

2.3 Ciclo de Vida de una Solución de IA Legal

1. Concepción y Análisis → requisitos funcionales y restricciones normativas
2. Desarrollo → entrenamiento ML, validación de datos, pruebas
3. Explotación → despliegue, inferencia, mantenimiento evolutivo, recalibración
4. Retirada → supresión de datos conforme a RGPD

2.4 Integración Técnica: LLM y Deep Learning

La arquitectura predominante en abogacía digital se sustenta en Deep Learning, emulando redes neuronales artificiales. Los Large Language Models (LLM) predicen probabilísticamente el siguiente token en una secuencia.

La integración más fiable es Generación Aumentada por Recuperación (RAG): un módulo de recuperación identifica fragmentos relevantes en corpus legal autorizado; estos datos enriquecen el prompt inyectado al LLM para asegurar respuestas estrictamente fundamentadas en fuentes verificables.


Capítulo 3: Análisis Multidimensional de Riesgos e Impacto Deontológico

3.1 Riesgos Sistémicos: Opacidad, Sesgos, Alucinaciones

Algoritmos Opacos ("Caja Negra"): arquitecturas donde la lógica subyacente y proceso de decisión resultan incomprensibles para el ser humano, comprometiendo la trazabilidad exigida por el IA Act.

Alucinaciones: patología endémica de LLM que genera información lingüísticamente coherente pero factualmente falsa o carente de fundamento legal. Se clasifican:

  • Factales/Extrínsecas: fabricación de autoridades o precedentes inexistentes
  • De Fundamentación (Misgrounding): citación de fuentes reales con interpretación que estas no respaldan o contradicen
  • Sesgo Algorítmico: vulneración de derechos fundamentales derivada de datos de entrenamiento no representativos que codifican prejuicios históricos

3.2 Precedentes Judiciales de Negligencia

Caso Mata v. Avianca (S.D.N.Y. 2023): letrados fueron sancionados por presentar escritos con seis citas judiciales fabricadas por chatbot, demostrando que la pregunta a la propia IA sobre su veracidad es manifiestamente insuficiente.

Sanción del Tribunal Constitucional (España, Nota 90/2024): declaró que la responsabilidad del letrado es absoluta e independiente de la herramienta, manteniendo obligación de revisar exhaustivamente todo contenido antes de envío procesal.

3.3 Obligación de Competencia Tecnológica

Establecida como nuevo pilar deontológico: el letrado debe poseer alfabetización suficiente en IA para evaluar críticamente los riesgos de sistemas empleados.

La diligencia profesional exige no solo análisis ex ante de fiabilidad, sino examen ex post obligatorio de cada resultado, fundado en el principio de reserva de humanidad: el juicio profesional es irreductible e insustituible por automatización.

3.4 Secreto Profesional y Privacidad: Riesgos de Cloud Computing

Acceso Gubernamental Externo: normativa extranjera (Cloud Act) puede permitir acceso a datos almacenados en servidores fuera de jurisdicción nacional/europea.

Fuga de Datos (Data Leaks): riesgo de que información sensible del cliente sea reutilizada por modelos para generar respuestas a otros usuarios.

Evaluación de Impacto (EIPD): obligatoria antes del despliegue de sistemas de IA que traten datos de personas físicas, garantizando integridad y confidencialidad conforme a Art. 35 RGPD.


Capítulo 4: Marco Regulatorio - El IA Act como Norma de Seguridad de Producto

4.1 Clasificación de Riesgos según IA Act

El Reglamento (UE) 2024/1689 establece enfoque estratificado de riesgos:

  1. Riesgo Inaceptable: sistemas que emplean técnicas sublimiales o manipuladoras que alteren comportamiento humano o alternen capacidad de decisión informada. Prohibidas.

  2. Alto Riesgo: sujetos a requisitos obligatorios de seguridad y evaluación de conformidad previa. Incluyen sistemas de IA para autoridades judiciales o asistencia en investigación/interpretación de hechos y Derecho.

  3. Riesgo Limitado: sistemas sujetos a obligaciones de transparencia (deben etiquetarse como IA-generados).

  4. Riesgo Mínimo o Nulo: exentos de obligaciones específicas más allá del cumplimiento general normativo.

4.2 La Abogacía ante Sistemas de "Alto Riesgo"

La práctica jurídica se ve directamente interpelada por la categoría de Alto Riesgo. Los sistemas destinados a asistencia judicial o interpretación legal poseen potencial impacto en tutela judicial efectiva y juez imparcial.

La norma prescribe que uso de estas herramientas debe limitarse a funciones de apoyo, estableciendo que toma de decisiones finales es actividad humana irreductible que no puede ser sustituida por IA. Las herramientas analíticas que pretendan influir en estrategia judicial o predecir resultados procesales deben ser auditadas bajo este estándar, asegurando que opacidad no limite derecho de defensa.

4.3 Roles y Responsabilidades: Deployer vs Proveedor

Responsable del Despliegue (Deployer): persona física o jurídica que utiliza sistema de IA bajo su propia autoridad. Asume responsabilidad subjetiva por falta de diligencia en supervisión de resultados, siendo responsable de validar, corregir y, en su caso, corregir alucinaciones o errores del sistema antes de su incorporación al servicio jurídico.

Proveedor (Provider): desarrollador de sistema de IA con fin de introducirlo en el mercado bajo su propio nombre o marca.

4.4 Sinergia IA Act - RGPD: Protección de Datos desde el Diseño

El IA Act complementa (no deroga) el Reglamento General de Protección de Datos. Integración operativa:

Evaluación de Impacto (EIPD): responsables del despliegue utilizan documentación técnica del proveedor (Art. 13 IA Act) para cumplimentar obligaciones de impacto relativas a protección de datos (Art. 35 RGPD).

Calidad y Gobernanza de Datos: conjuntos de entrenamiento deben ser pertinentes, representativos y libres de errores. Exceptuamente, tratamiento de categorías especiales de datos (Art. 9 RGPD) es permitido únicamente cuando estrictamente necesario para detectar y corregir sesgos algorítmicos, siempre aplicando salvaguardias reforzadas y evitando reidentificación.

Transparencia y Derechos del Interesado: garantizado derecho a explicación clara y significativa sobre papel de IA en decisiones automatizadas que producen efectos jurídicos o afecten significativamente.


Capítulo 5: Mitigación Técnica - RAG y Arquitecturas de IA Fiable

5.1 Generación Aumentada por Recuperación (RAG)

Se prescribe abandono del paradigma de IA Generativa de propósito general ("oráculo creativo") en favor de IA Consultiva especializada ("archivo experto").

Mecanismo de RAG:

  1. Recuperación (Retrieval): identificación de fragmentos (chunks) de corpus documental externo, curado y autorizado
  2. Generación: enriquecimiento del prompt con contexto recuperado para asegurar respuesta estrictamente fundamentada

Empíricamente, RAG reduce alucinaciones frente a modelos base, aunque mantiene tasas de error residual (17%-34%), exigiendo optimización continua de base de conocimiento.

5.2 Jerarquía Normativa en Agentes de IA Legal

La arquitectura de agentes de IA legales debe integrar jerarquía normativa de Hans Kelsen para garantizar validez legal de inferencias. Sistema carente de conciencia jerárquica es inherentemente propenso a "alucinación de invalidez" al fundamentar respuestas en normas de rango inferior invalidadas por normas superiores (leyes por Constitución).

Mitigación:

  1. Bases de conocimiento estructuradas: etiquetado de documentos con metadatos que reflejen rango jerárquico
  2. Algoritmos de recuperación sensibles a jerarquía: priorización sistemática de fuentes de mayor autoridad
  3. Módulos de validación kelseniana: verificación obligatoria de que toda interpretación propuesta es coherente con normas de rango superior

5.3 Explicabilidad e Interpretabilidad (XAI)

Frente a algoritmos opacos, se prescribe Inteligencia Artificial Explicable (XAI) como requisito previo para tutela judicial efectiva. Desarrollo progresivo de madurez técnica:

  • Respuestas Fundamentadas: capacidad de anclar y citar cada afirmación en fuente verificable (trazabilidad básica)
  • Respuestas Argumentadas: externalización de pasos lógicos de inferencia, demostrando cadena de razonamiento coherente
  • Interpretación Razonada: nivel avanzado donde IA justifica por qué opta por interpretación específica frente a otras alternativas plausibles, ponderando matrices y ambigüedades

5.4 Verificación Post-Hoc: Módulos Automatizados de Chequeo Factual

Dada imposibilidad técnica de eliminar completamente alucinaciones en fase de generación, es preceptivo implementar mecanismos de verificación post-hoc como "última línea de defensa".

Fact-Checking Automatizado: comparación de afirmaciones generadas contra bases de conocimiento canónicas (jurisprudencia, doctrina oficial, registros públicos) con metadatos de derogación.

Validación Sintáctica y Lógica: uso de heurísticas determinísticas para verificar formato de citas y coherencia temporal de sentencias mencionadas.

Comunicación Transparente de Incertidumbre: los sistemas presentan puntuaciones de confianza calibradas y emplean "silencio estratégico" (abstención justificada) cuando información recuperada sea ambigua o insuficiente, evitando propensión al sesgo de automatización.

Citación a Nivel de Fragmento: vinculación inequívoca de cada conclusión al pasaje exacto de la fuente que la respalda, facilitando supervisión humana experta.


Capítulo 6: Gobernanza y Plan de Acción - Hacia un Despacho "Safe-by-Design"

6.1 Protocolos Internos de Control

Imperativa implementación de gobernanza de información efectiva fundada en responsabilidad proactiva o accountability.

Protocolos Internos de Control:

  • (i) Definición taxativa de herramientas tecnológicas autorizadas y sus finalidades específicas
  • (ii) Designación de responsables de supervisión con autoridad y competencia técnica
  • (iii) Trazabilidad mediante registro documental de cada decisión relevante asistida por IA

Registro debe incluir detalladamente: algoritmos empleados, datos de entrenamiento (cuando despacho actúe como proveedor), criterios de evaluación de resultados.

6.2 Principio de "Reserva de Humanidad": Mandato de Revisión Humana Universal

La supervisión humana constituye eje vertebrador de integración responsable de IA en abogacía, siendo salvaguarda indispensable para prevenir o minimizar riesgos a derechos fundamentales.

Se prescribe Mandato de Revisión Humana Universal: toda información o borrador generado por sistema de IA debe ser revisado, validado y, en su caso, corregido por profesional de la abogacía antes de su incorporación al servicio jurídico o presentación ante tribunales.

El principio de "Reserva de Humanidad" establece que toma de decisiones legales finales es actividad humana irreductible e insustituible: la tecnología es herramienta de apoyo, pero no puede reemplazar juicio profesional del letrado. Jurisprudencia constitucional prescribe que responsabilidad del letrado es absoluta e independiente de la herramienta, manteniendo obligación de revisar exhaustivamente todo contenido antes de envío procesal.

Queda prohibido delegaen la IA la parte esencial del trabajo intelectual o toma de decisiones jurídicas materiales.

6.3 Alfabetización y Capacitación Continua

La alfabetización en materia de IA ha dejado de ser recomendación técnica para convertirse en obligación legal (Art. 4 Reglamento UE 2024/1689).

Planes de Formación Continua y Actualizada permitirán al personal:

  • (i) Comprender funcionamiento básico y capacidades de sistemas empleados
  • (ii) Identificar riesgos sistémicos (alucinaciones, sesgos algorítmicos)
  • (iii) Interpretar correctamente resultados para evitar sesgo de automatización

La competencia tecnológica es exigencia ineludible para ejercicio profesional, orientada a promover cultura de aprendizaje que refuerce calidad del servicio jurídico.

6.4 Auditoría y Rendición de Cuentas

Documentación Técnica Exhaustiva: los despachos mantienen documentación completa de procesos y evaluaciones vinculadas al uso de IA.

Conservación de Conformidad: certificados de conformidad durante período de diez años a contar desde puesta en servicio del sistema.

Vigilancia Poscomercialización: implementación de sistema activo de recopilación y análisis de datos sobre funcionamiento real de herramientas para detectar riesgos, incidentes graves o fallos de precisión. Las auditorías deben ser dinámicas, evaluando divergencias entre resultados previstos y obtenidos, para adoptar medidas correctivas inmediatas, incluyendo supresión de información o desactivación del sistema si se vulneran estándares de seguridad o derechos de los interesados.


Conclusiones: La Abogacía como Garantía de la Tutela Judicial Efectiva

La integración de IA en despachos jurídicos no es opción sino imperativo profesional ineludible. Sin embargo, dicha integración debe reforzar, no debilitar, los pilares del Derecho: veracidad, responsabilidad, diligencia y protección de derechos fundamentales.

El IA Act proporciona el marco normativo; la arquitectura técnica fiable (RAG, XAI, verificación post-hoc) ofrece herramientas de mitigación; la gobernanza responsable garantiza que innovación no debilite, sino que refuerce la tutela judicial efectiva.

La abogacía, como garantía de tutela judicial efectiva, debe liderar la transformación digital asegurando que innovación no debilite, sino que refuerce los pilares del Derecho.


Referencias Bibliográficas

Agencia Española de Protección de Datos. (2020). Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial.

Agencia Española de Supervisión de Inteligencia Artificial. (2025). Código de Ética Institucional. Normas internas de integridad, ética y evaluación de riesgos.

Ayo Ferrández, C., Seijo Bar, Á., Garre Anguera de Sojo, I., & González Guillén, P. (2025). Responsabilidad civil e inteligencia artificial. Actualidad Jurídica Uría Menéndez, (67), 29-56.

Consejo General de la Abogacía Española & Ilustre Colegio de Abogados de Valencia. (2025). Libro Blanco sobre Inteligencia Artificial y Abogacía.

Dantart, A. (2025). Inteligencia artificial jurídica y el desafío de la veracidad: Análisis de alucinaciones, optimización de RAG y principios para una integración responsable [Informe técnico]. arXiv.

Ilustre Colegio de la Abogacía de Madrid. (2025). Guía ICAM de Buenas Prácticas para el uso de la Inteligencia Artificial (IA) en la Abogacía.

Parlamento Europeo y Consejo de la Unión Europea. (2024, 13 de junio). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial. Diario Oficial de la Unión Europea. http://data.europa.eu/eli/reg/2024/1689/oj