Recursos · Diccionario Jurídico
Glosario de IA Legal
Definiciones técnicas y jurídicas para comprender el marco regulatorio y doctrinal de la inteligencia artificial en Europa.
DERECHO ARTIFICIAL
GLOSARIO DE TÉRMINOS IA SECTOR LEGAL
Enfoque UE – España | Actualizado: febrero 2026
Autor: Ricardo Scarpa | Derecho Artificial
Balanza con cerebro humano y cerebro artificial
A
- Acta de Inteligencia Artificial (AI Act)
- Reglamento (UE) 2024/1689 que establece el primer marco jurídico integral para la IA en la Unión Europea. Clasifica los sistemas según niveles de riesgo (inaceptable, alto, limitado, mínimo), prohíbe prácticas inaceptables e impone obligaciones de transparencia, supervisión y evaluación de conformidad. Es el eje normativo central del Derecho europeo de la IA.
Referencia oficial: Reglamento (UE) 2024/1689
Notas prácticas 2026: Prohibiciones vigentes desde 02.02.2025; obligaciones para modelos de propósito general desde 02.08.2025; obligaciones principales para sistemas de alto riesgo desde 02.08.2026. - Acto administrativo automatizado / Actuación administrativa automatizada
- Decisión dictada por una Administración Pública mediante sistema automatizado sin intervención humana directa en cada caso concreto.
En España: Regulado explícitamente en el art. 41 de la Ley 40/2015. Requiere identificación del órgano responsable, determinación del sistema y garantías de control humano y revisión.
Punto crítico: Compatibilidad con el derecho a la tutela judicial efectiva (art. 24 CE).
Referencia oficial: Ley 40/2015, art. 41. - Algoritmo
- Conjunto de instrucciones lógicas o matemáticas para procesar datos y producir resultados. En el ámbito jurídico, relevante como fuente de decisiones con efectos legales, especialmente cuando es opaco o automatizado.
- Algoritmo decisorio público
- Algoritmo utilizado por la Administración para adoptar decisiones con efectos sobre la ciudadanía. Existe debate doctrinal sobre si debe considerarse acto técnico o "norma encubierta" sujeta a publicidad normativa y control jurisdiccional pleno.
- Auditoría algorítmica
- Procedimiento técnico-jurídico para evaluar el funcionamiento, sesgos, riesgos y cumplimiento de un sistema de IA. Exigida para sistemas de alto riesgo por el AI Act. En España, vinculada al buen gobierno, control interno y responsabilidad patrimonial.
Referencia oficial: Reglamento (UE) 2024/1689, arts. 19 y ss. - Automatización de decisiones
- Proceso donde una decisión se adopta sin intervención humana significativa. Vinculada al art. 22 del RGPD y a los principios de supervisión humana del AI Act.
Referencia oficial: RGPD, art. 22; Reglamento (UE) 2024/1689, art. 14. - AESIA (Agencia Española de Supervisión de la Inteligencia Artificial)
- Organismo público español encargado de supervisar el desarrollo y uso de la IA, garantizar su aplicación ética, segura e inclusiva, y coordinar la aplicación del AI Act en España. Sede en A Coruña; funciones incluyen supervisión normativa, atención a la sociedad, formación y colaboración institucional.
Referencia oficial: Sitio oficial AESIA; Reglamento (UE) 2024/1689, art. 70.
Notas 2026: Plena operativa con guías publicadas y liderazgo en entornos sandbox.
B
- Bias (sesgo algorítmico)
- Desviación sistemática en los resultados de la IA que genera efectos discriminatorios. Se conecta directamente con el derecho antidiscriminatorio, la igualdad ante la ley (art. 14 CE) y la protección de derechos fundamentales (art. 21 Carta de Derechos Fundamentales UE).
Referencia oficial: Reglamento (UE) 2024/1689, art. 10; RGPD, art. 5. - Buen gobierno algorítmico
- Aplicación de los principios de legalidad, eficacia, transparencia y objetividad al uso de IA por poderes públicos. Tiene su base constitucional en el art. 103 CE (objetividad y sometimiento pleno a la ley).
C
- Carta de Derechos Digitales (España)
- Documento de 2021 que reconoce derechos en el entorno digital. Aunque no tiene rango de ley, posee valor interpretativo e influye en políticas públicas. Incluye el derecho a la transparencia algorítmica y a no ser objeto de decisiones exclusivamente automatizadas sin garantías.
Referencia oficial: Texto oficial. - Carga de la prueba algorítmica
- Problema procesal sobre quién debe probar el funcionamiento del sistema o la ausencia de sesgos, fundamental en litigios por discriminación.
- Constitucionalismo digital
- Corriente doctrinal que defiende la reinterpretación de principios clásicos (dignidad, separación de poderes) para gobernar tecnologías como la IA. Considera la IA como un problema constitucional y no meramente regulatorio.
- Control jurisdiccional de la IA
- Capacidad de los tribunales (civil, social o contencioso-administrativo) para revisar decisiones basadas en IA. Se enfrenta a la dificultad de la opacidad técnica y la asimetría informativa.
- Cumplimiento normativo (compliance algorítmico)
- Mecanismos técnicos y organizativos para asegurar que la IA cumple con el AI Act, RGPD y la Carta de Derechos Fundamentales de la UE. Incluye auditorías y evaluación de riesgos.
D
- Datos de entrenamiento
- Conjunto de datos usados para entrenar modelos de IA. Son críticos jurídicamente por la protección de datos personales, la propiedad intelectual y los sesgos estructurales que puedan contener.
- Debido proceso algorítmico
- Extensión de las garantías procedimentales a las decisiones automatizadas, incluyendo el derecho a la explicación, impugnación y garantías frente a sistemas opacos.
- Derecho a la explicación
- Derecho del afectado a recibir información significativa sobre la lógica, significado y consecuencias de un sistema automatizado.
Fuentes: RGPD, art. 22. En España vinculado a los arts. 24 CE (tutela efectiva) y 105 CE (acceso a archivos). - Discrecionalidad técnica algorítmica
- Uso de IA para apoyar decisiones discrecionales administrativas, planteando si reduce la motivación exigible o sustituye la voluntad humana.
E
- Evaluación de impacto algorítmico / en derechos fundamentales (FRIA)
- Análisis previo para identificar efectos sobre derechos fundamentales en sistemas de alto riesgo. Tipos: DPIA (datos personales) y FRIA (derechos fundamentales). En España asociada al principio de precaución.
Referencia: Reglamento (UE) 2024/1689, Capítulo III (sistemas de alto riesgo). - Explicabilidad / Explainability
- Capacidad de un sistema para ofrecer una explicación comprensible, relacionada con la transparencia y legitimidad.
- Explicabilidad jurídica
- Capacidad de ofrecer una explicación que permita impugnar, defender y controlar judicialmente una decisión, más allá de la explicación técnica del ingeniero.
F
- Fairness (equidad algorítmica)
- Principio que exige que la IA trate a las personas de forma justa y no discriminatoria. Se basa en la Carta de Derechos Fundamentales de la UE (art. 21) y el art. 14 CE.
Referencia oficial: Carta de Derechos Fundamentales de la UE, art. 21; Reglamento (UE) 2024/1689, art. 10. - Fallo algorítmico
- Resultado ilícito o incorrecto de la IA que genera responsabilidad civil objetiva o responsabilidad patrimonial de la Administración (art. 106.2 CE).
G
- Gobernanza de la IA
- Normas, instituciones (autoridades de supervisión) y soft law que regulan el ciclo de vida de la IA.
- Gobernanza multinivel de la IA
- Coordinación entre la UE, Estados miembros y autoridades locales para aplicar regulaciones como el AI Act. Crea la AI Office para este fin.
Referencia oficial: Reglamento (UE) 2024/1689, art. 64 (AI Office).
H
- High-Risk AI System (Sistema de IA de alto riesgo)
- Sistemas que afectan ámbitos como justicia, empleo, educación o seguridad y están sujetos a obligaciones reforzadas (evaluación de conformidad, registro, etc.).
Referencia oficial: Reglamento (UE) 2024/1689, Anexo III. - Human-in-the-loop / Supervisión humana
- Capacidad real de control y corrección de un sistema por parte de un humano, no una intervención meramente simbólica.
Referencia oficial: Reglamento (UE) 2024/1689, art. 14.
I
- IA confiable (Trustworthy AI)
- Concepto de la UE que exige una IA legal, ética y robusta. Se fundamenta en el respeto a los derechos fundamentales y la seguridad.
Referencia oficial: Reglamento (UE) 2024/1689, art. 1. - IA generativa
- Sistemas que producen contenidos (texto, imágenes, etc.), planteando retos en propiedad intelectual, responsabilidad y desinformación.
- IA en la Administración Pública
- Uso de IA para gestión, ayudas e inspección; el límite es que no puede sustituir la responsabilidad del órgano administrativo.
- Impacto en derechos fundamentales
- Afectación de la IA a la igualdad, intimidad, protección de datos y tutela judicial efectiva.
L
- Legal Tech
- Aplicación de tecnología al Derecho (análisis de jurisprudencia, redacción automática, etc.). No toda Legal Tech es IA de alto riesgo.
- Legalidad algorítmica
- Principio de que ninguna decisión automatizada puede carecer de base legal y garantías procesales.
Referencia: Constitución Española, arts. 9.3, 14 y 24. - Legitimidad democrática de la IA
- Necesidad de control parlamentario y transparencia en el uso público de la IA.
M
- Modelo de lenguaje (LLM)
- Sistemas entrenados con grandes volúmenes de datos que presentan riesgos de "alucinaciones" y falta de trazabilidad.
- Motivación del acto algorítmico
- Obligación de justificar decisiones apoyadas en IA según la Ley 39/2015.
Referencia oficial: Ley 39/2015.
O
- Opacidad algorítmica / estructural
- Dificultad para comprender cómo la IA llega a un resultado ("caja negra"), lo que afecta la transparencia, la prueba y el control judicial.
P
- Prácticas prohibidas
- Prácticas de IA de riesgo inaceptable vedadas por incompatibles con valores UE (ej. social scoring, manipulación subliminal). Vigentes desde 02.02.2025.
Referencia oficial: Reglamento (UE) 2024/1689, art. 5. - Principio de proporcionalidad
- Exige que el uso de IA sea necesario y equilibrado respecto a los fines perseguidos.
- Principio de precaución tecnológica
- Aplicación de la precaución ante riesgos inciertos en IA predictiva o policial.
- Proveedor vs Deployer / Usuario
- Proveedor: desarrolla y pone en mercado el sistema. Deployer/Usuario: lo utiliza bajo su responsabilidad. Obligaciones diferenciadas.
Referencia oficial: Reglamento (UE) 2024/1689, art. 3. - Sandbox regulatorio
- Entorno controlado para probar IA innovadora con exenciones temporales y supervisión. En España impulsado por AESIA.
Referencia oficial: Reglamento (UE) 2024/1689, art. 57. - Sistema de IA
- Sistema basado en máquina que opera con autonomía, genera outputs (predicciones, recomendaciones, decisiones) y puede adaptarse tras despliegue.
Referencia oficial: Reglamento (UE) 2024/1689, art. 3(1).
R
- Reserva de humanidad
- Doctrina que establece que decisiones sensibles (sanciones, justicia penal) deben ser tomadas exclusivamente por personas. Vinculada al RGPD y al AI Act.
- Responsabilidad algorítmica
- Debate sobre quién responde por los daños causados por la IA (modelos objetivos o compartidos).
- Responsabilidad patrimonial por IA
- Régimen de responsabilidad objetiva de la Administración por daños causados por sistemas automatizados (art. 106.2 CE).
S
- Soberanía digital
- Capacidad del Estado y la UE para controlar tecnologías críticas y desarrollar IA pública internamente.
- Soft law
- Instrumentos no vinculantes (códigos de conducta, guías) esenciales en la gobernanza de la IA.
T
- Transparencia algorítmica
- Obligación de informar sobre el uso y finalidad de la IA para permitir el control y la rendición de cuentas.
- Tutela judicial efectiva frente a la IA
- Derecho (art. 24 CE) a que un juez pueda revisar y anular una decisión automatizada ilegal con las mismas garantías que una decisión humana.
V
- Valores de la Unión Europea
- Marco axiológico (art. 2 TUE) que guía la regulación: dignidad, libertad, democracia e igualdad.
- Vigilancia algorítmica
- Uso de IA para monitorizar o predecir comportamientos, siendo un ámbito de alto riesgo para los derechos fundamentales.
X
- XAI (Explainable Artificial Intelligence)
- Campo técnico orientado a desarrollar sistemas explicables para cumplir con obligaciones legales de transparencia y control.
