Anteproyecto de Ley de IA en España: gobernanza sin gobernantes y los límites estructurales de la regulación nacional
I. Introducción: regular sin poder
La regulación de la inteligencia artificial se ha convertido en uno de los campos más sofisticados —y, al mismo tiempo, más problemáticos— del derecho contemporáneo. En este contexto, el anteproyecto de ley español pretende articular un marco nacional de gobernanza en un espacio normativo ya densamente ocupado por el Derecho de la Unión Europea.
La tesis de este trabajo es clara: el anteproyecto incurre en un déficit estructural de diseño institucional que compromete su eficacia. No se trata únicamente de una cuestión de técnica legislativa, sino de una limitación más profunda: la pretensión de construir un sistema de control sin dotarlo de un centro de gravedad institucional ni de capacidad material suficiente.
En otras palabras, una gobernanza sin gobernantes.
II. El marco europeo como límite estructural
Cualquier aproximación nacional a la regulación de la inteligencia artificial debe partir de un presupuesto normativo ineludible: la centralidad del Reglamento Europeo de Inteligencia Artificial (AI Act). Como reglamento, su aplicabilidad directa y su primacía configuran un marco cerrado en sus elementos esenciales.
Desde la perspectiva del principio de primacía del Derecho de la Unión, el margen del legislador nacional queda funcionalmente restringido a ámbitos residuales:
- Designación de autoridades competentes
- Articulación de mecanismos de supervisión
- Desarrollo organizativo interno
- Régimen sancionador en los márgenes permitidos
Este espacio no es solo limitado, sino también altamente condicionado. La intervención estatal debe respetar no solo el contenido del reglamento, sino también su lógica interna: un sistema basado en el riesgo, la armonización y la evitación de fragmentación del mercado interior.
El anteproyecto español, sin embargo, parece no asumir plenamente estas restricciones. El resultado es una tensión latente entre el impulso regulatorio nacional y las exigencias de coherencia del ordenamiento europeo.
III. Arquitectura institucional y fragmentación competencial
El núcleo problemático del anteproyecto reside en su modelo de gobernanza. Lejos de establecer una autoridad claramente definida con competencias integradas, el texto apunta hacia un esquema de distribución funcional entre múltiples actores administrativos.
Este diseño plantea tres problemas estructurales:
1. Indeterminación competencial
La ausencia de delimitación precisa de funciones genera zonas de solapamiento y potencial conflicto. En sistemas regulatorios complejos, la claridad competencial no es un elemento accesorio, sino una condición de eficacia.
2. Dilución de la responsabilidad
Cuando múltiples autoridades comparten funciones sin una jerarquía clara, la responsabilidad se fragmenta. Este fenómeno reduce la capacidad del sistema para reaccionar ante incumplimientos y debilita los incentivos para la actuación proactiva.
3. Costes de coordinación
La gobernanza multinivel exige mecanismos sofisticados de coordinación. Sin ellos, el sistema tiende a la ineficiencia, la duplicidad de actuaciones y la producción de criterios divergentes.
El resultado es una arquitectura institucional que, lejos de reforzar la supervisión, puede terminar comprometiéndola.
IV. La ilusión de la supervisión: capacidad material vs. diseño formal
Uno de los errores más recurrentes en la regulación tecnológica es confundir la existencia formal de estructuras con su capacidad real de actuación. El anteproyecto parece incurrir en esta lógica.
La supervisión de sistemas de inteligencia artificial plantea exigencias específicas:
- Conocimiento técnico especializado
- Acceso a sistemas complejos y, en ocasiones, opacos
- Capacidad de auditoría algorítmica
- Recursos humanos altamente cualificados
Estas exigencias no pueden satisfacerse mediante la mera creación normativa de órganos o la asignación genérica de competencias.
Sin capacidad material, la supervisión se convierte en derecho simbólico: un conjunto de normas que proyectan control sin garantizarlo efectivamente.
Este riesgo es particularmente relevante en el ámbito de la inteligencia artificial, donde la asimetría entre regulador y regulado puede ser especialmente acusada.
V. Encaje normativo: entre la complementariedad y la interferencia
El valor de una norma nacional en un contexto de armonización europea depende de su capacidad para complementar, y no distorsionar, el marco existente.
El anteproyecto español plantea dudas razonables en este punto. La introducción de capas adicionales de regulación puede derivar en:
- Duplicidad de obligaciones, especialmente en materia de evaluación y documentación
- Inseguridad interpretativa, al coexistir distintos niveles normativos
- Incremento de costes de cumplimiento, sin mejora proporcional de la protección
Desde la perspectiva del mercado interior, estos efectos no son neutros. La fragmentación regulatoria es precisamente uno de los riesgos que el AI Act pretende evitar.
Una regulación nacional que reintroduzca esa fragmentación, aunque sea de forma indirecta, entra en tensión con la lógica del sistema europeo.
VI. Impacto económico: asimetrías y barreras de entrada
Las deficiencias estructurales del anteproyecto no se limitan al plano jurídico. Tienen implicaciones económicas directas.
En particular, la complejidad normativa y la incertidumbre asociada generan un efecto asimétrico:
- Grandes empresas: capacidad para internalizar costes regulatorios
- Startups y pymes: mayor exposición a la incertidumbre y a los costes de cumplimiento
Este fenómeno puede traducirse en barreras de entrada indirectas, reduciendo la competencia y favoreciendo la concentración del mercado.
Paradójicamente, una regulación diseñada para ordenar el ecosistema de la inteligencia artificial puede terminar distorsionándolo.
VII. Hacia una teoría de la ineficacia regulatoria en IA
El anteproyecto permite identificar un patrón más amplio en la regulación contemporánea de tecnologías emergentes: la tendencia a priorizar la producción normativa sobre la capacidad institucional.
Este patrón puede describirse a través de tres elementos:
- Hipertrofia normativa: proliferación de reglas sin un correlato en medios de aplicación
- Fragmentación institucional: multiplicación de actores sin coordinación efectiva
- Simbolismo regulatorio: generación de una apariencia de control desvinculada de la realidad operativa
En conjunto, estos elementos configuran un modelo de regulación estructuralmente ineficaz.
VIII. Conclusión: los límites de regular sin gobernar
El anteproyecto de ley de inteligencia artificial en España no fracasa por exceso de ambición, sino por insuficiencia de realismo institucional.
Regular la inteligencia artificial no es únicamente definir obligaciones. Es construir sistemas capaces de hacerlas cumplir en entornos de alta complejidad técnica y rápida evolución.
Sin una autoridad claramente definida, sin recursos adecuados y sin una integración coherente con el Derecho de la Unión, el riesgo no es solo la ineficacia normativa. Es la generación de una falsa sensación de control.
Y en el ámbito de la inteligencia artificial, esa falsa seguridad puede ser más peligrosa que la ausencia de regulación.
España no se enfrenta únicamente al reto de regular la inteligencia artificial. Se enfrenta al reto —mucho más exigente— de demostrar que puede gobernarla.
Preguntas frecuentes sobre el anteproyecto de ley de IA en España
¿Puede España regular la inteligencia artificial si ya existe el AI Act?
Sí, pero dentro de límites estrictos. El Reglamento Europeo tiene primacía y aplicabilidad directa, lo que reduce el margen nacional a aspectos organizativos y de supervisión.
¿Cuál es el principal problema del anteproyecto?
La ausencia de una arquitectura institucional clara y dotada de capacidad material suficiente para garantizar la supervisión efectiva.
¿Genera inseguridad jurídica?
Potencialmente sí, especialmente si introduce obligaciones adicionales o interpretaciones divergentes respecto al marco europeo.
¿A quién afecta más?
A empresas tecnológicas, startups y operadores que desarrollan o utilizan sistemas de inteligencia artificial en España, así como a las administraciones encargadas de su supervisión.
Artículos relacionados
Algoritmos de la Infamia: Análisis Jurídico del Fraude Masivo de Streaming Asistido por IA
Análisis jurídico transversal del caso Michael Smith: el primer precedente penal federal estadounidense sobre fraude de streaming masivo asistido por inteligencia artificial, con implicaciones críticas para los modelos de distribución de regalías y la arquitectura de las plataformas de streaming.
La Gran Disociación: Cómo la IA agéntica está canibalizando el modelo de negocio legal en 2026
El análisis exhaustivo de cómo los agentes de IA autónomos están fracturando el modelo de negocio tradicional de la abogacía: desde la paradoja de la eficiencia vs. facturación por horas hasta el desplazamiento de poder hacia departamentos internos.
Justicia Algorítmica en México: La IA que Eligió Jueces en 2025 y los Riesgos que Nadie Vio Venir
La elección judicial de 2025 en México evidenció cómo la digitalización total puede excluir a millones. Análisis crítico de la implementación de IA en la judicatura y su impacto en derechos humanos.
El AI Act ya gobierna América Latina: por qué el 7% de tu facturación global depende de Bruselas
Análisis del impacto extraterritorial del Reglamento (UE) 2024/1689 en Latinoamérica: costes de cumplimiento, representante autorizado y el efecto Bruselas que ya moldea las leyes de Brasil y Chile.