Firma Scarpa

Anteproyecto de Ley de IA en España: gobernanza sin gobernantes y los límites estructurales de la regulación nacional

I. Introducción: regular sin poder

La regulación de la inteligencia artificial se ha convertido en uno de los campos más sofisticados —y, al mismo tiempo, más problemáticos— del derecho contemporáneo. En este contexto, el anteproyecto de ley español pretende articular un marco nacional de gobernanza en un espacio normativo ya densamente ocupado por el Derecho de la Unión Europea.

La tesis de este trabajo es clara: el anteproyecto incurre en un déficit estructural de diseño institucional que compromete su eficacia. No se trata únicamente de una cuestión de técnica legislativa, sino de una limitación más profunda: la pretensión de construir un sistema de control sin dotarlo de un centro de gravedad institucional ni de capacidad material suficiente.

En otras palabras, una gobernanza sin gobernantes.


II. El marco europeo como límite estructural

Cualquier aproximación nacional a la regulación de la inteligencia artificial debe partir de un presupuesto normativo ineludible: la centralidad del Reglamento Europeo de Inteligencia Artificial (AI Act). Como reglamento, su aplicabilidad directa y su primacía configuran un marco cerrado en sus elementos esenciales.

Desde la perspectiva del principio de primacía del Derecho de la Unión, el margen del legislador nacional queda funcionalmente restringido a ámbitos residuales:

  1. Designación de autoridades competentes
  2. Articulación de mecanismos de supervisión
  3. Desarrollo organizativo interno
  4. Régimen sancionador en los márgenes permitidos

Este espacio no es solo limitado, sino también altamente condicionado. La intervención estatal debe respetar no solo el contenido del reglamento, sino también su lógica interna: un sistema basado en el riesgo, la armonización y la evitación de fragmentación del mercado interior.

El anteproyecto español, sin embargo, parece no asumir plenamente estas restricciones. El resultado es una tensión latente entre el impulso regulatorio nacional y las exigencias de coherencia del ordenamiento europeo.


III. Arquitectura institucional y fragmentación competencial

El núcleo problemático del anteproyecto reside en su modelo de gobernanza. Lejos de establecer una autoridad claramente definida con competencias integradas, el texto apunta hacia un esquema de distribución funcional entre múltiples actores administrativos.

Este diseño plantea tres problemas estructurales:

1. Indeterminación competencial

La ausencia de delimitación precisa de funciones genera zonas de solapamiento y potencial conflicto. En sistemas regulatorios complejos, la claridad competencial no es un elemento accesorio, sino una condición de eficacia.

2. Dilución de la responsabilidad

Cuando múltiples autoridades comparten funciones sin una jerarquía clara, la responsabilidad se fragmenta. Este fenómeno reduce la capacidad del sistema para reaccionar ante incumplimientos y debilita los incentivos para la actuación proactiva.

3. Costes de coordinación

La gobernanza multinivel exige mecanismos sofisticados de coordinación. Sin ellos, el sistema tiende a la ineficiencia, la duplicidad de actuaciones y la producción de criterios divergentes.

El resultado es una arquitectura institucional que, lejos de reforzar la supervisión, puede terminar comprometiéndola.


IV. La ilusión de la supervisión: capacidad material vs. diseño formal

Uno de los errores más recurrentes en la regulación tecnológica es confundir la existencia formal de estructuras con su capacidad real de actuación. El anteproyecto parece incurrir en esta lógica.

La supervisión de sistemas de inteligencia artificial plantea exigencias específicas:

  • Conocimiento técnico especializado
  • Acceso a sistemas complejos y, en ocasiones, opacos
  • Capacidad de auditoría algorítmica
  • Recursos humanos altamente cualificados

Estas exigencias no pueden satisfacerse mediante la mera creación normativa de órganos o la asignación genérica de competencias.

Sin capacidad material, la supervisión se convierte en derecho simbólico: un conjunto de normas que proyectan control sin garantizarlo efectivamente.

Este riesgo es particularmente relevante en el ámbito de la inteligencia artificial, donde la asimetría entre regulador y regulado puede ser especialmente acusada.


V. Encaje normativo: entre la complementariedad y la interferencia

El valor de una norma nacional en un contexto de armonización europea depende de su capacidad para complementar, y no distorsionar, el marco existente.

El anteproyecto español plantea dudas razonables en este punto. La introducción de capas adicionales de regulación puede derivar en:

  • Duplicidad de obligaciones, especialmente en materia de evaluación y documentación
  • Inseguridad interpretativa, al coexistir distintos niveles normativos
  • Incremento de costes de cumplimiento, sin mejora proporcional de la protección

Desde la perspectiva del mercado interior, estos efectos no son neutros. La fragmentación regulatoria es precisamente uno de los riesgos que el AI Act pretende evitar.

Una regulación nacional que reintroduzca esa fragmentación, aunque sea de forma indirecta, entra en tensión con la lógica del sistema europeo.


VI. Impacto económico: asimetrías y barreras de entrada

Las deficiencias estructurales del anteproyecto no se limitan al plano jurídico. Tienen implicaciones económicas directas.

En particular, la complejidad normativa y la incertidumbre asociada generan un efecto asimétrico:

  • Grandes empresas: capacidad para internalizar costes regulatorios
  • Startups y pymes: mayor exposición a la incertidumbre y a los costes de cumplimiento

Este fenómeno puede traducirse en barreras de entrada indirectas, reduciendo la competencia y favoreciendo la concentración del mercado.

Paradójicamente, una regulación diseñada para ordenar el ecosistema de la inteligencia artificial puede terminar distorsionándolo.


VII. Hacia una teoría de la ineficacia regulatoria en IA

El anteproyecto permite identificar un patrón más amplio en la regulación contemporánea de tecnologías emergentes: la tendencia a priorizar la producción normativa sobre la capacidad institucional.

Este patrón puede describirse a través de tres elementos:

  1. Hipertrofia normativa: proliferación de reglas sin un correlato en medios de aplicación
  2. Fragmentación institucional: multiplicación de actores sin coordinación efectiva
  3. Simbolismo regulatorio: generación de una apariencia de control desvinculada de la realidad operativa

En conjunto, estos elementos configuran un modelo de regulación estructuralmente ineficaz.


VIII. Conclusión: los límites de regular sin gobernar

El anteproyecto de ley de inteligencia artificial en España no fracasa por exceso de ambición, sino por insuficiencia de realismo institucional.

Regular la inteligencia artificial no es únicamente definir obligaciones. Es construir sistemas capaces de hacerlas cumplir en entornos de alta complejidad técnica y rápida evolución.

Sin una autoridad claramente definida, sin recursos adecuados y sin una integración coherente con el Derecho de la Unión, el riesgo no es solo la ineficacia normativa. Es la generación de una falsa sensación de control.

Y en el ámbito de la inteligencia artificial, esa falsa seguridad puede ser más peligrosa que la ausencia de regulación.

España no se enfrenta únicamente al reto de regular la inteligencia artificial. Se enfrenta al reto —mucho más exigente— de demostrar que puede gobernarla.


Preguntas frecuentes sobre el anteproyecto de ley de IA en España

¿Puede España regular la inteligencia artificial si ya existe el AI Act?

Sí, pero dentro de límites estrictos. El Reglamento Europeo tiene primacía y aplicabilidad directa, lo que reduce el margen nacional a aspectos organizativos y de supervisión.

¿Cuál es el principal problema del anteproyecto?

La ausencia de una arquitectura institucional clara y dotada de capacidad material suficiente para garantizar la supervisión efectiva.

¿Genera inseguridad jurídica?

Potencialmente sí, especialmente si introduce obligaciones adicionales o interpretaciones divergentes respecto al marco europeo.

¿A quién afecta más?

A empresas tecnológicas, startups y operadores que desarrollan o utilizan sistemas de inteligencia artificial en España, así como a las administraciones encargadas de su supervisión.