Normativa

Análisis Jurídico de la Ley Italiana 132/2025 sobre Inteligencia Artificial

Documento Original

Accede al análisis completo en formato PDF con todas las referencias bibliográficas y notas jurídicas.

LEY
📅 2 de marzo de 2026📝 Ricardo Scarpa🏷️ Legislación Digital
Ley italiana IAAI Actregulación inteligencia artificialgobernanza IAderecho digital

Análisis Jurídico de la Ley Italiana 132/2025 sobre Inteligencia Artificial

Introducción

La Ley 23 de septiembre 2025, n. 132 representa un hito fundamental en la regulación de la inteligencia artificial a nivel nacional italiano. Esta norma establece un marco normativo comprehensivo que armoniza el ordenamiento interno con el Reglamento (UE) 2024/1689 (AI Act). El presente análisis jurídico examina los fundamentos ontológicos, la arquitectura institucional, los estándares de transparencia y protección de derechos fundamentales, así como la regulación sectorial y el régimen de responsabilidad establecido por la norma.


CAPÍTULO I: FUNDAMENTOS ONTOLÓGICOS Y EL MARCO DE ARMONIZACIÓN

1.1. Definiciones Legales y el Puente Técnico-Jurídico

La Ley n. 132/2025 se constituye como la pieza angular del sistema normativo interno, estableciendo una relación de subordinación y complementariedad respecto al Reglamento (UE) 2024/1689 (AI Act). El Artículo 2, apartado 1, actúa como un puente técnico-jurídico al delegar la conceptualización de los sistemas de IA y los modelos de IA directamente a las definiciones contenidas en el artículo 3, puntos 1) y 63) del Reglamento europeo, con el fin de salvaguardar la seguridad jurídica en un entorno de innovación acelerada.

Esta técnica de reenvío dinámico asegura que cualquier actualización técnica en el marco unionista se integre automáticamente en el ordenamiento italiano, evitando la obsolescencia prematura de la norma ante el progreso tecnológico. No obstante, la doctrina advierte que esta dependencia estructural obliga a los operadores a realizar una lectura estratificada que distingue entre la arquitectura del sistema y la funcionalidad del modelo, especialmente en sistemas de propósito general que pueden integrarse en diversas aplicaciones.

1.2. La Naturaleza del Dato y Riesgos de Fragmentación

A diferencia de la remisión técnica anterior, el legislador italiano ha optado por introducir una definición autónoma de dato en el Artículo 2, comma 1, letra b), entendiéndolo como cualquier representación digital de actos, hechos o informaciones. Esta construcción de carácter omnicomprensivo genera una tensión normativa significativa frente a la arquitectura del AI Act, la cual evita definiciones genéricas en favor de categorías altamente especializadas, tales como datos de entrenamiento, validación y prueba.

La introducción de una noción nacional divergente podría derivar en algoritmos opacos si los criterios de representatividad y exactitud no se alinean con las métricas de calidad unionales. La gobernanza de datos debe asegurar que la trazabilidad de los conjuntos de datos de entrenamiento respete el principio de accountability, mitigando sesgos estructurales antes de la puesta en servicio del sistema.

1.3. El Principio de Antropocentrismo y Soberanía Tecnológica

El Artículo 1 de la Ley n. 132/2025 establece como fin primordial la promoción de una IA en una dimensión antropocéntrica, situando la autodeterminación humana como límite infranqueable al desarrollo computacional. Este principio se materializa en el Artículo 3 como una Grundnorm que exige que el uso de sistemas de IA respete los derechos fundamentales y las libertades consagradas en la Constitución y la Carta de los Derechos Fundamentales de la UE.

La ley vincula la competitividad nacional y la soberanía tecnológica a un desarrollo ético que no se limite a la eficiencia de mercado, sino que garantice la transparencia y la supervisión humana en cada fase del ciclo de vida del sistema. Esta visión busca transformar los principios metagiurídicos y éticos en parámetros de legalidad técnica, exigiendo que los procesos sean verificables y adecuados a los niveles de riesgo detectados.


CAPÍTULO II: ARQUITECTURA DE GOBERNANZA Y ESTRATEGIA NACIONAL

2.1. Autoridades Nacionales para la IA: El Binomio AgID y ACN

El marco institucional establecido por la Ley n. 132/2025 para la gestión de la inteligencia artificial en Italia se articula fundamentalmente a través del Artículo 20, el cual designa a la Agencia para la Italia Digital (AgID) y a la Agencia para la Ciberseguridad Nacional (ACN) como las Autoridades Nacionales para la IA. Este binomio institucional distribuye las competencias de supervisión técnica y operativa: la AgID asume las funciones de organismo notificador, encargándose de la evaluación y acreditación de los organismos de control de conformidad, mientras que la ACN es investida con las potestades de vigilancia del mercado y ciberseguridad.

No obstante, esta estructura de gobernanza centralizada ha suscitado debates doctrinales respecto a su plena autonomía frente al Ejecutivo, dado que la normativa europea (AI Act) exige una independencia funcional rigurosa para evitar la "captura regulatoria" y presiones políticas contingentes. Asimismo, la ley integra en este ecosistema a autoridades sectoriales preexistentes, como el Banco de Italia, la CONSOB y el IVASS, para la supervisión de sistemas de IA en ámbitos financieros y de seguros, asegurando que la vigilancia se ajuste a los niveles de riesgo específicos de cada sector.

2.2. El Comité de Coordinación Interministerial y la Gestión Estratégica

La gobernanza nacional se complementa con una dimensión de coordinación política de alto nivel radicada en la Presidencia del Consejo de Ministros. Según lo dispuesto en el Artículo 19, comma 6, se instituye el Comité de Coordinación Interministerial, presidido por el Presidente del Consejo o la Autoridad delegada para la innovación tecnológica. Este órgano, de carácter coral y multidisciplinar, integra a los titulares de carteras estratégicas como Economía, Empresa, Universidad, Salud y Justicia, entre otros.

Su función primordial es el ejercicio de una dirección estratégica que trascienda la mera gestión técnica, orientando la implementación de la IA hacia el interés público y el bien común. Este moto centrípeto hacia la Presidencia busca armonizar las políticas sectoriales y asegurar que el desarrollo algorítmico no se produzca en compartimentos estancos, sino bajo una visión unitaria que garantice la coherencia del sistema y la protección de los derechos fundamentales.

2.3. La Estrategia Nacional para la IA (2024-2026): La "Tercera Vía" Italiana

El Artículo 19, apartado 1, mandata la elaboración y actualización bienal de la Estrategia Nacional para la Inteligencia Artificial (2024-2026), la cual se configura como la hoja de ruta para la soberanía tecnológica y el fomento de la innovación. Esta estrategia se posiciona doctrinalmente como una "tercera vía" regulatoria y económica, que busca distanciarse tanto del modelo de liberalismo extremo estadounidense, a menudo criticado por su opacidad, como de la vigilancia centralizada característica del modelo chino.

El enfoque italiano, alineado con la perspectiva antropocéntrica de la Unión Europea, prioriza el fomento de la investigación colaborativa entre empresas, organismos públicos y la comunidad científica, especialmente mediante la creación de espacios de experimentación o sandboxes. El objetivo es promover un mercado digital equitativo y competitivo que reduzca las asimetrías informativas y garantice que los algoritmos opacos no erosionen el debate democrático ni la autonomía de la voluntad de los ciudadanos.


CAPÍTULO III: TRANSPARENCIA, DATOS Y PROTECCIÓN DE LA PERSONA

3.1. Transparencia y Lenguaje: El Deber de Información Cualificada

El régimen jurídico de la transparencia en el uso de sistemas de inteligencia artificial se articula sobre la obligación imperativa de comunicación hacia el destinatario final, conforme a lo establecido en el Artículo 4 de la Ley n. 132/2025. Esta disposición exige que toda información relativa al tratamiento de datos mediante IA sea proporcionada utilizando un lenguaje claro, sencillo y exhaustivo, con el objetivo de garantizar la conoscibilità efectiva de los riesgos y permitir al usuario el ejercicio del derecho de oposición.

Este marco nacional se integra con el Artículo 50 del Reglamento (UE) 2024/1689 (AI Act), el cual impone a los proveedores el deber de diseñar los sistemas para que las personas físicas sean informadas de que están interactuando con una IA, salvo en escenarios de seguridad pública o cuando la naturaleza del servicio lo haga evidente. La doctrina advierte que esta transparencia no debe ser meramente formalista o tecnocrática, restringida a expertos, sino que debe asegurar la inteligibilidad sustancial del proceso decisorio para salvaguardar el derecho a la tutela jurisdiccional efectiva.

3.2. Gobernanza de Datos y Calidad: Estándares para Sistemas de Alto Riesgo

La integridad del desarrollo algorítmico se supedita, según el Artículo 3, apartado 2, de la normativa italiana, a la garantía y vigilancia de la corrección, fiabilidad y calidad de los datos y procesos empleados. Este requisito se entronca directamente con el Artículo 10 del AI Act, que regula la gobernanza de datos para sistemas clasificados en niveles de riesgo elevado.

Los proveedores tienen la obligación de utilizar conjuntos de datos de entrenamiento, validación y prueba que sean pertinentes, representativos y, en la medida de lo técnicamente posible, libres de errores. La gobernanza debe incluir la identificación previa y la mitigación de sesgos (bias) estructurales que puedan derivar en discriminaciones algorítmicas, especialmente cuando se tratan categorías especiales de datos personales.

3.3. Protección de Colectivos Vulnerables: Discapacidad y Minoridad

El Artículo 7 de la Ley n. 132/2025 establece una garantía reforzada para las personas con discapacidad, exigiendo el pleno acceso a los sistemas de IA y sus funcionalidades en condiciones de igualdad, siguiendo los parámetros de la Convención de las Naciones Unidas de 2006. El legislador prohíbe explícitamente cualquier forma de discriminación o perjuicio derivado de barreras tecnológicas, promoviendo la IA como un instrumento de autonomía y no de exclusión.

En paralelo, la protección de los menores de edad se estructura en el Artículo 4, apartado 4, limitando el acceso a tecnologías de IA para menores de catorce años al consentimiento de quien ejerce la responsabilidad parental. Estas protecciones se alinean con la prohibición absoluta establecida en el Artículo 5, apartado 1, letra b) del AI Act.


CAPÍTULO IV: REGULACIÓN SECTORIAL: SALUD, TRABAJO Y EDUCACIÓN

4.1. IA en el Sistema Sanitario: Garantías y Desafíos Clínicos

La aplicación de la inteligencia artificial en el sector salud se rige por una lógica de subordinación técnica al juicio facultativo, conforme a lo dispuesto en el Artículo 7 de la Ley n. 132/2025. Los sistemas de IA operan exclusivamente como instrumentos de soporte en los procesos de prevención, diagnóstico y tratamiento, prohibiendo cualquier automatización que desplace la decisión final del profesional sanitario.

El legislador impone un estándar de calidad riguroso (Art. 7.6), exigiendo la verificación periódica de la fiabilidad de los modelos para mitigar errores que comprometan la seguridad del paciente. El Artículo 8 habilita el tratamiento de categorías especiales de datos para la investigación científica bajo un régimen de interés público, siempre que se garantice la anonimización o se utilicen datos sintéticos.

La integración sistemática se completa con el Artículo 10, que incorpora la IA en la infraestructura del Fascículo Sanitario Electrónico (FSE), bajo supervisión técnica de la Agencia Nacional para los Servicios Sanitarios Regionales (AGENAS) y control de ciberseguridad de la ACN.

4.2. El Mercado del Trabajo: Transparencia y Poder Algorítmico

La regulación de la IA en el entorno laboral, articulada en el Artículo 11 de la ley nacional, se integra con el marco protector del Estatuto de los Trabajadores y el denominado "Decreto Trasparenza" (d.lgs. 152/1997). El empleador o comitente tiene la obligación imperativa de informar a los trabajadores sobre el uso de sistemas decisionales o de seguimiento automatizados, garantizando que estos no vulneren la dignidad humana ni la privacidad del prestador.

El Artículo 11.3 subraya que el uso de IA debe asegurar el respeto a los derechos fundamentales, prohibiendo expresamente cualquier tipo de discriminación algorítmica basada en el género, origen étnico o convicciones políticas. El Artículo 12 instituye el Observatorio sobre la adopción de sistemas de IA en el mundo del trabajo, un órgano multidisciplinar encargado de definir estrategias de formación y monitorear los niveles de riesgo.

4.3. Profesiones Intelectuales y el Deber de Información Cualificada

El ejercicio de las profesiones intelectuales bajo el auxilio de tecnologías algorítmicas queda sujeto a la cláusula de "prevalencia del trabajo intelectual" establecida en el Artículo 13 de la Ley n. 132/2025. Los sistemas de IA solo pueden emplearse para actividades instrumentales y de apoyo, manteniendo al profesional como único responsable jurídico de la prestación.

En el ámbito de la abogacía, el letrado no puede delegar en el sistema la interpretación de la ley ni la valoración de pruebas, debiendo verificar la exactitud de cualquier output. El Artículo 13.2 introduce un nuevo deber deontológico: la comunicación obligatoria al cliente sobre el uso de sistemas de IA mediante un lenguaje claro, sencillo y exhaustivo.


CAPÍTULO V: IA EN LA ADMINISTRACIÓN PÚBLICA Y LA JUSTICIA

5.1. Eficiencia Administrativa: El Principio de "Human in the Loop" y la Invarianza Financiera

El despliegue de sistemas de inteligencia artificial en la Administración Pública italiana se rige por el imperativo de incrementar la eficiencia operativa, conforme al Artículo 14 de la Ley n. 132/2025. La integración tecnológica debe garantizar la conoscibilità del funcionamiento del sistema y la tracciabilità de su uso, permitiendo a los interesados comprender la lógica de los procesos decisionales.

La norma prescribe que el uso de la IA sea estrictamente instrumental y de apoyo a la actividad providencial, salvaguardando la autonomía y el poder decisional del funcionario humano. No obstante, la implementación se encuentra sujeta a una cláusula de invarianza financiera (Art. 14.4), lo que obliga a las administraciones a adecuar sus recursos técnicos y humanos sin dotaciones presupuestarias adicionales.

5.2. El Magistrado y la Decisión Algorítmica: La Reserva Exclusiva de Humanidad

El Artículo 15 de la ley nacional establece una reserva de humanidad infranqueable: la interpretación de la ley, la valoración de los hechos y las pruebas, y la adopción de toda medida judicial son competencias exclusivas del magistrado. Este régimen se alinea con la clasificación de las IA judiciales como sistemas de alto riesgo en el Reglamento (UE) 2024/1689 (AI Act).

Si bien herramientas de legal analytics y justicia predittiva pueden reforzar la predictibilidad jurídica, su naturaleza estocástica conlleva el riesgo de una "cristalización" de la jurisprudencia. Existe el riesgo del "pungolo gentile" (nudge), donde el output algorítmico condiciona cognitivamente al juez.

5.3. El CSM y la Formación: Hacia una Cultura de la Jurisdicción Digital

La gobernanza de la IA en la justicia requiere una sinergia institucional entre el Ministerio de Justicia y el Consejo Superior de la Magistratura (CSM). El Artículo 15.4 mandata al Ministro la promoción de actividades didácticas destinadas a la formación digital de base y avanzada de los magistrados.

La formación no debe limitarse a la destreza técnica, sino que debe integrar una alfabetización ética y jurídica que permita al magistrado auditar los sistemas de apoyo y detectar posibles "alucinaciones" generadas por modelos de lenguaje de gran escala.


CAPÍTULO VI: PROPIEDAD INTELECTUAL, RESPONSABILIDAD Y RÉGIMEN SANCIONADOR

6.1. El Derecho de Autor en la Era Generativa: La Reserva de Humanidad

La Ley n. 132/2025 introduce modificaciones sustanciales en la arquitectura de la propiedad intelectual para responder al desafío de la inteligencia artificial generativa. El Artículo 25 modifica la Ley n. 633/1941, especificando que la protección del derecho de autor se reserva exclusivamente a las obras de carácter creativo que constituyan un resultado del trabajo intelectual humano.

Esta disposición refuerza el principio de antropocentrismo, impidiendo que los algoritmos adquieran la titularidad de derechos morales o patrimoniales. El Artículo 70-septies regula las actividades de text and data mining (TDM), permitiendo la reproducción y extracción de datos de obras legítimamente accesibles para el entrenamiento de IA.

6.2. La IA como "Instrumentum Sceleris": Tutela Penal y Agravantes

El legislador italiano ha configurado el uso de la IA en el ámbito penal como potencial instrumento de comisión de delitos. El Artículo 26 introduce el Artículo 612-quater al Código Penal, tipificando la difusión ilícita de contenidos falsificados mediante IA (especialmente deepfakes) que induzcan a error sobre su genuinidad.

Se establece una nueva circunstancia agravante común en el Artículo 61, número 11-decies, para aquellos delitos cometidos mediante sistemas de IA. En el ámbito de los mercados financieros, el Artículo 26 agrava significativamente las penas por manipulación de mercado cuando el hecho se realice mediante sistemas de IA.

6.3. Responsabilidad Civil y Carga de la Prueba: La Delegación Legislativa

La complejidad técnica de los sistemas de IA ha llevado al legislador a delegar en el Gobierno la adaptación del régimen de responsabilidad civil. Según el Artículo 24, apartado 5, letra d), el Ejecutivo debe definir una disciplina que regule la repartición del onere della prova (carga de la prueba) en los casos de daños causados por sistemas de IA.

La doctrina advierte sobre el riesgo de que la opacidad algorítmica derive en responsabilidad objetiva "de posición" para el programador o proveedor. La normativa delegada deberá equilibrar la tutela del dañado con la seguridad jurídica del operador.

6.4. Síntesis Final

La Ley n. 132/2025 se presenta como la norma de cierre del sistema nacional, buscando armonizar el desarrollo tecnológico con la protección de los derechos fundamentales. La efectividad de este marco dependerá de la capacidad de las autoridades nacionales (AgID y ACN) para supervisar los niveles de riesgo y de la adecuación de los futuros decretos legislativos a la realidad de una tecnología estocástica y en constante evolución.


Conclusión

La Ley italiana 132/2025 representa un enfoque comprehensivo y equilibrado para la regulación de la inteligencia artificial, estableciendo garantías robustas para la protección de derechos fundamentales mientras promueve la innovación tecnológica responsable. Su estructura piramidal refleja una visión jurídica sofisticada que reconoce tanto las oportunidades como los riesgos de las tecnologías algorítmicas.

La armonización con el AI Act europeo, mediada por técnicas de reenvío dinámico, demuestra una estrategia legislativa que busca mantener la coherencia dentro del marco comunitario mientras salvaguarda la autonomía regulatoria nacional. La aplicación exitosa de esta norma dependerá de la capacidad de las instituciones para desarrollar decretos legislativos que adapten los principios generales a la complejidad técnica de sistemas estocásticos y opacos.


REFERENCIAS BIBLIOGRÁFICAS (APA 7ª Edición)

Legislación Primaria

D'Amico, M., Balaguer Callejón, F., Aguilar Calahorro, A., Gambatesa, P., & Di Giovanni, S. (Eds.). (2026). Commentario tematico del Regolamento (UE) 2024/1689 e della legge italiana 23 settembre 2025, n. 132. G. Giappichelli Editore.

Legge 23 settembre 2025, n. 132. Disposizioni e deleghe al Governo in materia di intelligenza artificiale. Gazzetta Ufficiale della Repubblica Italiana, (223).

Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull'intelligenza artificiale (AI Act). Gazzetta Ufficiale dell'Unione Europea.

Doctrina y Jurisprudencia

De Minico, G., Palomba, E., & Parente, M. (2025). AI Act e Legge Italiana sull'intelligenza artificiale: un'armonizzazione "fin troppo perfetta". Le Costituzionaliste, 1-9.

Fragasso, B. (2025). Intelligenza artificiale e responsabilità penale. Principi e categorie alla prova di una tecnologia "imprevedibile". G. Giappichelli Editore.

Documentación Parlamentaria e Institucional

Senato della Repubblica & Camera dei Deputati. (2026). Conferenza interparlamentare: "L'era dell'intelligenza artificiale: opportunità e sfide". Documentazione interna.

UNESCO. (2025). Guidelines for the Use of AI Systems in Courts and Tribunals. París: UNESCO.


Última actualización: 2 de marzo de 2026 Categoría: Derecho Digital | Regulación de IA | Derecho Administrativo Palabras clave: Ley 132/2025, AI Act, gobernanza, transparencia, inteligencia artificial