El Senado aprueba directrices pioneras para el uso responsable de la Inteligencia Artificial
El Senado aprueba directrices pioneras para el uso responsable de la Inteligencia Artificial
16 de febrero de 2026 — El Senado de España ha aprobado un marco normativo integral que regula el uso de la inteligencia artificial en sus funciones constitucionales, parlamentarias y administrativas, convirtiéndose en una de las primeras instituciones legislativas en establecer directrices específicas para el despliegue responsable de esta tecnología.
Un marco ético y jurídico para la IA institucional
Las Directrices de uso de la Inteligencia Artificial en el Senado establecen los principios, procedimientos y salvaguardas necesarios para aprovechar el potencial transformador de la IA mientras se minimizan los riesgos asociados a su implementación en el ámbito parlamentario.
Objetivos principales
Las directrices persiguen tres objetivos fundamentales:
- Mejorar la eficiencia de las funciones de representación ciudadana y control del Gobierno
- Garantizar el respeto a los derechos fundamentales y las libertades públicas
- Asegurar la calidad democrática mediante un uso responsable y transparente de la tecnología
Ámbito de aplicación
Alcance personal
La normativa se aplica a:
- Senadores y Senadoras en ejercicio de sus funciones parlamentarias
- Personal funcionario y laboral del Senado
- Personal eventual y de grupos parlamentarios
- Cualquier persona que trabaje bajo supervisión de la Cámara
Alcance material
Las directrices regulan el uso de sistemas de IA en todas las funciones constitucionales, parlamentarias y administrativas desempeñadas en el Senado.
Gestión integral de riesgos
El documento identifica y aborda cinco categorías principales de riesgos:
1. Riesgos para derechos fundamentales
- Vulneración de privacidad y protección de datos
- Sesgos discriminatorios contra personas o grupos
- Conculcación de propiedad intelectual
- Limitación del acceso a información pública
2. Riesgos operativos
- Generación de información incorrecta o engañosa (alucinaciones)
- Adopción de decisiones inadecuadas por sistemas autónomos
- Compromiso institucional por difusión de contenido erróneo
3. Riesgos para la seguridad
- Vulnerabilidades explotables mediante ataques externos
- Manipulación de sistemas, redes o datos
- Comprometimiento de confidencialidad y fiabilidad
4. Riesgos institucionales
- Responsabilidad jurídica por daños a terceros
- Menoscabo del prestigio institucional
5. Impacto ambiental
- Consumo energético significativo de sistemas de IA
Principios rectores
Las directrices se fundamentan en 15 principios éticos y jurídicos:
- Responsabilidad en el uso consciente de riesgos y potencialidades
- Confiabilidad, robustez y seguridad de los sistemas implementados
- Respeto a la autonomía humana sin patrones manipulativos
- Transparencia en funcionamiento y explicabilidad de decisiones
- Proporcionalidad ajustada a necesidades específicas
- Supervisión humana obligatoria de todos los resultados
- Rendición de cuentas sin elusión de responsabilidad personal
- Apertura e interoperabilidad de sistemas
- Privacidad y protección de datos personales (RGPD/LOPDGDD)
- Igualdad y no discriminación algorítmica
- Cumplimiento normativo del Reglamento IA UE 2024/1689
- Conocimiento obligatorio de las directrices previo al uso
- Apertura tecnológica favorable a la innovación
Regulación de adquisición y despliegue
Proceso de evaluación
Antes de implantar cualquier sistema de IA, se exige:
- Evaluación de impacto supervisada por la Comisión de Seguridad de la Información
- Documentación técnica detallada (arquitectura, datos, algoritmos, mitigación de riesgos)
- Cumplimiento de estándares institucionales específicos
Criterios de contratación
Los pliegos de licitación deben:
- Incorporar todos los principios éticos y jurídicos
- Valorar positivamente la certificación ISO/IEC 42001
- Incluir cláusulas sobre protección de datos, igualdad y derechos de autor
- Exigir que los proveedores acrediten buenas prácticas en desarrollo ético
Protección de datos de entrenamiento
Garantía fundamental: Los proveedores deben asegurar que los datos introducidos por usuarios del Senado no se utilizan para entrenar ningún modelo de IA.
Directrices de uso práctico
Sistemas autorizados
- Solo se pueden utilizar sistemas expresamente autorizados por el Senado
- Prohibición absoluta de herramientas no autorizadas en equipos o redes institucionales
- Listado actualizado disponible en la intranet
Protección de información sensible
Prohibiciones absolutas:
- Información sujeta a secreto parlamentario: nunca se introducirá en ningún sistema de IA
- Información sujeta a reserva parlamentaria o protegida por propiedad intelectual: solo en sistemas autorizados no públicos y previa autorización superior jerárquica
Supervisión obligatoria
- Verificación humana previa al uso oficial de toda información o decisión generada por IA
- Especial atención a vulneración de derechos y funcionamiento institucional
- Responsabilidad personal ineludible del supervisor humano
Transparencia ciudadana
El Portal de Transparencia del Senado publicará:
- Sistemas de IA utilizados en la Cámara
- Finalidades específicas de cada sistema
- Funcionamiento básico de las herramientas
Formación y capacitación
Plan de formación continua
Dirigido a todas las personas sujetas a las directrices para garantizar:
- Comprensión de riesgos y limitaciones
- Conocimiento de capacidades y funcionalidades
- Uso responsable y efectivo de sistemas
Especialización técnica
Capacitación de perfiles especializados en:
- Dirección de Tecnologías de la Información y Comunicaciones
- Otras direcciones según necesidades específicas
Gobernanza y responsabilidad
Órganos competentes
Responsabilidad directa:
- Dirección de Tecnologías de la Información y Comunicaciones
- En colaboración con el Delegado de Protección de Datos
Supervisión estratégica:
- Mesa del Senado
- Secretaría General y Secretaría General Adjunta para Asuntos Administrativos
- Comisión de Seguridad de la Información
Régimen sancionador
Los incumplimientos podrán dar lugar a responsabilidad disciplinaria conforme al régimen que establezca la Mesa del Senado en un plazo de seis meses.
Informes de seguimiento
La Secretaría General elaborará un informe anual que incluirá:
- Usos específicos de sistemas de IA
- Estadísticas de utilización
- Evaluación de sistemas implementados
- Incidencias registradas
- Mejoras implementadas
Este informe será:
- Presentado a la Comisión de Seguridad de la Información
- Elevado a la Mesa de la Cámara
- Publicado en el Portal de Transparencia (en lo procedente)
Entrada en vigor y período transitorio
- Entrada en vigor: 60 días tras publicación en el Boletín Oficial de las Cortes Generales
- Adaptación de sistemas existentes: 6 meses desde la entrada en vigor
Marco jurídico de referencia
Las directrices se fundamentan en:
- Reglamento (UE) 2024/1689 de Inteligencia Artificial
- RGPD (Reglamento General de Protección de Datos 2016/679)
- LOPDGDD (Ley Orgánica 3/2018 de Protección de Datos)
- Reglamento del Senado
- Legislación nacional complementaria
Conclusión
Con estas directrices, el Senado se posiciona a la vanguardia institucional en la regulación del uso de inteligencia artificial, estableciendo un modelo de gobernanza que equilibra:
✓ Innovación tecnológica para mayor eficiencia
✓ Protección de derechos fundamentales
✓ Transparencia democrática en el uso de IA
✓ Responsabilidad institucional y rendición de cuentas
Este marco normativo garantiza que el Senado aproveche el potencial de la IA para mejorar el servicio a la ciudadanía, preservando al mismo tiempo los valores democráticos, los derechos fundamentales y la dignidad humana que sustentan nuestro Estado de Derecho.
Última actualización: 16 de febrero de 2026
Artículos relacionados
Guía Esencial de Inteligencia Artificial para Jueces: Protocolos y Buenas Prácticas
Análisis jurídico completo sobre la implementación responsable de sistemas de IA en el sector judicial. Protocolos de cumplimiento normativo, evaluación de riesgos y salvaguardas para jueces.
Protección de Derechos Humanos en Sistemas de IA para Contra-Terrorismo: Análisis Jurídico IRAC de la Posición de la ONU (Diciembre 2025)
Análisis jurídico profesional de las implicaciones del uso de IA en operaciones antiterroristas bajo derecho internacional de derechos humanos
OECD Due Diligence Guidance for Responsible AI: Análisis jurídico integral y guía de implementación
Guía práctica de análisis jurídico de la Guía OECD de Due Diligence para IA Responsable, con framework IRAC y orientaciones de conformidad.
Guía AEPD 2026: Riesgos del Uso de Imágenes de Terceros en IA
Resumen práctico de la Guía AEPD 2026: riesgos visibles e invisibles al usar imágenes de terceros en IA, obligaciones RGPD y recomendaciones para responsables y proveedores.