El Senado aprueba directrices pioneras para el uso responsable de la Inteligencia Artificial
El Senado aprueba directrices pioneras para el uso responsable de la Inteligencia Artificial
16 de febrero de 2026 — El Senado de España ha aprobado un marco normativo integral que regula el uso de la inteligencia artificial en sus funciones constitucionales, parlamentarias y administrativas, convirtiéndose en una de las primeras instituciones legislativas en establecer directrices específicas para el despliegue responsable de esta tecnología.
Un marco ético y jurídico para la IA institucional
Las Directrices de uso de la Inteligencia Artificial en el Senado establecen los principios, procedimientos y salvaguardas necesarios para aprovechar el potencial transformador de la IA mientras se minimizan los riesgos asociados a su implementación en el ámbito parlamentario.
Objetivos principales
Las directrices persiguen tres objetivos fundamentales:
- Mejorar la eficiencia de las funciones de representación ciudadana y control del Gobierno
- Garantizar el respeto a los derechos fundamentales y las libertades públicas
- Asegurar la calidad democrática mediante un uso responsable y transparente de la tecnología
Ámbito de aplicación
Alcance personal
La normativa se aplica a:
- Senadores y Senadoras en ejercicio de sus funciones parlamentarias
- Personal funcionario y laboral del Senado
- Personal eventual y de grupos parlamentarios
- Cualquier persona que trabaje bajo supervisión de la Cámara
Alcance material
Las directrices regulan el uso de sistemas de IA en todas las funciones constitucionales, parlamentarias y administrativas desempeñadas en el Senado.
Gestión integral de riesgos
El documento identifica y aborda cinco categorías principales de riesgos:
1. Riesgos para derechos fundamentales
- Vulneración de privacidad y protección de datos
- Sesgos discriminatorios contra personas o grupos
- Conculcación de propiedad intelectual
- Limitación del acceso a información pública
2. Riesgos operativos
- Generación de información incorrecta o engañosa (alucinaciones)
- Adopción de decisiones inadecuadas por sistemas autónomos
- Compromiso institucional por difusión de contenido erróneo
3. Riesgos para la seguridad
- Vulnerabilidades explotables mediante ataques externos
- Manipulación de sistemas, redes o datos
- Comprometimiento de confidencialidad y fiabilidad
4. Riesgos institucionales
- Responsabilidad jurídica por daños a terceros
- Menoscabo del prestigio institucional
5. Impacto ambiental
- Consumo energético significativo de sistemas de IA
Principios rectores
Las directrices se fundamentan en 15 principios éticos y jurídicos:
- Responsabilidad en el uso consciente de riesgos y potencialidades
- Confiabilidad, robustez y seguridad de los sistemas implementados
- Respeto a la autonomía humana sin patrones manipulativos
- Transparencia en funcionamiento y explicabilidad de decisiones
- Proporcionalidad ajustada a necesidades específicas
- Supervisión humana obligatoria de todos los resultados
- Rendición de cuentas sin elusión de responsabilidad personal
- Apertura e interoperabilidad de sistemas
- Privacidad y protección de datos personales (RGPD/LOPDGDD)
- Igualdad y no discriminación algorítmica
- Cumplimiento normativo del Reglamento IA UE 2024/1689
- Conocimiento obligatorio de las directrices previo al uso
- Apertura tecnológica favorable a la innovación
Regulación de adquisición y despliegue
Proceso de evaluación
Antes de implantar cualquier sistema de IA, se exige:
- Evaluación de impacto supervisada por la Comisión de Seguridad de la Información
- Documentación técnica detallada (arquitectura, datos, algoritmos, mitigación de riesgos)
- Cumplimiento de estándares institucionales específicos
Criterios de contratación
Los pliegos de licitación deben:
- Incorporar todos los principios éticos y jurídicos
- Valorar positivamente la certificación ISO/IEC 42001
- Incluir cláusulas sobre protección de datos, igualdad y derechos de autor
- Exigir que los proveedores acrediten buenas prácticas en desarrollo ético
Protección de datos de entrenamiento
Garantía fundamental: Los proveedores deben asegurar que los datos introducidos por usuarios del Senado no se utilizan para entrenar ningún modelo de IA.
Directrices de uso práctico
Sistemas autorizados
- Solo se pueden utilizar sistemas expresamente autorizados por el Senado
- Prohibición absoluta de herramientas no autorizadas en equipos o redes institucionales
- Listado actualizado disponible en la intranet
Protección de información sensible
Prohibiciones absolutas:
- Información sujeta a secreto parlamentario: nunca se introducirá en ningún sistema de IA
- Información sujeta a reserva parlamentaria o protegida por propiedad intelectual: solo en sistemas autorizados no públicos y previa autorización superior jerárquica
Supervisión obligatoria
- Verificación humana previa al uso oficial de toda información o decisión generada por IA
- Especial atención a vulneración de derechos y funcionamiento institucional
- Responsabilidad personal ineludible del supervisor humano
Transparencia ciudadana
El Portal de Transparencia del Senado publicará:
- Sistemas de IA utilizados en la Cámara
- Finalidades específicas de cada sistema
- Funcionamiento básico de las herramientas
Formación y capacitación
Plan de formación continua
Dirigido a todas las personas sujetas a las directrices para garantizar:
- Comprensión de riesgos y limitaciones
- Conocimiento de capacidades y funcionalidades
- Uso responsable y efectivo de sistemas
Especialización técnica
Capacitación de perfiles especializados en:
- Dirección de Tecnologías de la Información y Comunicaciones
- Otras direcciones según necesidades específicas
Gobernanza y responsabilidad
Órganos competentes
Responsabilidad directa:
- Dirección de Tecnologías de la Información y Comunicaciones
- En colaboración con el Delegado de Protección de Datos
Supervisión estratégica:
- Mesa del Senado
- Secretaría General y Secretaría General Adjunta para Asuntos Administrativos
- Comisión de Seguridad de la Información
Régimen sancionador
Los incumplimientos podrán dar lugar a responsabilidad disciplinaria conforme al régimen que establezca la Mesa del Senado en un plazo de seis meses.
Informes de seguimiento
La Secretaría General elaborará un informe anual que incluirá:
- Usos específicos de sistemas de IA
- Estadísticas de utilización
- Evaluación de sistemas implementados
- Incidencias registradas
- Mejoras implementadas
Este informe será:
- Presentado a la Comisión de Seguridad de la Información
- Elevado a la Mesa de la Cámara
- Publicado en el Portal de Transparencia (en lo procedente)
Entrada en vigor y período transitorio
- Entrada en vigor: 60 días tras publicación en el Boletín Oficial de las Cortes Generales
- Adaptación de sistemas existentes: 6 meses desde la entrada en vigor
Marco jurídico de referencia
Las directrices se fundamentan en:
- Reglamento (UE) 2024/1689 de Inteligencia Artificial
- RGPD (Reglamento General de Protección de Datos 2016/679)
- LOPDGDD (Ley Orgánica 3/2018 de Protección de Datos)
- Reglamento del Senado
- Legislación nacional complementaria
Conclusión
Con estas directrices, el Senado se posiciona a la vanguardia institucional en la regulación del uso de inteligencia artificial, estableciendo un modelo de gobernanza que equilibra:
✓ Innovación tecnológica para mayor eficiencia
✓ Protección de derechos fundamentales
✓ Transparencia democrática en el uso de IA
✓ Responsabilidad institucional y rendición de cuentas
Este marco normativo garantiza que el Senado aproveche el potencial de la IA para mejorar el servicio a la ciudadanía, preservando al mismo tiempo los valores democráticos, los derechos fundamentales y la dignidad humana que sustentan nuestro Estado de Derecho.
Última actualización: 16 de febrero de 2026
Artículos relacionados
Amparo Directo 6/2025: IA y Derechos de Autor en México
Análisis jurídico de la sentencia de la SCJN que rechaza la protección de obras creadas por inteligencia artificial. Estudio de las cuestiones de autoría, originalidad y dominio público bajo la LFDA.
Guía Esencial de Inteligencia Artificial para Jueces: Protocolos y Buenas Prácticas
Análisis jurídico completo sobre la implementación responsable de sistemas de IA en el sector judicial. Protocolos de cumplimiento normativo, evaluación de riesgos y salvaguardas para jueces.
Protección de Derechos Humanos en Sistemas de IA para Contra-Terrorismo: Análisis Jurídico IRAC de la Posición de la ONU (Diciembre 2025)
Análisis jurídico integral aplicando metodología IRAC a cuatro cuestiones fundamentales: vigilancia masiva con IA, no discriminación en biometría, libertad de expresión en moderación automática, y control humano en sistemas autónomos militares. Examen riguroso de conformidad con derecho internacional de derechos humanos, jurisprudencia de TEDH/TJUE y Derecho Internacional Humanitario. Documento de referencia para formulación de políticas públicas y regulación de IA en contextos de seguridad.
Big Brother Watch y otros c. Reino Unido (2021): Hito Jurisprudencial en Vigilancia Masiva, Privacidad y Control Judicial - Análisis Exhaustivo IRAC
Análisis jurisprudencial integral de la sentencia de la Gran Sala del TEDH que establece estándares de control en vigilancia masiva. Examen de los 5 issues principales, jurisprudencia consolidada, implicaciones para sistemas de IA, y recepción posterior. Referencia obligatoria para regulación de vigilancia electrónica.
