analisis-juridico

IA y Derechos Humanos: Estándares del Consejo de Europa desde el CDDH

La adopción masiva de sistemas de Inteligencia Artificial en la esfera pública y privada no es un fenómeno neutral: representa un cambio de paradigma para la protección de los derechos fundamentales que exige respuestas normativas robustas, vinculantes y capaces de evolucionar al ritmo de la tecnología.

📄 Documento completo disponible: Descargar el informe en PDF


1. Resumen / Abstract

La adopción masiva de sistemas de Inteligencia Artificial (IA) en la esfera pública y privada representa un cambio de paradigma para la protección de los derechos fundamentales. Este artículo analiza los estándares del Consejo de Europa, detallados en el Handbook del Comité Director de Derechos Humanos (CDDH, 2026), explorando cómo el Convenio Europeo de Derechos Humanos (CEDH), la Carta Social Europea (CSE) y el reciente Convenio Marco sobre IA configuran un marco de gobernanza robusto. Se examinan los conceptos técnicos esenciales —autonomía, adaptabilidad y opacidad— desde una perspectiva jurídica, vinculándolos con principios como la dignidad humana y la no discriminación. El estudio aborda la responsabilidad de los Estados y las empresas, y concluye con un análisis sectorial detallado sobre el impacto de la IA en la justicia, la salud y el empleo, subrayando la necesidad de una innovación que sea, ante todo, segura y centrada en la persona (Consejo de Europa, 2026, p. 6, 16).


2. Introducción

2.1. El auge de la Inteligencia Artificial: Oportunidades y riesgos sistémicos

La Inteligencia Artificial se ha integrado en la sociedad contemporánea como un catalizador de innovación sin precedentes. Su capacidad para procesar volúmenes masivos de datos permite optimizar procedimientos judiciales, mejorar diagnósticos médicos mediante análisis predictivos y personalizar la educación (Consejo de Europa, 2026, p. 6). No obstante, este despliegue tecnológico no es neutro; conlleva riesgos sistémicos para los derechos humanos que han movilizado a la comunidad internacional hacia la creación de marcos regulatorios (Consejo de Europa, 2026, p. 6). El manual del CDDH advierte que el desarrollo de la IA debe estar supeditado a la salvaguarda de la democracia y el Estado de Derecho, evitando que la eficiencia tecnológica sofoque las garantías individuales (Consejo de Europa, 2026, p. 16).

2.2. El ecosistema normativo del Consejo de Europa

El enfoque del Consejo de Europa no es estático, sino que se construye sobre una arquitectura de tratados interconectados que garantizan una protección multinivel en la era digital (Consejo de Europa, 2026, p. 14).

2.2.1. El Convenio Europeo de Derechos Humanos (CEDH)

El CEDH constituye la piedra angular de este ecosistema. A pesar de ser un instrumento previo a la era de la IA, su aplicación es plena y obligatoria en el entorno digital (Consejo de Europa, 2026, p. 14). Los Estados miembros tienen el deber de alinear sus marcos nacionales de IA con las obligaciones del Convenio, bajo la supervisión del Tribunal Europeo de Derechos Humanos (TEDH), que actúa como garante final cuando los recursos internos se agotan (Consejo de Europa, 2026, p. 14).

2.2.2. La Carta Social Europea (CSE)

Complementando los derechos civiles y políticos, la CSE y su versión revisada (RESC) garantizan derechos económicos y sociales fundamentales (Consejo de Europa, 2026, p. 14). En el contexto de la IA, la CSE es vital para supervisar el impacto de los algoritmos en el acceso al empleo, la seguridad social y la salud, asegurando que la tecnología no genere nuevas formas de exclusión social (Consejo de Europa, 2026, p. 14, 15).

2.2.3. El Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho

Este instrumento representa el primer tratado internacional vinculante diseñado específicamente para la IA (Consejo de Europa, 2026, p. 6). Su objetivo principal es asegurar que los sistemas de IA sean consistentes con los estándares de derechos humanos a lo largo de todo su ciclo de vida (Consejo de Europa, 2026, p. 6). El Convenio adopta un enfoque tecnológicamente neutro, centrándose en principios y obligaciones que permiten la innovación siempre que esta respete la dignidad humana y el interés público (Consejo de Europa, 2026, p. 15).


3. Conceptos técnicos clave: Una perspectiva jurídica

3.1. Definición operativa de "Sistema de Inteligencia Artificial"

Según el Convenio Marco, un sistema de IA se define como un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere a partir de las entradas recibidas cómo generar salidas —tales como predicciones, contenidos, recomendaciones o decisiones— que pueden influir en entornos físicos o virtuales (Consejo de Europa, 2026, p. 8). Jurídicamente, esta definición distingue a la IA del software tradicional basado en reglas rígidas programadas exclusivamente por personas (Consejo de Europa, 2026, p. 8).

3.2. El ciclo de vida de la IA y sus implicaciones legales

El ciclo de vida de un sistema de IA es un proceso iterativo que incluye: (1) planificación y diseño, (2) recopilación y procesamiento de datos, (3) desarrollo y entrenamiento del modelo, (4) prueba y verificación, (5) suministro o puesta a disposición, (6) despliegue, (7) operación y monitoreo, y (8) retiro (Consejo de Europa, 2026, p. 8, 9). Cada fase presenta riesgos específicos; por ejemplo, la fase de recolección de datos es crítica para evitar sesgos discriminatorios futuros (Consejo de Europa, 2026, p. 23).

3.3. Atributos técnicos críticos: Autonomía, adaptabilidad e inferencia

  • Autonomía: Es el grado en que un sistema puede actuar sin intervención humana tras la delegación de una tarea (Consejo de Europa, 2026, p. 9).
  • Adaptabilidad: Se refiere a la capacidad del sistema de modificar su comportamiento mediante la interacción con datos tras su despliegue (Consejo de Europa, 2026, p. 9).
  • Inferencia: Es el paso técnico donde el sistema genera una salida a partir de entradas, ya sea durante la fase de construcción del modelo o en su operación (Consejo de Europa, 2026, p. 11).

3.4. Pilares de la confianza: Transparencia, explicabilidad e interpretabilidad

La protección de los derechos humanos exige que los sistemas de IA no sean "cajas negras" (Consejo de Europa, 2026, p. 12).

  • Transparencia: Requiere claridad en la gobernanza y procesos documentados sobre la procedencia de los datos y las metodologías de entrenamiento (Consejo de Europa, 2026, p. 11, 12).
  • Explicabilidad: Es la capacidad de ofrecer razones comprensibles sobre por qué un sistema generó un resultado determinado, permitiendo que las personas afectadas puedan impugnarlo (Consejo de Europa, 2026, p. 12, 13).
  • Interpretabilidad: Implica hacer que el funcionamiento interno y la lógica del algoritmo sean accesibles tanto para expertos como para los usuarios finales (Consejo de Europa, 2026, p. 13).

4. Principios generales de derechos humanos aplicables a la IA

La aplicación del Convenio Europeo de Derechos Humanos (CEDH) y la Carta Social Europea (CSE) en el contexto de la Inteligencia Artificial se rige por una serie de principios interpretativos que aseguran que la protección jurídica no se vea diluida por la complejidad tecnológica.

4.1. Garantía de protección efectiva: Derechos prácticos y no teóricos

Un pilar fundamental de la jurisprudencia de Estrasburgo es que los derechos garantizados por el CEDH y la CSE no deben ser teóricos o ilusorios, sino prácticos y efectivos (Consejo de Europa, 2026, p. 17). En el ámbito de la IA, esto implica que las autoridades nacionales no solo deben abstenerse de interferencias arbitrarias, sino que deben adoptar medidas activas —legislativas, administrativas y operativas— para que los ciudadanos puedan disfrutar realmente de sus derechos frente a los riesgos del ciclo de vida de los sistemas algorítmicos (Consejo de Europa, 2026, p. 17).

4.2. Subsidiariedad y margen de apreciación en la era digital

El principio de subsidiariedad otorga a los Estados la responsabilidad primaria de asegurar los derechos dentro de su jurisdicción (Consejo de Europa, 2026, p. 17). No obstante, el "margen de apreciación" del que gozan los Estados para implementar estas garantías se ve matizado por la naturaleza de la tecnología. El manual destaca que cualquier Estado que pretenda asumir un papel pionero en el desarrollo de nuevas tecnologías asume una responsabilidad especial para equilibrar los beneficios de su uso con la protección de los derechos fundamentales (TEDH, S. and Marper v. the United Kingdom [GC], 2008, § 112).

4.3. La doctrina del "instrumento vivo" e interpretación evolutiva

Tanto el CEDH como la CSE son considerados "instrumentos vivos" que deben interpretarse a la luz de las condiciones actuales (Consejo de Europa, 2026, p. 18). Esta doctrina permite que los tribunales adapten la protección de derechos —como la privacidad o la libertad de expresión— a desafíos tecnológicos imprevistos en el momento de la redacción de los tratados, como la interceptación masiva de datos o el reconocimiento facial (Consejo de Europa, 2026, p. 18).

4.4. Obligaciones positivas de los Estados: Protección frente a riesgos previsibles

Los Estados no solo tienen prohibido interferir injustificadamente en los derechos ("obligaciones negativas"), sino que tienen el deber de proteger a los individuos frente a abusos de terceros, incluyendo empresas privadas ("obligaciones positivas") (Consejo de Europa, 2026, p. 19). En el ecosistema de la IA, donde la colaboración público-privada es la norma, el Estado debe actuar con diligencia debida para prevenir, investigar y sancionar riesgos previsibles para los derechos humanos (Consejo de Europa, 2026, p. 19).

4.5. Valores fundacionales: Dignidad humana y autonomía personal

La dignidad humana es el valor intrínseco y la esencia misma del Convenio y la Carta (Consejo de Europa, 2026, p. 20). En el ciclo de vida de la IA, esto exige que las personas no sean "deshumanizadas", reducidas a meros puntos de datos o sometidas a sistemas que socaven su autonomía y autodeterminación (Consejo de Europa, 2026, p. 20). Los sistemas de IA no deben ser antropomorfizados de manera que infrinjan esta dignidad esencial (Consejo de Europa, 2026, p. 20).

4.6. Estándares de restricción: Legalidad, fin legítimo, necesidad y proporcionalidad

Cualquier interferencia con derechos no absolutos ("qualified rights") a través de sistemas de IA debe superar un test estricto:

  1. Legalidad: Debe tener una base clara, accesible y previsible en la ley nacional (Consejo de Europa, 2026, p. 21).
  2. Fin legítimo: Debe perseguir objetivos como la seguridad nacional, la salud pública o la prevención del delito (Consejo de Europa, 2026, p. 21-22).
  3. Necesidad y proporcionalidad: La medida debe responder a una "necesidad social imperiosa" y utilizar los medios menos restrictivos posibles para alcanzar el objetivo (Consejo de Europa, 2026, p. 22).

5. Desafíos transversales en sectores de gobernanza pública

5.1. No discriminación e igualdad: El riesgo del sesgo algorítmico y la discriminación por proxy

La IA puede perpetuar y exacerbar sesgos históricos. El manual identifica el riesgo crítico de la discriminación por proxy: el uso de datos aparentemente neutros (como códigos postales o hábitos de consumo) que actúan como sustitutos indirectos de características protegidas como la raza o el género, dificultando la detección de la discriminación (Consejo de Europa, 2026, p. 24). Asimismo, la discriminación interseccional surge cuando múltiples motivos de exclusión se combinan mediante el perfilado granular (Consejo de Europa, 2026, p. 24).

5.2. Privacidad y protección de datos: Estándares del Convenio 108+

El derecho a la vida privada (Art. 8 CEDH) se ve amenazado por la recolección masiva de datos para entrenar modelos de IA (Consejo de Europa, 2026, p. 24). Los estándares del Convenio 108+ exigen principios de minimización de datos, limitación de la finalidad y seguridad, protegiendo especialmente los datos sensibles (etnia, salud, opiniones políticas) frente a la vigilancia omnipresente y el perfilado sin consentimiento (Consejo de Europa, 2026, p. 25-26).

5.3. El derecho a un recurso efectivo: Transparencia frente a la opacidad del "algoritmo"

El Art. 13 del CEDH garantiza el derecho a un recurso efectivo. Sin embargo, la opacidad técnica y el fenómeno de la "caja negra" pueden impedir que una persona sepa siquiera que sus derechos han sido vulnerados por una decisión algorítmica (Consejo de Europa, 2026, p. 28). Para evitar brechas de rendición de cuentas, es imperativo que los sistemas sean explicables y que existan mecanismos humanos de supervisión que permitan impugnar las decisiones (Consejo de Europa, 2026, p. 28).


6. Empresas y Derechos Humanos: La dimensión horizontal

6.1. Obligaciones positivas de regular y supervisar la actividad comercial

Dado que gran parte de la IA es desarrollada por el sector privado, los Estados tienen la obligación positiva de regular esta industria para prevenir abusos (Consejo de Europa, 2026, p. 31). El Estado puede ser responsable si consiente o ignora violaciones de derechos humanos cometidas por actores privados (Consejo de Europa, 2026, p. 29).

6.2. El equilibrio entre derechos empresariales y derechos fundamentales

Existe una tensión inherente entre la transparencia algorítmica y los derechos de propiedad intelectual o secretos comerciales de las empresas (Consejo de Europa, 2026, p. 34). No obstante, los estándares del Consejo de Europa establecen que los marcos de propiedad intelectual no deben ser explotados para obstruir la rendición de cuentas ni inhibir las evaluaciones de impacto sobre derechos humanos (Consejo de Europa, 2026, p. 34).

6.3. Marcos no vinculantes y responsabilidad corporativa

Bajo los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos (UNGP), las empresas tienen la responsabilidad de respetar los derechos humanos, lo que incluye implementar políticas de diligencia debida y procesos de remediación para los impactos adversos de su tecnología (Consejo de Europa, 2026, p. 35).

6.4. La metodología HUDERIA: Evaluación de riesgos e impacto

El manual destaca la metodología HUDERIA como una herramienta esencial para operacionalizar la evaluación de riesgos e impactos en los derechos humanos, la democracia y el Estado de derecho de manera iterativa a lo largo de todo el ciclo de vida del sistema de IA (Consejo de Europa, 2026, p. 36-37).


7. Análisis sectorial: Impactos de la IA en la esfera pública

El despliegue de la IA no es uniforme; sus riesgos y beneficios varían según el contexto institucional. El Consejo de Europa identifica ocho sectores donde la interferencia con los derechos humanos es particularmente sensible.

7.1. Administración de Justicia: Del apoyo a la decisión al riesgo de estandarización

La justicia europea ha documentado ya 160 sistemas integrados de IA (Consejo de Europa, 2026, p. 38). Las aplicaciones varían desde tareas auxiliares (anonimización de sentencias) hasta sistemas de apoyo a la decisión que extraen pautas de la jurisprudencia para calcular escalas de sentencia o indemnizaciones (Consejo de Europa, 2026, p. 38).

  • Riesgos para el juicio justo (Art. 6 CEDH): El principal temor es la estandarización judicial. Los jueces, enfrentados a la supuesta "neutralidad" algorítmica y bajo presión de eficiencia, podrían seguir ciegamente las recomendaciones de la IA, especialmente si su cargo depende de métricas de productividad o votos populares (Consejo de Europa, 2026, p. 40).
  • Presunción de inocencia: El uso de herramientas predictivas basadas en antecedentes familiares o socioeconómicos puede hacer que el juez aborde el caso con una noción preconcebida de culpabilidad, vulnerando la individualización de la pena (Consejo de Europa, 2026, p. 41).
  • Igualdad de armas: La opacidad de los sistemas (black box) dificulta que la defensa impugne la validez científica de las pruebas generadas por IA, especialmente cuando las empresas invocan secretos comerciales (Consejo de Europa, 2026, p. 42).

7.2. Aplicación de la ley y seguridad pública: Vigilancia y control del orden

El sector de la seguridad utiliza IA para análisis forense digital, vigilancia biométrica y vigilancia predictiva (Consejo de Europa, 2026, p. 46).

  • Derecho a la libertad (Art. 5 CEDH): El arresto basado en predicciones algorítmicas debe sustentarse en una sospecha razonable verificable; la falta de explicabilidad del sistema dificulta esta verificación objetiva (Consejo de Europa, 2026, p. 47).
  • Vigilancia masiva y biometría: El TEDH exige salvaguardias estrictas para la interceptación de comunicaciones. La vigilancia biométrica remota en tiempo real (reconocimiento facial) tiene un potencial de intrusión masivo que puede generar un efecto inhibitorio (chilling effect) en las libertades de expresión y reunión (TEDH, Glukhin v. Russia, 2023, § 88).
  • Discriminación: Los sistemas de reconocimiento facial entrenados con datos sesgados presentan mayores tasas de error en mujeres y personas con piel oscura, lo que aumenta el riesgo de detenciones erróneas (Consejo de Europa, 2026, p. 52).

7.3. Inmigración y control de fronteras: Gestión de poblaciones vulnerables

La IA se utiliza en el control de fronteras para la verificación de identidad mediante biometría, análisis predictivo de flujos migratorios y automatización de procesos de asilo (Consejo de Europa, 2026, p. 54).

  • Protección contra el refoulement (Art. 3 CEDH): Los errores en el análisis de voz o dialecto para verificar el origen de un solicitante de asilo pueden llevar a devoluciones ilegales a países donde corren riesgo de tortura (Consejo de Europa, 2026, p. 58).
  • Interoperabilidad y vigilancia: Los sistemas a menudo cruzan datos de inteligencia, policía y asilo sin que el individuo conozca la magnitud de su perfilado, dificultando el ejercicio del derecho de rectificación (Consejo de Europa, 2026, p. 56).

7.4. Procesos democráticos: Integridad electoral y libertad de opinión

La IA influye en el ciclo electoral mediante microsegmentación de votantes (microtargeting), bots de asistencia y la generación de contenido (Consejo de Europa, 2026, p. 60).

  • Libertad para formar una opinión (Art. 10 CEDH): El uso de Deepfakes y desinformación generada por IA distorsiona el ecosistema comunicativo, impidiendo que el votante tome decisiones informadas (Consejo de Europa, 2026, p. 63).
  • Acceso equitativo: Las plataformas sociales pueden usar algoritmos que favorezcan la visibilidad de ciertos candidatos, rompiendo la neutralidad exigida por los estándares del Consejo de Europa (Consejo de Europa, 2026, p. 65).

7.5. Salud: Consentimiento y autonomía del paciente

En medicina, la IA potencia diagnósticos por imagen y medicina personalizada, pero altera la relación médico-paciente (Consejo de Europa, 2026, p. 70).

  • Autonomía y consentimiento: El paciente debe ser informado si una decisión diagnóstica ha sido tomada por una IA. El "desempoderamiento" del médico frente al algoritmo puede socavar la calidad del cuidado (Consejo de Europa, 2026, p. 75).
  • Protección de datos sensibles: El uso de datos genómicos y biométricos para entrenar modelos exige las máximas garantías del Convenio 108+ (Consejo de Europa, 2026, p. 73).

7.6. Servicios sociales y bienestar: El riesgo del "Estado de bienestar digital"

Los sistemas para detectar fraude en subsidios o asignar recursos sociales son propensos a sesgos socioeconómicos (Consejo de Europa, 2026, p. 77).

  • El precedente SyRi: El tribunal de La Haya dictaminó que un algoritmo para detectar fraude social vulneraba el Art. 8 del CEDH por falta de transparencia y proporcionalidad (Consejo de Europa, 2026, p. 79).
  • Exclusión: El diseño de servicios "solo digitales" puede marginar a ancianos o personas con discapacidad que no pueden interactuar con interfaces complejas (Consejo de Europa, 2026, p. 81).

7.7. Educación: El interés superior del menor

La IA en educación permite el aprendizaje adaptativo, pero introduce la vigilancia constante (Consejo de Europa, 2026, p. 83).

  • Prohibición de perfilado: Los estándares europeos prohíben el perfilado de niños para predecir su comportamiento o preferencias, a menos que sea estrictamente necesario para su interés superior (Consejo de Europa, 2026, p. 86).
  • Evaluación y proctoring: El uso de IA para vigilar exámenes mediante reconocimiento facial puede ser discriminatorio y excesivamente intrusivo (Consejo de Europa, 2026, p. 88).

7.8. Trabajo y empleo: Gestión algorítmica y derechos colectivos

La IA automatiza la selección de personal y monitoriza el rendimiento en el puesto de trabajo (Consejo de Europa, 2026, p. 92).

  • Privacidad laboral: El TEDH ha establecido (TEDH, Bărbulescu v. Romania, 2017) que cualquier monitorización debe ser notificada previamente y ser proporcional. La IA permite una vigilancia panóptica que puede anular la vida privada en el trabajo (Consejo de Europa, 2026, p. 93-94).
  • Derechos colectivos: Los algoritmos de gestión en la "economía gig" pueden usarse para desalentar la sindicación o penalizar a trabajadores que participan en huelgas (Consejo de Europa, 2026, p. 98).

8. Conclusiones: Hacia una gobernanza de la IA centrada en el ser humano

El análisis exhaustivo de los estándares del Consejo de Europa revela que la Inteligencia Artificial no opera en un vacío jurídico, sino que está sujeta a un marco de protección de derechos humanos preexistente, robusto y dinámico. La premisa fundamental del manual del CDDH es que el desarrollo tecnológico debe estar supeditado a la dignidad humana, la democracia y el Estado de derecho (Consejo de Europa, 2026, p. 15).

A lo largo de este estudio, se ha evidenciado que instrumentos como el Convenio Europeo de Derechos Humanos (CEDH) y la Carta Social Europea (CSE) actúan como "instrumentos vivos" capaces de mitigar riesgos emergentes, desde la opacidad algorítmica hasta la vigilancia masiva (Consejo de Europa, 2026, p. 18). La doctrina de las obligaciones positivas se erige como un pilar crítico: los Estados no solo deben abstenerse de interferencias arbitrarias mediante el uso de IA, sino que tienen el deber de regular activamente al sector privado para prevenir abusos y garantizar que los derechos no sean "teóricos ni ilusorios" (Consejo de Europa, 2026, p. 17, 19, 29).

En el ámbito sectorial, los riesgos son heterogéneos pero comparten una raíz común: la amenaza a la autonomía individual y el peligro de la discriminación automatizada. En la justicia, la IA debe limitarse al apoyo de decisiones sin sustituir el juicio humano; en la seguridad, debe someterse a un test estricto de legalidad y necesidad; y en los servicios sociales, debe evitar crear un "Estado de bienestar digital" que estigmatice a los más vulnerables (Consejo de Europa, 2026, p. 40, 47, 79, 82).

El Convenio Marco sobre IA representa el hito final de esta arquitectura normativa, ofreciendo un tratado vinculante que promueve una innovación segura (Consejo de Europa, 2026, p. 6, 40). La metodología HUDERIA se consolida como la herramienta técnica indispensable para operacionalizar estos valores a lo largo de todo el ciclo de vida de los sistemas (Consejo de Europa, 2026, p. 36, 41). En definitiva, la visión del Consejo de Europa no es prohibitiva, sino habilitadora: busca un ecosistema donde la IA sirva al progreso humano sin comprometer la esencia misma de los derechos fundamentales.


9. Referencias

Tratados e Instrumentos Internacionales

  • Consejo de Europa. (1950). Convenio para la Protección de los Derechos Humanos y de las Libertades Fundamentales (CEDH).
  • Consejo de Europa. (1961/1996). Carta Social Europea (ESC) y Carta Social Europea Revisada (RESC).
  • Consejo de Europa. (1981/2018). Convenio para la Protección de las Personas con respecto al Tratamiento Automatizado de Datos de Carácter Personal (Convenio 108 y 108+).
  • Consejo de Europa. (1997). Convenio sobre Derechos Humanos y Biomedicina (Convenio de Oviedo).
  • Consejo de Europa. (2024). Convenio Marco del Consejo de Europa sobre la Inteligencia Artificial y los Derechos Humanos, la Democracia y el Estado de Derecho.
  • Naciones Unidas. (2011). Principios Rectores sobre las Empresas y los Derechos Humanos.

Jurisprudencia

  • TEDH. (2000). Maaouia v. France, Caso No. 39652/98.
  • TEDH. (2001). Z. and Others v. the United Kingdom, Caso No. 29392/95.
  • TEDH. (2008). S. and Marper v. the United Kingdom [GC], Casos Nos. 30562/04 y 30566/04.
  • TEDH. (2014). Vilnes and Others v. Norway, Casos Nos. 52806/09 y 22703/10.
  • TEDH. (2017). Bărbulescu v. Romania, Caso No. 61496/08.
  • TEDH. (2021). Big Brother Watch and Others v. the United Kingdom, Casos Nos. 58170/13, 62322/14 y 24960/15.
  • TEDH. (2022). Xavier Lucas v. France, Caso No. 15567/20.
  • TEDH. (2023). Glukhin v. Russia, Caso No. 11519/20.
  • Tribunal de Distrito de La Haya. (2020). NCJM et al. and FNV v. The State of the Netherlands (Caso SyRi), ECLI:NL:RBDHA:2020:1878.

Documentos de Política y Recomendaciones del Consejo de Europa

  • CDDH (Comité Director de Derechos Humanos). (2026). Handbook on Human Rights and Artificial Intelligence.
  • CEPEJ (Comisión Europea para la Eficiencia de la Justicia). (2018). European Ethical Charter on the use of Artificial Intelligence in judicial systems and their environment.
  • Comité de Ministros. (2016). Recomendación CM/Rec(2016)3 sobre los derechos humanos y las empresas.
  • Comité de Ministros. (2018). Recomendación CM/Rec(2018)7 sobre directrices para respetar, proteger y cumplir los derechos del niño en el entorno digital.
  • Comité de Ministros. (2020). Recomendación CM/Rec(2020)1 sobre el impacto de los sistemas algorítmicos en los derechos humanos.
  • Comité de Ministros. (2021). Recomendación CM/Rec(2021)8 sobre la protección de las personas con respecto al tratamiento automatizado de datos personales en el contexto del perfilado.
  • Comité de Ministros. (2024). Recomendación CM/Rec(2024)5 sobre los aspectos éticos y organizativos del uso de la IA en los servicios penitenciarios y de libertad condicional.