Riesgos Visibles e Invisibles del Uso de Imágenes de Terceros en Sistemas de Inteligencia Artificial
Resumen Ejecutivo
El presente artículo analiza en profundidad la Guía de la Agencia Española de Protección de Datos (AEPD) de enero de 2026 sobre el uso de imágenes de terceros en sistemas de inteligencia artificial. Este documento constituye una referencia fundamental para comprender los riesgos legales, tanto visibles como invisibles, derivados del tratamiento de datos personales en forma de imágenes mediante sistemas de IA generativa.
La creciente utilización de herramientas de generación y manipulación de imágenes con inteligencia artificial ha generado nuevos escenarios de riesgo que van más allá de los daños aparentes inmediatos, afectando a aspectos cruciales de la protección de datos personales que permanecen ocultos para usuarios y personas afectadas.
La guía de la AEPD proporciona un marco normativo y técnico esencial para evaluar estos riesgos desde una perspectiva de protección de datos y derechos fundamentales. Los criterios analíticos que propone no constituyen cambios en la doctrina de protección de datos, sino una aplicación sofisticada de principios bien establecidos al contexto específico de la inteligencia artificial generativa.
I. Introducción: El Contexto Normativo y Fáctico
En el contexto actual de proliferación de herramientas de inteligencia artificial generativa, la utilización de imágenes o vídeos de terceros ha adquirido una dimensión que trasciende los usos triviales. Una fotografía, vídeo o representación visual en la que una persona es identificada o identificable constituye un dato personal conforme a los términos del Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica de Protección de Datos Personales (LOPDGDD).
La identificabilidad de una persona no se limita a su rostro. Conforme a los criterios de la jurisprudencia especializada y la práctica regulatoria internacional, una persona puede ser identificable mediante su voz, cuerpo, gestos, vestimenta, tatuajes, entorno relacional o por la combinación de varios elementos. Esta circunstancia se mantiene incluso cuando la imagen ha sido alterada mediante sistemas de inteligencia artificial.
La generalización del uso irreflexivo de herramientas de IA para generar o modificar imágenes ha normalizado prácticas que, desde la perspectiva de la protección de datos, presentan riesgos considerables. Estos usos aparentemente banales (filtros, avatares, caricaturas, animaciones) generan impactos reales tanto visibles como invisibles.
II. Riesgos Visibles: Criterios de Evaluación Aplicables
Los riesgos denominados visibles son aquellos que se aprecian cuando una imagen o vídeo generado o modificado mediante IA se comparte, publica o difunde en cualquier medio. La AEPD establece ocho criterios fundamentales que siguen siendo plenamente aplicables aunque el contenido haya sido generado o modificado por sistemas de inteligencia artificial.
A) Expectativa Razonable y Legitimación para el Uso Concreto
Que una fotografía se encontrase disponible en un grupo de mensajería privada, en una red social o hubiese sido enviada puntualmente no confiere autorización general para incorporarla a herramientas de IA, transformarla, generar variantes o difundir el resultado. Cuanto mayor sea el distanciamiento respecto del contexto original, mayor debe ser la exigencia de legitimación.
B) Alcance y Facilidad de Difusión
El impacto potencial depende tanto del número de destinatarios como de la facilidad técnica para su reenvío y copia. En redes sociales, los mecanismos de amplificación algorítmica aceleran exponencialmente el impacto, con independencia de si el contenido es generado por IA o material original.
C) Persistencia y Posibilidad Real de Retirar el Contenido
El riesgo se incrementa cuando resulta imposible retirar efectivamente el contenido y sus copias subsecuentes. Las medidas de retirada no siempre garantizan la eliminación total, por lo que la reversibilidad práctica constituye un elemento central en la evaluación del riesgo.
D) Sexualización y Contenido Íntimo Sintético
Esta categoría presenta una señal de riesgo de elevadísima intensidad. Se refiere a desnudez añadida, erotización, insinuaciones sexuales o escenas íntimas generadas a partir de imágenes neutrales. El daño potencial es considerable, facilitando chantaje y acoso.
E) Atribución de Hechos No Reales y Efectos Reputacionales
El riesgo surge cuando el contenido atribuye a una persona hechos o conductas que no ocurrieron y resultan verosímiles. Esto afecta significativamente la reputación, relaciones personales y posición profesional. El perjuicio puede ser grave y exige valoración rigurosa.
F) Descontextualización y Reinterpretación
Una imagen o vídeo pueden causar daño si se presentan fuera de contexto o acompañados de textos que alteran su significado. Este riesgo no queda neutralizado por los filtros de generación del proveedor.
G) Vulnerabilidad de la Persona Afectada
El umbral de prudencia debe ser máximo con menores de edad, personas mayores, con discapacidad u otros colectivos vulnerables. Incluso usos aparentemente inocentes pueden desencadenar acoso o estigmatización.
H) Impacto Especial en la Persona
Debe evaluarse si existe daño constatable en relaciones personales, integridad física, ámbito laboral, daños psicológicos, contexto educativo, suplantación de identidad o cualquier efecto negativo jurídico significativo.
III. Riesgos Invisibles: Dimensiones Ocultas del Tratamiento
Existen riesgos reales que afectan a la persona cuya imagen se carga en un sistema de IA, simplemente por el hecho de hacerlo, incluso cuando el uso es trivial y el resultado no es publicado. Estos riesgos derivan del funcionamiento normal de los servicios y suelen pasar inadvertidos para usuarios y afectados.
A) Pérdida Efectiva de Control
Al cargar una imagen a un sistema de IA, el contenido cesa estar bajo control del usuario y pasa a ser tratado por un proveedor externo. Para la persona afectada, esto supone pérdida real de control sobre dónde está su imagen y qué ocurre con ella.
B) Retención Técnica y Copias No Visibles
Muchos sistemas de IA conservan temporalmente imágenes para procesamiento, gestión de errores o copias de seguridad. Esta retención suele ser invisible y no verificable, dificultando saber si la imagen fue realmente eliminada.
C) Intervención de Varios Actores
El tratamiento suele intervenir infraestructuras de nube, servicios de almacenamiento, herramientas de seguridad y personal técnico. Esto amplía el número de sistemas y personas que pueden acceder a la imagen, incrementando significativamente el riesgo.
D) Finalidades Propias y Ampliadas del Proveedor
Además del resultado solicitado, el proveedor puede tratar imágenes para garantizar seguridad, detectar abusos, evaluar calidad del servicio o mejorar funcionamiento. Esto implica conservar ejemplos durante más tiempo o reutilizarlos internamente.
E) Generación de Metadatos e Inferencias Internas
Durante el procesamiento, los sistemas analizan automáticamente el contenido para detectar rostros, cuerpos o características, generando metadatos técnicos. Aunque estos análisis tengan finalidad funcional, constituyen tratamientos adicionales que dejan rastro.
F) Riesgo de Identificación Persistente
Algunas herramientas están diseñadas para que una persona aparezca coherentemente en varias imágenes generadas a partir de una sola fotografía. El sistema reutiliza rasgos que permiten reconocer al sujeto, facilitando reidentificación y pérdida de control.
G) Asimetría Informativa y Dificultad de Ejercer Derechos
La persona afectada suele desconocer qué sistema se utilizó, qué sucedió con su imagen, cuánto tiempo se conservó o a quién dirigirse para solicitar supresión. Esta asimetría limita prácticamente el ejercicio de derechos de acceso, supresión u oposición.
H) Riesgo de Exposición por Incidentes de Seguridad
Los sistemas de IA pueden sufrir fallos técnicos, accesos indebidos o brechas de seguridad. Las imágenes cargadas pueden quedar expuestas sin difusión voluntaria, con impacto elevado para la persona afectada.
I) Efecto Multiplicador y Conexión con Daños Posteriores
Una vez cargada, resulta sencillo generar múltiples variantes en poco tiempo. Este bajo coste de repetición aumenta la probabilidad de resultados lesivos en iteraciones posteriores, explicando por qué muchos daños visibles se apoyan en riesgos técnicos previos.
Cargar imágenes de terceros a sistemas de IA no es un acto neutral, incluso sin difusión posterior ni intención de causar daño. Los riesgos surgen de pérdida de control, opacidad técnica, finalidades ampliadas y dificultad de reacción de la persona afectada, factores que deben considerarse incluso en usos aparentemente banales.
IV. Situaciones Especialmente Relevantes para la AEPD
En muchos casos, los usos quedan fuera del ámbito de aplicación de la normativa de protección de datos cuando se realizan de forma estrictamente personal o doméstica. De igual modo, el tratamiento de personas fallecidas no se encuentra comprendido en el ámbito de aplicación del RGPD.
Sin embargo, esto no excluye que puedan verse afectados otros derechos fundamentales como honor, intimidad o propia imagen, ni que resulten aplicables otras normas del ordenamiento jurídico, incluyendo el Código Penal. Cuando concurran indicios de delito, la actuación corresponde a autoridades policiales, Fiscalía y órganos judicales.
Supuestos de Especial Atención
La AEPD presta especial atención cuando el uso incrementa significativamente los riesgos para la persona afectada:
1. Pérdida efectiva de control sobre la imagen con desconocimiento de su uso.
2. Generación de contenidos verosímiles que atribuyen hechos no ocurridos.
3. Implicación de menores de edad o personas vulnerables.
4. Introducción de elementos de sexualización, humillación o descrédito.
5. Difusión en entornos donde el impacto personal, social o profesional es especialmente intenso.
V. Conclusiones y Perspectiva Jurídica
La Guía de la AEPD de enero de 2026 representa un hito importante en el desarrollo de la jurisprudencia de protección de datos aplicable a sistemas de inteligencia artificial. Su contribución radica en la distinción clara entre riesgos visibles (apreciables en la difusión) y riesgos invisibles (derivados del mero hecho de cargar una imagen).
Esta categorización supone un avance conceptual porque atiende a la realidad operacional de los sistemas de IA actuales, muchos de los cuales generan impactos independientemente de que el usuario publique o comparta el resultado. La opacidad técnica, multiplicación de actores, reutilización persistente y amplitud de finalidades operan inevitablemente.
Desde la perspectiva de análisis jurídico, la Guía refuerza que cualquier tratamiento de datos personales, incluyendo los realizados por sistemas de IA, requiere base de legitimación suficiente conforme a RGPD. La trivialidad aparente de un uso no exonera del cumplimiento de estos principios constitucionales.
La responsabilidad de proveedores de IA se ve reforzada: deben implementar controles técnicos robustos, comunicar qué sucede con las imágenes, cuánto se conservan y para qué finalidades. Los usuarios deben desarrollar comprensión sofisticada de los riesgos reales, más allá de la familiaridad de la herramienta.
Documento de Análisis Jurídico
Basado en la Guía oficial de la AEPD
Enero 2026
Artículos relacionados
Smart Courts en China: Análisis Jurídico de la Transformación Digital de la Justicia
Estudio completo sobre los Smart Courts chinos, IA en sistemas judiciales y marco legal regulatorio. Análisis de opaciencia algoritmica, debidas protecciones y compliance.
Claude-Native Law Firm: Transformación de la práctica legal mediante IA. Análisis de privilegio, ética y conformidad regulatoria
Análisis jurídico integral del modelo de despacho boutique con Claude presentado por Zack Shapiro. Examen crítico de implicaciones en privilegio abogado-cliente, ética profesional, RGPD, Reglamento de IA y responsabilidad profesional en jurisdicciones españolas y europeas.
Agents of Chaos y el AI Act: El Liability Gap en Agentes Autónomos Multi-Entorno
Análisis crítico de la insuficiencia regulatoria del AI Act ante agentes autónomos basado en el preprint Betrayal. Doctrina sobre el déficit estructural de responsabilidad y propuesta de Agent Layer.
Análisis Jurídico: La Multa de 120 Millones de € de la UE a X por Incumplir la DSA
Análisis exhaustivo del procedimiento sancionador de la Comisión Europea contra X (Twitter) por incumplimiento de la Ley de Servicios Digitales: dark patterns, transparencia publicitaria y acceso a datos para investigadores.
