Ultrasuplantaciones y derechos de la personalidad: el 96% de los deepfakes son pornografía no consentida
El 96% de los deepfakes que circulan por la red tienen carácter pornográfico. El 99% de las víctimas son mujeres o menores de edad. No son cifras de un estudio marginal: proceden del último informe de Deeptrace Labs, y reflejan una realidad que el Derecho ya no puede ignorar.
La tecnología de ultrasuplantaciones (o deepfakes) ha roto el molde de los derechos de la personalidad. Ya no hace falta una cámara oculta ni una grabación real para vulnerar la intimidad, el honor o la propia imagen. Basta con una red generativa antagónica (GAN) y unas pocas imágenes públicas para crear un vídeo hiperrealista en el que una persona aparece en situaciones que nunca vivió. Y lo más inquietante: el sistema legal, construido sobre la idea de «captación real», se queda sin herramientas para reaccionar.
Frente a este vacío, España, Argentina y Chile han comenzado a moverse, cada uno con su tradición jurídica y sus propios instrumentos. Lo que más me llama la atención del informe que hemos preparado en derechoartificial.com es la diversidad de respuestas y, al mismo tiempo, la convergencia hacia un mismo punto: la necesidad de tratar la imagen sintética como un dato personal y de establecer regímenes de responsabilidad que no dejen a las víctimas en la indefensión.
El hito de la AEPD: cuando la imagen sintética se convierte en dato personal
En enero de 2025, la Agencia Española de Protección de Datos dictó la Resolución PS-00132-2025, un verdadero punto de inflexión. Por primera vez, un organismo público sancionó la creación de un deepfake íntimo considerando que la imagen generada artificialmente es un dato personal en los términos del artículo 4.1 del RGPD. El razonamiento es impecable: si esa representación permite identificar a una persona física, su tratamiento sin consentimiento es ilícito. Da igual que sea un montaje; el vínculo con el individuo es real.
Dicho esto, la vía administrativa tiene límites. La AEPD puede multar y ordenar la retirada de contenidos, pero el daño a la dignidad ya está hecho. Por eso en España se ha aprobado también el nuevo artículo 173 bis del Código Penal, que castiga con penas de 1 a 2 años de prisión la generación y difusión de simulaciones sexuales no consentidas. La reforma, de marzo de 2025, desplaza el eje desde la revelación de secretos (que exigía una imagen real) hacia la integridad moral.
Responsabilidad civil objetiva: la solución que emerge en Argentina y Chile
En Argentina, la falta de una ley específica de inteligencia artificial no ha sido un obstáculo insalvable. El Código Civil y Comercial, en su artículo 1757, establece un régimen de responsabilidad objetiva para quien crea un riesgo con su actividad. La doctrina mayoritaria, encabezada por autores como Colombo, ya encuadra a los sistemas de IA generativa como actividades riesgosas por su propia naturaleza. Esto significa que el desarrollador, el proveedor y el responsable del despliegue responden aunque no medie culpa. La víctima solo tiene que probar el daño y la relación de causalidad.
Chile, por su parte, acaba de estrenar la Ley 21.719 de protección de datos personales (vigente desde 2026), que permite sancionar con hasta 20.000 UTM el tratamiento ilícito de imágenes. Además, el Boletín 16.821-19 propone una ley de inteligencia artificial que replica el enfoque de riesgos de la Unión Europea. Ahora bien, los tribunales chilenos ya han tenido que actuar por la vía del recurso de protección, como en el caso del Colegio de Santiago, donde se ordenó retirar desnudos sintéticos de estudiantes. La lección: la tutela ex post es necesaria, pero llega cuando el daño ya es viral e irreversible.
La pregunta que nadie puede evitar: ¿basta con etiquetar?
El Reglamento Europeo de Inteligencia Artificial (2024/1689) impone a los responsables del despliegue la obligación de etiquetar los contenidos sintéticos con marcas de agua visibles. Es una medida de transparencia, sin duda. Pero aquí surge la tensión: ¿una advertencia de que el contenido es falso excluye la ilicitud? La respuesta es no. Como sostiene la doctrina más autorizada, el derecho a la propia imagen es un derecho de disposición. Aunque el vídeo lleve un cartel que diga «generado por IA», si se ha utilizado el rostro de una persona sin su consentimiento para un desnudo simulado, la humillación social persiste. La etiqueta no purga el agravio.
De hecho, alguna propuesta legislativa española (como la del Grupo SUMAR) sugería que la advertencia podría operar como causa de exclusión de la responsabilidad. Sería un error. La protección de la dignidad no puede depender de un letrero.
Lo que viene en el informe completo
En el PDF que puede descargar a continuación analizamos con detalle:
- Las reformas penales y civiles en España (incluido el Anteproyecto de enero de 2026 que eleva a 16 años la edad de consentimiento digital).
- El Proyecto de Ley Belén en Argentina, que tipifica la difusión de desnudos sintéticos, impulsado por el suicidio de una víctima de extorsión.
- Los proyectos chilenos de violencia digital (Boletín 13.928-07) y la futura Agencia de Protección de Datos.
- Un estudio de derecho comparado con la ELVIS Act de Tennessee, la Take It Down Act estadounidense, la ley australiana de 2024 y el enfoque preventivo de China.
- Propuestas concretas: seguro obligatorio de responsabilidad algorítmica, mecanismos expeditos de retirada (el «Canal Prioritario» de la AEPD como modelo) y la armonización regional de la integridad digital.
Si quiere comprender cómo están respondiendo los ordenamientos iberoamericanos a la mayor amenaza para los derechos de la personalidad en la era de la IA, descargue el informe completo. Encontrará las claves para litigar, asesorar o legislar con conocimiento de causa. No es un resumen: es la hoja de ruta que todo jurista necesita ante la disrupción de las ultrasuplantaciones.
Conclusiones accionables
- La imagen sintética ya es dato personal: la Resolución PS-00132-2025 de la AEPD marca el camino; Argentina y Chile deben seguir esa senda.
- Responsabilidad objetiva o indefensión: el artículo 1757 del CCCN argentino es la herramienta más potente; Chile debería incorporar un régimen similar en su futura ley de IA.
- El etiquetado no basta: la transparencia es necesaria, pero no sustituye el consentimiento para usar la imagen ajena.
- La violencia digital tiene rostro de mujer: cualquier reforma debe priorizar la protección de mujeres y menores, que son el 99% de las víctimas.
- La cooperación regional es urgente: las órdenes de retirada deben ser efectivas más allá de las fronteras; necesitamos protocolos comunes entre agencias de protección de datos.
Artículos relacionados
Deepfakes en el proceso judicial: cuando la inteligencia artificial obliga a repensar la prueba digital
Análisis de los desafíos procesales de los deepfakes: por qué la inmediación del juez ya no basta y cómo la ISO 27037 y el Reglamento de IA pueden salvar la presunción de inocencia.
STS 3826/2025: El Estado tendrá que abrir sus algoritmos (pero no como esperabas)
Análisis de la sentencia que obliga a auditar el código de BOSCO, el algoritmo del bono social. 1,2M hogares afectados, acceso en sandbox.
Johnson v. Dunn: Inhabilitación de abogados por citas alucinadas de ChatGPT en litigación federal
Análisis de la orden de sanciones del N.D. Alabama (julio 2025): inhabilitación, reprensión pública y remisión al Colegio de Abogados por citas fabricadas con IA generativa.
Fraude deepfake en tiempo real: el caso Arup y el AI Act ante las ultrasuplantaciones
Un empleado de Arup transfirió 25,6M$ a estafadores que suplantaron a directivos con IA generativa. Análisis del AI Act, vacíos penales y protocolos Zero Trust.