TAKE IT DOWN Act: la respuesta federal de Estados Unidos al abuso de deepfakes sexuales
TAKE IT DOWN Act: la respuesta federal de Estados Unidos al abuso de deepfakes sexuales
El 19 de mayo de 2025, el presidente de los Estados Unidos promulgó la Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act (en adelante, TAKE IT DOWN Act o la Ley), Pub. L. 119-12, convirtiendo la norma en el primer instrumento federal de alcance general que tipifica penalmente la publicación no consentida de representaciones visuales íntimas —tanto auténticas como generadas mediante inteligencia artificial— y que impone a las plataformas digitales obligaciones concretas de notificación y retirada de contenido. La Ley, promulgada con respaldo bipartidista y aprobada por ambas cámaras del Congreso en el primer trimestre de 2025, responde a una realidad que el derecho federal estadounidense no había abordado de manera sistemática: la proliferación de deepfakes sexuales como forma de abuso, acoso y extorsión que afecta de manera desproporcionada a mujeres y menores. Este análisis examina su arquitectura normativa, los elementos definitorios de los tipos delictivos y las obligaciones que impone a las plataformas, con especial atención a las tensiones interpretativas que la norma plantea.
El contexto de una brecha regulatoria prolongada
La protección federal frente a la difusión no consentida de material íntimo ha sido, hasta la promulgación de la TAKE IT DOWN Act, un ámbito fragmentado. A nivel federal, la sección 230 de la Communications Decency Act (47 U.S.C. § 230) había actuado durante décadas como escudo para las plataformas digitales frente a la responsabilidad por contenido generado por usuarios, incluyendo material íntimo difundido sin consentimiento. Varios estados habían aprobado legislación propia —con alcance y eficacia variables— pero la ausencia de un tipo federal dejaba importantes lagunas, especialmente respecto a conductas que transcurren en el comercio interestatal o internacional y frente a plataformas que operan a escala nacional.
La generalización de herramientas de IA generativa agravó esta situación. Cuando las imágenes íntimas no se obtienen subrepticiamente sino que se fabrican a partir de fotografías ordinarias, los tipos penales diseñados para la difusión de material real no ofrecen una respuesta clara. La TAKE IT DOWN Act cierra esta brecha mediante una decisión técnico-legislativa que, como se verá, tiene consecuencias jurídicas relevantes: la equiparación estructural entre material auténtico y digital forgeries dentro del mismo marco normativo, con regímenes penales análogos aunque no idénticos.
Los tipos penales y su arquitectura dual
La Ley introduce los nuevos tipos penales mediante enmienda a la sección 223 de la Communications Act of 1934 (47 U.S.C. § 223), añadiendo un apartado (h) que estructura las conductas prohibidas en dos grandes categorías paralelas: ofensas que involucran representaciones visuales íntimas auténticas (párrafo 2) y ofensas que involucran digital forgeries (párrafo 3). Esta dualidad no es meramente formal; responde a diferencias en la configuración de los elementos objetivos del tipo y, por tanto, tiene consecuencias prácticas en la prueba.
La digital forgery se define en la Ley como cualquier representación visual íntima de un individuo identificable creada mediante software, aprendizaje automático, inteligencia artificial o cualquier otro medio computacional o tecnológico —incluyendo la adaptación, modificación o manipulación de una representación auténtica— que, contemplada en su conjunto por una persona razonable, resulte indistinguible de una representación auténtica. La definición incorpora así dos elementos que merecen atención: el estándar de la persona razonable como criterio de indistinguibilidad y la inclusión expresa de material resultante de la manipulación de imágenes auténticas, no solo de generación ex novo. Esto último es relevante porque captura técnicas como el face-swapping sobre material pornográfico, que podría no encajar en una definición más restrictiva centrada en la síntesis completa.
Para los adultos como sujetos pasivos, el tipo delictivo en su modalidad de digital forgery requiere que la publicación se haya producido sin el consentimiento del individuo identificable, que lo representado no haya sido voluntariamente expuesto en un entorno público o comercial, que no constituya un asunto de interés público, y que la publicación esté destinada a causar daño o efectivamente lo cause —incluyendo daño psicológico, económico o reputacional—. El régimen aplicable a los menores es más estricto en un sentido importante: se prescinde del elemento de daño, siendo suficiente la intención de abusar, humillar, acosar o degradar al menor, o de excitar o satisfacer el deseo sexual de cualquier persona. Esta asimetría responde a la lógica protectora reforzada que el ordenamiento estadounidense aplica a los menores en materia de contenido sexual, y guarda coherencia con los tipos penales preexistentes sobre material de abuso sexual infantil.
Las penas máximas se sitúan en dos años de prisión para las ofensas que afectan a adultos y en tres años para las que afectan a menores, con penas análogas para las amenazas de cometer tales ofensas, aunque en este último supuesto la escala se reduce —dieciocho meses para amenazas relacionadas con adultos, treinta meses para las relacionadas con menores—. La Ley prevé, además, la confiscación del material distribuido, de los beneficios derivados de la infracción y de los bienes utilizados para cometerla, así como la restitución a las víctimas con arreglo al régimen establecido en la sección 2264 del título 18 del Código de los Estados Unidos.
Las reglas de construcción sobre el consentimiento
Uno de los aspectos técnicamente más cuidados de la Ley son las reglas de construcción que el párrafo 5 establece en materia de consentimiento. La norma precisa que el hecho de que el individuo identificable haya prestado consentimiento para la creación de la representación visual íntima no implica que haya prestado consentimiento para su publicación. Igualmente, el hecho de que el individuo haya compartido la representación con otra persona no implica que haya consentido su publicación por el infractor imputado.
Estas reglas no son superfluas. Responden a argumentos defensivos que han aparecido reiteradamente en la litigación sobre difusión no consentida de imágenes íntimas: que la víctima consintió la toma de las imágenes, o que las compartió con el infractor en el contexto de una relación íntima. La Ley cierra expresamente ambas vías de defensa, lo que simplifica la tarea probatoria para la fiscalía y reduce el riesgo de que la víctima sea sometida a una indagación sobre su conducta sexual previa que resulta irrelevante para la determinación de la responsabilidad penal del infractor.
La definición de consentimiento que la Ley adopta —autorización afirmativa, consciente y voluntaria, libre de fuerza, fraude, coacción, falsa representación o intimidación— es igualmente relevante. Al incorporar explícitamente el fraude y la falsa representación como vicios que excluyen el consentimiento válido, la norma captura situaciones en que el infractor obtuvo imágenes o material mediante engaño, lo que es especialmente pertinente en el contexto de plataformas de citas o de relaciones en las que la identidad o las intenciones del interlocutor eran falsas.
Las obligaciones de takedown y el papel de las plataformas
El artículo 3 de la Ley introduce un régimen de obligaciones para las covered platforms —plataformas digitales que sirven al público y que principalmente proporcionan un foro para contenido generado por usuarios, o para quienes la publicación de representaciones visuales íntimas no consentidas forma parte de su actividad comercial habitual— que constituye quizás el elemento más novedoso e inmediatamente operativo de la norma.
Las plataformas deben establecer, en el plazo de un año desde la promulgación, un proceso mediante el cual los individuos afectados puedan notificar la existencia de una representación visual íntima publicada sin su consentimiento y solicitar su retirada. La notificación ha de incluir la firma física o electrónica del afectado, la identificación del contenido con información suficiente para que la plataforma lo localice, una declaración de buena fe sobre la ausencia de consentimiento, y datos de contacto. Una vez recibida una solicitud válida, la plataforma debe retirar el contenido —y realizar esfuerzos razonables para identificar y retirar copias idénticas conocidas— en el plazo máximo de 48 horas.
El cumplimiento de este mandato se encomienda a la Comisión Federal de Comercio (en adelante, FTC), que puede hacer valer las obligaciones de la Ley como si de una violación de sus propias reglas sobre prácticas desleales o engañosas se tratara, con la amplitud de poderes sancionadores que la Federal Trade Commission Act le confiere. La Ley extiende expresamente la competencia de la FTC a organizaciones sin ánimo de lucro, lo que cierra una laguna que la interpretación tradicional de la FTC Act dejaba abierta.
La limitación de responsabilidad que el párrafo 4 del artículo 3 otorga a las plataformas que retiran de buena fe material identificado como representación visual íntima no consentida —con independencia de que el contenido sea en última instancia ilícito o no— es un elemento de diseño que busca eliminar los desincentivos a la retirada rápida. En ausencia de esta protección, las plataformas podrían verse expuestas a reclamaciones por retirada indebida de contenido legítimo, lo que generaría incentivos para la inacción. La Ley invierte explícitamente esta estructura de incentivos.
Tensiones interpretativas y cuestiones abiertas
La TAKE IT DOWN Act no está exenta de complejidades. Desde la perspectiva de la Primera Enmienda, el tipo delictivo aplicable a los adultos incorpora el elemento de interés público como excepción —lo que representado no constituya un asunto de interés público—, lo que inevitablemente abre un espacio de litigación sobre los límites de esta excepción en contextos periodísticos, artísticos o de sátira política que involucren representaciones de figuras públicas. El estándar de la digital forgery —indistinguible de una representación auténtica a juicio de una persona razonable— puede resultar difícil de aplicar en un entorno tecnológico en constante evolución, donde los marcadores de artificialidad que hoy permiten identificar un deepfake pueden desaparecer con la siguiente generación de modelos de IA.
El régimen de takedown en 48 horas plantea, a su vez, preguntas sobre la capacidad técnica y organizativa de plataformas de distintos tamaños para cumplir con el mandato. La Ley no distingue entre grandes plataformas con equipos de moderación consolidados y servicios más pequeños, lo que puede generar una presión de cumplimiento desproporcionada sobre estos últimos. No existe tampoco un mecanismo explícito de recurso para los titulares de contenido retirado que consideren que la solicitud era abusiva o fraudulenta, lo que deja abierta la cuestión de cómo se articulará el due process en la práctica.
Finalmente, la relación de la Ley con la sección 230 de la Communications Decency Act merece atención. La norma no modifica explícitamente la sección 230, pero el mandato de takedown bajo supervisión de la FTC crea un régimen de responsabilidad administrativa para las plataformas que no depende de que estas sean consideradas "publicadoras" del contenido en el sentido de la sección 230. Esta articulación —presión regulatoria indirecta sobre las plataformas sin alteración formal del escudo de responsabilidad civil— puede convertirse en un modelo para futuras intervenciones regulatorias en el ámbito del contenido dañino generado por IA.
Conclusiones y perspectiva comparada
La TAKE IT DOWN Act supone un avance normativo significativo en el ordenamiento federal estadounidense y ofrece varios elementos de interés para el análisis comparado con otras jurisdicciones que están desarrollando marcos regulatorios para los deepfakes sexuales.
-
Neutralidad tecnológica integrada: la equiparación de material auténtico y digital forgeries dentro de un mismo marco penal, con regímenes análogos aunque no idénticos, constituye una solución técnicamente más robusta que la creación de tipos específicos para deepfakes que quedan expuestos a la obsolescencia tecnológica.
-
El mandato de 48 horas como estándar de facto: la obligación de retirada en 48 horas establecida para las plataformas es sustancialmente más estricta que los estándares previstos en otros ordenamientos —el Reglamento de Servicios Digitales europeo, por ejemplo, no establece plazos tan cortos con carácter general— y puede influir en la fijación de expectativas a escala global sobre la diligencia exigible a las plataformas.
-
El papel de la FTC como autoridad de control: la elección de la FTC como organismo supervisor, con extensión expresa de su competencia a entidades sin ánimo de lucro, ofrece un modelo de enforcement administrativo que prescinde de la creación de una nueva autoridad sectorial.
-
Las reglas de construcción sobre el consentimiento: la codificación expresa de que el consentimiento para la creación no implica consentimiento para la publicación, y que la difusión previa a otra persona tampoco lo implica, es una solución legislativa que debería incorporarse en cualquier regulación equivalente que se diseñe en otros contextos.
La comparación con el modelo australiano analizado en este blog —donde la Criminal Code Amendment (Deepfake Sexual Material) Act 2024 optó igualmente por la neutralidad tecnológica, pero con una pena máxima de seis años frente a los dos o tres previstos en la norma federal estadounidense— sugiere que la intensidad de la respuesta penal varía significativamente entre jurisdicciones que comparten el diagnóstico sobre la gravedad del fenómeno. La convergencia en los principios y la divergencia en la intensidad sancionadora es, en sí misma, un dato relevante para el debate sobre la armonización internacional en este ámbito.
Este análisis tiene carácter informativo y no constituye asesoramiento jurídico. La normativa estadounidense aquí referenciada debe interpretarse con arreglo a su contexto jurisdiccional específico.
Artículos relacionados
Deepfakes sexuales e IA: el modelo regulatorio australiano como referencia global
Australia tipifica penalmente los deepfakes sexuales mediante la Criminal Code Amendment Act 2024. Análisis de su régimen sancionador, protección de menores y respuesta institucional en centros educativos.
Alucinaciones de IA en sede judicial: costas personales contra el abogado en Tajudin v Mohideen [2025] SGHCR 33
Análisis de la primera resolución singapurense que impone costas personales por citar jurisprudencia ficticia generada por IA, con proyección al marco europeo.
Propuesta de Ley Danesa sobre Protección contra Deepfakes: Reforma de Derechos de Autor e IA
Análisis jurídico exhaustivo de la propuesta de ley danesa de modificación de la ley de ophavsretten (derechos de autor) para proteger contra deepfakes, simulacros digitales generados por IA y presuntas artísticas de artistas. Normativa europea, derechos fundamentales, gobernanza digital.
Responsabilidad penal por IA y deepfakes de pornografía infantil (Informe Gobierno 2026)
Resumen práctico del análisis dual de responsabilidad penal por IA y deepfakes de pornografía infantil basado en el Informe Técnico del Gobierno de España 2026.
