analisis-juridico

Deepfakes en el proceso judicial: cuando la inteligencia artificial obliga a repensar la prueba digital

Imagine un juicio por corrupción. La acusación presenta un vídeo donde el imputado recibe un sobre con dinero. El acusado jura que él nunca estuvo allí, que es un montaje. Hasta hace poco, el juez podía confiar en sus ojos, en la «inmediación». Hoy, con los deepfakes generados por inteligencia artificial, esa confianza es un lujo que el sistema de justicia ya no puede permitirse.

Las Redes Adversarias Generativas (GAN) han alcanzado lo que los matemáticos llaman un equilibrio de Nash: el fraude es indistinguible de la realidad, tanto para el ojo humano como para la mayoría de los detectores automáticos. Y esto, en el ámbito jurídico, no es un detalle menor. Es la quiebra del paradigma «ver para creer» que ha sostenido la prueba audiovisual durante décadas.

La muerte de la inmediación sensorial

La jurisprudencia española, en sentencias como la STS 692/2023, sigue aferrada a la idea de que el juez puede valorar la prueba conforme a la «sana crítica». Pero, ¿de qué sana crítica hablamos cuando el contenido puede ser generado píxel a píxel por un algoritmo entrenado precisamente para engañar?

Lo más llamativo del informe que hemos preparado en derechoartificial.com es la constatación de que las herramientas forenses más avanzadas —como los Vision Transformers (ViT), que alcanzan precisiones del 96%— son ya imprescindibles. Sin embargo, su uso no está generalizado en los juzgados. La realidad es que la mayoría de los tribunales carecen de peritos informáticos integrados y la cadena de custodia digital se gestiona con protocolos pensados para el papel.

La carrera armamentista entre falsificadores y detectores

Aquí es donde el análisis se complica. Cada vez que los investigadores publican un nuevo método de detección (por ejemplo, el análisis de señales de fotopletismografía remota, que detecta variaciones imperceptibles en el color de la piel causadas por el pulso sanguíneo), los creadores de deepfakes incorporan ese conocimiento para entrenar sus modelos. Es un bucle de retroalimentación que lleva a un punto donde, como señala el informe, «el fraude se vuelve indistinguible incluso para algoritmos avanzados».

¿Qué implica esto para un proceso penal? Que una defensa bien asesorada puede impugnar cualquier prueba digital sembrando la duda sobre su autenticidad. Es la llamada «defensa deepfake», un riesgo real de impunidad para quienes saben explotar la tecnología. Y al otro lado, la posibilidad de condenar a un inocente porque un vídeo falso parecía real.

El estándar ISO 27037 como salvavidas procesal

Frente a este panorama, el informe destaca un camino: la adopción obligatoria de la norma ISO/IEC 27037:2012 para la gestión de evidencias digitales. No se trata de una ocurrencia tecnológica, sino de un estándar internacional que garantiza la trazabilidad bit a bit desde el momento de la incautación. Su cumplimiento —con hash, sellado de tiempo y cadena de custodia documentada— es la única manera de que un archivo digital pueda ser admitido sin que su autenticidad se convierta en un campo de batalla irresoluble.

Dicho esto, la norma no es mágica. Su aplicación efectiva requiere formación especializada y, sobre todo, un cambio de mentalidad en los operadores jurídicos. Hoy, la mayoría de los jueces nunca han oído hablar de ella.

Lo que la UE ya está legislando (y España aún no)

La Directiva (UE) 2024/1385 sobre violencia contra las mujeres ya obliga a los Estados miembros a criminalizar la difusión no consentida de deepfakes sexuales. Por su parte, el Reglamento de IA exige el etiquetado de contenidos sintéticos. Pero la trasposición en España avanza con lentitud, y mientras tanto los tribunales se enfrentan a casos sin herramientas legales específicas.

El informe que hemos preparado analiza en detalle estas lagunas y propone reformas concretas: desde la creación de un delito autónomo de abuso de imágenes generadas por IA hasta la institucionalización de peritos informáticos en los juzgados.

Lo que viene en el informe completo

En el PDF encontrará:

  • Un análisis pormenorizado de las técnicas forenses más avanzadas (Vision Transformers, rPPG, análisis de metadatos) con sus fortalezas y debilidades.
  • El estudio de la jurisprudencia española y comparada sobre autenticación de pruebas digitales.
  • Las propuestas de lege ferenda para reformar la LEC y la LECrim, inspiradas en el Reglamento de IA y la Directiva 2024/1385.
  • Un examen del riesgo de «construcción paralela» y cómo la opacidad algorítmica puede vulnerar derechos fundamentales.

Si quiere profundizar en cómo los deepfakes están transformando el derecho probatorio y qué medidas concretas pueden adoptarse para blindar la presunción de inocencia, descargue el informe completo. Allí encontrará las claves técnicas, jurisprudenciales y normativas que todo jurista debe conocer en la era de la inteligencia artificial generativa.

Conclusiones accionables

  • La inmediación ha muerto: ningún juez puede confiar únicamente en su percepción para autenticar un vídeo o audio.
  • La cadena de custodia digital debe ser norma: aplicar ISO 27037 no es opcional, es la única garantía de integridad.
  • La «defensa deepfake» es real: los tribunales deben prepararse para impugnaciones masivas de pruebas digitales.
  • Europa ya legisla: España debe trasponer cuanto antes la Directiva 2024/1385 y adaptar el Código Penal a las ultrafalsificaciones.
  • La tecnología no es neutral: necesitamos peritos informáticos integrados en la administración de justicia y formación obligatoria para jueces y fiscales.