IA Global

El Caso Getty Images v. Stability AI bajo la Óptica del Reglamento de Inteligencia Artificial de la UE

El Caso Getty Images v. Stability AI bajo la Óptica del Reglamento de Inteligencia Artificial de la UE

©Ricardo Scarpa ( derechoartificial.com) 06/02/2025

1. Resumen Ejecutivo: Síntesis Técnica de la Decisión y el Entorno Normativo

La sentencia dictada por la Jueza Joanna Smith DBE en el casoGetty Images v. Stability AI[2025] EWHC 38 (Ch) constituye un hito jurisprudencial que redefine la ontología jurídica de los modelos de inteligencia artificial generativa. Este pronunciamiento no solo resuelve una controversia sobre propiedad intelectual, sino que establece la infraestructura conceptual necesaria para laauditoría técnica de algoritmosy el cumplimiento delReglamento de Inteligencia Artificial de la UE (AI Act). Para la comunidad jurídica de derechoartificial.com, el fallo clarifica que la responsabilidad proactiva del desarrollador se extiende más allá del código, abarcando la gobernanza integral de los datos y el control del "pipeline" de inferencia.

De la ratio decidendi del tribunal se desprenden los siguientes hallazgos técnicos fundamentales:

  • **El Proceso de Materialización como Acto Infractor Teórico:**El tribunal identificó que la descarga y almacenamiento temporal de imágenes en clústeres de GPU para el entrenamiento constituye el acto de "materialización" (reproducción). No obstante, la demanda por infracción en el entrenamiento fue desestimada por razones jurisdiccionales, al no poder acreditarse que dicho proceso ocurriera en el Reino Unido (utilizando Stability AI clústeres de AWS situados en el extranjero).
  • **Ontología de los Pesos del Modelo (Model Weights):En una distinción técnica crucial para auditores, se determinó que los pesos del modelo son parámetros matemáticos que codifican patrones y no copias de los datos. La desproporción física entre el dataset de entrenamientoLAION-5B (aprox. 220TB)**y el archivo binario de los pesos (3.44GB) evidencia, según el tribunal, que el modelo no almacena ni reproduce las obras originales, sino que aprende una distribución de probabilidad estadística.
  • Infracción de Marcas Registradas y Evidencia Empírica:El tribunal falló a favor de Getty Images en puntos específicos: se declaró lainfracción por doble identidad(Section 10(1) TMA) respecto a las marcas deiStocken la versión v1, y lainfracción por riesgo de confusión(Section 10(2) TMA) para las marcas deGettyen la versión v2. Por el contrario, las reclamaciones sobre SDXL y v1.6 fueron desestimadas ante la ausencia de evidencia de usuarios reales en el Reino Unido generando dichas marcas.

Estos hallazgos actúan como premisa técnica necesaria para el desglose normativo europeo, donde la distinción entre el proceso de creación y el producto final dictará el nivel de cumplimiento exigido.

2. Análisis Normativo: Categorías de Riesgo y Obligaciones de Transparencia (AI Act UE 2026)

Bajo el marco delReglamento de Inteligencia Artificial de la UE, sistemas como Stable Diffusion se clasifican como modelos de IA de propósito general (GPAI). Esta categorización, especialmente bajo elArtículo 53 de la AI Act, impone obligaciones rigurosas de transparencia y documentación técnica. La sentencia británica refuerza la tesis de que el desarrollador no es un "agente pasivo", sino el arquitecto de un sistema complejo donde la gobernanza de datos es el eje de la legalidad.

A continuación, se correlacionan los hechos técnicos del caso con las obligaciones normativas bajo la AI Act y la Directiva de Derechos de Autor:

Hecho Técnico del Caso (Source Context)

Obligación bajo la AI Act / Directiva UE

Uso del dataset LAION-5B (6 mil millones de pares URL-texto) financiado por Stability AI.

Artículo 53 AI Act: Obligación de elaborar y mantener actualizada la documentación técnica y un resumen detallado del contenido utilizado para el entrenamiento.

Proceso de "materialización" (descarga de imágenes desde URLs para entrenamiento).

Artículos 3 y 4 Directiva (UE) 2019/790: Cumplimiento de la excepción de minería de textos y datos (TDM), condicionada al respeto del opt-out de los titulares de derechos.

Implementación de filtros NSFW y detectores de seguridad en el "pipeline".

Gestión de Riesgos (ISO 42001): Evaluación proactiva para mitigar sesgos y prevenir la generación de contenidos que vulneren derechos fundamentales o la reputación de marca.

Capacidad de "memorización" y salida estocástica de marcas de agua.

Artículo 52 AI Act: Obligaciones de transparencia y etiquetado, garantizando que el output no induzca a error sobre su origen sintético o su relación con terceros.

La desestimación del argumento de "herramienta pasiva" por parte de la Jueza Smith es esencial para laISO 42001. El tribunal subrayó que Stability AI ejerce "control absoluto" sobre el dataset y el diseño del "pipeline" (que incluye post-procesamiento y filtros). Esta soberanía técnica conlleva unaresponsabilidad proactivaineludible: el desarrollador es responsable de las consecuencias de sus elecciones de entrenamiento, lo que alinea la práctica comercial con los estándares de gobernanza europeos de 2026.

3. Implicaciones Deontológicas: Secreto Profesional y Protección del Dato Jurídico

La integración de modelos de IA en el sector legal exige un análisis de "Privacidad desde el Diseño" para evitar la colisión con el deber de sigilo y el secreto profesional. La sentencia británica, a través de suTechnical Primer, aporta conceptos clave para la gestión de riesgos deontológicos.

Riesgos de Memorización y Regurgitación Algorítmica

El tribunal analizó dos fenómenos técnicos que suponen un riesgo crítico para el sigilo profesional:

  1. **Memorización (Overfitting):**Ocurre cuando el modelo, debido a un entrenamiento excesivo sobre datos poco diversos o duplicados, optimiza sus pesos para recordar registros específicos.
  2. **Regurgitación:**La capacidad del sistema para emitir copias casi idénticas de los datos de entrenamiento (como las marcas de agua de Getty).

En la práctica jurídica, si un modelo de lenguaje o imagen es entrenado con activos confidenciales, existe el riesgo técnico de que dichos datos sean "regurgitados" antepromptsespecíficos de terceros, fragmentando irreversiblemente el secreto profesional.

Directrices para la Implementación de ISO 42001 en el Sector Legal

Para mitigar estas contingencias, la implementación de sistemas de gestión de IA en despachos debe seguir estas directrices de auditoría: