investigacion

Desafíos Sistémicos y Metamorfosis de la Protección del Consumidor en el Mercado Único Digital: De la Directiva 93/13 a la Digital Fairness Act

Resumen

El presente artículo analiza la transición del régimen de protección frente a las cláusulas abusivas en la Unión Europea, tomando como eje la evolución desde la Directiva 93/13/CEE hasta la futura propuesta de la Digital Fairness Act (DFA), prevista para el cuarto trimestre de 2026. A través de un análisis exhaustivo del corpus documental ---que incluye la obra monográfica dirigida por Cámara Lapuente (2026), los informes del Parlamento Europeo (Loos & Luzak, 2021), los resultados del Fitness Check de la Comisión Europea (2024) y las propuestas del BEUC (2025)--- se examina cómo el ecosistema digital ha sometido a una «prueba de estrés» la capacidad de adaptación de los conceptos jurídicos tradicionales. Los resultados evidencian que, si bien la Directiva 93/13 mantiene su utilidad, la asimetría de poder, la explotación de sesgos cognitivos mediante patrones oscuros y la opacidad en sistemas de inteligencia artificial exigen un giro hacia la «justicia por diseño». El estudio concluye que el Derecho de consumo digital debe evolucionar desde el control de transparencia formal hacia un modelo de equidad estructural que garantice la autonomía real de la voluntad en interfaces complejas.

Palabras clave: cláusulas abusivas, servicios digitales, Digital Fairness Act, transparencia material, patrones oscuros, vulnerabilidad digital.


I. Introducción

El panorama contractual digital en 2026 dista sustancialmente del ecosistema existente hace tres décadas, cuando se promulgó la Directiva 93/13/CEE sobre cláusulas abusivas. Mientras que el marco original fue concebido para transacciones fuera de línea (offline) y operaciones de intercambio simples, la realidad actual se caracteriza por el predominio de servicios digitales, la economía de plataformas y el tratamiento masivo de datos como contraprestación de facto (Cámara Lapuente, 2026, p. 23). Esta evolución ha forzado que los conceptos abiertos de la Directiva ---como la buena fe y el equilibrio importante de derechos y obligaciones--- actúen de forma maleable, aunque no exenta de críticas por la disparidad en su aplicación por parte de los tribunales nacionales (Cámara Lapuente, 2026, p. 30; Loos & Luzak, 2021, p. 3).

La última década, iniciada con la Estrategia para el Mercado Único Digital de 2015, ha consolidado un cuerpo normativo ambicioso que integra reglamentos como la DSA, la DMA, la Data Act y la reciente RIA (Cámara Lapuente, 2026, p. 24). Sin embargo, el informe de adecuación de la normativa de consumo (Fitness Check on Digital Fairness), publicado por la Comisión Europea en octubre de 2024, ha revelado brechas significativas de protección (European Commission, 2024, p. 3). Aunque no se ha podido verificar una cifra exacta de perjuicio financiero anual en las fuentes consultadas, diversos informes señalan la magnitud del problema a través de datos agregados sobre prácticas desleales (BEUC, 2025, p. 4). Entre las prácticas más problemáticas identificadas destacan los patrones oscuros (dark patterns), los flujos de cancelación dificultosos en contratos de suscripción y la personalización de precios basada en perfiles de comportamiento (European Commission, 2024, p. 4; BEUC, 2025, p. 8).

En este contexto, la presidenta de la Comisión Europea ha encargado al Comisario de Justicia la elaboración de una propuesta de Digital Fairness Act (DFA) para el cuarto trimestre de 2026 (Digital Fairness Act | EU Tracker, 2025). Esta futura norma pretende ser «la pieza que falta en el rompecabezas» regulatorio, abordando el diseño adictivo y la manipulación algorítmica que la Directiva 93/13 no logra cubrir plenamente por sí sola (Cámara Lapuente, 2026, p. 28). El objetivo de este artículo es analizar, con base en las investigaciones académicas más recientes y la jurisprudencia del TJUE (como el asunto Compass, C‑646/22, de 14 de noviembre de 2024), si el sistema actual debe transitar hacia un modelo de listas negras de cláusulas para servicios digitales y hacia un estándar de «justicia por diseño» que trascienda el mero deber de información (Ruiz Vega & Mora Astaburuaga, 2026, p. 204; Loos & Luzak, 2021, p. 49).


II. El Control de Abusividad en Transición: Coexistencia Normativa y Lagunas de la Directiva 93/13

El régimen de protección contra las cláusulas abusivas en la Unión Europea, fundamentado en la Directiva 93/13/CEE, atraviesa una fase de metamorfosis conceptual motivada por la digitalización de la economía. Aunque la cláusula general de abusividad ha permitido una aplicación flexible durante tres décadas, la actual «prueba de estrés» del mercado digital revela que los mecanismos tradicionales resultan insuficientes para abordar fenómenos como la manipulación algorítmica y la asimetría estructural en la economía de datos (Cámara Lapuente, 2026, p. 23).

2.1. El valor de la cláusula general de abusividad ante los servicios digitales

La Directiva 93/13 basa su eficacia en conceptos abiertos como la «buena fe» y el «desequilibrio importante» de derechos y obligaciones, los cuales han mostrado una versatilidad digna de encomio para adaptarse a todo tipo de contratos celebrados en línea (Cámara Lapuente, 2026, p. 23). No obstante, esta elasticidad se encuentra actualmente bajo una difícil prueba de estrés debido al carácter disruptivo de algunos servicios digitales y a la falta de un marco legal nacional o europeo definido para muchas de estas nuevas prestaciones (Cámara Lapuente, 2026, p. 23). Parte de la doctrina académica advierte que esta indeterminación genera inseguridad jurídica debido a la disparidad en la interpretación y aplicación de estos conceptos por parte de los tribunales nacionales (Cámara Lapuente, 2026, p. 30). Por ello, se propone que el control de abusividad debe evolucionar desde el análisis aislado del texto contractual hacia una evaluación sistémica del diseño de la interfaz, bajo el paradigma de la «justicia por diseño» (Ruiz Vega & Mora Astaburuaga, 2026, p. 204).

2.2. Interacción sistémica: Directiva 93/13 frente a DSA, DMA, Data Act y AI Act

La última década ha consolidado un ecosistema de reglamentos transversales que complementan el régimen de protección de la Directiva 93/13:

  • Reglamento de Servicios Digitales (DSA). Impone obligaciones de transparencia en su artículo 14, exigiendo que las restricciones de uso y políticas de moderación de contenidos se expongan en un lenguaje claro, sencillo e inequívoco (Arroyo Amayuelas, 2026, p. 228). Si bien la DSA no regula directamente la nulidad contractual, la infracción de estos deberes de transparencia constituye un indicio cualificado de abusividad bajo la Directiva 93/13 (Arroyo Amayuelas, 2026, p. 238).

  • Reglamento de Mercados Digitales (DMA). Introduce la noción de «falta de equidad» (unfairness) para regular las relaciones con los guardianes de acceso, prohibiendo la imposición de condiciones generales desproporcionadas que limiten la libre elección de los usuarios (Cámara Lapuente, 2026, p. 35).

  • Reglamento de Datos (Data Act). Es pionero al incorporar un control de abusividad específico para cláusulas de acceso y uso de datos en su artículo 13, estableciendo un sistema de listas negras y grises que sirve de modelo para la futura reforma de la normativa de consumo (Loos, 2026, p. 98).

  • Reglamento de Inteligencia Artificial (AI Act). Exige transparencia sobre los contenidos protegidos utilizados para el entrenamiento de modelos generativos y prohíbe técnicas de manipulación que anulen la autonomía del usuario (García Pérez, 2026, p. 492).

2.3. Hacia una propuesta de Digital Fairness Act (cuarto trimestre de 2026): cerrando brechas regulatorias

El diagnóstico derivado del Fitness Check de 2024 concluye que las normas vigentes dejan «zonas grises» que los proveedores explotan, causando un perjuicio financiero significativo a los consumidores europeos (European Commission, 2024, p. 4). Prácticas como el diseño adictivo, los precios por goteo (drip pricing) y las barreras deliberadas para cancelar suscripciones han quedado fuera del alcance directo y efectivo de la normativa tradicional (ibid.). La futura Digital Fairness Act (DFA), cuya propuesta legislativa se prevé para el cuarto trimestre de 2026, tiene como objetivo codificar estas nuevas formas de abusividad (Digital Fairness Act | EU Tracker, 2025). Esta norma pretende desplazar la carga de la prueba hacia el profesional y obligarle a demostrar que el diseño de sus servicios garantiza la equidad y la libre elección (Cámara Lapuente, 2026, p. 28).


III. Transparencia Material y Vulnerabilidad Digital: El Fin del Consumidor Medio Racional

El control de transparencia en los contratos de contenidos y servicios digitales se ha consolidado como un mecanismo autónomo de regulación del mercado que trasciende el mero deber de información precontractual (Morais Carvalho, 2026, p. 139). En el entorno digital, la transparencia no se limita a la claridad gramatical, sino que requiere que la información sea accesible, inteligible y, sobre todo, útil para que el consumidor pueda evaluar los riesgos económicos de la transacción (Morais Carvalho, 2026, p. 141).

3.1. Dimensiones de la transparencia: lingüística, económica y de acceso

La doctrina propone una tripartición del control de transparencia para adaptarlo a la complejidad de las interfaces en línea. Según Morais Carvalho (2026, p. 156), este control debe evaluarse bajo tres prismas: (i) la transparencia lingüística, referida a la claridad formal del lenguaje; (ii) la transparencia económica, centrada en la comprensión de las consecuencias financieras; y (iii) la transparencia de acceso, que garantiza que los términos estén disponibles de forma efectiva antes de la celebración del contrato. Esta última dimensión es crítica, ya que la legibilidad del texto ---tamaño de fuente, contraste y estructura--- es una condición previa indispensable para un consentimiento válido (Morais Carvalho, 2026, p. 154).

3.2. La arquitectura de elección y los patrones oscuros (dark patterns)

La voluntad del consumidor digital se forma en interfaces que no son neutras, sino que están activamente diseñadas para guiar o condicionar sus decisiones mediante el diseño persuasivo (Ruiz Vega & Mora Astaburuaga, 2026, p. 185). Estas técnicas, denominadas patrones oscuros o interfaces engañosas, buscan inducir al usuario a realizar acciones que no habría tomado en condiciones de plena libertad, explotando sistemáticamente sus vulnerabilidades atencionales y cognitivas (ibid.). La evidencia empírica demuestra que la susceptibilidad a estas manipulaciones no varía significativamente según el nivel educativo o la edad, lo que sugiere que la vulnerabilidad digital es una condición estructural y generalizada del mercado (Ruiz Vega & Mora Astaburuaga, 2026, p. 186).

3.3. El giro jurisprudencial: del consumidor medio a la racionalidad limitada

Un hito fundamental en la evolución de este concepto es la sentencia del Tribunal de Justicia de la Unión Europea de 14 de noviembre de 2024, en el asunto Compass (C‑646/22). En este fallo, el Tribunal reconoce por primera vez de forma explícita que la racionalidad del consumidor no es constante ni invulnerable, admitiendo que el modo de presentación de la oferta puede influir de forma determinante en la comprensión y decisión del usuario (Ruiz Vega & Mora Astaburuaga, 2026, p. 187). Según Cámara Lapuente (2026, p. 71), esta sentencia abre la vía para integrar en el Derecho de consumo las evidencias de la psicología sobre los sesgos cognitivos, superando el estándar del «consumidor medio» puramente racional en favor de uno de racionalidad limitada.


IV. Tipologías de Cláusulas Abusivas de «Nueva Generación»

La evolución de la economía de plataformas ha dado lugar a una nueva generación de condiciones generales de la contratación que, si bien encuentran encaje en la Directiva 93/13/CEE, presentan rasgos disruptivos que dificultan su control mediante los parámetros tradicionales. Estas cláusulas no solo regulan el intercambio de bienes o servicios, sino que articulan la gobernanza privada de espacios digitales y la explotación de activos inmateriales como los datos personales.

4.1. Contratos de suscripción: las «trampas» de renovación y el modelo británico

Los contratos de suscripción digital han proliferado bajo modelos de ingresos recurrentes, planteando riesgos específicos relacionados con la inercia del consumidor (Twigg‑Flesner, 2026, p. 115). Según Twigg‑Flesner (2026, p. 128), las prácticas de renovación automática sin notificaciones previas ---las denominadas «trampas en la suscripción»--- operan como barreras de salida que merman la autonomía del usuario. Un referente regulatorio es la Digital Markets, Competition and Consumers Act 2024 (DMCCA) del Reino Unido, que exige «simetría de cancelación» mediante la regla click‑to‑cancel, obligando a que la salida del contrato sea tan sencilla como su contratación inicial (Cámara Lapuente, 2026, p. 65). Esta norma también invalida la eficacia de las renovaciones «silenciosas» al imponer deberes de recordatorio cada seis meses (Cámara Lapuente, 2026, p. 66).

4.2. Tratamiento de datos personales: muros de cookies y modelos «consiente o paga»

En el ecosistema digital, la información personal se ha consolidado como una contraprestación de facto, lo que supedita la validez de las cláusulas de tratamiento de datos al control de abusividad (Castillo Parrilla, 2026, p. 267). Castillo Parrilla (2026, p. 287) advierte que los modelos Pay or OK («consiente o paga»), en los que Meta fue sancionada en 2025, pueden ser abusivos si no ofrecen una alternativa equivalente que respete la libertad de elección del usuario sin forzar el pago con datos. Asimismo, los muros de cookies que inducen al consentimiento por «fatiga» o mediante interfaces que ocultan la opción de rechazar en «madrigueras de conejo» de configuración se consideran abusivos por contravenir el requisito de información clara y sencilla (Castillo Parrilla, 2026, p. 282).

4.3. Moderación de contenidos: límites a la discrecionalidad del prestador

Las plataformas de comunicación social operan bajo términos de servicio que les permiten actuar como jueces privados sobre el contenido de los usuarios (Arroyo Amayuelas, 2026, p. 213). Arroyo Amayuelas (2026, p. 216) sostiene que la discrecionalidad para eliminar contenidos o suspender cuentas («desplataformización») debe estar anclada en una base contractual objetiva y proporcionada. El artículo 14 de la DSA impone deberes de transparencia que obligan a las plataformas a detallar sus políticas de moderación y herramientas algorítmicas, prohibiendo cláusulas que permitan cancelaciones arbitrarias sin derecho a réplica (Arroyo Amayuelas, 2026, p. 228). La infracción de estos deberes de la DSA constituye, según esta autora, un indicio cualificado de abusividad bajo la Directiva 93/13 (Arroyo Amayuelas, 2026, p. 238).

4.4. Arbitraje y resolución de disputas en el mercado de plataformas

La inclusión de cláusulas de arbitraje obligatorio en contratos digitales B2C es sistemáticamente cuestionada por generar un desequilibrio importante de derechos (Lafuente Sánchez, 2026, p. 303). Según Lafuente Sánchez (2026, p. 333), la jurisprudencia del TJUE en casos como Mostaza Claro (C‑168/05) y Asturcom (C‑40/08) establece que la protección frente a estas cláusulas es una norma de orden público que los jueces nacionales deben apreciar de oficio. En el ámbito de los mercados en línea, la multiplicidad de jurisdicciones y leyes aplicables en los términos y condiciones suele desinformar al consumidor sobre sus derechos legales, lo que justifica su calificación como cláusulas abusivas de lista negra (Campos Carvalho, 2026, p. 347; Sáenz de Jubera Higuero, 2026, p. 422).


V. Inteligencia Artificial Generativa y Propiedad Intelectual: Nuevas Fronteras de la Asimetría Contractual

La irrupción de la Inteligencia Artificial (IA) generativa ha forzado una revisión profunda del sistema de propiedad intelectual, concebido históricamente sobre la base de la creación humana (García Pérez, 2026, p. 449). En este escenario, los «Términos y Condiciones» (T&C) de proveedores como OpenAI, Meta AI o Midjourney han asumido una función cuasinormativa, desplazando la protección hacia un ámbito de adhesión unilateral que acentúa las asimetrías entre los desarrolladores y los consumidores (García Pérez, 2026, p. 450).

5.1. El entrenamiento de modelos y la transparencia de las fuentes (inputs)

El éxito de la IA generativa depende del uso masivo de datos para el aprendizaje automático, lo que colisiona con los derechos de exclusiva sobre las obras protegidas utilizadas como inputs (García Pérez, 2026, p. 453). Existe un intenso debate sobre si el entrenamiento de estos modelos se ampara en la excepción de minería de textos y datos (TDM) prevista en los artículos 3 y 4 de la Directiva (UE) 2019/790 (García Pérez, 2026, p. 456). No obstante, investigaciones interdisciplinares como las de Dornis y Stober (2025) sostienen que el entrenamiento de modelos generativos no es equiparable a la TDM tradicional, ya que implica actos de reproducción y explotación sintáctica que superan el mero análisis semántico de la información (García Pérez, 2026, p. 457).

En cuanto a la transparencia, el Reglamento de Inteligencia Artificial (RIA) impone a los proveedores de modelos de uso general la obligación de divulgar un resumen detallado de los contenidos utilizados para el entrenamiento (García Pérez, 2026, p. 459). Sin embargo, el artículo 111.3 del RIA concede un período transitorio hasta agosto de 2027 para que los modelos ya comercializados cumplan íntegramente con esta obligación, lo que explica que, a finales de 2025, la mayoría de los proveedores todavía no ofrezca listas detalladas de sus fuentes específicas (García Pérez, 2026, p. 497).

5.2. Titularidad de los outputs y licencias unilaterales en los términos de servicio

La determinación de la autoría sobre los contenidos generados (outputs) revela una fragmentación internacional significativa (García Pérez, 2026, p. 451). Mientras que la Unión Europea mantiene un enfoque antropocéntrico que exige la «impronta de la personalidad del autor» para otorgar protección (García Pérez, 2026, p. 478), la jurisprudencia china en el caso Tencent vs. Shanghai Yingxun ha reconocido originalidad en artículos generados por IA al considerar que el proceso de configuración de plantillas y selección de datos refleja elecciones creativas del usuario (García Pérez, 2026, p. 487).

En la práctica contractual, los T&C de la mayoría de las plataformas (OpenAI, DeepSeek, Midjourney) indican formalmente que los usuarios conservan los derechos sobre sus prompts y outputs (García Pérez, 2026, p. 498). Sin embargo, esta titularidad suele estar sujeta a la concesión de una licencia a favor de la plataforma que es mundial, perpetua e irrevocable, permitiendo al proveedor usar los contenidos para mejorar y entrenar sus modelos (García Pérez, 2026, p. 499). Un caso extremo es Midjourney, que impone esta licencia perpetua a los usuarios que no suscriben planes de pago elevados, obligándoles además a que sus imágenes sean públicas y «remixables» por defecto (ibid.). Desde la perspectiva del Derecho de consumo, estas cláusulas que obligan al usuario a aceptar responsabilidades por fallos sistémicos en el entrenamiento del modelo podrían calificarse como abusivas por generar un desequilibrio injustificado (Cámara Lapuente, 2026, p. 58).

5.3. Responsabilidad por infracción de derechos en sistemas de IA

La asignación de riesgos por la generación de contenidos infractores es uno de los puntos más conflictivos de la gobernanza privada de la IA (García Pérez, 2026, p. 503). Tradicionalmente, los proveedores han utilizado cláusulas de exoneración total de responsabilidad, trasladando al usuario final cualquier consecuencia legal derivada de un output que vulnere derechos de terceros (García Pérez, 2026, p. 501).

A partir de finales de 2023 ha surgido una tendencia denominada «escudos de copyright» (copyright shields), mediante la cual empresas como Microsoft (Copilot), OpenAI (ChatGPT) o Anthropic (Claude) se comprometen a asumir la defensa y los costes legales de sus clientes en caso de reclamaciones por infracción de propiedad intelectual (García Pérez, 2026, p. 502). No obstante, este blindaje suele estar restringido a usuarios de pago y excluye supuestos en los que el usuario haya modificado el modelo o utilizado inputs que ya eran infractores (ibid.). Desde la perspectiva del Derecho de consumo, estas cláusulas que obligan al usuario a aceptar responsabilidades por fallos sistémicos en el entrenamiento del modelo podrían calificarse como abusivas por generar un desequilibrio injustificado (Cámara Lapuente, 2026, p. 58).


VI. Control y Efectividad: Detección mediante IA y Nuevos Paradigmas de Ejecución

La efectividad del Derecho de consumo digital depende no solo de la calidad técnica de las normas, sino de la capacidad de monitorización y sanción en un entorno de contratación masiva. La transición hacia la Digital Fairness Act implica un desplazamiento desde el control judicial reactivo hacia una supervisión proactiva y tecnológicamente asistida, que garantice que el desequilibrio contractual sea detectado antes de generar perjuicios sistémicos.

6.1. El proyecto CLAUDETTE: monitorización automatizada de cláusulas abusivas

Dada la inmensidad del mercado digital, el uso de herramientas de inteligencia artificial (IA) se postula como un instrumento indispensable para que los organismos de control y las asociaciones de consumidores puedan auditar los términos de servicio (Cámara Lapuente, 2026, p. 60). El proyecto CLAUDETTE, desarrollado en el Instituto Universitario Europeo, es un sistema interdisciplinar que automatiza la evaluación legal de los contratos y las políticas de privacidad, contrastándolos específicamente con la Directiva 93/13 y el RGPD (European University Institute, 2019). Un estudio piloto realizado con esta herramienta sobre 35 sitios web identificó que la mayoría de los proveedores incurren en desequilibrios graves, especialmente en cláusulas de resolución unilateral de cuentas (23 de 35 sitios) y derechos de modificación contractual (30 de 35 sitios) (Cámara Lapuente, 2026, p. 61). Investigaciones recientes demuestran que este sistema puede alcanzar una precisión del 80‑90% en la identificación de cláusulas problemáticas mediante técnicas de aprendizaje automático.

6.2. La conversión de la lista indicativa en listas negra y gris: propuestas del Parlamento Europeo

Un obstáculo crítico para la seguridad jurídica es la naturaleza meramente «indicativa» del anexo de la Directiva 93/13, lo que permite disparidades interpretativas entre los tribunales de los Estados miembros (Cámara Lapuente, 2026, p. 35). El informe encargado por el Parlamento Europeo a los profesores Loos y Luzak (2021) propone transformar este sistema en un régimen dual para servicios digitales: una lista negra de 22 cláusulas prohibidas en todo caso (como el consentimiento por mera navegación) y una lista gris de 5 cláusulas presuntamente abusivas (Loos, 2026, p. 105; Cámara Lapuente, 2026, pp. 57‑58). Según Loos (2026, p. 105), esta armonización de listas a nivel de la Unión Europea facilitaría la aplicación de la norma por parte de las autoridades administrativas y reduciría los costes de litigación para los consumidores, quienes a menudo desisten de reclamar por la escasa cuantía de sus pretensiones.

6.3. Sanciones y nulidad directa: el impacto de la Directiva de Modernización

Para fortalecer el efecto disuasorio, la Directiva (UE) 2019/2161 (Directiva de Modernización) ha introducido sanciones más severas en el marco de la normativa de consumo (Lafuente Sánchez, 2026, p. 305). No obstante, la doctrina señala que la verdadera eficacia reside en la vinculación entre transparencia y validez. En el ordenamiento español, por ejemplo, la reforma del artículo 83.2 del TRLGDCU establece que las condiciones incorporadas de modo no transparente son nulas de pleno derecho, sin necesidad de un juicio posterior sobre su contenido abusivo (Cámara Lapuente, 2026, p. 36). En el ámbito comparado, la Ley británica DMCCA 2024 ha elevado el estándar de ejecución al permitir multas directas de hasta el 10% del volumen de negocios global de la empresa infractora, proporcionando un desincentivo real contra el uso de cláusulas abusivas en modelos de suscripción (Cámara Lapuente, 2026, p. 65).


VII. Conclusiones: Hacia una Justicia por Diseño en el Mercado Único Digital

La investigación exhaustiva del corpus documental permite concluir que el régimen de protección frente a las cláusulas abusivas en la Unión Europea se encuentra en un punto de inflexión histórico. La Directiva 93/13/CEE, aunque versátil, ha sido sometida a una prueba de estrés que evidencia la necesidad de transitar desde un modelo de transparencia formal hacia uno de equidad sustancial y justicia por diseño (Cámara Lapuente, 2026, p. 23).

7.1. El fin del mito del consumidor medio racional

Una de las conclusiones más disruptivas de este estudio es la quiebra empírica del estándar del «consumidor medio» como sujeto normalmente informado y perspicaz en el entorno digital. Según Ruiz Vega y Mora Astaburuaga (2026, p. 187), la arquitectura de las interfaces digitales explota sistemáticamente sesgos cognitivos, convirtiendo la vulnerabilidad digital en una condición estructural y universal, con independencia de la edad o nivel educativo del usuario. En consecuencia, la jurisprudencia del TJUE, ejemplificada en el asunto Compass (C‑646/22), ha comenzado a reconocer una «racionalidad limitada» que obliga a evaluar la transparencia no solo por el texto de la cláusula, sino por el contexto y diseño de su presentación (Ruiz Vega & Mora Astaburuaga, 2026, p. 187; Cámara Lapuente, 2026, p. 71).

7.2. Síntesis de transformaciones para la Digital Fairness Act

La futura Digital Fairness Act (DFA), cuya propuesta se espera para el cuarto trimestre de 2026, debe consolidar los avances fragmentarios de reglamentos como la DSA, la DMA y la Data Act (Digital Fairness Act | EU Tracker, 2025; Cámara Lapuente, 2026, p. 30). De acuerdo con el análisis realizado, los pilares de esta reforma deben ser:

  1. Codificación de listas de abusividad. Es imperativo transformar el anexo indicativo de la Directiva 93/13 en un sistema de listas negras (cláusulas prohibidas en todo caso) y listas grises (presuntamente abusivas) específicas para servicios digitales, incluyendo prácticas de consentimiento por mera navegación y exclusión de herencia digital (Loos, 2026, p. 105; Cámara Lapuente, 2026, p. 35).

  2. Transparencia de ejecución y acceso. La transparencia debe evolucionar hacia el suministro de resúmenes de condiciones generales legibles por máquina e iconos estandarizados que combatan la sobrecarga informativa o information overload (Morais Carvalho, 2026, p. 154; Cámara Lapuente, 2026, p. 78).

  3. Nulidad directa por opacidad. Siguiendo la tendencia del legislador español y el Reglamento P2B, la falta de transparencia material debe conllevar la nulidad de pleno derecho de la cláusula, sin necesidad de un juicio de desequilibrio posterior (Cámara Lapuente, 2026, p. 36; Morais Carvalho, 2026, p. 167).

  4. Gobernanza de la IA generativa. Los términos de servicio de los proveedores de IA deben ser sometidos a un control estricto de abusividad para evitar la imposición unilateral de licencias perpetuas sobre los outputs de los usuarios y la transferencia de responsabilidad por infracciones de propiedad intelectual (García Pérez, 2026, p. 504).

7.3. Reflexión final: el paso de la información al diseño

El Derecho de consumo europeo ya no puede confiar exclusivamente en los deberes de información. La efectividad de la protección en 2026 reside en la monitorización proactiva mediante herramientas de IA, como el proyecto CLAUDETTE, y en la imposición de una «diligencia profesional digital» que obligue a los proveedores a garantizar la equidad desde el diseño de la interfaz (Cámara Lapuente, 2026, p. 60; BEUC, 2025, p. 8). Solo mediante este enfoque sistémico la Unión Europea podrá cerrar las brechas de protección identificadas por la Comisión Europea y restaurar la autonomía real de la voluntad en el mercado único digital (European Commission, 2024, p. 4).


VIII. Bibliografía

American Law Institute. (2024). Restatement of the law, consumer contracts. ALI Publishers.

Arroyo Amayuelas, E. (2026). Cláusulas sobre moderación de contenidos en las plataformas de comunicación social y sus límites. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 213-249). Atelier.

Artz, M. (2026). Cláusulas de extinción y modificación del contrato sobre productos y servicios digitales: la evolución del contrato de consumo hacia una relación contractual de duración indefinida. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 251-260). Atelier.

BEUC. (2025). Towards the Digital Fairness Act - Position paper.

BEUC. (2026). Towards the Digital Fairness Act - A consumer checklist.

Cámara Lapuente, S. (Dir.). (2026). Cláusulas abusivas en los contratos de servicios digitales. Atelier.

Cámara Lapuente, S. (2026). Cláusulas abusivas y contratación de servicios digitales (de la Directiva 93/13 a la próxima Digital Fairness Act). En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 21-89). Atelier.

Campos Carvalho, J. (2026). Dispute resolution terms in contracts concluded with online marketplaces. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 347-381). Atelier.

Castillo Parrilla, J. A. (2026). Cláusulas y prácticas abusivas relativas a tratamiento de datos personales en la contratación con consumidores. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 261-301). Atelier.

Digital Fairness Act (DFA) | EU Tracker. (2025).

Digital Fairness Act | Legislative Train Schedule - European Parliament. (2026).

Dornis, T. W., & Stober, S. (2025). Generative AI training and copyright law. arXiv:2502.15858v1 [cs.IR].

European Commission. (2024, 3 de octubre). SWD(2024) 231 final - Fitness check on EU consumer law on digital fairness.

European Parliament. (2025). Generative AI and copyright: Training, creation, regulation [Policy Department for Justice, Civil Liberties and Institutional Affairs].

European University Institute. (2019). About CLAUDETTE - Machine learning powered analysis of consumer contracts.

García Pérez, R. M. (2026). Cláusulas sobre propiedad intelectual en los términos y condiciones de uso de los proveedores de sistemas de inteligencia artificial generativa. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 449-510). Atelier.

GOV.UK. (2024). Government response to consultation on the implementation of the new subscription contracts regime.

Lafuente Sánchez, R. (2026). Cláusulas de arbitraje y solución de diferencias en la contratación de servicios digitales por consumidores. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 303-345). Atelier.

Loos, M. B. M. (2026). Updating the legal framework on unfair contract terms for digital consumer services. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 91-114). Atelier.

Loos, M., & Luzak, J. (2021). Update the unfair contract terms directive for digital services. European Parliament.

Morais Carvalho, J. (2026). El control de la transparencia en los contratos de contenidos y servicios digitales. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 139-170). Atelier.

Ruiz Vega, A. V., & Mora Astaburuaga, A. (2026). Vulnerabilidad digital de los consumidores y patrones oscuros: ¿cómo afecta la forma de presentación del precio a las decisiones de compra de los internautas? En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 171-211). Atelier.

Sáenz de Jubera Higuero, B. (2026). Cláusulas abusivas en el alquiler online de viviendas turísticas. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 383-424). Atelier.

Schuller, R. R. (2026). Cláusulas abusivas en el contrato de renting, de leasing y de alquiler de bienes muebles con prestaciones digitales. En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 425-448). Atelier.

Tribunal de Justicia de la Unión Europea. (2006, 26 de octubre). Sentencia en el asunto C‑168/05, Mostaza Claro.

Tribunal de Justicia de la Unión Europea. (2009, 6 de octubre). Sentencia en el asunto C‑40/08, Asturcom Telecomunicaciones.

Tribunal de Justicia de la Unión Europea. (2024, 14 de noviembre). Sentencia en el asunto C‑646/22, Compass Banca.

Twigg‑Flesner, C. (2026). Subscription contracts -- unfair terms control or direct action? En S. Cámara Lapuente (Dir.), Cláusulas abusivas en los contratos de servicios digitales (pp. 115-138). Atelier.

White & Case LLP. (2024). Click to cancel: The UK's new subscription contract regime.