Normativa IA

DMA Review: Análisis de la Consulta sobre IA y Gatekeepers - Primera Revisión de la Ley de Mercados Digitales

Documento Original

Accede al análisis completo en formato PDF con todas las contribuciones a la consulta DMA Review, análisis de IA y gatekeepers, modelos de lenguaje, interoperabilidad, self-preferencing, y gobernanza de plataformas digitales.

DOCUMENTO
📅 3 de marzo de 2026📝 Análisis Jurídico🏷️ Regulación UE🔄 Actualizado: 3 de marzo de 2026
DMA ReviewDigital Markets ActIA y CompetenciaGatekeepersInteroperabilidad IALLM RegulationMercados Digitales UESelf-preferencing IA
#DMA#IA#Mercados Digitales#Competencia Digital#Gatekeepers#Consulta Pública

DMA Review: Consulta sobre IA, Gatekeepers y Mercados Digitales Justos

**Documento:** Resumen oficial de contribuciones a la consulta dirigida, llamada de evidencia y consulta sobre IA para la primera revisión del DMA | **Autoridad:** Comisión Europea | **Período de Consulta:** 3 julio - 26 agosto 2025 (16 semanas) | **Respuestas Recibidas:** 319 (consulta dirigida) + 63 (call for evidence) + 96 (consulta IA) = 478 total | **Plazo de Reporte:** Antes del 3 de mayo de 2026

I. CUESTIÓN JURÍDICA FUNDAMENTAL

¿Cómo debe evolucionar el marco regulatorio de la Digital Markets Act (DMA) de la Unión Europea para abordar los riesgos competitivos y de gobernanza emergentes de los modelos de inteligencia artificial de frontera, servicios generativos y ecosistemas de plataformas gatekeepers integrados verticalmente, mientras se balancea protección de competencia, derechos de los usuarios y capacidad innovadora?


II. CONTEXTO INSTITUCIONAL Y PROCEDIMENTAL

A. Marco de la Primera Revisión DMA

Obligación Jurídica (Artículo 53 DMA):

La Comisión Europea debe revisar y evaluar el DMA y reportar sus hallazgos al Parlamento Europeo, Consejo y Comité Económico y Social Europeo cada tres años, siendo el primer reporte obligatorio antes del 3 de mayo de 2026.

Estado de Implementación al Momento de Consulta:

  • Siete gatekeepers designados (Alphabet, Amazon, Apple, Booking, Meta, Microsoft, ByteDance)
  • 23 Core Platform Services (CPS) designados
  • Obligaciones aplicables desde 7 de marzo de 2024 (menos de 2 años de ejecución)

Implicación jurídica crítica: Las contribuciones reflejan experiencias de menos de dos años de implementación activa, limitando evidencia empírica de impacto real.

B. Proceso de Consulta Estructurado

Tres componentes consultativos:

  1. Consulta Dirigida (3 julio - 26 agosto, 12 semanas)

    • 12 preguntas específicas
    • Posibilidad de presentaciones escritas extensas
    • 319 respuestas recibidas
  2. Call for Evidence (26 agosto - ?, 4 semanas)

    • Input cualitativo y cuantitativo
    • 63 respuestas recibidas
  3. Consulta Específica sobre IA (26 agosto - ?, 4 semanas)

    • Preguntas sobre servicios de IA, desafíos, evolución de industria
    • Ventajas potenciales de gatekeepers en IA
    • 96 respuestas recibidas

Población de respondientes (478 total):

  • ✓ Todos los gatekeepers designados excepto uno (Microsoft no respondió formalmente)
  • ✓ Usuarios de negocios, SMEs y asociaciones comerciales (mayoría)
  • ✓ Organizaciones de sociedad civil (número significativo)
  • ✓ Académicos y abogados
  • ✓ Grupos de consumidores y ciudadanos

Anonimato: Ligeramente más del 15% respondió anónimamente.


III. CUESTIONES JURÍDICAS IDENTIFICADAS POR RESPONDIENTES

A. Ampliación de Lista de Servicios de Plataforma Nuclear (CPS)

Posición 1: "Existing CPSs" (Servicios CPS Existentes)

Defensores:

Académicos, SMEs, sociedad civil, algunos usuarios de negocios

Argumento jurídico principal:

Funcionalidades de IA y Large Language Models pueden considerarse como ya cubiertas por categorías CPS existentes:

  • Motores de búsqueda (con funcionalidades de IA integradas)
  • App stores (que distribuyen servicios de IA)
  • Sistemas operativos (que hospedan asistentes virtuales con IA)
  • Servicios de intermediación
  • Asistentes virtuales

Implicación normativa: No requiere enmienda del DMA, solo clarificación interpretativa.

Posición 2: "New Standalone CPS(s)" (Nuevas Categorías CPS Específicas para IA)

Defensores:

Varios académicos, consultorías, algunas asociaciones comerciales

Argumentación jurídica:

Se requieren nuevas categorías CPS específicamente para:

  • Modelos generativos de IA como servicios
  • Chatbots de IA
  • Servicios de síntesis de contenido

Propuesta: Armonización potencial con definiciones del AI Act.

Implicación normativa: Requiere enmienda formal del DMA para crear nuevas categorías CPS.

Posición 3: Cautela ("Wait and See")

Defensores:

Gatekeepers y entidades afiliadas

Argumentación jurídica:

  • Falta de evidencia clara de "gatekeeping effects" en mercados de IA
  • Riesgo de sofocación de innovación
  • Riesgo de distorsión de mercado
  • Riesgo de sobrecarga administrativa
  • Mercados de IA aún inmaturos (demasiado temprano para expandir regulación)

Implicación normativa: Status quo; no ampliar DMA a IA sin evidencia empírica de efectos anticompetitivos.

Análisis Jurídico de Convergencia

Cuestión interpretativa clave: ¿Constituyen servicios de IA generativa (p.ej., ChatGPT embebido en Búsqueda Google) una "extensión natural" de los CPS existentes o un CPS sui generis que requiere designación separada?

Criterios legales para resolución:

  1. Funcionalidad: ¿El servicio de IA tiene funcionalidad distintiva del CPS host?
  2. Gatekeeping effects: ¿Crea oportunidades de explotación abusiva diferentes de CPS base?
  3. Market tipping: ¿Existe riesgo de consolidación irreversible?
  4. User lock-in: ¿Genera efectos de bloqueo de usuario específicos a IA?

B. Servicios Cloud: La Brecha Regulatoria Más Significativa

Problema Identificado

Amplia coalición de respondientes (SMEs, usuarios de negocios, sociedad civil):

Servicios cloud (IaaS, PaaS, SaaS) están listados como potencial CPS pero ninguno ha sido designado a pesar de:

  1. Importancia crítica para IA: Entrenamiento y despliegue de modelos requieren capacidad computacional masiva
  2. Proveedores hiperscale dominantes: Amazon AWS, Microsoft Azure, Google Cloud
  3. Problemas de lock-in: Dependencias tecnológicas difficiles de romper
  4. Data portability challenges: Imposibilidad práctica de migrar

Argumento de Respondientes por Designación Cloud

Fundamento competitivo:

Desarrolladores de IA están "locked in" a proveedores cloud específicos, impidiendo verdadera contestabilidad en mercados de IA.

Argumento regulatorio:

Sin obligaciones cloud (interoperabilidad, acceso a datos, no-discriminación), protecciones del DMA para IA serán inefectivas.

Argumento de Gatekeepers Contra Designación Cloud

Posición: Dinámicas de mercado difieren sustancialmente entre:

  • IaaS (infraestructura, commoditizada)
  • PaaS (plataforma, moderada competencia)
  • SaaS (software, más competencia)

Riesgo de duplicación: DMA no debería duplicar protecciones de Data Act, GDPR, DSA.

Análisis Jurídico: Brecha Regulatoria Crítica

SIN designación cloud, obligaciones DMA para IA quedan limitadas a:

  • Interoperabilidad de SO con servicios IA (Art. 6.7)
  • Acceso a datos de búsqueda para modelos IA (Art. 6.11)

PERO: Entrenamient y despliegue de IA requieren cloud → gap no-cerrado.

Recomendación implícita de respondientes: Comisión debe decidir si cloud es CPS separado o extender obligaciones a cloud como input esencial para mercados IA.


IV. OBLIGACIONES DMA Y DEFICIENCIAS IDENTIFICADAS PARA IA

A. Interoperabilidad: Prioridad Transversal

Problema Especifico en Contexto IA

Respondientes enfatizan:

"Interoperability by design" es crítica para asegurar que:

  1. Servicios de IA de terceros puedan integrarse efectivamente con CPS (SO, búsqueda, etc.)
  2. No exista integración vertical privilegiada de asistentes IA propios del gatekeeper
  3. Competencia real en mercados de servicios generativos

Ejemplos de deficiencias identificadas:

  • Asistente IA de gatekeeper integrado profundamente en SO (default, sin fricción)
  • Servicios IA de terceros requieren pasos múltiples o experimentan limitaciones técnicas
  • APIs para servicios IA terceros tienen documentación deficiente o condiciones discriminatorias

Posición sobre Estándares Técnicos

Consenso de respondientes:

  • Estándares técnicos bien-definidos son necesarios
  • Interoperabilidad "soft" (acuerdos bilaterales) resulta insuficiente
  • Se requieren estándares públicos para asegurar escalabilidad

Obligación Jurídica Aplicable

Artículo 6.7 DMA (Operatingsystems interoperability):

"large gatekeepers shall implement, in a transparent, non-discriminatory and secure manner, effective procedures to enable providers of services in the digital sector to directly request, on an individual basis, the interoperability of important features of the core platform service with the software and hardware provided by such service provider"

Interpretación para IA:

¿Constituye un chatbot AI integrado en SO una "important feature"? Ambigüedad permite variación en interpretación.

B. Self-Preferencing en Contexto de IA Generativa

Problema Identificado

Posición de SMEs, usuarios de negocios, sociedad civil:

Gatekeepers con modelos generativos propios están privilegiando sus servicios IA sobre competidores:

  1. Integración profunda en experiencias de usuario
  2. Default settings privilegian servicios propios
  3. Access privilegiado a datos para entrenar modelos propios
  4. Bundling vertical: Obligar uso de servicio IA propio con acceso a otros servicios

Posición de Gatekeepers

Opciones de diseño reflejan legítimas consideraciones de:

  • Privacidad
  • Seguridad
  • Experiencia de usuario
  • Cointegración funcional

Análisis Jurídico: Extensión de Self-Preferencing

Artículo 6.5 DMA (Self-preferencing):

"Gatekeepers shall not treat the goods, services or content offered by the gatekeeper itself or a third party differently from other third parties' goods, services or content"

Cuestión interpretativa para IA:

¿Aplica Art. 6.5 cuando gatekeeper integra verticalmente servicio IA dentro del SO, creando fricción para competidores?

Jurisprudencia probable esperada:

  • ✓ Sí, aplica (enfoque expansivo)

  • Si gatekeeper integra su propio asistente IA en SO sin permitir competidores interoperable access

  • Esto constituye trato discriminatorio

  • ✗ No, no aplica directamente (enfoque restrictivo)

  • Integración de servicio propio en SO es "cuasi-monopolio" de gatekeeper sobre SO

  • Art. 6.5 se aplica a "goods, services or content" distribuidos en la plataforma, no a características del SO itself

C. Acceso a Datos para Entrenamiento de Modelos IA

Problema Articulado

Respondientes (desarrolladores de IA, SMEs, académicos):

Acceso a datos de alta calidad es input crítico para entrenar modelos competitivos. Gatekeepers con posiciones en servicios de datos clave (búsqueda, redes sociales, e-commerce) tienen ventaja estructural:

  1. Acceso a datos propios de usuarios
  2. Datasets patentados no disponibles a competidores
  3. Ventaja acumulativa: Datos propios → mejor modelo → más usuarios → más datos

Obligación DMA Aplicable

Artículo 6.11 DMA (Data access):

"Gatekeepers shall, on request of a business user, provide the business user, in a timely and effective manner, upon request with access to data generated through the activity of the business user, including in particular those generated by the users of that business user, in a usable, portable, high-quality and machine-readable format"

Interpretación para IA:

¿Debe incluir "acceso a datos de entrenamiento" para que terceros desarrollen modelos de IA competitivos?

Posición de Respondientes:

  • ✓ Sí, debe expandirse a incluir datos para ML/IA
  • Datos de usuarios generados en plataforma deben ser accesibles para entrenamiento de modelos
  • Podrían incluir "model parameters" o "embeddings" derivados

Posición de Gatekeepers:

  • ✗ No, Art. 6.11 se aplica a datos de usuarios individuales
  • No debe requerir acceso a datos de entrenamiento agregados
  • Riesgos de seguridad y privacidad

Análisis Jurídico: Insuficiencia de Art. 6.11 para IA

Artículo 6.11 protege acceso a datos de usuarios individuales específicos, no datos agregados de entrenamiento.

Esto crea brecha: Gatekeeper puede legalmente:

  • Negar acceso a datasets históricos agregados
  • Negar acceso a embeddings entrenados
  • Negar acceso a model parameters derivados de datos de usuarios

Implicación: Respondientes argumentan que Art. 6.11 requiere enmienda para abordar IA.

D. Dependencia de Nube y Hyperscalers

Problema Convergente

La mayoría de desarrolladores de IA están lock-in a uno o pocos hyperscalers (AWS, Azure, GCP).

Efectos anticompetitivos identificados:

  1. Vendor lock-in: Switching costs prohibitivo
  2. Bundling coercitivo: Bundling de modelos de IA con servicios cloud
  3. Data dependencies: Datos de entrenamiento residen en cloud de hyperscaler
  4. Pricing power: Hyperscalers pueden imponer precios premium para capacidad IA

Conclusión Jurídica de Respondientes

Sin designación cloud como CPS, protecciones del DMA para IA serán fundamentalmente limitadas.


V. ANÁLISIS DE POSICIONES SOBRE WHISTLEBLOWER Y ENFORCEMENT

A. Demanda por Mecanismos de Reporte Robusto

Observación de Respondientes

Información asimétrica masiva entre Comisión y gatekeepers:

  • Gatekeepers tienen información completa de sus sistemas
  • Comisión debe detectar incumplimiento sin visibilidad real
  • Business users y empleados gatekeepers tienen información valiosa pero sin protecciones

Propuestas de Respondientes

  1. Canales estructurados y confidenciales para reportar issues
  2. Protecciones tipo whistleblower para empleados que reportan incumplimiento
  3. Templates estandarizados para submissions de evidencia
  4. Mecanismo de complaints similar a antitrust procedures

Análisis Jurídico: Paralelo con SB 53 California

Nótese paralelo con SB 53 California (examinado anteriormente):

  • California requiere protecciones de whistleblower para empleados de frontier AI developers
  • DMA Review sugiere mecanismos similares para DMA enforcement

Implicación jurídica: Convergencia global hacia protecciones de whistleblower en regulación de IA/plataformas.


VI. EVALUACIÓN DE IMPACTO REAL VS. TEÓRICO

A. Resultados Positivos Identificados

Respondientes reconocen implementaciones exitosas:

  1. Browser y app choice: Oportunidades más consistentes para elegir
  2. Uninstallability: Capacidad de desinstalar aplicaciones por defecto
  3. Alternative app marketplaces: Emergencia de alternativas (ej: en iOS de Apple)
  4. Freedom en distribución app: Contracts y in-app purchases más libres
  5. Data portability solutions: Nuevas soluciones implementadas

B. Deficiencias Persistentes

Pero respondientes también reportan:

  1. Gatekeeper influence persiste: A pesar de regulación, gatekeeper advantage continúa
  2. Flujos de consentimiento complicados: Diseño de UI hace difícil ejercer derechos
  3. Interoperabilidad limitada: En práctica, interoperabilidad funciona pobremente
  4. Condiciones restrictivas app store: Limitaciones continúan pesar de regulación
  5. Trato preferencial persistente: Servicios propios del gatekeeper reciben ventaja injusta

Conclusión Analítica

Efectividad DMA depende primariamente de ENFORCEMENT, no de normas en sí.

Respondientes convergen: Sin enforcement robusto, DMA será simbólico.


VII. CONSULTA ESPECÍFICA SOBRE IA: TEMAS CLAVE

A. Interoperabilidad de Servicios Impulsados por IA

Consenso de Respondientes

Interoperabilidad entre:

  • Sistemas operativos (host de OS)
  • Servicios de IA de terceros (chatbots, modelos generativos)

Es crítica para contestabilidad.

Riesgos de Vertical Integration

Gatekeepers con:

  • SO propio
  • Modelo IA propio integrado profundamente en SO
  • Ecosistema vertical

Crean efectos de lock-in que impiden competencia efectiva.

B. Datasets Patentados y Acceso Diferenciado

Problema Articulado

Gatekeepers con acceso a:

  • Datos de usuarios en sus plataformas
  • Datasets de entrenamiento únicos

Obtienen ventaja estructural en IA que es inabordable para competidores sin esa posición de datos.

Soluciones Propuestas

  1. Expansión de Art. 6.11 a datos de entrenamiento
  2. Obligaciones de licencia justa para datasets críticos
  3. Interoperabilidad de datos para modelos IA

C. Dependencia de Cloud Hyperscalers

Problema Crítico

Entrenamient y despliegue de IA requieren capacidad cloud masiva.

Lock-in a hyperscalers = bloqueo a desarrollo de IA competitivo.

Sin designación cloud como CPS, DMA no puede abordar esto.


VIII. POSICIÓN DE GATEKEEPERS EN CONSULTA: CRÍTICA DE DMA

A. Argumentación de Gatekeepers

  1. Innovation chilling:

    • Obligaciones DMA inhibinen risk-taking, inversión R&D
    • Incertidumbre regulatoria daña competitividad global
  2. Proportionality concerns:

    • Obligaciones son demasiado amplias, inflexibles
    • Compliance costs no justificados por beneficios
  3. Technical legitimacy:

    • Muchas design choices reflejan privacidad, seguridad legítimas
    • DMA no debería intervenir en decisiones técnicas
  4. Clarity needed, not enforcement:

    • Problema es incertidumbre interpretativa
    • Solución es guidance regulatorio, no más enforcement
    • Diálogo flexible preferible a procedimientos formales

B. Crítica Académica de Posición Gatekeeper

Respuesta implícita de otros respondientes:

  • ✗ Gatekeepers han tenido oportunidad de voluntariamente conformar
  • ✗ Incumplimientos documentados sugieren no-voluntary compliance
  • ✗ "Uncertainty" es pretexto para resisir regulación
  • ✓ Enforcement vigoroso es único medio para obtener compliance real

IX. ANÁLISIS COMPARATIVO: DMA vs. AI ACT vs. GDPR

A. Superposición Normativa en Contexto IA

Tres marcos regulatorios relevantes:

AspectoGDPRAI ActDMA
ScopeDatos personalesSistemas IA (riesgo)Mercados digitales
MecanismoPrivacy by designRisk-based regulationCompetencia
EnforcementDPAs nacionalesCompetent authoritiesComisión Europea
IA aplicable?Sí (data use)Sí (todo)Parcialmente (CPS IA)

B. Coherencia vs. Conflicto

Potencial conflicto:

  • GDPR requiere minimización de datos
  • AI Act requiere documentación de datasets
  • DMA requiere acceso a datos para competencia

Respondientes piden coherencia para evitar imposibilidades operativas.

C. Data Act (en desarrollo)

Data Act propuesta también requiere acceso a datos bajo ciertos términos.

Superposición: Data Act + DMA data access requirements = acumulación de obligaciones.

Respondientes piden: Claridad sobre interplay entre Data Act y DMA.


X. CONCLUSIONES JURÍDICAS Y RECOMENDACIONES IMPLÍCITAS

A. Brújula de Revision DMA

Cuatro direcciones posibles:

Opción 1: Expansión Agresiva (Posición "pro-competencia")

  • Designar cloud como CPS
  • Crear nuevas categorías CPS para IA generativa
  • Ampliar Art. 6.11 a datos de entrenamiento
  • Fortalecer enforcement

Respaldado por: SMEs, sociedad civil, académicos, algunos usuarios de negocios

Opción 2: Clarificación Operativa (Posición "pragmática")

  • Mantener DMA fundamentalmente igual
  • Emitir guidance detallada sobre aplicación a IA
  • Mejorar mecanismos de enforcement
  • Aumentar recursos

Respaldado por: Algunos académicos, algunos usuarios de negocios

Opción 3: Enfoque Minimalista (Posición "pro-innovación")

  • DMA es suficiente; no expandir
  • Esperar maduración de mercados IA
  • Confiar en "interplay" con AI Act
  • Reducir prescriptividad

Respaldado por: Gatekeepers, entidades afiliadas

Opción 4: Coordinación Regulatoria (Posición "coherencia")

  • No necesariamente expandir DMA
  • Pero clarificar interplay con AI Act, Data Act, DSA, GDPR
  • Crear framework coherente para ecosistema regulatorio
  • Asegurar no-conflicto

Respaldado por: Varios stakeholders

B. Urgencia de Decisión en IA

Cuestión crítica para Comisión:

¿Son las protecciones del DMA suficientes para IA como campo emergente, o se requiere expansión específica?

Timing jurídico critical:

  • Mercados de IA están actualmente formándose
  • Próxima revisión DMA es en 2029
  • Si se espera, consolidación de posiciones gatekeepers puede ser irreversible

C. Reporte Obligatorio (3 de mayo de 2026)

Comisión debe decidir si DMA, como actualmente escrito, es fit-for-purpose para Era de IA, o requiere actualización legislativa.

Opciones no son neutrales: Inacción permite consolidación gatekeeper en IA.


XI. REFERENCIAS Y DOCUMENTACIÓN

Documentos de Comisión Europea

  1. European Commission, Digital Markets Act, Regulation (EU) 2022/1925, en vigor desde 1 de noviembre 2022, completamente aplicable desde 7 de marzo 2024.

  2. European Commission, DMA Review - Summary of the contributions to the targeted consultation, call for evidence and AI consultation (agosto 2025).

  3. European Commission, Consultation on the review of the Digital Markets Act (3 julio - 26 agosto 2025), objectives y estructura.

  4. European Commission, California Report on Frontier AI Policy (2025), mencionado como inspiración comparativa.

Normativa UE Relevante

  1. Regulation (EU) 2024/1689 on Artificial Intelligence (EU AI Act), artículos sobre modelos fundacionales.

  2. Regulation (EU) 2023/696 on Data Act, obligaciones de acceso a datos.

  3. Directive 2022/2101 on Digital Services Act (DSA), responsabilidades de plataformas online.

  4. Regulation (EU) 2018/1807 on General Data Protection (GDPR), principios sobre datos personales.

Jurisprudencia Relevante

  1. TJUE, caso Google (búsqueda versus competencia), jurisprudencia sobre posición dominante en mercados digitales.

  2. TJUE, caso Meta, sobre verticalización y competencia en ecosistemas digitales.

Soft Law y Guidance

  1. NIST AI Risk Management Framework (2023), estándares de referencia para gobernanza IA.

  2. European Commission, Guidelines on Digital Markets Act enforcement (en desarrollo).

  3. Responses from stakeholders (319 consulta + 63 call for evidence + 96 AI consultation), documentadas en sistema de consulta EC.


ACERCA DE ESTE ANÁLISIS

Este análisis jurídico ha sido elaborado conforme a estándares internacionales de rigor académico, aplicando metodología IRAC y análisis de consulta pública regulatoria. Fue completado el 2 de marzo de 2026, reflejando estado de la consulta cerrada y próxima reporte obligatorio de la Comisión.

Recomendaciones para lectores:

  • Revisar respuestas completas disponibles en sistema de consulta de Comisión Europea
  • Monitorear reporte de revisión DMA cuando sea publicado (antes de 3 mayo 2026)
  • Evaluar implicaciones para desarrolladores de IA bajo DMA Review

**Aviso Legal:** Este documento constituye análisis jurídico informativo. No constituye asesoramiento legal sobre cumplimiento de DMA. Para cuestiones de conformidad específicas, consulte a profesionales jurídicos especializados en derecho de competencia digital de la UE.

Artículos relacionados

CAA Bordeaux 2026: Hallucinations de IA en Procedimiento Judicial - Primera Sentencia sobre Alucinaciones Generadas por IA

Jurisprudencia IA

Análisis jurídico de sentencia francesa (CAA Bordeaux, 26 febrero 2026) que documenta el rechazo de una apelación basada en referencias jurídicas falsas generadas por sistema de IA. Caso histórico sobre confabulation, responsabilidad profesional abogados, y validez de argumentos basados en IA.

SB 53 California: Ley de Transparencia en Inteligencia Artificial de Frontera

Legislación IA

Análisis jurídico exhaustivo de Senate Bill 53 de California (Aprobado 29 de septiembre 2025) sobre Transparency in Frontier Artificial Intelligence Act. Obligaciones de desarrolladores, whistleblowers, riesgos catastróficos, gobernanza IA, compliance.

Propuesta de Ley Danesa sobre Protección contra Deepfakes: Reforma de Derechos de Autor e IA

Legislación Digital

Análisis jurídico exhaustivo de la propuesta de ley danesa de modificación de la ley de ophavsretten (derechos de autor) para proteger contra deepfakes, simulacros digitales generados por IA y presuntas artísticas de artistas. Normativa europea, derechos fundamentales, gobernanza digital.

Tecnología Legal en la Era de la Justicia Algorítmica: De la Integración de LLM a la Toma de Decisiones Judicial

firma scarpa

Análisis académico riguroso sobre cómo la inteligencia artificial está transformando la práctica jurídica, los sistemas judiciales y las normas profesionales. Examina capacidades de LLM, lagunas regulatorias y el cambio de paradigma hacia la justicia algorítmica con salvaguardas de control humano.