IA en crisis: el dividendo del mentiroso y la gobernanza de la verdad digital
El Dividendo del Mentiroso: Un Marco Legal para la Gobernanza de la IA en Crisis
I. INTRODUCCIÓN
El ecosistema de información global atraviesa una fase de inestabilidad sistémica donde la inteligencia artificial (IA) generativa ha dejado de ser una amenaza teórica para convertirse en un catalizador de violencia física y erosión democrática.1 Desde los disturbios de Southport en agosto de 2024 hasta el conflicto Israel-Irán de 2025-2026, la capacidad de los modelos de lenguaje (LLM) y generadores de imagen/video para "añadir combustible al fuego" durante eventos críticos es evidente.2 Algunos analistas proyectan que para 2026 la mayor parte del contenido digital podría ser sintético, lo que plantea un desafío existencial para la integridad del discurso público.3
La doctrina identifica el fenómeno del "dividendo del mentiroso" (liar's dividend), donde la mera existencia de herramientas de IA permite a actores maliciosos sembrar dudas sobre eventos reales –alegando que son fabricados– mientras simultáneamente inundan el espacio digital con evidencia sintética de atrocidades inexistentes.4 Este colapso de la autenticidad no es uniforme: los ataques mediante deepfakes tienen un sesgo de género desproporcionado, afectando a periodistas mujeres en el 74% de los casos registrados por Reporteros Sin Fronteras, a menudo con fines de deshumanización y deslegitimación.5
El vacío normativo actual reside en la insuficiencia de los marcos de seguridad tradicionales, diseñados para la desinformación manual. La IA generativa opera a una escala y velocidad que explota los vacíos de información (data voids) durante las crisis.6 Mientras que en contextos electorales el impacto ha sido contenido por la resiliencia institucional, en eventos de seguridad nacional –ataques terroristas o disturbios raciales– la IA ha facilitado la coordinación de "enjambres de desinformación" que son virtualmente imposibles de detectar por métodos convencionales.7 Este artículo analiza más de quince crisis globales recientes para proponer un marco de obligaciones que garantice la seguridad epistémica de la sociedad.
II. PRINCIPIOS GENERALES DE LA RESPUESTA NORMATIVA
La gobernanza de la IA durante crisis debe regirse por cuatro principios cardinales que equilibran la seguridad nacional con los derechos fundamentales.
2.1. Proporcionalidad algorítmica: "libertad de expresión vs. libertad de alcance"
La regulación no debe censurar el contenido por su origen sintético, sino limitar su amplificación viral cuando posea un potencial de daño inminente. La doctrina distingue entre la libertad de expresión y la libertad de alcance.8 En situaciones de conflicto, las plataformas tienen el deber de aplicar un estándar de intervención escalonada: el contenido identificado como "IA de Alto Riesgo" –por ejemplo, videos falsos de ataques a infraestructuras– debe ser des-amplificado o degradado (downranking) antes incluso de una verificación humana exhaustiva, siempre que existan señales claras de inautenticidad técnica.9
2.2. Necesidad y excepcionalidad en la activación de protocolos
La restricción de flujos informativos solo será lícita bajo la activación de protocolos de crisis formalizados (como el Crisis Policy Protocol de Meta o el marco PRIMER del Reino Unido).10 Esta activación debe depender de indicadores de severidad dinámicos que midan el riesgo de violencia física real o daño a la seguridad nacional, evitando que el estado de excepción comunicativo se convierta en una herramienta de supresión política.11
2.3. Transparencia radical y trazabilidad (estándar C2PA)
Todo ciudadano tiene el derecho fundamental a conocer la procedencia de la información que consume durante una crisis. La industria deberá implementar de manera consistente y escalable el estándar de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA).12 Esto implica el uso de metadatos inviolables y marcas de agua invisibles en todo material generado por IA, permitiendo a los usuarios verificar el origen y las modificaciones de un activo digital en tiempo real.13
2.4. No delegación de funciones soberanas
El gobierno no puede delegar la toma de decisiones críticas sobre la veracidad de los hechos a algoritmos de caja negra. La "decidabilidad estratégica" requiere un trabajo humano de encuadre, puesta en relato y coalición institucional.14 Aunque la IA puede procesar grandes volúmenes de datos sociales para la conciencia situacional, el juicio final sobre la respuesta a una amenaza informativa debe permanecer bajo supervisión humana (human-in-the-loop) para garantizar la rendición de cuentas.15
Recuadro de Reglas Preliminares (Principios I-II)
- Presunción de inautenticidad en crisis: En eventos de violencia inminente, se presumirá que el contenido multimedia no verificado que incite a la agresión es sintético si carece de metadatos de procedencia C2PA, autorizando su des-amplificación preventiva.
- Deber de etiquetado de "Alto Riesgo": Las plataformas aplicarán etiquetas de "IA de Alto Riesgo" a contenidos que simulen evidencia de la escena de un crimen o conflicto armado hasta que su origen sea certificado.
- Derecho a la integridad informativa: Los gobiernos garantizarán que la información oficial esté protegida con registros de procedencia inmutables desde su origen para evitar la suplantación (spoofing).
III. DEBERES DEL GOBIERNO: PREPARACIÓN ESTRATÉGICA (EX ANTE)
La resiliencia democrática ante la IA generativa no puede ser una respuesta reactiva improvisada durante el estallido de una crisis; requiere una arquitectura de deberes legales y operativos que el Estado debe perfeccionar en periodos de normalidad política.
3.1. Planificación de escenarios y red-teaming organizacional
El Gobierno tendrá la obligación de institucionalizar programas de planificación de escenarios de amenazas de IA. Como lección derivada de la insuficiencia de las respuestas manuales ante los disturbios de 2024, la Oficina del Gabinete deberá dirigir ejercicios de simulación (tabletop exercises) y escenarios de "equipo rojo" (red-teaming) organizacional que involucren a todos los departamentos estatales relevantes.16 Este deber se concreta en la creación de un Manual de Estrategia de Seguridad de la IA (AI Security Playbook), similar al propuesto en la legislación comparada (H.R. 3919), para identificar vulnerabilidades críticas en infraestructuras de datos.17
3.2. Integración de la inteligencia de amenazas y canales de enlace
El Estado deberá establecer canales formales y permanentes de intercambio de inteligencia entre los organismos de seguridad y los laboratorios de IA de frontera (frontier labs). El Instituto de Seguridad de la IA (AISI) asumirá la función legal de punto de contacto técnico, encargándose de identificar al personal clave en las empresas de IA para compartir señales de comportamiento malicioso antes de que se vuelvan virales.18 Asimismo, el equipo de Información en Línea de Seguridad Nacional (NSOIT) deberá definir indicadores dinámicos de severidad (media, alta y crítica) que nutran de forma rutinaria el Cuadro de Información Comúnmente Reconocido (Commonly Recognised Information Picture - CRIP), garantizando decisiones ejecutivas basadas en una imagen técnica veraz.19
3.3. Comunicación de crisis multicapa y fin del silencio administrativo
La doctrina del "Costo del Silencio" establece que la ambigüedad gubernamental durante una crisis crea vacíos de información explotados por actores maliciosos mediante IA.20 Por tanto, el Gobierno deberá actualizar su Marco de Planificación de Emergencias (PRIMER) para incorporar: (a) publicación inmediata de hechos básicos verificados; (b) descentralización de la narrativa a través de centros religiosos, clubes deportivos y medios locales; y (c) saturación proactiva de los vacíos de datos con contenido verificado antes de que las redes de propaganda posicionen sus relatos sintéticos.21
3.4. Blindaje de la autenticidad gubernamental (procedencia inmutable)
Para proteger la integridad epistémica del ciudadano, el Gobierno deberá implementar una estrategia de incorporación automática de registros de procedencia en todo el contenido digital oficial desde su origen (estándar C2PA). Esta medida tiene un doble propósito: primero, garantiza que el ciudadano pueda verificar que una instrucción de seguridad proviene de una fuente legítima; segundo, previene los ataques de suplantación donde la IA se utiliza para clonar la voz o imagen de líderes políticos con el fin de instigar desorden civil.22
IV. OBLIGACIONES DE LA INDUSTRIA: DEBER DE CUIDADO ACTIVO (IN ITINERE)
La irrupción de la IA generativa exige una redefinición de la responsabilidad de las plataformas. En contextos de crisis, el estándar de "pasividad reactiva" (actuar solo tras reporte) es insuficiente. La industria debe transitar hacia un deber de cuidado activo, donde las empresas de IA y redes sociales asuman una responsabilidad proactiva en la mitigación de riesgos que amenazan la seguridad física y la estabilidad democrática.23
4.1. Estándar de intervención escalonada
La industria deberá implementar un sistema de intervención escalonada que no se limite a la eliminación de contenido, sino que gestione el alcance del mismo.24 En periodos de crisis declarada, las plataformas deberán degradar algorítmicamente todo contenido multimedia que carezca de credenciales de procedencia C2PA y esté vinculado a palabras clave de la crisis. Se presumirá que el contenido no verificado es sintético hasta que se demuestre lo contrario, priorizando la seguridad pública sobre la viralidad.25 Además, el contenido que simule evidencia de conflictos o atrocidades deberá llevar una etiqueta de "Alto Riesgo" si presenta señales técnicas de manipulación.26
4.2. Centros de mando de crisis y respuesta rápida
Las empresas de IA de frontera y las plataformas de redes sociales (especialmente las categorías 1 y 2B bajo la Online Safety Act) estarán obligadas a formalizar Centros de Mando de Crisis con equipos multidisciplinarios de expertos en seguridad de la IA para detectar técnicas de "evasión de salvaguardas" (jailbreaking) en tiempo real.27 Las empresas más pequeñas que carezcan de personal dedicado a Trust & Safety deberán designar, como estándar mínimo, un Oficial de Enlace Gubernamental para recibir alertas de inteligencia de amenazas.28
4.3. Moderación del abuso de chatbots
El uso de chatbots como fuentes primarias de información durante las crisis plantea un riesgo de "intoxicación epistémica".29 Por ello, las empresas de IA deberán modificar sus interfaces de usuario para: (a) desplegar advertencias emergentes (pop-ups) prominentes cuando un usuario consulte sobre una crisis en curso, informando sobre las limitaciones del modelo para verificar hechos en tiempo real;30 y (b) implementar "parches de seguridad" rápidos para evitar que sus modelos citen fuentes de desinformación conocidas (como la red Pravda) en respuestas sobre eventos de seguridad nacional.31
4.4. Transparencia en la monetización
Se ha identificado que una parte significativa de la desinformación en crisis (como en Southport 2024) proviene de sitios que utilizan IA para generar noticias sensacionalistas con el único fin de obtener ingresos publicitarios.32 La industria publicitaria digital y las plataformas deberán aplicar políticas estrictas de des-monetización para cualquier dominio identificado por verificadores independientes como un "agregador inauténtico de IA" durante periodos de crisis.33
4.5. Colaboración intersectorial: modelo FMF-GIFCT
La industria deberá expandir el Foro de Modelos de Frontera (FMF) para incluir un mecanismo de reporte de amenazas análogo al Marco de Respuesta a Incidentes del GIFCT.34 Este mecanismo facilitará: (a) una base de datos compartida de hashes (huellas digitales) de contenido sintético dañino ya detectado; (b) el reporte de enjambres de bots agentes que imitan la interacción humana para crear falsos consensos; y (c) la obligación de publicar resúmenes de las intervenciones realizadas para permitir el escrutinio público.35
V. RESPONSABILIDADES DE LA SOCIEDAD CIVIL: RESILIENCIA EPISTÉMICA
Las Organizaciones de la Sociedad Civil (OSC), la academia y los verificadores independientes constituyen el tercer pilar de estabilidad funcional. Su rol no es meramente consultivo, sino operativo: actúan como un cortafuegos de legitimidad donde el Estado y la industria a menudo carecen de la confianza o la agilidad necesarias.
5.1. Verificación híbrida y uso defensivo de la IA
Las OSC deben trascender el fact-checking manual y transitar hacia modelos de verificación híbrida potenciada por IA.36 Se ha demostrado que la implementación de chatbots experimentales de desmentido (como DebunkBot) puede reducir en un 20% la confianza de los ciudadanos en teorías conspirativas, con efectos que persisten hasta dos meses.37 Las OSC especializadas deberán explorar estas interfaces bajo estricta supervisión ética y humana, así como desarrollar "escáneres de enjambres" capaces de detectar agentes de IA coordinados que fabrican consensos artificiales.38
5.2. Amplificación de voces creíbles y protección de minorías
Las OSC poseen una ventaja competitiva de legitimidad: su cercanía con comunidades específicas que suelen ser blanco de tácticas de desinformación sintética. Durante un incidente de seguridad nacional, las organizaciones de base deberán actuar como amplificadores de la verdad verificada, adaptando los hechos a los códigos culturales de grupos minoritarios o demografías escépticas que podrían desconfiar de los canales gubernamentales oficiales.39 Dado que el 74% de las víctimas de deepfakes en contextos periodísticos son mujeres, las OSC de defensa de derechos humanos tendrán el deber de documentar y denunciar estas campañas de deshumanización.40
5.3. Mecanismo de "listas rojas" y auditoría de chatbots
Para evitar la "intoxicación" de los modelos de lenguaje por actores estatales hostiles (ataques de data poisoning), la academia y las OSC de auditoría de noticias deberán recopilar y compartir los enlaces de sitios inauténticos (como la red Pravda o Storm-1516) con organizaciones como NewsGuard.41 Consecuentemente, los desarrolladores de IA deberán utilizar esta información para filtrar sus datasets y evitar que sus modelos citen propaganda como fuente fidedigna en consultas sobre seguridad nacional.42
5.4. Independencia funcional y acceso a datos bajo la DSA
Para que la intervención de la sociedad civil sea jurídicamente válida y creíble, esta deberá mantener su independencia funcional respecto al gobierno, preservando un balance entre la seguridad pública y el derecho a la protesta pacífica.43 Sin embargo, para cumplir esta labor, es imperativo que los investigadores tengan acceso garantizado a los datos de las plataformas sociales. Siguiendo el modelo de la Ley de Servicios Digitales (DSA) de la Unión Europea, el gobierno deberá facilitar que los investigadores acreditados dispongan de herramientas de acceso a datos para examinar sistémicamente cómo se explotaron las herramientas de IA durante la crisis.44
VI. MEDIDAS POSTERIORES A LA CRISIS: REVISIÓN Y BLINDAJE TÉCNICO (EX POST)
La conclusión de una crisis informativa no implica el cese de las obligaciones jurídicas. La doctrina de "Seguridad Epistémica" establece que el periodo posterior al restablecimiento del orden público es crítico para evitar la consolidación del "dividendo del mentiroso" y para parchear las vulnerabilidades técnicas explotadas.45
6.1. Institucionalización de los procesos de revisión post-incidente
El Gobierno tendrá el deber legal de formalizar un Proceso de Revisión Post-Incidente (PIR) tras cada evento de crisis donde se identifique el uso significativo de amenazas informáticas de IA.46 Este mecanismo, coordinado por la Oficina del Gabinete, deberá integrar el feedback de fuerzas de seguridad, reguladores y equipos de inteligencia. El NSOIT deberá someter sus indicadores de monitorización a una revisión periódica, presumiéndose la necesidad de actualización cuando surjan nuevos vectores de amenaza (agentes autónomos de IA o técnicas de vibe coding) no detectados eficazmente durante la crisis.47
6.2. Bases de datos industriales de hashes y repositorios de amenazas
Para evitar que el contenido sintético dañino migre de una plataforma a otra tras ser detectado, la industria deberá implementar un sistema de memoria técnica compartida. Siguiendo el modelo del FMF, las empresas de IA desarrollarán y mantendrán un repositorio de hashes de las amenazas más prominentes identificadas durante la crisis.48 Las plataformas participantes tendrán la obligación de contrastar el nuevo contenido cargado con los hashes del repositorio; cualquier coincidencia con un hash de "IA de Alto Riesgo" deberá ser eliminada o degradada de inmediato.49
6.3. Saneamiento de los modelos de lenguaje: listas rojas
Tras la identificación de redes de desinformación extranjera que hayan inundado el ecosistema con artículos falsos para intoxicar a los chatbots, la sociedad civil y los desarrolladores deberán activar un protocolo de "Saneamiento Epistémico".50 Los desarrolladores de IA estarán obligados a utilizar los datos de NewsGuard para eliminar fuentes inauténticas de sus datasets de entrenamiento y programar sus modelos para que, ante consultas sobre la crisis pasada, sustituyan la narrativa falsa por la versión verificada.51
6.4. Rendición de cuentas y sanción jurídica
Se propone que los marcos legales nacionales incorporen sanciones específicas para la creación y difusión de deepfakes maliciosos que inciten a la violencia física o al odio de género.52 Las plataformas que no logren preservar los registros de procedencia o que permitan a los usuarios eliminar metadatos de IA sin advertir del riesgo serán consideradas responsables de "negligencia técnica facilitadora".53 De acuerdo con el artículo 20(2) del PIDCP, los Estados deberán criminalizar el uso de medios sintéticos que funcionen como factores de riesgo para el genocidio o atrocidades masivas, considerando la escala y velocidad de la IA como un agravante.54
VII. PRIORIDADES ESTRUCTURALES PERMANENTES
La naturaleza dinámica y transfronteriza de las amenazas de IA exige que la respuesta normativa se asiente sobre prioridades estructurales permanentes.
7.1. Marco de preparación para incidentes de IA
El Estado deberá adoptar formalmente un marco sistémico de respuesta a la desinformación basado en cuatro columnas: (i) restricción de la generación (salvaguardas técnicas); (ii) limitación de la difusión (des-amplificación y etiquetas); (iii) contrarrestar la interacción (herramientas de verificación en el punto de consumo); y (iv) empoderamiento social (fortalecimiento de la capacidad ciudadana para exponer campañas de desinformación).55 Este marco debe estar respaldado por una legislación de "Preparación para la Seguridad de la IA" (inspirada en la Advanced AI Security Readiness Act - H.R. 3919) que obligue a los organismos de inteligencia a identificar vulnerabilidades en centros de datos y desarrolladores de modelos críticos.56
7.2. Apoyo a startups de IA
Las pequeñas empresas y startups de IA carecen a menudo de recursos para implementar departamentos robustos de Trust & Safety, lo que las convierte en el eslabón débil.57 El AISI tendrá el deber de mantener un registro actualizado de startups con productos de "doble uso" que puedan ser explotados por actores hostiles. El Estado estará obligado a proveer toolkits de información, acceso gratuito a herramientas de seguridad de código abierto (como ROOST) y programas de mentoría liderados por el FMF y el GIFCT.58
7.3. Colaboración académica e investigadora
Siguiendo el modelo de la DSA de la UE, el Gobierno deberá legislar para que las plataformas sociales proporcionen herramientas de acceso a datos a investigadores acreditados que estudien riesgos sistémicos para la seguridad pública.59 Este acceso permitirá realizar auditorías post-crisis sobre cómo los sistemas de recomendación priorizaron o devaluaron el contenido sintético. Las instituciones académicas deberán ser socios estratégicos en la definición de los indicadores dinámicos de severidad, aportando una perspectiva científica que evite que los umbrales de intervención gubernamental sean arbitrarios o políticamente sesgados.60
7.4. Hacia un estándar internacional de verdad sintética
Se propone el impulso de una Coalición Global para la Integridad Digital, análoga en su ambición al Acuerdo de París, que estandarice las normas de transparencia y procedencia a nivel mundial.61 Las prioridades internacionales deberán ser: (a) la estandarización del estándar C2PA como requisito global para todo modelo de IA generativa;62 (b) la adopción de una Carta Global de Integridad Digital de la ONU que obligue a los Estados a no utilizar la IA para interferir en procesos democráticos de terceros países;63 y (c) la integración de la alfabetización mediática avanzada en los currículos de educación secundaria y universitaria.64
VIII. CONCLUSIÓN Y ANEXO NORMATIVO
La investigación académica y la praxis institucional desarrolladas entre 2024 y 2026 confirman que la IA generativa ha mutado de ser una curiosidad técnica a constituirse como un vector de amenaza sistémica para la estabilidad democrática.65 La capacidad de los modelos de frontera para fabricar evidencia sintética indistinguible de la realidad ha inaugurado la era del "dividendo del mentiroso", donde la verdad misma es degradada a una opción subjetiva bajo el peso de la saturación informativa.66
La tesis central postula que la resiliencia social ante crisis de desinformación requiere una arquitectura de seguridad epistémica fundamentada en el "deber de cuidado activo" de la industria, la proactividad estratégica del Estado y la vigilancia técnica de la sociedad civil.67 El costo del silencio gubernamental y la pasividad algorítmica durante eventos de alta sensibilidad actúan como acelerantes de la violencia física real.68 De cara al horizonte 2026-2028, la estandarización internacional de normas de procedencia (C2PA) y la auditoría constante de los conjuntos de entrenamiento contra la "infección" de propaganda estatal extranjera son imperativos categóricos para preservar el contrato social en la era digital.69
ANEXO NORMATIVO: 10 REGLAS CONSOLIDADAS PARA LA GESTIÓN DE IA EN CRISIS
-
Etiquetado de "IA de Alto Riesgo": Las plataformas deberán aplicar automáticamente la etiqueta "Alto Riesgo" a cualquier contenido multimedia sintético que simule evidencia de zonas de conflicto, atrocidades o incidentes de seguridad nacional, independientemente de la autodeclaración del usuario.70
-
Presunción de inautenticidad en crisis: En situaciones de violencia inminente o desorden civil declarado, se presumirá que el contenido no verificado que carezca de metadatos de procedencia C2PA y sea identificado como viral es material sintético manipulado, autorizando su degradación algorítmica inmediata.71
-
Saneamiento epistémico: Los desarrolladores de LLM deberán integrar "Listas Rojas" actualizadas de dominios de desinformación inauténtica (ej. red Pravda) para filtrar sus datasets de entrenamiento y evitar que sus chatbots reproduzcan propaganda estatal como fuente fidedigna.72
-
Trazabilidad de la información oficial: El Gobierno deberá implementar sistemas de firma digital y procedencia inmutable en toda comunicación de emergencia desde su origen, garantizando que el ciudadano pueda verificar la autenticidad de las instrucciones de seguridad estatal frente a posibles suplantaciones.73
-
Advertencia obligatoria en chatbots: Las interfaces de usuario de IA (CUI) deberán desplegar avisos emergentes prominentes cuando detecten consultas sobre crisis activas, informando explícitamente sobre las limitaciones del modelo para verificar hechos en tiempo real.74
-
Des-amplificación escalonada: La industria tecnológica deberá modificar sus algoritmos de recomendación para que, ante señales de "Severidad Crítica" definidas por el Estado, se reduzca la visibilidad del contenido no verificado en un 80% de forma preventiva, priorizando la seguridad pública sobre el alcance viral.75
-
Acceso forense para investigadores: Las plataformas Category 1 deberán facilitar a investigadores académicos acreditados acceso a los datos de moderación algorítmica y archivos de hashes en un plazo máximo de 60 días tras una crisis para auditar posibles sesgos o fallos técnicos.76
-
Responsabilidad por negligencia técnica facilitadora: Se considerará responsable a la empresa de IA que permita la eliminación sistemática de metadatos de procedencia en sus herramientas de edición sin implementar salvaguardas técnicas suficientes para evitar la creación de deepfakes con fines delictivos.77
-
Criminalización de la incitación sintética: Los Estados deberán tipificar como delito autónomo la creación y distribución de medios sintéticos diseñados específicamente para incitar al genocidio, la violencia física masiva o la deshumanización sistemática por motivos de género o raza.78
-
Institucionalización del Post-Incident Review (PIR): Tras la resolución de una crisis informativa, el Gobierno y la industria deberán realizar y publicar un informe de revisión de incidentes que audite la eficacia de los indicadores de severidad y el flujo de inteligencia entre los centros de situación y los laboratorios de IA de frontera.79
BIBLIOGRAFÍA Y REFERENCIAS
Informes y artículos académicos
- Albader, F., Synthetic Media as a Risk Factor for Genocide, n.p. (2025). 5478
- Bailey, M., New report on AI information threats following crisis events, n.p. (2026). 65
- Gilbert, D., Schroeder, D. T., & Kunst, J. R., AI-Powered Disinformation Swarms Are Coming for Democracy, Wired (22 ene. 2026). 738
- McDonald, B., & Stockwell, S., AI Information Threats and Crisis Response: Practitioners' Handbook, CETaS (abr. 2026). 81116181921242728303234353639434446474850575859606474
- NewsGuard, Two Data Filters Appear Able to Protect LLMs from Russian 'Infection', n.p. (dic. 2025). 3141425172
- Oversight Board, Board Calls for New Rules on Deceptive AI During Conflicts, n.p. (10 mar. 2026). 91012232526495370717577
- RSF (Reporters Without Borders), RSF analysis of 100 deepfakes shows mounting threat to journalists — especially women, n.p. (abr. 2026). 540
- Seger, E. et al., Epistemic Security for Crisis Resilience, n.p. (2026). 4567
- Shah, P. J., Exploring Current Trends in Journalism, n.p. (2024). 361
- Stockwell, S., AI-Enabled Influence Operations: Threat Analysis of the 2024 UK and European Elections, CETaS (sep. 2024). 6
- Stockwell, S., & Baker, A., The Cost of Silence: Crisis Communication, n.p. (2025). 2068
- Stockwell, S., Janjeva, A., & McDonald, B., Adding Fuel to the Fire: AI Information Threats and Crisis Events, CETaS (feb. 2026). 2415222933375254566669737679
- UC Berkeley, Liar's dividend in the Charlie Kirk shooting, n.p. (2025). 4
Legislación y documentos oficiales
- Alan Turing Institute, Written evidence (SMH0007), UK Parliament (2024). 55
- Codify Updates, Advanced AI Security Readiness Act (H.R. 3919), US Congress (jun. 2025). 1756
- European Commission, AI in emergency and crisis management, n.p. (2025). 15
- Olawunmi, K., Computational Propaganda, Disinformation, and Democracy, n.p. (2025). 1463
- United Nations, Global Digital Integrity Charter, n.p. (2025). 63
- White House, National Policy Framework for Artificial Intelligence, n.p. (mar. 2026). 62
Notas al pie
Footnotes
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 3. ↩
-
Shah, Exploring Current Trends in Journalism, 2024, n.p. ↩ ↩2
-
UC Berkeley, Liar's dividend in the Charlie Kirk shooting, 2025, n.p.; Oversight Board, Deceptive AI on Social Media During Conflicts, 2026, n.p. ↩ ↩2 ↩3
-
Gilbert, Schroeder & Kunst, AI-Powered Disinformation Swarms, 2026, abstract. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 5 (citando a DiResta, 2018). ↩ ↩2
-
Id.; Shane, Preparing for AI security incidents, 2025, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 11. ↩ ↩2
-
Id.; IT Rules (India), Amendments on Synthetically Generated Information, 2026, n.p. ↩
-
Olawunmi, Computational Propaganda, 2025, n.p. (citando a Dameron, 2026). ↩ ↩2
-
European Commission, AI in emergency and crisis management, 2025, n.p.; GCSA, Recommendations on AI performance in crisis, 2025, n.p. ↩ ↩2 ↩3
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 3. ↩ ↩2
-
Codify Updates, Advanced AI Security Readiness Act (H.R. 3919), 2025, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 3-4. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 4. ↩ ↩2
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 32. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 4. ↩ ↩2
-
Oversight Board, Current mechanisms for labeling are not robust, 2026, n.p. ↩ ↩2
-
Oversight Board, Ruling on Israel-Iran conflict video, 2026, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 4; Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 40. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 4 y 11. ↩ ↩2
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 24. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 4; Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 41. ↩ ↩2
-
NewsGuard, Two Data Filters Protect LLMs from Russian Infection, 2025, n.p. ↩ ↩2
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 5. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 4-5. ↩ ↩2
-
Id., 5; Gilbert, Schroeder & Kunst, AI-Powered Disinformation Swarms, 2026, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 7. ↩ ↩2
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 36. ↩ ↩2
-
Gilbert, Schroeder & Kunst, AI-Powered Disinformation Swarms, 2026, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 7-8. ↩ ↩2
-
Id.; McDonald & Stockwell, Practitioners' Handbook, 2026, 10. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 8. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 9. ↩ ↩2
-
Id.; Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 31. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 9. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 10. ↩ ↩2
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 23; RSF, Analysis of 100 deepfakes, 2026, n.p. ↩ ↩2
-
Albader, Synthetic Media as a Risk Factor for Genocide, 2025, n.p. ↩ ↩2 ↩3
-
Alan Turing Institute, Written evidence (SMH0007), 2024, n.p. ↩ ↩2
-
Codify Updates, Advanced AI Security Readiness Act, 2025, n.p. ↩ ↩2 ↩3
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 11. ↩ ↩2
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 31. ↩ ↩2
-
Shah, Exploring Current Trends in Journalism, 2024, n.p. ↩ ↩2
-
White House, National AI Framework, 2026, n.p.; Oversight Board, Open Letter to Tech Platforms, 2026, n.p. ↩ ↩2
-
Olawunmi, Computational Propaganda, 2025, n.p.; United Nations, Global Digital Integrity Charter, 2025, n.p. ↩ ↩2 ↩3
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 11; Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 44. ↩ ↩2
-
Bailey, New report on AI information threats, 2026, n.p. ↩ ↩2
-
Oversight Board, Growth of Deceptive AI Videos, 2026, n.p.; Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 5. ↩ ↩2
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 29-30; NewsGuard, Two Data Filters, 2025, n.p. ↩ ↩2
-
Oversight Board, Ruling on Israel-Iran conflict video, 2026, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 4; Oversight Board, Current mechanisms for labeling, 2026, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 10; NewsGuard, Two Data Filters, 2025, n.p. ↩ ↩2
-
Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 32; Alan Turing Institute, Written evidence (SMH0007), 2024, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 4; Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 41. ↩ ↩2
-
Oversight Board, New Rules on Deceptive AI, 2026, n.p.; Codify Updates, Advanced AI Security Readiness Act, 2025, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 9; Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 31. ↩ ↩2
-
Oversight Board, New Rules on Deceptive AI, 2026, n.p.; Oversight Board, Nuanced approaches to labeling, 2026, n.p. ↩ ↩2
-
Albader, Synthetic Media as a Risk Factor for Genocide, 2025, n.p. ↩ ↩2
-
McDonald & Stockwell, Practitioners' Handbook, 2026, 9; Stockwell, Janjeva & McDonald, Adding Fuel to the Fire, 2026, 31. ↩ ↩2
Artículos relacionados
El Agente Desleal: Desalineación de la IA y la Amenaza Corporativa Interna
16 modelos de IA avanzados revelan comportamiento de amenaza interna deliberada: chantaje, espionaje corporativo y sabotaje. Análisis jurídico de responsabilidad y governance corporativo ante agentes autónomos desalineados.
Personas mayores y brecha digital: el defecto de diseño como barrera administrativa
Las Administraciones Públicas construyen servicios electrónicos para un usuario ideal inexistente. Cómo la digitalización se ha convertido en una barrera de exclusión para los mayores de 65 años.
IA abierta: por qué tu modelo tiene 7 capas cerradas
Cómo la regulación de IA quedó atrapada en un falso binario abierto/cerrado. Análisis del paper 'Untangling AI Openness': 8 componentes, trade-offs irreversibles, y por qué Meta liberó Llama para entrencharse.
Peritos judiciales inteligentes: el marco legal que falta
Cómo regular IA en tribunales usando el marco de los peritos judiciales. De Cartagena a La Haya: sin registros, auditoría o derecho de contradicción.