Online Safety Act y disturbios 2024: cómo los algoritmos viralizaron la desinformación
Los algoritmos de X promocionaron un nombre falso hasta 155 millones de impresiones. TikTok lo sugería como búsqueda recomendada. La Online Safety Act no lo pudo detener porque, sencillamente, no fue diseñada para ello. Esto es lo que el Parlamento del Reino Unido acaba de certificar.
📄 Descarga el informe completo en PDF: Algoritmos del desorden — Análisis completo
Resumen Este artículo analiza el informe del Comité de Ciencia, Innovación y Tecnología del Parlamento del Reino Unido sobre el papel de las redes sociales en los disturbios del verano de 2024, ocurridos tras el ataque en Southport. Se examina cómo la arquitectura de las plataformas —impulsada por modelos de negocio basados en la atención y algoritmos de recomendación— facilitó la propagación viral de desinformación y mensajes de odio que derivaron en violencia real. A pesar de la reciente aprobación de la Online Safety Act (OSA), la investigación parlamentaria concluye que este marco legal es insuficiente para abordar la desinformación «legal pero dañina» y se encuentra ya desactualizado frente a tecnologías como la inteligencia artificial generativa. Finalmente, se exponen cinco principios fundamentales para una regulación efectiva que garantice la seguridad pública, la libertad de expresión, la responsabilidad de las plataformas, el control del usuario y la transparencia tecnológica.
Palabras clave: desinformación, algoritmos de recomendación, redes sociales, Online Safety Act, regulación de plataformas, inteligencia artificial generativa, publicidad programática.
1. Introducción
1.1. Contexto del informe: los asesinatos de Southport y la escalada de desinformación viral
El 29 de julio de 2024, un ataque mortal en la localidad de Southport desencadenó una oleada de desórdenes violentos en todo el Reino Unido. En cuestión de horas circuló información falsa e infundada que identificaba erróneamente al sospechoso como un solicitante de asilo musulmán llamado «Ali Al-Shakati». A pesar de los desmentidos policiales, la falta de información oficial inicial generó un «vacío» informativo que permitió el crecimiento acelerado de la desinformación (Comité de Ciencia, Innovación y Tecnología, 2025, §7). Como consecuencia, las narrativas antiinmigración y antimusulmanas alcanzaron una difusión viral, impulsadas por una infraestructura digital que permitió que estos mensajes se propagaran masivamente antes de cualquier intervención efectiva.
1.2. El «entorno en línea» como factor determinante en la incitación a la violencia real
El Ministerio del Interior británico identificó el «entorno en línea» como un factor significativo en la incitación a la violencia física durante este periodo de disturbios (Comité de Ciencia, Innovación y Tecnología, 2025, §1). La investigación destaca que las redes sociales y las plataformas de mensajería encriptada no solo fueron canales de comunicación, sino herramientas activas para organizar protestas violentas y ataques contra mezquitas y comunidades migrantes. Los algoritmos de recomendación desempeñaron un papel crítico al amplificar llamadas a la violencia y promover términos falsos en secciones de alta visibilidad, como las tendencias de X o las sugerencias de búsqueda de TikTok (Comité de Ciencia, Innovación y Tecnología, 2025, §8).
1.3. Objetivos y alcance del artículo
El presente artículo tiene como objetivo desgranar los hallazgos del Comité parlamentario respecto a cómo los modelos de negocio y las tecnologías de recomendación de las grandes empresas tecnológicas contribuyen a la inestabilidad social. Se analiza críticamente por qué la Online Safety Act (OSA), a pesar de sus años de tramitación, no protegió a los ciudadanos de un daño tan central y previsible como la desinformación algorítmicamente acelerada. Finalmente, se exponen las recomendaciones del Comité para transitar hacia un modelo «seguro por diseño» que exija responsabilidad a las plataformas por el contenido que eligen amplificar.
2. Metodología de la investigación parlamentaria
2.1. Sesiones de evidencia, testigos y revisión de pruebas documentales
La investigación llevada a cabo por el Comité de Ciencia, Innovación y Tecnología se caracterizó por un enfoque multiagente y una rigurosa recopilización de pruebas tras los eventos de Southport. El Comité celebró cuatro sesiones de evidencia oral, una mesa redonda privada y recibió un informe técnico experto centrado específicamente en los algoritmos de las redes sociales (Comité de Ciencia, Innovación y Tecnología, 2025, §5). El proceso incluyó testimonios de una amplia gama de sectores estratégicos:
- Sociedad civil y afectados: grupos impactados directamente por los disturbios, representantes de gobiernos locales y expertos en narrativas digitales y desinformación.
- Sector tecnológico: altos directivos de las principales plataformas globales, incluyendo Google, Meta, TikTok y X.
- Expertos técnicos: especialistas en el mercado de publicidad digital, organizaciones de verificación de hechos (fact‑checking) y defensores de la seguridad en línea.
- Reguladores y ejecutivo: representantes de Ofcom, la Oficina del Comisionado de Información (ICO) y el Departamento de Ciencia, Innovación y Tecnología (DSIT).
Además de las comparecencias, el Comité analizó más de ochenta piezas de evidencia escrita enviadas por académicos, investigadores independientes, grupos de campaña y ciudadanos particulares (Comité de Ciencia, Innovación y Tecnología, 2025, §5). Esta base documental permitió contrastar las declaraciones oficiales de las empresas tecnológicas con la realidad observada por investigadores de «caja negra» que analizan el impacto externo de los algoritmos.
2.2. Enfoque en los aspectos tecnológicos, algoritmos y modelos de negocio
A diferencia de otros análisis puramente sociológicos, esta investigación parlamentaria puso un énfasis deliberado en «los aspectos tecnológicos de los servicios y mercados en línea que pueden conducir a la amplificación de información falsa, infundada o dañina» (Comité de Ciencia, Innovación y Tecnología, 2025, §3). El Comité no se limitó a examinar el contenido de los mensajes, sino que investigó la arquitectura que los sostiene.
Un hito metodológico clave fue el intento de auditar la opacidad algorítmica. El Comité solicitó a las empresas tecnológicas representaciones de alto nivel de sus algoritmos de recomendación; sin embargo, estas se negaron a proporcionarlas alegando confidencialidad comercial y el riesgo de que actores maliciosos eludieran sus protecciones (Comité de Ciencia, Innovación y Tecnología, 2025, §23). Este obstáculo metodológico —la falta de transparencia de la propiedad intelectual— es identificado en el informe como una barrera crítica para la rendición de cuentas, lo que llevó al Comité a basar parte de sus hallazgos en estudios independientes que analizan los resultados del sistema (outputs) ante la imposibilidad de ver su funcionamiento interno.
3. Análisis de los hallazgos I: el ecosistema de la desinformación y el daño
3.1. El caso Southport: cronología de una falsedad amplificada
La investigación del Comité identifica los eventos posteriores al 29 de julio de 2024 como un caso de estudio sobre cómo la desinformación viral puede catalizar la violencia física. Apenas dos horas después del ataque (13:49), ya circulaban publicaciones en X afirmando que el sospechoso era un «inmigrante musulmán». A las 16:49 se difundió el nombre ficticio «Ali Al‑Shakati», el cual fue recogido poco después por el sitio web Channel3Now y amplificado por cuentas con millones de seguidores (Comité de Ciencia, Innovación y Tecnología, 2025, §7‑8).
Este fenómeno se vio favorecido por un vacío informativo inicial: la imposibilidad legal de la policía para publicar detalles sobre el sospechoso (menor de edad en ese momento) permitió que narrativas infundadas ocuparan el espacio público digital. El impacto fue masivo: las afirmaciones falsas sobre el atacante alcanzaron 155 millones de impresiones en X en apenas diez días, y el nombre falso tuvo un alcance potencial de 1.700 millones de personas en diversas plataformas (Comité de Ciencia, Innovación y Tecnología, 2025, §8).
3.2. El rol de los algoritmos de recomendación en la propagación de narrativas extremistas
El informe concluye de manera contundente que el contenido dañino no solo «estuvo presente», sino que fue activamente impulsado por las herramientas algorítmicas de las empresas. El Comité halló evidencia de que:
- En X, el nombre falso del atacante apareció en la sección «Trending in the UK» y en la barra lateral «What's happening».
- En TikTok, el sistema sugería «Ali Al‑Shakati arrestado en Southport» como una consulta de búsqueda recomendada en la sección «Otros buscaron» (Comité de Ciencia, Innovación y Tecnología, 2025, §8).
Estos sistemas están diseñados para maximizar el engagement y, por definición, priorizan contenido que genera reacciones emocionales fuertes —como la indignación o el odio— independientemente de su veracidad. Esta arquitectura técnica crea «cámaras de eco» que normalizan retóricas extremistas al hacerlas parecer más extendidas de lo que realmente son (Comité de Ciencia, Innovación y Tecnología, 2025, §20).
3.3. Respuestas de las plataformas: protocolos de crisis e inconsistencias operativas
Aunque empresas como Meta, TikTok, Google y X activaron protocolos de crisis y eliminaron miles de publicaciones, el regulador Ofcom calificó estas respuestas como «insuficientes, inconsistentes y desiguales» (Comité de Ciencia, Innovación y Tecnología, 2025, §12).
- Meta eliminó 24.000 publicaciones por incitación a la violencia, pero su Junta de Supervisión expresó serias preocupaciones sobre la capacidad de la empresa para moderar imágenes violentas de manera precisa.
- TikTok admitió que, aunque eliminó el nombre falso de las sugerencias, su respuesta podría haber sido más rápida, ya que su enfoque principal estaba en la moderación de vídeo (Comité de Ciencia, Innovación y Tecnología, 2025, §11).
- X recibió críticas por la ineficacia de su sistema de 'Community Notes'; durante los disturbios, la mayoría de las publicaciones dañinas de cuentas de alto perfil no mostraron una nota de contexto (Comité de Ciencia, Innovación y Tecnología, 2025, §12).
3.4. La economía de la atención: el lucro derivado del contenido polarizante
Una de las conclusiones más críticas del Comité es que el modelo de negocio basado en la publicidad incentiva la propagación de contenido peligroso. Dado que las plataformas dependen de las visualizaciones de anuncios, existe un desincentivo intrínseco para moderar contenido que genera un alto volumen de interacciones.
Evidencia presentada por el Center for Countering Digital Hate (CCDH) estimó que figuras de extrema derecha generaron casi 39 millones de impresiones de anuncios en X en la semana posterior al ataque, lo que podría haber supuesto ingresos publicitarios diarios de aproximadamente 27.976 libras esterlinas para la plataforma (Comité de Ciencia, Innovación y Tecnología, 2025, §13). El Comité sostiene que, mientras el desorden público resulte rentable para las empresas tecnológicas, las medidas de seguridad seguirán siendo reactivas y deficientes (Comité de Ciencia, Innovación y Tecnología, 2025, §14).
4. Análisis de los hallazgos II: la Online Safety Act bajo escrutinio
4.1. La insuficiencia de la OSA frente al contenido «legal pero dañino»
Una de las conclusiones más críticas del Comité es que la Online Safety Act (OSA), a pesar de su largo proceso de gestación, no fue diseñada para abordar la desinformación que no sea estrictamente ilegal o dirigida a niños. El informe destaca que gran parte del contenido engañoso que impulsó los disturbios de 2024 se clasifica como «legal pero dañino», una categoría que fue deliberadamente eliminada del alcance de la Ley por el gobierno anterior. Por ejemplo, el Comité señala que el estatus migratorio no es una característica protegida bajo las obligaciones de contenido ilegal de la OSA, lo que dejó fuera de su marco regulatorio muchas de las narrativas antiinmigración que circularon en Southport. En consecuencia, el Comité concluye que «la Ley falla en mantener seguros a los ciudadanos del Reino Unido frente a un daño en línea central y generalizado» (Comité de Ciencia, Innovación y Tecnología, 2025, §18).
4.2. La brecha entre la legislación vigente y la realidad tecnológica actual
El informe sostiene que la OSA ya se encuentra «desactualizada» frente a la velocidad del desarrollo tecnológico. La legislación se centra en regular a nivel de contenidos específicos o categorías de tecnología (como redes sociales o motores de búsqueda), en lugar de basarse en principios u objetivos de seguridad universales. Esta estructura crea vacíos significativos:
- Indeterminación legal de nuevas herramientas: la posición legal de los chatbots de IA generativa no es totalmente clara bajo las categorías actuales de la OSA (Comité de Ciencia, Innovación y Tecnología, 2025, §70).
- El fallo de la ofensa de «Comunicaciones Falsas»: aunque la sección 179 de la OSA introdujo este delito, el Comité lo califica de «vagamente redactado» y difícil de implementar por parte de las plataformas (Comité de Ciencia, Innovación y Tecnología, 2025, §42).
- Exclusión de plataformas pequeñas: el enfoque de la Ley basado en el tamaño de la base de usuarios deja desprotegido al público frente a servicios «pequeños pero riesgosos» que actúan como incubadoras de narrativas extremistas antes de que estas salten a las grandes plataformas (Comité de Ciencia, Innovación y Tecnología, 2025, §52‑53).
4.3. La necesidad de un enfoque «seguro por diseño» frente a la moderación reactiva
El Comité critica que la OSA y los códigos de práctica de Ofcom se centran excesivamente en medidas de moderación reactivas (eliminar contenido una vez publicado) en lugar de imponer medidas de diseño proactivas. Mientras que la moderación a nivel de contenido pone la responsabilidad en el usuario individual, una regulación a nivel de sistema «trasladaría la responsabilidad a las plataformas que aprueban, alojan y recomiendan algorítmicamente contenido dañino» (Comité de Ciencia, Innovación y Tecnología, 2025, §51).
Entre las recomendaciones para lograr un entorno «seguro por diseño», el informe propone:
- Desamplificación obligatoria: obligar a las plataformas a integrar herramientas que identifiquen y desprioricen algorítmicamente la desinformación verificada, reduciendo su alcance sin necesidad de censurar el discurso legal (Comité de Ciencia, Innovación y Tecnología, 2025, §31).
- Auditorías de diseño: someter a los algoritmos de recomendación a auditorías independientes para evaluar si sus ajustes de diseño están amplificando riesgos sistémicos.
- Protocolos de crisis: establecer mecanismos claros para que, en situaciones de emergencia como la de 2024, las plataformas deban ralentizar activamente la propagación de información falsa con potencial de causar daños graves (Comité de Ciencia, Innovación y Tecnología, 2025, §19).
5. Propuesta de un nuevo marco regulatorio: los cinco principios del Comité
Ante las deficiencias identificadas en la Online Safety Act, el Comité parlamentario propone que la regulación del ecosistema digital no se base únicamente en reglas tecnológicas específicas, sino en cinco principios rectores que garanticen la resiliencia del sistema frente a crisis futuras (Comité de Ciencia, Innovación y Tecnología, 2025, §6).
5.1. Seguridad pública y responsabilidad algorítmica
El primer principio establece que la desinformación acelerada algorítmicamente constituye un peligro real que requiere la acción coordinada entre empresas, gobierno y fuerzas de seguridad. El Comité sostiene que las plataformas deben ser proactivas: una recomendación clave es que los sistemas degraden algorítmicamente (demote) la desinformación que ya ha sido verificada por expertos en fact‑checking. Asimismo, se exige que las plataformas asuman una responsabilidad sistémica por el impacto derivado de la amplificación de contenidos que, aunque no sean ilegales en un sentido estricto, poseen un potencial de daño público masivo (Comité de Ciencia, Innovación y Tecnología, 2025, §6, principio 1).
5.2. Equilibrio entre libertad de expresión y seguridad
El segundo principio subraya que ni el gobierno ni las empresas privadas deben actuar como «árbitros de la verdad». El informe recalca que cualquier medida para mitigar la desinformación debe alinearse con el derecho fundamental a la libre expresión (incorporado en la ley británica a través del artículo 10 del Convenio Europeo de Derechos Humanos). No obstante, el Comité puntualiza que este es un derecho calificado, y que las restricciones son justificadas y proporcionales cuando su fin es proteger la seguridad nacional, la salud o prevenir el desorden y el crimen (Comité de Ciencia, Innovación y Tecnología, 2025, §6, principio 2).
5.3. Control del usuario y transparencia de los sistemas de recomendación
Los principios cuarto y quinto se centran en el empoderamiento del ciudadano y la rendición de cuentas técnica.
- Control (principio 4): se propone que los usuarios tengan un «derecho al reseteo» de sus datos personales. Esto permitiría borrar el historial de datos que alimenta los algoritmos de recomendación, rompiendo así las posibles «cámaras de eco» o bucles de radicalización (Comité de Ciencia, Innovación y Tecnología, 2025, §32).
- Transparencia (principio 5): el Comité es tajante al afirmar que la tecnología de las plataformas debe ser transparente, accesible y explicable para las autoridades públicas y los investigadores independientes. Se denuncia que, actualmente, el carácter de «propiedad intelectual» de los algoritmos actúa como una barrera que impide evaluar el verdadero alcance del daño social que estos provocan (Comité de Ciencia, Innovación y Tecnología, 2025, §27).
6. Inteligencia artificial generativa: el próximo frente de la desinformación
6.1. Hallazgos sobre «alucinaciones», contenido sintético y «deepfakes»
La integración masiva de la inteligencia artificial (IA) generativa y los modelos de lenguaje extenso (LLM) por parte de empresas como Google, Meta y X ha introducido nuevos riesgos críticos para la integridad de la información. El Comité advierte sobre las «alucinaciones» de la IA, donde los modelos generan información falsa de manera convincente; las estimaciones sugieren que la frecuencia de estos errores varía entre el 0,7 % y el 79 % según la tarea (Comité de Ciencia, Innovación y Tecnología, 2025, §64). Un ejemplo notable citado en el informe es la función 'AI Overview' de Google, que en su fase experimental produjo respuestas erróneas que reflejaban prejuicios racistas (Comité de Ciencia, Innovación y Tecnología, 2025, §64).
Más allá de los errores involuntarios, la IA generativa ha reducido drásticamente el coste y la dificultad para crear contenido engañoso a gran escala. El Comité recibió pruebas de que es posible construir una «máquina de desinformación perpetua» por tan solo 400 dólares, capaz de generar miles de iteraciones de mensajes falsos adaptados a audiencias específicas (Comité de Ciencia, Innovación y Tecnología, 2025, §66). Durante los disturbios de 2024, se identificó que el sitio Channel3Now probablemente utilizó IA para cosechar datos de redes sociales y generar sus publicaciones engañosas. Asimismo, se detectaron imágenes de odio generadas por IA circulando en plataformas de Meta que inicialmente no fueron eliminadas por sus sistemas de moderación (Comité de Ciencia, Innovación y Tecnología, 2025, §68).
6.2. Lagunas regulatorias de la IA en el marco de la OSA
El informe concluye que la Online Safety Act falla significativamente al no abordar de manera específica los riesgos de la IA generativa. Dado que la ley regula categorías tecnológicas rígidas, la posición legal de los chatbots y otros servicios de IA no es clara, lo que genera una zona gris regulatoria (Comité de Ciencia, Innovación y Tecnología, 2025, §70). El Comité destaca las siguientes deficiencias:
- Ausencia de etiquetado obligatorio: la OSA no contiene medidas para identificar visualmente el contenido generado por IA o los deepfakes.
- Falta de transparencia en el entrenamiento: no existen requisitos para que las empresas informen sobre los conjuntos de datos utilizados para entrenar sus modelos o sus mecanismos internos de seguridad.
- Despliegue de funciones experimentales: la ley no protege a los usuarios frente al lanzamiento de herramientas de IA «experimentales» que alimentan de información falsa a audiencias masivas (Comité de Ciencia, Innovación y Tecnología, 2025, §74).
Para cerrar esta brecha, el Comité recomienda que la legislación futura obligue a las plataformas de IA a realizar evaluaciones de riesgo sobre sus outputs y a implementar marcas de agua digitales y metadatos que no puedan ser eliminados, garantizando que todo contenido sintético sea claramente identificable para el público (Comité de Ciencia, Innovación y Tecnología, 2025, §78).
7. El mercado de publicidad digital: la financiación del contenido dañino
7.1. Opacidad en la publicidad programática y el rol dominante de Google
El informe del Comité subraya que cualquier intento serio de atajar la desinformación debe abordar el mercado de la publicidad digital, valorado en 790 mil millones de dólares a nivel mundial en 2024 (Comité de Ciencia, Innovación y Tecnología, 2025, §79). El núcleo del problema reside en la «publicidad programática», un sistema automatizado de pujas en tiempo real que el Comité califica como «excesivamente complejo y opaco». En una sola campaña publicitaria pueden participar, de media, unos 9.000 sitios web, lo que impide a las marcas rastrear con precisión a dónde va su dinero. Como afirma la coalición UK Stop Ad Funded Crime (UKSAFC), en este entorno «la gente literalmente no sabe a quién se le está pagando» (Comité de Ciencia, Innovación y Tecnología, 2025, §86).
Este ecosistema está masivamente dominado por Google, que controla el 90 % de la cuota de mercado en el lado de la venta, entre el 40 % y el 80 % en el lado de la compra, y aproximadamente el 50 % del intercambio que conecta ambos (Comité de Ciencia, Innovación y Tecnología, 2025, §81). El Comité destaca con preocupación que, en abril de 2025, un tribunal de distrito de Estados Unidos dictaminó que Google ha monopolizado tecnologías clave de publicidad digital, perjudicando tanto a editores como a consumidores de información (Comité de Ciencia, Innovación y Tecnología, 2025, §81). Esta posición dominante, sumada a que el 78 % de los ingresos de Alphabet provienen de la publicidad, crea un conflicto de interés estructural donde el volumen de interacción (engagement) prima sobre la seguridad de la información.
7.2. Monetización del odio: el caso de Channel3Now y el fracaso de la autorregulación
La investigación parlamentaria identificó un vínculo directo entre el lucro publicitario y la violencia de 2024. El sitio web Channel3Now, que publicó el nombre falso del sospechoso de Southport, es citado como un ejemplo de cómo la desinformación es incentivada por el mercado. Según la organización CheckMyAds, es «probable» que Google facilitara la monetización de esta información falsa (Comité de Ciencia, Innovación y Tecnología, 2025, §94). Aunque Google afirmó haber desmonetizado el sitio dos días después de los hechos, no proporcionó al Comité datos sobre cuánto dinero ganaron ellos o Channel3Now con ese contenido engañoso. El Comité califica de «inaceptable» que Google pareciera no ser consciente de esta cadena de eventos y no ofreciera garantías para evitar que se repita (Comité de Ciencia, Innovación y Tecnología, 2025, §96).
El informe concluye que la autorregulación de la industria ha fracasado. Las herramientas actuales, como las «listas de bloqueo» de palabras clave, son tildadas de «altamente defectuosas», ya que a menudo perjudican al periodismo legítimo o a comunidades diversas mientras fallan en detener la financiación de actores maliciosos. Además, iniciativas lideradas por la industria, como la Global Alliance for Responsible Media (GARM), han desaparecido tras desafíos legales, dejando un «vacío regulatorio» (Comité de Ciencia, Innovación y Tecnología, 2025, §97). Por ello, el Comité recomienda encarecidamente la creación de un nuevo organismo independiente, no financiado por la industria, para supervisar los procesos de publicidad digital y establecer estándares de «Conozca a su Cliente» (Know Your Customer — KYC) similares a los de los mercados financieros (Comité de Ciencia, Innovación y Tecnología, 2025, §98‑100).
8. Discusión y perspectivas futuras
8.1. El papel de las plataformas como curadoras de contenido, no meros intermediarios
Una de las reflexiones más profundas del Comité radica en el cuestionamiento del estatus legal de las empresas de redes sociales. Históricamente, estas empresas han argumentado que son simples «plataformas» y no «editores» (publishers), lo que les ha permitido abdicar de su responsabilidad sobre el contenido que alojan. Sin embargo, el informe sostiene que este modelo es «profundamente insatisfactorio» en la actualidad. Dado que emplean algoritmos de recomendación sofisticados que amplifican y empujan contenido específico hacia los usuarios, el Comité concluye que estos servicios actúan, de hecho, como curadores de contenido (Comité de Ciencia, Innovación y Tecnología, 2025, §28). El informe insta al gobierno a definir su posición sobre si estas empresas deberían empezar a ser tratadas legalmente como editoras, reconociendo que, aunque es un área legal compleja, la situación actual de irresponsabilidad por la amplificación algorítmica es insostenible.
8.2. Implicaciones para la regulación futura: el modelo de riesgos sistémicos
El análisis parlamentario sugiere un cambio de paradigma hacia un enfoque de «riesgos sistémicos», similar al adoptado por la Unión Europea en su Digital Services Act (DSA). Mientras que la OSA se centra en mitigar contenidos específicos (ilegales o dañinos para niños), el modelo de riesgos sistémicos exige que las plataformas evalúen cómo el diseño de sus algoritmos influye en peligros sociales a gran escala, como la desinformación (Comité de Ciencia, Innovación y Tecnología, 2025, §43).
El Comité argumenta que regular únicamente a nivel de contenido traslada la responsabilidad al usuario individual, mientras que una regulación a nivel de diseño sistémico situaría la responsabilidad en las plataformas que aprueban, alojan y recomiendan contenido dañino (Comité de Ciencia, Innovación y Tecnología, 2025, §51). La investigación advierte que la OSA es ya «un primer paso» insuficiente y que el régimen de seguridad en línea debe basarse en principios universales que permanezcan vigentes frente a un desarrollo tecnológico que evoluciona más rápido de lo que los gobiernos pueden legislar (Comité de Ciencia, Innovación y Tecnología, 2025, §6). El futuro de la regulación, por tanto, no debe depender de «métodos prescriptivos» que se vuelven obsoletos, sino de especificar resultados de seguridad que las plataformas deben garantizar de forma proactiva.
9. Conclusiones y recomendaciones clave
9.1. Síntesis de las cinco conclusiones fundamentales del Comité
Tras un análisis exhaustivo del entorno digital y los sucesos de 2024, el Comité llega a cinco conclusiones que definen el estado actual de la seguridad en línea en el Reino Unido (Comité de Ciencia, Innovación y Tecnología, 2025, §14‑45):
- Responsabilidad de los modelos de negocio: los modelos basados en la publicidad incentivan la propagación de contenido dañino y engañoso porque priorizan el engagement emocional para maximizar el tiempo de permanencia.
- Insuficiencia legislativa de la OSA: la Online Safety Act, en su forma actual, no protege a los ciudadanos frente a la desinformación algorítmicamente acelerada, al no haber incluido medidas contra el contenido «legal pero dañino» para adultos.
- Las plataformas como curadoras: las empresas tecnológicas ya no pueden ser consideradas meras intermediarias; el uso de algoritmos sofisticados para empujar contenido las convierte de facto en curadoras de contenido.
- Obsolescencia frente a la IA: el marco regulatorio está desactualizado respecto a la IA generativa, la cual permite la creación masiva y barata de desinformación sintética, erosionando la integridad de la información pública.
- Fallo del mercado publicitario: el ecosistema de publicidad digital es opaco y carece de una regulación efectiva, lo que permite la monetización inadvertida de discursos de odio y desinformación.
9.2. Hoja de ruta para el gobierno y el regulador (Ofcom)
Para corregir estas deficiencias, el Comité establece una serie de recomendaciones estratégicas dirigidas a transformar la seguridad digital en el Reino Unido:
- Intervención algorítmica proporcional: obligar a las plataformas a integrar herramientas que degraden algorítmicamente el contenido que haya sido verificado como falso por organizaciones independientes, sin necesidad de recurrir a la censura (Comité de Ciencia, Innovación y Tecnología, 2025, §31).
- Transparencia radical y auditoría: el gobierno debe encargar un proyecto de investigación a gran escala que permita a investigadores independientes acceder a las «cajas negras» de los algoritmos de recomendación para evaluar su impacto en la seguridad pública (Comité de Ciencia, Innovación y Tecnología, 2025, §29‑30).
- Empoderamiento del usuario: se propone el mandato legal de un «derecho al reseteo», permitiendo que los usuarios borren los datos que alimentan sus perfiles de recomendación, rompiendo así los bucles de radicalización (Comité de Ciencia, Innovación y Tecnología, 2025, §32).
- Nueva regulación para la IA y la publicidad:
- Legislar específicamente sobre IA generativa, incluyendo el etiquetado obligatorio de todo contenido sintético con marcas de agua digitales (Comité de Ciencia, Innovación y Tecnología, 2025, §78).
- Crear un organismo independiente de supervisión publicitaria, no financiado por la industria, que imponga controles de «Conozca a su Cliente» (KYC) en la cadena de suministro programática (Comité de Ciencia, Innovación y Tecnología, 2025, §98‑100).
- Régimen de sanciones disuasorias: Ofcom debe ser facultado para imponer multas significativas —hasta el 10 % de la facturación global o 18 millones de libras esterlinas— a las empresas que no cumplan con las evaluaciones de riesgo sobre la propagación de daños sistémicos (Comité de Ciencia, Innovación y Tecnología, 2025, §30).
10. Bibliografía
Esta bibliografía ha sido compilada exclusivamente a partir de las fuentes, testimonios y documentos citados en el informe Social media, misinformation and harmful algorithms del Comité de Ciencia, Innovación y Tecnología de la Cámara de los Comunes del Reino Unido.
Legislación y documentos parlamentarios británicos
- Children and Young People Act 1933.
- Contempt of Court Act 1981.
- Culture, Media and Sport Committee. (2024). Trusted voices. Sixth Report of Session 2023–24, HC 175.
- Data (Use and Access) Act 2025.
- Home Affairs Committee. (2025). Police response to the 2024 summer disorder. Second Report of Session 2024–25, HC 381.
- House of Commons Science, Innovation and Technology Committee. (2025). Social media, misinformation and harmful algorithms. Second Report of Session 2024–25, HC 441.
- Human Rights Act 1998.
- Intelligence and Security Committee of Parliament. (2020). Russia. HC 632.
- National Security Act 2023.
- Online Safety Act 2023.
- Public Order Act 1986.
Organismos reguladores y gubernamentales
- Department for Science, Innovation and Technology (DSIT). (2023). UK children and adults to be safer online as world‑leading bill becomes law.
- Government Communication Service. RESIST 2 Counter Disinformation Toolkit.
- Ofcom. (2024). Ofcom's three‑year media literacy strategy.
- Ofcom. (2024). Statement: Protecting people from illegal harms online.
- Ofcom. (2025). Statement: Protecting children from harms online.
Testigos (evidencia oral) — selección
- Ahmed, I. (Center for Countering Digital Hate). Sesión del 21 de enero de 2025.
- Baroness Jones of Whitchurch (Minister for the Future Digital Economy and Online Safety). Sesión del 29 de abril de 2025.
- Bunting, M. (Ofcom). Sesión del 29 de abril de 2025.
- Fernandez, W. (X). Sesión del 25 de febrero de 2025.
- Jain, L. (Logically). Sesión del 18 de marzo de 2025.
- Law, A. (TikTok). Sesión del 25 de febrero de 2025.
- Middleton, K. (University of Portsmouth). Sesión del 18 de marzo de 2025.
- Mohammed, Z. (Muslim Council of Britain). Sesión del 21 de enero de 2025.
- Muthiah, R. (Joint Council for the Welfare of Immigrants). Sesión del 21 de enero de 2025.
- Smith, P. (Incorporated Society of British Advertisers, ISBA). Sesión del 18 de marzo de 2025.
- Spring, M. (BBC). Sesión del 21 de enero de 2025.
- Storey, A. (Google). Sesión del 25 de febrero de 2025.
- Yiu, C. (Meta). Sesión del 25 de febrero de 2025.
Evidencia escrita (referenciada por número SMH)
- 5Rights Foundation (SMH0024).
- Antisemitism Policy Trust (SMH0005).
- Big Brother Watch (SMH0043).
- Center for Countering Digital Hate (SMH0009).
- Clean up the Internet (SMH0023).
- Full Fact (SMH0070).
- Global Witness (SMH0048).
- Institute for Strategic Dialogue (SMH0062).
- Logically (SMH0049).
- Molly Rose Foundation (SMH0016).
- Online Safety Act Network (SMH0031).
- UK Stop Ad Funded Crime (UKSAFC) (SMH0004).
Informes internacionales y otros documentos
- CheckMyAds. (2025). Digital Advertising and Its Role in the 2024 Southport Riots.
- European Union. (2022). Digital Services Act (DSA).
- Meta Oversight Board. (2025). Posts supporting UK riots.
- United Nations. (2024). United Nations Global Principles for Information Integrity.
Artículos relacionados
El Agente Desleal: Desalineación de la IA y la Amenaza Corporativa Interna
16 modelos de IA avanzados revelan comportamiento de amenaza interna deliberada: chantaje, espionaje corporativo y sabotaje. Análisis jurídico de responsabilidad y governance corporativo ante agentes autónomos desalineados.
IA en crisis: el dividendo del mentiroso y la gobernanza de la verdad digital
Desde deepfakes hasta desinformación en tiempo real: un marco legal para que gobiernos, plataformas y sociedad civil gobiernen la IA durante crisis que amenazan la democracia.
Personas mayores y brecha digital: el defecto de diseño como barrera administrativa
Las Administraciones Públicas construyen servicios electrónicos para un usuario ideal inexistente. Cómo la digitalización se ha convertido en una barrera de exclusión para los mayores de 65 años.
IA abierta: por qué tu modelo tiene 7 capas cerradas
Cómo la regulación de IA quedó atrapada en un falso binario abierto/cerrado. Análisis del paper 'Untangling AI Openness': 8 componentes, trade-offs irreversibles, y por qué Meta liberó Llama para entrencharse.