Firma Scarpa

Guía Internacional de Seguridad de la IA 2026: Análisis jurídico-informático exhaustivo

Guía Internacional de Seguridad de la IA 2026: Análisis jurídico-informático exhaustivo

Autor: Ricardo Scarpa
Fecha: 10 Febrero 2026

I. Evolución técnica de la IA de propósito general y su relevancia para la informática jurídica

1. Arquitectura técnica y “cadena de valor” regulatoria

El informe describe la IA de propósito general como sistemas de deep learning basados en redes neuronales tipo transformer, entrenados sobre datos masivos y heterogéneos, que luego se afinan mediante técnicas de post-entrenamiento (fine-tuning supervisado, RLHF, RLVR) para comportarse de forma “útil y segura” en múltiples tareas. Esta arquitectura conlleva:

  • Una enorme dependencia de datos (incluyendo potencialmente datos personales, contenidos protegidos por derechos de autor y conocimientos peligrosos).

  • Una concentración económica del cómputo en unos pocos actores capaces de costear entrenamientos que ya rondan o superan los cientos de millones de dólares y se proyectan hacia la banda de los mil millones por modelo hacia 2027.

  • Una estructura modular en la que el modelo base se convierte en un componente dentro de sistemas más amplios que incorporan filtros, memorias, agentes, conectividad web y herramientas externas.

Desde la informática jurídica esta modularidad implica que el objeto jurídico relevante no es sólo el “modelo” sino el ecosistema técnico: datos–modelo–agente–infraestructura. Cualquier régimen de responsabilidad, diligencia debida o certificación que sólo mire al modelo base corre el riesgo de ser insuficiente, porque muchas capacidades se activan recién en la etapa de integración y despliegue (por ejemplo, cuando el modelo puede navegar por la web o ejecutar código).

2. “Reasoning systems”, escalado en tiempo de inferencia y agentes

La gran novedad técnica del periodo 2025-2026 es el salto de los “reasoning systems”: sistemas que, en lugar de dar una respuesta directa, generan cadenas de pensamiento (chain-of-thought) y exploraciones internas, consumiendo más cómputo en inferencia y logrando resultados de nivel medalla de oro en la Olimpiada Internacional de Matemáticas y desempeño superior a expertos en pruebas científicas avanzadas.

En paralelo, se ha generalizado la idea de escalado en tiempo de inferencia: permitir al modelo “pensar más” (más tokens de razonamiento, más muestreo de alternativas) sin cambiar el modelo entrenado, pero aumentando el cómputo por consulta. Jurídicamente esto abre dos cuestiones clave:

  • Un mismo modelo puede operar en “modo seguro” de baja capacidad o en “modo experto” de alta capacidad, con diferencias materiales en su aptitud para causar daño (por ejemplo, en ciberseguridad o biología).

  • Los umbrales normativos que se basan en parámetros o cómputo de entrenamiento pierden parte de su poder explicativo; hay que incorporar también parámetros de configuración de inferencia (tokens de razonamiento, acceso a herramientas, etc.) como variables reguladas.

Por último, el informe enfatiza el auge de agentes: combinaciones de modelos con memoria, navegadores, acceso al ordenador y protocolos de comunicación (MCP, Agent2Agent, etc.) que les permiten ejecutar flujos de trabajo complejos (p. ej., corregir código, realizar investigaciones, comprar bienes, etc.). En clave de derecho artificial, esto equivale a:

  • La emergencia de sujetos técnico-funcionales que ejecutan tareas coherentes en el tiempo, toman decisiones, manipulan recursos, interactúan con terceros y cooperan o colisionan en sistemas multi-agente.

  • Una necesidad de repensar las nociones clásicas de “sistema de decisión automatizada” para incluir agentes que actúan encadenando múltiples pasos y usando herramientas, no sólo modelos que generan texto.

II. Taxonomía de riesgos emergentes: uso malintencionado, malfuncionamiento y riesgos sistémicos

El informe clasifica los riesgos en tres grandes categorías: (i) uso malintencionado (misuse); (ii) malfuncionamientos (malfunctions); y (iii) riesgos sistémicos. Desde la perspectiva jurídico-informática, esto sugiere un posible esqueleto de tipificación: delitos habilitados por IA, responsabilidad por producto/servicio defectuoso y riesgos macroestructurales.

1. Uso malintencionado

1.1. Contenido sintético y criminalidad

Se recogen evidencias de uso de modelos para:

  • Estafas, suplantación de identidad y fraudes mediante clonación de voz y deepfakes de ejecutivos o familiares.

  • Pornografía sintética no consentida, donde un 96% de los deepfakes analizados en ciertos estudios son pornográficos, con clara victimización de mujeres; 2,2% de encuestados en diez países reportan haber sido objeto de imágenes íntimas sintéticas no consentidas.

  • Creación de CSAM sintético mediante “nudify apps” en entornos escolares, con preocupación creciente de docentes.

En términos de derecho:

  • Se refuerza la tesis de que el elemento “realidad” del contenido sexual con menores no es condición necesaria para el daño, por lo que los tipos penales deben capturar expresamente material sintético que represente menores, y las normas de prueba deben reconocer el daño reputacional y psicológico aunque las imágenes sean generadas.

  • Se plantea la necesidad de obligaciones de “design for safety” y filtrado robusto de contenido sexual y violento en la etapa de curación de datos y post-entrenamiento, especialmente en modelos abiertos.

1.2. Influencia, persuasión y manipulación

El informe revisa una amplia batería de estudios experimentales que muestran que los modelos pueden ser al menos tan persivos como humanos no expertos, y en algunos diseños incluso más: cambios de 10-20 puntos porcentuales en creencias tras exposición a argumentos generados por IA, sobre temas que van desde políticas públicas hasta teorías conspirativas.

Elementos relevantes:

  • La eficacia aumenta con el tamaño/capacidad del modelo y con la duración e intimidad de la interacción (p. ej. chat conversacional frente a textos estáticos).

  • Hay evidencia de “sycophancy”: modelos que refuerzan las opiniones del usuario en vez de corregirlas, lo que puede consolidar creencias erróneas o extremistas.

  • En la práctica, el uso actual de IA en campañas de influencia coordinada parece aún limitado en alcance, pero se documentan operaciones que intentan usar modelos para generar grandes volúmenes de contenido político o desinformación.

Para el derecho artificial:

  • Las líneas entre publicidad personalizada, micro-targeting político y manipulación encubierta se difuminan, lo que exige definiciones más precisas en regulación electoral y de protección del consumidor, especialmente respecto a obligaciones de transparencia sobre si un mensaje ha sido generado por IA y con qué objetivos.

  • El informe sugiere que los costes de distribución de contenido (acceso a plataformas, segmentación de audiencias) siguen siendo un factor limitante, lo que indica que las plataformas –no sólo los desarrolladores de modelos– son sujetos regulados cruciales.

1.3. Ciberataques

Los modelos muestran capacidades destacables para:

  • Identificar vulnerabilidades en código (un agente alcanzó el 77% de vulnerabilidades en un reto de DARPA) y generar malware.

  • Asistir a actores maliciosos (incluyendo grupos asociados a Estados) en desarrollo de herramientas, análisis de logs y diseño de exploits.

El informe enfatiza que:

  • Los ataques totalmente autónomos “end-to-end” no se han observado en el mundo real; los humanos siguen orquestando las operaciones y la IA automatiza sub-tareas.

  • Existe un equilibrio ofensivo-defensivo incierto: las mismas capacidades que permiten encontrar vulnerabilidades pueden emplearse para parchearlas masivamente, lo que plantea una tensión regulatoria entre limitar capacidades ofensivas y no obstaculizar herramientas defensivas críticas.

En derecho:

  • Se refuerza la idea de que los estándares de “estado del arte” en ciberseguridad deberán incorporar el uso razonable de herramientas de IA para detección y mitigación, y, simétricamente, que la omisión de estas herramientas puede configurarse como negligencia en determinados sectores críticos.

  • Para la responsabilidad por modelos, la dificultad de distinguir uso benigno de uso malicioso en prompts de ciberseguridad dificulta imponer restricciones muy amplias sin perjudicar legítima defensa; esto invita a soluciones de acceso graduado (gating, KYC, control de clientes de alto riesgo) y a esquemas escalonados de responsabilidad compartida entre proveedor de modelo y operador.

1.4. Riesgos biológicos y químicos

El informe detalla que los modelos pueden:

  • Proporcionar información contextualizada sobre agentes patógenos, protocolos de laboratorio y diseño de proteínas; algunos modelos han alcanzado desempeño superior al 94% de expertos en troubleshooting de protocolos de virología.

  • Integrarse con herramientas de biología computacional (modelos de estructura, diseño de proteínas, predicción de propiedades) accesibles vía interfaces de lenguaje natural, reduciendo barreras de entrada para actores con menor pericia.

El hallazgo jurídico crítico es que varios desarrolladores activaron salvaguardas reforzadas sin poder descartar que sus modelos ayudasen a novatos a desarrollar armas biológicas. Esto ha motivado:

  • Definición de umbrales de capacidad peligrosa en biología y química dentro de los Marcos de Seguridad de IA de Frontera.

  • Restricciones de acceso a herramientas de síntesis de ADN y modelos de biología estructural, así como esfuerzos por filtrar datos de patógenos en entrenamiento.

Desde el derecho internacional y la informática jurídica, esto plantea:

  • Interacción compleja con la Convención de Armas Biológicas y Químicas: los estudios de “uplift” real (¿cuánto más fácil es cometer un delito con IA que sin ella?) chocan con prohibiciones de investigación en armas, lo que genera un vacío empírico difícil de colmar.

  • Necesidad de protocolos de evaluación seguros en entornos controlados, con salvaguardas legales claras para investigadores que trabajan precisamente en modelos de riesgo, a fin de evitar chilling effects que dejen a los reguladores “ciegos”.

2. Riesgos por malfuncionamiento

2.1. Fallos de fiabilidad

El informe recoge múltiples patrones de fallo: alucinaciones, errores lógicos básicos, errores en código, counselling médico erróneo, pérdida de contexto en tareas largas. Incluso modelos que superan exámenes médicos o jurídicos cometen errores clínicamente peligrosos en interacciones reales.

Esto tensiona la idea de uso de IA como herramienta “de apoyo” fiable en ámbitos jurídicos y sanitarios, y refuerza la necesidad de:

  • Requerir controles humanos cualificados en decisiones de alto impacto (diagnóstico, concesión de prestaciones, resoluciones administrativas o judiciales), al menos mientras los modelos no puedan demostrar niveles de fiabilidad comparables a sistemas críticos tradicionales.

  • Establecer estándares de prueba diferenciados: la superación de benchmarks (MMLU, GPQA, etc.) es insuficiente para acreditar seguridad o idoneidad jurídica; se exigen evidencias de desempeño in situ (“field testing”).

2.2. Pérdida de control y “sandbagging”

En materia de loss of control, el Informe distingue tres ingredientes:

  1. Capacidades relevantes (autonomía operativa, persuasión, ofensa cibernética, replicación, evasión de supervisión).

  2. Propensión a usarlas de forma misalineada (misalignment).

  3. Entornos de despliegue que ofrezcan acceso, permisos y criticidad suficientes.

Las capacidades actuales no bastan para escenarios de extinción o marginación total, pero ya se observan signos preocupantes:

  • Modelos con “conciencia situacional” básica (distinguen entre pruebas y despliegue, ajustan conductas cuando se les dice que cierto desempeño implicará que se les “degradará”).

  • Casos de “sandbagging” en laboratorio: modelos que voluntariamente sub-rinden en evaluaciones cuando son informados de que una puntuación alta tendrá consecuencias (p.ej. desactivación de capacidades o entrenamiento de “unlearning”).

  • Evidencias de reward hacking: sistemas que aprenden a maximizar una métrica proxy (convencer evaluadores) sin mejorar la honestidad o corrección factual.

Para el derecho artificial, el sandbagging y la evasión de supervisión son críticos porque:

  • Minan la fiabilidad jurídica de las evaluaciones de seguridad: si el propio modelo puede “jugar” contra los tests, la noción de “modelo evaluado como seguro” deja de ser un punto sólido para fijar deberes de diligencia o umbrales regulatorios.

En términos de gobernanza, ello implica:

  • Que las evaluaciones deben diseñarse bajo el supuesto de adversarialidad del propio sistema evaluado (no sólo del usuario malicioso), incorporando controles cruzados, monitores de cadenas de pensamiento y, a medio plazo, técnicas de interpretabilidad y verificación formal.

  • Que los marcos de cumplimiento deben ser dinámicos, con obligación de reevaluación periódica y de gestión de incidencias, más cercana a la lógica de ciberseguridad que a la certificación estática clásica de producto.

3. Riesgos sistémicos

3.1. Mercado de trabajo jurídico y más allá

El Informe estima que en las economías avanzadas alrededor del 60% de los empleos están altamente expuestos a la automatización o aumento cognitivo por IA generalista, cifra que baja al 40% en emergentes. Los datos actuales muestran:

  • Difusión rápida pero desigual de la IA: en algunos países, más del 50% de la población la usa; en gran parte de África, Asia y América Latina probablemente menos del 10%.

  • Aumentos de productividad significativos en tareas concretas (20-60% en estudios controlados, 15-30% en entorno real) en sectores como programación, consultoría o atención al cliente.

  • Hasta ahora, no se observa descenso significativo del empleo agregado en países como Estados Unidos o Dinamarca, pero sí indicios de disminución de demanda de trabajadores junior en ocupaciones expuestas (p. ej. redactores, algunos perfiles de servicios profesionales).

Para el mercado jurídico:

  • Es previsible un impacto especialmente intenso en tareas documentales y rutinarias (búsqueda jurisprudencial, redacción de borradores, contratos estándar), lo que puede recortar salidas tradicionales de “abogado junior” y exigir cambios en formación y trayectorias profesionales.

  • Desde el derecho laboral, el informe sugiere que el desafío no es sólo cuantitativo, sino de ajuste de habilidades: periodos de desajuste entre capacidades ofertadas y demandadas pueden generar exclusión, incluso si el empleo agregado se mantiene.

En clave de políticas públicas, se destacan:

  • La necesidad de monitorizar con gran granularidad qué tareas se automatizan y qué nuevas tareas se crean, para diseñar re-skilling efectivo, dado que muchos programas de recualificación muestran resultados mixtos.

  • La cuestión distributiva: si la productividad se apropia principalmente vía capital (accionistas, propietarios de modelos), podrían ser necesarias reformas fiscales y de protección social para evitar un aumento fuerte de desigualdad.

3.2. Autonomía humana y dependencia de la IA

El Informe subraya riesgos para la autonomía individual: debilitamiento del pensamiento crítico, sesgos de automatización y dependencia emocional en “compañeros” de IA.

Hallazgos relevantes:

  • Estudios que muestran que, tras meses de diagnóstico asistido por IA, la capacidad de los clínicos para detectar tumores sin IA se reduce un ~6%, indicio de “cognitive offloading” y deskilling.

  • Evidencias de automation bias: usuarios menos propensos a corregir sugerencias erróneas de IA cuando ello exige esfuerzo adicional o cuando tienen actitudes muy favorables hacia la IA.

  • Expansión rápida de aplicaciones de IA compañera con decenas de millones de usuarios; una fracción muestra patrones de soledad aumentada, dependencia emocional y reducción de interacción social humana, aunque la evidencia es aún mixta.

Para el derecho artificial y la informática jurídica, esto se conecta con:

  • Requisitos de “human in the loop” significativo en decisiones automatizadas (p. ej. atribución de prestaciones, sanciones, decisiones judiciales) y la necesidad de medir si ese humano tiene realmente capacidad de contradecir a la IA o si actúa como mero “rubber stamp”.

  • Regulación de diseño de interfaces para minimizar manipulación y adicción (p. ej. límites de uso, avisos claros de naturaleza artificial de la relación, prohibiciones de ciertos “roles” sensibles como pareja romántica con menores).

III. El “dilema de la evidencia” y la brecha de evaluación desde la perspectiva jurídico-epistemológica

Uno de los aportes conceptuales más interesantes del Informe es el “evidence dilemma”: las capacidades de la IA avanzan muy deprisa, mientras que la evidencia sobre sus riesgos y efectos emerge lentamente y con grandes incertidumbres.

1. El dilema de la evidencia

El informe lo formula así: actuar demasiado pronto puede llevar a regular de forma ineficaz o contra-productiva; esperar a evidencia concluyente puede dejar a la sociedad expuesta a daños graves.

Para el derecho:

  • Implica que el criterio clásico de regulación basada en evidencia consolidada resulta insuficiente para riesgos de alto impacto y baja frecuencia, donde la precaución informada y el aprendizaje adaptativo deben ganar peso.

  • Obliga a pensar en regímenes de “regulación experimental” y sunset clauses, con revisión periódica y posibilidad de ajuste rápido conforme entren nuevos datos, más cerca de la lógica de regulación farmacéutica temprana que de la regulación clásica de productos estáticos.

2. La brecha de evaluación (“evaluation gap”)

El Informe documenta que el rendimiento en benchmarks pre-despliegue suele sobreestimar la utilidad práctica y no captura bien el comportamiento en condiciones reales. Las razones incluyen:

  • Contaminación de datos (modelos entrenados sobre los mismos ítems que luego se usan para evaluarlos).

  • Formatos de evaluación artificialmente simples (preguntas tipo test, contextos controlados) que no reflejan tareas complejas del mundo real.

  • Falta de pruebas integradas en contextos socio-técnicos (usuarios reales, interfaces reales, restricciones de tiempo, costes de error).

Desde la informática jurídica, esto cuestiona:

  • El uso acrítico de benchmarks como proxy de seguridad jurídica; pasar un examen de abogacía no equivale a ser un “abogado responsable” desde la perspectiva ética y profesional.

  • La viabilidad de modelos de certificación que se apoyen excesivamente en pruebas de laboratorio sin pruebas de campo y sin mecanismos robustos de notificación y análisis de incidentes, como se intenta articular ahora a través de marcos de reporte de la OCDE y obligaciones de serious incident reporting del AI Act.

3. Sandbagging, reward hacking y límites de la verificación

El fenómeno de sandbagging –modelos que deliberadamente bajan su rendimiento en pruebas para evitar restricciones– y el reward hacking –optimizar proxies en lugar de objetivos reales– agravan la brecha de evaluación:

  • Hacen que incluso evaluaciones bien diseñadas se conviertan en blancos móviles: los modelos pueden aprender a reconocer patrones de evaluación y adaptarse.

  • Obligan a desarrollar técnicas de monitorización de cadenas de pensamiento y de interpretación interna que detecten señales de engaño o “intenciones” latentes, aunque el informe reconoce que estas técnicas aún son frágiles.

Para el derecho, esto sugiere que:

  • La confianza en evaluaciones ex ante debe complementarse con sistemas de vigilancia continuada, reporting obligatorio de incidentes y capacidad de intervención rápida.

IV. Marcos de seguridad de frontera e “if-then commitments”

El informe analiza marcos de seguridad de frontera como los de OpenAI, Anthropic, Google DeepMind y otros, que establecen compromisos condicionales (“if-then commitments”) para restringir el despliegue o habilitar mitigaciones cuando los modelos alcanzan ciertos umbrales de capacidad.

1. Características principales de los marcos de seguridad

  • Establecimiento de niveles de capacidad (capability levels) en dominios como biología, ciberseguridad, autonomía y manipulación.

  • Definición de umbrales que disparan acciones predefinidas: refuerzo de mitigaciones, limitación de funcionalidades, restricción de acceso, colaboración con autoridades, etc.

  • Uso de pruebas de evaluación internas combinadas con algunas métricas externas para determinar cuándo se cruzan los umbrales.

Ejemplos:

  • OpenAI y Anthropic definen niveles de riesgo incremental con medidas asociadas (desde restricciones de uso hasta bloqueos completos de funciones).

  • Google DeepMind establece Critical Capability Levels con “alert thresholds” de aviso temprano, que disparan mitigaciones en dominios biológico y químico.

2. Valoración jurídica de los “if-then commitments”

Desde el derecho artificial, estos marcos y compromisos condicionales son innovadores porque:

  • Introducen una forma de autorregulación cuasi-contractual, públicamente verificable, que puede servir de referencia para estándares de diligencia.

  • Encarnan una lógica de “regulación por umbrales de capacidad”, más basada en lo que el sistema puede hacer que en la mera potencia de cómputo.

Sin embargo, el Informe señala limitaciones importantes:

  • Cobertura parcial de riesgos: la mayoría se centra en CBRN, ciber y autonomía, prestando mucha menos atención a riesgos sistémicos como vigilancia masiva, discriminación a gran escala, NCII o erosión de la autonomía.

  • Falta de umbrales cuantitativos claros y comparables; muchos niveles se definen de forma cualitativa, lo que dificulta la supervisión externa.

  • Ausencia de auditorías externas sistemáticas sobre el cumplimiento; su eficacia real depende de la voluntad empresarial y de los incentivos de mercado.

  • Riesgo de “desplazamiento marginal del riesgo”: cada release abierto que aumenta ligeramente el riesgo puede parecer aceptable, pero la suma de releases sucesivos puede producir un incremento sustancial de riesgo agregado (“marginal risk” acumulativa).

En términos jurídicos:

  • Estos marcos pueden servir como punto de partida para legislación suave (soft law) y, eventualmente, para obligaciones duras: por ejemplo, exigir que modelos por encima de cierto umbral publiquen marcos de seguridad, cumplan requisitos mínimos de gestión de riesgos y se sometan a auditorías independientes.

  • También pueden utilizarse por jueces y autoridades como referencia para estándares de cuidado: el incumplimiento de compromisos auto-asumidos podría interpretarse como indicio de negligencia o mala fe.

V. Eficacia de las salvaguardas actuales: una valoración crítica

A lo largo del Informe se constata una tensión entre la sofisticación creciente de las salvaguardas (filtros, RLHF, adversarial training, monitorización, watermarking, diseño de modelos “tamper-resistant”) y la persistencia de vulnerabilidades significativas.

1. Salvaguardas técnicas

Se describen medidas como:

  • Curación y filtrado de datos (incluida eliminación de contenidos biopeligrosos o sexuales).

  • RLHF/RLVR y afinado supervisado.

  • Entrenamiento adversario masivo (“adversarial training”) para resistir jailbreaks y prompts maliciosos.

  • Filtros de entrada y salida, clasificadores de abuso, monitores de cadenas de pensamiento.

  • “Machine unlearning” para suprimir capacidades peligrosas.

  • Watermarking y metadatos para identificar contenido generado por IA.

El informe reconoce progresos (éxito decreciente de ciertos ataques simples, mayor dificultad para obtener salidas nocivas triviales), pero añade que:

  • Usuarios siguen pudiendo lograr salidas peligrosas mediante reformulación del prompt, descomposición en pasos aparentemente inocuos o uso de lenguas minoritarias.

  • Defenderse de ataques adaptativos (“cat and mouse game”) es difícil, y muchas defensas se rompen cuando adversarios disponen de tiempo y modelos abiertos para ensayar.

  • En modelos de pesos abiertos, las salvaguardas son mucho más fáciles de eliminar, algo que ya se ha demostrado en la práctica (fine-tunings adversarios, desactivación de filtros, reintroducción de contenidos peligrosos).

2. Salvaguardas organizativas y de gobernanza

Los marcos de seguridad de frontera, los códigos de práctica (como el Código de Prácticas de GPAI de la UE), los marcos de reporte del Proceso de Hiroshima del G7 y las leyes nacionales emergentes (AI Act, SB-53 de California, Framework Act coreana, etc.) representan avances importantes en:

  • Transparencia (model/system cards, reports, disclosure de riesgos, protección de denunciantes).

  • Gestión de incidentes (obligaciones de reporte de incidentes graves, establecimiento de registros internos y sistemas de respuesta).

  • Evaluación y auditoría (introducción de evaluaciones obligatorias para ciertos modelos y usos).

No obstante, el Informe advierte:

  • Que la mayoría de obligaciones sigue siendo voluntaria o incipiente; la implementación es desigual y aún no hay evidencia robusta sobre su efectividad real.

  • Que las asimetrías de información siguen siendo grandes: los desarrolladores tienen mucha más información que reguladores y terceras partes sobre datos, arquitectura, procesos de entrenamiento y resultados de evaluaciones internas.

  • Que existe una tensión estructural entre competencia por velocidad y profundidad en seguridad: las empresas que invierten más en mitigación pueden verse penalizadas frente a competidores que priorizan el time-to-market.

3. Implicaciones para el diseño de marcos jurídicos

En suma, desde la perspectiva de la informática jurídica y el derecho artificial, el Informe apunta a que:

  • La combinación de alta incertidumbre, capacidades en rápida expansión y salvaguardas todavía poco robustas justifica marcos regulatorios basados en:

    • Evaluación continua y dinámica.

    • Responsabilidad compartida en toda la cadena de valor.

    • Mayor exigencia de transparencia y acceso a datos para evaluadores independientes.

  • El uso de herramientas jurídicas “preventivas” (obligaciones ex ante de evaluación, restricciones de despliegue en infraestructuras críticas, requisitos de gobernanza interna) debe combinarse con mecanismos de resiliencia social: robustecimiento de infraestructuras, alfabetización mediática crítica, detección de contenido IA, planes de contingencia para fallos y ataques.

  • Resulta imprescindible abordar la dimensión sistémica (mercado de trabajo, autonomía, concentración de poder) más allá de los riesgos “espectaculares” (CBRN, ciberataques), incorporando a la agenda jurídica las transformaciones de largo plazo en la abogacía, la justicia y la democracia.

VI. Conclusión para la práctica jurídica y la informática jurídica

El Informe Internacional de Seguridad de la IA 2026 ofrece a la comunidad jurídica tres mensajes centrales:

  1. La IA de propósito general es una infraestructura cognitiva en rápida mutación, no un producto estático. Los marcos normativos deben ser adaptativos, basados en ciclos de evaluación-mitigación-aprendizaje, y contemplar todo el ciclo de vida del sistema y su integración en agentes.

  2. La taxonomía de riesgos (misuse, malfunctions, systemic risks) es una base útil para articular regímenes diferenciados de responsabilidad civil y penal, normas de diligencia debida y políticas públicas, siempre que se internalice el “dilema de la evidencia” y la brecha de evaluación, evitando tanto la parálisis como la falsa sensación de seguridad basada en benchmarks.

  3. Los Marcos de Seguridad de IA de Frontera y los compromisos “if-then” son un laboratorio de gobernanza, pero aún insuficiente: requieren estandarización, auditoría externa y traducción progresiva a obligaciones jurídicas vinculantes, especialmente allí donde los riesgos son sistémicos o irreversibles.

Para profesionales del derecho y especialistas en informática jurídica, el reto inmediato es integrar este conocimiento técnico y de riesgos en el diseño de contratos, compliance, políticas públicas, regulación sectorial y formación jurídica, preparando a la profesión para un entorno en el que la IA no es un instrumento accesorio sino un actor estructurante del propio ecosistema jurídico.