Jurisprudencia

UKUT: Sentencia Landmark sobre Alucinaciones de IA - Supervisión, Confidencialidad y Reformas Procesales

UKUT: Sentencia Landmark sobre Alucinaciones de IA, Supervisión Profesional y Violación de Confidencialidad

Referencia: UK and R (Munir) v Secretary of State for the Home Department [2026] UKUT 00081 (IAC)
Tribunal: Upper Tribunal (Immigration and Asylum Chamber)
Magistrados: UTJ Lindsley, UTJ Keith, UTJ Blundell
Fecha audiencia: 15 octubre y 5 noviembre 2025
Promulgación: 17 noviembre 2025
Publicación: Crown Copyright 2026


Resumen Ejecutivo

El Upper Tribunal británico ha dictado una sentencia histórica que establece el precedente más completo hasta la fecha en la jurisdicción del common law sobre responsabilidad profesional por uso de inteligencia artificial en la práctica jurídica. Esta decisión va significativamente más allá de casos previos (incluyendo el TA Orléans francés del 29/12/2025) al:

  1. Juzgar dos casos simultáneamente con diferentes niveles de culpabilidad
  2. Establecer que el supervisor es MÁS culpable que el autor directo de las alucinaciones
  3. Advertir sobre Google AI como fuente adicional de alucinaciones (no solo ChatGPT)
  4. Declarar que subir documentos a ChatGPT constituye violación de confidencialidad y renuncia al privilegio profesional
  5. Reformar procedimientos judiciales requiriendo statement of truth específico sobre verificación de citas
  6. Establecer criterios claros para referral a organismos reguladores

Esta sentencia marca un antes y un después en la práctica jurídica con IA en Europa y la Commonwealth.


Índice de Contenidos

  1. Contexto Jurisprudencial: De Mata v. Avianca a UKUT 2026
  2. Issues: Cuestiones Jurídicas Planteadas
  3. Rules: Marco Normativo y Doctrinal
  4. Application: Análisis de los Dos Casos
  5. Conclusions: Doctrina Establecida y Consecuencias
  6. Análisis Comparado: UKUT vs. TA Orléans vs. Ayinde
  7. Implicaciones para la Práctica Jurídica Global
  8. Recomendaciones Operativas

I. CONTEXTO JURISPRUDENCIAL: EVOLUCIÓN DE LA DOCTRINA SOBRE IA EN TRIBUNALES

A. Cronología de la Jurisprudencia sobre Alucinaciones de IA

2023: Los Casos Pioneros

1. Mata v. Avianca, Inc. (S.D.N.Y., Mayo 2023)

  • Primer caso judicial global sobre alucinaciones de ChatGPT
  • Abogado Steven A. Schwartz citó 6 casos completamente inventados
  • Admitió uso de ChatGPT y falta de verificación
  • Sanción: $5,000 USD + amonestación pública
  • Precedente establecido: Deber incondicional de verificación

2. Park v. Kim (Corte de British Columbia, Canadá, 2023)

  • Segundo caso internacional documentado
  • Detección de múltiples referencias falsas
  • Advertencia judicial pero sin sanción específica
  • Énfasis en "tecnologías no verificadas"

2024-2025: Expansión del Problema

3. Casos no publicados en múltiples jurisdicciones

  • Aumento exponencial de casos detectados
  • Desarrollo de jurisprudencia en Australia, Nueva Zelanda, EE.UU.
  • Creación de grupos de trabajo en asociaciones profesionales

2025: Consolidación Doctrinal Europea

4. R (Ayinde) v London Borough of Haringey [2025] EWHC 1383 (Admin)

  • Sentencia fundamental del Divisional Court británico (6 junio 2025)
  • Establece estándares detallados para referral a reguladores
  • Ampliamente comentada en Law Society Gazette
  • Genera guías oficiales del Law Society sobre IA generativa

5. TA Orléans n° 2506461 (Francia, 29 diciembre 2025)

  • Primera sentencia europea continental sobre el tema
  • Usa explícitamente terminología técnica: "hallucination", "confabulation"
  • Detecta 15 referencias falsas en un solo caso
  • Establece precedente en derecho civil europeo

6. [2026] UKUT 00081 (IAC) (Reino Unido, 17 noviembre 2025)

  • Sentencia más completa hasta la fecha
  • Juzga dos casos simultáneamente
  • Establece principios sobre supervisión y confidencialidad
  • Implementa reformas procesales inmediatas
  • Objeto del presente análisis

B. La Jurisdicción Hamid: Fundamento de la Actuación del UKUT

Origen y Desarrollo

La sentencia UKUT 00081 se enmarca en la llamada "Hamid jurisdiction", doctrina que permite al Upper Tribunal supervisar la conducta profesional de los abogados que actúan ante él.

R (Hamid) v SSHD [2012] EWHC 3070 (Admin):

  • Establece que el High Court tiene jurisdicción inherente para supervisar conducta profesional
  • Parte de la función de garantizar la correcta administración de justicia
  • No sustituye a los organismos reguladores, pero puede referir casos graves

Extensión al Upper Tribunal:

  • Tribunals, Courts and Enforcement Act 2007, s.3(5): Upper Tribunal es "superior court of record"
  • S.25: Tiene los mismos poderes que el High Court en materias incidentales
  • R (Shrestha & Ors) v SSHD [2018] UKUT 242 (IAC): Confirma aplicabilidad de Hamid
  • R (Hoxha & Ors) v SSHD [2019] UKUT 124 (IAC): Desarrolla deberes profesionales

Justificación de la Jurisdicción Hamid:

"The High Court has an inherent jurisdiction to govern its own procedure and part of that jurisdiction requires it to ensure that the lawyers interacting with the court conduct themselves according to proper professional standards" [§2 UKUT 00081]

Esta jurisdicción es esencial en el contexto de IA porque:

  1. Los organismos reguladores (SRA, IAA) pueden tardar meses/años en investigar
  2. El problema de alucinaciones requiere respuesta inmediata
  3. La función pedagógica del tribunal es crucial para cambiar prácticas

II. ISSUES: CUESTIONES JURÍDICAS PLANTEADAS

Issue Principal: Estándares de Supervisión en la Era de la IA

¿Cuál es el estándar de diligencia exigible a un supervisor (socio, COLP, senior solicitor) cuando un fee-earner junior bajo su responsabilidad presenta documentos con referencias falsas generadas por IA?

Esta cuestión implica determinar:

  • El alcance del deber de supervisión en entornos con acceso a IA
  • Si el supervisor es más o igualmente culpable que el autor directo
  • Qué sistemas de control interno son exigibles
  • Cuándo procede referral al organismo regulador

Issues Secundarios Derivados del Caso 1 (TMF Immigration Lawyers)

Issue 1.1: ¿Constituye Google AI (no solo ChatGPT) una fuente de alucinaciones que requiere advertencia específica a fee-earners?

Issue 1.2: ¿Es suficiente el auto-reporte a organismos reguladores para evitar referral por parte del tribunal?

Issue 1.3: ¿Constituye subir documentos de clientes a ChatGPT (open-source AI) una violación de confidencialidad y privilegio profesional?

Issues Secundarios Derivados del Caso 2 (City Law Practice)

Issue 2.1: ¿Debe un Compliance Officer for Legal Practice (COLP) mantener registros detallados de quién trabaja en cada caso para efectos de trazabilidad?

Issue 2.2: ¿Es aceptable que un "trainee" o "very junior caseworker" redacte grounds for judicial review sin supervisión efectiva?

Issue 2.3: ¿Constituyen circunstancias personales atenuantes (enfermedad de familiar) justificación suficiente para fallos de supervisión?

Issue 2.4: ¿Cómo debe tratarse el caso de múltiples archivos potencialmente afectados por un mismo "precedent" corrupto con citas falsas?

Issue Transversal: Reformas Procesales

Issue 3: ¿Es apropiado que los tribunales modifiquen sus formularios para requerir statements of truth específicos sobre verificación de autoridades citadas?


III. RULES: MARCO NORMATIVO Y DOCTRINAL APLICABLE

A. Normativa Primaria del Reino Unido

1. Tribunals, Courts and Enforcement Act 2007

Section 3(5):

"The Upper Tribunal is a superior court of record."

Section 25 (Tribunal Procedure Rules): Otorga al Upper Tribunal poderes equivalentes al High Court en materias relacionadas con sus funciones, incluyendo supervisión de conducta profesional.

2. Legal Services Act 2007

Section 176 (Conduct Rules): Establece que los organismos reguladores aprobados deben mantener reglas sobre conducta profesional, incluyendo deberes hacia el tribunal.

Rule 11(5A) UTIAC: El representante debe estar autorizado para litigar en el High Court conforme al Legal Services Act 2007.

B. Soft Law y Códigos Deontológicos

1. SRA Standards and Regulations (Solicitors)

Principle 1: Actuar de manera que mantenga la confianza pública en la profesión

Principle 2: Actuar con integridad

Principle 4: Actuar en el mejor interés del cliente

Principle 5: Proveer servicio competente

Code of Conduct Rule 1.4: No engañar ni intentar engañar al tribunal

Code of Conduct Rule 5.1: Proveer servicio competente y en tiempo razonable

2. IAA (Immigration Advice Authority) Code of Standards

Anteriormente OISC (Office of the Immigration Services Commissioner)

Principle 1: Actuar de manera que sostenga el Rule of Law y la correcta administración de justicia

Standard 1.2: No permitir consciente o imprudentemente que tribunales sean engañados

Standard 2: Proveer servicio competente

3. Law Society Guidance on Generative AI (2025)

Publicada tras Ayinde, establece:

  • Reconocimiento de riesgos: Las herramientas de IA generativa pueden producir "alucinaciones"
  • Deber de verificación: Todo output debe ser verificado contra fuentes primarias
  • Formación obligatoria: Los supervisores deben formar a su personal
  • Políticas de uso: Las firmas deben tener políticas claras sobre qué herramientas usar
  • Confidencialidad: Advertencia sobre uso de herramientas open-source

C. Jurisprudencia Aplicable

1. R (Hamid) v SSHD [2012] EWHC 3070 (Admin)

Ratio decidendi: El High Court tiene jurisdicción inherente para supervisar conducta de abogados que actúan ante él, como parte de su función de garantizar correcta administración de justicia.

Principios establecidos:

  • El deber primario del abogado es hacia el tribunal, no hacia el cliente
  • La referencia a organismos reguladores es apropiada en casos de conducta impropia
  • El tribunal debe balancear la necesidad de mantener estándares con la proporcionalidad

2. R (Sathivel) & Ors v SSHD [2018] EWHC 913 (Admin)

Desarrollo de Hamid: Establece que referrals son apropiados cuando:

  • Hay patrones de conducta impropia
  • La gravedad de la falta lo justifica
  • Es necesario para mantener estándares profesionales
  • Es proporcional a las circunstancias

3. R (DVP) v SSHD [2021] EWHC 606 (Admin)

Sobre supervisión: Enfatiza responsabilidad de supervisores por trabajo de juniors:

  • Supervisores tienen deber positivo de establecer sistemas de control
  • No es excusa delegar sin supervisión efectiva
  • La presión de trabajo no justifica fallos sistemáticos

4. R (Ayinde) v London Borough of Haringey [2025] EWHC 1383 (Admin)

Sentencia fundamental sobre IA. Establece:

Sobre alucinaciones de IA [§6]:

"Freely available generative artificial intelligence tools, trained on a large language model such as ChatGPT are not capable of conducting reliable legal research. Such tools can produce apparently coherent and plausible responses to prompts, but those coherent and plausible responses may turn out to be entirely incorrect."

Factores para determinar referral [§24]:

  1. Gravedad de la conducta
  2. Si fue intencional, imprudente o negligente
  3. Impacto en la administración de justicia
  4. Patrón de conducta vs. incidente aislado
  5. Respuesta del profesional (admisión, remedio, insight)

Sobre excusas [§29]: La falta de acceso a bases de datos de suscripción NO es excusa — existen recursos gratuitos como National Archives' caselaw website y bibliotecas de Inns of Court.

Sobre "contenido correcto, etiqueta incorrecta": El tribunal rechazó firmemente el argumento de que "los principios legales eran correctos aunque las citas fueran falsas", comparándolo con una lata mal etiquetada [§67-68 de Ayinde, citado en §39 UKUT 00081].

5. R (Shrestha & Ors) v SSHD [2018] UKUT 242 (IAC)

Confirma que el Upper Tribunal tiene Hamid jurisdiction y establece que:

  • El propósito es mantener estándares profesionales
  • No sustituye procedimientos disciplinarios formales
  • Es una herramienta de última instancia para casos graves

IV. APPLICATION: ANÁLISIS DETALLADO DE LOS DOS CASOS

A. CASO 1: TMF Immigration Lawyers - Mr Tahir Mohammed

Hechos del Caso

Contexto:

  • Appeal contra decisión de First-tier Tribunal (18 septiembre 2025)
  • Mr Mohammed: Level 3 accredited adviser (IAA)
  • También solicitor con practicing certificate

La Alucinación Detectada:

  • Grounds of appeal citan: "Horleston v SSHD [2007] EWCA Civ 654"
  • Realidad: Esa cita corresponde a "South Tyneside Metropolitan Borough Council v Anderson & Others" (caso de equal pay, totalmente irrelevante)
  • El caso "Horleston v SSHD" nunca existió

Procedimiento:

  1. 23 septiembre 2025: Upper Tribunal emite show cause notice
  2. Mismo día: Mr Mohammed responde:
    • Admite el error
    • Lo atribuye a "human error"
    • Niega uso de ChatGPT o AI
    • Se compromete a formación adicional
  3. 10 octubre 2025: Witness statement revisado:
    • Tras revisar historial de navegación, no puede explicar cómo surgió la cita falsa
    • Admite: "cannot dismiss the fact that the case was an AI creation as there is no other explanation"
    • Reconoce que "occurred unknowingly"
  4. 14 octubre 2025: Auto-reporte a IAA y SRA
  5. 15 octubre 2025: Hamid hearing

Revelaciones Adicionales en la Audiencia:

Mr Mohammed confesó usos de IA no relacionados con el grounds:

  1. Emails a clientes: Subió borradores a ChatGPT para "mejorarlos"
  2. Decision letters del Home Office: Subió a ChatGPT para resumirlas

Reconocimiento crucial [§16]:

"He informed us that he now realises that this is a data breach and will inform the clients that he has done this, as well as the IAA and the SRA."

Investigación del Tribunal sobre Google AI

El tribunal realizó su propia investigación sobre cómo pudo generarse "Horleston" [§17]:

Experimento:

  • Formularon preguntas a Google AI sobre casos de asilo
  • Google AI inventó detalles del caso inexistente:
    • Composiciones de bench del Court of Appeal
    • Descripciones de que trataba sobre "fairness and asylum applications"
    • Jueces que plausiblemente estaban en CoA en 2007, pero que nunca juzgaron ese caso

Variación de respuestas:

"By asking Google AI the same question in slightly different ways, we were able to elicit various different compositions of the bench which decided that fictitious case."

Conclusión del tribunal [§17]:

"The danger in using Artificial Intelligence for legal research is not confined to generative AI models such as ChatGPT, therefore; the use of Google AI for legal research is equally likely to generate results which are false but which might initially be thought to be accurate."

Subsunción Normativa: ¿Violó Mr Mohammed sus Deberes Profesionales?

Aplicación del IAA Code of Standards:

Principle 1: "Act in a way that upholds the Rule of Law and proper administration of justice"

  • Violación: Presentó jurisprudencia falsa al tribunal
  • Atenuante: Fue inadvertido, no intencional

Standard 1.2: "Must not knowingly or recklessly allow the courts and tribunals to be misled"

  • Cuestión clave: ¿Fue "recklessly"?
  • Análisis: Usar IA sin verificar es imprudente (reckless)
  • Conclusión: Sí, actuó con imprudencia al no verificar

Aplicación del SRA Code of Conduct (también aplicable):

Principle 1 (confianza pública): Violado por presentar información falsa

Principle 2 (integridad): Violado, aunque sin mala fe

Principle 5 (competencia): Violado por falta de competencia digital — no comprender riesgos de IA

Rule 1.4 (no engañar al tribunal): Técnicamente violado, aunque sin intención

Violación de Confidencialidad y Privilegio

Hechos [§16, §21]:

  • Mr Mohammed subió:
    1. Emails a clientes (con información confidencial)
    2. Decision letters del Home Office (con datos personales del cliente)
  • Plataforma: ChatGPT (open-source, free version)

Subsunción:

Confidencialidad del cliente:

  • Rule: Duty of confidentiality (common law + SRA Code 6.3)
  • Application: ChatGPT versión gratuita almacena y usa datos para entrenamiento
  • Conclusión: Violación clara de confidencialidad

Privilegio profesional:

  • Rule: Legal professional privilege (abogado-cliente)
  • Application: Subir documento privilegiado a plataforma pública = waiver of privilege
  • Conclusión: [§21] "waive legal privilege"

GDPR/UK GDPR:

  • Rule: Art. 5(1)(f) GDPR — integridad y confidencialidad
  • Application: Subir datos personales a ChatGPT sin consentimiento
  • Conclusión: Data breach que debe reportarse a ICO

Pronunciamiento del tribunal [§21]:

"To put client letters and decision letters from the Home Office into an open source AI tool, such as ChatGPT, is to place this information on the internet in the public domain, and thus to breach client confidentiality and waive legal privilege."

Recomendación:

"Any regulated legal professional or firm that does so would, in addition to needing to bring this to the attention of their regulator, be advised to consult with the Information Commissioner's Office."

Alternativa segura sugerida [§21]:

"Closed source AI tools which do not place information in the public domain, such as Microsoft Copilot, are available for tasks such as summarising without these risks."

Decisión del Tribunal: No Referral

Factores considerados [§19]:

A favor de referral:

  1. Violación de deber hacia el tribunal
  2. Uso imprudente de IA sin verificación
  3. Violación de confidencialidad (grave)
  4. Necesidad de mantener estándares profesionales

En contra de referral:

  1. Auto-reporte: Mr Mohammed se reportó él mismo a IAA y SRA antes de la audiencia
  2. Admisión completa: Reconoció todos los hechos
  3. Remedio: Compromisos concretos de cambio (prohibición de IA en la firma, verificación en BAILII)
  4. Insight: Demostró comprensión del problema
  5. Caso único: No hay patrón de conducta (solo 1 cita falsa detectada)

Razonamiento [§19]:

"We make no referral to the IAA or SRA as Mr Mohammed has already done this and there is no need for us to do so."

Advertencia importante [§19]:

"If he had not done this we wish to make it clear that we would have made a referral."

Aplicación de Ayinde [§19]: El tribunal confirma que el caso cumple los criterios de Ayinde [§29] para referral, pero el auto-reporte hace innecesario el referral adicional.

Lecciones del Caso 1

1. Google AI es tan peligroso como ChatGPT

Primera sentencia que documenta que Google AI (modo AI en búsqueda) también genera alucinaciones jurisprudenciales convincentes.

Implicación práctica: Las políticas de uso de IA deben cubrir TODAS las herramientas, no solo ChatGPT.

2. Open-source AI = Violación automática de confidencialidad

Uso de ChatGPT gratuito con documentos de clientes:

  • ✗ Viola confidencialidad
  • ✗ Renuncia a privilegio
  • ✗ Data breach bajo UK GDPR
  • ✗ Requiere notificación a ICO

3. Auto-reporte puede evitar referral formal

Criterio importante: Si el profesional se auto-reporta antes de la audiencia Hamid, el tribunal puede optar por no hacer referral adicional.

Pero: Solo si hay genuine insight, admisión completa y compromisos creíbles de remedio.


B. CASO 2: City Law Practice - Zubair Rasheed (COLP)

Hechos del Caso

Contexto:

  • Judicial review sobre rechazo de Graduate Route visa
  • Applicant: Fiza Munir (nacional pakistaní)
  • Law firm: City Law Practice Solicitors and Advocates (CLP)
  • COLP: Zubair Rasheed (solicitor, 15 años de experiencia)
  • Author: Waheed Malik (descrito inicialmente como "part-time trainee lawyer")

Cronología:

  • 9 septiembre 2024: Rechazo inicial de visa
  • 26 marzo 2025: Rechazo de Administrative Review
  • 6 mayo 2025: Primera letter before action (firmada por Rasheed y Destiny Hayden)
  • 10 junio 2025: Segunda letter before action (firmada solo por Rasheed)
  • 26 junio 2025: Presentación de JR en Upper Tribunal

Documentos presentados:

  • UTIAC1 (claim form) — nombre de Rasheed en statement of truth
  • Statement of Facts — firmado por Rasheed
  • Grounds for Judicial Review (20 páginas, single-spaced) — sin firma individual

Las Cuatro Alucinaciones Detectadas

UTJ Blundell, al revisar el caso el 20 agosto 2025, detectó cuatro referencias falsas:

1. R (Dzineku-Liggison) v SSHD [2020] EWHC 3386 [§13 orden inicial]

Falsedad:

  • NO existe caso del High Court con esa cita
  • Realidad: R (Dzineku-Liggison) v SSHD [2020] UKUT 222 (IAC)
  • Era decisión del Upper Tribunal, no High Court
  • Decidida por UTJ Blundell (¡el mismo juez revisando este caso!)

Proposición falsa: Los grounds afirmaban que establecía que la fee waiver policy era ilegal por "overly restricting access to the application process"

Realidad: Esa NO era la ratio decidendi del caso real

2. Patel (mandatory refusal – fairness) [2011] EWCA Civ 811 [§14]

Falsedad:

  • NO existe decisión del Court of Appeal con esa cita
  • Título sugiere que podría ser un Upper Tribunal case con cita incorrecta
  • Tribunal no pudo encontrar ningún caso que apoye la proposición invocada

3. R (Muhandiramge) v SSHD [2010] EWHC 2568 (Admin) [§15]

Falsedad:

  • NO existe decisión del High Court con ese nombre y cita
  • Realidad: Muhandiramge (section S-LTR 1.7) [2015] UKUT 675 (IAC)
  • Era decisión del Upper Tribunal (2015, no 2010)
  • Decidida por McCloskey J y UTJ Bruce

Proposición falsa: Los grounds afirmaban que trataba sobre Tier 1 Post Study Work Scheme y requirement de obtener qualification by date of application

Realidad: El caso real NO trata sobre eso

4. OE (Nigeria) [2010] UKUT 35 (IAC) [§16]

Falsedad:

  • NO existe ningún caso del Upper Tribunal con esa cita
  • NO hay caso reportado llamado "OE" en 2010
  • La cita [2010] UKUT 35 (IAC) simplemente no existe en los registros

Patrón detectado [§40]: Dos casos del Upper Tribunal (Dzineku-Liggison, Muhandiramge) fueron dados citas del High Court. Un caso del Upper Tribunal (Patel) fue dado cita del Court of Appeal. Un caso simplemente no existe (OE Nigeria).

Primera Respuesta: La Explicación del "Trainee"

27 agosto 2025: Mr Rasheed responde [§30]:

Identificación del autor:

  • Grounds drafted by Waheed Malik
  • Descrito como "part-time trainee lawyer"
  • Working "under supervision"

Explicación ofrecida:

"The grounds were drafted by a part-time trainee, Mr Waheed Malik, under my supervision. In preparing them, he relied on an outdated precedent on our system, practitioner blogs and personal notes. Unfortunately, he did not verify these references against official sources."

Circunstancias atenuantes alegadas:

"At the time, my supervision was compromised as I was caring for my mother following her recent brain stroke."

Posición sobre Ayinde: Sugiere que el caso es distinguible de Ayinde y que no hubo intención de engañar.

Documentos adjuntos:

  • Signed statements de Rasheed y Malik
  • Medical evidence sobre la madre de Rasheed
  • "Corrected authorities schedule"

La Audiencia Hamid: Revelaciones Críticas

5 noviembre 2025: Segunda audiencia (primera fue aplazada por duelo familiar y peregrinación religiosa de Rasheed)

Solo asistió Rasheed (Malik no compareció)

Revelación 1: Waheed Malik No Era "Trainee" — Era el Hermano de Rasheed

Pregunta del tribunal: ¿Quién es Waheed Malik?

Primera descripción [§42]: "Very junior caseworker", no trainee solicitor

Pregunta directa: ¿Es usted relacionado con Malik?

Respuesta evasiva inicial, luego admisión [§43]:

  • Waheed Malik es el hermano de Zubair Rasheed
  • Tiene diploma en derecho de Wolverhampton University (hace 15-20 años)
  • Después se fue a Pakistán a ejercer derecho
  • Obtuvo Certificate of Professional Standing del SRA
  • Supuestamente ejerce en el Bar en Pakistán
  • Rasheed no pudo nombrar los chambers de su hermano

Incredulidad del tribunal [§43]:

"We found that unlikely. Whether as his brother or as his former employer, we thought it more likely that Mr Rasheed would have known the name of the chambers from which his brother practises."

Revelación 2: Malik Está en el UK, No en Pakistán

Evasión sobre whereabouts [§44]:

  • Rasheed dijo inicialmente que "believed" Malik estaba en UK
  • Presionado, confirmó que Malik vive en Nottingham
  • Tiene leave to enter como skilled worker
  • Trabaja en "legal compliance" para firma de care homes
  • Entró UK a finales de 2024
  • Puede hacer trabajo adicional bajo sus condiciones de visa

Pregunta crítica: ¿Por qué no asistió a la audiencia?

Respuesta [§44]:

  • Le dijo a él y a su esposa sobre la audiencia
  • Pero su hijo estaba enfermo

Incredulidad del tribunal [§44]:

"If Mr Malik is a lawyer in Pakistan, and if he works in legal compliance in the healthcare sector, we considered it likely that he would have wished to attend this hearing, and we found it surprising that he had not."

Revelación 3: No Había Supervisión Real

Problema temporal [§45]:

  • Medical evidence sobre la madre: hospitalizada en agosto 2025
  • Documento dice "cognitive impairment for the last two weeks" (desde agosto)
  • Pero los grounds fueron redactados y presentados en mayo-junio 2025

Conclusión del tribunal [§45]:

"There is no documentary evidence to support the suggestion that she had been unwell for much of 2025, as Mr Rasheed sought to suggest in his oral evidence."

La excusa de la madre enferma no explica la falta de supervisión en mayo-junio.

Revelación 4: Falta de Comprensión sobre IA

Pregunta: ¿Qué medidas tiene la firma para prevenir uso indebido de IA?

Respuesta de Rasheed [§46]:

"He stated that there was no mechanism by which staff at his firm could use AI."

Reacción del tribunal [§46]:

"That is to overlook the fact that anyone with access to Google has access to AI, as we have explained above."

Conclusión [§46]:

"His answer demonstrated to us that he had not, as the COLP of CLP, taken any steps to warn his staff of the pitfalls of using a free public search engine such as Google for legal research."

Rasheed se describió como "not a tech savvy person"

Respuesta del tribunal [§46]:

"We do not consider that to be any explanation at all for his failure to put appropriate checks in place."

Revelación 5: Record-Keeping Inadecuado e Inconsistente

Contexto: El tribunal quería saber quién más había trabajado en el caso.

Sistema alegado [§47]:

  • Spreadsheet con nombres de fee-earners en cada caso
  • Al cerrar caso, se elimina del spreadsheet pero permanece en LEAP (case management) y paper archive

Problema: El caso Munir no estaba en el spreadsheet [§48]

Explicación de Rasheed [§49]: Casos se eliminan del spreadsheet después de cerrarse:

  • Primera versión: Tras 6 meses de cerrado
  • Segunda versión: Tras 4 meses de cerrado
  • Tercera versión: 6 meses después de abrirse

Ninguna explicación era coherente [§50]:

  • Permission rechazada en agosto 2025
  • Audiencia en noviembre 2025
  • ¿Por qué ya estaba eliminado?

Respuesta final de Rasheed [§51]: Caso fue eliminado en marzo 2025

Problema obvio [§51]:

  • Administrative Review rechazada 26 marzo 2025
  • Firma notificada de decisión en marzo
  • Enviaron dos letters before action (mayo, junio)
  • Presentaron JR en junio
  • ¿Por qué eliminar del spreadsheet en marzo cuando el caso seguía activo?

No hubo respuesta coherente.

Revelación 6: No Sabe Cuántos Casos Trabajó Malik

Pregunta: ¿En cuántos otros casos trabajó Malik? [§52]

Respuestas variables:

  • Quizás dos
  • Tal vez tres
  • Podría ser cuatro

Admisión de Rasheed [§52]:

"Nothing is for sure."

Preocupación del tribunal [§52]:

"Unfortunately, therefore, there appears to be every likelihood that Mr Malik will have worked on other unidentified files for the firm and may have relied on false citations which were generated by AI."

Revelación 7: El Misterio del "Old Precedent"

Explicación en witness statement: Los errores surgieron de usar un "old precedent from previous cases" [§53]

Preocupación del tribunal: Si existe ese precedent corrupto, otros casos podrían estar afectados.

Pregunta: ¿Ha identificado el precedent?

Respuesta: Sí, lo eliminó.

Pregunta: ¿Qué tipo de documento era?

No pudo responder claramente [§53]:

  • ¿Grounds for JR?
  • ¿Grounds for admin review?
  • ¿Otra cosa?
  • En un momento sugirió que las citas incorrectas estaban en "a piece of case-law" pero no pudo identificarlo

Pregunta: ¿Cuántos otros casos afectados?

Respuesta evasiva [§54]:

  • "Not many"
  • "One or two judicial review cases"
  • Ha estado buscando "day and night"

Preocupación del tribunal [§54]:

"We noted that this was not a process that he had described in any way in his witness statement and we were concerned that he was attempting to tailor his answers to minimise our concerns."

Subsunción Normativa: Violaciones de Rasheed

Como COLP (Compliance Officer for Legal Practice):

SRA Code for Solicitors, Rule 8.1:

  • COLP responsable de compliance con SRA Standards en la firma
  • Violación: No implementó sistemas de control sobre uso de IA
  • Violación: No formó a staff sobre riesgos de IA
  • Violación: No verificó trabajo de fee-earners junior

Como Solicitor con Conduct of the Matter:

Principle 1 (confianza pública):

  • Violación grave: 4 citas falsas presentadas al tribunal
  • Tribunal gastó tiempo verificando citas inexistentes

Principle 2 (integridad):

  • Violación: Respuestas evasivas e inconsistentes en audiencia
  • Violación: Intentó minimizar gravedad ("distinguishable from Ayinde")

Principle 5 (competencia):

  • Violación: Delegó drafting de grounds a persona incompetente
  • Violación: No supervisó el trabajo
  • Violación: "Not tech savvy" no es excusa para incompetencia digital

Rule 1.4 (no engañar al tribunal):

  • Violación técnica: Presentó 4 referencias falsas
  • Aunque no hubo intención de engañar, hubo imprudencia grave

Como Supervisor:

Duty to supervise (common law + SRA Standards):

  • Violación: No supervisó efectivamente a Malik
  • Violación: Permitió que "very junior caseworker" redactara grounds complejos
  • Violación: No verificó citas antes de filing

Análisis de Credibilidad

El tribunal encontró múltiples problemas con la credibilidad de Rasheed:

1. Contradicciones sobre record-keeping [§49-51] 2. Evasión sobre relación con Malik [§43] 3. Imposibilidad de explicar por qué Malik no asistió [§44] 4. Timing problemático de la excusa de la madre enferma [§45] 5. Falta de comprensión sobre IA [§46] 6. Inconsistencias sobre el "old precedent" [§53-54]

Conclusión implícita: Rasheed no fue totalmente honesto con el tribunal.

Decisión del Tribunal: Referral al SRA

Factores considerados [§55-56]:

Atenuantes:

  1. Solicitor con 15 años de unblemished record
  2. Genuine regret por lo ocurrido

Agravantes:

  1. Cuatro citas falsas (vs. una en Caso 1)
  2. Falta de supervisión efectiva
  3. Record-keeping inadecuado
  4. Falta de sistemas de control
  5. Respuestas evasivas e inconsistentes
  6. Casos múltiples potencialmente afectados
  7. Intento de minimizar gravedad
  8. Excusas no convincentes

Aplicación del principio de Ayinde [§29]:

"Where false citations are placed before the Court because of the lack of proper checks, referral to a regulator is likely to be appropriate."

Consideración especial del rol de supervisor [§38]:

"A supervisor who fails to ensure that the work of a more junior fee-earner does not contain false cases or citations is likely to be more culpable than a lawyer who fails to ensure that his own work is free from such 'hallucinations'."

Razonamiento [§38]: Un supervisor que falla:

  • Falla al tribunal
  • Falla al público
  • Falla al cliente
  • Además, falla en el desarrollo de abogados junior

Conclusión [§56]:

"We consider that the inclusion of false citations in the grounds for judicial review and Mr Rasheed's failure to supervise the work undertaken by his brother in this and an unknown number of other cases necessitates a referral to the SRA."

Rechazo de excusa médica [§56]:

"We do not consider their mother's illness to provide an adequate explanation for those failures."

Impacto de credibilidad [§56]:

"We consider that our concerns about Mr Rasheed's oral evidence serve to strengthen the case for referral."


V. CONCLUSIONS: DOCTRINA ESTABLECIDA Y PRINCIPIOS OPERATIVOS

A. Respuestas a los Issues Planteados

Issue Principal: Estándares de Supervisión

CONCLUSIÓN: Un supervisor (socio, COLP, senior solicitor) tiene responsabilidad agravada cuando un fee-earner junior bajo su supervisión presenta documentos con alucinaciones de IA.

Fundamentos:

  1. Deber positivo de establecer sistemas de control [§46]

    • No es suficiente confiar en que junior "hará bien su trabajo"
    • Deben existir protocolos de verificación obligatorios
    • Debe haber training sobre riesgos de IA
  2. Deber de advertir sobre riesgos de IA [§2, §46]

    • Supervisores deben asegurar que fee-earners conocen peligros de non-specialist AI
    • Debe haber políticas claras sobre qué herramientas usar
  3. Deber de verificar trabajo antes de filing [§37, §45]

    • Supervisor debe revisar personalmente documentos críticos (grounds, skeleton arguments)
    • No es excusa estar ocupado o distraído
    • Pressure of work NO justifica fallos
  4. Mayor culpabilidad del supervisor [§38]

    "A supervisor who fails to ensure that the work of a more junior fee-earner does not contain false cases or citations is likely to be more culpable than a lawyer who fails to ensure that his own work is free from such 'hallucinations'."

Razón: El supervisor falla en múltiples dimensiones (tribunal, público, cliente, desarrollo profesional de juniors)

Issue 1.1: Google AI También Genera Alucinaciones

CONCLUSIÓN: Sí, Google AI (AI Mode en Google Search) es tan capaz de generar alucinaciones jurisprudenciales como ChatGPT u otros LLMs.

Evidencia [§17]:

  • Tribunal experimentó con Google AI
  • Generó composiciones de bench plausibles pero falsas
  • Describió ratio decidendi inexistente
  • Varió respuestas según formulación de pregunta

Implicación práctica:

"The danger in using Artificial Intelligence for legal research is not confined to generative AI models such as ChatGPT, therefore; the use of Google AI for legal research is equally likely to generate results which are false but which might initially be thought to be accurate."

Advertencia: Usar buscador Google con AI Mode activado sin verificación = mismo riesgo que usar ChatGPT

Issue 1.2: Auto-Reporte Puede Evitar Referral

CONCLUSIÓN: El auto-reporte oportuno a organismos reguladores PUEDE (pero no siempre) hacer innecesario el referral adicional del tribunal.

Condiciones [§19 análisis del Caso 1]:

Necesarias:

  1. Auto-reporte ANTES de la Hamid hearing
  2. Admisión completa de los hechos
  3. Genuine insight (comprensión real del problema)
  4. Compromisos concretos y creíbles de remedio
  5. Evidencia de que no hay patrón de conducta

No suficientes si:

  • Hay múltiples violaciones
  • Falta de credibilidad
  • Intentos de minimizar gravedad
  • Afecta múltiples casos

Contraste: Mr Mohammed auto-reportó + admisión completa + insight = No referral adicional Mr Rasheed: No auto-reportó + respuestas evasivas + múltiples violaciones = Referral necesario

Issue 1.3: ChatGPT Open-Source = Violación de Confidencialidad

CONCLUSIÓN: Subir documentos de clientes a ChatGPT (versión gratuita u otras herramientas open-source AI) constituye violación per se de confidencialidad y renuncia a privilegio profesional.

Fundamentos [§21]:

1. Confidencialidad del cliente:

  • ChatGPT free almacena conversaciones
  • Usa datos para entrenamiento del modelo
  • = Información pasa a ser "public domain"
  • = Violación de duty of confidentiality

2. Privilegio profesional:

  • Legal professional privilege protege comunicaciones abogado-cliente
  • Subir a plataforma pública = divulgación voluntaria
  • = Waiver of legal privilege (renuncia)

3. Data protection:

  • Contiene datos personales de clientes
  • Subir sin consentimiento y sin medidas de seguridad
  • = Data breach bajo UK GDPR
  • = Debe reportarse a ICO

4. Posibles consecuencias adicionales [§4, §60]:

"Uploading confidential documents into an open-source AI tool, such as ChatGPT, is to place this information on the internet in the public domain, and thus to breach client confidentiality and waive legal privilege, and any such conduct might itself warrant referral to the SRA and should, in any event, be referred to the Information Commissioner's Office."

Alternativa segura [§21]:

"Closed source AI tools which do not place information in the public domain, such as Microsoft Copilot, are available for tasks such as summarising without these risks."

Distinción clave:

  • Open-source AI (ChatGPT free, Google Gemini free, etc.): Datos se almacenan, usan para training → NO USAR CON DATOS DE CLIENTES
  • Closed-source/Enterprise AI (Microsoft Copilot for Business, ChatGPT Enterprise, Claude for Enterprise): Datos no se usan para training → Potencialmente aceptable con precauciones

Issue 2.1: Record-Keeping Obligatorio

CONCLUSIÓN: Un COLP debe mantener registros precisos y accesibles de quién trabaja en cada caso para efectos de trazabilidad y accountability.

Fundamentos [§47-52]:

Por qué es esencial:

  1. Permite identificar autor de errores
  2. Facilita revisión de otros casos potencialmente afectados
  3. Demuestra sistemas de control adecuados
  4. Protege tanto a la firma como a individuos

Sistema mínimo exigible:

  • Registro contemporáneo de fee-earners en cada matter
  • Identificación de quién redactó qué documentos
  • Supervisión ejercida y por quién
  • No eliminar registros arbitrariamente
  • Conservar mientras case esté "live" + periodo razonable después

Problema en CLP [§48-51]:

  • Spreadsheet con registros inconsistentes
  • Caso Munir eliminado inexplicablemente
  • Explicaciones contradictorias (6 meses vs 4 meses vs eliminación en marzo cuando caso seguía activo)
  • Imposibilidad de determinar qué otros casos trabajó Malik

Conclusión del tribunal [§52]: Sistema de record-keeping tan deficiente que es imposible saber qué otros casos pueden estar afectados por las mismas alucinaciones de IA.

Issue 2.2: Límites de Delegación a Juniors

CONCLUSIÓN: NO es apropiado que un "very junior caseworker" o "trainee" redacte grounds for judicial review sin supervisión efectiva.

Fundamentos:

Complejidad de la tarea:

  • Grounds for JR requieren:
    • Conocimiento profundo del Administrative Law
    • Capacidad de identificar errores de derecho
    • Habilidad de citar jurisprudencia correctamente
    • Comprensión de estándares de judicial review

Nivel de experiencia de Malik [§42-43]:

  • Descrito inicialmente como "part-time trainee"
  • Realmente era "very junior caseworker"
  • Diploma de derecho de hace 15-20 años
  • Sin training reciente en UK law
  • Trabajó en la firma solo 3-4 meses

Conclusión [§42]:

"We cannot understand why it was thought by Mr Rasheed to be appropriate for Waheed Malik to draft grounds for judicial review."

Principio aplicable: La delegación debe ser proporcional al nivel de competencia y experiencia del fee-earner. Tasks complejas y críticas (grounds, skeleton arguments, written submissions) deben ser:

  • Realizadas por abogados experimentados, O
  • Realizadas por juniors bajo supervisión directa y detallada

En este caso: Malik no tenía ni la experiencia ni la supervisión necesarias.

Issue 2.3: Circunstancias Personales Como Atenuante

CONCLUSIÓN: Circunstancias personales difíciles (enfermedad de familiar) pueden ser consideradas como atenuante, pero NO excusan completamente fallos de supervisión, especialmente si:

  1. El timing no coincide con los hechos
  2. No hay evidencia documental contemporánea
  3. El profesional tiene otros recursos (socios, associates) para cubrir

Análisis del caso Rasheed [§45, §56]:

Alegación: Madre enferma en Pakistán causó distracción

Problemas:

  1. Timing: Evidencia médica es de agosto; grounds presentados en mayo-junio
  2. Duración: Medical evidence habla de "two weeks"; Rasheed sugirió "much of 2025"
  3. Recursos: Como COLP de firma, tenía recursos para delegar o pedir ayuda

Conclusión del tribunal [§56]:

"We do not consider their mother's illness to provide an adequate explanation for those failures."

Distinción importante:

  • Circunstancias personales pueden explicar por qué alguien delegó más de lo usual
  • Pero NO excusan la obligación de verificar trabajo crítico antes de filing
  • Especialmente cuando se trata de documentos que van al tribunal

Comparación con DVP [2021]: Pressure of work NO es excusa para fallos sistemáticos de supervisión.

Issue 3: Reformas Procesales

CONCLUSIÓN: SÍ, es apropiado y necesario que tribunales modifiquen formularios para incluir statement of truth específico sobre verificación de autoridades.

Medida adoptada [§9]:

Claim form (UTIAC1) ahora modificado para incluir:

"A legal representative [must] confirm by a statement of truth that any authority cited within the form or in any documents appended to it: (a) exists; (b) may be located using the citation provided; and (c) supports the proposition of law for which it is cited."

Extensión:

"Other forms and directions are to be similarly amended."

Consecuencia de falsa declaración [§3, §59]:

"A legal representative who signs such a statement in a case in which false authorities are cited should ordinarily expect to be referred to their regulatory body."

Justificación [§6-7]:

  1. Economía procesal: Evita que jueces pierdan tiempo verificando citas falsas
  2. Interés público: Mantiene confianza en sistema de justicia
  3. Protección a clientes vulnerables: Evita costes innecesarios
  4. Función preventiva: Obliga a verificación ex ante

Precedente: Después de Ayinde (junio 2025) el problema aumentó en la segunda mitad de 2025 [§8].

Analogía: Similar a statement of truth en Statement of Case (CPR 22.1) pero específicamente dirigido a problema de AI hallucinations.

Impacto esperado:

  • Obligará a abogados a verificar ANTES de presentar
  • Creará paper trail de responsabilidad
  • Facilitará referrals cuando haya falsedades
  • Probablemente será adoptado por otros tribunales

B. Los Cuatro Principios Fundamentales Establecidos

Principio 1: Deber de Verificación Universal

Enunciado [§57]:

"Legal professionals are obliged to ensure that legal arguments which are presented to the First-tier Tribunal or Upper Tribunal are factually and legally accurate."

Alcance:

  • Aplica a TODA referencia jurisprudencial
  • Independiente de la fuente (base de datos, IA, precedent file, memory)
  • Independiente del nivel de experiencia del profesional
  • Independiente de presión de tiempo o workload

Consecuencia de violación [§57]:

"Those who cite false cases fail to comply with that professional obligation and waste the time of the Tribunal."

Principio 2: Responsabilidad Agravada del Supervisor

Enunciado [§2, §58]:

"A solicitor or other legal professional who delegates their work to another fee-earner remains responsible for the supervision of their work and for ensuring its accuracy."

Obligaciones específicas del supervisor [§2, §58]:

  1. Advertir sobre riesgos de IA:

    "Supervisors must ensure that fee-earners under their supervision are aware of the dangers of using non-specialist Artificial Intelligence (AI) for legal research and drafting."

  2. Realizar checks apropiados:

    "Failures to do so, or to undertake appropriate checks on the drafting of fee-earners is likely to result in a referral to the Solicitors Regulation Authority (SRA) or other professional body."

  3. Mayor culpabilidad:

    "A supervisor who fails to ensure that the work of a more junior fee-earner does not contain false cases or citations is likely to be more culpable than a lawyer who fails to ensure that his own work is free from such 'hallucinations'."

Razón de la mayor culpabilidad [§38]: El supervisor falla en:

  • Su deber al tribunal
  • Su deber al público
  • Su deber al cliente
  • Y además su deber de desarrollar adecuadamente a juniors

Principio 3: Confidencialidad y IA Open-Source

Enunciado [§4, §60]:

"Uploading confidential documents into an open-source AI tool, such as ChatGPT, is to place this information on the internet in the public domain, and thus to breach client confidentiality and waive legal privilege."

Consecuencias:

  1. Violación deontológica: Breach of duty of confidentiality
  2. Pérdida de privilegio: Waiver of legal professional privilege (irrevocable)
  3. Data breach: Violación de UK GDPR → debe reportarse a ICO
  4. Posible referral adicional: Puede justificar referral a SRA por sí solo

Acción requerida [§4, §60]:

"Any such conduct might itself warrant referral to the SRA and should, in any event, be referred to the Information Commissioner's Office."

Principio 4: Reformas Procesales Preventivas

Enunciado [§3, §59]: Los tribunales pueden y deben adoptar medidas procesales preventivas para abordar el problema de alucinaciones de IA.

Medida específica adoptada: Statement of truth en claim forms y otros documentos requiriendo que el legal representative confirme que toda autoridad citada:

  • (a) Existe
  • (b) Puede localizarse con la cita provista
  • (c) Apoya la proposición de derecho para la que se cita

Consecuencia de declaración falsa [§3, §59]:

"A legal representative who signs such a statement in a case in which false authorities are cited should ordinarily expect to be referred to their regulatory body."

C. Guidance para Organismos Reguladores

Para IAA (Immigration Advice Authority)

Recomendación del tribunal [§20]:

"We are of the view that the guidance on false AI generated material given in Ayinde applies equally to IAA (previously the OISC) regulated advisers."

Fundamento:

IAA Code of Standards, Principle 1:

"Act in a way that upholds the Rule of Law and proper administration of justice"

Standard 1.2:

"Advisers must not knowingly or recklessly allow the courts and tribunals to be misled"

Sugerencia del tribunal [§20]:

"If it is the case that the IAA has not provided specific advice with regards to the use of AI by its accredited advisers then the organisation may wish to consider whether it may be prudent to do so."

Implicación: El tribunal está instando al IAA a emitir guidance específica sobre uso de IA, similar a la del Law Society para solicitors.

Para SRA y Otros Reguladores

Expectativa clara [§2, §58]:

Triggers para investigación disciplinaria:

  1. Citar casos falsos (especialmente múltiples)
  2. Fallar en supervisar trabajo de fee-earners
  3. No advertir a staff sobre riesgos de IA
  4. No implementar checks apropiados
  5. Subir documentos confidenciales a open-source AI

Estándar de culpabilidad:

  • Intencional → Más grave
  • Imprudente (reckless) → Grave
  • Negligente → Sancionable igualmente

Circunstancias agravantes:

  • Múltiples citas falsas
  • Rol de supervisor
  • Falta de insight
  • Respuestas evasivas
  • Afecta múltiples casos
  • Intentos de minimizar

Circunstancias atenuantes:

  • Auto-reporte oportuno
  • Admisión completa
  • Genuine insight
  • Compromisos de remedio
  • Unblemished record previo
  • Caso único/aislado

VI. ANÁLISIS COMPARADO: UKUT vs. TA ORLÉANS vs. AYINDE

A. Tabla Comparativa de las Tres Sentencias Landmark

AspectoAyinde (UK, Jun 2025)TA Orléans (FR, Dic 2025)UKUT 00081 (UK, Nov 2025)
TribunalDivisional Court (High Court)Tribunal AdministratifUpper Tribunal
JurisdicciónInglaterra & GalesFranciaUK (Immigration)
Sistema legalCommon lawCivil lawCommon law
Fecha6 junio 202529 diciembre 202517 noviembre 2025
Casos juzgados2 casos (Ayinde, Al-Haroun)1 caso (expulsión extranjero)2 casos (TMF, CLP)
Nº citas falsasNo especificado15 referenciasCaso 1: 1 cita; Caso 2: 4 citas
Herramienta IAChatGPT (confirmado)No confirmado, inferidoCaso 1: Google AI; Caso 2: presumido
Terminología técnica"Hallucinations" (inglés)"Hallucination", "confabulation" (francés, entrecomillado)"Hallucinations" (sin comillas, término normalizado)
Novedad terminológicaPrimer uso en UK courtPrimer uso en Europa continentalNormaliza el término en UK
Supervisor involucradoN/A (counsel actuando solo)N/A (abogada actuando sola)Caso 2: COLP como supervisor
Doctrina sobre supervisiónNo abordada directamenteNo abordadaSupervisor es MÁS culpable que autor [§38]
Google AI advertenciaNo mencionadoNo mencionadoPrimera advertencia sobre Google AI [§17]
Experimentación con IANo realizadaNo realizadaTribunal experimentó con Google AI [§17]
ConfidencialidadNo abordadaNo abordadaChatGPT open-source = breach + waiver [§21, §60]
Data protectionNo abordadaNo abordadaDebe reportarse a ICO [§21, §60]
Alternativa segura sugeridaNoNoMicrosoft Copilot [§21]
Reformas procesalesNo implementadasNo implementadasStatement of truth en claim forms [§9, §59]
Modificación formulariosNoNoOtros forms y directions a modificarse [§9]
Referral a reguladorHechoNo hecho (caso principal sobre extranjería)Caso 1: No (auto-reporte); Caso 2: Sí, al SRA
Auto-reporte consideradoNo aplicableNo aplicablePuede evitar referral si hay insight [§19]
Record-keepingNo abordadoNo abordadoObligatorio para trazabilidad [§47-52]
Identificación de autorClaraClaraImposibilidad de identificar = problema [§47-52]
Circunstancias personalesNo relevante en el casoNo mencionadasEvaluadas pero insuficientes [§45, §56]
Presión de trabajoConsiderada como no-excuseNo abordadaNo es excusa [§37, §45]
Múltiples casos afectadosNo abordadoNoPreocupación sobre unknown number [§52]
"Old precedent" corruptoNoNoRisk de contaminar múltiples casos [§53-54]
Credibilidad del profesionalProblema (Ms Forey)N/ARespuestas evasivas agravan [§43-54]
Minimización de gravedadRechazada firmemente [§67-68]N/ARechazada (Ayinde distinguishable) [§39-40]
Función pedagógica✓ Establece factores para referralAdvertencia explícita en sentenciaMás detallada, dos casos como teaching examples
Impacto mediático✓ Amplia cobertura (Law Society Gazette)✓ Primera en Europa continental✓ Establece principios más completos

B. Evolución Doctrinal: De Ayinde a UKUT 00081

Qué Añade UKUT 00081 a la Doctrina de Ayinde

1. Responsabilidad del Supervisor (NOVEDAD)

Ayinde: No abordó específicamente la supervisión porque el caso involucraba counsel actuando en su propio nombre.

UKUT 00081: Establece claramente que:

  • Supervisor tiene responsabilidad agravada [§38]
  • Debe advertir sobre riesgos de IA [§2, §58]
  • Debe implementar checks [§2, §58]
  • Es más culpable que el autor directo [§38]

2. Google AI como Fuente de Alucinaciones (NOVEDAD)

Ayinde: Solo menciona ChatGPT como ejemplo de generative AI.

UKUT 00081:

  • Primer tribunal que advierte sobre Google AI [§17]
  • Realiza experimento empírico con Google AI [§17]
  • Confirma que genera alucinaciones igual de convincentes

3. Confidencialidad y Privilegio (NOVEDAD)

Ayinde: No aborda uso de IA con documentos confidenciales.

UKUT 00081:

  • Declara que subir a ChatGPT open-source = breach [§21, §60]
  • Establece que es waiver of privilege [§21, §60]
  • Requiere reporte a ICO [§21, §60]
  • Sugiere alternativa (Microsoft Copilot) [§21]

4. Reformas Procesales (NOVEDAD)

Ayinde: Solo recomienda vigilancia judicial.

UKUT 00081:

  • Implementa cambios inmediatos en formularios [§9]
  • Statement of truth específico sobre citas [§9, §59]
  • Expectativa de referral automático si declaración falsa [§3, §59]

5. Auto-Reporte como Atenuante (DESARROLLO)

Ayinde: Menciona auto-reporte como factor atenuante [§24].

UKUT 00081:

  • Desarrolla criterio: auto-reporte + insight + remedio = puede evitar referral [§19]
  • Contrasta dos casos: Mohammed (no referral) vs Rasheed (referral) para ilustrar

6. Record-Keeping y Trazabilidad (NOVEDAD)

Ayinde: No aborda sistemas internos de las firmas.

UKUT 00081:

  • Establece necesidad de records sobre quién trabaja en qué [§47-52]
  • Inadecuado record-keeping es factor agravante [§52]
  • Impide identificar otros casos afectados [§52]

C. Posición del TA Orléans en el Contexto Internacional

Importancia Histórica

Primera sentencia de Europa continental que:

  1. Usa terminología técnica de IA explícitamente
  2. Advierte sobre alucinaciones de IA
  3. Detecta número significativo de citas falsas (15)

Diferencias con Tradición del Common Law

Sistema francés (civil law):

  • Menor énfasis en precedente vinculante
  • Jurisprudencia menos citada en decisiones
  • Pero igualmente requiere precisión en citas cuando se usan

Contexto del caso Orleans:

  • Caso principal era sobre derecho de extranjería (expulsión)
  • Referencias falsas eran secundarias al issue principal
  • Tribunal las abordó en apartado separado "Sur les décisions juridictionnelles citées"

Contraste con UKUT:

  • En UKUT, alucinaciones de IA eran el issue central (Hamid proceedings)
  • Desarrollo doctrinal mucho más extenso
  • Pero Orleans tiene valor por ser primera voz continental europea

Convergencia Europea Emergente

Tendencia observable:

FechaEventoJurisdicción
Jun 2025AyindeUK (High Court)
Nov 2025UKUT 00081UK (Upper Tribunal)
Dic 2025TA OrléansFrancia
2026+Casos esperadosAlemania, España, Italia, etc.

Principios comunes emergentes:

  1. Deber de verificación de citas
  2. Advertencia sobre alucinaciones de IA
  3. Responsabilidad profesional por outputs de IA
  4. Función pedagógica de tribunales

Diferencias en enforcement:

  • UK: Hamid jurisdiction permite referral inmediato a SRA
  • Francia: Sistema disciplinario separado (Ordre des avocats)
  • Necesidad: Coordinación a nivel UE sobre estos temas

VII. IMPLICACIONES PARA LA PRÁCTICA JURÍDICA GLOBAL

A. Para el Reino Unido e Irlanda

Impacto Inmediato (2026)

1. Modificación de Todos los Formularios Judiciales

Upper Tribunal ya modificó:

  • UTIAC1 (judicial review claim form)
  • Próximamente: "Other forms and directions" [§9]

Expectativa: Otros tribunales adoptarán cambios similares:

  • First-tier Tribunal (todas las chambers)
  • Employment Tribunal
  • Tax Tribunal
  • Probablemente County Courts y Crown Courts

2. Aumento de Referrals al SRA

Post-UKUT 00081, los jueces se sentirán obligados a:

  • Escrutar más cuidadosamente las citas
  • Emitir show cause notices más frecuentemente
  • Referir casos donde hay multiple fake citations

Preparación del SRA:

  • Necesitará aumentar recursos para investigar casos de IA
  • Desarrollar expertise específica en hallucinations
  • Establecer precedentes sobre sanciones apropiadas

3. Crisis en Small Firms

Problema: Firmas pequeñas que:

  • Usan IA para competir con big firms
  • No tienen recursos para enterprise AI tools
  • No tienen políticas de uso de IA
  • Supervisión deficiente por presión de trabajo

Riesgo: Oleada de casos similares al CLP en próximos 6-12 meses

Respuesta necesaria: Law Society debe proveer:

  • Guías prácticas específicas para small firms
  • Templates de políticas de uso de IA
  • Training asequible o gratuito

Cambios Estructurales en Práctica (2026-2027)

1. Políticas de Uso de IA Obligatorias

Contenido mínimo:

  • Qué herramientas están autorizadas (whitelist)
  • Para qué tareas pueden usarse
  • Nivel de supervisión requerido según criticidad
  • Protocolo de verificación obligatoria
  • Advertencias sobre confidencialidad

2. Training Obligatorio sobre IA

Para supervisors (socios, COLPs, senior solicitors):

  • Cómo funcionan LLMs
  • Qué son alucinaciones
  • Cómo detectarlas
  • Sistemas de control a implementar

Para all fee-earners:

  • Riesgos de non-specialist AI
  • Deber de verificación
  • Cómo verificar citas (BAILII, case law databases)
  • Data protection al usar IA

3. Verification Protocols

Modelo recomendado:

Para cualquier documento que cite jurisprudencia:

  1. Author verifica cada cita en fuente primaria (BAILII, WLR, etc.)
  2. Completa checklist de verificación (attached to file)
  3. Supervisor (si aplica) spot-checks mínimo 20% de citas
  4. Document management system marca como "verified"
  5. Record kept for audit trail

Para grounds, skeleton arguments, opinions:

  • 100% de citas verificadas por author
  • 100% de citas spot-checked por supervisor
  • Certificate of verification attached

B. Para Europa Continental

Impacto del Caso TA Orléans

Francia (corto plazo):

1. Conseil National des Barreaux (CNB) probablemente emitirá:

  • Guide déontologique sur l'usage de l'IA
  • Formación obligatoria para abogados
  • Modelos de cláusulas contractuales

2. Ordre des avocats (Colegios locales):

  • Iniciarán investigaciones propias cuando detecten alucinaciones
  • Desarrollarán sanciones específicas

3. Tribunaux administratifs (en general):

  • Adoptarán enfoque del TA Orléans
  • Posible coordinación a nivel de Conseil d'État

España (medio plazo):

CGPJ y AEPD coordinación probable sobre:

  • Guías para abogados sobre uso de IA
  • Protección de datos al usar IA
  • Posible modificación de códigos deontológicos

Colegios de Abogados:

  • ICAM (Madrid), ICAB (Barcelona) liderarán probablemente
  • Emisión de guías locales
  • Training obligatorio en formación continua

Alemania (medio-largo plazo):

Bundesrechtsanwaltskammer (BRAK):

  • Desarrollo de standards técnicos (DIN) para IA legal
  • Regulación más estricta de legal tech vendors
  • Certificación de herramientas de IA para uso jurídico

Convergencia a Nivel UE

Necesidad de armonización:

Problema:

  • Cada jurisdicción desarrollando estándares propios
  • Riesgo de fragmentación
  • Lawyers cross-border confundidos

Propuesta:

  • CCBE (Council of Bars and Law Societies of Europe) debería liderar
  • Desarrollar "European Code of Conduct for AI Use in Legal Practice"
  • Incorporar lecciones de Ayinde, UKUT 00081, TA Orléans

Contenido sugerido:

  1. Principios generales (verificación, supervisión, confidencialidad)
  2. Estándares técnicos (qué herramientas son aceptables)
  3. Training requirements (competencia digital obligatoria)
  4. Enforcement (sanciones armonizadas)

C. Para Commonwealth y Common Law Jurisdictions

Australia y Nueva Zelanda

Probable adopción rápida de principios de UKUT 00081:

1. Federal Court of Australia:

  • Tiene inherent jurisdiction similar a UK High Court
  • Probablemente adoptará statement of truth en court forms
  • Ya hay casos no publicados de alucinaciones de IA

2. High Court of New Zealand:

  • Tradición de seguir UK precedents en procedural matters
  • Likely to adopt similar approach

3. Legal Services Regulators:

  • Law Society of New South Wales
  • Law Council of Australia
  • New Zealand Law Society
  • Probablemente emitirán guidance similar a UK Law Society

Canadá

Peculiaridad: Sistema mixto (common law + civil law en Quebec)

1. Provincial Law Societies:

  • Law Society of Ontario (LSO)
  • Law Society of British Columbia (LSBC)
  • Barreau du Québec
  • Cada uno desarrollará sus propias guías

2. Courts:

  • Superior Courts of provinces tienen similar inherent jurisdiction
  • Probablemente seguirán UKUT approach

Ya hubo precedente: Park v. Kim (BC, 2023)

África, Asia, Caribe

Jurisdicciones que siguen UK common law:

  • Sudáfrica, Kenia, Nigeria, Ghana (África)
  • Hong Kong, Singapur, Malasia (Asia)
  • Jamaica, Trinidad y Tobago, Barbados (Caribe)

Probable adopción de principios UK en próximos 2-5 años, adaptados a contextos locales.

D. Para Estados Unidos

Posición Actual

EE.UU. fue pionero (Mata v. Avianca, mayo 2023) pero:

  • Casos aislados en federal courts
  • No hay guidance sistemática a nivel federal
  • Cada circuit desarrolla su propia jurisprudencia

American Bar Association (ABA):

  • Emitió "Model Rule on Use of Artificial Intelligence" (2024)
  • Pero no es vinculante (cada State Bar decide)

Lecciones de UKUT 00081 para EE.UU.

1. Responsabilidad del Supervisor

Actualmente en EE.UU.:

  • Partners son responsables por associates bajo Rule 5.1 Model Rules
  • Pero no hay guidance específica sobre IA

Aporte de UKUT: Principio de que supervisor es más culpable que junior podría ser adoptado.

2. Statement of Truth en Court Filings

Actualmente:

  • Rule 11 FRCP ya requiere signature = certification de bien fundado
  • Pero no requiere verificación específica de case citations

Posible reforma:

  • Amendments to Rule 11 para requerir specific certification de citations
  • Similar a lo hecho por UKUT

3. Confidencialidad y Open-Source AI

EE.UU. va adelante en este aspecto:

  • ABA Model Rule 1.6 (confidentiality) ya interpretado como prohibiendo uso de unsecure AI
  • Varios State Bars han emitido ethics opinions sobre esto

Pero: UKUT 00081 añade claridad sobre waiver of privilege

E. Impacto en Legal Tech Industry

Para Proveedores de IA Generativa (OpenAI, Anthropic, Google, etc.)

Presión aumentará para:

1. Advertencias más claras:

  • Disclaimer específico sobre uso en investigación jurídica
  • Warning sobre verificación obligatoria
  • Información sobre tasas de error

2. Features anti-hallucination:

  • Confidence scores en cada assertion
  • Enlaces a fuentes cuando sea posible
  • Flags cuando no pueda verificar información

3. Versiones especializadas para legal:

  • Enterprise versions con grounding en legal databases
  • Verificación automática de citations
  • Audit trails

4. Data protection para closed-source versions:

  • Certificaciones de que datos no se usan para training
  • Compliance con GDPR/UK GDPR
  • Garantías contractuales

Para Legal Tech Companies (Westlaw, LexisNexis, vLex, etc.)

Oportunidad de mercado:

1. AI-powered legal research con verificación:

  • Herramientas que SOLO citan casos que pueden linkear
  • Real-time verification
  • Flagging de potential hallucinations

2. Verification tools:

  • Software que scanea documento y verifica todas las citas
  • Integración con document assembly
  • Compliance checking

3. Training platforms:

  • Cursos sobre uso responsable de IA
  • Certification programs
  • CPD credits

Ejemplo: Westlaw Edge AI, LexisNexis+ ya están desarrollando esto

Para Legal Practice Management Software

Nuevas features necesarias:

1. IA Policy Management:

  • Template policies
  • Distribution and acknowledgment tracking
  • Version control

2. Verification Workflows:

  • Checklist management
  • Mandatory fields before filing
  • Audit trail for compliance

3. Records of Work Done:

  • Detailed time tracking showing who worked on what
  • Document version history with author tags
  • Searchable records for incident investigation

F. Impacto en Educación Legal

Law Schools

Curriculum changes necesarios:

1. Legal Research & Writing courses:

  • Antes: Cómo usar Westlaw/LexisNexis
  • Ahora: + Cómo usar IA responsablemente
  • Ahora: + Cómo verificar outputs de IA
  • Ahora: + Data protection cuando se usa IA

2. Professional Responsibility courses:

  • Casos de study: Mata, Ayinde, UKUT 00081, TA Orléans
  • Role-plays sobre supervisión de juniors usando IA
  • Discusión sobre confidencialidad y waiver of privilege

3. Legal Tech courses (new):

  • Cómo funcionan LLMs
  • Limitaciones de IA actual
  • Future de IA en derecho
  • Ética de IA legal

Bar Admission Courses y Training Contracts

1. Bar Professional Training Course (UK):

  • Module obligatorio sobre IA
  • Assessment sobre uso responsable

2. Solicitors Qualifying Exam (SQE, UK):

  • Potential questions sobre ética de IA
  • Practical assessment sobre verificación

3. Training Contracts:

  • Supervisors deben tener certificación en supervisión de IA use
  • Trainees deben completar training antes de usar IA

Continuing Professional Development (CPD)

Obligatorio en próximos años:

  • Annual refresher sobre IA developments
  • Case studies de failures (anonymous)
  • Updates sobre cambios regulatorios

VIII. RECOMENDACIONES OPERATIVAS DETALLADAS

A. Para Abogados Individuales

Nivel 1: Básico (Obligatorio para Todos)

NUNCA hacer:

  • ❌ Copiar/pegar case citations de ChatGPT/Google AI sin verificar
  • ❌ Asumir que citation "parece correcta" es suficiente
  • ❌ Subir documentos de clientes a ChatGPT free u otras open-source AI
  • ❌ Usar IA para redactar secciones críticas (grounds, skeleton) sin verificación línea por línea
  • ❌ Delegar a IA la selección de jurisprudencia aplicable

SIEMPRE hacer:

  • ✅ Verificar TODA citation en fuente primaria oficial antes de citar
  • ✅ Usar BAILII (UK), Légifrance (FR), CENDOJ (ES), EUR-Lex (UE)
  • ✅ Mantener record de verificación (screenshots, URLs, dates)
  • ✅ Usar closed-source/enterprise AI si se necesita procesar docs confidenciales
  • ✅ Formar continuamente sobre nuevos riesgos de IA

Proceso de verificación mínimo:

Para cada case citado:

  1. Buscar en base de datos oficial (BAILII, etc.)
  2. Confirmar:
    • ☑ Case name exacto
    • ☑ Citation correcta
    • ☑ Date correcta
    • ☑ Court correcto
    • ☑ Judges correctos
  3. Leer el caso (al menos las partes relevantes)
  4. Confirmar que apoya la proposición invocada
  5. Guardar evidencia de verificación

Time estimate: 2-5 minutos por case

Worth it: Totalmente — vs. riesgo de referral al SRA

Nivel 2: Avanzado (Recomendado para Litigators)

Herramientas profesionales:

Para research:

  • Westlaw Edge AI (con verificación automática)
  • LexisNexis+ AI
  • vLex Vincent AI
  • CaseText CoCounsel

Ventajas:

  • Citan solo casos que pueden enlazar
  • Menor riesgo de hallucinations
  • Pero: Aún así verificar spot-check 10-20%

Para document review:

  • Microsoft Copilot for Business (closed-source)
  • Harvey AI Enterprise
  • Robin AI

Para drafting:

  • Use AI para primer borrador
  • NUNCA para versión final sin revisión humana exhaustiva

Para verification:

  • Herramientas que scanean doc y verifican citas automáticamente
  • Algunas en desarrollo por legal tech startups

Nivel 3: Expert (Para Early Adopters)

Prompting avanzado:

Cuando use IA para research, prompt así:

❌ MAL:

"What cases support the proposition that..."

✅ BIEN:

"I need cases on [topic]. Please suggest search terms I should use in [Westlaw/BAILII/etc.]. Do NOT invent case names or citations. If you're not certain a case exists, say so."

✅ AÚN MEJOR:

"I'm researching [topic]. I will search [database] myself. Help me formulate effective boolean search strings."

Usar IA como research assistant, no como lawyer

Chain of custody for AI work:

  • Document qué herramienta usaste
  • Qué prompts diste
  • Qué outputs recibiste
  • Cómo verificaste
  • File notes contemporáneos

Beneficio: Si hay investigación disciplinaria, puedes demostrar due diligence

B. Para Supervisors (Socios, COLPs, Senior Solicitors)

Obligaciones Específicas del Supervisor

1. Crear e Implementar Política de IA (¡urgente si no existe!)

Contenido mínimo:

# [Firm Name] - Artificial Intelligence Use Policy

## 1. Approved Tools

### Prohibited (Open-Source AI)
- ❌ ChatGPT free
- ❌ Google Gemini free
- ❌ Claude free
- ❌ Any other free public LLM

### Approved (Closed-Source/Enterprise Only)
- ✅ Microsoft Copilot for Business
- ✅ [List specific subscriptions firm has]

### Conditional Approval (With Safeguards)
- ⚠️ Google AI in search: Only for general info, never for case citations
- ⚠️ ChatGPT Plus/Pro: Only for non-confidential brainstorming

## 2. Permitted Uses

### Allowed
- ✅ Generating search terms for manual research
- ✅ Summarizing non-confidential public documents
- ✅ Drafting routine correspondence (after review)
- ✅ Brainstorming legal arguments (not citing cases)

### Prohibited
- ❌ Uploading client documents to open-source AI
- ❌ Copying case citations without verification
- ❌ Generating final versions of court documents
- ❌ Any use involving privileged communications

## 3. Verification Requirements

### For All Citations
- Every case must be verified in primary source
- Checklist must be completed (Appendix A)
- Supervisor must spot-check minimum 20%

### For Court Documents
- 100% verification by author
- 100% supervisor review
- Certificate of verification attached

## 4. Training

- All staff: Annual training on AI risks
- New joiners: Training within first month
- Supervisors: Enhanced training on supervision duties

## 5. Consequences of Breach

- First breach: Warning + mandatory retraining
- Second breach: Formal disciplinary process
- Serious breach (e.g., confidentiality): Potential referral to SRA

## 6. Reporting

- Any suspected AI hallucination: Report to COLP immediately
- Any data breach: Report to COLP + ICO within 24 hours

---
Approved by: [COLP name]
Date: [Date]
Review date: [Annual review]

2. Implementar Sistemas de Control

Mandatory checklists:

For any document citing cases:

☐ Author name: ___________
☐ Date: ___________
☐ Case: ___________

For each case cited:
☐ Verified in [BAILII/Westlaw/etc.]: Yes/No
☐ Citation correct: Yes/No
☐ Supports proposition: Yes/No
☐ Screenshot saved to file: Yes/No

Supervisor review:
☐ Spot-checked __% of citations
☐ All verified: Yes/No
☐ Supervisor name: ___________
☐ Date: ___________

Document management tagging:

  • Tag docs as "AI-assisted" if AI used
  • Tag as "verified" only after checks complete
  • Prevent filing until verification confirmed

3. Training Obligatorio

For all staff (annual):

  • What are LLMs and how they work (1 hour)
  • What are hallucinations (30 min)
  • Firm policy on AI (1 hour)
  • Verification procedures (1 hour)
  • Case studies: Mata, Ayinde, UKUT 00081 (1 hour)
  • Total: 4.5 hours/year

For supervisors (additional):

  • Supervision duties under UKUT 00081 (2 hours)
  • How to spot-check work (1 hour)
  • What to do if hallucination detected (1 hour)
  • Total additional: 4 hours/year

Delivery: Mix of e-learning, workshops, guest speakers

4. Regular Audits

Monthly:

  • Review random sample of court documents filed
  • Check verification checklists completed
  • Identify any concerns

Quarterly:

  • Review AI use logs (if using enterprise tools)
  • Review any incidents reported
  • Update policy if needed

Annually:

  • Full compliance audit
  • Staff survey on AI use
  • Policy review and update

5. Clear Allocation of Work

Task vs. Experience level:

TaskMin. ExperienceSupervision Required
Routine correspondenceTrainee/ParalegalSpot-check
Complex lettersJunior SolicitorReview before sending
Grounds for JRMin. 3 years PQESenior review before filing
Skeleton argumentsMin. 3-5 years PQESenior/Partner review
OpinionsMin. 5 years PQESenior partner review

Never allow:

  • Trainee to draft grounds alone (even under "supervision")
  • "Very junior caseworker" to do complex litigation work
  • Anyone to file without supervisor review if AI used

Qué Hacer Si Detectas Alucinación

Immediate steps:

  1. Stop: Do not file document
  2. Identify: Determine all cases in document
  3. Verify: Check every single one
  4. Replace: Substitute false cases with real ones (if they exist)
  5. Investigate: How did this happen?

Investigation:

  • Who worked on document?
  • What AI tools did they use?
  • Have they worked on other files?
  • Are other files affected?

Reporting:

  • If already filed: Report to court immediately
  • If involves confidentiality breach: Report to ICO within 72 hours
  • If serious: Consider self-reporting to SRA

Prevention going forward:

  • Retrain staff member(s) involved
  • Review and tighten procedures
  • Increase supervision level
  • Consider whether additional referrals needed

Managing Difficult Situations

Scenario 1: Junior fee-earner admits using ChatGPT for cites

Response:

  • Don't panic
  • Verify all citations in all their recent files
  • Retrain immediately
  • Formal warning
  • Increase supervision
  • Document everything

Don't: Fire immediately without investigation

Scenario 2: You discover multiple files affected

Response:

  • Create list of all affected files
  • Triage by urgency (filed vs. not filed)
  • For filed docs: Assess whether to inform court
  • For pending docs: Correct before filing
  • Contact clients to explain (duty of candour)
  • Consider self-reporting to SRA

Scenario 3: Client documents were uploaded to ChatGPT

Response:

  • Immediate: Stop any further uploads
  • Notify COLP immediately
  • Assess severity:
    • What data was in docs?
    • Is it special category data (GDPR)?
    • Is it privileged?
  • Report to ICO within 72 hours if breach
  • Notify affected clients
  • Consider whether privilege waived
  • Self-report to SRA
  • Review insurance coverage

C. Para Law Firms (Institutional Level)

Para Small Firms (1-10 Abogados)

Challenge: Limited resources, high pressure, less access to enterprise tools

Priorities:

1. Básico pero efectivo:

  • Simple policy (adapt template above)
  • Basic training (can use free resources: Law Society videos, etc.)
  • Mandatory checklists
  • Senior partner spot-checks everything

2. Use free official sources:

  • BAILII (UK)
  • National Archives (UK)
  • Bar library (if member of Inn)

3. Consider affordable legal tech:

  • Some providers offer SME pricing
  • Westlaw Small Firm packages
  • vLex subscriptions
  • Worth the investment vs. risk of SRA referral

4. Peer support:

  • Join local law society discussions on AI
  • Share policies and checklists with peer firms
  • Group training sessions to share costs

Para Mid-Size Firms (10-50 Abogados)

Opportunity: Can invest in better infrastructure

Recommendations:

1. Dedicated Knowledge Management role:

  • Someone (part-time or full-time) responsible for:
    • Maintaining AI policy
    • Delivering training
    • Monitoring compliance
    • Updating procedures

2. Enterprise AI subscriptions:

  • Microsoft 365 Business with Copilot
  • Westlaw Edge AI
  • One or two specialized legal AI tools

3. Formal training program:

  • Onboarding module for new joiners
  • Annual refreshers for all
  • Specialized training for supervisors
  • CPD credits available

4. Quality assurance system:

  • Monthly random audits
  • Quarterly compliance reports to partners
  • Annual external review

Para Large Firms (50+ Abogados)

Advantage: Resources to be at cutting edge

Recommendations:

1. Chief Technology Officer or Legal Innovation Director:

  • Senior role responsible for tech strategy
  • Includes AI governance
  • Reports to management board

2. Comprehensive AI governance:

  • AI Ethics Committee
  • Regular risk assessments
  • Vendor due diligence
  • Data protection impact assessments for AI tools

3. Custom enterprise solutions:

  • Negotiate custom contracts with AI vendors
  • Closed-source, zero data retention
  • Service level agreements
  • Indemnification clauses

4. Research & development:

  • Pilot new AI tools in controlled environment
  • Contribute to legal tech innovation
  • Publish findings (anonymized) to help profession

5. Insurance:

  • Cyber insurance covering AI incidents
  • Professional indemnity with AI clauses
  • D&O insurance for compliance officers

D. Para Organismos Reguladores

SRA (Solicitors Regulation Authority)

Acciones recomendadas:

1. Guidance específica sobre IA (urgente si no existe)

Contenido:

  • Warning note sobre hallucinations
  • Case studies (anonimizados): Ayinde, UKUT 00081
  • Best practices para firms
  • Template policies
  • Verification procedures
  • Data protection con IA

2. Fast-track para casos de IA

Razón: Problema emergente, necesita respuesta rápida

Propuesta:

  • Dedicated team para investigar AI-related complaints
  • Expedited procedures para casos claros
  • Precedential decisions publicadas rápidamente

3. Sanciones graduadas

Framework sugerido:

InfracciónCircunstanciasSanción Indicativa
Primera vez, una cita falsaAuto-reporte, insight, remedioWarning + mandatory training
Primera vez, múltiples citasNo auto-reporte, lack of insightReprimand + fine (£5k-£15k)
Supervisor fallaLack of systems, multiple cases affectedReprimand + fine (£15k-£50k)
Confidentiality breachUpload to open-source AIReprimand + fine (£20k-£100k) + ICO referral
ReincidenciaAfter warning, same conductSuspension (3-12 months)
Grave y sistemáticoPattern of conduct, lack of remorseSuspension (12+ months) or strike off

4. Public reporting

Transparencia:

  • Publish decisions (anonymized if appropriate) on AI cases
  • Quarterly statistics on AI-related complaints
  • Annual report section on AI developments

Beneficio:

  • Educates profession
  • Shows SRA taking issue seriously
  • Deters bad conduct

IAA (Immigration Advice Authority)

Recomendaciones del UKUT [§20]:

1. Emitir guidance específica

El tribunal explicitly señaló que IAA no ha provisto guidance sobre IA

Contenido sugerido (adaptar de SRA pero para IAA context):

  • IAA Code of Standards aplicado a IA
  • Principle 1 (Rule of Law) y uso de IA
  • Standard 1.2 (no mislead tribunals) y hallucinations
  • Best practices para accredited advisers
  • Resources para small advice agencies

2. Training obligatorio

Para Level 1-3 advisers:

  • Basic AI literacy
  • Verification requirements
  • Data protection

Para managers/supervisors:

  • Enhanced training on supervision
  • Systems and controls

Integration:

  • Into initial accreditation training
  • Into CPD requirements
  • Into re-accreditation assessments

3. Inspection framework

During IAA audits/inspections:

  • Check if firm has AI policy
  • Review verification procedures
  • Sample recent court documents
  • Interview staff about AI use

Bar Standards Board (BSB)

Aunque UKUT 00081 no involucró barristers:

Preventive action recomendada:

1. Update Bar Code of Conduct guidance

Relevancia:

  • Bar Standard Board Code of Conduct rC3: Duty not to mislead court
  • rC4: Duty to act with honesty and integrity

Guidance debería cubrir:

  • AI use in drafting opinions
  • AI use in skeleton arguments
  • Verification of citations
  • Pupils using AI (supervision duties)

2. Inns of Court libraries

Opportunity:

  • Promote use of Inn libraries as free verification resource
  • Training sessions on verification
  • Access to legal databases

3. Pupillage requirements

Ensure:

  • Pupils are trained on AI risks
  • Supervisors understand their enhanced responsibility
  • Verification procedures taught from day one

E. Para Tribunales y Juzgados

Upper Tribunal & First-tier Tribunal

UKUT ya ha actuado [§9] — modificando claim forms

Next steps:

1. Roll out statement of truth across all forms:

  • FTT notice of appeal
  • UT permission to appeal
  • Skeleton arguments
  • Written submissions

2. Judges' guidance:

  • How to spot potential hallucinations
  • When to issue show cause notice
  • Hamid jurisdiction procedures
  • Referral decision-making

3. Registry training:

  • Basic hallucination detection
  • When to flag to judge
  • Recording incidents

High Court y County Courts

Adoption del UKUT approach:

1. CPR amendments (proposed):

Current: Rule 22.1(1) — Statement of truth on statement of case

Proposed addition: Rule 22.1(1A):

"Where a statement of case or any other document contains citations to legal authorities, the statement of truth must include confirmation that: (a) each authority cited exists; (b) each authority may be located using the citation provided; and (c) each authority supports the proposition of law for which it is cited."

2. Practice Direction amendments:

  • PD 52B (Appeals) — require verification in skeleton arguments
  • PD 54A (Judicial Review) — require verification in grounds

3. Costs consequences:

  • Wasted costs orders for false citations
  • Potentially enhanced costs against solicitors personally
  • Discount in success fee if opponent cited false cases

Family Courts y Tribunals

Special sensitivity:

  • Children involved
  • Vulnerable parties
  • Self-represented litigants might use AI

Specific measures:

1. Litigants in person guidance:

  • Plain English warnings about AI
  • How to verify information from AI
  • Signposting to proper legal advice

2. Judicial vigilance:

  • Judges should spot-check citations from LIPs using AI
  • Offer opportunity to correct before adverse consequences

3. Safeguarding:

  • Particular care with confidential information
  • AI-generated reports or assessments need human review

IX. CONCLUSIONES FINALES

A. Síntesis de la Doctrina Consolidada

Esta sentencia, junto con Ayinde y TA Orléans, consolida una doctrina internacional sobre IA en la práctica jurídica. Los principios son:

1. Verificación es absoluta e incondicional 2. Supervisores tienen responsabilidad agravada 3. Open-source AI con datos de clientes = violación per se 4. Reformas procesales son necesarias y apropiadas

B. El Futuro: Próximos 5 Años (2026-2031)

2026-2027: Consolidación

  • Más casos similares en todas las jurisdicciones
  • Emisión de guidance por todos los reguladores
  • Primeras sanciones disciplinarias públicas
  • Desarrollo de herramientas de verificación

2027-2029: Maduración

  • IA legal enterprise se vuelve estándar
  • Reduced reliance en free/open-source AI
  • Training sobre IA es parte obligatoria de CPD
  • Jurisprudencia establece sanciones consistentes

2029-2031: Nueva Normalidad

  • Generación de abogados "AI-native" pero conscientes de riesgos
  • Herramientas de IA con built-in verification
  • Menos casos de hallucinations (pero nunca cero)
  • Focus shift hacia otros riesgos de IA (bias, transparency, etc.)

C. Mensaje Final para la Profesión

De UK and R (Munir) v SSHD [2026] UKUT 00081 (IAC):

"Legal professionals are obliged to ensure that legal arguments which are presented to the First-tier Tribunal or Upper Tribunal are factually and legally accurate. Those who cite false cases fail to comply with that professional obligation and waste the time of the Tribunal." [§57]

La inteligencia artificial es una herramienta extraordinaria que está transformando la práctica del derecho. Puede hacernos más eficientes, más accesibles, más competitivos.

Pero solo si la usamos con:

  • Competencia (entendemos cómo funciona y sus limitaciones)
  • Diligencia (verificamos todo antes de usar)
  • Integridad (no intentamos atajos que comprometan la verdad)
  • Responsabilidad (asumimos las consecuencias de nuestras decisiones)

Los abogados que fallen en estos deberes lo hacen bajo su propio riesgo profesional — y el de sus clientes.


Anexo A: Recursos y Referencias

Sentencias Citadas

Casos Principales Analizados:

  • UK and R (Munir) v SSHD [2026] UKUT 00081 (IAC)
  • R (Ayinde) v London Borough of Haringey [2025] EWHC 1383 (Admin)
  • TA Orléans, n° 2506461, 29 décembre 2025 (Francia)

Jurisprudencia de Referencia:

  • R (Hamid) v SSHD [2012] EWHC 3070 (Admin)
  • R (Sathivel) & Ors v SSHD [2018] EWHC 913 (Admin)
  • R (DVP) v SSHD [2021] EWHC 606 (Admin)
  • R (Shrestha & Ors) v SSHD [2018] UKUT 242 (IAC)
  • R (Hoxha & Ors) v SSHD [2019] UKUT 124 (IAC)
  • Mata v. Avianca, Inc., 22-cv-1461 (S.D.N.Y., Jun. 22, 2023)

Bases de Datos Oficiales para Verificación

Reino Unido:

Francia:

España:

Unión Europea:

Guidance Profesional

Law Society (England & Wales):

  • "Generative AI and Legal Services" (2025)
  • "Technology and Law Toolkit"

Solicitors Regulation Authority (SRA):

  • Standards and Regulations (esp. Principles 1, 2, 5)
  • Code of Conduct Rule 1.4, Rule 5.1

American Bar Association:

  • Model Rules of Professional Conduct (esp. Rule 1.1, 1.6, 5.1)
  • Formal Opinion 512: "Generative AI Tools" (2024)

Herramientas de IA Legal con Verificación

Enterprise Solutions:

  • Westlaw Edge AI (Thomson Reuters)
  • LexisNexis+ AI (LexisNexis)
  • vLex Vincent AI
  • CaseText CoCounsel
  • Harvey AI (Enterprise)

Closed-Source AI Seguras para Confidencialidad:

  • Microsoft 365 Copilot for Business
  • Claude for Enterprise (Anthropic)
  • ChatGPT Enterprise (OpenAI)

⚠️ Advertencia: Incluso herramientas enterprise requieren verificación spot-check


Análisis elaborado en enero de 2026. La normativa y jurisprudencia sobre IA continúa evolucionando rápidamente.

Artículos relacionados

Amparo Directo 6/2025: IA y Derechos de Autor en México

jurisprudencia

Análisis jurídico de la sentencia de la SCJN que rechaza la protección de obras creadas por inteligencia artificial. Estudio de las cuestiones de autoría, originalidad y dominio público bajo la LFDA.

Big Brother Watch y otros c. Reino Unido (2021): Hito Jurisprudencial en Vigilancia Masiva, Privacidad y Control Judicial - Análisis Exhaustivo IRAC

jurisprudencia

Análisis jurisprudencial integral de la sentencia de la Gran Sala del TEDH que establece estándares de control en vigilancia masiva. Examen de los 5 issues principales, jurisprudencia consolidada, implicaciones para sistemas de IA, y recepción posterior. Referencia obligatoria para regulación de vigilancia electrónica.

X.AI Corp. v. OpenAI, Inc. (2026): Hito en Misappropriación de Secretos Comerciales, Responsabilidad de Empleadores y Estándares de Pleading en Derecho de Propiedad Intelectual - Análisis IRAC Exhaustivo

jurisprudencia

Análisis jurisprudencial integral de la sentencia de desestimación del caso X.AI v. OpenAI que establece estándares críticos en misappropriación de trade secrets: posesión no es misappropriación, se requiere evidencia de uso, inducement debe ser específico, y circunstancias sospechosas son insuficientes. Análisis de DTSA, CUTSA, UCL, y jurisprudencia del Noveno Circuito aplicable a startups de IA.

Kettering Adventist Healthcare v. Collier: Sanciones Monumentales por AI Hallucinations en Investigación Legal

jurisprudencia

Análisis jurídico integral de la sentencia de la Corte de Distrito del Sur de Ohio contra abogados Mary T. Scott y H. Leon Hewitt por fabricación de citas mediante IA generativa. Examen crítico de Rule 11(b), duty of candor, contempt of court y estándares de diligencia debida en la era de IA legal.