Jurisprudencia

Tribunal inglés establece por primera vez el régimen completo de sanciones por usar ChatGPT en litigación sin verificar

Tribunal inglés establece por primera vez el régimen completo de sanciones por usar ChatGPT en litigación sin verificar

Lo que el Divisional Court acaba de decirle a cada abogado que use IA para investigar jurisprudencia

ℹ Nota – Resumen (TL;DR): El High Court de Inglaterra y Gales ha dictado el 6 de junio de 2025 la sentencia más completa hasta la fecha sobre uso de IA sin verificación en litigación. En dos casos acumulados, el tribunal sistematiza todo el espectro de sanciones disponibles, desde costas hasta prisión. Confirma que el deber de verificar las citas de IA existe ya, sin necesidad de regulación específica. Y avisa a los líderes de los despachos: el próximo Hamid hearing los pondrá a ellos en el foco.

Los dos casos: lo que ocurrió

Caso 1 (Ayinde). Una barrister júnior redacta un escrito de revisión judicial sobre vivienda de emergencia. Incluye cinco sentencias que no existen. Cuando el demandado las detecta, en lugar de reconocer el error, el equipo legal responde por escrito minimizándolo como «cosmetic errors» y rechazando explicarlo. El Divisional Court llama a esto «una categorización groseramente no profesional». La barrister recibe una condena en costas de £2.000, es remitida al regulador, y se descubre que el mismo tipo de error se produjo también en otro caso ante el County Court.

Caso 2 (Al-Haroun). Un solicitor presenta ante la jueza Dias J un witness statement con citas jurisprudenciales. El judicial assistant del tribunal verifica las 45 citas: 18 no existen; la mayoría de las restantes no contienen los textos citados ni apoyan las proposiciones para las que se citan. Una de las citas falsas atribuye una decisión a la propia Dias J. El solicitor admite haber confiado en la investigación de su cliente sin verificar. El tribunal lo remite al regulador.

Las sanciones: de menor a mayor

El tribunal describe un espectro completo de respuestas posibles. La admonición pública en sentencia importa, pero el tribunal advierte que salvo en circunstancias excepcionales no es suficiente como única respuesta. El wasted costs order obliga al letrado a pagar las costas innecesarias causadas a la otra parte: en el caso Ayinde, £2.000 por cada responsable. El referral al regulador (Bar Standards Board para barristers; Solicitors Regulation Authority para solicitors) puede dar lugar a suspensión o inhabilitación. El strike out puede eliminarse un caso. El contempt of court puede suponer hasta dos años de prisión. Y en los casos más graves, deliberadamente colocar material falso ante el tribunal para interferir con la administración de justicia es perverting the course of justice, con pena máxima de cadena perpetua.

¿Qué significa esto para ti si eres abogado?

Primero: el deber de verificar el output de la IA no espera a que exista una regulación específica. Existe ya. El tribunal lo deriva de las normas deontológicas generales: no engañar al tribunal, prestar un servicio competente. Segundo: si usas IA para investigar, eres responsable. Igual que eres responsable del trabajo de un trainee que supervises. No hay diferencia. Tercero: las fuentes autorizadas para verificar son específicas: National Archives, BAILII, Law Reports oficiales del ICLR, bases de datos de editoriales reputadas. Google no es una fuente autorizada. Cuarto: si eres Head of Chambers o Managing Partner, el tribunal advierte que en futuros Hamid hearings examinará si cumpliste tus responsabilidades de liderazgo. Eso significa: ¿tienes un protocolo escrito? ¿Tu equipo está formado? ¿Supervisas adecuadamente a los júniores?

Lo que más importa del fallo: el aviso institucional

El Divisional Court no se limita a sancionar a los letrados implicados. Envía copia de la sentencia al Bar Council, la Law Society y el Council of the Inns of Court. Su mensaje es claro: publicar guidance no es suficiente. «Más necesita hacerse» para asegurar que los abogados cumplen. Y avisa: en futuros Hamid hearings, el tribunal preguntará si quienes tienen responsabilidades de liderazgo las han cumplido. La era de la autorregulación blanda en materia de IA en litigación ha terminado.

La regla de oro del fallo

El tribunal lo dice con una sola frase: «The critical safeguard is to check any output by reference to an authoritative source» (§ 87). No asking the AI if it's sure. Not asking it to explain its limitations. Accessing the source. Reading it. Verifying that it exists, that it says what you think it says, and that it supports the point you're making. Every time.

Artículos relacionados

Amparo Directo 6/2025: IA y Derechos de Autor en México

jurisprudencia

Análisis jurídico de la sentencia de la SCJN que rechaza la protección de obras creadas por inteligencia artificial. Estudio de las cuestiones de autoría, originalidad y dominio público bajo la LFDA.

Big Brother Watch y otros c. Reino Unido (2021): Hito Jurisprudencial en Vigilancia Masiva, Privacidad y Control Judicial - Análisis Exhaustivo IRAC

jurisprudencia

Análisis jurisprudencial integral de la sentencia de la Gran Sala del TEDH que establece estándares de control en vigilancia masiva. Examen de los 5 issues principales, jurisprudencia consolidada, implicaciones para sistemas de IA, y recepción posterior. Referencia obligatoria para regulación de vigilancia electrónica.

X.AI Corp. v. OpenAI, Inc. (2026): Hito en Misappropriación de Secretos Comerciales, Responsabilidad de Empleadores y Estándares de Pleading en Derecho de Propiedad Intelectual - Análisis IRAC Exhaustivo

jurisprudencia

Análisis jurisprudencial integral de la sentencia de desestimación del caso X.AI v. OpenAI que establece estándares críticos en misappropriación de trade secrets: posesión no es misappropriación, se requiere evidencia de uso, inducement debe ser específico, y circunstancias sospechosas son insuficientes. Análisis de DTSA, CUTSA, UCL, y jurisprudencia del Noveno Circuito aplicable a startups de IA.

Kettering Adventist Healthcare v. Collier: Sanciones Monumentales por AI Hallucinations en Investigación Legal

jurisprudencia

Análisis jurídico integral de la sentencia de la Corte de Distrito del Sur de Ohio contra abogados Mary T. Scott y H. Leon Hewitt por fabricación de citas mediante IA generativa. Examen crítico de Rule 11(b), duty of candor, contempt of court y estándares de diligencia debida en la era de IA legal.