IA Global

Alucinaciones de IA en sede judicial: costas personales contra el abogado en Tajudin v Mohideen [2025] SGHCR 33

Alucinaciones de IA en sede judicial: costas personales contra el abogado en Tajudin v Mohideen [2025] SGHCR 33

La sentencia dictada el 29 de septiembre de 2025 por la General Division of the High Court de Singapur en el asunto Tajudin bin Gulam Rasul and another v Suriaya bte Haja Mohideen [2025] SGHCR 33 representa un hito en la gestión judicial de las alucinaciones producidas por herramientas de inteligencia artificial generativa (en adelante, IAG) en el ámbito forense. La Asistente Registradora Tan Yu Qing impuso costas personales al abogado de la parte actora por haber incluido en sus escritos de alegaciones una autoridad jurisprudencial inexistente cuyo nombre y número de referencia habían sido generados íntegramente por un modelo de lenguaje de gran escala. El presente análisis examina los fundamentos dogmáticos de esa decisión, el test tripartito aplicado y las implicaciones que cabe proyectar sobre los sistemas de gobernanza del uso forense de la IA en otras jurisdicciones, con especial atención al marco europeo.


El fenómeno de la alucinación forense y su relevancia jurídica

Para resolver la cuestión que subyace a este pronunciamiento conviene precisar, ante todo, qué significa técnicamente que un modelo de lenguaje «alucine» y por qué esa característica intrínseca convierte en especialmente gravosa su utilización irreflexiva en sede judicial.

Los modelos de lenguaje de gran escala generan texto prediciendo, de forma probabilística, qué token es estadísticamente más plausible dado un contexto determinado. Este mecanismo de predicción secuencial es funcionalmente distinto de una consulta a una base de datos verificada: el modelo no «recupera» resoluciones almacenadas, sino que «construye» texto que se asemeja formalmente a una cita jurisprudencial. El resultado puede ser, y con frecuencia es, una referencia que parece auténtica —número de resolución, partes, órgano, fecha, ratio— pero que no corresponde a ningún pronunciamiento real. Este fenómeno, conocido en la literatura técnica como hallucination, no es un fallo puntual ni erradicable mediante simples mejoras del modelo: es una consecuencia estructural de su arquitectura.

En la resolución comentada, el abogado de los actores (en adelante, CC) incluyó en sus alegaciones escritas, presentadas el 1 de junio de 2025, una autoridad cuya existencia era imposible de verificar porque, sencillamente, no existía. La referencia fue generada por una herramienta de IAG utilizada por un abogado junior del despacho, sin que CC comprobara su existencia antes de firmar y presentar el escrito ante el tribunal. El nombre y el número de causa de la autoridad ficticia —deliberadamente omitidos en la resolución, en línea con la práctica adoptada por el Tribunal Federal de Australia en Luck v Secretary, Services Australia [2025] FCAFC 26, para no propagar información falsa— pertenecía, el número de referencia, a un asunto completamente distinto, mientras que el nombre de las partes era una fabricación.

Esta situación no es inédita. Los tribunales de Australia, Canadá, Nueva Zelanda, el Reino Unido y los Estados Unidos han afrontado ya supuestos análogos, tal como señala expresamente la resolución con cita del pronunciamiento de la Administrative Court inglesa en Ayinde v London Borough of Haringey [2025] EWHC 1383 (Admin). La particularidad del caso singapurense radica en la exhaustividad del razonamiento jurídico sobre las condiciones y el alcance del poder del tribunal para sancionar económicamente a los abogados que incurren en esta conducta.


El marco regulatorio singapurense del uso forense de la IA generativa

Para resolver la cuestión de la responsabilidad de CC, la Asistente Registradora tuvo en cuenta tres instrumentos normativos que, en conjunto, definen el estándar de conducta exigible a los abogados singapurenses cuando emplean herramientas de IAG en la preparación de documentos para los tribunales.

La GenAI Guide y el principio de supervisión humana efectiva

El eje del análisis normativo lo constituye la Guide on the Use of Generative Artificial Intelligence Tools by Court Users (en adelante, GenAI Guide), aplicable a todos los órdenes jurisdiccionales de Singapur en virtud de las circulares registrales correspondientes. La GenAI Guide adopta una posición de neutralidad tecnológica: no prohíbe el uso de herramientas de IAG en la preparación de documentos procesales, pero somete ese uso a condiciones estrictas.

El principio central es el de supervisión humana efectiva, que la resolución denomina gráficamente «lawyer-in-the-loop approach». En virtud de este principio, cualquier output generado por una herramienta de IAG debe ser independientemente verificado por el abogado antes de ser presentado ante el tribunal. Esta obligación no es delegable: recae sobre el abogado firmante con independencia de quién haya realizado materialmente la investigación. La GenAI Guide es inequívoca al respecto: no basta con pedir a otra herramienta de IAG que confirme la existencia del material generado por la primera; la verificación ha de hacerse mediante fuentes conocidas y fiables, como el portal eLitigation GD Viewer del Poder Judicial singapurense para jurisprudencia o Singapore Statutes Online para normativa.

Este estándar no es novedoso en su sustancia. Lo novedoso es su codificación explícita en el contexto de la IA generativa. La GenAI Guide no altera el deber preexistente de diligencia del abogado: lo confirma y lo proyecta sobre un vector de riesgo específico y conocido.

Las Supreme Court Practice Directions y la obligación de presentar todas las autoridades citadas

El segundo instrumento de referencia es el párrafo 101(8)(a), en relación con los párrafos 105(1) y 105(6), de las Supreme Court Practice Directions 2021 (en adelante, SupCt PD). Esta disposición obliga a los abogados a incluir en sus bundles of authorities todas las autoridades en las que se apoyan sus alegaciones. La lógica es elemental: si una autoridad existe, puede exhibirse; si no puede exhibirse, no existe. El incumplimiento de esta norma por parte de CC —que omitió la autoridad ficticia de su bundle porque no podía incorporar algo inexistente— constituye, por sí solo, un indicio objetivo de la falta de diligencia en la verificación previa.

Las Legal Profession (Professional Conduct) Rules y los deberes éticos

El tercer instrumento son las Legal Profession (Professional Conduct) Rules 2015 (en adelante, LP(PC)R), que articulan las obligaciones deontológicas del abogado en Singapur. Entre las más relevantes para el caso figuran el deber de actuar con diligencia y competencia razonables (regla 5(2)(c)), el deber de no inducir a error al tribunal —intencionalmente o no— en el curso de actuaciones judiciales (regla 9(2)(a)), y el deber de ejercer supervisión adecuada sobre el personal que trabaja bajo su dirección (regla 32). La resolución subraya que el análisis de costas personales es distinto de un procedimiento disciplinario, de modo que las conclusiones alcanzadas no prejuzgan si CC ha incurrido en infracción de las LP(PC)R a efectos disciplinarios.


El test tripartito de Ridehalgh y su aplicación al caso

El poder del tribunal para imponer costas personales a los abogados —que en Singapur tiene base tanto en la jurisdicción inherente del tribunal como en la Order 21 rule 6 de las Rules of Court 2021— se ejerce con arreglo al test de tres etapas formulado por el Tribunal de Apelación inglés en Ridehalgh v Horsefield [1994] Ch 205 y adoptado por el Tribunal de Apelación de Singapur en Tang Liang Hong v Lee Kuan Yew [1997] 3 SLR(R) 576.

Primera etapa: conducta impropia, irrazonable o negligente

La primera pregunta es si CC actuó de forma impropia, irrazonable o negligente. Los tres calificativos no son excluyentes entre sí.

La conducta es impropia cuando supone un incumplimiento significativo de un deber sustancial impuesto por el código de conducta profesional aplicable, o cuando la comunidad profesional —incluida la judicial— la consideraría como tal con independencia de si existe una norma expresamente infringida. CC citó una autoridad inexistente generada por IAG, incumplió la GenAI Guide y las SupCt PD, y —lo que la resolución califica como «de mayor gravedad»— actuó sin transparencia ante el tribunal. Cuando el abogado de la parte demandada le alertó, el 18 de julio de 2025, de que la autoridad no podía localizarse, CC no comunicó inmediatamente la irregularidad al tribunal. En su lugar, presentó unilateralmente, el 21 de julio, unas alegaciones enmendadas caracterizando la sustitución de la autoridad inexistente como una mera corrección de «errores tipográficos» o «de numeración». Solo bajo interrogatorio directo del tribunal en la vista del 22 de julio admitió que la autoridad no existía; y solo en la vista de costas del 31 de julio reveló, también bajo interrogatorio, que la autoridad había sido generada por una herramienta de IAG. La resolución califica esta secuencia como un intento de ocultar la conducta indebida y de minimizar su gravedad, empleando términos como «placeholder case» —término que la resolución rechaza categóricamente por trivializar lo ocurrido.

La conducta es igualmente irrazonable, pues no admite justificación objetiva. Confiar ciegamente en el output de una herramienta de IAG para citar jurisprudencia, sin verificación posterior alguna, no puede considerarse conducta razonablemente explicable a la luz de los estándares profesionales vigentes.

Es también negligente en el sentido no técnico que exige el test —esto es, ausencia de la competencia razonablemente esperable de un abogado ordinario—, tanto por la falta de verificación del output de IAG como por el incumplimiento de la SupCt PD al omitir la autoridad del bundle. La resolución observa, con razón, que si CC hubiera cumplido esta última obligación habría advertido de inmediato la imposibilidad de exhibir la autoridad ficticia.

La atribución de la tarea de investigación jurídica a un abogado junior recién incorporado al colegio no atenúa la responsabilidad de CC: el deber de supervisión del abogado senior es, en los términos de la GenAI Guide y las LP(PC)R, personal e indelegable.

Segunda etapa: costas innecesarias causadas al adversario

Acreditada la conducta indebida, la segunda pregunta es si esa conducta generó costas innecesarias para la parte contraria. El principio aplicable es el de compensación: si la parte adversa se vio obligada a dedicar tiempo y recursos a localizar y verificar la inexistencia de la autoridad ficticia, a alertar al abogado contrario y a poner en conocimiento del tribunal la irregularidad cuando aquel no lo hizo espontáneamente, esos costes adicionales deben ser compensados. La resolución aplica con claridad esta lógica: la demandada soportó una carga que no le correspondía asumir y que derivó exclusivamente de la conducta de CC.

El principio de responsabilidad del abogado que usa herramientas de IAG sin verificar sus outputs recibe aquí su formulación más nítida: dado que el riesgo de alucinación de los modelos de lenguaje es conocido —la resolución cita en este punto la literatura académica y la jurisprudencia comparada—, quien emplea esas herramientas sin adoptar las cautelas debidas asume el riesgo de que el coste derivado de una alucinación recaiga sobre quien la generó, no sobre la parte inocente que la descubrió.

Tercera etapa: justicia en la compensación

La tercera etapa exige valorar si, dadas todas las circunstancias, es justo ordenar al abogado que compense al adversario. La resolución articula este juicio en torno a tres principios que actúan de forma jerarquizada.

El principio de equidad y proporcionalidad es el considerando central. A su favor de CC pesa que la autoridad ficticia se citó para sostener una proposición jurídica trite —no controvertida— y que la parte demandada acabó no ejercitando la defensa de ilegalidad para la que aquella habría resultado relevante. En sentido contrario, la resolución pone en la balanza la entidad del perjuicio causado a la demandada y, sobre todo, la gravedad de la conducta de CC: sus explicaciones continuadas, que relativizaban lo ocurrido, y su tardanza en reconocer la dimensión real del problema revelan que no llegó a comprender plenamente la gravedad de su actuación. La afirmación de que asumiría responsabilidad porque el junior «era nuevo» y la disculpa condicionada —«si el tribunal se sintió inducido a error»— son indicios claros de esa incomprensión.

El principio de preservación de la integridad del sistema de justicia opera como considerando subsidiario. El razonamiento es estructural: el common law se asienta sobre el precedente; la jurisprudencia es, en expresión que la resolución toma de Lee Tat Development Pte Ltd v Management Corporation Strata Title Plan No 301 [2018] 2 SLR 866, el «sustento vital» del sistema jurídico. Una resolución fundamentada en una autoridad ficticia conduciría a lo que el tribunal canadiense calificó en Ko v Li 2025 ONSC 2965 de «escandaloso error judicial». La condena en costas personales expresa el reproche judicial y contribuye a preservar la confianza pública en la administración de justicia.

El principio de prevención general cierra el análisis: la sanción debe ser suficientemente seria para disuadir tanto al abogado sancionado como a otros profesionales de incurrir en conductas análogas. Una respuesta excesivamente benévola emitiría la señal errónea de que el tribunal no atribuye importancia al problema.


Quantum de las costas y órdenes complementarias

La resolución fijó las costas personales en 800 dólares de Singapur, a pagar por CC directamente a la demandada en el plazo de catorce días. El importe, modesto en términos absolutos, se justifica metodológicamente: la Asistente Registradora rechaza el criterio de proporcionalidad mecánica al número de autoridades ficticias citadas y ancla la cuantificación en los factores sustantivos ya analizados —en particular, la gravedad de la conducta—, al tiempo que advierte que, cuando la conducta impropia sea suficientemente grave, el cauce adecuado es el procedimiento disciplinario, no el incremento desproporcionado de las costas personales.

Además de la condena en costas, el tribunal impuso una medida complementaria que merece atención: ordenó a ambos abogados —el de los actores y el de la demandada— que entregaran a sus respectivos clientes copia de las instrucciones del tribunal, con el objeto de garantizar que las partes conocieran el reproche judicial sobre la conducta de CC. Esta medida de transparencia hacia las partes es infrecuente en el derecho procesal comparado y refleja la valoración del tribunal sobre la relevancia institucional del asunto.


Implicaciones para el uso forense de la IA generativa: una perspectiva comparada y europea

La resolución comentada es, hasta la fecha, una de las más exhaustivas en el tratamiento dogmático del problema de las alucinaciones forenses. Sus implicaciones trascienden la jurisdicción singapurense.

La convergencia de los estándares forenses sobre IA generativa

Aunque cada jurisdicción regula el uso forense de la IA con instrumentos propios —GenAI Guide en Singapur, circulares del Federal Judiciary en Estados Unidos, instrucciones de práctica en el Reino Unido, directrices en Australia—, los principios que emergen de la jurisprudencia comparada son notablemente convergentes: supervisión humana efectiva e irrenunciable; verificación mediante fuentes primarias fiables; responsabilidad personal del abogado firmante, con independencia de quién haya realizado materialmente el trabajo; y sanción económica proporcional al perjuicio causado, reservando para la vía disciplinaria los supuestos de mayor gravedad.

La perspectiva europea: ética profesional y Reglamento de Inteligencia Artificial

En el espacio jurídico europeo, la cuestión de las alucinaciones forenses se sitúa en la intersección entre el derecho procesal, la deontología de la abogacía y el Reglamento (UE) 2024/1689 relativo a la inteligencia artificial (en adelante, RIA).

Desde la perspectiva deontológica, los códigos de conducta de los colegios de abogados de los Estados miembros —y, en el plano transfronterizo, el Código Deontológico de los Abogados Europeos del CCBE— imponen deberes de competencia y diligencia que son perfectamente trasladables al contexto de la IA generativa. El deber de competencia, en particular, exige que el abogado comprenda las herramientas que emplea, incluidas sus limitaciones. La alucinación de un modelo de lenguaje no es un hecho imprevisible: es un riesgo técnico documentado que el abogado diligente debe gestionar activamente.

Desde la perspectiva del RIA, las herramientas de IAG de propósito general —categoría en la que se encuadran los modelos de lenguaje utilizados para investigación jurídica— están sujetas a las obligaciones previstas en el capítulo V del Reglamento. Los proveedores de estos modelos han de elaborar y poner a disposición pública documentación técnica que incluya una descripción de las capacidades y limitaciones del modelo. La propensión a alucinar es, en este sentido, un dato que los proveedores deben divulgar y que los usuarios —entre ellos, los abogados— deben incorporar a sus procesos de verificación. La implantación de políticas de uso responsable de la IA en los despachos profesionales, que incluyan protocolos de verificación de outputs ante fuentes primarias, se configura así no solo como una exigencia deontológica, sino como una práctica de gestión del riesgo regulatorio.

La gestión interna del riesgo en los despachos de abogados

La resolución Tajudin pone de relieve una disfunción organizativa frecuente: la delegación de tareas de investigación jurídica asistida por IAG en abogados junior sin que existan protocolos formales de revisión por parte del abogado responsable. Esta disfunción no es privativa de los despachos pequeños ni de los abogados con menos experiencia en el uso de herramientas digitales. La cadena de custodia de los documentos procesales —desde la generación del borrador asistido por IA hasta la firma y presentación del escrito definitivo— ha de incorporar un punto de control específico para la verificación de todas las referencias jurisprudenciales, normativas y doctrinales citadas.


Conclusiones y recomendaciones prácticas

La resolución Tajudin v Mohideen [2025] SGHCR 33 consolida un conjunto de principios cuya aplicación es extrapolable a cualquier sistema jurídico que afronte el uso forense de la inteligencia artificial generativa:

  • La supervisión humana es irrenunciable e indelegable. El deber de verificar la exactitud de todos los materiales presentados ante el tribunal recae sobre el abogado firmante con independencia del origen —humano o artificial— del borrador. La condición de «abogado nuevo» del junior que realizó la investigación no atenúa, sino que agrava, la responsabilidad de supervisión del senior.

  • La verificación mediante fuentes primarias es condición necesaria. No es suficiente pedir a una herramienta de IAG que confirme la existencia del material que ella misma ha generado. La verificación requiere acceder a la fuente primaria: base de datos jurisprudencial oficial, texto normativo auténtico, publicación académica identificable. Este estándar es universalmente exigible con independencia de la jurisdicción.

  • La falta de transparencia con el tribunal agrava la conducta. La resolución distingue con nitidez entre el error —que puede ocurrir y puede remediarse— y la falta de candor en la comunicación con el tribunal. Caracterizar una autoridad inexistente como un «error tipográfico» o un mero «caso placeholder» no es solo inexacto: es una forma de minimizar la gravedad de lo ocurrido que el tribunal valora negativamente en el análisis de las costas.

  • El riesgo de alucinación es un riesgo conocido que el abogado debe gestionar. La jurisprudencia comparada citada en la resolución —estadounidense, canadiense, australiana, inglesa y singapurense— converge en que los modelos de lenguaje son herramientas «conocidamente» propensas a alucinar. Esta circunstancia excluye la alegación de imprevisibilidad y refuerza el reproche jurídico sobre quien no adoptó las cautelas debidas.

  • Los despachos profesionales deben implantar protocolos formales de verificación. La gestión del riesgo regulatorio y deontológico en el uso forense de la IAG exige la adopción de procedimientos internos que identifiquen un punto de control específico para la verificación de todas las referencias citadas en documentos procesales, con independencia de su origen.


Resolución analizada: Tajudin bin Gulam Rasul and another v Suriaya bte Haja Mohideen [2025] SGHCR 33, General Division of the High Court of the Republic of Singapore, AR Tan Yu Qing, 29 de septiembre de 2025.