Alucinaciones de IA y responsabilidad del abogado: la sentencia Torres Campos v. Munoz del Tribunal de Apelación de California
Alucinaciones de IA y responsabilidad del abogado: la sentencia Torres Campos v. Munoz del Tribunal de Apelación de California
El 5 de marzo de 2026, el Tribunal de Apelación de California, Cuarto Distrito, División Primera, publicó una sentencia que constituye uno de los pronunciamientos más explícitos dictados hasta la fecha sobre las consecuencias jurídicas del uso irresponsable de herramientas de inteligencia artificial en la práctica forense. El caso, aparentemente menor —una disputa sobre la custodia de un perro tras la disolución de una unión doméstica—, se convirtió en vehículo de una declaración institucional de primer orden: citar jurisprudencia alucinada por la IA sin verificarla es una infracción sancionable, y el hecho de que el error haya circulado por el expediente sin que nadie lo advirtiera no atenúa, sino que agrava, la responsabilidad del letrado que lo reproduce y defiende.
El bucle de la cita ficticia: cómo Marriage of Twigg contaminó todo el procedimiento
Los hechos del caso revelan un patrón que los operadores jurídicos deben conocer con precisión, porque su mecánica es más compleja que la del simple descuido individual.
La demandada Munoz recibió de una amiga paralegal un artículo de Reddit en el que una bloguera —identificada únicamente como "Sassafras Patterdale", sin formación jurídica— citaba Marriage of Twigg (1984) 34 Cal.3d 926 como un caso "pionero" del Tribunal Supremo de California sobre custodia. El caso no existe. La cita real correspondiente a ese tomo y página es People v. Mozingo (1983), un asunto penal sin ninguna relación con la custodia de animales.
La abogada Bonar, representando a Munoz pro bono en calidad de prima suya, incorporó esa cita a su correspondencia, a la declaración de su cliente y, finalmente, a su escrito de oposición ante el tribunal de familia. El comisionado que conoció el asunto dictó una resolución denegando la custodia a Torres y, notablemente, recogió en el texto de la resolución las citas ficticias de Twigg y de Marriage of Teegarden (1995) 33 Cal.App.4th 1572 —también inexistente tal como se cita— como fundamento de su decisión.
Lo que convierte este caso en jurídicamente relevante es lo que ocurre a continuación. El propio letrado de Torres redactó y presentó ante el tribunal la propuesta de resolución escrita que recogía esas citas ficticias, sin verificarlas ni alertar al tribunal. Torres apeló posteriormente, alegando que la resolución se basaba en autoridades inventadas. El Tribunal de Apelación confirmó el error del tribunal de instancia pero declaró la renuncia (forfeiture) de Torres a impugnarlo, precisamente porque su propio letrado había redactado y presentado la resolución impugnada sin objetar su contenido.
El deber de verificación como núcleo del razonamiento jurídico
La cuestión jurídica central que aborda el Tribunal de Apelación no es meramente procesal. El tribunal articula con claridad un principio que tiene plena proyección en cualquier ordenamiento que opere sobre el sistema de precedentes: la discrecionalidad judicial es incompatible con la fundamentación en autoridades inexistentes.
Apoyándose en Williams v. Superior Court (2017) 3 Cal.5th 531, 540, el tribunal afirma que una resolución que descansa expresa o implícitamente en una lectura errónea del Derecho constituye necesariamente un abuso de discrecionalidad. La extensión de este principio a las citas ficticias es directa: si una resolución se apoya en el pretendido holding de un caso que no existe, la discrecionalidad no ha sido ejercida sobre la base del Derecho real, sino sobre una ficción. Ello compromete tanto la integridad del resultado como la posibilidad de una revisión apelativa significativa.
El tribunal cita expresamente Noland v. Land of the Free, L.P. (2025) 114 Cal.App.5th 426, 443, que ya había formulado la obligación de los letrados en términos inequívocos: ningún escrito, alegación, moción o documento presentado ante un tribunal debe contener citas que el abogado responsable no haya leído y verificado personalmente. Este deber, subraya el tribunal en Torres Campos, reviste especial importancia respecto de las resoluciones propuestas por las partes y sometidas a la firma del tribunal, precisamente porque el órgano jurisdiccional confía en la diligencia de los letrados para no trasladar al texto de sus resoluciones autoridades que no ha podido verificar de forma independiente.
La doctrina de la renuncia y su aplicación al caso
El tribunal resuelve que Torres ha renunciado a su motivo de apelación por una doble vía: afirmativa, al haber presentado la resolución con las citas ficticias; y omisiva, al no haber objetado su contenido cuando tuvo oportunidad de hacerlo. La doctrina de la renuncia (forfeiture) en el Derecho procesal californiano opera sobre la premisa de que las partes deben poner en conocimiento del tribunal los errores en el momento en que pueden subsanarse, y no reservarlos como motivos de impugnación. El tribunal declina ejercer su facultad discrecional de soslayar la renuncia porque hacerlo equivaldría a eximir al letrado de Torres de su propio incumplimiento del deber de verificación.
Esta decisión tiene una implicación práctica relevante: el hecho de que la cita ficticia proceda inicialmente de la parte contraria no exime al letrado que la reproduce en un documento que él mismo redacta. El deber de verificación es personal e intransferible, y no queda satisfecho por la circunstancia de que la cita figure en el expediente oficial del tribunal de instancia.
Las sanciones a Bonar: una escala de gravedad construida sobre la reincidencia
La parte más significativa de la sentencia desde el punto de vista de la responsabilidad profesional es la sección dedicada a las sanciones impuestas a Bonar.
El tribunal parte de la base ya establecida en People v. Alvarez (2025) 114 Cal.App.5th 1115 y Schlichter v. Kennedy (2025) 116 Cal.App.5th 24: citar autoridad ficticia en escritos de apelación constituye una infracción irrazonable de las reglas de procedimiento de los tribunales de California, en concreto de la obligación de fundar cada argumento en autoridad jurídica real (Cal. Rules of Court, rule 8.204(a)(1)) y de la prohibición de citar resoluciones no publicadas (rule 8.1115(a)). En Alvarez se impusieron 1.500 dólares; en Schlichter, 1.750.
El tribunal fija en 5.000 dólares la sanción a Bonar por dos razones que articulan expresamente una escala de gravedad basada en la conducta posterior al descubrimiento del error.
La primera razón es la reincidencia cualificada. Cuando Torres denunció por primera vez en su segundo escrito de reinstauración que Twigg era una cita inventada, Bonar no solo no admitió el error, sino que presentó un escrito afirmando que se trataba de "un caso legítimo del Tribunal Supremo de California, publicado en 34 Cal.3d 926, 195 Cal.Rptr. 718, 670 P.2d 340, resuelto el 5 de julio de 1984". Esas citas paralelas y esa fecha son también ficticias —ninguna de ellas aparece en el artículo de Reddit ni en la resolución del tribunal de familia— y el tribunal infiere que su origen más probable es una consulta adicional a herramientas de IA. La defensa de una cita ficticia con datos adicionales igualmente ficticios, acusando simultáneamente a la parte contraria de "incompetencia" e "investigación jurídica deficiente", es calificada por el tribunal como una conducta que va muy por delante de la negligencia inicial.
La segunda razón es la falta de transparencia. Ni en su respuesta al requerimiento del tribunal ni en su declaración ante el tribunal Bonar explicó de dónde provenían las citas paralelas ficticias. En la vista oral reconoció que "podría haber" obtenido esa información de herramientas de IA, pero no confirmó ni detalló el proceso. El tribunal considera que esta opacidad, unida a la ausencia de suscripción a un servicio de investigación jurídica de pago en el momento relevante, apunta a un uso de IA generativa sin ningún proceso de verificación posterior.
Proyección sobre el marco europeo y español
La sentencia carece de eficacia directa en el ordenamiento español o europeo, pero su valor como referencia doctrinal y como indicador de tendencia regulatoria es considerable.
Desde la perspectiva del Reglamento de Inteligencia Artificial (Reglamento (UE) 2024/1689, en adelante RIA), las herramientas de investigación jurídica basadas en modelos de lenguaje de gran escala (LLM) que generan citas de jurisprudencia presentan características que las sitúan en la categoría de sistemas que afectan a la administración de justicia. El Anexo III, apartado 8, del RIA incluye en la categoría de alto riesgo los sistemas de IA destinados a asistir a autoridades judiciales en la investigación y la interpretación de hechos y el Derecho, así como en la aplicación de la ley. La cuestión de si las herramientas de legal research asistido por IA utilizadas por abogados en sus investigaciones quedan comprendidas en este epígrafe es una de las cuestiones interpretativas abiertas que la Oficina de IA y las autoridades nacionales de supervisión deberán abordar.
Con independencia de la clasificación de riesgo, el artículo 14 del RIA establece con carácter general la obligación de supervisión humana efectiva sobre los sistemas de IA. Esta obligación no es una formalidad: exige que la persona responsable del resultado final tenga capacidad real de verificar, corregir y asumir la responsabilidad por ese resultado. La sentencia Torres Campos ilustra con precisión quirúrgica qué ocurre cuando esa supervisión no se ejerce: el error de la máquina se convierte en el error del profesional, con las consecuencias disciplinarias y procesales correspondientes.
En el ámbito de la deontología profesional española, el artículo 13 del Estatuto General de la Abogacía Española (Real Decreto 135/2021) recoge el deber de diligencia como principio rector de la actuación del abogado. La Guía de la Abogacía Española sobre uso de IA, publicada en 2024, ha subrayado que la utilización de herramientas de IA no exime al abogado de su responsabilidad por la exactitud del trabajo realizado. El precedente californiano refuerza esta posición y ofrece criterios concretos para articular la graduación de la responsabilidad: el error inicial puede ser negligente; la defensa del error sin verificación, cuando se dispone de medios para hacerlo, tiende hacia la infracción deliberada.
Implicaciones prácticas para el uso de IA en investigación jurídica
La sentencia permite extraer un protocolo mínimo de verificación que cualquier letrado que utilice herramientas de IA generativa en su investigación debería seguir:
- Verificación independiente de toda cita generada por IA en una base de datos jurídica de acceso oficial antes de incorporarla a cualquier escrito. No basta con que la cita figure en otro documento del expediente, aunque ese documento sea una resolución judicial.
- Comprobación de la correspondencia entre la cita y la ratio decidendi que se le atribuye. El caso Teegarden real existe, pero su contenido —una disputa sobre pensión compensatoria— no guarda ninguna relación con la ratio que Bonar le atribuyó.
- Documentación del proceso de verificación, especialmente cuando la herramienta de IA ha sido la fuente primaria de la investigación. Esta documentación puede ser relevante en un eventual procedimiento disciplinario.
- Corrección inmediata ante cualquier indicio de inexactitud, sin defensas de la cita errónea que no estén fundamentadas en la lectura directa de la resolución oficial.
Conclusiones y Recomendaciones Prácticas
- La sentencia Torres Campos v. Munoz establece que el uso de jurisprudencia ficticia generada por IA en escritos forenses constituye un abuso de discrecionalidad cuando el tribunal la incorpora a su resolución, y una infracción sancionable de las reglas de procedimiento cuando el letrado la mantiene sin verificación.
- El deber de verificación de las citas es personal, independiente del origen de la cita y no queda satisfecho por su presencia en el expediente oficial o en escritos de la parte contraria.
- La gravedad de la sanción se gradúa en función de la conducta posterior al descubrimiento del error: la reincidencia y la generación de datos adicionales igualmente ficticios para defender la cita original elevan la sanción de 1.500 a 5.000 dólares.
- En el contexto europeo, el RIA y la deontología profesional española ofrecen un marco normativo que conduce a conclusiones equivalentes: la supervisión humana efectiva sobre los resultados de las herramientas de IA es una obligación jurídica, no una recomendación de buenas prácticas.
- La línea jurisprudencial californiana —Noland (2025), Alvarez (2025), Shayan (2025), Schlichter (2025) y ahora Torres Campos (2026)— dibuja una tendencia sólida que es previsible observe una acogida progresiva en otros ordenamientos, incluido el español.
Artículos relacionados
TA Orléans: Primera Sentencia que Advierte sobre Alucinaciones de IA en Referencias Jurisprudenciales
Análisis jurídico de la histórica sentencia del Tribunal Administrativo de Orleans (29/12/2025) que detecta y sanciona el uso de referencias jurisprudenciales falsas generadas por IA, estableciendo un precedente sobre responsabilidad profesional en el uso de herramientas de IA generativa
Análisis Crítico del Precedente Zapata Vargas: Responsabilidad Profesional y el Desafío de las Alucinaciones de la IA
Análisis Crítico del Precedente Zapata Vargas: Responsabilidad Profesional y el Desafío de las Alucinaciones de la IA [Descargar PDF del caso](/fuentes/Zapata%...
SB 53 California: Ley de Transparencia en Inteligencia Artificial de Frontera
Análisis jurídico exhaustivo de Senate Bill 53 de California (Aprobado 29 de septiembre 2025) sobre Transparency in Frontier Artificial Intelligence Act. Obligaciones de desarrolladores, whistleblowers, riesgos catastróficos, gobernanza IA, compliance.
Claude-Native Law Firm: Transformación de la práctica legal mediante IA. Análisis de privilegio, ética y conformidad regulatoria
Análisis jurídico integral del modelo de despacho boutique con Claude presentado por Zack Shapiro. Examen crítico de implicaciones en privilegio abogado-cliente, ética profesional, RGPD, Reglamento de IA y responsabilidad profesional en jurisdicciones españolas y europeas.
