Jurisprudencia IA

IA en el Derecho: Cuando las Alucinaciones Cuestan 900 Dolares — EFD USA v. Band Pro (2026)

Sentencia Original

Accede al análisis completo en formato PDF con la sentencia del caso EFD USA v. Band Pro Film & Digital Inc., el primer precedente relevante sobre sanciones por uso indebido de IA generativa en escritos judiciales. Análisis detallado de responsabilidad profesional y ética forense.

SENTENCIA
📅 3 de marzo de 2026📝 Derecho Artificial🏷️ Jurisprudencia IA⏱️ 12 min
#inteligencia artificial derecho#alucinaciones IA escritos judiciales#responsabilidad abogados IA#etica profesional abogacia#sanciones IA tribunal#EFD USA v Band Pro

IA en el Derecho: Cuando las Alucinaciones Cuestan $900

EFD USA, Inc. v. Band Pro Film and Digital, Inc. — Analisis Juridico (Cal. App. 2026)

Tribunal: Court of Appeal, Second District of California, Division Three Numero: B329314 | Fecha: 18 de febrero de 2026 Ponente: J. Hanasono (con concurrencia de Edmon, P.J. y Adams, J.) Resultado: Recurso desestimado. Sancion de 900 USD al abogado David E. Azar. Citacion: 2026 WL 457265 (Cal. App. 2d Dist. Feb. 18, 2026) Publicacion: No publicado en informes oficiales (Cal. Rules of Court, rules 8.1105, 8.1110, 8.1115)


1. Introduccion: El Problema de las Citas Fabricadas por IA

La proliferacion de herramientas de IA generativa en la practica juridica ha generado un fenomeno con consecuencias disciplinarias y procesales crecientes: las alucinaciones legales. Los modelos de lenguaje de gran escala (LLM) pueden generar citas jurisprudenciales plausibles pero inexistentes, atribuir proposiciones falsas a casos reales o distorsionar el holding de resoluciones autenticas.

EFD USA, Inc. v. Band Pro Film & Digital, Inc. es, a febrero de 2026, uno de los precedentes mas detallados sobre la responsabilidad del abogado que delega la redaccion de escritos judiciales en sistemas de IA sin supervision adecuada. El tribunal californiano no solo impone una sancion economica, sino que construye un estandar de diligencia profesional aplicable en multiples jurisdicciones.

Este analisis examina el caso desde una perspectiva de Derecho comparado, extrayendo consecuencias para la practica juridica en Espana y en el ambito del Derecho de la Union Europea.

Nota de publicacion: La resolucion esta marcada como not officially published bajo las California Rules of Court (rules 8.1105 y 8.1110), lo que limita su valor como precedente vinculante en tribunales californianos. Sin embargo, su valor doctrinal la convierte en referencia ineludible del debate global sobre IA y etica forense.


2. Antecedentes Facticos

2.1 El litigio subyacente

EFD USA, Inc. (EFD), productora audiovisual, demando a Band Pro Film & Digital, Inc. y otras entidades por fraude, representacion negligente, incumplimiento de contrato implicito e infraccion de la Unfair Competition Law (UCL) de California, reclamando danos superiores a 2 millones USD derivados de operaciones de arrendamiento de equipos cinematograficos.

Tras un acuerdo parcial con los denominados "Bisel Defendants" por 375.000 USD, el juicio se celebro contra los "Band Defendants". El jurado otorgo a EFD 109.958,17 USD en danos. El tribunal de primera instancia, sin embargo, aplico el mecanismo de compensacion del articulo 877 del Codigo de Procedimiento Civil de California, reduciendo la condena a cero al considerar que el acuerdo con los Bisel Defendants debia imputarse integramente a la responsabilidad de los demas codemandados.

2.2 El uso de IA en la elaboracion de los escritos de apelacion

El dato juridicamente mas relevante aparece en la seccion dedicada a las citas inexactas en los escritos de apelacion (Inaccurate citations in EFD's appellate briefing).

El abogado David E. Azar encargo a un "consultor de IA" la elaboracion de un borrador del escrito de apertura (opening brief). El consultor advirtio expresamente a Azar de la necesidad de verificar las citas para detectar posibles alucinaciones. Azar encargo a un paralegal esa verificacion. Posteriormente, al constatar que el escrito superaba el limite de palabras en aproximadamente 6.000, Azar recurrio nuevamente a un sistema de IA para reducir la extension, instruyendole a "mantener todas las citas a autoridades, facticas y juridicas, salvo que sean duplicadas", sin adoptar ninguna medida de verificacion posterior.

El resultado fue un escrito con multiples citas fabricadas o gravemente distorsionadas.


3. Analisis Juridico IRAC

ISSUE — Cuestion Juridica

¿Incurre en responsabilidad disciplinaria y procesal sancionable el abogado que, habiendo delegado la redaccion de un escrito judicial en un sistema de IA generativa y habiendo sido advertido del riesgo de alucinaciones, omite verificar las citas modificadas por un segundo proceso de IA destinado a reducir la extension del escrito?


RULE — Marco Normativo Aplicable

Derecho procesal californiano:

  • California Rules of Court, rule 8.204(a)(1)(B): los argumentos deben estar apoyados en autoridades reales, no fabricadas.
  • California Rules of Court, rule 8.276: facultad del tribunal de imponer sanciones de oficio.
  • Noland v. Land of the Free, L.P. (2025) 114 Cal.App.5th 426, 445-448: estandar de diligencia en la citacion de autoridades y cuantificacion de sanciones.

Deber deontologico: el tribunal afirma que es un deber fundamental del abogado leer las autoridades juridicas antes de citarlas en cualquier escrito judicial.


APPLICATION — Aplicacion al Caso

El tribunal identifico al menos cinco citas fabricadas o gravemente distorsionadas:

Cita invocadaProposicion atribuidaRealidad acreditada
Lilienthal & Fowler v. Superior Court (1993)Criterios para distinguir "same tort" en compensaciones por acuerdo prejudicialEl caso no trata compensaciones; la cita textual no existe
Riverisland Cold Storage, Inc. v. Fresno-Madera Prod. Credit Assn. (2013)Admisibilidad de prueba extrínseca para interpretar acuerdos de mediacion con clausula arbitralEl caso no menciona acuerdos, mediacion ni arbitraje; propone la regla contraria
Leaf v. City of San Mateo (1980)Teoria objetiva de interpretacion de contratosEl caso no contiene ese lenguaje; es un litigio de perturbacion sin contrato controvertido
Rudick v. State Bd. of Optometry (2019)La falta de respuesta a un argumento implica renunciaLa cita no existe; el caso razona en sentido contrario
Milstein v. Sartain (1943)La sentencia en rebeldia admite todas las alegaciones materialesEl texto no incluye ese lenguaje

La conducta de Azar presenta el siguiente patron de negligencia acreditado:

  1. Delegacion sin protocolo de verificacion completo: encarga la redaccion a IA, realiza una primera verificacion, pero no establece reverificacion tras modificaciones automatizadas.
  2. Omision de supervision en la fase critica: el segundo proceso de IA que modifica las citas no fue sometido a ningun control de calidad.
  3. Continuacion del patron en el escrito de replica: el mismo metodo se repitio en el reply brief, produciendo nuevas citas fabricadas.
  4. Fallo en el mecanismo corrector: Azar y su co-letrado Keiter prepararon una errata y un escrito corregido, pero ninguno se aseguro de que se presentara ante el tribunal.

El tribunal distingue la conducta de Azar de la de Keiter, quien formateo el escrito de replica bajo severas restricciones de tiempo (recibio el documento tres horas antes del plazo). Aunque Keiter reconoce que los errores son "inaceptables", la responsabilidad principal recae sobre Azar como autor material de los escritos.


CONCLUSION

El tribunal impone una sancion de 900 USD a cargo de Azar, pagadera al secretario del tribunal, por vulnerar las California Rules of Court al citar autoridades fabricadas. La cuantia moderada respecto al rango habitual de 6.000-12.500 USD refleja que las deficiencias, aunque graves en naturaleza, son menos extensas que en Noland (2025), y que Azar asume la responsabilidad de forma expresa.


4. Estandar de Diligencia: Lo que el Tribunal Establece

La resolucion permite extraer un estandar implicito de diligencia profesional articulado en cuatro principios:

El deber de verificacion es personal e indelegable. El tribunal subraya que es un deber fundamental del abogado leer las autoridades juridicas que cita para determinar que sostienen las proposiciones para las que se invocan. Este deber no se satisface delegando la verificacion en un paralegal ni en otro proceso de IA.

Cada modificacion automatizada reinicia el riesgo. La IA puede introducir alucinaciones en cualquier fase del proceso de edicion, no solo en la redaccion inicial. El uso secuencial de multiples herramientas multiplica los puntos de riesgo y exige verificaciones encadenadas.

La advertencia previa del riesgo agrava la responsabilidad. El consultor de IA alerto a Azar de la necesidad de verificar citas. Azar era, por tanto, consciente del riesgo especifico. Esta circunstancia convierte la omision en negligencia cualificada frente a un riesgo conocido.

La buena fe no excluye la sancion. Azar atribuye los errores a causas inadvertidas y el tribunal acepta esta version. Sin embargo, la buena fe subjetiva no exonera cuando el estandar objetivo de diligencia no ha sido observado.

Regla practica: El abogado que usa IA generativa para redactar o editar escritos judiciales debe implementar un protocolo de verificacion de citas que se active tras cada modificacion automatizada del texto, con independencia del proposito de dicha modificacion.


5. Perspectiva Comparada: Implicaciones para Espana y la UE

5.1 Marco deontologico espanol

El Estatuto General de la Abogacia Espanola (Real Decreto 135/2021) establece en su articulo 19 el deber de diligencia del abogado. Este estandar, analogo al del reasonable attorney angloamericano, es igualmente susceptible de infringirse mediante el uso descuidado de herramientas de IA. El Consejo General de la Abogacia Espanola ha emitido orientaciones donde la verificacion de citas generadas por IA se menciona expresamente como obligacion del letrado.

5.2 Reglamento de Inteligencia Artificial (RIA) de la UE

El Reglamento (UE) 2024/1689, de aplicacion progresiva desde 2025, no clasifica los sistemas de asistencia juridica generativa como sistemas de alto riesgo conforme al Anexo III, salvo que se utilicen en contextos de administracion de justicia (art. 6.2 en relacion con el Anexo III, punto 8). Sin embargo, los sistemas GPAI como los LLM quedan sujetos al Titulo IX del RIA, con obligaciones de transparencia sobre sus capacidades y limitaciones.

La obligacion de los proveedores de GPAI de documentar las limitaciones conocidas del modelo (art. 53 RIA) —entre ellas, la tendencia a las alucinaciones— refuerza la posicion del abogado-usuario que recibe advertencias explicitas y pese a ello omite verificar los outputs.

5.3 Responsabilidad civil del abogado en Derecho espanol

En Espana, la responsabilidad civil del abogado se rige por el articulo 1101 del Codigo Civil. La jurisprudencia del Tribunal Supremo (STS 14 de julio de 2016, rec. 2.530/2014; STS 22 de octubre de 2019, rec. 3.530/2017) ha consolidado que el letrado responde por los danos derivados de su negligencia, siempre que exista relacion de causalidad entre dicha negligencia y el resultado danoso.

La presentacion de escritos con citas fabricadas podria generar responsabilidad frente al cliente si la estrategia procesal se ve comprometida, con independencia de las consecuencias disciplinarias ante el Colegio de Abogados.

5.4 Responsabilidad procesal en Espana

La Ley de Enjuiciamiento Civil prevee en su articulo 247 el principio de buena fe procesal y la posibilidad de imponer multas por actuacion temeraria o de mala fe. La presentacion de citas jurisprudenciales inexistentes podria calificarse como vulneracion de este principio, habilitando al tribunal para imponer sanciones economicas.


6. El Fondo del Asunto: Art. 877 CPC California y Compensacion por Acuerdo Prejudicial

Mas alla de la cuestion sobre IA, la resolucion resuelve un litigio sobre la aplicacion del articulo 877 del Codigo de Procedimiento Civil de California (mecanismo de compensacion por acuerdo prejudicial con codemandados solidarios). El tribunal confirma que el acuerdo con los Bisel Defendants debia compensar integramente la condena frente a los Band Defendants, y que la ausencia de asignacion expresa en el acuerdo prejudicial impedia al tribunal limitar el alcance de la compensacion.

Este razonamiento tiene interes comparado desde la perspectiva espanola de la transaccion judicial (arts. 1809 y ss. CC) y la solidaridad impropia entre codemandados, ambitos en los que la jurisprudencia espanola es igualmente exigente con la necesidad de expresar la asignacion de responsabilidades en el propio acuerdo de transaccion.


7. Protocolo Practico para Despachos: Uso de IA en Escritos Judiciales

El caso permite formular las siguientes recomendaciones operativas:

1. Segregar fases de redaccion y edicion. Tratar cada intervencion de un sistema de IA como un evento independiente que reinicia el ciclo de verificacion de citas.

2. Verificacion personal por el letrado firmante. La revision final de todas las citas jurisprudenciales debe ser personal y directa, no delegable en paralegales ni en sistemas automatizados.

3. Documentar el proceso. Mantener registro de que herramientas de IA se utilizaron, que advertencias emitieron y que controles se aplicaron. Esta documentacion puede ser relevante ante reclamaciones disciplinarias o civiles.

4. Politica escrita de despacho sobre uso de IA. Establecer protocolos que regulen el uso de IA generativa en la preparacion de escritos, con responsabilidades claras asignadas a cada letrado.

5. Fuentes primarias como base. Utilizar bases de datos verificadas (Westlaw, Aranzadi, CURIA) como fuente primaria, empleando la IA unicamente para asistencia en estructuracion o sintesis, nunca como fuente autonoma de citas.

6. Formacion continuada. El desconocimiento del fenomeno de las alucinaciones no exonera de responsabilidad; la formacion sobre las limitaciones de los LLM es hoy parte del estandar de diligencia profesional exigible.


8. Conclusiones

EFD USA, Inc. v. Band Pro Film & Digital, Inc. (Cal. App. 2026) representa un hito en la jurisprudencia sobre responsabilidad del abogado en el uso de IA generativa. Sus aportaciones doctrinales mas relevantes son:

El tribunal establece con claridad que el deber de verificar las citas juridicas es personal del abogado y no se agota con una sola comprobacion si el texto es posteriormente modificado por un sistema automatizado.

La consciencia previa del riesgo de alucinaciones agrava la calificacion de la conducta negligente y eleva el estandar de diligencia exigible.

Aunque el tribunal fija una sancion moderada (900 USD), el marco sancionador podria alcanzar 12.500 USD en casos de mayor gravedad, configurando un riesgo economico y reputacional significativo para el letrado.

La resolucion tiene valor normativo indirecto para jurisdicciones como la espanola, donde los deberes deontologicos de diligencia y el principio de buena fe procesal son igualmente aplicables y donde el Reglamento de IA de la UE nade una capa regulatoria especifica sobre el uso de sistemas GPAI.

El caso es, en definitiva, un recordatorio de que la IA generativa es una herramienta de asistencia, no un sustituto del criterio juridico y de la responsabilidad profesional del abogado.


Referencias

Jurisprudencia

  • EFD USA, Inc. v. Band Pro Film & Digital, Inc., B329314, 2026 WL 457265 (Cal. App. 2d Dist. Feb. 18, 2026).
  • Noland v. Land of the Free, L.P. (2025) 114 Cal.App.5th 426.
  • Goodman v. Lozano (2010) 47 Cal.4th 1327.
  • Knox v. County of Los Angeles (1980) 109 Cal.App.3d 825.
  • STS (Sala 1a) 14 de julio de 2016, rec. 2.530/2014.
  • STS (Sala 1a) 22 de octubre de 2019, rec. 3.530/2017.

Normativa

  • California Rules of Court, rules 8.204, 8.276.
  • Cal. Code Civ. Proc. para. 877.
  • Estatuto General de la Abogacia Espanola, Real Decreto 135/2021, art. 19.
  • Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024 (Reglamento de Inteligencia Artificial), arts. 53, 55.
  • Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil, arts. 247, 394.
  • Codigo Civil espanol, arts. 1101, 1809.

Doctrina y soft law

  • Consejo General de la Abogacia Espanola, Guia sobre el uso de la Inteligencia Artificial en la practica juridica (2024).
  • State Bar of California, Practical Guidance for the Use of Generative Artificial Intelligence in the Practice of Law (2023).
  • American Bar Association, Formal Opinion 512, Generative Artificial Intelligence Tools (2024).

Analisis elaborado con metodologia IRAC conforme a los estandares academicos de Harvard Law School. Este articulo tiene caracter informativo y no constituye asesoramiento juridico.

Artículos relacionados

Próximamente más análisis relacionados.