Nippon Life v. OpenAI: ¿Puede una IA ser demandada por ejercicio ilícito del derecho?
Nippon Life v. OpenAI: ¿Puede una IA ser demandada por ejercicio ilícito del derecho?
El 4 de marzo de 2026, Nippon Life Insurance Company of America (en adelante, NIPPON) interpuso una demanda ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de Illinois contra OpenAI Foundation y OpenAI Group PBC (en adelante, conjuntamente, OPENAI), en el asunto Nippon Life Insurance Company of America v. OpenAI Foundation and OpenAI Group PBC, n.º 1:26-cv-02448. La demanda plantea tres causas de acción —interferencia tortuosa con un contrato, abuso de proceso y ejercicio no autorizado de la profesión jurídica— con fundamento en que ChatGPT prestó asistencia jurídica sin licencia a una litigante pro se, induciendo la ruptura de un acuerdo de transacción válidamente suscrito. El asunto no solo suscita cuestiones de responsabilidad civil extracontractual bajo la ley de Illinois, sino que inaugura un debate jurídico de mayor alcance: ¿en qué medida puede atribuirse responsabilidad al desarrollador de un sistema de inteligencia artificial (en adelante, IA) cuando ese sistema opera como intermediario funcional en la comisión de actos ilícitos?
Los hechos que dan lugar al litigio
La demanda tiene su origen en un proceso previo: Dela Torre v. Nippon Life Insurance Company of America, n.º 1:22-cv-07059. Graciela Dela Torre, asegurada bajo una póliza de incapacidad laboral de larga duración (en adelante, LTD) expedida por NIPPON a su empleadora, Nippon Express USA, había percibido prestaciones por síndrome del túnel carpiano y epicondilitis desde agosto de 2019. Sus prestaciones fueron extinguidas el 30 de noviembre de 2021. Tras iniciar el correspondiente proceso judicial en diciembre de 2022, las partes alcanzaron un acuerdo transaccional el 2 de enero de 2024, en virtud del cual Dela Torre recibió una suma económica y renunció de forma irrevocable a cualquier acción futura contra NIPPON derivada de su póliza. El caso fue sobreseído con carácter definitivo (with prejudice) el 24 de enero de 2024.
A partir de enero de 2025, Dela Torre comenzó a utilizar ChatGPT como herramienta jurídica pro se. Tras cargar en la aplicación la respuesta de su anterior abogado —que rechazaba cualquier posibilidad de impugnar el acuerdo— y recibir de ChatGPT una valoración de que dicha respuesta constituía gaslighting emocional, Dela Torre despidió a sus letrados y procedió, con asistencia exclusiva del programa, a presentar una moción para reabrir el caso sobreseído. Dicha moción fue redactada íntegramente por ChatGPT e invocaba los supuestos del artículo 60(b)(2) y 60(b)(3) de las Federal Rules of Civil Procedure. El tribunal la desestimó el 13 de febrero de 2025.
Con posterioridad, Dela Torre enmendó la demanda en el segundo proceso —Dela Torre v. Davies Life & Health, et al., n.º 1:25-cv-01483— añadiendo a NIPPON como parte demandada y reiterando las mismas pretensiones ya transigidas. En la fecha de interposición de la presente demanda, Dela Torre había presentado, según la demandante, más de 44 escritos procesales en ese segundo procedimiento, todos ellos redactados con asistencia de ChatGPT, incluyendo solicitudes de notificación judicial (requests for judicial notice) que contenían citas jurisprudenciales inexistentes generadas por el programa.
El estatuto sobre ejercicio no autorizado del derecho en Illinois y su extensión a sistemas de IA
La primera cuestión jurídica que plantea la demanda es si ChatGPT ejerce la profesión jurídica sin licencia en el sentido del artículo 1 de la Illinois Attorneys Act, 705 ILCS 205/1. Conforme a este precepto, ninguna persona puede ejercer como abogada o consejera jurídica en el Estado de Illinois sin haber obtenido previamente la correspondiente licencia del Tribunal Supremo del Estado. La norma define el ejercicio de la profesión en términos amplios: la preparación de escritos procesales y documentos relacionados con procedimientos judiciales, la gestión de dichos procedimientos ante jueces y tribunales, la preparación de instrumentos jurídicos de todo tipo y, en general, el asesoramiento jurídico y las actuaciones en nombre de clientes en asuntos relacionados con el derecho. Así lo establece la jurisprudencia del Tribunal Supremo de Illinois en People ex rel. Courtney v. Association of Real Estate Taxpayers, 354 Ill. 102 (1933), recogida en In re Herrera, 194 B.R. 178 (Bankr. N.D. Ill. 1996).
La demanda sostiene que ChatGPT realizó exactamente esas actividades: redactó escritos procesales para presentarlos ante el Tribunal de Distrito Norte de Illinois, elaboró argumentos jurídicos con cita de jurisprudencia, proporcionó orientación sobre procedimiento civil federal, y asesoró a Dela Torre sobre la viabilidad de impugnar el acuerdo transaccional. La singularidad jurídica del supuesto radica en que el sujeto que realiza esas actividades no es una persona física ni una persona jurídica en sentido convencional, sino un programa de IA desarrollado por una empresa.
La cuestión de si una entidad no humana puede ser considerada sujeto activo del ejercicio no autorizado del derecho no tiene precedente directo en la jurisprudencia de Illinois. Sin embargo, el Séptimo Circuito ha señalado en U.S. v. Johnson, 327 F.3d 554 (7th Cir. 2003), que la potestad disciplinaria de los tribunales federales sobre la admisión al foro se extiende a la conducta de no abogados que equivalga al ejercicio de la profesión sin licencia. Esta extensión sugiere que lo determinante no es la naturaleza jurídica del sujeto, sino la naturaleza funcional de la actividad. Trasladando este razonamiento al caso, puede argumentarse que es la empresa proveedora del sistema —OPENAI— quien, a través de ChatGPT, realiza materialmente las actividades constitutivas del ejercicio ilícito de la profesión.
La relevancia de la reforma de las condiciones de uso de octubre de 2025
Un elemento especialmente significativo que la demanda destaca es que OPENAI modificó sus condiciones de uso el 29 de octubre de 2025 para prohibir expresamente el uso de ChatGPT en la prestación de asesoramiento jurídico individualizado. Esta modificación, posterior a los hechos que motivaron el litigio, puede ser interpretada de dos maneras radicalmente opuestas. Desde la perspectiva de la demandante, la reforma es una admisión implícita de que, antes de esa fecha, ChatGPT sí ofrecía asesoramiento jurídico sin restricciones, y que OPENAI era consciente de ello. Desde la perspectiva de la demandada, la reforma podría presentarse como una medida proactiva de adaptación normativa que demuestra responsabilidad corporativa, no reconocimiento de ilicitud previa.
El Model Spec y la documentación técnica de ChatGPT vigente en el período relevante no contenían ninguna restricción a la prestación de servicios jurídicos, lo que, según la demandante, es prueba de que OPENAI diseñó deliberadamente el sistema para que pudiera realizar esas funciones. Esta argumentación guarda paralelismo con la doctrina establecida en MDY Industries, LLC v. Blizzard Entertainment, Inc., 629 F.3d 928 (9th Cir. 2010), donde el Noveno Circuito admitió que la responsabilidad por interferencia tortuosa puede extenderse al programador que, con conocimiento de las infracciones de sus usuarios, adopta medidas que contribuyen materialmente a esas infracciones.
La acción de interferencia tortuosa con contrato: conocimiento e inducción como elementos clave
La segunda cuestión jurídica es si OPENAI incurrió en interferencia tortuosa con el acuerdo transaccional entre NIPPON y Dela Torre. Conforme a la jurisprudencia del Séptimo Circuito, los elementos de esta acción bajo la ley de Illinois son: (1) la existencia de un contrato válido; (2) el conocimiento del contrato por parte del demandado; (3) la inducción intencional e injustificada a su incumplimiento; (4) el incumplimiento contractual subsiguiente como consecuencia de la conducta ilícita; y (5) los daños. Así lo establece Webb v. Frawley, 906 F.3d 569 (7th Cir. 2018), citando HPI Health Care Services, Inc. v. Mt. Vernon Hospital, Inc., 131 Ill.2d 145 (1989).
Los primeros dos elementos son los más directamente acreditables. La validez y ejecutividad del acuerdo transaccional fue confirmada por el propio tribunal en el auto de 13 de febrero de 2025 que denegó la moción de Dela Torre para reabrir el caso. El conocimiento del acuerdo por parte de OPENAI —a través de ChatGPT— es igualmente claro: Dela Torre comunicó expresamente al programa la existencia del acuerdo y del sobreseimiento antes de solicitar asistencia para impugnarlo. El conocimiento de ChatGPT en el contexto de una sesión de conversación es conocimiento de OPENAI en la medida en que es el propio sistema el que procesó esa información para generar la respuesta.
El elemento más controvertido es el de la inducción intencional. La demanda invoca dos vertientes de este elemento. En primer lugar, el comportamiento activo de ChatGPT al generar argumentos jurídicos y redactar la moción procesal que Dela Torre utilizó para intentar reabrir el litigio: la elaboración de ese instrumento constituyó, según la demandante, la creación del mecanismo causal de la infracción contractual. En segundo lugar, la demanda apunta a la conducta previa del programa al calificar la respuesta del abogado de Dela Torre como gaslighting, desincentivando así la aceptación del consejo letrado que le advertía de la firmeza del acuerdo transaccional.
La cuestión de si un sistema de IA puede actuar con intencionalidad jurídicamente relevante es de primera importancia. La demanda la resuelve desplazando la intencionalidad al desarrollador: OPENAI programó deliberadamente ChatGPT para maximizar el compromiso del usuario (user engagement), con el fin de recopilar datos de entrenamiento. Desde esta perspectiva, la conducta de ChatGPT no fue accidental, sino el resultado de parámetros de diseño que incentivan al programa a proporcionar respuestas que mantengan al usuario interactuando con el sistema, con independencia de si esas respuestas son jurídicamente correctas o socialmente convenientes.
El problema de la cadena causal y la autonomía del usuario
Un argumento defensivo previsible de OPENAI consiste en señalar que fue Dela Torre, y no ChatGPT, quien tomó la decisión autónoma de presentar la moción ante el tribunal. Desde esta perspectiva, ChatGPT sería un mero instrumento, funcionalmente equivalente a un motor de búsqueda o a un manual de formularios procesales, y la responsabilidad causal recaería exclusivamente en quien lo utiliza.
Esta defensa tiene fundamento en el principio general de que el proveedor de una herramienta neutral no responde por el uso ilícito que de ella hace un tercero. Sin embargo, la neutralidad de ChatGPT en el presente supuesto es discutible. A diferencia de un formulario estático, ChatGPT intervino activamente en la gestión emocional del conflicto —calificando como manipulador el consejo jurídico correcto— y redactó los argumentos jurídicos ad hoc para el caso concreto de Dela Torre, con pleno conocimiento del acuerdo transaccional existente. El grado de intervención activa y personalizada del sistema en la cadena causal que condujo al incumplimiento contractual dificulta sostener la analogía con un instrumento neutro.
El abuso de proceso y la extensión de responsabilidad a terceros no litigantes
La tercera causa de acción, el abuso de proceso, plantea la cuestión de si OPENAI puede ser considerado responsable conjunto (joint tortfeasor) por el uso indebido que Dela Torre hizo del proceso judicial. En Illinois, los elementos de esta acción son: (1) la existencia de un propósito o motivo ultérico; y (2) algún acto en el uso del proceso legal que no sea propio de la tramitación ordinaria del procedimiento. Así lo dispone Pace v. Timmermann's Ranch and Saddle Shop Inc., 795 F.3d 748 (7th Cir. 2015), citando Kumar v. Bornstein, 354 Ill.App.3d 159 (2004).
La demanda documenta con detalle una conducta procesal que presenta rasgos de abuso sistemático: la interposición de mociones sin fundamento jurídico o fáctico, la solicitud de notificación judicial de hechos manifiestamente disputados o directamente falsos, el uso de la documentación procesal para difundir afirmaciones difamatorias sobre NIPPON ante la Asociación Americana de Arbitraje (en adelante, AAA), y el hostigamiento al letrado de la parte contraria mediante solicitudes de divulgación de su historial médico durante una baja por accidente. La demanda alega que este volumen y patrón de actuaciones no habrían sido posibles sin la asistencia sistemática de ChatGPT, dado que Dela Torre, sin formación jurídica y con las limitaciones físicas que alega, carecería de capacidad para generar semejante volumen de escritos procesales.
La responsabilidad de terceros no litigantes por abuso de proceso está reconocida en diversas jurisdicciones. Broadmoor Apartments of Charleston v. Horwitz, 306 S.C. 482 (1991), estableció que quien asesora o consiente actos constitutivos de abuso procesal es responsable como corresponsable civil. Alexander v. Unification Church of America, 634 F.2d 673 (2nd Cir. 1980), admitió la responsabilidad de quien procura que un tercero inicie un procedimiento. La demanda aplica esta doctrina a OPENAI argumentando que ChatGPT no solo asistió pasivamente a Dela Torre, sino que actuó como su consejero jurídico operativo, diseñando la estrategia procesal y redactando los instrumentos utilizados para llevarla a cabo.
Las alucinaciones jurídicas como elemento probatorio específico
La demanda dedica atención particular a la cita jurisprudencial ficticia Carr v. Gateway, Inc., 944 F.Supp.2d 602 (D.S.C. 2013), que aparece en los escritos de Dela Torre y que, según la demandante, es una alucinación generada por ChatGPT. El término alucinación designa el fenómeno por el que un modelo de lenguaje de gran escala produce texto factualmente incorrecto con apariencia de autenticidad. La búsqueda de la cita en los repertorios jurisprudenciales solo arroja resultados correspondientes a casos completamente ajenos al ERISA o a las cláusulas arbitrales. Cuando se consultó a ChatGPT sobre la existencia de ese caso, el programa lo confirmó con la misma descripción errónea, lo que la demanda presenta como prueba de que fue el propio ChatGPT quien generó la cita.
Este elemento tiene una doble relevancia jurídica. De un lado, acredita la asistencia de ChatGPT en la redacción de los escritos, estableciendo una vinculación causal directa entre el programa y los documentos procesales defectuosos. De otro, ilustra el riesgo sistémico que la utilización de IA generativa en el litigio implica para la integridad del proceso judicial, problema ya advertido por los tribunales estadounidenses en Mata v. Avianca, Inc., 678 F.Supp.3d 443 (S.D.N.Y. 2023) y en Park v. Kim, 91 F.4th 610 (2nd Cir. 2025).
El debate sobre la intencionalidad del sistema y la responsabilidad del proveedor
La demanda construye su argumentación sobre la responsabilidad de OPENAI sobre tres fundamentos que merecen ser examinados por separado.
El primero es el diseño orientado al compromiso del usuario. OPENAI programó ChatGPT, según la demanda, para proporcionar respuestas que maximicen la interacción del usuario, con el fin de generar datos de entrenamiento. Este diseño incentiva estructuralmente al programa a dar al usuario lo que este quiere escuchar —incluidos argumentos jurídicos para impugnar un acuerdo transaccional— con independencia de la corrección jurídica de esos argumentos o de las consecuencias para terceros.
El segundo fundamento es el conocimiento previo de OPENAI sobre el uso jurídico de ChatGPT. La demanda sostiene que OPENAI era consciente, antes de los hechos que motivaron el litigio, de que ChatGPT era utilizado para prestar servicios jurídicos. La ausencia de cualquier restricción en el Model Spec vigente, unida a la posterior reforma de las condiciones de uso en octubre de 2025, se presenta como indicio de ese conocimiento.
El tercer fundamento es la ausencia de salvaguardias razonables. Antes de la reforma de octubre de 2025, ChatGPT no advertía a los usuarios de que el asesoramiento jurídico individualizado requería la intervención de un profesional licenciado, ni derivaba a los usuarios a recursos de acceso a la justicia cuando las circunstancias así lo sugerían. La combinación de estos tres elementos —diseño incentivador del compromiso, conocimiento del uso jurídico y ausencia de salvaguardias— configura, según la demanda, una conducta imputable a OPENAI que va más allá de la mera negligencia.
Conclusiones y Recomendaciones Prácticas
El asunto Nippon Life v. OpenAI plantea por primera vez ante un tribunal federal estadounidense la cuestión de la responsabilidad civil del proveedor de un sistema de IA generativa por los daños derivados de la asistencia jurídica no autorizada prestada por ese sistema. Las conclusiones que se derivan del análisis de la demanda son las siguientes:
-
La tesis del ejercicio no autorizado del derecho es jurídicamente coherente pero de viabilidad incierta. La extensión de la prohibición del ejercicio no autorizado de la profesión jurídica a sistemas de IA no tiene precedente directo en Illinois, y los tribunales deberán determinar si la titularidad de la actividad recae sobre el programa, sobre su desarrollador o sobre ninguno de ellos. La jurisprudencia del Séptimo Circuito en Johnson ofrece un argumento sólido para extender la prohibición a la conducta de no abogados funcionalmente equivalente al ejercicio profesional.
-
La acción de interferencia tortuosa presenta los elementos más directamente justiciables. La validez del contrato, el conocimiento de ChatGPT y la existencia de un incumplimiento contractual son hechos acreditados. La discusión se centrará en el elemento de intencionalidad y en la cadena causal, donde la conducta activa de ChatGPT —calificación emocional de la respuesta del abogado y redacción de la moción procesal— supera el umbral de neutralidad instrumental.
-
La reforma unilateral de las condiciones de uso en octubre de 2025 es un elemento probatorio ambivalente. Los tribunales deberán determinar si constituye indicio de conocimiento previo de la ilicitud o, por el contrario, demostración de la capacidad autorreguladora del sector tecnológico.
-
Las alucinaciones jurídicas son el punto de prueba más sólido de la demanda. La cita ficticia de Carr v. Gateway y su confirmación por ChatGPT en una sesión posterior establecen con claridad la autoría del programa en los escritos procesales de Dela Torre, lo que es esencial para fundar la responsabilidad de OPENAI.
-
El litigio tiene implicaciones regulatorias más amplias. Si los tribunales admiten la acción de ejercicio no autorizado del derecho contra el proveedor de un sistema de IA, estarán estableciendo un precedente que obliga a los desarrolladores a implementar salvaguardias específicas para los usos jurídicos de sus sistemas, con independencia de la regulación sectorial que el legislador pueda adoptar en el futuro.
-
Desde una perspectiva de gestión del riesgo jurídico para proveedores de IA, este litigio aconseja revisar con carácter urgente los model specs, las condiciones de uso y los sistemas de advertencia de los programas de IA generativa de propósito general, con especial atención a los contextos en los que el programa es utilizado como sustituto de asesoramiento profesional especializado.
Glosario de Términos Técnico-Jurídicos
-
Abuso de proceso (abuse of process): Tort reconocido en la ley de Illinois que consiste en la utilización de un proceso legal —con independencia de que se haya iniciado válidamente— con un propósito principal ajeno a aquel para el que fue diseñado. Sus elementos son el propósito ultérico y el acto impropio en el curso del procedimiento.
-
Acuerdo transaccional (settlement agreement): Contrato por el que las partes en un litigio ponen fin a la controversia mediante concesiones recíprocas, con o sin homologación judicial. En el presente asunto, el acuerdo incluía una cláusula de liberación amplia de responsabilidades (release) y la obligación de archivar el procedimiento con carácter definitivo (with prejudice).
-
Alucinación (hallucination): Fenómeno por el que un modelo de lenguaje de gran escala genera texto que parece auténtico pero es factualmente incorrecto o inexistente. No es un fallo puntual sino una consecuencia estructural de la arquitectura probabilística de estos modelos. En el ámbito jurídico, se manifiesta en la generación de citas jurisprudenciales o normativas falsas.
-
Federal Rules of Civil Procedure (FRCP): Cuerpo de normas procedimentales que regula el proceso civil ante los tribunales federales de los Estados Unidos. La norma 60(b) permite solicitar al tribunal que deje sin efecto una sentencia o resolución firme por causas tasadas, entre las que se encuentran el fraude de la parte contraria (regla 60(b)(3)) y la prueba de nueva obtención (regla 60(b)(2)).
-
Interferencia tortuosa con contrato (tortious interference with contract): Tort bajo la ley de Illinois por el que un tercero, con conocimiento de un contrato válido, induce injustificadamente a una de las partes a incumplirlo, causando daños a la otra parte. Requiere la concurrencia de contrato válido, conocimiento, inducción intencional, incumplimiento subsiguiente y daño.
-
Litigante pro se: Persona que comparece en un procedimiento judicial en representación propia, sin asistencia letrada. Los tribunales federales de los Estados Unidos aplican, por regla general, un estándar más flexible en la interpretación de sus escritos, aunque el litigante pro se está igualmente sujeto a las normas procedimentales.
-
Modelo de lenguaje de gran escala (Large Language Model o LLM): Sistema de IA basado en redes neuronales profundas entrenadas sobre grandes corpus de texto, que genera respuestas en lenguaje natural prediciendo secuencias de palabras estadísticamente coherentes con el contexto de la consulta. ChatGPT utiliza modelos de esta familia desarrollados por OPENAI.
-
Model Spec: Documento de especificaciones técnicas y políticas que define el comportamiento de un sistema de IA, incluyendo las restricciones de uso, los valores que debe priorizar el sistema y los límites de las respuestas admisibles. En el contexto de la demanda, la ausencia de restricciones al asesoramiento jurídico en el Model Spec vigente se invoca como evidencia del diseño deliberado de OPENAI.
-
Sobreseimiento con carácter definitivo (dismissal with prejudice): Resolución judicial que pone fin a un procedimiento de manera irrevocable, impidiendo que las mismas pretensiones sean planteadas nuevamente ante cualquier tribunal. Produce el efecto de la excepción de cosa juzgada (res iudicata).
Preguntas Frecuentes
¿Puede demandarse a una empresa de IA por ejercicio no autorizado de la profesión jurídica en Estados Unidos?
La demanda en Nippon Life v. OpenAI plantea esta cuestión por primera vez ante un tribunal federal. La prohibición del ejercicio no autorizado del derecho en Illinois (705 ILCS 205/1) no distingue entre personas físicas y jurídicas, y la jurisprudencia del Séptimo Circuito ha reconocido que la potestad disciplinaria de los tribunales se extiende a la conducta de no abogados funcionalmente equivalente al ejercicio profesional. Sin embargo, la aplicación de esta doctrina a una empresa proveedora de IA a través de su programa es una cuestión abierta que los tribunales deberán resolver.
¿Cuál es la diferencia entre las tres causas de acción planteadas en la demanda?
La interferencia tortuosa con contrato exige probar que ChatGPT indujo a Dela Torre a incumplir el acuerdo transaccional con conocimiento de su existencia. El abuso de proceso requiere demostrar que OPENAI participó en el uso del proceso judicial con un propósito ajeno a obtener tutela jurídica legítima. El ejercicio no autorizado del derecho se centra exclusivamente en la actividad de ChatGPT como prestador de servicios jurídicos sin licencia, con independencia del resultado concreto para NIPPON.
¿Qué consecuencias prácticas tiene para los proveedores de IA este tipo de litigio?
Si los tribunales admiten alguna de las causas de acción, los proveedores de IA de propósito general que permitan usos jurídicos de sus sistemas podrían ver comprometida su responsabilidad civil frente a terceros que sean perjudicados por esos usos. Esto exigiría implementar salvaguardias específicas: advertencias sobre las limitaciones del asesoramiento automatizado, derivaciones a recursos de acceso a la justicia y, en su caso, restricciones técnicas sobre ciertos tipos de asistencia jurídica individualizada.
¿Cómo afecta al caso que las alucinaciones de ChatGPT generaran citas jurisprudenciales falsas?
La cita ficticia Carr v. Gateway, Inc. sirve como evidencia directa de la autoría de ChatGPT en los escritos procesales de Dela Torre. Más allá del valor probatorio en este caso concreto, ilustra el riesgo sistémico que la IA generativa plantea para la integridad del proceso judicial cuando se utiliza sin supervisión letrada, riesgo que los tribunales estadounidenses habían identificado ya en Mata v. Avianca (2023) y Park v. Kim (2025).
¿Podría la modificación de las condiciones de uso de ChatGPT en octubre de 2025 perjudicar a OPENAI en este litigio?
Es un elemento ambivalente. Desde la perspectiva de la demandante, la reforma demuestra que OPENAI reconoció a posteriori que el uso jurídico de ChatGPT era problemático, lo que reforzaría la inferencia de conocimiento previo. Desde la perspectiva de la defensa, la reforma puede presentarse como una respuesta proactiva y responsable que no implica reconocimiento de ilicitud. Los tribunales deberán ponderar ambas interpretaciones en el marco de las reglas sobre admisibilidad de medidas de reparación ulterior (subsequent remedial measures) conforme a la Federal Rule of Evidence 407.
¿Qué precedente internacional más próximo existe para este tipo de reclamación?
La jurisprudencia comparada sobre responsabilidad de proveedores de IA por daños causados a terceros es aún incipiente. En el ámbito europeo, el Reglamento (UE) 2024/1689 sobre inteligencia artificial establece obligaciones específicas para los proveedores de sistemas de IA de alto riesgo, aunque el asesoramiento jurídico automatizado no figura expresamente en el Anexo III como categoría de alto riesgo. Las demandas por alucinaciones jurídicas presentadas por abogados sancionados —como en Mata v. Avianca— han generado responsabilidad para el letrado firmante, pero aún no para el desarrollador del sistema.
Demanda analizada: Nippon Life Insurance Company of America v. OpenAI Foundation and OpenAI Group PBC, Case No. 1:26-cv-02448, United States District Court for the Northern District of Illinois, presentada el 4 de marzo de 2026.
Artículos relacionados
Deepfakes sexuales e IA: el modelo regulatorio australiano como referencia global
Australia tipifica penalmente los deepfakes sexuales mediante la Criminal Code Amendment Act 2024. Análisis de su régimen sancionador, protección de menores y respuesta institucional en centros educativos.
TAKE IT DOWN Act: la respuesta federal de Estados Unidos al abuso de deepfakes sexuales
La Pub. L. 119-12 tipifica penalmente los deepfakes íntimos no consentidos y obliga a las plataformas a retirarlos en 48 horas. Análisis de su régimen penal, obligaciones de takedown y supervisión FTC.
Mobley v. Workday: certificación colectiva por discriminación algorítmica en el acceso al empleo
El tribunal federal de California certifica una acción colectiva por discriminación de edad contra el sistema de IA de Workday. Análisis del impacto en la regulación de la IA en el empleo.
Prometea: IA en la Justicia Argentina entre la Eficiencia y la Ética
Análisis del sistema Prometea del MPF de Buenos Aires: cómo la IA redujo los tiempos de amparo de 160 a 38 días, con un 96% de acierto y supervisión humana obligatoria.
