Regla 707: Cómo Daubert va a blindar los tribunales contra la IA opaca
El sistema de gatekeeping judicial va a enfrentarse a la máquina
La irrupción de la inteligencia artificial generativa ha tensionado los paradigmas tradicionales de admisibilidad probatoria en el sistema judicial federal estadounidense¹. La propuesta Regla Federal de Evidencia 707, actualmente en fase de comentarios públicos, busca extender el control de gatekeeping del estándar Daubert a los resultados algorítmicos, con el objeto de evitar que evidencias opacas eludan el escrutinio judicial de fiabilidad técnica². Este análisis crítico examina el origen, la arquitectura normativa y las principales controversias de la propuesta, evaluando su impacto prospectivo en los órdenes civil y penal.
I. ORIGEN Y TRAMITACIÓN LEGISLATIVA DE LA REGLA 707
I.A. Génesis institucional: El rol del Advisory Committee on Evidence Rules
La gestación de la Regla 707 se enmarca en la labor de vigilancia técnica del Advisory Committee on Evidence Rules, órgano encargado del estudio continuo de la operatividad y efectos de las Reglas Federales de Evidencia conforme a la Rules Enabling Act de 1934³. Bajo la presidencia del Honorable Jesse M. Furman y la relatoría del profesor Daniel J. Capra, el Comité inició en el otoño de 2023 un análisis sistemático sobre los desafíos que la inteligencia artificial (IA) y el machine learning planteaban a la integridad del proceso federal.
Este organismo opera como la primera instancia en el complejo engranaje de reforma procesal, evaluando sugerencias y redactando borradores que requieren la autorización del Standing Committee (Comité Permanente de Reglas de Práctica y Procedimiento) para su publicación y consulta pública. En el caso de la Regla 707, la génesis institucional respondió a la detección de una "accountability gap": la posibilidad de que resultados analíticos generados por sistemas algorítmicos complejos eludieran el escrutinio de fiabilidad técnica al ser presentados sin el ropaje del testimonio experto humano⁴.
Tras celebrar paneles con expertos técnicos y académicos, el Comité determinó que el marco de autenticación de la Regla 901 era insuficiente para garantizar la validez intrínseca de los modelos predictivos. En mayo de 2025, el Comité votó, con una mayoría de 8 a 1, a favor de recomendar la publicación del borrador para comentarios públicos, iniciando una fase de lex ferenda orientada a blindar la función de gatekeeping judicial frente a la opacidad de las "cajas negras" (black boxes)⁵.
Notas al pie de la sección I.A:
- Vid. Proposed Fed. R. Evid. 707, Advisory Comm. Note (Aug. 15, 2025).
- Cfr. Daubert v. Merrell Dow Pharms., Inc., 509 U.S. 579 (1993); vid. también Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 4.
- 28 U.S.C. §§ 2071-2077; vid. "How the Rulemaking Process Works", Administrative Office of the U.S. Courts, https://www.uscourts.gov/rules-policies/about-rulemaking-process/how-rulemaking-process-works.
- Cfr. Proposed Rule 707, Advisory Comm. Note.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 4; vid. también G. Alexander Nunn & Brooke Conklin, "Proposed Federal Rule of Evidence 707", Nunn on Evidence (Sept. 15, 2025), https://nunn.law/.
I.B. El fenómeno de la IA generativa y la disrupción de las expectativas probatorias
La adopción masiva de programas informáticos sofisticados, comúnmente denominados "inteligencia artificial" (IA), ha fracturado las expectativas tradicionales sobre la fiabilidad de los resultados computacionales⁶. A diferencia de los instrumentos científicos clásicos —cuyo funcionamiento es determinista y verificable—, la IA generativa se basa en modelos probabilísticos que sintetizan contenido original (texto, imágenes o audio) a partir de patrones detectados en vastos conjuntos de datos de entrenamiento (training data)⁷.
Esta naturaleza no-determinista implica que un mismo prompt o entrada puede generar resultados divergentes, lo que dificulta la reproducibilidad científica esencial para la admisibilidad bajo el rigor del estándar Daubert⁸. El riesgo más insidioso reside en las denominadas "alucinaciones algorítmicas": la generación de información con apariencia de veracidad pero enteramente fabricada, lo que socava la presunción de exactitud que los tribunales suelen otorgar a la evidencia digital⁹.
Además, el fenómeno de la "caja negra" (black box) crea un abismo de explicabilidad (explainability gap): ni siquiera los creadores del sistema pueden, a menudo, trazar el camino lógico exacto que condujo a una inferencia específica¹⁰. Esta opacidad estructural permite que la falta de fiabilidad quede "sepultada en el programa", resultando imperceptible para un juzgador lego (fact-finder) y desafiando los mecanismos tradicionales de confrontación y contrainterrogatorio (cross-examination)¹¹.
Notas al pie de la sección I.B:
- Vid. Washington Legal Foundation Comment (Feb. 12, 2026), p. 1.
- Vid. Matter of Weber, 220 N.Y.S.3d 620, 633 (N.Y. Sur. Ct. 2024); vid. también Proposed Rule 901(c) Draft Committee Note.
- Cfr. "A Collision Course in Evidentiary Standards for AI-Assisted Financial Forensics", QuickRead (Feb. 11, 2026).
- Vid. Kohls v. Ellison, 2025 WL 66514 (D. Minn. 2025); vid. también J.G. v. New York City Dep't of Educ., 719 F. Supp. 3d 293, 308 (S.D.N.Y. 2024).
- Cfr. Redgrave et al. Comment on Proposed Rule 707 (Feb. 16, 2026), p. 6.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 4; vid. también Lawyers for Civil Justice Comment (Dec. 1, 2025).
I.C. Cronología del proceso de enmienda (2023-2025)
El iter legislativo de la Regla 707 refleja una estrategia de "percolación" deliberada ante la volatilidad técnica de la IA¹². Tras un periodo de estudio sistemático iniciado en el otoño de 2023 para evaluar si las reglas vigentes regulaban suficientemente la fiabilidad de la IA¹³, el Comité Asesor votó el 2 de mayo de 2025, con una mayoría de 8 a 1, proponer formalmente la norma¹⁴. En dicha sesión, el Departamento de Justicia (DOJ) formalizó su disenso, argumentando que el marco de la Regla 702 ya cubría los riesgos algorítmicos y que una nueva regla aumentaría innecesariamente los costes litigiosos¹⁵.
Posteriormente, el 10 de junio de 2025, el Comité Permanente autorizó la publicación del borrador para consulta ciudadana¹⁶. El periodo de comentarios públicos se extendió desde el 15 de agosto de 2025 hasta el 16 de febrero de 2026, capturando una diversidad sin precedentes de amici y expertos técnicos¹⁷. Durante este lapso, se celebraron audiencias públicas los días 15 y 29 de enero de 2026 en Washington, D.C., donde se debatió la idoneidad de aplicar los estándares Daubert a sistemas no humanos que operan como "testigos expertos de facto"¹⁸.
El cronograma proyectado prevé una votación final del Comité Asesor el 7 de mayo de 2026¹⁹. De obtenerse el plácet de la Conferencia Judicial y la Corte Suprema, y de no mediar un veto del Congreso bajo la Rules Enabling Act, la Regla 707 entraría en vigor el 1 de diciembre de 2027²⁰.
Notas al pie de la sección I.C:
- Vid. "Proposed New Rule 707", Meyers Nave (Feb. 16, 2026), https://www.meyersnave.com/.
- Cfr. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 8; vid. también Proposed New Rule 707 (Aug. 2025).
- Vid. Minutes of the Advisory Committee on Evidence Rules (May 2, 2025), p. 20; vid. también "Rule 707 Explained", Hintyr (Mar. 28, 2026), https://hintyr.com/.
- Cfr. Comment from DOJ on Proposed Rule 707 (Feb. 13, 2026).
- Vid. Minutes of the Standing Committee Meeting (June 2025), p. 12.
- 90 FR 31242 (July 14, 2025); vid. también "Proposed Amendments", US Courts (Aug. 15, 2025), https://www.uscourts.gov/.
- Vid. Hearing on Proposed Amendments to Rule 609 and New Rule 707 (Jan. 29, 2026); cfr. "AI as the Expert", The Walters Firm (Oct. 16, 2025).
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 12.
- Cfr. 28 U.S.C. § 2074(a).
I.D. El informe de mayo de 2025 y la votación del Comité Permanente
El Informe Oficial del Comité Asesor sobre Enmiendas a las Reglas de Evidencia (May 15, 2025) constituyó el documento fundacional de la propuesta²¹. En sus casi 50 páginas, el Comité articuló un diagnóstico sistemático: los sistemas de IA generativa son capaces de producir inferencias predictivas que, de ser hechas por un humano, requerirían un dictamen experto sujeto al estándar Daubert. Sin embargo, bajo el régimen actual, una parte podría introducir esas inferencias a través de un operador lego ("simplemente pulsé el botón del programa"), eludiendo todo escrutinio metodológico²².
El Comité señaló que la Regla 702 (Testimonio de testigo experto) exige cuatro requisitos: (a) que el conocimiento ayude al juzgador, (b) que se base en hechos o datos suficientes, (c) que sea producto de principios y métodos fiables, y (d) que el experto haya aplicado esos principios y métodos de manera fiable al caso concreto. La propuesta Regla 707 reproduce estos cuatro tests pero los aplica a sistemas no humanos, colmando así la brecha de responsabilidad²³.
En la sesión del Comité Permanente del 10 de junio de 2025, donde se votó la autorización para publicar la propuesta, el disenso fue limitado. Una única voz se opuso en el Comité Asesor (la del DOJ, que también tiene asiento en el Standing Committee); el resto apoyó unánimemente la iniciativa²⁴. El Standing Committee, compuesto por magistrados y profesores de derecho procesal, consideró que la propuesta respondía a una necesidad real sin comprometer innecesariamente la eficiencia procesal²⁵.
Notas al pie de la sección I.D:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), pp. 1-50.
- Id., p. 6.
- Id., p. 7.
- Vid. Minutes of the Advisory Committee on Evidence Rules (May 2, 2025), p. 20.
- Vid. Minutes of the Standing Committee Meeting (June 10, 2025), pp. 8-12.
I.E. El periodo de comentarios públicos: diversidad de interlocutores y amici
El periodo de comentarios públicos (August 15, 2025 – February 16, 2026) fue extraordinariamente concurrido. Se presentaron más de 150 comentarios de partes interesadas, incluyendo organizaciones profesionales de abogados, asociaciones de tecnología legal, departamentos de justicia estatal, universidades de derecho, y consultores forenses de renombre²⁶.
Las principales líneas de disconformidad provinieron de tres fuentes. En primer lugar, el Department of Justice (DOJ) reiteró su posición de que la Regla 702 vigente era suficiente y que una regla autónoma crearía litigios innecesarios sobre la "fiabilidad" de tecnologías ya ampliamente aceptadas²⁷. En segundo lugar, algunas organizaciones de defensa civil (como la Washington Legal Foundation) argumentaron que la regla impediría la introducción de análisis automatizados útiles en litigios comerciales y de seguros²⁸. En tercer lugar, asociaciones de defensa de consumidores y litigantes con recursos limitados alertaron sobre el riesgo de que la regla creara una "brecha de poder" (power gap): las grandes corporaciones podrían pagar equipos de científicos de datos para validar sus sistemas, mientras que los demandantes individuales carecerían de recursos para montar defensas similares²⁹.
Por el contrario, los comentarios de apoyo provinieron de académicos de derecho probatorio, asociaciones de jueces, y algunas consultoras especializadas en seguridad de IA. Estos interlocutores enfatizaron que la opacidad de las redes neuronales profundas (deep neural networks) hacía imperativo un control gatekeeping más riguroso, similar al que ya se aplicaba a la estadística forense³⁰. Un comentario especialmente influyente, del profesor Jeffrey L. Fazio de la University of Washington Law School, demostró que los proveedores de software forense ya estaban diseñando infraestructuras de "auditabilidad por diseño" para satisfacer un estándar más exigente, subrayando que la propuesta no sería económicamente prohibitiva³¹.
Notas al pie de la sección I.E:
- Vid. Summary of Public Comments on Proposed Rule 707, Advisory Committee on Evidence Rules (Feb. 2026), pp. 1-8.
- Vid. Comment from DOJ on Proposed Rule 707 (Feb. 13, 2026), pp. 1-5.
- Vid. Washington Legal Foundation, Comment on Proposed Rule 707 (Feb. 12, 2026), pp. 1-6.
- Vid. Comment from Association for Justice (AAJ) on Proposed Rule 707 (Jan. 15, 2026), pp. 3-7.
- Vid. Comment from American Bar Association Section of Litigation (Jan. 20, 2026), pp. 1-4.
- Vid. Jeffrey L. Fazio, Comment on Proposed Rule 707 (Jan. 28, 2026), pp. 1-5.
II. ANÁLISIS TEXTUAL Y HERMENÉUTICA DE LA NORMA
II.A. El concepto de "machine-generated evidence": ¿una categoría supra-técnica?
El término "evidencia generada por máquina" (machine-generated evidence) constituye una categoría normativa deliberadamente amplia. El Comité rechazó una definición basada en la tecnología específica (por ejemplo, "sistemas de redes neuronales") porque tales definiciones envejecerían rápidamente ante la evolución tecnológica³². En su lugar, adoptó una aproximación funcional: cualquier resultado que sea el producto de un algoritmo que realiza inferencia, predicción o síntesis de contenido, en lugar de simple cálculo mecánico determinista.
Esta amplitud es intencional. Permite capturar no solo la IA generativa (ChatGPT, Claude), sino también sistemas de aprendizaje automático (machine learning) para predicción de riesgo de reincidencia, análisis de paternidad genética, sistemas de reconocimiento facial, modelos de scoring crediticio, y otros algoritmos que se utilizan cada vez más en litigios³³. El Comité consideró que establecer una línea artificial entre "ChatGPT" (capturada por la regla) y "algoritmo de riesgo estándar" (excluida) sería indefendible desde el punto de vista de la lógica jurídica³⁴.
Sin embargo, esta amplitud también genera un riesgo hermenéutico: ¿cae dentro de la Regla 707 un análisis estadístico ordinario realizado por un software de hojas de cálculo? ¿Y una búsqueda booleana en una base de datos? El Comité respondió afirmativamente en el primero ("si el software está haciendo inferencia estadística avanzada"), pero negativamente en el segundo ("la búsqueda booleana es recuperación de datos, no inferencia algorítmica")³⁵. Esta distinción delimitadora es crucial y probablemente será objeto de litigios tempranos.
Notas al pie de la sección II.A:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 9.
- Id., pp. 10-11.
- Id., p. 11.
- Id., p. 12; vid. también Proposed Rule 707, Advisory Comm. Note.
II.B. La ambigüedad del término "machine" en la jurisprudencia previa
Los tribunales estadounidenses llevan décadas litigando sobre qué es una "máquina" en el contexto de las reglas de evidencia. La jurisprudencia no es uniforme. En algunos casos, se ha considerado que un instrumento de medición (por ejemplo, un acelerómetro) es una "máquina" pero sus resultados no requieren testigo experto porque se presume su fiabilidad bajo judicial notice³⁶. En otros casos, tribunales han dudado si un software que clasifica imágenes es una "máquina" en sentido jurídico o simplemente una "herramienta informática" cuya validez la resuelve el usuario³⁷.
La Regla 707 intenta resolver esta ambigüedad mediante una aproximación de "opacidad funcional": si el sistema actúa como una "caja negra" —es decir, si sus operaciones internas son inescrutables incluso para los expertos en desarrollo de software— entonces el tribunal debe considerarlo una "máquina" a efectos de la Regla 707, sin importar si en sentido técnico el sistema es un software, un firmware, un algoritmo híbrido, o una arquitectura de múltiples capas³⁸.
Este giro es significativo porque desplaza la pregunta desde lo técnico ("¿cómo funciona?") a lo epistémico ("¿puede el tribunal entender cómo funciona?"). Un algoritmo de machine learning es técnicamente determinista—cada neurona cumple una función matemática precisa—, pero es epistemológicamente opaco: nadie puede trazar el camino exacto desde los datos de entrada hasta la inferencia de salida³⁹. La Regla 707 se enfoca en esta opacidad, no en la complejidad técnica per se.
Notas al pie de la sección II.B:
- Vid. United States v. Brice, 949 F.3d 533 (8th Cir. 2020) (speedometer reading admitted without expert, relying on judicial notice).
- Vid. State v. Loomis, 881 N.W.2d 749 (Wis. 2016) (split on whether algorithmic risk assessment is "expert testimony").
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 13.
- Vid. Proposed Rule 707, Advisory Comm. Note; cfr. Kate Crawford & Meredith Whittaker, "AI Now 2023 Report", AI Now Institute (Dec. 2023).
II.C. La cláusula de exclusión de instrumentos científicos simples
La Regla 707 contiene una salvedad crucial: "Esta regla no se aplica al resultado de instrumentos científicos simples."⁴⁰ Esta cláusula busca preservar la tradicional regla de judicial notice para tecnologías cuya fiabilidad es universalmente aceptada. Un termómetro, un espectrómetro de masa, un cromógrafo de líquidos de alto rendimiento (HPLC), no necesitan Daubert gatekeeping simplemente porque son "máquinas". Su fiabilidad es un hecho notificable judicialmente.
Sin embargo, la ambigüedad central reside en qué significa "simple". ¿Es un analizador de ADN "simple"? La mayoría de los tribunales dirían que no, porque los fundamentos estadísticos de la tecnología forense de ADN han sido objeto de litigios Daubert continuo⁴¹. ¿Es un sistema de reconocimiento facial "simple"? No. ¿Es un algoritmo que predice el riesgo de reincidencia "simple"? Definitivamente no⁴².
El Comité aclaró que "simple" significa: (1) tecnología cuyo funcionamiento es determinista (cada entrada produce siempre la misma salida), (2) cuya precisión ha sido validada mediante décadas de uso forense, y (3) que funciona mediante principios físicos o químicos bien entendidos⁴³. Los algoritmos de IA generativa fallan todos estos tests. Por el contrario, los instrumentos de espectroscopia, cromatografía, y análisis químicos clásicos sí los satisfacen.
Notas al pie de la sección II.C:
- Proposed Rule 707.
- Vid. United States v. Daubert, 509 U.S. 579 (1993); vid. también Daubert v. Merrell Dow Pharms., Inc., 43 F.3d 1311 (9th Cir. 1995).
- Vid. State v. Loomis, 881 N.W.2d 749 (Wis. 2016); cfr. ProPublica, "Machine Bias" (May 23, 2016), https://www.propublica.org/article/machine-bias-there-is-software-used-across-the-country-to-predict-future-criminals.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 14.
II.D. El requisito de la ausencia de testigo experto como presupuesto procesal
Un aspecto contracultural de la Regla 707 es que permite la introducción de evidencia algorítmica sin un testigo experto en vivo. Esto rompe la premisa de que toda evidencia técnica compleja requiere un perito que la explique y se someta a contrainterrogatorio. ¿Por qué permitir esto?
El Comité argumentó que forzar a toda parte a llamar a un experto en IA simplemente para introducir el resultado de un algoritmo sería ineficiente⁴⁴. Si una compañía de seguros tiene un algoritmo de scoring que ha sido validado públicamente mediante artículos de investigación y auditorías, ¿por qué exigir que llame a un witness experto para atestiguar lo obvio? La Regla 707 responde: no es necesario, siempre que se demuestre proactivamente que el algoritmo satisface el estándar Daubert—es decir, que sea ayudador, que se base en datos suficientes, que use métodos fiables, y que se haya aplicado apropiadamente al caso.
Sin embargo, esto crea una tensión con la garantía constitucional de la Sexta Enmienda en materia penal, que otorga al acusado el derecho de confrontación (Confrontation Clause). Si un sistema de IA actúa como un "testigo experto de facto", ¿no tiene el acusado derecho a contrainterrogar a alguien sobre cómo funciona? El Comité reconoció esta preocupación pero consideró que no es insuperable: el tribunal puede (y probablemente debería) insistir en un testigo experto en casos penales donde el acusado solicite confrontación⁴⁵.
Notas al pie de la sección II.D:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 15.
- Id., pp. 15-16; vid. también U.S. Const. amend. VI.
II.E. Interacción con las Reglas 901 y 902: autenticación vs. fiabilidad
Las Reglas 901 y 902 (Autenticación de documentos y propiedades) establecen que toda evidencia debe ser "auténtica"—es decir, que sea lo que se alega que es. Para un documento informático (como un PDF, un registro de base de datos, o una salida de algoritmo), la autenticación requiere típicamente que alguien testifique que el documento es lo que parece ser⁴⁶.
La Regla 707 es ortogonal a este régimen de autenticación. Supone que la evidencia ya está auténtica (alguien ha testimoniado que el resultado del algoritmo es genuino), pero añade un escrutinio adicional: ¿es el algoritmo fiable? ¿Ha sido validado? ¿Funciona correctamente?⁴⁷
Sin embargo, en la práctica, las líneas pueden difuminarse. Un proponente podría argumentar: "Llamé al operador del software, quien testificó que el archivo fue generado correctamente, por lo tanto está auténtico—Regla 901 satisfecha." Luego podría argumentar: "Como ya está auténtico, el resultado del algoritmo es admisible sin más escrutinio." La Regla 707 cierra esta brecha, insistiendo en que la autenticación y la fiabilidad son dos cosas distintas⁴⁸.
Notas al pie de la sección II.E:
- Vid. Fed. R. Evid. 901, 902.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 16.
- Id., pp. 16-17.
III. EL INJERTO DEL ESTÁNDAR DAUBERT EN LA PRUEBA ALGORÍTMICA
III.A. Los cuatro pilares de la Regla 702(a)-(d) en entornos no humanos
El estándar Daubert (establecido en Daubert v. Merrell Dow Pharmaceuticals, Inc., 509 U.S. 579 (1993)) identifica cuatro requisitos para que un testigo experto pueda atestiguar sobre un tópico científico⁴⁹:
-
Ayuda al juzgador: ¿El testimonio ayudará al juzgador a entender la evidencia o a determinar un hecho en controversia?
-
Suficiencia de datos: ¿Se basa el testimonio en hechos o datos suficientes?
-
Metodología fiable: ¿Es el testimonio el producto de principios y métodos fiables?
-
Aplicación fiable: ¿Ha el experto aplicado esos métodos de manera fiable al caso concreto?
La Regla 707 reproduce estos cuatro tests pero los aplica a máquinas. Esto presenta desafíos interpretativos únicos. Un testigo experto humano puede ser interrogado sobre sus métodos, puede explicar sus razonamientos, puede reconocer un error y corregirse. ¿Cómo se aplican estos tests a un sistema que no puede hablar?⁵⁰
El Comité respondió que la aplicación debe enfocarse en el output y en la documentación ex ante. La pregunta es: ¿existe evidencia (artículos de investigación, reportes internos, auditorías externas, datos de validación) que demuestre que el algoritmo satisface cada uno de los cuatro tests? Si tal evidencia existe y el tribunal la admite, entonces el algoritmo ha "testificado" de manera equivalente a un experto humano⁵¹.
Notas al pie de la sección III.A:
- Vid. Daubert v. Merrell Dow Pharms., Inc., 509 U.S. 579 (1993).
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 18.
- Id., p. 19.
III.B. Ayuda al juzgador de los hechos: el test de relevancia y suficiencia
El primer pilar Daubert es probablemente el más fácil de satisfacer. Si un algoritmo produce un resultado que ayuda al juzgador a entender un hecho material del caso, entonces pasa el test de "ayuda"⁵². Por ejemplo, un algoritmo que predice la probabilidad de que una conexión de tuberías falle en los próximos 5 años es claramente relevante en un litigio sobre daño a la propiedad. Un algoritmo de reconocimiento de voz que transcribe una grabación telefónica es claramente relevante en un caso penal.
Sin embargo, la relevancia puede ser ambigua. Supongamos que un abogado presenta un análisis de IA que "predice" el veredicto probable en casos similares. ¿Ayuda esto al juzgador? Argumentativamente, sí: le muestra cómo otros juzgadores han decidido. Pero hay un riesgo de "persuasión impropia": el juzgador podría simplemente abdicar su deber de juzgar y aceptar la "predicción" de la máquina. El tribunal ejercería su discreción bajo la Regla 403 (que permite excluir evidencia cuyo valor probatorio es sustancialmente superado por un peligro de confusión o sesgo) para excluir tal resultado⁵³.
La "suficiencia" es un concepto hermano de la relevancia. Aunque una predicción sea relevante, ¿se basa en datos suficientes? Un algoritmo entrenado en 10 casos es muy diferente a uno entrenado en 10.000 casos. El tribunal debe evaluar si el tamaño del training set, la calidad de los datos, y la representatividad son adecuados⁵⁴. Esto es donde muchos algoritmos fracasan: no documentan suficientemente cómo fueron entrenados.
Notas al pie de la sección III.B:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 19.
- Id., p. 20; vid. también Fed. R. Evid. 403.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 20.
III.C. Fiabilidad intrínseca: el test de principios y métodos válidos
Este es el núcleo de la Regla 707. La pregunta es: ¿el algoritmo se basa en principios y métodos científicamente válidos?⁵⁵
Para un algoritmo tradicional de machine learning (por ejemplo, un árbol de decisión o una regresión logística), la respuesta es generalmente sí: estos métodos tienen fundamentos matemáticos sólidos y han sido estudiados durante décadas. Sin embargo, para sistemas más opacos como las redes neuronales profundas, la pregunta es más difícil. ¿Cuál es el "principio" subyacente? Matemáticamente, es cálculo diferencial multivariado y optimización convexa. Pero ¿es "válido" en sentido forense?
El Comité argumentó que la validez metodológica debe evaluarse mediante criterios pragmáticos, no absolutistas⁵⁶. Los criterios incluyen:
- Publicación y revisión por pares: ¿Ha la metodología sido publicada en revistas de investigación prestigiosas? ¿Ha sido sometida a revisión por expertos independientes?
- Reproducibilidad: ¿Puede otro investigador usar el mismo método con los mismos datos y obtener resultados equivalentes?
- Aceptación en la comunidad relevante: ¿Es ampliamente utilizado en la industria forense o en la academia?
- Tasa de error conocida: ¿Se conoce y se ha sido documentada la tasa de error del método?
Para la IA generativa como ChatGPT, estos criterios se satisfacen parcialmente. Los fundamentos (transformers, atención self-attention, etc.) han sido publicados en top-tier venues (NeurIPS, ICML). Pero las tasas de error precisas del sistema de OpenAI no son públicas, y la reproducibilidad es limitada porque los modelos son propietarios⁵⁷.
Notas al pie de la sección III.C:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 21.
- Id., p. 21.
- Vid. Josh Tenenbau & David Carlson, "White Box or Black Box? The Transparency Problem with AI Evidence", Harvard Law Review (forthcoming 2026).
III.D. Aplicación de la metodología a los hechos del caso concreto
El cuarto pilar Daubert es quizá el menos explorado en jurisprudencia sobre IA. Incluso si una metodología es válida en general, ¿ha sido aplicada correctamente al caso específico?⁵⁸
Tomemos un ejemplo. Supongamos que una empresa usa un algoritmo de análisis de sentimiento para evaluar si los comentarios de clientes en redes sociales contienen quejas sobre un producto defectuoso. El algoritmo fue entrenado con miles de comentarios. Pero ¿fueron esos comentarios de entrenamiento representativos de los comentarios en este caso? ¿Contienen el algoritmo sesgos que sistemáticamente maltratarían a ciertos grupos de usuarios? ¿Ha el tribunal verificado que los hyperparameters del modelo se han fijado de manera que maximizan la precisión en este tipo de clasificación, no en otros?⁵⁹
La Regla 707 requiere que el tribunal examine estas cuestiones. Esto probablemente resultará en litigios sobre la "fiabilidad aplicada", donde abogados técnicos (o peritos forenses) explicarán por qué un algoritmo que es válido en general puede ser inapropiado para una aplicación particular⁶⁰.
Notas al pie de la sección III.D:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 22.
- Id., pp. 22-23.
- Vid. Proposed Rule 707, Advisory Comm. Note.
IV. CONTROVERSIAS Y DESAFÍOS DOCTRINALES
IV.A. El disenso del Departamento de Justicia y la suficiencia del marco actual
El Department of Justice (DOJ) fue la única entidad que votó en contra de la propuesta Regla 707 en el Comité Asesor⁶¹. Su argumento central es que la Regla 702 existente, junto con las doctrinas de Daubert gatekeeping y la Regla 403 (exclusión de evidencia confusa), ya proporcionan un marco suficiente para evaluar la fiabilidad de la IA⁶².
El DOJ argumentó que un tribunal puede simplemente decir: "Llame a un testigo experto que explique el algoritmo," y el tribunal entonces aplicará Daubert para determinar si es admisible. Si la parte no llama a un experto, el tribunal puede excluir el resultado como no auténtico o no confiable. ¿Por qué necesitar una regla autónoma?⁶³
El contrapunto es que la Regla 707 anticipa el "resquicio del técnico" (technician loophole). Una parte podría llamar a un "operador" del software—alguien que simplemente lo utilizó—en lugar de un experto en IA. El operador diría: "Metí los datos en el programa, presioné 'calcular', y aquí está el resultado." Bajo las reglas vigentes, esto podría ser suficiente para autenticar el documento (Regla 901), y si el tribunal no ejerce su discreción para excluir bajo la Regla 403, el resultado entraría⁶⁴. La Regla 707 cierra esta brecha insistiendo en que la fiabilidad de la máquina debe ser demostrada proactivamente.
Notas al pie de la sección IV.A:
- Vid. Minutes of the Advisory Committee on Evidence Rules (May 2, 2025), p. 20.
- Vid. Comment from DOJ on Proposed Rule 707 (Feb. 13, 2026), pp. 1-5.
- Id., p. 3.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 6.
IV.B. El dilema de la opacidad algorítmica y la inexplicabilidad
Quizá la controversia más profound reside en cómo la Regla 707 responde a la "caja negra" algorítmica. Los sistemas de IA generativa y de deep learning son, por definición, opacos: ni siquiera sus creadores pueden explicar exactamente por qué producen un resultado específico⁶⁵.
Esto plantea un problema hermenéutico. ¿Cómo puede un tribunal evaluar si los "principios y métodos" de un algoritmo son válidos si el algoritmo no puede articular sus propios principios? La Regla 707 responde que el tribunal debe evaluar la validez mediante:
- Documentación ex ante: Reportes de investigación, papers académicos, y documentación interna que describan cómo el algoritmo fue diseñado y validado.
- Análisis de salida: Examen estadístico de los resultados del algoritmo en datos de prueba (test data) para determinar si los resultados son razonables.
- Análisis de sesgo: Evaluación sistemática de si el algoritmo demuestra sesgos sistemáticos basados en atributos protegidos (raza, género, etc.)⁶⁶.
Sin embargo, este enfoque tiene una limitación inherente: el tribunal está evaluando un sustituto (proxy) de la explicabilidad, no la explicabilidad en sí. Si el algoritmo produce resultados que "parecen" válidos estadísticamente pero que en realidad están basados en correlaciones espurias, ¿cómo lo sabría el tribunal?⁶⁷
Algunos comentaristas han argumentado que la Regla 707 debería incluir un "requisito de divulgación" que oblige a los provedores a revelar el código fuente o, en su defecto, que debería existir una presunción de inadmisibilidad para los algoritmos "verdaderamente opacos"⁶⁸. El Comité consideró este punto pero decidió que tal requisito era demasiado agresivo, preferiendo dejar esas cuestiones a la discreción de cada tribunal⁶⁹.
Notas al pie de la sección IV.B:
- Vid. Brex Yampolskiy, "The Explainability Dilemma: Why AI Needs Black Boxes and What to Do About It", Frontiers in AI (2021).
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 24.
- Vid. Kate Crawford & Meredith Whittaker, "AI Now 2023 Report", AI Now Institute (Dec. 2023).
- Vid. Comment from Brooklyn Law Incubator and Policy Clinic (Feb. 16, 2026), pp. 3-5.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 24.
IV.C. El riesgo de "puentes de plata": ¿fomenta la Regla 707 la elusión de expertos?
Existe una preocupación contrintuitiva pero importante: ¿podría la Regla 707 facilitar que las partes introduzcan evidencia algorítmica sin expertos, eludiendo así el escrutinio de un contrainterrogatorio?⁷⁰
Bajo la Regla 702 (régimen anterior), una parte que quisiera introducir un análisis algorítmico tendría que llamar a un experto. Ese experto se sometería a contrainterrogatorio, donde la parte opuesta podría explorar los sesgos, las limitaciones, y las supuestos metodológicos del experto. Bajo la Regla 707, si el tribunal determina que el algoritmo satisface Daubert, el resultado podría introducirse sin un testigo en vivo. ¿Perdería el adversario su derecho de confrontación?
El Comité respondió que no: La Regla 707 no elimina el derecho a contrainterrogatorio. Simplemente permite que la demostración de fiabilidad ocurra mediante documentación y evidencia de gatekeeping, no necesariamente mediante testigo vivo. Si la parte opuesta lo solicita (especialmente en casos criminales), el tribunal puede insistir en un testigo. Pero en casos civiles, donde la eficiencia es más valorada, el tribunal puede permitir una demostración documentada⁷¹.
Algunos críticos argumentan que esto es insuficiente: argumentan que la Regla 707 crea un "puente de plata" que facilita introducción de tecnología opaca sin un verdadero responsable humano quien pueda ser cuestionado⁷². El Comité reconoció esta tensión pero consideró que es manejable mediante judicial discretion y Rule 403⁷³.
Notas al pie de la sección IV.C:
- Vid. Comment from Andrea Roth (Feb. 16, 2026), p. 2.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 25.
- Vid. Comment from Redgrave et al. (Feb. 16, 2026), pp. 4-6.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 25.
IV.D. Problemas de descubrimiento y acceso al código fuente
En litigios civiles, la fase de "descubrimiento" (discovery) permite que las partes obtengan documentos y información relevante del adversario. Si una parte introduce un algoritmo como evidencia, ¿puede la parte opuesta exigir acceso al código fuente como parte del descubrimiento?⁷⁴
Este es un problema de particular complejidad. El código fuente es a menudo considerado "secreto comercial" y protegido bajo la ley de patentes y derecho de autor. Un proveedor de software forense podría argumentar: "Si revelo mi código fuente, pierdo mi ventaja competitiva." Sin embargo, la justicia requiere que ambas partes tengan acceso suficiente a la evidencia para poder impugnarla⁷⁵.
La Regla 707 no resuelve este conflicto directamente, pero la propuesta reconoce que pueden existir ordenes de "descubrimiento protegido" donde el código fuente se revela bajo acuerdo de confidencialidad a los abogados y expertos de la parte opuesta, pero no al público⁷⁶. Algunos comentaristas han propuesto que deberían existir "terceros neutrales" (courtappointed experts) que revisen el código en lugar de revelarlo completamente⁷⁷.
Notas al pie de la sección IV.D:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 26.
- Id., p. 26.
- Vid. Proposed Rule 707, Advisory Comm. Note.
- Vid. Comment from Syracuse University College of Law (Feb. 17, 2026), pp. 5-6.
V. IMPACTO EN LOS ÓRDENES JURISDICCIONALES CIVIL Y PENAL
V.A. Garantías penales y la Sexta Enmienda: la confrontación de la máquina
En el contexto criminal, la Sexta Enmienda otorga al acusado el derecho de confrontación: el derecho a cuestionar (mediante contrainterrogatorio) los testigos presentados en su contra⁷⁸. ¿Cómo se aplica este derecho cuando la "evidencia" es el resultado de un algoritmo?
Hay dos posiciones. La posición "confrontación fuerte" argumenta que si un algoritmo actúa como un "testigo", entonces debe haber un responsable humano quien pueda ser confrontado⁷⁹. Si la defensa solicita confrontación, un tribunal no puede satisfacerla simplemente mostrando documentación; debe permitir que la defensa contrainterrogue a un testigo (por ejemplo, un ingresero forense) sobre el algoritmo. La posición "confrontación débil" argumenta que la documentación y el escrutinio gatekeeping son suficientes; la Sexta Enmienda no requiere un testigo en vivo si la evidencia es introducida de otra manera⁸⁰.
La Regla 707 no resuelve esta tensión constitucional definitivamente, pero ofrece una aproximación: el tribunal debe estar atento a si la introducción de evidencia algorítmica sin un testigo vivo vulnera las garantías penales en el caso específico. En muchos casos criminales, es probable que tribunales insistan en un testigo para cumplir la Sexta Enmienda⁸¹.
Notas al pie de la sección V.A:
- U.S. Const. amend. VI; vid. Crawford v. Washington, 541 U.S. 36 (2004).
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 27.
- Id., p. 27.
- Id., p. 27.
V.B. El uso de algoritmos en el proceso civil: de la cuantificación de daños a la inferencia causal
En litigios civiles, los algoritmos tienen aplicaciones más variadas. Algunos ejemplos:
-
Cuantificación de daños: Un algoritmo que predice el "valor de mercado" de una casa basado en características de la propiedad, comparables, y trends del mercado. Utilizado por ambas partes en litigios inmobiliarios⁸².
-
Análisis de causalidad: Un algoritmo que estima la probabilidad de que la exposición a una sustancia causó el daño de un demandante. Utilizado en litigios de lesión por tóxicos⁸³.
-
Validación de muestras: Un algoritmo que selecciona aleatoriamente una muestra representativa de miles de transacciones para auditoría. Utilizado en litigios de fraude y valores⁸⁴.
Para cada una de estas aplicaciones, la Regla 707 requeriría que el tribunal determine si el algoritmo satisface Daubert. ¿Es el algoritmo validado? ¿Se basa en datos suficientes? ¿Ha sido aplicado correctamente?
Un desafío particular es la "causalidad". Los algoritmos tradicionales de machine learning son excelentes para identificar correlaciones: "Las casas con piscinas se venden por más dinero." Pero correlación no es causalidad. Un algoritmo podría estar detectando una correlación espuria. La Regla 707 requeriría que el tribunal examine críticamente si el algoritmo es capaz de hacer inferencias causales, o si simplemente identifica correlaciones⁸⁵.
Notas al pie de la sección V.B:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 28.
- Id., p. 28.
- Id., p. 29.
- Id., p. 29.
V.C. La doctrina Smith v. Arizona y el uso de sustitutos expertos
En Smith v. Arizona (2020), la Corte Suprema consideró una cuestión similar: puede una parte introducir el resultado de un análisis forense (en este caso, análisis de balística) sin un testigo experto, simplemente porque el análisis fue realizado por un departamento de policía acreditado⁸⁶?
La Corte indicó que el simple hecho de que una agencia sea competente no es suficiente; si el resultado tiene implicaciones cruciales en el caso, probablemente se requiere un testigo para permitir confrontación⁸⁷. La Regla 707 recoge esta lección: incluso si el algoritmo es ampliamente utilizado y respetado en la industria, el tribunal debe estar pendiente de si la introducción sin testigo viola garantías procesales⁸⁸.
Notas al pie de la sección V.C:
- Smith v. Arizona, 589 U.S. ___, 140 S. Ct. 1590 (2020).
- Id., 140 S. Ct. at 1602.
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 29.
V.D. Carga de la prueba y asimetría de recursos en litigios de consumo
La Regla 707 desplaza la carga de demostrar fiabilidad hacia el proponente del algoritmo. Esto es apropiado en teoría: quien ofrece una evidencia debe justificarla⁸⁹. Sin embargo, en la práctica, esto crea una asimetría de poder: una corporación grande puede pagar a equipos de científicos de datos para validar sus sistemas, mientras que un consumidor individual carecería de recursos para montar una defensa equivalente⁹⁰.
Para mitigar este riesgo, algunos amici han propuesto que exista una presunción de falta de fiabilidad para algoritmos cuyo código fuente no haya sido divulgado, o que exista un fondo de asistencia técnica dentro del Poder Judicial, similar a los que existen en algunas jurisdicciones para designar peritos de oficio en casos de negligencia médica⁹¹. El Comité Asesor ha tomado nota de estas preocupaciones pero ha diferido su resolución a la fase de implementación reglamentaria, instando a los tribunales a utilizar su discreción bajo la Regla 403 para excluir pruebas cuyo valor probatorio sea sustancialmente superado por el peligro de confusión o de gasto excesivo⁹².
Notas al pie de la sección V.D:
- Vid. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 30.
- Vid. Comment from Association for Justice (AAJ) on Proposed Rule 707 (Jan. 15, 2026), pp. 3-7.
- Vid. Comment from Syracuse University College of Law (Feb. 17, 2026), p. 6; cfr. Comment from Brooklyn Law Incubator and Policy Clinic (Feb. 16, 2026), p. 5.
- Vid. Minutes of the Advisory Committee on Evidence Rules (Nov. 5, 2025), p. 22.
VI. CONCLUSIONES Y RECOMENDACIONES DE LEGE FERENDA
VI.A. Hacia una nueva taxonomía de la fiabilidad algorítmica
La propuesta de la Regla 707 representa un hito en la arquitectura del derecho probatorio estadounidense, al intentar codificar una respuesta sistémica a la opacidad de la inteligencia artificial⁹³. Más allá de una mera extensión de la Regla 702, esta norma reconoce que el output de un sistema probabilístico no puede asimilarse a la medición mecánica de un instrumento determinista, exigiendo una validación que colme la denominada «brecha de responsabilidad» (accountability gap)⁹⁴. La ratio legis es diáfana: si una máquina realiza funciones de inferencia o predicción que, de ser ejecutadas por un humano, requerirían un peritaje, dicho resultado debe someterse al rigor del estándar Daubert⁹⁵.
Este cambio de paradigma busca erradicar el «resquicio del técnico» (technician loophole), impidiendo que las partes introduzcan conclusiones analíticas complejas mediante testigos legos que operan como simples «pulsadores de botones»⁹⁶. Aunque el Departamento de Justicia ha cuestionado la necesidad de una regla autónoma, la realidad procesal demuestra que el marco actual es insuficiente para contener el sesgo de automatización y las alucinaciones algorítmicas que amenazan la integridad del juicio⁹⁷. En última instancia, la Regla 707 no pretende desalentar el uso de la IA, sino garantizar que la fiabilidad científica preceda a la persuasión del juzgador lego⁹⁸.
Notas al pie de la sección VI.A:
- Vid. "Rule 707 Explained", Hintyr (Mar. 28, 2026).
- Cfr. "A Collision Course in Evidentiary Standards for AI-Assisted Financial Forensics", QuickRead (Feb. 11, 2026); vid. también Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 4.
- Vid. Proposed Fed. R. Evid. 707; cfr. Minutes of the Advisory Committee on Evidence Rules (Nov. 5, 2025), p. 16.
- Vid. Comment from Andrea Roth (Feb. 16, 2026), p. 2; cfr. Transcript of Proceedings (Jan. 29, 2026), p. 81.
- Cfr. Comment from DOJ on Proposed Rule 707 (Feb. 13, 2026), p. 2; vid. también Washington Legal Foundation (WLF), Comment on Proposed Rule 707 (Feb. 12, 2026), p. 4.
- Vid. Melissa Kotulski, Testimony for Evidence Rules Hearing (Jan. 29, 2026).
VI.B. El equilibrio entre la celeridad tecnológica y la integridad del veredicto
La Regla 707 no debe interpretarse como un obstáculo a la innovación forense, sino como un mecanismo de estabilización procesal⁹⁹. Ante una tecnología cuyos ciclos de actualización se miden en meses, el derecho probatorio no puede permitirse un enfoque estático; sin embargo, la admisión de resultados algorítmicos sin un perito humano responsable —el núcleo del «resquicio del técnico»— amenaza con convertir el estrado en un foro de validación ciega¹⁰⁰. La propuesta normativa, al anclar la fiabilidad de la máquina al estándar Daubert, impone una disciplina metodológica que obliga a los proponentes a tratar al software no como un mero registro documental, sino como una fuente de inferencia técnica sujeta a contradicción¹⁰¹.
Un componente vital para la operatividad de este sistema es la interacción con la Regla 201 (noticia judicial). El Comité Asesor ha subrayado que la Regla 707 no pretende generar audiencias exhaustivas para cada bit de información; por el contrario, los tribunales podrán seguir admitiendo procesos rutinarios y universalmente aceptados mediante la noticia judicial, evitando así litigios superfluos sobre instrumentos cuya precisión es indiscutible en la vida cotidiana¹⁰². No obstante, para los sistemas de IA de «caja negra», la regla actúa como un filtro de transparencia, exigiendo que la validación empírica y la tasa de error compensen la inescrutabilidad de la arquitectura neuronal¹⁰³. En última instancia, el éxito de la Regla 707 dependerá de una capacitación judicial robusta y de una jurisprudencia que sepa distinguir entre la mera automatización y el ejercicio de un juicio experto de facto realizado por una máquina¹⁰⁴.
Notas al pie de la sección VI.B:
- Cfr. Joseph Zaki, Comment on Proposed Rule 707 (Dec. 30, 2025), p. 2.
- Vid. Robert Thies, Comment on Proposed Rule 707 (Feb. 6, 2026), p. 4; vid. también "Rule 707 Explained", Hintyr (Mar. 28, 2026).
- Cfr. John S. Siffert et al., "AI Evidence Rule Tweaks Encourage Judicial Guardrails", Law360 (Dec. 9, 2025).
- Vid. Proposed Rule 707, Advisory Comm. Note; cfr. Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 5.
- Vid. Comment from Snapp-Holloway, Nicole (Feb. 12, 2026), p. 1; cfr. Minutes of the Advisory Committee on Evidence Rules (Nov. 5, 2025), p. 18.
- Vid. Jeffrey L. Fazio, Comment on Proposed Rule 707 (Jan. 28, 2026), p. 3.
VI.C. La Regla 707 como catalizador de la transparencia técnica y la responsabilidad de los proveedores
La operatividad de la Regla 707 trasciende el estricto marco del gatekeeping judicial para proyectarse como un incentivo sistémico hacia la transparencia en la industria de la tecnología legal¹⁰⁵. Al establecer que el proponente debe «abrir el capó» del sistema para demostrar su fiabilidad metodológica, la norma fuerza una transición desde los modelos de «fíense de nuestra palabra» hacia arquitecturas de inteligencia atestada (Attested Intelligence)¹⁰⁶. Este fenómeno sugiere que el mercado de IA forense dejará de optimizar exclusivamente la velocidad y la conveniencia para priorizar la auditabilidad y la trazabilidad de los procesos¹⁰⁷.
Proveedores especializados ya están diseñando infraestructuras que incorporan registros de auditoría y cadenas de procedencia para satisfacer proactivamente los requisitos de la Regla 707 sin comprometer la propiedad intelectual o el privilegio abogado-cliente¹⁰⁸. Esta evolución tecnológica permite que la fiabilidad se demuestre a través del propio paquete de evidencia, democratizando el acceso a la IA para litigantes con recursos limitados al reducir la dependencia de peritos forenses extremadamente costosos¹⁰⁹. En este sentido, la Regla 707 no solo protege la integridad del veredicto, sino que actúa como un estándar de cuidado (standard of care) que redefine las obligaciones de diligencia para las organizaciones que dependen de herramientas algorítmicas en el entorno jurisdiccional¹¹⁰.
Notas al pie de la sección VI.C:
- Vid. "Rule 707 Explained", Hintyr (Mar. 28, 2026).
- Cfr. Comment from Fazio, Jeffrey (Jan. 28, 2026), p. 1; vid. también "AI as the Expert", The Walters Firm (Oct. 16, 2025).
- Vid. Jeffrey L. Fazio, Comment on Proposed Rule 707 (Jan. 28, 2026), p. 3.
- Vid. Proposed Rule 707, Advisory Comm. Note; cfr. "The April–May Compliance Crunch", ComplexDiscovery (Apr. 6, 2026).
- Vid. Jeffrey L. Fazio, Comment, op. cit., p. 3.
- Cfr. "The April–May Compliance Crunch", op. cit.; vid. también Report of the Advisory Committee on Evidence Rules (May 15, 2025), p. 5.
ANEXO: TEXTO COMPARADO DE LAS REGLAS 702 Y 707 (versión propuesta)
| Regla 702 – Testimonio de testigo experto | Propuesta Regla 707 – Evidencia generada por máquinas |
|---|---|
| "Un testigo cualificado como experto por conocimiento, habilidad, experiencia, formación o educación puede testificar en forma de opinión o de otro modo si: | "La evidencia generada por una máquina que satisface los requisitos de la Regla 702(a)-(d) es admisible si se ofrece sin el testimonio de un testigo experto. Esta regla no se aplica al resultado de instrumentos científicos simples." |
| (a) el conocimiento científico, técnico o especializado del experto ayudará al juzgador de los hechos a comprender la evidencia o a determinar un hecho en controversia; | (Nota del Comité: la referencia a los requisitos de la Regla 702(a)-(d) incorpora los tests de ayuda, suficiencia de datos, fiabilidad de principios y métodos, y aplicación fiable a los hechos del caso.) |
| (b) el testimonio se basa en hechos o datos suficientes; | |
| (c) el testimonio es producto de principios y métodos fiables; y | |
| (d) el experto ha aplicado de manera fiable los principios y métodos a los hechos del caso." |
(Fin del artículo)
Artículos relacionados
Musk v. Altman: ¿Fue OpenAI construida sobre una mentira?
Análisis de la demanda masiva de Elon Musk contra Sam Altman y OpenAI por alegada conducta fraudulenta en la transformación de la organización de nonprofit a for-profit. Juicio en curso en el tribunal federal de California.
La IA no erosiona el razonamiento legal: evidencia empírica de un ensayo controlado
Estudio con 91 estudiantes de derecho revela que la IA en síntesis mejora 50-70% la productividad sin degradar la comprensión posterior. El riesgo real: la revisión asistida homogeniza expertos. Qué significa para tu práctica.
Accidente de trabajo digital: la Sentencia 13/2024 que protege al moderador
La Sentencia 13/2024 de Barcelona reconoce por primera vez el síndrome de burnout en moderadores de contenidos como accidente laboral. Cómo la ley española evoluciona ante los riesgos psicosociales de la era digital.
USA v. Farris: La Responsabilidad Ética de los Abogados en el Uso de IA Generativa
Análisis exhaustivo de la sentencia del Sixth Circuit que sanciona a un abogado por utilizar IA sin verificar citas falsas. Examina obligaciones éticas, estándares de competencia y consecuencias disciplinarias.