IA Global

Justicia Algorítmica en México: La IA que Eligió Jueces en 2025 y los Riesgos que Nadie Vio Venir

El 1 de junio de 2025, México llevó a cabo la elección extraordinaria de juzgadores más ambiciosa del país. Por primera vez, una contienda judicial de envergadura histórica se digitalizó casi en su totalidad. Los perfiles de miles de candidatos, sus currículos, sus posturas en temas de derechos humanos: todo en línea. Una hazaña de transparencia moderna. Pero aquí es donde el análisis se complica.

El 83.1% de la población mexicana usa internet. Una cifra que suena prometedora, que hablaba bien del futuro digital del país. Excepto que esa cifra oculta una grieta profunda: la brecha entre zonas urbanas y rurales, entre personas con alfabetización digital y quienes jamás han navegado un formulario electrónico. En la elección de juzgadores de 2025, esa brecha se convirtió en una barrera de exclusión de facto. Comunidades indígenas, personas de edad avanzada, habitantes de zonas rurales sin conectividad: para ellos, el sistema judicial simplemente se volvió más abstracto, más lejano, más impenetrable.

Y todo esto sucedió bajo el auspicio de la innovación tecnológica.

Cuando la eficiencia elimina el acceso

Lo que la elección de 2025 expuso no es un fallo técnico. Es una contradicción constitucional más profunda: que México implementara justicia digital en el sentido más agresivo del término —sin red de contención, sin alternativas analógicas robustas, sin auditoría pública previa— mientras millones de ciudadanos carecían de las herramientas básicas para participar.

La Ley General de Transparencia y la Ley de Protección de Datos fueron reformadas apenas meses antes del proceso electoral, de tal forma que debilitaron precisamente los mecanismos de control que la inteligencia artificial en la judicatura requiere. Las evaluaciones de impacto en privacidad dejaron de ser vinculantes. La obligación de generar información sobre sistemas automatizados se volvió meramente explicativa: si el Estado no tiene datos sobre su IA, simplemente explica por qué no los tiene. No es un detalle técnico. Es el equivalente digital a una puerta cerrada que nadie fiscaliza.

El dilema de la IA como herramienta "neutra"

Aquí viene lo incómodo. Los algoritmos no son neutrales. Reproducen, amplifican y, si no se diseñan con cuidado, automatizan la discriminación que ya existe en el sistema. Un modelo de IA entrenado con decisiones judiciales históricas aprende no solo jurisprudencia: aprende también los sesgos, los estereotipos, los patrones de desigualdad que jueces humanos han cometido durante décadas. Si una víctima de violencia de género tarda semanas en denunciar —algo documentado científicamente como patrón común de trauma— un algoritmo entrenado bajo el prejuicio de que la "tardanza menoscaba credibilidad" reportará automáticamente bajos niveles de confiabilidad en su testimonio. La discriminación, ahora, es matemática. Y mucho más difícil de impugnar.

Lo que resulta llamativo es que mientras México avanza hacia la automatización de decisiones judiciales, países como Canadá e Italia han adoptado la postura opuesta: precaución digital. Canadá emitió lineamientos que exigen supervisión humana obligatoria. Italia legisló específicamente sobre IA antes de permitir su entrada en los tribunales. La Unión Europea clasificó los sistemas judiciales de "alto riesgo" y estableció que cualquier algoritmo que influya en decisiones de libertad o patrimonio debe ser auditable, explicable y trazable. No es paranoia regulatoria. Es el reconocimiento de que cuando la IA toma decisiones sobre tu libertad, tu dinero o tu acceso a la justicia, no basta con que funcione: debe ser comprendida.

La pregunta que el sistema mexicano evita

¿Quién es responsable cuando un algoritmo genera una injusticia? El código que escribió el programador, que forma parte del secreto industrial de la empresa vendedora. O el juez que decidió usarlo, pero que no entiende completamente cómo funciona. O el Estado que lo contrató, pero que reformó sus propias leyes de transparencia para no tener que rendir cuentas de él.

La sentencia de la queja civil 212/2025 fue un punto de quiebre. Por primera vez, un tribunal mexicano incluyó explícitamente el prompt (la instrucción que le dieron a la IA) y la tabla con los cálculos que el sistema realizó. Permitió que los abogados, que los revisores, que cualquiera leyera exactamente qué le preguntó el juez a la máquina y qué respondió. Transparencia radical. Pero fue un caso sobre garantías procesales, no sobre una sentencia de fondo. Cuando la IA deba decidir sobre custodia de menores, reparación de daño moral, o si una prueba es suficiente para condenar a alguien por violencia sexual, ¿seguiremos incluyendo el prompt? ¿O diremos que el código es secreto comercial?

Lo que viene en el informe completo

El análisis integral que encontrarás en el documento detalla cómo funciona el "ciclo de vida algorítmico" completo: desde la concepción de un sistema (¿por qué se decide automatizar esto?) hasta su suspensión (¿cuándo se detiene si causa daño?). Examina las dimensiones regulatoria, social, cultural y tecnológica de la madurez del sistema judicial mexicano para recibir IA.

Incluye estudios de caso sobre cómo la IA detecta sesgos de género en sentencias (una herramienta de liberación), pero también cómo puede replicarlos si se entrena mal (una amenaza). Analiza la experiencia de Estonia con su "juez robot" para pequeñas reclamaciones, y por qué ese modelo no es trasladable a México. Y proporciona, finalmente, recomendaciones concretas de reforma: qué leyes deben cambiar, cómo debe estructurarse la gobernanza algorítmica, y por qué la transparencia no es un lujo sino una obligación constitucional.

Descarga el análisis completo para acceder al diagnóstico de madurez (RAM) según los estándares de la UNESCO, los lineamientos éticos de la Barra Mexicana de Abogados, y las propuestas de lege ferenda que el sistema judicial mexicano debe considerar ahora.

Conclusiones para actuar

  • La justicia digital no puede ser sinónimo de exclusión digital. Antes de automatizar, hay que garantizar acceso universal.
  • Los algoritmos judiciales deben ser auditables, explicables y sujetos a supervisión humana constante. El secreto comercial no puede prevalecer sobre el derecho fundamental al acceso a la justicia.
  • México necesita un plan nacional de IA para la judicatura, no una implementación por goteo de herramientas piloto sin coordinación.
  • La transparencia algorítmica debe ser obligatoria, vinculante y verificable por órganos independientes antes, durante y después del despliegue de cualquier sistema.
  • La IA no sustituye el razonamiento judicial ético. Debe complementarlo, bajo vigilancia humana que garantice que la tecnología sirva a la justicia, no al revés.