Prometea: IA en la Justicia Argentina entre la Eficiencia y la Ética
Prometea: cuando la IA entra en la Fiscalía y la justicia no colapsa
Hay un dato que, la primera vez que lo escuchas, parece exagerado. En la Fiscalía General Adjunta en lo Contencioso Administrativo de la Ciudad de Buenos Aires, el 66% del trabajo consistía en elaborar dictámenes de amparos habitacionales que seguían siempre el mismo patrón. Los fiscales —juristas formados para analizar casos complejos— habían terminado convertidos, en la práctica, en operarios de una cadena de montaje de "copiar y pegar". Un dictamen de amparo podía tardar entre 160 y 190 días.
Prometea nació para acabar con eso. Y lo consiguió.
Un sistema que no adivina, sino que deduce
Lo más interesante de Prometea no son sus cifras de eficiencia —que son notables— sino la decisión de diseño que está detrás. En un momento en que el debate sobre IA en la justicia giraba en torno al peligro de los algoritmos opacos, el equipo del IALAB de la Universidad de Buenos Aires apostó deliberadamente por lo contrario: una "caja blanca".
Esto significa que cuando el sistema propone una solución jurídica, el fiscal puede ver exactamente qué documentos y precedentes del Tribunal Superior de Justicia han fundamentado esa propuesta. No hay magia negra. La inferencia es estadística —correlación de palabras clave en más de 300.000 documentos— pero es trazable, auditable, explicable. Si un fiscal quiere cuestionar la recomendación, tiene todo el material delante.
Es, en esencia, lo que cualquier jurista experimentado hace cuando analiza precedentes. Solo que en menos de 20 segundos en lugar de horas.
Los números que cambiaron la conversación
Cuando en 2018 el Tribunal Superior de Justicia de CABA convalidó el 100% de las recomendaciones elevadas mediante dictámenes asistidos por Prometea, el debate sobre si la IA podía tener un lugar en la justicia tomó otro cariz. La tasa de acierto del sistema había escalado del 75% inicial al 96%. Los amparos habitacionales, que antes tardaban 160 días, pasaban ahora en un rango de 38 a 45 días. Un pliego de contrataciones que consumía 90 minutos se resolvía en uno.
La Fiscalía pasó de tramitar 130 expedientes mensuales a procesar 490.
Pero hay un impacto que las estadísticas capturan mal: el efecto sobre el capital humano. Los mismos funcionarios que antes dedicaban sus jornadas a tareas sin valor cognitivo empezaron a trabajar en casos de alta complejidad. Se crearon equipos especializados en violencia de género. La automatización no quitó trabajo; reorganizó qué tipo de trabajo hacía cada persona.
La pregunta que nadie puede evitar
¿Estamos delegando el juicio o simplemente acelerando el trámite?
Es la pregunta correcta, y el informe completo la aborda con honestidad. Prometea funciona extraordinariamente bien en procesos rutinarios con precedentes claros y reiterados. En los casos de "textura abierta" —esos en los que la norma no da una respuesta unívoca, o en los que el contexto humano es determinante— el juicio del fiscal sigue siendo irreemplazable. Y no solo porque la ley lo exija, sino porque la máquina, por diseño, carece de la capacidad de percibir ese contexto.
El principio de Human in the Loop no es aquí una concesión retórica. Es la diferencia entre un sistema de apoyo y uno de sustitución. La firma del fiscal no es un trámite; es el acto de voluntad que dota de legalidad al dictamen.
Hay otro riesgo que merece atención: el sesgo de automatización. Con el tiempo y la fatiga acumulada, la tendencia a aprobar lo que dice la pantalla sin lectura crítica real es un problema documentado en contextos de alta carga de trabajo. Prometea lo sabe y lo señala. La supervisión humana tiene que ser genuina, no un "clic" reflejo.
Más allá de Buenos Aires
El modelo se ha exportado. La Corte Constitucional de Colombia adoptó una lógica similar con el sistema Pretoria, que redujo el tiempo de selección de casos urgentes de salud de 96 días a 2 minutos. En Perú, el proyecto Tucuy Ricuy aplicó esta metodología para combatir la violencia contra las mujeres. La Corte Interamericana de Derechos Humanos ha suscrito convenios para incorporarla en su gestión.
Desde 2024, el IALAB ha comenzado a integrar modelos de IA generativa para predecir fallos en demandas salariales, reduciendo la redacción de borradores de una hora a diez minutos. El salto hacia los LLM abre capacidades nuevas, pero también complica la transparencia. El desafío de mantener la trazabilidad cuando el modelo subyacente es una red neuronal de cientos de miles de millones de parámetros es, francamente, un problema abierto.
Lo que viene en el informe completo
Este artículo es solo la superficie. El informe recorre en detalle la arquitectura técnica de tres capas de Prometea, la secuencia de gobernanza de datos previa a la implementación (sin la cual, según los propios responsables, el proyecto habría fracasado), el análisis del Proyecto de Ley argentino de 2026 sobre IA y su sistema de clasificación de riesgos, y las implicaciones para la protección de datos en entornos judiciales que trabajan con información sensible.
También incluye un glosario técnico y un apartado de preguntas frecuentes que resulta útil para quienes se acercan al tema desde el derecho sin formación tecnológica previa.
Si trabajas en el ámbito judicial, en transformación digital del sector público, o simplemente te interesa entender cómo la IA puede integrarse en instituciones jurídicas sin sacrificar las garantías procesales, el informe está disponible para descarga directa.
Descargar el informe completo: Prometea — Eficiencia Operativa y Gobernanza Ética (PDF)
Conclusiones
- Prometea demuestra que eficiencia y garantías procesales no son objetivos contradictorios, siempre que el diseño sea honesto sobre los límites del sistema.
- La "caja blanca" no es solo una elección técnica; es una condición de legitimidad para cualquier IA que aspire a entrar en un despacho judicial.
- El éxito del modelo argentino no residió en el algoritmo, sino en la reingeniería institucional previa: gobernar el dato antes de automatizar el proceso.
- El Human in the Loop exige supervisión crítica real, no validación automática. La fatiga y el sesgo de automatización son riesgos tan reales como los del propio algoritmo.
- La expansión hacia IA generativa abre un nuevo capítulo, con capacidades mayores y opacidad potencialmente mayor. El debate sobre trazabilidad y explicabilidad tendrá que replantearse desde el principio.
Artículos relacionados
Deepfakes sexuales e IA: el modelo regulatorio australiano como referencia global
Australia tipifica penalmente los deepfakes sexuales mediante la Criminal Code Amendment Act 2024. Análisis de su régimen sancionador, protección de menores y respuesta institucional en centros educativos.
TAKE IT DOWN Act: la respuesta federal de Estados Unidos al abuso de deepfakes sexuales
La Pub. L. 119-12 tipifica penalmente los deepfakes íntimos no consentidos y obliga a las plataformas a retirarlos en 48 horas. Análisis de su régimen penal, obligaciones de takedown y supervisión FTC.
Mobley v. Workday: certificación colectiva por discriminación algorítmica en el acceso al empleo
El tribunal federal de California certifica una acción colectiva por discriminación de edad contra el sistema de IA de Workday. Análisis del impacto en la regulación de la IA en el empleo.
Nippon Life v. OpenAI: ¿Puede una IA ser demandada por ejercicio ilícito del derecho?
Análisis jurídico de la demanda Nippon Life v. OpenAI (N.D. Ill. 2026): interferencia contractual, abuso procesal y ejercicio no autorizado del derecho por ChatGPT bajo la ley de Illinois.
