Jurisprudencia

Sentencia T-323 de 2024: Lo Que Pueden y No Pueden Hacer Jueces Colombianos con ChatGPT

Sentencia T-323 de 2024: Guía Operacional para Jueces

Situación: Colombia Emite Primera Sentencia Constitucional Sobre IA en Justicia

El 23 de octubre de 2024, la Corte Constitucional de Colombia emitió la Sentencia T-323, el primer pronunciamiento constitucional profundo de Latinoamérica sobre uso de IA por jueces en decisiones.

El caso: Un juez laboral usó ChatGPT 3.5 para "extender argumentos" de una decisión sobre derechos de una persona con autismo.

Lo que pasó: Corte dijo "la decisión no fue anulada (porque fue tomada ANTES de usar IA), PERO el juez incumplió transparencia y responsabilidad".


El Veredicto: "Permitido, Pero Bajo 12 Principios"

¿Puede un Juez Usar ChatGPT?

Sí, PERO:

  • ✅ Para gestión administrativa, búsqueda jurisprudencia, síntesis textos
  • ❌ NUNCA para tomar la decisión
  • ✅ Permitido DESPUÉS de fundamentar decisión
  • ❌ NO permitido ANTES o COMO BASE decisión

La Regla de Oro

"La IA es herramienta, jamás decide"

Si la decisión es tomada por IA sin juez, será inválida y habrá violación al debido proceso.


Los 12 Principios Operacionales Vinculantes

La Corte estableció 12 principios que TODO juez debe cumplir si usa IA:

1. Transparencia (CRÍTICA)

Juez DEBE explicar:

  • Que usó IA
  • Por qué la usó
  • Cómo la usó
  • Qué capacidades tiene
  • Qué limitaciones tiene
  • Qué datos introdujo
  • Dónde aparecen resultados en decisión

NO es suficiente: Decir "usé ChatGPT"

Caso T-323: El juez falló aquí. Solo mencionó que usó IA.

2. Responsabilidad

Juez DEBE:

  • Estar capacitado
  • Comprender riesgos
  • Verificar información IA
  • Asegurar que información es real, apropiad para asunto, respetuosa de hechos
  • Verificar que IA está entrenada con datos colombianos recientes

3. Privacidad

PROHIBIDO:

  • ❌ Introducir datos personales en ChatGPT
  • ❌ Introducir datos sensibles (salud, orientación sexual, etnia)
  • ❌ Usar herramientas no autorizadas para justicia

Caso T-323: El juez SÍ cumplió esto.

4. No Sustitución

PROHIBIDO:

  • ❌ Dejar que IA interprete hechos
  • ❌ Dejar que IA valore pruebas
  • ❌ Dejar que IA motive decisión
  • ❌ Dejar que IA aplique norma a caso

5-12. Principios Adicionales

  1. Seriedad y verificación - Revisar exhaustivamente fuentes y riesgos
  2. Prevención de riesgos - Identificar hallucinations, sesgos, desactualizaciones
  3. Igualdad y equidad - No permitir que sesgos de IA causen discriminación
  4. Control humano - Autoridades humanas siempre tienen última palabra
  5. Regulación ética - Aplicar estándares éticos de comportamiento
  6. Buenas prácticas - Seguir estándares de Rama Judicial
  7. Seguimiento continuo - Adaptar a cambios tecnológicos y jurídicos
  8. Idoneidad - IA debe facilitar acceso a justicia, no entorpecerlo

Las 3 Amenazas al Debido Proceso

La Corte identificó 3 garantías procesales que puede violar IA:

1. Juez Natural

Riesgo: IA sustituye al juez o lo sesga

Protección: Juez debe ser humano previamente establecido, independiente, imparcial

2. Motivación de Decisión

Riesgo: IA produce "hallucinations" (información ficticia)

  • Jurisprudencia que no existe
  • Leyes que no existen
  • Hechos inventados

Protección: Juez debe verificar exhaustivamente todo

3. Debido Proceso Probatorio

Riesgo: IA decide qué pruebas admitir/rechazar

Protección: Decreto y evaluación de pruebas es competencia EXCLUSIVA del juez


¿Qué Pasó Mal En El Caso T-323?

El juez:

❌ FALLÓ✅ CUMPLIÓ
No fue transparente sobre usoNo introdujo datos personales
No explicó por qué usaba IAUsó IA DESPUÉS de decidir
Incluyó datos de IA "no del todo precisos"Reconoció que IA no está especializada
No verificó información IANo usó IA para tomar decisión
No consideró falta de especialización en derecho colombiano-

Lo Que Corte Exige Si Usas IA

Paso 1: Fundamenta y Toma la Decisión

Resuelve el caso sin IA. Define tesis, normas aplicables, jurisprudencia.

Paso 2: (OPCIONAL) Usa IA Para Extender

Si quieres usar IA después de decidir, puedes hacerlo para:

  • Expandir argumentos
  • Buscar jurisprudencia adicional
  • Resumir textos
  • Corregir redacción

Paso 3: Verifica TODO

Antes de incluir nada de IA en decisión:

  • Verifica que cada referencia existe
  • Verifica que jurisprudencia dice lo que IA dice
  • Identifica inconsistencias explícitamente

Paso 4: Sé Transparente

En la decisión judicial, incluye:

  • Que usaste IA
  • Por qué la usaste
  • Cómo la usaste
  • Qué limitaciones tiene
  • Dónde aparecen sus resultados
  • Que verificaste todo

Paso 5: Identifica Responsable

Debe haber "una persona individualizable e identificable" a quien partes puedan dirigirse sobre IA.


Lo Que Corte PROHÍBE Explícitamente

PROHIBIDO: 5 Usos

Usar IA para interpretar hechos

  • No puedes delegar a IA la evaluación de qué pasó en caso

Usar IA para valorar pruebas

  • No puedes delegar a IA qué pruebas son relevantes

Usar IA para aplicar norma a caso

  • No puedes delegar a IA la subsunción "norma X aplica a caso Y"

Usar IA como base de decisión (SIN juez por encima)

  • Si IA es la fuente de tu decisión (aunque después la edites), es inválido

Usar herramientas externas para datos personales o sensibles

  • NO puedes verter mémorial, dossier, pericias, datos de salud en ChatGPT

¿Qué Pasa Si No Cumples?

Consecuencias Implícitas

  1. Nulidad de decisión - Juez debe haberla fundamentado bien
  2. Responsabilidad disciplinaria - Incumplimiento de deberes funcionarios
  3. Acción de tutela exitosa - Partes pueden alegar violación debido proceso
  4. Recurso extraordinario - Impugnabilidad reforzada

Nota: Sentencia no especifica explícitamente, pero la lógica es clara.


Las Preguntas Sin Respuesta de T-323

Pregunta 1: ¿Qué Es "Hallucination" Exactamente?

Sentencia no da definición técnica clara. ¿Cómo identifica juez una?

Pregunta 2: ¿ChatGPT Está Prohibido o No?

Corte no lo prohíbe explícitamente, pero impone tantas cargas que uso se vuelve impractical.

Pregunta 3: ¿Qué Responsabilidad Tiene OpenAI?

Corte dice "OpenAI advirtió a usuarios de verificar". ¿Es suficiente?

Pregunta 4: ¿Plataforma Propia Es Obligatoria?

Corte la anima, pero no la ordena. Costo sería enorme.


Comparativa: ¿Qué Pueden Hacer Jueces?

ActividadColombia T-323Francia CharteEU AI Act
Búsqueda jurisprudencia✅ (con verificación)✅ (con verificación)✅ (con verificación)
Resumen documentos✅ (verificado)✅ (verificado)✅ (verificado)
Corrección textos✅ (supervisado)✅ (supervisado)✅ (supervisado)
Análisis datos estadísticos
Tomar decisión
Interpretar hechos
Valorar pruebas

Conclusión: Un Marco Claro Pero Exigente

La Sentencia T-323 dice:

"IA es bienvenida en justicia, pero como herramienta bajo vigilancia judicial extraordinaria. No como sustituta. No como oráculo. No como automatización de decisión."

Para jueces colombianos (y latinoamericanos que adopten este marco):

  • IA está permitida, pero bajo 12 principios vinculantes
  • Transparencia es constitucional, no opcional
  • Hallucinations y sesgos son riesgos reales, no teóricos
  • Responsabilidad es personal: No puedes culpar a OpenAI
  • Especialización importa: ChatGPT no es especializada en derecho colombiano
  • Verificación es obligatoria: Cada dato de IA debe contrastarse

¿Quieres Profundizar?

El análisis completo incluye:

  • Fases 1-2: Mapa jurídico y matriz de conflictos completa
  • Fase 3: Análisis doctrinal en 12 secciones
  • Fase 4: Briefing estratégico con implicaciones
  • Fase 5-6: Auditoría anti-hallucination
  • Comparativa detallada con Francia y EU AI Act

Leer Análisis Doctrinal Completo (22 minutos)

Articulos relacionados

Artículos relacionados

Amparo Directo 6/2025: IA y Derechos de Autor en México

jurisprudencia

Análisis jurídico de la sentencia de la SCJN que rechaza la protección de obras creadas por inteligencia artificial. Estudio de las cuestiones de autoría, originalidad y dominio público bajo la LFDA.

Big Brother Watch y otros c. Reino Unido (2021): Hito Jurisprudencial en Vigilancia Masiva, Privacidad y Control Judicial - Análisis Exhaustivo IRAC

jurisprudencia

Análisis jurisprudencial integral de la sentencia de la Gran Sala del TEDH que establece estándares de control en vigilancia masiva. Examen de los 5 issues principales, jurisprudencia consolidada, implicaciones para sistemas de IA, y recepción posterior. Referencia obligatoria para regulación de vigilancia electrónica.

Kettering Adventist Healthcare v. Collier: Sanciones Monumentales por AI Hallucinations en Investigación Legal

jurisprudencia

Análisis jurídico integral de la sentencia de la Corte de Distrito del Sur de Ohio contra abogados Mary T. Scott y H. Leon Hewitt por fabricación de citas mediante IA generativa. Examen crítico de Rule 11(b), duty of candor, contempt of court y estándares de diligencia debida en la era de IA legal.

TA Orléans: Primera Sentencia que Advierte sobre Alucinaciones de IA en Referencias Jurisprudenciales

jurisprudencia

Análisis jurídico de la histórica sentencia del Tribunal Administrativo de Orleans (29/12/2025) que detecta y sanciona el uso de referencias jurisprudenciales falsas generadas por IA, estableciendo un precedente sobre responsabilidad profesional en el uso de herramientas de IA generativa