Firma Scarpa

Sentencia T-323 de 2024 de Colombia: Responsabilidad Judicial con IA y 12 Principios Operacionales para Jueces

Sentencia T-323 de 2024: Responsabilidad Judicial en la Era de la IA

I. Introducción: Un Punto de Inflexión en Jurisprudencia Judicial Sobre IA

El 23 de octubre de 2024, la Corte Constitucional de Colombia emitió la Sentencia T-323 tras revisar un caso en el que un juez laboral de circuito utilizó ChatGPT 3.5 para "extender los argumentos" de una decisión que afectaba derechos fundamentales de una persona diagnosticada con autismo (TEA).

Este caso es fundamental porque representa el primer pronunciamiento constitucional profundo de una corte latinoamericana sobre IA en justicia. A diferencia de la Charte francesa (que es documento administrativo de principios) y la guía de la Comisión Europea (que es soft law regulatorio), Colombia emite esta desde poder judicial supremo con efectos vinculantes.

La Corte hizo algo radical: no anuló la decisión del juez, reconociendo que la decisión fue tomada antes de usar ChatGPT. Pero sí estableció que el juez incumplió principios fundamentales de transparencia y responsabilidad, derivando en 12 principios operacionales vinculantes para toda la magistratura colombiana.

Fuente Primaria: Este análisis se basa en el ABC oficial de la Sentencia T-323 de 2024, publicado por la Corte Constitucional de Colombia.

→ Descargar ABC de la Sentencia (PDF)


II. El Caso Concreto: ChatGPT Como "Extensor" de Argumentos

Hechos

Un juez laboral resolvió un caso sobre protección de derechos fundamentales de una persona con TEA. Después de fundamentar y tomar la decisión, el juez consultó ChatGPT 3.5 para "extender los argumentos" que ya había decidido.

Lo Problemático

El juez:

  1. No fue transparente: Solo mencionó que usó ChatGPT sin explicar cómo, por qué, ni alcance
  2. Incluyó datos imprecisos: Incorporó información de IA que "no era del todo precisa"
  3. Sin contexto inicial: Las preguntas iban encaminadas a resolver el caso, sin contexto inicial para una herramienta no especializada en derecho colombiano
  4. Pero SÍ protegió privacidad: No introdujo datos personales de las partes

Lo Que Salvó la Decisión

El juez tomó la decisión ANTES de usar IA. Esto es crítico: la IA fue herramienta de extensión argumentativa post-decisión, no insumo para la decisión misma.


III. FASE 1-2: Mapa Jurídico y Matriz de Conflictos

Marco Normativo Aplicable

NormaAplicaciónRelevancia
Constitución Política 1991Derecho al debido proceso (Art. 29)Fundamento principal
RGPD (si se aplica)Art. 22 (decisiones automatizadas)Comparativo europeo
Ley 1581/2012 (Protección datos Colombia)Principios tratamiento datosProtección datos personales
Ley 1266/2008Hábeas dataDerechos información
CONPES 3975/2019Política IA nacionalSoft law nacional
Marco Ético IA Colombia 2021Recomendaciones éticasGuía soft law
Circular 002/2024 SICTratamiento datos personales en IAReciente regulación

Conflictos Normativos Identificados

Conflicto 1: Eficiencia vs. Debido Proceso

  • Tensión: IA promete velocidad (resolver casos más rápido). Pero debido proceso exige verificación exhaustiva.
  • Resolución: Corte rechaza eficiencia como justificante de cortar garantías procesales.

Conflicto 2: Innovación vs. Caución

  • Tensión: "Reconocemos actuar innovador del juez" (Corte). Pero simultáneamente le exigimos 12 cargas operacionales nuevas.
  • Resolución: Innovación permitida pero con rigor extraordinario.

Conflicto 3: Especialización vs. Disponibilidad

  • Tensión: ChatGPT 3.5 no está especializado en derecho colombiano. Pero es la herramienta disponible. ¿Usar herramienta mediocre o no usar?
  • Resolución: Corte anima desarrollo de plataforma propia especializada.

IV. La Decisión de Fondo: "Debido Proceso No Fue Vulnerado, PERO..."

Conclusión Principal

"El debido proceso no fue vulnerado y el uso de IA no comportó usurpación de función judicial, porque el sistema se utilizó DESPUÉS de fundamentada y tomada la decisión."

Pero Con Dos "Peros" Cruciales

Pero 1: Incumplimiento de Transparencia

  • La exposición del juez fue "apenas parcial"
  • El deber de transparencia no se agota con decir "usé ChatGPT"
  • Debe explicar: uso, alcance, ubicación, por qué, capacitación, funcionamiento, limitaciones, fundamentación, datos usados, necesidad e idoneidad

Pero 2: Incumplimiento de Responsabilidad

  • El juez "corrió riesgo de faltar a la veracidad" incluyendo datos de IA "no del todo precisos"
  • Las preguntas carecían de "contexto inicial" apropiado
  • ChatGPT no está especializada en derecho colombiano

Lo que Sí Pasó Bien: Privacidad

El juez protegió adecuadamente privacidad: No introdujo datos personales de las partes en ChatGPT.


V. Los Tres Garantías del Debido Proceso Amenazadas

La Corte identificó tres garantías procesales que puede violar el uso indiscriminado de IA:

1. Garantía del Juez Natural

Riesgo 1a: Sustitución por IA

  • Que una máquina reemplace la decisión humana

Riesgo 1b: Sesgos que afecten independencia

  • Que IA induzca al juez a violar su imparcialidad por sesgos de la herramienta

2. Garantía de Motivación de Decisiones

Riesgo específico: Hallucinations

  • IA produce "informaciones fictivas" que el juez no advierte
  • Estas alucinaciones pueden fundar falsamente una decisión
  • Jurisprudencia inexistente, normas inventadas, hechos ficticios

3. Garantía del Debido Proceso Probatorio

Riesgo: Decreto y evaluación de pruebas por IA

  • El decreto de pruebas debe estar en cabeza del juez natural
  • Riesgos: exclusión irregular, violación de privacidad, intimidad

VI. Las Tres Cargas Operacionales del Juez

Si un juez decide usar IA en decisión judicial, debe cumplir tres cargas de naturaleza constitucional:

Carga 1: No Sustitución de Racionalidad Humana

Regla: IA jamás puede sustituir el razonamiento lógico y humano del juez.

Alcance:

  • IA NO puede: Interpretar hechos, valorar pruebas, motivar decisión, aplicar norma a caso
  • IA SÍ puede: Gestión administrativa, búsqueda jurisprudencia, resumen textos

Incumplimiento: Decisión será inválida y habrá violación al debido proceso.

Carga 2: Transparencia

Regla: Obligación de exponer claramente uso, alcance y ubicación de resultados IA.

Se cumple cuando juez:

  1. Notifica a partes que usó IA durante proceso
  2. Expone razones por qué es competente (capacitación, estudios especializados)
  3. Precisa funcionamiento del sistema, capacidades Y limitaciones (crítico)
  4. Expone fundamentación de manera comprensible, convincente, completa y específica
  5. Da a conocer datos utilizados e ubicación en decisión
  6. Establece análisis de necesidad e idoneidad del uso

Incumplimiento del caso T-323: El juez solo mencionó que usó ChatGPT sin explicar nada de lo anterior.

Carga 3: Responsabilidad

Regla: Juez debe estar capacitado, entender riesgos, verificar información.

Específicamente:

  • Verificar que información es real (contra hallucinations)
  • Verificar que es apropiada para el asunto
  • Verificar que respeta presupuestos fácticos y jurídicos
  • Asegurar que sistema está entrenado con datos recientes, suficientes, relevantes para contexto colombiano
  • Manifestar expresamente cualquier inconsistencia en la decisión

Incumplimiento del caso: El juez incluyó datos "no del todo precisos" de IA sin verificación exhaustiva.


VII. Las Cuatro Cargas Adicionales (Implícitas en Sentencia)

Carga 4: Privacidad

No introducir datos personales o sensibles en herramientas de IA externas.

Evaluación obligatoria de riesgos antes de suministrar datos.

Restricción especial para herramientas "no expresamente autorizadas para función judicial".

El caso T-323: Juez SÍ cumplió esta carga.

Carga 5: Especialización Requerida

Juez debe considerar si herramienta está especializada en derecho colombiano.

Implicación: ChatGPT 3.5 "no garantiza información actualizada, relevante para contexto nacional, no está licenciada para justicia estatal, no está especializada en derecho colombiano".

Si usa herramienta no especializada: cargas de transparencia y responsabilidad se intensifican.

Carga 6: Verificación de Hallucinations

Debe realizar "verificación rigurosa" de fiabilidad de información que soporta motivación.

La Corte reconoce que IA puede producir:

  • Jurisprudencia inexistente
  • Normas inventadas
  • Referencias falsas
  • Sesgos no controlados ni transparentes

Carga 7: Control Humano Permanente

"Siempre se permita la realización efectiva de escrutinios" sobre actuaciones con IA.

Acceso a información y recursos para revisar intervenciones de IA.


VIII. Los 12 Principios Operacionales Vinculantes

La Corte estableció 12 principios que TODO juez debe apropiar si usa IA:

#PrincipioDefinición
1TransparenciaObligación evidenciar claramente uso, alcances, ubicación, permitiendo conocimiento pleno y contradicción
2ResponsabilidadObligación estar capacitado, comprender impactos, dar cuenta origen, idoneidad, necesidad
3PrivacidadDeber custodiar y proteger reserva datos personales y sensibles
4No sustituciónImposibilidad ética y jurídica sustituir acción y responsabilidad humana
5Seriedad y verificaciónObligación estricto escrutinio fuentes, alcances, restricciones, falencias, riesgos
6Prevención de riesgosAplicar estándares adecuados control: imprecisiones, desactualizaciones, alucinaciones, sesgos
7Igualdad y equidadErradicar discriminaciones por sesgos de IA
8Control humanoPermitir escrutinio efectivo sobre actuaciones con IA por autoridades humanas
9Regulación éticaDesarrollo estándares comportamiento individual adecuados mandatos superiores
10Buenas prácticasAplicar esquemas razonables definidos Rama Judicial
11Seguimiento continuoAdaptar a avances jurídicos, sociológicos, tecnológicos
12IdoneidadUso tecnologías debe ser adecuado para facilitar acceso a justicia

IX. Las Limitaciones de la Decisión T-323

Limitación 1: No Define "Hallucination"

La Corte menciona hallucinations (alucinaciones) pero no proporciona definición técnica clara ni protocolo de detección.

Consecuencia: Jueces pueden no identificarlas en práctica.

Limitación 2: No Prohibe Explícitamente Herramientas Externas

La Corte anima desarrollo de plataforma propia pero NO prohibe explícitamente ChatGPT o herramientas externas.

Consecuencia: Uso de ChatGPT seguirá siendo común, pero bajo principios más exigentes.

Limitación 3: Responsabilidad Recae Enteramente en Juez

El sistema de responsabilidad es judicial unilateral: Juez debe verificar, capacitarse, entender, evaluar riesgos.

Problema: ¿Qué incentivos tiene OpenAI de mejorar ChatGPT para uso judicial? Corte no lo aborda.

Limitación 4: Sin Consecuencias Claras de Incumplimiento

¿Qué pasa si juez no cumple las 12 cargas? ¿Es nulidad automática? ¿Responsabilidad disciplinaria? Sentencia no lo especifica explícitamente.


X. Matriz de Conflictos Resueltos por Corte

Conflicto: Autonomía Judicial vs. Control Externo

Tensión: La Corte impone 12 principios operacionales. Pero jueces tienen autonomía constitucional.

Resolución: La Corte lo justifica en "potencialidad de generar impacto social y jurídico significativo con efectos inter comunis" (decisiones que trascienden caso concreto).


XI. Comparativa: T-323 vs. Francia vs. EU AI Act

AspectoT-323 ColombiaCharte FranciaEU AI Act
FuenteSentencia judicialDocumento administrativoReglamento europeo
CarácterVinculanteOrientador/normativoJurídicamente vinculante
ScopeTodas decisiones con IAIA generativa específicamenteSistemas alto riesgo
Prohibición IAProhibe sustitución decisiónProhibe reemplazo juezProhibe identificación biométrica
EnfoqueResponsabilidad juezResponsabilidad juez + transparenciaResponsabilidad proveedor
HallucinationsExplícitamente abordadasExplícitamente abordadasNo específicamente
EspecializaciónExige consideraciónCriticada por falta de especializaciónNo requerida

XII. Conclusión: Un Modelo Jurisprudencial para Latinoamérica

La Sentencia T-323 representa punto de inflexión: Establece que IA puede ser herramienta judicial, pero bajo régimen de responsabilidad constitucional extraordinaria.

Para Jueces Latinoamericanos

  • IA es permitida como herramienta, prohibida como sustituta
  • 12 principios son marco mínimo de operación
  • Hallucinations y sesgos son riesgos concretos, no teóricos
  • Transparencia no es opcional, es constitucional

Para Desarrolladores de IA

  • Mercado judicial exige herramientas especializadas
  • Herramientas genéricas enfrentan resistencia regulatoria
  • Responsabilidad del usuario es clara, pero ¿dónde está la del proveedor?

Para Autoridades Judiciales

  • Capacitación obligatoria en IA es necesaria
  • Plataforma propia especializada es deseable (aunque costosa)
  • Marco regulatorio interno es urgente