Inteligencia Artificial como Prueba Técnica en Procesos Judiciales: El Rechazo del Tribunal Superior de Cali a ChatGPT como Medio de Convicción
Inteligencia Artificial como Prueba Técnica en Procesos Judicales: El Rechazo Fundado del Tribunal Superior de Cali a ChatGPT
Referencia: Tribunal Superior, Distrito Judicial de Cali, Sala Civil de Decisión. Sentencia de 17 de marzo de 2026. Radicado 76-001-31-03-008-2023-00322-01 | Magistrado Ponente: Homero Mora Insuasty
El 17 de marzo de 2026, el Tribunal Superior de Cali profirió una sentencia de gran trascendencia jurídica que examina, con rigor técnico y constitucional, la admisibilidad de herramientas de inteligencia artificial generativa como medios de prueba en procesos civiles. La decisión, que confirma el rechazo de una solicitud para que ChatGPT Pro compareciera en audiencia como "prueba técnica basada en inteligencia artificial", trasciende el caso particular de responsabilidad civil médica y establece un marco analítico robusto sobre los límites del debido proceso probatorio frente a las nuevas tecnologías.
Este análisis examina los fundamentos constitucionales, procesales y técnicos de la sentencia, sus implicaciones para el derecho probatorio en la era de la IA generativa, y las líneas de frontera que establece para futuras solicitudes de incorporación de sistemas de inteligencia artificial en la administración de justicia.
El Caso: Contexto Procesal y Solicitud Cuestionada
El litigio de origen es un proceso de responsabilidad civil médica en el cual los demandantes buscaban acreditar mala praxis e impericia médica en la atención brindada a un menor que falleció el 23 de julio de 2017. En su escrito demandatorio, los actores solicitaron un medio probatorio inusitado: la "comparecencia en audiencia del Modelo de Lenguaje Avanzado basado en Inteligencia Artificial ChatGPT Pro", con el propósito de que tanto el juez como las partes pudieran "hacerle preguntas al modelo sobre los dictámenes, la historia clínica y demás hechos relevantes del proceso".
La propuesta incluía que una empresa de análisis forense, Tecnovask S.A.S., proporcionaría su cuenta de OpenAI y el soporte técnico necesario para la realización de la diligencia. El carácter abierto y conversacional de la solicitud —sin cuestionario previo, sin delimitación de objeto probatorio, sin análisis técnico previo— constituiría, en la valoración del tribunal, el primer indicio de su procedimentalmente insostenibilidad.
Cuando el Juzgado Octavo Civil del Circuito denegó la solicitud el 10 de diciembre de 2025, el demandante interpuso recurso de reposición y subsidiario de apelación, argumentando que no existía razón para "excluir" una prueba válidamente solicitada cuando el juez, en ejercicio de su sana crítica, podría determinar si le servía o no para ilustrar su criterio. Añadió que la inteligencia artificial constituía una tecnología en pleno desarrollo que estaba revolucionando múltiples ámbitos y que, según su tesis, incluso había permitido evidenciar inconsistencias o falsedades.
El Tribunal Superior debería determinar, entonces, si esa petición probatoria encontraba acogida en los principios constitucionales y procedimentales que rigen la actividad probatoria en el ordenamiento colombiano.
El Fundamento Constitucional: El Debido Proceso Probatorio Como Garantía Fundamental
La sentencia no comienza su análisis en la tecnicidad procesal, sino en el corazón constitucional del derecho probatorio. Invoca el artículo 29 de la Constitución Política de Colombia, que consagra el derecho fundamental a la prueba como uno de los elementos más trascendentales del debido proceso, desarrollado por la jurisprudencia de la Corte Constitucional a través del concepto de "debido proceso probatorio".
El tribunal recita, con precisión, la formulación de la Sentencia C-163 de 2019 de la Corte Constitucional, que define el debido proceso probatorio como "las garantías mínimas probatorias que deben ser observadas en toda actuación judicial o administrativa, sin las cuales inexorablemente se arremete contra el derecho de defensa y contradicción, el debido proceso y acceso a la administración de justicia". Estas garantías no son ornamentales ni disponibles a voluntad de las partes: constituyen un conjunto de posiciones jurídicas esenciales que protegen la integridad del proceso.
El carácter fundamental de estas garantías marca el tono de toda la argumentación posterior. No se trata simplemente de que la IA no sea un medio de prueba "útil" en el sentido de que el juez pueda desecharla; se trata de que su admisión sin salvaguardas podría vulnerar garantías constitucionales inderogables. El tribunal establece, así, un piso inexpugnable: ninguna tecnología, por sofisticada que sea, puede eludir los estándares mínimos de transparencia, contradicción y control que integran el debido proceso probatorio.
Libertad Probatoria y Ritualidad de Orden Público: Un Equilibrio Constitucional
El artículo 165 del Código General del Proceso colombiano consagra el principio de libertad probatoria: además de los medios tradicionamente reconocidos (declaración de parte, testimonio, dictamen pericial, inspección, documentos, indicios, informes), podrán emplearse "cualesquiera otros medios que sean útiles para la formación del convencimiento del juez". De aquí se sigue que el ordenamiento procesal no establece un catálogo cerrado de medios probatorios, abriendo la puerta, prima facie, a formas innovadoras de obtención o procesamiento de información derivadas de desarrollos científicos y tecnológicos contemporáneos.
Sin embargo —y aquí reside el nudo gordiano del análisis—, el tribunal establece con claridad que la libertad probatoria no es absoluta ni irrestricta. El "modo de pedir, decretar y practicar las pruebas exige per se la satisfacción de determinadas exigencias consagradas en la norma procesal, que constituyen una ordenación legal, una ritualidad de orden público; es decir, son reglas de derecho estricto y de obligatorio cumplimiento, no sólo por las partes sino también por el juez".
Esta arquitectura es crucial: la libertad probatoria opera dentro de los límites de la ritualidad procesal de orden público. El juez no es un árbitro pasivo que debe aceptar cualquier medio probatorio propuesto bajo la premisa de que "ya decidirá si le es útil". Por el contrario, el juez debe actuar como director del proceso, garantizando que se respeten los principios generales de contradicción y publicidad de la prueba, así como las exigencias procedimentales específicas para cada tipo de medio de convicción.
El tribunal invoca aquí la jurisprudencia consolidada de la Corte Constitucional (Sentencia T-504 de 1998), que precisa que "el juez como director del proceso, debe garantizar, en aras del derecho de defensa de las partes, los principios generales de la contradicción y publicidad de la prueba, y en este sentido, debe sujetarse a las exigencias consagradas en el procedimiento para cada una de las pruebas que se pidan".
De allí se sigue una conclusión que el tribunal formula con precisión: aunque el ordenamiento permita innovación en medios probatorios, esa innovación debe someterse al escrutinio de las garantías mínimas que el debido proceso probatorio exige. La libertad probatoria no es una rendija por la cual cualquier tecnología pueda colarse sin control; es un espacio regulado por principios constitucionales de rango superior.
El Desafío Tecnológico Contemporáneo: Replanteamiento del Derecho Probatorio
El tribunal reconoce, sin ambigüedad, que "los avances tecnológicos han influido de manera significativa en la evolución del proceso judicial" y que el "vertiginoso desarrollo de las herramientas asociadas a la denominada inteligencia artificial" obliga a "replantear o, al menos, a revisar algunos de los postulados tradicionales del derecho probatorio, tales como la pertinencia de las pruebas, la carga y disponibilidad de la prueba, la contradicción y el control judicial de la actividad probatoria".
Este reconocimiento es importante porque refuta una crítica frecuente: que los tribunales rechacen la IA por puro conservadurismo o ignorancia tecnológica. El tribunal no niega que la IA puede tener utilidad en tareas de apoyo vinculadas al quehacer jurídico. Lo que sostiene es que esa utilidad no es irrestricta y su empleo debe ser acrítico. Se trata de un equilibrio sofisticado: apertura a la innovación, pero sometida a verificación rigurosa.
La Jurisprudencia Colombiana Previa: Criterios para el Uso de IA en el Ámbito Judicial
El tribunal realiza una mención especialmente valiosa a pronunciamientos recientes de la Corte Suprema de Justicia de Colombia y la Corte Constitucional que han sentado criterios orientadores para el uso de inteligencia artificial en contextos judiciales:
Auto AC739-2026 de la Corte Suprema de Justicia: Un abogado había incorporado en un recurso extraordinario de revisión citas normativas y jurisprudenciales apócrifas atribuidas al uso de herramientas de IA. La Corte precisó que "la Inteligencia Artificial generativa puede constituir un auxiliar valioso si se la emplea con criterio profesional y se someten sus resultados a una verificación rigurosa". Esta formulación es equilibrada: no rechaza la IA, pero la subordina a dos condiciones insoslayables: (i) criterio profesional en su empleo, y (ii) verificación rigurosa de resultados.
Sentencia T-323 de 2024 de la Corte Constitucional: Estableció una serie de criterios orientadores para el uso de IA en el ámbito judicial, entre los cuales destaca el tribunal: transparencia en su utilización, responsabilidad, verificación de la información generada, prevención de riesgos, igualdad y equidad, privacidad, control humano efectivo, y —crucialmente— la no sustitución de la racionalidad humana en la adopción de decisiones judicales.
Acuerdo PCSJA24-1224 del Consejo Superior de la Judicatura: Reconoce el potencial de estas tecnologías como apoyo a ciertas tareas en la administración de justicia, pero advierte sobre los riesgos: errores, sesgos, imprecisiones o "alucinaciones" tecnológicas. Recalca que su empleo no puede sustituir las funciones propias del juez en la valoración de los hechos, el análisis de las pruebas, la interpretación del derecho ni la adopción de decisiones judicales, las cuales permanecen bajo responsabilidad exclusiva del funcionario judicial.
El tribunal integra esta jurisprudencia previa en su marco analítico, evitando así la acusación de improvisación o desconocimiento. Establece, sobre cimientos ya construidos por órganos jurisdiccionales superiores, que aunque la IA pueda tener un papel en el proceso, ese papel es necesariamente subordinado, verificable y transparente.
Las Dificultades Jurídicas y Técnicas: Un Catálogo Exhaustivo de Riesgos
La sentencia dedica una sección especialmente importante a enumerar, con rigor técnico y jurídico, las problemáticas que plantea la incorporación de sistemas de inteligencia artificial generativa como medios de prueba. No se trata de una enumeración peyorativa, sino de un análisis cartográfico de los desafíos que enfrentan no solo Colombia, sino cualquier sistema jurídico que enfrente esta cuestión. El tribunal identifica once categorías de riesgos:
(i) Afectación de derechos fundamentales: El riesgo de vulneración de garantías del debido proceso probatorio, en especial el derecho de contradicción, así como la seguridad y protección de la intimidad y los datos personales (habeas data). Estos derechos podrían quedar expuestos o accesibles a terceros cuando se utilizan plataformas comerciales como OpenAI.
(ii) Sustitución de la racionalidad humana: La prohibición de sustituir la racionalidad humana tanto en el ejercicio de la función jurisdiccional como en la producción y conformación de la prueba, así como el riesgo de pérdida de control humano efectivo sobre el proceso. Este riesgo es especialmente grave porque erosiona la responsabilidad judicial.
(iii) Influencia indebida en el convencimiento judicial: El riesgo de que sistemas de IA influyan indebidamente en la formación del convencimiento judicial o en la adopción de decisiones, sin las garantías de transparencia, supervisión humana y control requeridas.
(iv) Alteración de reglas procedimentales: La alteración de las reglas tradicionales de producción, obtención y selección de la prueba, en la medida en que el uso de herramientas de IA puede desplazar hacia sistemas algorítmicos actividades propiamente procesales cuya dirección y control corresponden a las partes y al juez. Este desplazamiento constituiría una cesión inadmisible de poder procesal.
(v) Opacidad algorítmica: La opacidad que caracteriza el funcionamiento de estos sistemas, dificultando comprender las razones o procesos que conducen a un determinado resultado. Es lo que la literatura especializada denomina el problema de la "caja negra" (black box problem).
(vi) Trazabilidad y verificabilidad: Las dificultades para establecer la trazabilidad y verificabilidad de las fuentes de información utilizadas por el sistema. Un modelo entrenado con millones de textos no puede atribuir sus afirmaciones a fuentes específicas de manera transparente.
(vii) Ausencia de responsabilidad identificable: La ausencia de un autor identificable que asuma responsabilidad directa por el contenido generado. En un proceso judicial, ¿quién responde por un análisis deficiente o tendencioso generado por un sistema de IA?
(viii) Sesgos sistémicos: La presencia de sesgos en los modelos de inteligencia artificial, los cuales pueden producir distorsiones en la información generada o reproducir patrones discriminatorios. Los modelos de lenguaje no son espacios "neutrales": reflejan y amplifican los sesgos del corpus de entrenamiento.
(ix) Alucinaciones tecnológicas: El fenómeno de las denominadas "alucinaciones", consistente en la generación de información carente de respaldo fáctico o jurídico, pero "presentada con apariencia de autoridad". Este es quizá el riesgo más grave en un contexto procesal: una afirmación falsa pero lingüísticamente coherente y confiable en apariencia.
(x) Chat-chamber effect: La tendencia del sistema a devolver al usuario respuestas que reflejan o refuerzan sus propias expectativas o hipótesis. Un abogado que utilice ChatGPT para "analizar" su teoría del caso recibirá respuestas que tiendan a validarla, retroalimentando sesgos confirmatorios.
(xi) Fiabilidad imposible de verificar: Los problemas de fiabilidad de la información generada, derivados de la imposibilidad sistémica de verificar la correspondencia entre los datos producidos por estos modelos de lenguaje y la realidad. Los modelos de lenguaje no pueden distinguir entre afirmaciones correctas o incorrectas; generan probabilidades lingüísticas.
Este catálogo, lejos de ser meramente ilustrativo, estructura el fundamento técnico de la inadmisibilidad. No es que ChatGPT sea malo en abstracto; es que su arquitectura fundamental genera riesgos que son incompatibles con las garantías que el debido proceso probatorio exige.
La Insuficiencia Conceptual: ChatGPT No Es Una "Prueba Técnica"
El tribunal examina luego la pretensión de los demandantes de catalogar su solicitud como una "prueba técnica". Aquí realiza un análisis de subsunción normativa de especial importancia.
En primer lugar, constata que la solicitud es abiertamente genérica, indeterminada y abstracta: no contiene especificación alguna sobre cuál es el objeto de la prueba, qué hechos pretende acreditar, qué aspectos específicos de los dictámenes o de la historia clínica pretende analizar, ni aporta un análisis técnico previamente elaborado. Se pretende, dice el tribunal, "mantener en audiencia un diálogo abierto o conversatorio judicial con un chatbot al que la parte define como experto, sin un cuestionario previo, sin una metodología definida ni delimitación alguna".
Estas circunstancias son "abiertamente incompatibles con las exigencias mínimas de necesidad, pertinencia y conducencia que gobiernan la actividad probatoria, así como de las garantías de contradicción y control de la prueba por parte del juez".
Ahora bien, aun si los demandantes hubieran presentado una solicitud mejor estructurada, el tribunal argumenta que no podría ser catalogada como una "prueba técnica" en el sentido del ordenamiento procesal. Para otorgarle tal tratamiento, "indefectiblemente tendríamos que situarlo dentro del ámbito de la prueba pericial, la cual cuenta con una regulación precisa en el ordenamiento procesal y exige el cumplimiento de requisitos ciertamente rigurosos (artículo 226 del C.G.P.)".
El artículo 226 del Código General del Proceso exige que un perito sea una persona natural con conocimiento especializado en la materia sobre la cual versará el dictamen. ChatGPT no es una persona natural. Aunque podría argumentarse que es un "auxiliar de la justicia", no cumple los requisitos mínimos que hacen a una prueba pericial admisible: no tiene un expertise verificable, no puede prestar juramento (elemento rituario de orden público), no puede ser sujeto de contrainterrogatorio efectivo, y no asume responsabilidad personal alguna por sus afirmaciones.
El tribunal refuta, además, la objeción de los demandantes de que ChatGPT no pretendía ser presentado como "perito" sino como una "prueba técnica" diferenciada. Esta distinción, sostiene el tribunal, es vana: o bien es un medio de prueba pericial (y debe cumplir sus requisitos), o bien es algún otro medio (testimonio, informe técnico, mensaje de datos), pero en ningún caso cumple las exigencias de ninguno de ellos.
El Argumento del Modelo de Lenguaje: ¿Puede una Máquina Ser "Experta"?
El tribunal se adentra en un análisis técnico-conceptual de considerable profundidad para explicar por qué no es plausible predicar de los sistemas generativos que puedan ser catalogados como "expertos", aunque reconoce que constituyen herramientas útiles para labores de investigación y apoyo documental.
Invoca la precisión de la propia Corte Suprema de Justicia colombiana: "el sistema no 'sabe' nada en el sentido convencional del término. Lo que posee es una representación estadística de regularidades lingüísticas, aprendidas a partir del corpus de entrenamiento –el conjunto de textos que procesó– y codificadas en términos de tokens".
Para ilustrar esta idea, el tribunal recurre al famoso experimento mental de la "habitación china" (Chinese Room), formulado por el filósofo John Searle: se imagina una persona encerrada en una habitación que desconoce completamente el idioma chino, pero que dispone de manuales y diccionarios que indican las reglas de cómo relacionar caracteres. Cuando desde el exterior le introducen preguntas escritas en chino, la persona consulta los manuales y devuelve una secuencia de símbolos que, para quien está afuera, constituye una respuesta correcta. Sin embargo, quien está dentro no entiende el significado de lo que responde; simplemente sigue reglas para combinar símbolos.
"Algo análogo, aunque más complejo, ocurre con los modelos de lenguaje generativo: que acopian información debidamente parametrizada a través de algoritmos y producen respuestas lingüísticamente coherentes sin comprender realmente el contenido que generan, lo cual explica que su funcionamiento se limite a generar resultados probabilísticos a partir de patrones del lenguaje, sin conocimiento experto verificable ni comprensión semántica del material que procesan".
Esta explicación es pedagógicamente valiosa porque disipa una confusión común: que porque un sistema de IA produce respuestas coherentes y documentadas, posee "comprensión" o "expertise" en el sentido juridico de los términos. No. Lo que posee es capacidad para generar secuencias de tokens estadísticamente probables dado el entrenamiento previo.
El Camino Hacia Adelante: Condiciones Mínimas para Futura Incorporación de Pruebas Derivadas de IA
Aunque la sentencia rechaza la solicitud concreta, el tribunal no cierra completamente la puerta a la incorporación futura de pruebas derivadas de sistemas de IA. Formula, en cambio, una propuesta teoréticamente rigurosa sobre cómo podrían eventualmente incorporarse, en un futuro cercano, pruebas derivadas del uso de herramientas de inteligencia artificial, siempre que se reúnan presupuestos mínimos que aseguren su fiabilidad y permitan su contradicción dentro del proceso.
El tribunal sugiere que tales pruebas podrían incorporarse como "mensajes de datos" en el sentido del artículo 247 del Código General del Proceso, es decir, como información contenida en forma electrónica. Sin embargo, para que esto sea jurídicamente admisible y susceptible de valoración probatoria, será necesario verificar una serie de presupuestos mínimos:
(i) Cumplimiento de los principios de producción y aportación regular de la prueba: La prueba debe producirse conforme a los procedimientos establecidos, sin atajos que eludan el control de las partes o el juez.
(ii) Confiabilidad del sistema tecnológico: Debe demostrarse que el sistema utilizado para la generación y conservación de la información es técnicamente confiable y seguro.
(iii) Integridad del contenido generado: Debe acreditarse que el contenido no ha sido alterado desde su generación.
(iv) Identificación del iniciador o responsable del mensaje: El origen de la solicitud debe ser identificable y atribuible a una persona o entidad específica.
(v) Técnicas para garantizar la inalterabilidad: Deben emplearse mecanismos criptográficos o de otra naturaleza que garanticen que el documento no ha sido modificado.
(vi) Trazabilidad del proceso de generación: Incluidas las instrucciones o "prompts" empleados. Este es un requisito crucial: el tribunal exige transparencia total sobre qué se le preguntó al sistema y en qué condiciones.
(vii) Identificación del modelo o sistema: Debe identificarse específicamente qué modelo de IA se utilizó, su versión exacta y sus condiciones de funcionamiento.
(viii) Reproducibilidad y auditoría: Debe existir la posibilidad de reproducir o auditar el procedimiento mediante el cual se obtuvo el resultado.
(ix) Garantía efectiva de contradicción y verificación: Las partes y el juez deben poder contrastar la información, incluso mediante control técnico o pericial cuando resulte necesario.
Estos presupuestos no son meramente procedimentales: constituyen una estrategia para domesticar la opacidad algorítmica, la falta de responsabilidad y los riesgos de manipulación que caracterizan a los sistemas de IA. Si se implementaran, transformarían radicalmente el perfil de cualquier prueba generada por IA: dejaría de ser una "caja negra" conversacional para convertirse en un documento técnico trazable, auditible y verificable.
El Principio Cardinal: La IA Como Instrumento Auxiliar, Nunca Como Sustituto
La sentencia cierra su argumentación con una afirmación de rango constitucional: aunque en un futuro cercano el desarrollo normativo y tecnológico pueda ampliar el margen de utilización de herramientas de IA en el ámbito procesal, permanece incólume un principio cardinal del sistema de justicia: tales herramientas solo pueden operar como instrumentos auxiliares del razonamiento humano, mas no como sustitutos del juicio crítico, la responsabilidad y la función decisoria que el ordenamiento jurídico ha confiado exclusivamente al juez y a los demás operadores jurídicos.
Este principio no es una restricción ocasional, sino un fundamento del Estado de derecho. La administración de justicia descansa en la responsabilidad individual del juez, quien actúa en nombre del pueblo y bajo la supremacía de la Constitución. Esa responsabilidad no puede transferirse a un algoritmo. La IA puede iluminar, puede procesar datos a escala, puede señalar inconsistencias. Pero el juicio —la decisión fundada en derecho— permanece como función intransferible del tribunal.
Conclusiones y Proyecciones Doctrinales
El Núcleo de la Decisión
La sentencia del Tribunal Superior de Cali rechaza de manera sistemática y fundamentada la incorporación de ChatGPT como medio de prueba. Pero su valor trasciende el caso particular. Establece un marco analítico que integra:
- Garantías constitucionales (debido proceso probatorio, contradicción, publicidad)
- Exigencias procedimentales (ritualidad de orden público, necesidad, pertinencia, conducencia)
- Realidades técnicas (opacidad, falta de expertise verificable, alucinaciones)
- Principios rectores (supremacía de la razón humana, responsabilidad judicial)
Las Implicaciones para el Derecho Comparado
Aunque la sentencia es colombiana, sus fundamentos trascienden la jurisdicción. Un sistema europeo que aplicara el Reglamento General de Protección de Datos y el Reglamento de Inteligencia Artificial llegaría a conclusiones materialmente similares: un sistema de IA generativa utilizado como medio de prueba sin salvaguardas vulneraría derechos fundamentales, especialmente en lo que concierne a la transparencia, la responsabilidad y el control humano efectivo.
De hecho, la sentencia es convergente con desarrollos jurisprudenciales en otros contextos. Tribunales en España, Italia y otros Estados europeos han expresado cautela similar frente a la incorporación de IA en procesos judiciales sin regulación específica.
La Estrategia de los Presupuestos Mínimos
Lo más relevante para un futuro desarrollo es que el tribunal no cierra la puerta, sino que establece condiciones. La exigencia de trazabilidad del prompt, de identificación del modelo, de reproducibilidad del procedimiento, de posibilidad de auditoría, constituye un andamiaje que, si se respetara, permitiría incorporar ciertas pruebas derivadas de IA de manera responsable.
Sin embargo, ese andamiaje es exigente. Una empresa que quisiera utilizar un sistema de IA para analizar documentos en un proceso tendría que poder demostrar exactamente qué se le preguntó, en qué versión del modelo, bajo qué parámetros, con qué fuentes de entrenamiento. La mayoría de los casos prácticos no lograrían reunir estos requisitos.
La Pregunta Pendiente: ¿Mensajes de Datos o Dictámenes Periciales?
La sugerencia del tribunal de que las pruebas derivadas de IA podrían incorporarse como "mensajes de datos" es inteligente pero potencialmente problemática. Un mensaje de datos es información contenida en forma electrónica. Sin embargo, si esa información es resultado de un análisis experto sobre dictámenes médicos o materias técnicas, ¿no debería estar sometida a los requisitos de prueba pericial?
La sentencia parece sugerir que no necesariamente. Si se trata de un análisis sistematizado producido por un modelo de IA bajo condiciones trazables, con los presupuestos mínimos listados, podría ser admitido como mensaje de datos sometido a verificación pericial posterior. Esto permitiría, por ejemplo, que se incorporara como prueba un informe generado por un sistema de IA, siempre que el sistema fuera auditable y el perito de contradicción pudiera examinar sus métodos.
El Riesgo de Erosión Gradual
Una preocupación legítima es que, una vez se admita formalmente la primera prueba derivada de IA bajo presupuestos mínimos, se abra la puerta a una erosión gradual de las garantías. La tentación será normalizar el uso, acomodarse a la rutina, reducir los requisitos. Por ello, la sentencia es sabia en mantener el listón alto: no es que sea imposible que una prueba de IA sea admisible, pero las condiciones son tan exigentes que solo sistemas muy cuidadosamente diseñados y auditados podrían cumplirlas.
Recomendaciones Prácticas para Operadores Jurídicos
Para Jueces y Magistrados
La sentencia ofrece un marco claro para evaluar futuras solicitudes que involucren sistemas de IA. Ante una petición de este tipo:
- Exigir especificidad: No admitir solicitudes genéricas o abiertas. Cada elemento del análisis debe ser delimitado.
- Verificar cumplimiento de garantías mínimas: Aplicar el listado de nueve presupuestos como checklist.
- Examinar trazabilidad: ¿Se puede saber exactamente qué se le preguntó al sistema y bajo qué parámetros?
- Permitir contradicción plena: Garantizar que la otra parte pueda cuestionar no solo el resultado, sino la metodología.
- Recordar la supremacía humana: El análisis derivado de IA es un insumo, nunca una decisión.
Para Abogados Litigantes
Si se busca incorporar análisis derivados de IA como prueba:
- No presentar el sistema como "experto": Presentarlo como un análisis técnico producido por una herramienta bajo supervisión humana.
- Documentar exhaustivamente: Registrar cada paso, cada instrucción, cada parámetro.
- Facilitar auditoría: Permitir que la otra parte y el juez examinen el procedimiento.
- Complementar con pericia humana: La IA puede ser un auxiliar; la responsabilidad debe recaer en un perito identificable.
- Anticipar impugnaciones: Reconocer las limitaciones técnicas del sistema y argumentar cómo se han mitigado.
Para Diseñadores de Sistemas de IA en Contextos Legales
La sentencia ofrece criterios técnicos que los desarrolladores deberían tomar en serio:
- Transparencia radical: Los sistemas deben permitir auditoría completa.
- Trazabilidad: Registrar todas las instrucciones y parámetros.
- Responsabilidad identificable: Debe existir una persona o entidad que asuma responsabilidad por el análisis.
- Verificabilidad de fuentes: En la medida de lo posible, los sistemas deben poder indicar de qué corpus de entrenamiento proceden sus afirmaciones.
- Pruebas de sesgos: Antes de utilizar el sistema en contexto jurídico, realizar auditorías de sesgos y discriminación.
Conclusiones y Reflexión Final
La sentencia del Tribunal Superior de Cali del 17 de marzo de 2026 es un documento de gran madurez jurídica. Lejos de rechazar la inteligencia artificial por miedo o ignorancia, la examinada con sofisticación técnica, la sitúa en su justa dimensión: un instrumento potencialmente útil pero profundamente problemático si se incorpora sin salvaguardas constitucionales y procedimentales.
El tribunal rehúsa tanto el tecnofobismo ingenuo como el tecnoutopismo acrítico. Reconoce que la IA seguirá desarrollándose, que su presencia en la administración de justicia es probable, y que la regulación normativa y tecnológica podrá ampliar márgenes en el futuro. Pero afirma, con claridad constitucional, que ese futuro no podrá prescindir de dos pilares inneociables: la responsabilidad humana identificable y el control judicial efectivo.
En un contexto global donde la tentación es incorporar tecnología disruptiva sin esperar a que las garantías jurídicas estén listas, una sentencia como esta es un acto de prudencia judicial. No dice "nunca". Dice "no así, no ahora, no sin condiciones". Y establece qué condiciones deberían cumplirse.
Para juristas, diseñadores de sistemas, jueces y abogados, la lectura de esta sentencia debería ser obligatoria. Porque es, simultáneamente, un recordatorio de que el derecho procesal tiene razones que la tecnología no debería ignorar, y una invitación a pensar cuidadosamente cómo incorporar el cambio tecnológico sin erosionar los fundamentos del Estado de derecho.
Referencias Normativas y Jurisprudenciales
Ordenamiento Procesal Colombiano:
- Constitución Política de Colombia (1991), artículo 29
- Código General del Proceso (Ley 1564 de 2012), artículos 165, 168, 169, 226, 247, 365
Jurisprudencia Constitucional:
- Corte Constitucional, Sentencia C-163 de 2019 (Debido proceso probatorio)
- Corte Constitucional, Sentencia T-504 de 1998 (Dirección del proceso y garantías probatorias)
- Corte Constitucional, Sentencia T-323 de 2024 (Criterios para IA en el ámbito judicial)
Jurisprudencia de la Rama Jurisdiccional:
- Corte Suprema de Justicia, Auto AC739-2026 (Uso de IA con verificación rigurosa)
- Consejo Superior de la Judicatura, Acuerdo PCSJA24-1224 (Lineamientos para IA en la Rama Judicial)
- Tribunal Superior, Distrito Judicial de Cali, Sentencia de 17 de marzo de 2026 (Radicado 76-001-31-03-008-2023-00322-01)
Referencias Doctrinales:
- Paolo Comoglio, Inteligencia Artificial y Selección de Pruebas en el Proceso Civil
- Ramón Antonio Peláez Herrera, Manual para el Manejo de la Prueba
- W.N. Price y A.K. Rai, Eliminación de opacidad mediante aprendizaje automático, Revista de Derecho de Iowa
Análisis redactado por: Ricardo Scarpa | Fecha de publicación: 19 de marzo de 2026
Este análisis forma parte de la cobertura de jurisprudencia sobre inteligencia artificial y derecho procesal de Derecho Artificial.
Artículos relacionados
Justicia Algorítmica en México: La IA que Eligió Jueces en 2025 y los Riesgos que Nadie Vio Venir
La elección judicial de 2025 en México evidenció cómo la digitalización total puede excluir a millones. Análisis crítico de la implementación de IA en la judicatura y su impacto en derechos humanos.
El AI Act ya gobierna América Latina: por qué el 7% de tu facturación global depende de Bruselas
Análisis del impacto extraterritorial del Reglamento (UE) 2024/1689 en Latinoamérica: costes de cumplimiento, representante autorizado y el efecto Bruselas que ya moldea las leyes de Brasil y Chile.
Kamal v. Neidle: la primera sentencia sobre SLAPP en el Reino Unido y su impacto en la libertad de expresión frente a litigation finance
Análisis de la sentencia del High Court que aplica por primera vez la Sección 195 de la Economic Crime Act 2023, declarando SLAPP una demanda por libelo contra un periodista fiscal.
Deepfakes en el proceso judicial: cuando la inteligencia artificial obliga a repensar la prueba digital
Análisis de los desafíos procesales de los deepfakes: por qué la inmediación del juez ya no basta y cómo la ISO 27037 y el Reglamento de IA pueden salvar la presunción de inocencia.