Ética IA

IA agéntica y deontología profesional: el nuevo perímetro ético

Cuando el agente actúa solo: IA autónoma y el nuevo perímetro ético de la abogacía

La abogacía siempre ha delegado. En pasantes, en investigadores, en secretarios, en peritos. Lo que nunca ha hecho —hasta ahora— es delegar en un sistema que actúa, razona y ejecuta sin intervención humana entre paso y paso. La irrupción de la inteligencia artificial agéntica en el ejercicio del Derecho no es una variante cuantitativa del uso de software jurídico: es un salto cualitativo que desplaza los ejes sobre los que descansa la deontología profesional.

Este artículo no pretende reproducir el catálogo de riesgos que ya circula en la literatura emergente. Pretende algo más difícil: identificar cuáles de esos riesgos alteran genuinamente la estructura normativa de la responsabilidad profesional y cuáles son simplemente variaciones de problemas que el Derecho lleva décadas resolviendo. La tesis central es que la IA agéntica —a diferencia de la IA generativa— no se limita a crear nuevas formas de incumplir obligaciones existentes. En determinados supuestos, hace estructuralmente imposible cumplir algunas de ellas sin una reconfiguración previa del marco contractual y técnico de la representación.

El análisis se articula sobre el trabajo académico de Michael D. Murray (Algorithmic Ethics in an Era of Agentic AI Advocacy, 2026), que constituye la sistematización más completa publicada hasta la fecha sobre el impacto de la IA en las Model Rules of Professional Conduct y el Model Code of Judicial Conduct estadounidenses. Aunque el andamiaje normativo de referencia es angloamericano, las tensiones estructurales que describe son perfectamente trasladables al contexto europeo-español, donde el AI Act, el RGPD y los códigos deontológicos colegiales convergen con idéntica —y aún mayor— intensidad regulatoria.

La competencia tecnológica como obligación dinámica, no declarativa

Existe una tentación intelectual muy cómoda: tratar la competencia tecnológica como un requisito de conocimiento estático que se acredita una vez y se actualiza periódicamente en un curso de formación continuada. La IA generativa ya tensionó esa concepción. La IA agéntica la destruye.

Murray lo formula con precisión quirúrgica: un abogado que era competente en el uso de herramientas de IA generativa en 2024 puede ser declarado incompetente en 2026 si no ha incorporado a su práctica un entendimiento operativo de los sistemas agénticos que en ese momento constituyen el estándar del sector. La competencia no es un umbral: es una función del tiempo y del estado del arte.

Lo que esto significa en términos concretos es más incómodo de lo que parece. Comprender la IA agéntica no equivale a saber que existe y que puede cometer errores. Exige entender su lógica operacional: cómo un agente descompone un objetivo en subtareas, qué fuentes de datos consulta autónomamente, con qué otros sistemas interactúa, qué parámetros definen los límites de su autoridad delegada, y —crucialmente— en qué condiciones su cadena de razonamiento puede divergir sin que el operador humano lo detecte. Desplegar un agente sin ese conocimiento no es negligencia técnica: es una infracción deontológica per se, independientemente del resultado que produzca el agente.

En el contexto europeo, esta exigencia tiene un anclaje normativo directo. El AI Act clasifica numerosas aplicaciones jurídicas como sistemas de alto riesgo, lo que activa obligaciones de supervisión humana, trazabilidad y transparencia que no pueden satisfacerse sin el conocimiento técnico al que se refiere Murray. El abogado que despliega un agente de IA en un proceso sin comprender su arquitectura no solo puede incurrir en mala praxis profesional: puede estar contribuyendo al incumplimiento de obligaciones regulatorias del sistema que, en virtud de la cadena de responsabilidad del AI Act, le son parcialmente imputables como responsable del despliegue.

La distinción operativa que establece Murray entre sistemas "no protectores de la privacidad" (que aprenden por defecto de los datos del usuario) y sistemas "empresariales" o "cerrados" (que garantizan contractualmente la no utilización de los datos para entrenamiento) no es un dato técnico auxiliar. Es una condición de validez del cumplimiento del deber de confidencialidad. Un abogado que introduce datos identificados del cliente en ChatGPT en su versión de consumo no está tomando un riesgo calculado: está incumpliendo el deber de secreto profesional sin saberlo, lo cual no es distinto —en términos de antijuridicidad— de incumplirlo con conocimiento pleno.

El deber de candor ante la alucinación sistemática

Ningún problema concentra más disciplina y jurisprudencia en el análisis de Murray que el de las alucinaciones: la tendencia de los grandes modelos de lenguaje a generar contenido que es lingüísticamente impecable, contextualmente plausible y factualmete inexistente. Los casos que cita son conocidos en la comunidad jurídica internacional: Mata v. Avianca (2023), las sanciones a K&L Gates y Morgan & Morgan en 2025. Pero la lectura jurídica que hace de ellos va más lejos de la crónica disciplinaria.

Lo realmente relevante no es que los abogados sancionados cometieran un error grave. Es que el mecanismo que produjo ese error —confiar en el output del modelo sin verificación independiente— es estructuralmente idéntico al que produce miles de errores menores que nunca alcanzan la visibilidad suficiente para generar un procedimiento disciplinario. La alucinación no es un defecto aislado de un modelo concreto en un momento concreto: es una propiedad estadística inherente de los LLM actuales, que —y esto agrava la situación— tiende a aumentar conforme los modelos se hacen más sofisticados.

El argumento de defensa más común en estos casos —"no sabía que la IA podía equivocarse de este modo"— fracasa sistemáticamente. Y no porque los tribunales sean inflexibles: fracasa porque el deber de competencia tecnológica ya incluye el deber de conocer esta limitación. La ignorancia sobre las alucinaciones no atenúa la responsabilidad; la constituye. Es la propia ignorancia la infracción.

La dimensión que Murray añade y que resulta genuinamente nueva es la del agente que actúa y produce documentos sin intervención humana en cada paso. La violación del deber de candor documentada hasta ahora siempre ha derivado de un acto afirmativo: un abogado que revisa un escrito y lo presenta sin verificar las citas. La IA agéntica introduce la posibilidad de una violación por omisión pura: el agente redacta y presenta un documento de trámite —una solicitud de prórroga, por ejemplo— sin que el abogado haya leído la versión final línea por línea. Si ese documento contiene una cita fabricada, la infracción se produce no por una decisión de presentar algo sin verificar, sino por la ausencia de decisión: el abogado no hizo nada, y el agente actuó.

Aquí es donde el análisis se complica en términos de imputación. El Derecho deontológico siempre ha exigido que el abogado adopte un rol activo respecto de su trabajo. La delegación en un agente autónomo no elimina ese rol; lo desplaza. El abogado que despliega un agente para la gestión de trámites procesales no tiene menos obligación de revisar los documentos que presenta ante un tribunal; tiene la misma obligación, pero ahora sobre el output de un sistema que puede producirlos a una velocidad y un volumen radicalmente superiores a su capacidad de revisión individual. La solución no es renunciar al agente: es diseñar el proceso de supervisión —incluyendo los puntos de parada obligatorios, las verificaciones automáticas y los umbrales de revisión humana— con anterioridad al despliegue, y documentar ese diseño como parte del protocolo profesional de la firma.

Confidencialidad expandida: el riesgo de la acción autónoma

El deber de confidencialidad ante la IA generativa tenía una estructura relativamente clara: el abogado introduce datos en el sistema, y el riesgo es que esos datos sean utilizados para entrenamiento o recuperados por terceros. El vector de riesgo es la acción deliberada del abogado al introducir los datos.

La IA agéntica desplaza ese vector de un modo que Murray describe con precisión: el riesgo ya no proviene de lo que el abogado teclea en el prompt. Proviene de lo que el agente hace autónomamente en su proceso de cumplir el objetivo asignado. Un agente encargado de realizar la due diligence de una empresa objetivo puede acceder al sistema de gestión documental de la firma, recuperar expedientes de clientes relacionados con transacciones anteriores en el mismo sector, compartir esa información con una API externa para análisis, y producir un informe que contiene, embebidos, datos confidenciales de terceros —todo ello sin que el abogado haya autorizado ninguno de esos pasos individuales.

Esta no es una hipótesis especulativa. Es la consecuencia lógica de la arquitectura de los agentes: su utilidad reside precisamente en que pueden actuar de forma autónoma sobre sistemas externos. Si esa autonomía no está delimitada técnicamente por guardarrails específicos —restricciones de acceso a determinados repositorios, prohibiciones de compartir datos con APIs no autorizadas, umbrales de revisión humana antes de la comunicación externa— el agente puede producir brechas de confidencialidad que el abogado nunca detectará porque nunca hubo un momento de decisión consciente que hubiera podido interceptar.

La implicación práctica es que el cumplimiento del deber de confidencialidad ante la IA agéntica exige trabajo técnico previo: definir los permisos del agente, los sistemas a los que puede acceder, las acciones que puede ejecutar sin supervisión y las que requieren aprobación humana. Ese trabajo no es opcional ni delegable en el proveedor de tecnología: forma parte de la obligación deontológica del abogado, en cuanto responsable del despliegue del sistema en el contexto de la representación. Y en el marco del AI Act y el RGPD, tiene además una dimensión regulatoria que superpone sanciones administrativas sobre las consecuencias disciplinarias.

La facturación como síntoma de una crisis estructural del modelo de negocio

La cuestión de la facturación podría parecer periférica respecto de los grandes principios deontológicos. Murray demuestra que, en realidad, es el espejo más fiel de la contradicción estructural que la IA introduce en la profesión jurídica.

El consenso que describe es absoluto y sin fisuras: ninguna autoridad deontológica, en ninguna jurisdicción, ha admitido que un abogado pueda facturar al cliente las horas "ahorradas" por la IA. Si una tarea que antes requería diez horas ahora se completa en dos, el cliente paga dos horas. Este principio es coherente con la lógica del sistema de facturación por horas, en el que el precio remunera el tiempo real dedicado. La IA simplemente comprime ese tiempo.

Ahora bien, la IA agéntica introduce una dimensión que el consenso existente no puede resolver sin reconfigurar el modelo de negocio. Si un abogado invierte treinta minutos en definir el objetivo de un agente que luego trabaja veinte horas autónomamente para producir un informe de due diligence complejo, ¿cómo se factura ese trabajo? ¿Treinta minutos de tiempo de abogado más el coste del agente? ¿Veinte horas al precio de un associate? ¿Una tarifa fija vinculada al valor del activo objeto de la transacción?

La respuesta correcta, en términos jurídico-deontológicos, no puede ser ninguna de las tres sin acuerdo previo con el cliente. Y ese acuerdo previo requiere que el cliente comprenda qué es lo que está adquiriendo: no el tiempo de una persona, sino la capacidad analítica de un sistema autónomo supervisado por una persona. Cuando el valor entregado se desconecta por completo del tiempo de trabajo humano, el modelo de facturación por horas pierde su justificación. La presión hacia honorarios fijos, tarifas por valor entregado o estructuras de suscripción no es una tendencia de mercado: es una consecuencia deontológica. Los acuerdos de honorarios que no la anticipan son intrínsecamente opacos para el cliente y, en esa medida, potencialmente lesivos del deber de comunicación y de la exigencia de honorarios razonables.

Supervisión en capas: el agente, el associate y el socio

Murray propone un análisis de la supervisión ante la IA agéntica que resulta especialmente útil para articular las responsabilidades en una firma con estructura jerarquizada. La IA agéntica, como "asistente no abogado" bajo la norma equivalente al artículo 5.3 del MRPC, está sujeta a la obligación de supervisión del abogado que la despliega. Pero cuando ese despliegue lo realiza un abogado junior —que es el caso más frecuente en la práctica, donde los asociados son los primeros en adoptar herramientas nuevas—, aparece una doble capa de responsabilidad: el socio debe supervisar tanto al asociado como, indirectamente, al agente que el asociado ha desplegado.

Este escenario introduce dos conceptos técnicos que Murray integra en el análisis deontológico de forma convincente: la observabilidad y la trazabilidad. La observabilidad es la capacidad de ver qué hace el agente mientras lo hace: qué pasos sigue, qué datos recupera, cómo estructura su razonamiento. La trazabilidad —o debugging— es la capacidad de reconstruir después ese proceso, identificando en qué punto el agente divergió, falló o produjo un error. Sin observabilidad y trazabilidad, el agente es una caja negra, y la supervisión deviene ficticia: el abogado puede revisar el output, pero no puede evaluar si el proceso que lo generó fue correcto, si accedió a fuentes no autorizadas, o si incorporó información incorrecta en algún paso intermedio que el output final no refleja.

La consecuencia práctica es exigente: no todos los sistemas agénticos del mercado ofrecen estas capacidades en un nivel suficiente para cumplir los estándares de supervisión deontológica. Elegir un agente sin observabilidad no es simplemente una decisión técnica subóptima: puede ser una infracción de la obligación de supervisión. Y esa infracción es imputable a la firma como organización —no solo al abogado individual que eligió la herramienta—, lo que activa las responsabilidades colectivas de los socios gestores.

El caso K&L Gates que cita Murray ilustra esta lógica de forma muy clara: la sanción no recayó solo sobre el abogado que usó la IA para crear el esquema de investigación, ni solo sobre el abogado de la otra firma que lo incorporó al escrito sin verificar. Recayó sobre ambas firmas como entidades organizacionales, porque ninguna había implementado los protocolos de gobernanza que el caso requería. La ausencia de política no es una atenuante: es parte del incumplimiento.

La práctica no autorizada del Derecho en la era del agente autónomo

La frontera entre la asistencia técnica y el ejercicio profesional del Derecho siempre ha sido conceptualmente difusa. La IA agéntica la hace prácticamente inaplicable en determinados supuestos, con consecuencias que van más allá de la disciplina individual.

Murray identifica tres escenarios en los que la IA agéntica cruza esa frontera con independencia de la supervisión teórica del abogado: el chatbot de captación de clientes que analiza el caso y recomienda un curso de acción, el sistema que emite opiniones legales sobre contratos sin revisión sustantiva del abogado, y el agente que negocia y cierra acuerdos vinculantes con autonomía decisional. En los tres casos, la diferencia respecto de la mera automatización de tareas es que el sistema no ejecuta instrucciones predeterminadas: razona, evalúa, pondera y decide en tiempo real. Eso es exactamente lo que hace un abogado cuando ejerce su función profesional.

Lo que este análisis anticipa —y que el contexto europeo refuerza con el AI Act— es un desplazamiento del foco regulatorio. Las autoridades deontológicas llevan años disciplinando a abogados individuales por el mal uso de herramientas tecnológicas. Lo que está emergiendo es la posibilidad —y la necesidad— de regular directamente a los proveedores de sistemas que, por su diseño, realizan funciones reservadas al ejercicio profesional. La propuesta de regulación californiana sobre Tecnología de Decisión Automatizada (ADMT) que menciona Murray es un primer indicador de esta dirección. El AI Act europeo, con su categorización de sistemas de alto riesgo y sus obligaciones de transparencia y supervisión humana para usos en el ámbito de la justicia, apunta en el mismo sentido con mucha mayor fuerza vinculante.

El sesgo algorítmico como problema de imparcialidad judicial

La transición al análisis de la deontología judicial introduce una variable que no tiene equivalente en la ética del abogado: la imparcialidad no es solo una obligación profesional, es una garantía constitucional cuya vulneración afecta no al profesional sino al justiciable. Cuando un abogado usa una IA sesgada, el daño recae sobre su cliente. Cuando un juez usa una IA sesgada en una resolución de condena, custodia o privación de libertad, el daño recae sobre quien es objeto de la decisión, que puede no tener ninguna forma de detectarlo, cuestionarlo o impugnarlo.

El caso COMPAS —el instrumento de evaluación del riesgo de reincidencia que la investigación de ProPublica demostró que clasificaba erróneamente a los acusados negros como de alto riesgo a una tasa significativamente superior a la de los acusados blancos— es el hito analítico central de esta sección. La decisión del Tribunal Supremo de Wisconsin en State v. Loomis (2016) permitió el uso del instrumento con advertencias sobre sus limitaciones, pero dejó sin resolver la pregunta estructuralmente relevante: ¿pueden esas advertencias ser efectivas si el juez no tiene formación estadística suficiente para evaluarlas, si la presión institucional favorece la eficiencia sobre el escepticismo, y si los sesgos cognitivos de automatización y anclaje operan por debajo del umbral de la decisión consciente?

Murray señala que la introducción de la IA en la función judicial transforma la naturaleza de la impugnación por parcialidad. Una recusación tradicional alega el sesgo personal de un juez concreto. La impugnación de una decisión basada en IA alega el sesgo sistémico y estadístico de una herramienta, lo que requiere pericia técnica —científicos de datos, estadísticos, ingenieros de machine learning— que actualmente no forma parte del procedimiento judicial ordinario. La consecuencia es que el derecho al proceso equitativo, en su dimensión de acceso efectivo a la impugnación, puede estar siendo vaciado de contenido en los casos en que las decisiones judiciales incorporan recomendaciones de sistemas opacos.

El análisis se conecta aquí con el debate europeo sobre el principio de explicabilidad. El RGPD, en su artículo 22, prohíbe las decisiones totalmente automatizadas que produzcan efectos jurídicos significativos, salvo excepciones. El AI Act, para los sistemas de alto riesgo en el ámbito de la Administración de Justicia, exige supervisión humana efectiva y trazabilidad. Ambos marcos parten de la misma premisa que subyace al análisis de Murray: que la legitimidad de una decisión que afecta a derechos fundamentales no puede sostenerse sobre la opacidad del proceso que la genera, y que la supervisión humana que no puede evaluar el razonamiento del sistema no es supervisión real.

Lo que el análisis no puede cerrar

Existe una pregunta que ningún trabajo académico puede responder en este momento, y que conviene formular con honestidad intelectual: ¿cuál es el umbral de autonomía a partir del cual la supervisión humana deja de ser significativa?

La regulación —europea y americana— asume que la supervisión humana es una condición suficiente para la legitimidad de la decisión asistida por IA. Pero esa asunción tiene un límite empírico. Un abogado que supervisa el output de un agente que ha procesado diez mil documentos, ejecutado doscientas consultas a bases de datos y tomado mil micro-decisiones de clasificación no puede revisar en tiempo real todo ese proceso. Lo que revisa es el output final y, como mucho, una muestra del razonamiento intermedio. Si el error o el sesgo está embebido en pasos que no forman parte de esa muestra, la supervisión no lo detecta.

Esto no significa que la supervisión humana sea irrelevante. Significa que su eficacia varía según el diseño del sistema, el volumen del trabajo y las capacidades técnicas del supervisor. Y sugiere que las obligaciones deontológicas deberían modularse en función de esas variables, en lugar de operar como un estándar uniforme que se aplica igual a un agente de gestión documental y a un agente de análisis estratégico complejo.

La regulación futura —tanto deontológica como administrativa— tendrá que abordar esta diferenciación. Los estándares de supervisión no pueden ser los mismos para un sistema que asiste en la calendarización de plazos procesales y para un sistema que analiza los riesgos de una transacción o recomienda una estrategia de litigación. El principio de proporcionalidad, que el AI Act articula en términos de categorías de riesgo, debe trasladarse a la deontología profesional con la misma lógica.

Conclusiones

  • La IA agéntica no crea nuevas obligaciones deontológicas de la nada: redefine el contenido operativo de las obligaciones existentes (competencia, confidencialidad, candor, supervisión) de un modo que hace insuficiente su cumplimiento por los medios tradicionales.

  • El deber de competencia tecnológica es dinámico: incluye el conocimiento de la arquitectura operacional del agente desplegado, sus fuentes de datos, sus límites de autoridad y sus mecanismos de fallo.

  • La confidencialidad frente a la IA agéntica exige trabajo técnico previo —definición de permisos, guardarrails, puntos de parada— que forma parte de la obligación deontológica del abogado como responsable del despliegue.

  • Las violaciones del deber de candor por alucinaciones pueden producirse por omisión pura cuando el agente actúa sin revisión humana en cada paso, lo que requiere protocolos explícitos de verificación antes del despliegue.

  • La facturación por horas es estructuralmente incompatible con el uso pleno de la IA agéntica: la transparencia con el cliente y el deber de honorarios razonables exigen acuerdos previos que anticipen formas alternativas de remuneración vinculadas al valor entregado.

  • La supervisión eficaz de un agente requiere observabilidad y trazabilidad como capacidades técnicas mínimas del sistema: elegir herramientas que no las ofrezcan puede constituir en sí mismo una infracción del deber de supervisión.

  • El sesgo algorítmico en la función judicial no es un problema técnico con solución técnica: es un problema de legitimidad democrática que exige transparencia del sistema, formación del juez y herramientas procesales adecuadas para la impugnación.

  • La pregunta sobre el umbral de supervisión significativa permanece abierta y debe orientar la regulación deontológica futura, que no puede operar con estándares uniformes ante la enorme variación de sistemas y contextos de uso.


Fuente primaria

Este artículo analiza y desarrolla los argumentos contenidos en el siguiente trabajo académico, disponible en acceso abierto:

Michael D. Murray, Algorithmic Ethics in an Era of Agentic AI Advocacy: An Analysis of AI's Impact on the Model Rules of Professional Conduct and the Model Code of Judicial Conduct, 16 St. Mary's Journal on Legal Malpractice & Ethics 279 (2026). University of Kentucky, J. David Rosenberg College of Law. Publicado el 13 de abril de 2026.

Acceso en Digital Commons de St. Mary's University: https://commons.stmarytx.edu/lmej/vol16/iss2/4

Descargar el artículo original en PDF