analisis-juridico

IA en servicios profesionales: adopción sin ROI ni métricas

Los despachos dicen que implantan inteligencia artificial masivamente. Pero ocho de cada diez no miden si funciona.

El informe 2026 AI in Professional Services Report del Thomson Reuters Institute, basado en más de 1.500 profesionales de servicios legales, fiscales, de riesgo y gobierno en 27 países, expone una paradoja incómoda que debería hacer replantearse a cualquier socio de despacho la narrativa de "transformación digital inevitable". Mientras el 40% de las organizaciones ya usa GenAI en alguna forma y el 87% de los profesionales espera que sea central en sus workflows dentro de cinco años, apenas el 18% recolecta métricas sobre retorno de inversión. Traducido: hemos normalizado la adopción de inteligencia artificial sin entender qué está pasando en realidad con el negocio.

Esta no es una crítica menor. Es el punto de partida de un replanteamiento que el sector necesita urgentemente.

El teatro de la adopción sin consecuencias medibles

Conviene empezar por lo que el informe documenta con precisión: el crecimiento de GenAI en organizaciones profesionales ha sido acelerado. En 2025, el 40% de las organizaciones ya usaba GenAI. Un año antes, ese número era 22%. Lo que es importante notar aquí no es solo la velocidad de crecimiento —pasamos de uno de cada cinco a dos de cada cinco en doce meses—, sino lo que ese crecimiento dice sobre cómo se toman decisiones en los despachos y departamentos legales y fiscales: sin análisis previo del impacto de negocio.

El informe documenta que más del 50% de los profesionales usa herramientas GenAI públicas como ChatGPT. El 44% usa plataformas empresariales tipo Microsoft Copilot. Y el 31% usa soluciones especializadas en la vertical. Pero aquí comienza la contradicción central: aunque estas herramientas se están utilizando de forma frecuente —más del 82% de los usuarios actuales las usa al menos una vez a la semana—, la inmensa mayoría de las organizaciones no está recopilando dato alguno sobre si esa inversión está generando valor.

Ahora bien, la pregunta que el informe no puede esquivar es: ¿cómo es posible que una tecnología supuestamente transformadora haya penetrado tan profundamente en las organizaciones sin que casi nadie mida sus resultados? La respuesta probablemente diga menos de la tecnología y más del contexto de presión comercial en el que operan hoy los servicios profesionales.

Un profesional en ejercicio del Reino Unido, citado en el informe, lo dice sin ambigüedad: "Hacemos preguntas: '¿Usan IA?', y responden 'Sí, no, bueno a veces... no sabemos'. La gente es laxa con la gestión de datos, así que solo la usan esporádicamente. Están esperando casos de uso más amplios antes de implementarla más masivamente." Eso es lo que sucede realmente en el mercado. No es que los despachos estén fuera de la curva. Es que están dentro de un ciclo de presión —presión de clientes, presión de mercado, presión de competencia— que obliga a "adoptar" sin permitir realmente la evaluación.

Las métricas que nadie está recogiendo

El dato más revelador del informe es probablemente el siguiente: solo el 18% de las organizaciones recolecta métricas sobre retorno de inversión en IA. El 82% restante, o bien no recopila dato alguno, o no sabe que su organización está recopilando datos. Y aquí comienza el verdadero problema: ese 82% está operando "a ciegas" respecto a si las herramientas de IA que están integrando en sus workflows están generando valor o, peor aún, destruyéndolo.

Dicho de otro modo: cuatro de cada cinco organizaciones en servicios profesionales ha optado por una estrategia de "implementar primero, preguntar después". Y cuando digo "preguntar después", no me refiero solo a medir resultados, sino a formularse la pregunta fundamental: ¿para qué estamos usando esto?

Lo que es aún más revelador es cómo están midiendo aquellas pocas organizaciones (el 18%) que sí recopila métricas. El 77% de estas se enfoca en ahorros internos —reducción de costos, uso por empleados, satisfacción de empleados—. Apenas el 26% mide satisfacción del cliente. Solo el 23% intenta proyectar generación de ingresos externos. Y apenas el 17% cuenta "nuevo negocio ganado" como resultado de la implementación de IA.

Lo que esto significa, en términos prácticos, es que incluso aquellas organizaciones que sí están midiendo están midiendo lo equivocado. Están optimizando para eficiencia operativa interna cuando deberían estar optimizando para valor entregado al cliente. En un mercado donde los clientes corporativos cada vez más exigen que sus firmas externas usen IA —el 74% de directores de impuestos corporativos cree que las firmas de fiscalidad deberían usar IA; el 54% de directores legales corporativos cree lo mismo—, medir solo ahorros internos es un error estratégico grave.

Un chief legal officer estadounidense citado en el informe lo resume así: "Los despachos son reacios. Alegan que comprometería la calidad y la fidelidad. Creo que tienen miedo." Y ese miedo se traduce precisamente en esta parálisis de medición: si no medimos, no tenemos que enfrentar el hecho de que quizá la IA está automatizando tanto trabajo que nuestro modelo de negocio basado en horas facturadas está siendo socavado.

La brecha entre lo que los clientes quieren y lo que los despachos hacen

Aquí es donde el análisis se complica de verdad. El informe documenta una desconexión profunda entre lo que los clientes corporativos desean que sus firmas externas hagan y lo que realmente está sucediendo.

El 74% de directores de impuestos corporativos cree que sus firmas de fiscalidad deberían estar usando IA. El 54% de directores legales corporativos cree que sus firmas externas deberían usar IA en los asuntos que les confían. Pero aquí viene lo revelador: menos del 20% está mandatando esa adopción a través de directrices o RFPs. Es decir: quieren que lo hagas, pero no te lo están exigiendo explícitamente. Y mientras, el 67% de directores legales corporativos no sabe si sus firmas externas están usando IA en el trabajo que realizan para ellos. El 60% de directores de fiscalidad corporativos tampoco lo sabe.

Esto genera una dinámica perversa para los despachos. Aproximadamente el 40% de los abogados y fiscalistas dicen haber recibido direcciones contradictorias de diferentes clientes: algunos exigiendo IA, otros prohibiendo IA en el mismo proyecto. Un despacho se encuentra sin estándares de cliente, sin mandatos claros, pero con una expectativa difusa de que "deberíamos estar usando esto".

Cuando un abogado estadounidense dice en el informe: "Los clientes dicen 'Úsala', y nosotros decimos 'Sí, la estamos usando', pero en realidad no estamos siendo muy transparentes sobre cómo y dónde", está describiendo exactamente el problema. Los despachos han optado por una estrategia de ambigüedad: ni están completamente ausentes en IA (eso sería competitivamente inviable), ni están plenamente transparentes sobre cómo la están usando (porque eso abriría conversaciones sobre precios, sobre si realmente necesita el mismo número de horas, sobre si el modelo de facturación tiene futuro).

Y esto, en el ámbito del derecho, no es un detalle menor. Si un cliente está pagando por 40 horas de trabajo de un abogado junior que ChatGPT podría hacer en 4, y el despacho no está siendo transparente sobre ello, entonces el despacho está participando en un fraude económico, aunque sea un fraude difuso, normalizado, no intencional.

Agentic AI: el siguiente acto de la misma obra

El informe documenta también el crecimiento de agentic AI —sistemas que pueden completar tareas complejas de múltiples pasos sin intervención humana constante—. Solo el 15% de las organizaciones actualmente usa agentic AI, pero el 53% está en fases de planificación o consideración. Y el 77% de los profesionales espera que sea central en sus workflows para 2030.

Esto es importante porque agentic AI representa un salto cualitativo desde GenAI. No es simplemente "más veloz" o "más inteligente". Es autónomo. Un sistema de agentic AI puede investigar regulaciones, redactar un documento, identificar riesgos y revisar el documento sin que un abogado tenga que estar presionando el botón entre cada paso.

Ahora bien, el informe también documenta una resistencia genuina, intelectualmente honesta, a agentic AI. Un abogado estadounidense lo formula así: "Agentic AI, aunque emocionante, para mí elimina la supervisión demasiado. Me gusta la idea de indicar y revisar un resultado. Es otra cosa tener una máquina con tanta autonomía en el hacer de algo y potencialmente actuando en mi nombre sin esa revisión muy concreta."

Y esto toca un punto fundamental de la ética profesional en derecho que el informe no profundiza lo suficiente: ¿quién es responsable cuando un agente de IA autónomo comete un error? Un abogado es responsable de la calidad de su trabajo. Pero si esa "calidad" ahora la produce un sistema autónomo que el abogado supervisa retrospectivamente, ¿es realmente supervisión? ¿O es negligencia profesional disfrazada de "revisión"?

El Código de Ética Profesional en prácticamente todas las jurisdicciones establece que el abogado es responsable del trabajo que realiza. Pero hay un cambio sutil pero grave cuando ese trabajo lo realiza un agente autónomo: la capacidad de entender realmente qué sucedió en cada paso se reduce exponencialmente. Un abogado puede revisar un documento de 50 páginas redactado por IA y notar que el párrafo 23 tiene un argumento circular. Pero si ese documento es el resultado de 47 pasos autónomos encadenados, y el abogado solo revisa el resultado final, ¿realmente está cumpliendo con su deber de competencia?

Lo que el informe revela sobre la "transformación" que no está ocurriendo

El informe documenta que el 87% de los profesionales cree que GenAI será central en sus workflows dentro de cinco años. Pero también documenta que apenas el 16% de los profesionales cree que GenAI es actualmente central en sus workflows. Eso significa que hemos pasado de "explorando" a "ya está aquí" como narrativa, pero no ha ocurrido un cambio real de workflows.

Los casos de uso más comunes siguen siendo los mismos desde hace años: investigación legal (80% en derecho), resumen de documentos (73% en derecho), revisión de documentos (74% en riesgos). Estos son los usos "seguros": tareas que se podría hacer sin IA, pero que IA hace más rápido. No son transformacionales. No son "inteligencia aumentada". Son, fundamentalmente, automatización de búsqueda y síntesis.

Lo que no está sucediendo es el cambio de modelo. Un abogado de Nueva Zelanda citado en el informe lo dice: "Agentic AI es el cambio del juego, o al menos el próximo en una línea de cambios. Es lo que llevará a la IA más allá de ser una búsqueda sofisticada en Google." Y tiene razón. Pero ese cambio de juego solo ocurre si los despachos están dispuestos a replantear qué tipo de trabajo están vendiendo, a quién, y a qué precio. Y el informe documenta que, en el fondo, no están dispuestos.

Un socio de despacho estadounidense citado en el informe dice algo que suena tranquilizador pero que es profundamente preocupante: "Estoy muy optimista sobre el potencial de la IA, aunque en nuestra cultura parecemos estar en el 'valle de desilusión'. La IA no es un botón mágico, y no es una herramienta que deba dejarse a sus propios dispositivos. Pero cuando se integra en el trabajo cotidiano y en los workflows cotidianos, sigue habiendo potencial sustancial para la transformación."

Eso es, en esencia, un "dame más tiempo". Y mientras se da más tiempo, la realidad de negocio sigue siendo la misma: tareas que llevaban 40 horas ahora llevan 4, pero se están cobrando como si llevaran 40.

La pregunta que la industria no se está haciendo

El informe incluye un dato interesante sobre cómo los profesionales ven el futuro. El 72% de los directores de riesgo corporativo creen que GenAI debería aplicarse a su trabajo. El 87% de los corporativos de impuestos lo cree. Pero cuando se pregunta sobre agentic AI, las cifras bajan: 79% de corporativos de impuestos, 67% de corporativos de riesgos, 62% en firmas de fiscalidad, 48% en firmas legales.

La resistencia es clara. Y es inteligente. Porque la pregunta no formulada es: ¿si agentic AI puede hacer autónomamente 80% del trabajo que un abogado junior hace, por qué necesitamos abogados junior?

Algunos de los comentarios más honestos en el informe tocan este punto sin terminar de articularlo. Una abogada de Nueva Zelanda dice: "¿Alguna vez vieron The Matrix? Además, este trabajo es mi sustento. Mientras no quiero trabajar, ¿cómo obtendría ingresos de otra forma?" Eso es una pregunta genuina sobre seguridad de empleo. No es un detalle menor.

Y aquí el informe nuevamente muestra datos incómodos: el 50% de abogados corporativos cree que la IA será una amenaza importante para puestos de trabajo. El 48% en directores de riesgo corporativo lo cree. El 42% en profesionales de fiscalidad.

Entonces tenemos una situación donde aproximadamente la mitad de la profesión reconoce que la IA probablemente elimine puestos de trabajo significativamente, pero la mitad también está activamente integrándola en sus workflows sin evaluar el impacto de negocio. Es una contradicción no resuelta. Y el informe la documenta perfectamente, pero no la analiza a fondo.

Lo que un abogado debería estar haciendo ahora, según el informe (aunque no lo dice explícitamente)

El informe dedica una sección a lo que llama "winning the AI-enabled future", y lo que plantea es, fundamentalmente, que los despachos y departamentos legales necesitan claridad estratégica sobre qué están haciendo con IA. El análisis sugiere tres caminos:

Primero, si el objetivo es ahorro de costos, hace falta un tiempo-audit que determine exactamente dónde la IA puede reducir horas facturadas, y entonces ajustar el modelo de negocio en consecuencia. Porque si alguien está ganando 80% de ahorro de costos con IA pero sigue facturando al cliente por todas las horas que antes llevaba, eso es insostenible estratégicamente. O el cliente lo descubrirá, o un competidor más honesto lo hará.

Segundo, si el objetivo es mejor servicio al cliente, el despacho necesita estar teniendo conversaciones explícitas sobre qué significa "mejor". ¿Más rápido? ¿Más preciso? ¿Más proactivo? El 73% de directores legales corporativos creen que sus firmas externas deberían estar usando IA. Pero el 29% dice que sus firmas externas sí lo están usando (solo el 29%: la discrepancia es notable). Eso significa que la conversación no está ocurriendo.

Tercero, si el objetivo es defensa competitiva —"si no adopto IA rápido, me quedaré atrás"—, entonces hace falta entender qué significa "quedar atrás" exactamente. ¿En precio? ¿En velocidad? ¿En calidad? El informe documenta que los clientes quieren que usen IA, pero no están dispuestos a pagar menos por ello, ni tampoco están mandatando su uso. Entonces, ¿quién gana realmente con la adopción acelerada?

La verdad incómoda: los modelos de negocio de los despachos no son compatibles con inteligencia artificial

Aquí es donde el análisis del informe se torna realmente problemático, porque llega al borde de decir algo que debería estar diciendo claramente pero que evita: los modelos de negocio basados en facturación por horas son fundamentalmente incompatibles con tecnología que reduce exponencialmente el número de horas necesarias para hacer el trabajo.

Un abogado estadounidense lo dice sin andarse con rodeos: "Va a volverme, a mí, un abogado de investigación, redundante. Y una vez que la programación se vuelva 'consciente de sí misma', podría enviar terminadores para eliminar la competencia, es decir, yo."

Es hiperbólico, pero marca el punto. Porque la pregunta real no es "¿cómo integro IA?" sino "¿cómo cambio mi negocio si IA elimina 80% del trabajo que he estado vendiendo?"

El informe menciona que algunos despachos están intentando cambios de modelo —moviendo hacia valor-based pricing, hacia consultoría estratégica, hacia retainers anuales—. Pero documenta que esto es marginal. La mayoría de los despachos sigue operando bajo el modelo de horas facturadas. Y bajo ese modelo, IA no es una herramienta. Es una amenaza existencial.

Las conclusiones que el informe casi no se atreve a formular

Después de toda esta evidencia, las conclusiones que el informe presenta son, sorprendentemente, blandas. Sugiere que:

  • Los profesionales necesitan "claridad estratégica" sobre cómo están usando IA.
  • Los despachos deberían estar iniciando conversaciones con clientes sobre IA.
  • Las organizaciones deberían estar midiendo ROI (lo cual, obviamente, el 82% no está haciendo).
  • Hace falta pensamiento "reflexivo" sobre cómo IA se relaciona con el futuro de la profesión.

Pero lo que el informe debería estar diciendo, basándose en sus propios datos, es más directo:

Primero: Si no estás midiendo el impacto de IA, estás operando a ciegas. Y operar a ciegas en un momento de disruption existencial es negligencia estratégica.

Segundo: Si tus clientes no saben que estás usando IA, o si estás siendo ambiguo sobre cómo la estás usando, entonces no estás siendo transparente sobre uno de los cambios más significativos en tu modelo operativo. Eso es un riesgo reputacional grave.

Tercero: Si tu modelo de negocio no puede sobrevivir a tecnología que reduce trabajo en 80%, entonces tu modelo de negocio probablemente ya está en declive. La IA solo está acelerando lo inevitable.

Cuarto: Los cambios existenciales en una profesión no suceden porque la tecnología es posible. Suceden porque alguien está dispuesto a reorganizar el negocio entero alrededor de esa tecnología. El informe documenta que casi nadie está dispuesto a hacerlo. Todavía.

Una reflexión final: el teatro de la transformación sin transformación

Lo que es más notable del informe Thomson Reuters 2026 no es lo que documenta que está sucediendo. Es lo que documenta que no está sucediendo. En tres años, GenAI ha pasado de ser "experimental" a estar presente en el 40% de las organizaciones profesionales. Pero el trabajo que se realiza sigue siendo fundamentalmente el mismo. Los modelos de negocio siguen siendo fundamentalmente los mismos. Y la manera en que se relacionan clientes y firmas sigue siendo fundamentalmente la misma.

Hemos adoptado la tecnología sin adoptar los cambios que ella requiere. Y eso solo es sostenible por un tiempo limitado.

Un director de fiscalidad británico citado en el informe dice algo que resume todo: "Preguntamos, '¿Están usando IA?', y dicen 'Sí, no, bueno a veces... no sabemos'. La gente es laxa con la gestión de datos, así que solo la usan esporádicamente. Están esperando casos de uso más amplios antes de implementarla más masivamente."

Pero esos "casos de uso más amplios" no van a venir de esperar. Van a venir cuando un despacho o un departamento legal decide, explícitamente, que va a reorganizar su negocio entero alrededor de IA. Y el informe documenta que casi nadie lo ha hecho todavía. Cuando lo hagan, veremos qué es lo que realmente cambia.

Mientras tanto, el 82% de las organizaciones seguirá usando IA sin saber si funciona.


Conclusiones clave para profesionales en servicios legales y fiscales

  • El 82% de organizaciones no mide ROI de IA, o bien no recopila datos, o no sabe que se recopilan. Esto es operativamente insostenible en contextos de cambio acelerado.

  • Los clientes quieren IA pero no la están mandatando. El 74% de directores de impuestos corporativos cree que sus firmas deberían usar IA, pero menos del 20% lo exige explícitamente. Esta ambigüedad es un riesgo estratégico para despachos.

  • La adopción de IA aún no ha cambiado modelos de negocio fundamentales. El 87% cree que GenAI será central en cinco años, pero el 16% actual dice que ya lo es. Hay un gap entre la narrativa y la realidad operativa.

  • Transparencia con clientes es urgente. El 67% de directores legales corporativos no sabe si sus firmas externas usan IA. Esta opacidad es insostenible y genera riesgos reputacionales.

  • Agentic AI amplificará la tensión sobre modelos de horas facturadas. El 77% de profesionales espera que sea central para 2030, pero solo el 15% la usa actualmente. Cuando cruce el 50% de adopción, los cambios serán inevitables.

  • La pregunta sobre empleo es real, no especulativa. Entre el 42% y el 50% de profesionales creen que la IA será una amenaza importante para puestos de trabajo. Esta preocupación es legítima y necesita ser parte de la conversación estratégica.

  • La transformación verdadera requiere reorganización, no solo adopción tecnológica. El informe sugiere que el éxito no viene de "usar mejor IA", sino de replantear completamente qué tipo de servicio se vende, a quién, y a qué precio.