analisis-juridico

Mobley v. Workday: certificación colectiva por discriminación algorítmica en el acceso al empleo

Mobley v. Workday: cuando el algoritmo filtra por edad y el tribunal abre la puerta colectiva

El 16 de mayo de 2025, la jueza Rita F. Lin del Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California dictó una resolución que, con toda probabilidad, marcará un antes y un después en el debate sobre la responsabilidad jurídica de los proveedores de inteligencia artificial en los procesos de selección de personal. En Mobley v. Workday, Inc. (caso n.º 3:23-cv-00770-RFL), el tribunal concedió la certificación preliminar de una acción colectiva basada en la Age Discrimination in Employment Act (en adelante, ADEA), dirigida contra Workday, Inc., empresa proveedora de herramientas de gestión de recursos humanos y cribado automatizado de candidatos. La cuestión central es deceptivamente simple de formular, aunque extraordinariamente compleja de resolver: ¿puede un proveedor de software de inteligencia artificial ser considerado responsable de un impacto dispar sobre candidatos de más de cuarenta años, cuando es ese software —y no directamente el empleador— el que puntúa, clasifica y filtra las solicitudes de empleo?

El sistema acusado: cómo Workday interviene en la selección de candidatos

Para comprender el alcance jurídico de la resolución es imprescindible entender qué hace exactamente el sistema de Workday y en qué medida su funcionamiento va más allá del de una mera herramienta ejecutora de instrucciones del empleador.

Workday ofrece a sus clientes empresariales una plataforma de gestión del ciclo de reclutamiento. En el marco de esa plataforma, dos herramientas concentran la atención del tribunal. La primera, denominada Candidate Skills Match (CSM), opera dentro del servicio Workday Recruiting y aplica inteligencia artificial para extraer las competencias exigidas por la oferta de trabajo y las mencionadas en los materiales del candidato, calculando a continuación el grado de correspondencia entre ambas. El resultado se comunica al empleador mediante una escala: strong, good, fair, low, pending o unable to score. La segunda herramienta, el Workday Assessment Connector (WAC), es objeto de una acusación más grave: el demandante alega que utiliza machine learning para detectar las preferencias del empleador —incluyendo la preferencia implícita contra candidatos pertenecientes a categorías protegidas— y ajustar progresivamente sus recomendaciones para alinearse con esos sesgos. En palabras del propio tribunal, referidas a la fase de desestimación de la excepción previa, Workday «participates in the decision-making process by recommending some candidates to move forward and rejecting others», lo que supera el umbral de la mera ejecución instrumental.

Workday, por su parte, sostuvo a lo largo del procedimiento que no efectúa recomendaciones de contratación, que los empleadores conservan la decisión final y que los módulos de IA pueden ser activados o desactivados por los clientes. El tribunal no descartó estas alegaciones como irrelevantes, pero sí las desplazó al momento procesal adecuado: la eventual solicitud de descertificación tras la práctica de la prueba.

El framework jurídico: ADEA, FLSA e impacto dispar

La acción se articula exclusivamente —en lo que concierne a la certificación colectiva— sobre la teoría del disparate impact bajo la ADEA. Esta ley federal, aplicable a personas de cuarenta años o más, prohíbe la discriminación por razón de edad en los procesos de selección de personal. Trasladada al contexto algorítmico, la pregunta es si un sistema de IA puede generar un impacto dispar sobre ese grupo protegido sin que exista una intención discriminatoria expresa, y si ese impacto es atribuible al proveedor del sistema o únicamente al empleador que lo utiliza.

La acción colectiva se rige por el artículo 216(b) de la Fair Labor Standards Act (FLSA), incorporado por remisión a la ADEA. El estándar para la certificación preliminar —la llamada conditional certification— no exige que el tribunal resuelva el fondo del asunto ni que evalúe la solidez de la prueba con la intensidad propia de un juicio sumario. Basta, en esta fase, con que el demandante demuestre que los miembros del colectivo propuesto son «similarly situated» en un sentido materialmente relevante para la resolución conjunta de sus reclamaciones.

El Tribunal de Apelaciones del Noveno Circuito, en Campbell v. City of Los Angeles (903 F.3d 1090, 2018), avaló expresamente el procedimiento bifásico: una primera fase de certificación provisional, con un umbral próximo al estándar de plausibilidad, seguida de una segunda fase —generalmente a instancias del demandado— en la que el tribunal realiza un escrutinio más exigente a la vista de la prueba practicada. La jueza Lin aplica este esquema con rigor y rechaza la propuesta de Workday de elevar el umbral en función del volumen de instrucción ya practicado, con argumentos que merecen atención por sus implicaciones sistemáticas.

La uniformidad de la política como eje del análisis

El núcleo argumental de la resolución se articula sobre una premisa: si el demandante puede identificar una política uniforme que, como tal, genera un impacto dispar sobre el grupo protegido, ese hecho es susceptible de prueba colectiva. Las variaciones individuales —el grado concreto de cualificación de cada candidato, el número de empleos a los que se presentó, la frecuencia de sus rechazos— no destruyen la homogeneidad del colectivo si la causa del daño es estructuralmente la misma para todos.

Esta premisa no es novedosa. En Wal-Mart Stores, Inc. v. Dukes (564 U.S. 338, 2011), el Tribunal Supremo reconoció —aunque no en ese caso específico— que una política de selección uniformemente sesgada puede generar una cuestión común susceptible de resolución colectiva. Y en Stockwell v. City & County of San Francisco (749 F.3d 1107, 9th Cir. 2014), el Noveno Circuito aplicó ese principio a una alegación de discriminación por edad basada en impacto dispar, afirmando que los efectos de una política uniforme «rise and fall together» para todos los miembros del colectivo.

Lo que resulta llamativo en Mobley es la extensión de este razonamiento a un proveedor de servicios que no es, en sentido estricto, el empleador. Workday argumentó que la política que Mobley identificaba no era en realidad uniforme, porque cada empleador podía activar o desactivar las funciones de IA y porque el WAC generaría impactos distintos dependiendo de la composición demográfica de los empleados incumbentes de cada empresa. El tribunal descartó ambos argumentos con una construcción lógica que vale la pena desgranar.

Respecto a la activación opcional de los módulos, el tribunal señala que la propia definición del colectivo propuesto —personas «denied employment recommendations» por Workday— ya excluye a quienes fueron evaluados únicamente con arreglo a criterios definidos por el empleador sin participación de la IA de Workday. El individuo que fue rechazado por un filtro diseñado exclusivamente por el empleador no forma parte del colectivo; aquel cuya candidatura fue puntuada, clasificada o filtrada por el algoritmo de Workday sí lo forma. La uniformidad de la política no requiere que todos los empleadores usen todas las funciones; requiere que quienes usaron la función acusada lo hicieran a través del mismo sistema.

En cuanto a las variaciones de impacto entre empleadores, el tribunal remite al precedente de Ellis v. Costco Wholesale Corp. (285 F.R.D. 492, N.D. Cal. 2012): que algunas divisiones de una empresa no muestren discriminación no destruye la acción colectiva si existe una política nacional uniforme cuyo impacto neto puede probarse mediante prueba estadística. Aplicada a Workday, la lógica es análoga: que el WAC genere un impacto menor en empresas con plantillas más diversas no elimina la cuestión común sobre si el algoritmo, como tal, está diseñado o ha evolucionado de manera que penaliza a los candidatos mayores de cuarenta años.

La atribución de responsabilidad al proveedor de IA: un territorio jurídico en construcción

Este es, probablemente, el aspecto más delicado y menos resuelto de la resolución. El tribunal no establece en esta fase que Workday sea efectivamente responsable bajo la ADEA; eso corresponde al fondo. Pero sí considera suficientemente plausible que el proveedor de IA pueda ser agente en el sentido relevante para la teoría del impacto dispar.

La distinción clave, ya establecida en la resolución sobre la excepción previa, es la que separa el rol de Workday del de una mera hoja de cálculo que ejecuta los criterios del empleador. Si Workday se limitara a ordenar candidatos conforme a parámetros fijados íntegramente por el cliente, no habría base para imputarle responsabilidad: sería el equivalente digital de un contable que aplica una fórmula que no diseñó. El problema surge cuando el sistema de IA aporta su propia lógica al proceso de selección —cuando detecta, aprende y amplifica las preferencias del empleador, incluyendo las discriminatorias— porque en ese momento el proveedor no es un mero vehículo sino un actor con influencia propia sobre el resultado.

Esta es, hay que reconocerlo, una zona de incertidumbre jurídica considerable. La ADEA no se redactó pensando en intermediarios algorítmicos. La doctrina sobre qué constituye un «employer» o un agente en el sentido de la legislación antidiscriminatoria estadounidense no resuelve con claridad el caso de los proveedores de software que participan en la decisión sin contratarlo directamente. Dicho esto, la tendencia regulatoria en Estados Unidos —visible en las directrices de la Equal Employment Opportunity Commission (EEOC) sobre el uso de IA en el empleo, publicadas en 2023— apunta hacia la responsabilidad compartida entre el empleador y los proveedores de herramientas que influyen en las decisiones de contratación. El tribunal no se pronuncia sobre este debate, pero su postura implícita —admitir la plausibilidad de la responsabilidad de Workday— es coherente con esa dirección.

El rechazo del estándar deslizante y sus consecuencias para el litigio colectivo

Uno de los pasajes más interesantes de la resolución, desde el punto de vista del derecho procesal, es el rechazo categórico del denominado «sliding-scale standard» propuesto por Workday. El argumento de Workday era que, habiendo ya tenido lugar parte de la instrucción, el tribunal debería elevar el umbral probatorio exigible al demandante en la primera fase de la certificación. A mayor grado de instrucción practicada, mayor exigencia.

La jueza Lin rechaza esta propuesta por tres razones que expone con claridad. Primera: la aplicación de un estándar variable requeriría que el tribunal realice, sobre un expediente incompleto, una evaluación del porcentaje de instrucción ya practicado, lo que conduce a decisiones inconsistentes. Segunda: el sistema crearía incentivos perversos, pues los demandados tendrían interés en prolongar la instrucción antes de la certificación preliminar para obtener un umbral más exigente. Tercera: el propio tribunal señala que Workday negoció en la conferencia de gestión del caso un período de instrucción más largo que el habitual antes de la certificación, lo que sugiere una estrategia deliberada para aprovechar precisamente ese efecto.

El razonamiento es convincente y tiene implicaciones que van más allá de este litigio. En procedimientos complejos con instrumentos de IA, los demandados cuentan con una ventaja informativa sustancial: conocen sus propios sistemas, sus datos de entrenamiento y sus métricas de rendimiento mucho mejor que el demandante. Permitir que esa asimetría informativa se traslade a una elevación del estándar probatorio inicial privaría a la acción colectiva de parte de su función correctora.

El tamaño del colectivo y el argumento de la sobrecarga

Workday estimó que durante el período relevante se habrían rechazado más de mil cien millones de candidaturas a través de su plataforma, lo que podría traducirse en cientos de millones de posibles demandantes. Este dato se presentó como argumento para denegar la certificación: un colectivo de esa magnitud haría inmanejable el procedimiento.

El tribunal desestima el argumento con una respuesta que tiene cierta contundencia retórica: si el colectivo es potencialmente tan numeroso, es porque Workday ha sido acusado de discriminar contra una proporción igualmente amplia de candidatos. La amplitud del daño alegado no puede ser argumento para negar la notificación a los posibles afectados. Lo que el tribunal está autorizado a controlar, conforme a Hoffmann-La Roche Inc. v. Sperling (493 U.S. 165, 1989), es el contenido de la notificación para garantizar la neutralidad judicial; no la supresión de la notificación por razón del volumen.

Dicho esto, la gestión práctica de un colectivo de estas dimensiones plantea problemas genuinos que el tribunal no resuelve en esta fase. Workday alegó que sus contratos con los clientes le impiden acceder a los datos de los candidatos, que carece de información directa sobre la edad de los solicitantes y que las restricciones de privacidad dificultarían identificar a los miembros del colectivo. El tribunal reconoce estas dificultades pero las califica como no insuperables, señalando que los contratos con los clientes contienen excepciones aplicables cuando Workday está sujeto a una orden judicial, que la edad puede aproximarse mediante proxies como el año de graduación o la antigüedad en el mercado laboral, y que el propio sistema CSM almacena las puntuaciones otorgadas a cada candidato. Las partes quedan emplazadas a negociar un plan de notificación en las semanas siguientes.

Legitimación para solicitar tutela cautelar sin acreditar cualificación

Un aspecto de la resolución que tiene relevancia más allá del caso concreto es la cuestión de la legitimación activa (standing) de los candidatos que no acreditan que reunían los requisitos objetivos para los puestos a los que se presentaron. Workday argumentó que solo deberían poder unirse al colectivo quienes hubieran cumplido las condiciones mínimas de la oferta, hubieran aplicado a un número suficiente de posiciones y tuvieran una tasa de rechazo estadísticamente significativa —en esencia, que solo el candidato con perfil idéntico al de Mobley sería parte legítima del colectivo.

El tribunal rechaza esta limitación, distinguiendo entre la acción de daños y la tutela cautelar de cesación. Para obtener una indemnización, es posible que sea necesario acreditar que el candidato habría sido contratado en ausencia de discriminación; eso implicaría valorar su cualificación. Pero para obtener una orden que obligue a Workday a cesar en la práctica discriminatoria, basta con haber sido sometido al sistema algorítmico en condiciones de desigualdad. La lesión jurídica en el segundo supuesto no es el rechazo de la candidatura, sino la privación de la oportunidad de competir en igualdad de condiciones. Esta distinción, bien establecida en la jurisprudencia del Noveno Circuito —y respaldada por Northeast Florida Chapter of Associated General Contractors v. City of Jacksonville (508 U.S. 656, 1993)— tiene consecuencias prácticas considerables: amplía notablemente el perímetro del colectivo y refuerza la función preventiva y disuasoria de la acción colectiva.

Conclusiones y perspectivas

Mobley v. Workday no resuelve si Workday discriminó. Resuelve, por ahora, que la cuestión puede y debe resolverse de forma colectiva. Pero las implicaciones de esa decisión procesal son considerables.

  • La intermediación algorítmica no es un escudo jurídico. El hecho de que la decisión final recaiga formalmente en el empleador no excluye la responsabilidad del proveedor de la herramienta de IA si esta participa activamente en el proceso de selección. Este principio, aún en construcción doctrinal, recibe en esta resolución uno de sus respaldos judiciales más explícitos.

  • La uniformidad de la política se predica del sistema, no de su uso concreto. Que cada empleador configure la herramienta de manera distinta no destruye la existencia de una política uniforme si el núcleo del sistema —el algoritmo, sus datos de entrenamiento, su lógica de puntuación— es el mismo para todos. Las variaciones en el impacto son cuestiones de cuantificación del daño, no de existencia del nexo causal.

  • El estándar de certificación preliminar no se eleva por el avance de la instrucción. La bifurcación entre certficación provisional y decertificación posterior tiene una razón de ser que no puede ser neutralizada mediante estrategias de prolongación de la fase de instrucción previa a la certificación.

  • El tamaño del colectivo no justifica la denegación de notificación. La magnitud del daño alegado es argumento a favor de la acción colectiva, no en su contra. La carga de gestión procesal es real, pero soluble mediante técnicas de notificación alternativa y fases diferenciadas de responsabilidad y daños.

  • La regulación de la IA en el empleo en Estados Unidos se está construyendo judicialmente. A diferencia del marco europeo —donde el Reglamento de Inteligencia Artificial clasifica los sistemas de contratación como sistemas de alto riesgo sujetos a obligaciones ex ante—, el ordenamiento estadounidense carece de una regulación sectorial específica. Mobley ilustra cómo ese vacío se está llenando, con mayor lentitud pero también con mayor especificidad fáctica, a través del litigio.