Tu lugar de trabajo ya tiene un jefe algorítmico. No firma nóminas, no aparece en el organigrama, pero asigna tareas, mide tiempos, evalúa rendimiento y puede activar un procedimiento disciplinario. El 74 % de las empresas encuestadas en seis países de renta alta ya utilizan al menos una herramienta de gestión algorítmica del trabajo. Y el 27 % de los mandos intermedios que las supervisan reconocen que la salud física y mental de sus empleados no está suficientemente protegida frente a ellas.
Estos datos no provienen de un manifiesto sindical ni de un estudio sectorial parcial. Forman parte del ILO Working Paper 170: AI Systems at Work — A Changing Psychosocial Work Environment, publicado en abril de 2026 por la Organización Internacional del Trabajo bajo la autoría de Tahmina Karimova, investigadora jurídica del Departamento de Investigación de la OIT. El documento, que puede consultarse íntegramente aquí, constituye el primer análisis sistemático de la OIT sobre los riesgos psicosociales —en adelante, PSR— derivados específicamente de los sistemas de inteligencia artificial en entornos laborales, y plantea una tesis que merece atención doctrinal: los marcos regulatorios actuales de seguridad y salud en el trabajo (occupational safety and health, OSH) no están diseñados para capturar los riesgos que la IA genera en la dimensión psicosocial del trabajo, y la respuesta no puede venir de un único instrumento normativo, sino de una aproximación integrada que cruce el derecho laboral, la regulación de IA, la protección de datos y la normativa antidiscriminación.
Un nuevo sujeto en la relación laboral: el algoritmo como empleador de facto
La transformación que documenta el Working Paper 170 no es meramente tecnológica. Es estructural. La introducción de sistemas de IA en los entornos de trabajo no afecta únicamente a qué tareas realizan las personas, sino a cómo se ejerce la autoridad sobre ellas. La gestión algorítmica del trabajo —definida como la delegación de funciones directivas a algoritmos que recopilan datos de trabajadores, espacios y actividades para producir decisiones automatizadas o semiautomatizadas— transforma el vínculo jurídico que subyace a la relación laboral tradicional.
Conviene subrayar la profundidad de este cambio. El marco conceptual sobre el que descansa el derecho del trabajo, desde la OIT hasta los ordenamientos nacionales más sofisticados, fue construido asumiendo una relación de naturaleza humana: un empleador que da instrucciones y un trabajador que las ejecuta, con derechos y obligaciones que emanan de esa interacción. Cuando la función directiva se delega en un sistema algorítmico, emergen preguntas cuya respuesta el ordenamiento vigente no contempla con claridad. ¿Quién es responsable de las decisiones del algoritmo? ¿Tiene el trabajador derecho a conocer los parámetros que determinan su evaluación? ¿Puede impugnar una decisión adoptada por un sistema automatizado?
El Working Paper 170 categoriza los sistemas de IA relevantes en tres grandes familias: la robótica avanzada, los sistemas de gestión algorítmica del trabajo y los sistemas digitales inteligentes —que integran sensores, IoT, wearables, realidad aumentada y drones para monitorizar y gestionar riesgos laborales—. En todos ellos, la IA no es un instrumento pasivo: procesa datos en tiempo real, genera predicciones y emite recomendaciones o decisiones que afectan a condiciones de trabajo tan sensibles como la remuneración, los horarios, la evaluación del rendimiento o el acceso a la formación y la promoción. Esta profundidad de penetración en el ciclo completo de la relación laboral es lo que distingue cualitativamente al momento actual de transformaciones tecnológicas previas.
La dimensión psicosocial: el eslabón ignorado de la seguridad laboral
Los riesgos psicosociales en el trabajo —definidos por la OIT como cualquier elemento en el diseño o la gestión del trabajo que incremente el riesgo de estrés laboral— tienen una larga historia en la literatura de medicina y psicología ocupacional, pero han sido sistemáticamente subvalorados en los marcos regulatorios. La Karimova documenta este déficit con precisión: la mayor parte de la legislación OSH a escala global sigue centrándose en los aspectos físicos de la seguridad, y las referencias a la salud mental no siempre se operacionalizan en medidas preventivas concretas.
La taxonomía de factores psicosociales que recoge el informe conjunto OIT/OMS de 1986 sigue siendo el referente canónico: contenido y diseño de las tareas, carga y ritmo de trabajo, control sobre el propio empleo, entorno y equipos, cultura organizativa, relaciones interpersonales, rol en la organización, desarrollo profesional e interfaz trabajo-vida privada. Lo que el Working Paper 170 hace, con rigor metodológico, es cartografiar cómo cada uno de estos factores resulta exacerbado o reconfigurado por la introducción de sistemas de IA.
La tabla de taxonomía que propone el documento —y que constituye uno de sus aportes conceptuales más valiosos— identifica, por ejemplo, que la categoría "carga y ritmo de trabajo" se ve afectada por la sobrecarga cognitiva y la presión temporal que generan los sistemas de gestión automatizada, capaces de incrementar el número de tareas en periodos laborales más cortos e imponer indicadores de rendimiento (KPIs) inalcanzables o arbitrarios. La categoría "control sobre el empleo" adquiere una dimensión nueva cuando las decisiones sobre contratación, asignación de tareas, evaluación o despido son adoptadas por un algoritmo opaco. Y la "cultura organizativa" muta hacia entornos de vigilancia permanente cuando los sistemas de IA recopilan datos continuos sobre la actividad, las comunicaciones y los patrones de comportamiento de los trabajadores.
Conviene detenerse en los tres factores psicosociales emergentes que el Working Paper identifica como específicamente atribuibles a la IA y que no encajan con precisión en ninguna categoría preexistente: la vigilancia intensiva e intrusiva, la pérdida de autonomía laboral y la recopilación excesiva de datos con ausencia de transparencia. Su estudio revela tanto la insuficiencia del marco conceptual vigente como la urgencia de articular respuestas normativas ad hoc.
Vigilancia permanente: cuando el panóptico se vuelve algorítmico
El filósofo Jeremy Bentham concibió el panóptico como una arquitectura de control en la que el vigilado nunca sabe cuándo está siendo observado, pero actúa siempre como si lo estuviera. Los sistemas de gestión algorítmica del trabajo han perfeccionado ese modelo hasta límites técnicamente impensables hace dos décadas. Una encuesta citada en el Working Paper 170, realizada sobre 1.273 trabajadores en Estados Unidos, encontró que el 46 % de quienes declaraban que su productividad era monitorizada "constantemente" reconocían trabajar a un ritmo excesivo, frente al 15 % de quienes nunca eran monitorizados electrónicamente. El 53 % de los monitorizados de manera permanente experimentaban ansiedad en el trabajo de forma habitual o frecuente.
Lo que resulta jurídicamente relevante no es solo el dato empírico, sino su implicación normativa. La vigilancia constante no es una preferencia de gestión neutral: es un factor de riesgo psicosocial con consecuencias medibles sobre la salud mental. Y sin embargo, con notables excepciones, la legislación laboral mayoritaria no la trata como tal. El Working Paper 170 recoge el caso australiano como ejemplo avanzado: el Código de Práctica de Seguridad y Salud en el Trabajo sobre Riesgos Psicosociales (2024) clasifica la vigilancia intrusiva como un peligro laboral específico, e incluye en esa categoría tanto la supervisión desproporcionada como el rastreo de actividad mediante teclados, cámaras, GPS y dispositivos similares.
La perspectiva del derecho europeo es más fragmentaria. La Resolución del Parlamento Europeo de 5 de julio de 2022 sobre salud mental en el mundo digital del trabajo reconoce los riesgos significativos que la IA de gestión plantea para la privacidad y la dignidad de los trabajadores, y señala que aproximadamente el 40 % de los departamentos de recursos humanos de grandes empresas internacionales ya utilizan aplicaciones de IA, con el 70 % considerándolo una prioridad alta. Pero el reconocimiento político no se ha traducido aún en obligaciones jurídicas vinculantes de alcance general. Suiza, con el artículo 26 de la Ordenanza 3 a la Ley del Trabajo, prohíbe los sistemas de control de comportamiento en el lugar de trabajo, y exige que cualquier sistema de vigilancia sea proporcional y no afecte la salud ni la capacidad de movimiento normal de los empleados. Francia impone la notificación previa a los trabajadores de cualquier sistema de monitorización, bajo el artículo L1222-4 del Código de Trabajo. Portugal, Grecia, Chipre y Bulgaria han incorporado restricciones similares en el contexto del teletrabajo, aunque con ámbito de aplicación más limitado.
La dispersión normativa es precisamente el problema. Existe conciencia creciente del riesgo, pero no un marco coherente y vinculante que lo prevenga sistemáticamente.
La autonomía como derecho de salud: lo que la medicina ocupacional sabe y el derecho ignora
La literatura de psicología y medicina ocupacional lleva décadas documentando una correlación robusta entre la autonomía laboral y la salud mental de los trabajadores. El modelo de Hackman y Oldham (1976) identifica la autonomía —entendida como la libertad, independencia y discrecionalidad del trabajador en la programación y ejecución de su trabajo— como una de las cinco dimensiones fundamentales que determinan la satisfacción y el bienestar en el empleo. Las Directrices de la OMS sobre Salud Mental en el Trabajo (2022) confirman que el bajo control sobre el propio empleo se asocia con síntomas de condiciones de salud mental, agotamiento emocional e, incluso, mayor probabilidad de baja por diagnóstico psiquiátrico.
Ahora bien, ¿qué ocurre cuando la autonomía del trabajador es erosionada no por un supervisor humano autoritario, sino por un sistema de IA que asigna tareas, determina ritmos, evalúa resultados y adopta decisiones sin intervención humana discernible? El Working Paper 170 responde con evidencia: un estudio alemán con 8.000 empleados (Digitalisierung und Wandel der Beschäftigung, DiWaBe) concluyó que un nivel mínimo de autonomía es un factor determinante para la salud mental de los trabajadores y representa un riesgo de enfermedad mental a largo plazo. Los resultados del estudio indicaron un empeoramiento de las condiciones de trabajo —no una mejora— cuando más decisiones eran adoptadas por la tecnología.
Lo que resulta llamativo es que el derecho del trabajo carece, en términos generales, de mecanismos para capturar esta dimensión. La noción de "control sobre el empleo" como factor psicosocial no incluye referencias específicas a los sistemas de IA, y los marcos OSH no han actualizado sus criterios de evaluación de riesgos para incorporar la erosión algorítmica de la autonomía laboral. Como señala el propio Working Paper, la psicología y la medicina ocupacional podrían no ser capaces de "explicar plenamente los cambios específicos derivados de la digitalización de las tareas", lo que sugiere que el riesgo de bajo control está siendo subestimado estructuralmente por las herramientas diagnósticas actuales.
La opacidad del dato: privacidad, inferencia y desproporcionalidad
El tercer eje del análisis aborda la recopilación masiva de datos sobre los trabajadores y la ausencia de transparencia en su tratamiento. El Código de Práctica de la OIT de 1997 sobre protección de datos personales de los trabajadores ya reconocía que los empleadores recaban información personal por razones legítimas —cumplimiento normativo, selección de personal, seguridad—. Pero la escala y profundidad de la recopilación de datos que habilitan los sistemas de IA actuales supera cualquier precedente histórico, y genera una relación de poder informacional que no tiene equivalente en el modelo de relación laboral para el que fue diseñado el ordenamiento vigente.
Los sistemas de IA empleados en la gestión del trabajo no solo registran métricas de productividad: pueden monitorizar patrones de comunicación, actividad en plataformas colaborativas, movimientos físicos, expresiones faciales, tonos de voz y, mediante sistemas de biometric computing, estados emocionales inferidos. La ausencia de transparencia sobre qué datos se recopilan, con qué finalidad, durante cuánto tiempo y quién accede a ellos crea lo que el Working Paper denomina una percepción de falta de justicia y confianza, que es en sí misma un factor psicosocial de riesgo.
El AI Act europeo prohíbe los sistemas de inferencia emocional en contextos laborales y educativos, con excepciones médicas o de seguridad, y clasifica como de alto riesgo los sistemas que monitoricen el comportamiento de las personas en relaciones contractuales laborales. Pero la prohibición es parcial: no cubre todas las modalidades de vigilancia biométrica ni todas las formas de recopilación de datos que los sistemas actuales hacen posibles. Y la implementación está siendo aplazada: el Paquete Digital Ómnibus de la Comisión Europea anunció en noviembre de 2025 el retraso de las obligaciones para sistemas de alto riesgo hasta diciembre de 2027.
El vacío regulatorio y la propuesta de un enfoque integrado
La conclusión central del Working Paper 170 es que los marcos regulatorios existentes son insuficientes para abordar los PSR derivados de los sistemas de IA en el trabajo, pero no porque sean erróneos: el problema es su diseño tecnológico-neutral, pensado para riesgos previsibles en la fase de diseño, no para riesgos que emergen dinámicamente durante el despliegue de sistemas opacos y adaptativos. Los investigadores Cefaliello et al. señalan que ni la Directiva Marco OSH de la UE ni la norma ISO 45-003 contemplan esta dimensión: todos los instrumentos siguen el paradigma de la seguridad desde el diseño (safety by design), que asume que todos los riesgos pueden identificarse y mitigarse antes de la puesta en funcionamiento. Los sistemas de IA generativa y adaptativa falsifican esa premisa.
Lo que resulta particularmente valioso del aporte del Working Paper 170 es su propuesta normativa: no un nuevo instrumento sectorial, sino un enfoque integrado que articule cuatro planos regulatorios simultáneos.
El primero es el del derecho laboral y de empleo, que debe actualizar sus mecanismos de protección del trabajador para incluir la relación algorítmica de autoridad, con obligaciones de información, consulta y participación en el despliegue de sistemas de IA. El segundo es el de la igualdad y la no discriminación, dado que los sistemas algorítmicos pueden perpetuar y amplificar sesgos históricos en decisiones de contratación, promoción o despido. El tercero es el de la OSH propiamente dicha, que debe ampliar su concepto de riesgo para incluir los PSR específicamente atribuibles a la IA y desarrollar herramientas de evaluación adaptadas. El cuarto es el de la privacidad y la protección de datos, que debe establecer límites claros a la recopilación y el tratamiento de datos laborales en entornos algorítmicos.
Esta estructura cuádruple no es una propuesta abstracta: el Working Paper identifica ejemplos reales de cada plano que ya están siendo implementados en distintas jurisdicciones. España ha introducido obligaciones de transparencia algorítmica en el Estatuto de los Trabajadores mediante el llamado Decreto Rider, que reconoce el derecho de los comités de empresa a ser informados de los parámetros, reglas e instrucciones de los algoritmos que afecten a condiciones de trabajo. Alemania ha incorporado la IA en los deberes de información a los consejos de empresa en su Ley de Organización del Trabajo (Betriebsverfassungsgesetz). Bulgaria ha regulado, en sus modificaciones de 2024 al Código de Trabajo, el derecho del trabajador en teletrabajo a recibir información escrita sobre el mecanismo de toma de decisiones del sistema de gestión algorítmica, y a solicitar la revisión humana de dichas decisiones.
Estos avances son significativos, pero fragmentarios. Lo que falta es un marco que los unifique, que establezca derechos mínimos aplicables con independencia de la forma en que esté organizado el trabajo —presencial, remoto o híbrido— y que asigne responsabilidades claras a los distintos actores de la cadena de IA: desarrolladores, proveedores y desplegadores.
Los derechos emergentes en el entorno algorítmico del trabajo
El Working Paper 170 dedica atención específica a lo que denomina "nuevos derechos OSH" en el contexto de la gestión algorítmica. Se trata, en rigor, de una reconfiguración de derechos preexistentes —el derecho a la información, el derecho a participar en decisiones que afectan a la salud y seguridad, el derecho a rechazar trabajo peligroso— adaptados a la especificidad del entorno algorítmico.
Cuatro de estos derechos merecen atención particular. El primero es el derecho a la información sobre el despliegue de sistemas de IA, que implica que el trabajador sea informado de manera accesible y comprensible de los sistemas que se le aplican, su naturaleza automatizada y su incidencia en sus condiciones de trabajo. El AI Act europeo incorpora este derecho en su artículo 26.7, que obliga a los desplegadores a informar a los representantes de los trabajadores y a los trabajadores afectados antes de poner en servicio un sistema de IA de alto riesgo.
El segundo es el derecho a la explicación de las decisiones algorítmicas, que reconoce al trabajador el derecho a recibir una explicación comprensible de cualquier decisión adoptada por un sistema de IA que le afecte. El AI Act lo incorpora en su artículo 86, y el Reglamento General de Protección de Datos europeo establece en su artículo 22 el derecho a no ser objeto de decisiones basadas exclusivamente en tratamiento automatizado que produzcan efectos jurídicos significativos. El proyecto de ley brasileño sobre IA (PL 2338/2023) va más lejos, estableciendo el derecho a impugnar y solicitar revisión de decisiones, recomendaciones o predicciones del sistema, con revisión humana obligatoria.
El tercero es el derecho a la revisión humana de las decisiones algorítmicas, que conecta directamente con el principio de supervisión humana significativa (meaningful human oversight) que subyace al AI Act, pero que en el ámbito laboral adquiere dimensiones específicas: la revisión no puede ser meramente formal, y debe contemplar el contexto, los factores no capturados por el sistema y la posibilidad real de modificar el resultado.
El cuarto es el derecho a la desconexión, que el Working Paper analiza como un mecanismo complementario de protección frente a la vigilancia permanente y la invasión algorítmica de la vida privada. Aunque su implementación varía considerablemente entre jurisdicciones —Australia, Bélgica, Francia, Grecia y Bulgaria lo han incorporado en sus ordenamientos con distinto alcance—, su función en el contexto de la IA es específica: limitar la capacidad de los sistemas de monitorización para extenderse más allá de la jornada laboral.
Lo que falta: la autonomía, la dignidad y la transparencia como problemas abiertos
La conclusión del Working Paper 170 es honesta en señalar lo que el derecho todavía no ha resuelto. Las regulaciones sobre vigilancia e intrusión están, aunque dispersas, tomando forma. La protección de la privacidad laboral avanza, aunque con retrasos. Pero la pérdida de autonomía laboral como factor psicosocial de riesgo atribuible a la IA carece, en términos generales, de respuesta normativa articulada. Y lo mismo ocurre con la dignidad en el trabajo —entendida como la capacidad del trabajador de no ser reducido a un conjunto de métricas evaluadas algorítmicamente sin posibilidad de contestación— y con la transparencia organizativa en sentido amplio, que implica no solo conocer que un algoritmo existe, sino comprender cómo funciona, qué datos utiliza y qué consecuencias produce.
Estos tres déficits plantean, en última instancia, una pregunta que trasciende el derecho laboral o la regulación de la IA: ¿qué clase de mundo del trabajo queremos construir? La OIT, desde su fundación, ha sostenido que las condiciones de trabajo deben ser humanas. La incorporación masiva de sistemas de IA que asumen funciones directivas, evalúan rendimientos y distribuyen oportunidades plantea si ese principio sigue siendo operativo, y qué instituciones —legislativas, judiciales, de supervisión— están en posición de garantizarlo.
El Working Paper 170 no da respuesta definitiva a esa pregunta. Lo que sí hace, con rigor académico y base empírica sólida, es demostrar que la pregunta es urgente y que las respuestas no pueden seguir siendo tecnológicamente neutras.
El documento completo —ILO Working Paper 170: AI Systems at Work — A Changing Psychosocial Work Environment, de Tahmina Karimova (OIT, Ginebra, 2026)— está disponible en acceso abierto bajo licencia Creative Commons Attribution 4.0 en ilo.org.
Artículos relacionados
IA y justicia: cuando la precisión exige opacidad
Renzo Cavani argumenta que los sistemas de IA judicial más eficientes son necesariamente opacos. La clave no es exigir transparencia total, sino calibrarla según el grado de interferencia en la decisión judicial.
Gestión de riesgos en IA general: el perfil Berkeley v1.2
UC Berkeley publica la versión 1.2 de su perfil de gestión de riesgos para modelos GPAI: evalúa Claude Sonnet 4.6, GPT-5, Llama 4 y Gemini 3 Pro, y añade monitoreo post-despliegue como prioridad máxima.
Nightshade y el Derecho de Autor ante la IA Generativa: Resistencia Algorítmica y Licenciamiento Forzoso
El envenenamiento de datos como mecanismo de autodefensa frente al raspado masivo: análisis técnico-jurídico de Nightshade, sus implicaciones bajo el AI Act y el marco de *lege ferenda*.
Agentes de IA como extensiones conductuales: privacidad en riesgo
El 34,6% de los agentes de IA filtra datos sensibles de sus propietarios sin configuración explícita. Análisis doctrinal sobre privacidad, identidad digital y RGPD.