Del miedo a que los robots nos quiten el trabajo pasamos a desconfiar de la IA, que interviene cada vez más en los procesos de selección. Ahora, cada vez más empleados quieren un jefe ‘bot’ en vez de uno humano.
Los empleados prefieren a los bots de inteligencia artificial por encima de los jefes humanos en la gestión del rendimiento… Cinco años después del comienzo de la pandemia de Covid -con los cambios que propició en el mercado laboral- y dos años y medio después del boom de la inteligencia artificial generativa, numerosos estudios e investigaciones insisten en esta curiosa preferencia de los profesionales que, por cierto, no es nueva, pues hace ya un lustro un estudio de Oracle y Future Workplace revelaba que la IA estaba cambiando la forma en la que las personas contemplan su lugar de trabajo, y añadía que el 64% de los encuestados confiaba más en un robot que en su jefe.
Eran los tiempos en los que los temores se centraban en la posibilidad de que los robots pudieran quitarnos el trabajo, con las máquinas y algoritmos cada vez más incorporados a los procesos de selección. No era de extrañar que ya entonces se planteara la posibilidad de que un robot pudiera mandarnos… Y de que esta circunstancia fuera aceptada por cada vez más profesionales.
Hace cinco años no se veía posible aún la forma humanoide de un robot jefe que grita, pero sí la posibilidad de recibir instrucciones automáticas hechas por la inteligencia artificial. Por ejemplo, se contemplaba la posibilidad de que en un supermercado pudiera haber un jefe virtual que diera instrucciones si identificaba en los lineales una escasez de determinado producto. De este modo, no sería necesaria la presencia de multitud de mandos en la cadena.
Ahora, ya en plena era de la IA (relacionada con los agentes de inteligencia artificial) los estudios e investigaciones mantienen esa preferencia por la inteligencia artificial en detrimento de los jefes humanos. Y esta predilección se relaciona con la percepción de imparcialidad, objetividad y consistencia que ofrecen los sistemas de IA frente a las interacciones humanas, que a menudo están influenciadas por sesgos personales.
Así, un reciente estudio de Gartner concluye ahora que el 57% de los empleados considera que los humanos son más sesgados que la IA, y para el 87% los algoritmos ofrecen una retroalimentación más justa que los gerentes humanos. La razón principal que esgrimen los partidarios de los bots es que los sistemas de inteligencia artificial eliminan factores subjetivos como el favoritismo, los prejuicios inconscientes o las emociones momentáneas que pueden influir en las decisiones humanas.

La confianza en la IA se basa en que utiliza métricas objetivas y datos históricos para evaluar el rendimiento, lo que genera mayor confianza entre los empleados, que valoran la transparencia en las evaluaciones basadas en datos y sienten que estas herramientas reducen la ambigüedad en las decisiones.
En los diferentes estudios que analizan la predilección de los profesionales en la gestión del rendimiento se puede concluir asimismo que los empleados prefieren la inteligencia artificial en procesos estructurados (evaluaciones o compensación) por su objetividad, pero valoran a los líderes humanos en aspectos relacionales (empatía y cultura).
Un estudio de The Josh Bersin Company aclara que el futuro no es de bots contra jefes humanos, sino una colaboración estratégica en la que la IA aporta datos y los humanos brindan contexto emocional: «La inteligencia artificial puede eliminar sesgos, pero el liderazgo humano convierte datos en acciones significativas».
Este enfoque híbrido muestra resultados: según datos de McKinsey y Gartner, empresas como IBM o Microsoft han logrado aumentar la equidad en un 30% y reducir la rotación en un 25%. Microsoft utiliza IA para vincular el desempeño individual con objetivos de organización específicos, mejorando la claridad y relevancia del feedback.
En IBM, el uso de IA para evaluaciones redujo un 33% los sesgos relacionados con el género y la etnia. Las herramientas basadas en IA identifican patrones objetivos de desempeño y eliminan prejuicios inconscientes que podrían influir en las decisiones humanas. Y en ServiceNow los empleados prefieren evaluaciones automatizadas, porque consideran que no están influenciadas por emociones o relaciones personales.
El salto de la IA
La máquina como mando es una realidad en lo que se refiere al control de tiempo u horarios, aunque la inteligencia artificial puede dar el salto de simple asistente hasta servir de ayuda para organizarse y comprobar el cumplimiento de objetivos
Pedro Diezma, innovation manager de Kleverplay, explica que la participación de la inteligencia artificial en todas las decisiones que afectan a los profesionales depende de si hablamos de tareas repetitivas y automatizables o si nos referimos a actividades productivas que se puedan medir: «Evidentemente, se puede dar un proceso de supervisión en el que más que de un jefe, hay que hablar de un asistente de control o supervisión. Podemos convertirlo en un Gran Hermano de las tareas que realizan los trabajadores (ritmos de trabajo) y emitir un informe (juicio, valoración y recompensa), siempre que sea algo que se puede medir».

El experto en tendencias sobre la inteligencia artificial añade que «la llegada de agentes de IA, que implica la posibilidad de tomar decisiones en tiempo real, permite controlar, supervisar -y mejorar- tareas repetitivas fácilmente medibles que no tengan que ver con algo subjetivo». En todo caso, concluye que «para tomar decisiones más serias siempre será necesaria la presencia de un jefe humano».
En este sentido, una investigación de la Universidad de Münster sugiere que incorporar rasgos humanos -como bots o diseños conversacionales con señales visuales, auditivas y conductuales que imitan a personas reales- podría mejorar la eficacia de la IA, pero también podría generar expectativas poco realistas, ya que se da una paradoja al hacer que las herramientas de decisión basadas en IA sean más humanas para generar confianza y, al mismo tiempo, gestionar las expectativas de equidad.
Las personas pueden ser más receptivas a la IA cuando esta parece aprender o actuar como un ser humano, pero esto no garantiza una toma de decisiones justa, especialmente en recursos humanos. La investigación añade la advertencia de que dar forma o cualidades humanas a la IA de forma excesiva podría resultar inquietante o provocar resistencia en los empleados. Si bien los profesionales suelen considerar la inteligencia artificial como una alternativa más imparcial a los supervisores humanos, persisten desafíos legales y éticos, y los responsables de gestión de personas deben asumir la plena responsabilidad de las decisiones laborales, incluso cuando se utiliza la inteligencia artificial.

Podría ser mucho peor…
Cuando hace más de cinco años analizábamos la inevitable convivencia profesional entre el hombre y la máquina (lo que se conoce como inteligencia social), ya adivinábamos algunos conflictos de relación laboral que requerían solución. Ahora, en plena era de la IA, cabe la posibilidad de que el jefe robot al que parecen aspirar muchos profesionales sea aún peor que el humano.
- La cuestión es si llegaremos a ver a un verdadero jefe robot con capacidad para tomar decisiones sobre nuestro trabajo y que valore nuestra actividad, hasta el punto de que este juicio tenga consecuencias en la recompensa que recibimos y en el desarrollo de nuestra carrera profesional.
- Aquellos profesionales que prefieren que su jefe sea una máquina o un algoritmo deberían tener en cuenta que si este último le dice al empleado cómo hacer las cosas al milímetro desaparecerá la autonomía del profesional, y también la transparencia. Con un jefe humano sabemos qué es importante para él, pero con el algoritmo no sabemos qué valora realmente la máquina.
- Si es el algoritmo el que toma decisiones y se las da hechas al empleado, las personas tendrán cada vez menos habilidades para decidir. Esto se pone de manifiesto en el caso de los pilotos aéreos. Algunos estudios detectan que el piloto tiende a hacer lo que dice el algoritmo y así, cada vez identifican menos los problemas reales del avión.
- Otra cuestión es la falta de empatía. No se le puede explicar a un algoritmo o a una máquina que uno está bajo de ánimo, porque no atiende a razones, incluso aunque éstas sean justificadas. Al medir parámetros de eficiencia los robots no son capaces de entender ciertas cuestiones: por ejemplo, serían incapaces de identificar situaciones concretas de empleados con cargas familiares.