La gran mayoría (93%) de los líderes de C-suite han tomado decisiones basadas en resultados de IA generados a partir de datos inexactos, según los resultados de una encuesta publicada ayer (27 de enero) por la firma de asesoría de talentos La Fosse.
Si bien la confianza de los ejecutivos de C-suite en el uso de IA es alta (el 70% se describe a sí mismo como «muy confiado» en su experiencia en IA), la mayoría (el 78%) de los líderes de C-suite admiten usar IA para trabajos para los cuales no están capacitados, lo que genera graves impactos organizacionales para el 40% de esos líderes.
Los datos de la encuesta de La Fosse se extraen de una encuesta realizada a más de 2.000 empleados del Reino Unido que trabajan en el sector tecnológico.
“Cuando casi todos los líderes de alto nivel admiten que se toman decisiones basadas en datos inexactos, eso no es un problema de IA, es un problema de liderazgo”, dijo Mark Green, fundador de la consultora Change Rebellion, en comentarios exclusivos a la revista HR .
Nos hemos lanzado a la adopción de la IA sin desarrollar la competencia de liderazgo necesaria para usarla de forma segura y estratégica. La confianza sin capacidad es una combinación peligrosa , añadió.
Para restablecer el equilibrio, los profesionales de RR.HH. deben “tratar la IA como cualquier otra habilidad organizacional crítica: generar alfabetización, crear seguridad psicológica (para que los líderes puedan admitir lo que no saben) y cablear una gobernanza que fuerce el rigor, el desafío y la responsabilidad”, sugirió Green.
Rob Machin, director de personal y ubicaciones de la empresa de servicios tecnológicos Endava, coincidió en que el desarrollo de habilidades es clave. Declaró a la revista HR : «El afán por aprovechar los beneficios de la IA debe ir acompañado de programas de desarrollo de habilidades específicos para una preparación eficaz».
Machin continuó: “Estos hallazgos nos enseñan una lección valiosa: una alta confianza en la IA no siempre resulta en competencia o un impacto positivo”.

Un poco más de una cuarta parte (27%) de los empleados tecnológicos de nivel intermedio informaron que confían en la capacidad de inteligencia artificial de sus líderes superiores, destacaron los datos de la encuesta de La Fosse.
Y la confianza en la capacidad de inteligencia artificial de los líderes de alto nivel disminuye conforme aumenta la antigüedad, sugieren los datos: el 50% de los gerentes senior y una proporción similar (48%) de los directores se describieron como «muy confiados» en la capacidad de inteligencia artificial de sus altos ejecutivos, en comparación con el 36% de los gerentes intermedios y el 33% del personal tecnológico de nivel inicial .
En declaraciones a la revista HR , Ollie Whiting, director ejecutivo de La Fosse, explicó que, para él, la magnitud de la brecha de confianza significa que «el exceso de confianza en la cúpula directiva es una de las mayores amenazas a las que se enfrentan las empresas hoy en día». Añadió: «Las empresas deben analizar detenidamente cómo dotan a sus líderes de las habilidades y la supervisión adecuadas antes de que los riesgos se agraven. Espero que esta investigación ayude a impulsar ese proceso».
Para desarrollar una competencia eficaz en IA en el nivel C-suite, RR.HH. debe fomentar una mayor honestidad organizacional, aconsejó Whiting: “Desarrollar capacidades en la cima significa crear espacio para conversaciones honestas y sentirse cómodo al incorporar apoyo especializado cuando sea necesario.
Las organizaciones que gestionan eficazmente el riesgo de la IA son aquellas que adoptan un enfoque proactivo, garantizando que los líderes reciban apoyo y se les desafíe, integrando la experiencia en IA en los equipos ejecutivos e implementando la gobernanza y la supervisión antes de que se produzcan errores. Necesitamos afrontar realidades incómodas , comprender dónde residen los riesgos y brindar a los líderes la orientación y la experiencia práctica que necesitan para tomar decisiones informadas a medida que se acelera el uso de la IA.
Machin añadió que todos los miembros de una organización deberían participar en programas de capacitación en IA, y que el aprendizaje debería adaptarse a la comprensión y las expectativas de cada empleado sobre la IA. «Comprender de antemano dónde se implementará la IA en las rutinas diarias de los empleados permitirá a RR. HH. ofrecer la formación adecuada a las personas adecuadas, mitigando los riesgos del uso irresponsable de la IA en el trabajo y potenciando su dominio», continuó Machin.

Para la consultora de IA Colette Mason, que representa a Clever Clogs AI, una gobernanza sólida es el factor más importante a la hora de fortalecer la capacidad de IA entre los altos ejecutivos. Al ofrecer una guía paso a paso sobre cómo podría ser una buena gobernanza en esta área, Mason declaró a la revista HR : «Defina qué herramientas de IA están aprobadas en su organización, para qué se pueden utilizar y para qué no, y prohíba claramente los usos riesgosos o no autorizados.
Realice comprobaciones periódicas para asegurarse de que los sistemas de IA no filtren datos de clientes, produzcan resultados sesgados ni ofrezcan asesoramiento no regulado. No querrá crear agujeros negros donde las decisiones clave no puedan rastrearse. Una gobernanza sólida crea salvaguardas profesionales, legales y éticas, e impide que los ejecutivos utilicen la IA más allá de la tolerancia al riesgo de la organización.
Añadió: «Ofrecer capacitación que ayude al personal a identificar la automatización pura de IA de alto riesgo; los copilotos de IA que impulsan ideas para la lluvia de ideas; y la automatización lógica de bajo riesgo. Esto eliminará una barrera clave para la comprensión y una adopción más segura».
Representantes de La Fosse encargaron a Censuswide una encuesta a 2.020 empleados adultos del Reino Unido que trabajan en el sector tecnológico, del 16 al 23 de diciembre de 2025. Los resultados se publicaron el 27 de enero de 2026.

