La polémica afirmación la realizó Kate Bischoff, abogada principal de HR Rive Law para la revista Busines Insider, generando toda una polémica en redes sociales del primer mundo.
Ve un puesto vacante para el trabajo de sus sueños. Se postula en el ATS y luego recibe una invitación para una entrevista en una plataforma que utiliza inteligencia artificial para seleccionar candidatos en función del video que envían. ¿Qué haces?
Piense en lo que sucede si es de color, ciego o tiene problemas del habla. La semana pasada, un candidato afroamericano brindó consejos sobre cómo debería responder a los empleadores que querían entrevistarla por video con un software que usa inteligencia artificial para determinar la empleabilidad.
«Como mujer negra de piel oscura, siento que ya me han filtrado», tuiteó. «¿Debería responder con un ‘No, gracias’?»
Las respuestas deberían detener a todos los reclutadores en seco, especialmente a aquellos que usan o están considerando usar inteligencia artificail (IA). A pesar de las afirmaciones de algunos, los científicos de datos continúan descubriendo que la IA no elimina el sesgo. (Confíe en científicos de datos que no estén afiliados a empresas de tecnología de recursos humanos).

Escucha. Voy a ser franco contigo. Si está utilizando IA para seleccionar candidatos, para analizar realmente si un candidato en particular debería pasar a la siguiente ronda, está utilizando tecnología sesgada que podría tener un efecto discriminatorio en los solicitantes, se lo sigo como abogada. Punto final.
Ahora, sé lo que estás pensando, «¡Pero Kate, el proveedor de ABC y experto en XYZ me dijo que la IA realmente puede reducir el sesgo!»
Sí, esos vendedores y expertos tienen una labia realmente deslumbrante para venderte. Te están mostrando estadísticas sobre cómo la IA ha mostrado menos sesgo que los humanos, lo que significa que sus algoritmos son mejores que los de las personas a la hora de tomar decisiones de contratación.
¿Pero sabes lo que puede hacer la gente? Desafíándonos unos a otros, identifiquemos nuestros prejuicios y trabaje activamente contra ellos cuando nuestros procesos estén diseñados para combatirlos. La IA no puede hacer eso.
La IA está capacitada para hacer lo que le decimos que haga en función de los datos que le proporcionamos y lo que aprende a lo largo del camino. La IA aprende qué hacer al consumir datos. Si los datos que le proporcionamos son más blancos o más masculinos, entonces la IA aprenderá a producir resultados más blancos o más masculinos.
Si los datos que alimentamos a la IA no tienen en cuenta la sordera, la parálisis de Bell o el tejido cicatricial facial, entonces la IA podría suprimir a las personas con esas condiciones.

Si los desarrolladores que crearon la IA son solo mujeres mayores de 50 años, están programando la IA en función de su experiencia de vida, posiblemente pasando por alto las experiencias de una joven latina.
Si no hemos tenido en cuenta todos los géneros, razas, religión, discapacidad, orientación sexual, edad, etc., además de ajustarnos al cambio y la innovación cuando se creó la IA, obtendremos resultados sesgados.
La verdad duele, lo sé. Pero la verdad es que la IA contiene e incluso amplifica el sesgo. La ciencia es clara. Sin embargo, este hecho no impide que reclutar proveedores de tecnología y expertos hagan proselitismo de que sus matemáticas son mejores que tu cerebro.
Hay un millón de formas excelentes de utilizar la IA en el reclutamiento: automatizar el trabajo ajetreado, explotar tantas bolsas de trabajo como sea posible, identificar discrepancias salariales, pero la IA no está lista para competir con nuestras habilidades para modificar nuestro comportamiento cuando sabemos y reconocemos que nuestro los sesgos están teniendo un efecto negativo en los solicitantes.
Es posible que algún día la IA pueda autorregular el sesgo, pero hoy no es ese día. Y no será ese día por un tiempo. Mientras tanto, hagamos un mejor uso de nuestro tiempo y recursos para combatir los prejuicios entre nosotros.