RR.HH. ¿Quién es Responsable Cuando un Robot Discrimina?

346

La contratación a través de AI podría significar que la discriminación de los bots de selección se dirigirá a los tribunales, según Bloomberg.

A medida que las empresas recurren a la inteligencia artificial para obtener ayuda para tomar decisiones de contratación y promoción, las negociaciones contractuales entre empleadores y proveedores que venden algoritmos están siendo dominadas por una pregunta legal no probada: ¿quién es responsable cuando un robot discrimina?

La fuerza predictiva de cualquier algoritmo se basa al menos en parte en la información que es alimentada por fuentes humanas. Esto viene con preocupaciones de que la tecnología podría perpetuar los prejuicios existentes, ya sea en contra de las personas que solicitan empleos, préstamos para la vivienda o seguro de desempleo.

Las conversaciones contractuales entre proveedores que comercializan servicios de inteligencia artificial y empresas que buscan utilizar algoritmos para agilizar el reclutamiento son inherentemente tensas. Eso se debe al territorio legal inexplorado creado por la adopción de inteligencia artificial para realizar funciones comerciales que normalmente realizan los humanos.

“Lo que tenemos ahora son leyes antiguas y tecnología nueva”, dijo Jennifer Betts, abogada que representa a las empresas de Ogletree Deakins en Pittsburgh. “Hasta que se actualicen las leyes, habrá muchas preguntas”.

Ambas partes quieren evitar el costo de ser parte en un caso potencialmente extenso que sienta precedentes. La Comisión de Igualdad de Oportunidades en el Empleo ya está investigando al menos dos casos que involucran reclamos de que los algoritmos excluyen ilegalmente a ciertos grupos de trabajadores durante el proceso de reclutamiento, y siete abogados le dijeron a Bloomberg Law que es solo cuestión de tiempo hasta que se solicite a los tribunales que evalúen argumentos similares.

Jennifer Betts

“Creemos que la próxima ola de litigios puede ser atacar el uso de software algorítmico de contratación y contratación”, dijo Adam Forman, un abogado de negocios en Chicago para Epstein Becker Green.

Es probable que las compañías que realmente toman decisiones de contratación estén en peligro para cualquier reclamo de discriminación. Pero las empresas tecnológicas que crean algoritmos de contratación también pueden esperar ser llevadas a los tribunales. Eso tiene a ambas partes discutiendo sobre cuestiones como si los proveedores permitirán a los clientes mirar debajo de la campana sus algoritmos o aceptar la pestaña legal de los clientes si luego son demandados.

La forma en que se resuelven estos problemas varía ampliamente, dijeron los abogados que hablaron con Bloomberg Law.

“Hay una influencia potencial en ambos lados”, dijo Betts. “Los proveedores quieren poder decirles a los clientes que ya tienen a estas grandes compañías a bordo utilizando el algoritmo. Por otro lado, no hay tantos nombres acreditados en la ciudad cuando se trata de elegir un proveedor “.

“El Chatbot no ve el género”

En muchos sentidos, los algoritmos de contratación son similares a las pruebas escritas y otras evaluaciones que los empleadores utilizan para eliminar a los candidatos.

La guía de la EEOC sobre el uso de tales pruebas, publicada por primera vez en 1978, enfatiza la necesidad de validar los resultados, es decir, para demostrar que miden con precisión la capacidad de una persona para realizar el trabajo. La guía también deja en claro que la responsabilidad recae en el empleador que usa la prueba, incluso si fue creada por proveedores externos.

Adam Forman

“Si bien la documentación de un proveedor de pruebas que respalda la validez de una prueba puede ser útil, el empleador sigue siendo responsable de garantizar que sus pruebas sean válidas”, dice la EEOC en una hoja informativa en el sitio web de la agencia.

En otras palabras, tomar la palabra de un vendedor de que un algoritmo de contratación ha sido examinado adecuadamente no será una gran defensa en la corte.

Pero los proveedores hasta ahora no han estado dispuestos a permitir que los clientes echen un vistazo a sus algoritmos, por temor a exponer tecnología patentada.

“No compartiríamos el algoritmo”, dijo Aida Fazylova, directora ejecutiva de XOR, que ofrece tecnología de chatbot para reclutar y evaluar a los solicitantes de empleo. “Creo que el algoritmo en sí mismo no es tan importante; lo importante es el conjunto de datos “.

“El chatbot no ve el género, la edad o el origen étnico”, agregó Fazylova. “Examina a los candidatos en función de un criterio muy estricto que es imparcial”.

Incluso si el proveedor de tecnología acordó dar a un cliente potencial una mirada más cercana a cómo se desarrolló el algoritmo, eso no resolvería los problemas derivados de la naturaleza subjetiva del proceso de contratación.

Una aplicación de teléfono inteligente llamada “No Hot Dog” a menudo se cita como un ejemplo de cómo se utilizan los datos para enseñar un algoritmo.

La aplicación, desarrollada para un episodio de “Silicon Valley” de HBO, revisa fotos de alimentos y otros temas enviados por los usuarios para determinar si una imagen contiene un hot dog. Fue creado al alimentar a la aplicación con una serie de fotos de hot dogs para que el algoritmo aprendiera cómo identificar las características distintivas de la popular comida de barbacoa. Luego, los desarrolladores modificaron la aplicación brindándole información sobre qué tan bien estaba funcionando.

Aida Fazylova

Pero cuantificar las características que pueden hacer que un candidato sea una buena opción y desarrollar formas de identificarlas, el desafío central de contratación para cualquier empleador, no es nada como diseñar tecnología de inteligencia artificial que pueda diferenciar entre un hot dog y otros alimentos, dijo la profesora de la Universidad de Nueva York, Julia Stoyanovich.

“En realidad, no sabemos cómo declarar cómo alguien se desempeñará bien en el trabajo”, dijo a Bloomberg Law Stoyanovich, que forma parte de un grupo de trabajo de sistemas automatizados de decisión de la ciudad de Nueva York. “Usar el pasado para predecir el futuro a menudo significa reproducir toda la discriminación del pasado. No es una decisión objetiva “.
Indemnización en el ojo del espectador

Como resultado de esos desafíos, las empresas buscan otras formas de validar la efectividad de un algoritmo, incluso preguntando si la tecnología ha sido sometida a pruebas de resistencia. Los abogados le dijeron a Bloomberg Law que también están recomendando a los empleadores que ejecuten algoritmos de contratación contra sus sistemas de contratación existentes hasta que puedan verificar los resultados.

Los empleadores también están presionando a los proveedores para que paguen, o indemnicen, en caso de que la compañía sea demandada por discriminación.

“No vemos un inconveniente en insistir en que el vendedor indemnice al empleador, en caso de que el algoritmo esté sujeto a un desafío legal”, dijo Forman. “Si ha validado su producto y cree en él, haga una copia de seguridad. Pero también le decimos al empleador: Mire, este vendedor está vendiendo a muchos otros clientes. “Si alguna otra compañía es demandada y este vendedor indemniza, ¿cuánto dinero les quedará?”

Pero muchos vendedores hasta ahora no han estado dispuestos a hacer ese tipo de promesa, dijo Bradford Newman, un abogado de California para Paul Hastings.

“Los fabricantes dicen:” Te ayudaremos a aislarte del sesgo, pero, por cierto, no somos responsables de ninguna responsabilidad si te demandan “, dijo Newman. “Están presentando esta ingenua sensación de comodidad para los empleadores de que si estamos usando un algoritmo y el vendedor dice que ha sido examinado, estamos en buena forma”.

Los vendedores deben esperar ser procesados ​​por sus algoritmos, dijo Newman. “Tan pronto como el empleador sea demandado, lo traerán”, dijo.

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

diecinueve + veinte =