Compartir
Publicidad
Publicidad

Mya quiere acabar con la discriminación a la hora de contratar: que lo haga un bot con IA sin sesgos

Mya quiere acabar con la discriminación a la hora de contratar: que lo haga un bot con IA sin sesgos
Guardar
0 Comentarios
Publicidad
Publicidad

Todo el que haya hecho una entrevista de trabajo sabe que hay un factor que es inevitable que influya en mayor o menor medida: los prejuicios de quien hace esa entrevista pueden acabar con las aspiraciones de cualquier candidato.

Así pues, ¿se pueden hacer entrevistas de trabajo totalmente objetivas? Es lo que están intentando empresas como Mya Systems, que usando sistemas de inteligencia artificial ha desarrollado un chatbot que charla con los candidatos (casi) sin prejuicios.Y decimos "(casi)" porque al final quien programa esos sistemas es un ser humano, con sus propios prejuicios.

No importa tu apariencia, raza o procedencia

En un mundo perfecto ser blanco o negro, parecerse a Beckham o no y ser chino o finlandés no debería tener importancia alguna para conseguir un trabajo. Serían factores objetivos como la capacidad o la experiencia los que deberían contar para conseguir ese puesto, pero en muchos casos esos primeros factores de los que hablábamos acaban afectando a los procesos de selección.

Bias

La inteligencia artificial podría ser la clave para tratar de quitarlos de la ecuación. Mya es un chatbot que se emplea en diversas empresas de primer nivel para "una conversación inicial" con los candidatos. Este bot es capaz de filtrar a los candidatos conforme a los requisitos del puesto, además de preguntarles sobre su educación o experiencia e informarles de en qué consistiría su labor en ese puesto.

Otros desarrollos como HireVue hacen algo parecido pero con entrevistas en vídeo que son analizadas por un motor de inteligencia artificial del que se extraen hasta 25.000 tipos de datos entre los que pueden estar aspectos singulares como la empatía de los candidatos. La idea es la misma, y como decía su CTO, Loren Larson, los candidatos "tienen las mismas oportunidades sin importar su género, raza, edad, temporadas sin trabajar o universidad a la que fueron".

La demanda de estos motores de inteligencia artificial parece estar incrementándose según la consultora CEB, que las proporciona a empresas como AMD, Walmart o Thomson Reuters, pero hay un dato curioso: la idea es aplicarla a contrataciones a gran escala en las que esta automatización puede mejorar la eficiencia a la hora de establecer ese primer filtro. Las entrevistas con responsables (humanos) de la empresa se producen después.

¿Es un motor de IA realmente imparcial?

Se utilicen o no para ese primer filtro objetivo en los procesos de selección, lo cierto es que las dudas sobre la verdadera imparcialidad de estos motores de inteligencia artificial son patentes.

Chatbot

De hecho no hace mucho si los algoritmos pueden ser racistas, y la respuesta era afirmativa. La culpa no la tienen los algoritmos en sí (al menos, no toda), sino el hecho de que 1) esos algoritmos están desarrollados por seres humanos con sus propios prejuicios y 2) los datos de los que se nutren y alimentan también provienen de comportamientos y situaciones que se dan en nuestro día a día. Un día a día no carente de prejuicios. Como explicábamos entonces,

Esto hace el problema mucho más complejo. La matemática Cathy O'Neil avisaba de que aunque los algoritmos >tienen un gran potencial para mejorar el mundo, pueden movernos hacia la dirección contraria. De hecho, a menudo cosas hechas con la mejor >intención salen realmente mal.

Nos encontramos ante una versión extraña del problema de los filtros pero a escala social: como en el callejón del gato, internet nos devuelve una versión a la vez real y deformada de nosotros mismos.

Esos algoritmos muestran también sus defectos en situaciones muy delicadas: las herramientas policiales que tratan de detectar potenciales tasas de reincidencia en quienes cometen delitos acusaban especialmente a los afroamericanos. En otro experimento con un alcance distinto Beauty.AI, que evaluaba si una persona era o no atractiva, tendía a favorecer a los caucásicos con pelos claros.

La conclusión es la que se está confirmando a media que los distintos logros de la inteligencia artificial nos sorprenden: cuidado con esa inteligencia artificial, porque puede no estar libre de prejuicios ni es perfecta.

En Xataka | Los humanos que se rebelan contra los algoritmos

Temas
Publicidad
Publicidad
Publicidad
Inicio