Promesas y peligros de usar IA para la contratación: protéjase contra el sesgo de datos

Por el personal de AI Trends

Si bien la IA en la contratación ahora se usa ampliamente para escribir descripciones de puestos, seleccionar candidatos y automatizar entrevistas, presenta un riesgo de discriminación generalizada si no se implementa con cuidado.

Keith Sonderling, Comisionado, Comisión de Igualdad de Oportunidades de EE. UU.

Ese fue el mensaje de Keith Sonderling, Comisionado de la Comisión de Igualdad de Oportunidades de EE. UU., hablando en la Gobierno mundial de IA evento realizado en vivo y virtualmente en Alexandria, Virginia, la semana pasada. Sonderling es responsable de hacer cumplir las leyes federales que prohíben la discriminación contra los solicitantes de empleo por motivos de raza, color, religión, sexo, origen nacional, edad o discapacidad.

“La idea de que la IA se convertiría en la corriente principal de los departamentos de recursos humanos estaba más cerca de la ciencia ficción hace dos años, pero la pandemia ha acelerado el ritmo al que los empleadores utilizan la IA”, dijo. “El reclutamiento virtual llegó para quedarse”.

Es un momento ocupado para los profesionales de recursos humanos. “La gran renuncia está conduciendo a la gran recontratación, y la IA desempeñará un papel en eso como nunca antes lo habíamos visto”, dijo Sonderling.

La IA se ha empleado durante años en la contratación, «no sucedió de la noche a la mañana», para tareas que incluyen chatear con aplicaciones, predecir si un candidato aceptaría el trabajo, proyectar qué tipo de empleado sería y mapear oportunidades de mejora y actualización. “En resumen, AI ahora está tomando todas las decisiones que alguna vez tomó el personal de recursos humanos”, que no caracterizó como buenas o malas.

“La IA, cuidadosamente diseñada y utilizada correctamente, tiene el potencial de hacer que el lugar de trabajo sea más justo”, dijo Sonderling. “Pero implementada sin cuidado, la IA podría discriminar en una escala que nunca antes habíamos visto por parte de un profesional de recursos humanos”.

Conjuntos de datos de entrenamiento para modelos de IA utilizados para la necesidad de contratación para reflejar la diversidad

Esto se debe a que los modelos de IA se basan en datos de entrenamiento. Si se utiliza la fuerza laboral actual de la empresa como base para la capacitación, “replicará el statu quo. Si se trata principalmente de un género o una raza, lo replicará”, dijo. Por el contrario, la IA puede ayudar a mitigar los riesgos de sesgo de contratación por raza, origen étnico o estado de discapacidad. “Quiero ver que la IA mejore la discriminación en el lugar de trabajo”, dijo.

Amazon comenzó a crear una aplicación de contratación en 2014 y, con el tiempo, descubrió que discriminaba a las mujeres en sus recomendaciones, porque el modelo de IA se entrenó en un conjunto de datos del registro de contratación de la propia empresa durante los 10 años anteriores, que era principalmente de hombres. Los desarrolladores de Amazon intentaron corregirlo, pero finalmente desecharon el sistema en 2017.

Facebook acordó recientemente pagar 14,25 millones de dólares para resolver las demandas civiles del gobierno de EE. UU. de que la empresa de redes sociales discriminó a los trabajadores estadounidenses y violó las normas federales de contratación, según un relato de Reuters. El caso se centró en el uso de Facebook de lo que llamó su programa PERM para la certificación laboral. El gobierno descubrió que Facebook se negó a contratar trabajadores estadounidenses para trabajos que habían sido reservados para titulares de visas temporales bajo el programa PERM.

“Excluir personas del grupo de contratación es una violación”, dijo Sonderling. Si el programa de IA “retiene la existencia de la oportunidad de trabajo para esa clase, para que no puedan ejercer sus derechos, o si degrada una clase protegida, está dentro de nuestro dominio”, dijo.

Las evaluaciones de empleo, que se volvieron más comunes después de la Segunda Guerra Mundial, han brindado un gran valor a los gerentes de recursos humanos y, con la ayuda de la IA, tienen el potencial de minimizar el sesgo en la contratación. “Al mismo tiempo, son vulnerables a las denuncias de discriminación, por lo que los empleadores deben tener cuidado y no pueden adoptar un enfoque de no intervención”, dijo Sonderling. “Los datos inexactos amplificarán el sesgo en la toma de decisiones. Los empleadores deben estar atentos a los resultados discriminatorios”.

Recomendó buscar soluciones de proveedores que examinen los datos en busca de riesgos de sesgo en función de la raza, el sexo y otros factores.

Un ejemplo es de HireVue de South Jordan, Utah, que ha construido una plataforma de contratación basada en las Directrices Uniformes de la Comisión de Igualdad de Oportunidades de EE. UU., diseñada específicamente para mitigar las prácticas de contratación injustas, según un relato de todo el trabajo.

Una publicación sobre los principios éticos de la IA en su sitio web dice en parte: “Debido a que HireVue usa tecnología de IA en nuestros productos, trabajamos activamente para evitar la introducción o propagación de prejuicios contra cualquier grupo o individuo. Continuaremos revisando cuidadosamente los conjuntos de datos que usamos en nuestro trabajo y nos aseguraremos de que sean lo más precisos y diversos posible. También continuamos mejorando nuestras capacidades para monitorear, detectar y mitigar el sesgo. Nos esforzamos por formar equipos de diversos orígenes con diversos conocimientos, experiencias y perspectivas para representar mejor a las personas a las que sirven nuestros sistemas”.

Además, “Nuestros científicos de datos y psicólogos de IO crean algoritmos de evaluación de HireVue de una manera que elimina los datos de la consideración del algoritmo que contribuye al impacto adverso sin afectar significativamente la precisión predictiva de la evaluación. El resultado es una evaluación altamente válida y sin sesgos que ayuda a mejorar la toma de decisiones humanas mientras promueve activamente la diversidad y la igualdad de oportunidades independientemente del género, el origen étnico, la edad o el estado de discapacidad”.

Dr. Ed Ikeguchi, director ejecutivo, AiCure

El problema del sesgo en los conjuntos de datos utilizados para entrenar modelos de IA no se limita a la contratación. El Dr. Ed Ikeguchi, director ejecutivo de AiCure, una empresa de análisis de IA que trabaja en la industria de las ciencias de la vida, declaró en un relato reciente en SaludTINoticiasLa IA es tan fuerte como los datos con los que se alimenta, y últimamente la credibilidad de esa red troncal de datos se está cuestionando cada vez más. Los desarrolladores de IA de hoy carecen de acceso a grandes y diversos conjuntos de datos sobre los cuales capacitar y validar nuevas herramientas”.

Agregó: “A menudo necesitan aprovechar conjuntos de datos de código abierto, pero muchos de estos fueron capacitados con programadores informáticos voluntarios, que es una población predominantemente blanca. Debido a que los algoritmos a menudo se entrenan en muestras de datos de un solo origen con diversidad limitada, cuando se aplican en escenarios del mundo real a una población más amplia de diferentes razas, géneros, edades y más, la tecnología que parecía muy precisa en la investigación puede resultar poco confiable».

Además, “debe haber un elemento de gobernanza y revisión por pares para todos los algoritmos, ya que incluso el algoritmo más sólido y probado seguramente tendrá resultados inesperados. Un algoritmo nunca termina de aprenderdebe desarrollarse constantemente y alimentarse con más datos para mejorar”.

Y, “Como industria, debemos volvernos más escépticos de las conclusiones de AI y fomentar la transparencia en la industria. Las empresas deben responder fácilmente a preguntas básicas, como ‘¿Cómo se entrenó el algoritmo? ¿Sobre qué base llegó a esta conclusión?

Lea los artículos originales y la información en Gobierno mundial de IAfROM Reuters y de SaludTINoticias.

Fuente del artículo

Deja un comentario