Notebookcheck Logo

Reclutamiento basado en la IA: Un experimento expone el racismo de la GPT de OpenAI

Discriminación en la evaluación y selección de puestos de trabajo mediante GPT-3 y GPT-4 de OpenAI (imagen simbólica: DALL-E / AI, editado)
Discriminación en la evaluación y selección de puestos de trabajo mediante GPT-3 y GPT-4 de OpenAI (imagen simbólica: DALL-E / AI, editado)
Un estudio reciente demuestra que los programas de contratación automatizada GPT-3 y GPT-4 de OpenAI tienen graves prejuicios contra determinados grupos de personas. Un amplio experimento de Bloomberg ha demostrado que los programas de contratación basados en IA discriminan a los solicitantes por su nombre y su origen étnico, entre otras cosas.

Las empresas utilizan programas de contratación automatizados basados en la GPT de OpenAi para seleccionar candidatos para los puestos anunciados. Los responsables de la contratación utilizan esta herramienta para ahorrar tiempo, pero como ha demostrado un experimento de Bloomberg inspirado en los estudios de referencia https://www.aeaweb.org/articles?id=10.1257/0002828042002561 ha demostrado, la inteligencia artificial es tendenciosa a la hora de evaluar y seleccionar candidatos.

El problema es que el modelo de IA subyacente extrae su información de grandes cantidades de datos como artículos, comentarios en línea y publicaciones en las redes sociales, que pueden incluir contenidos racistas, misóginos y muchos otros discriminatorios. Por ejemplo, en el exhaustivo estudio se utilizaron nombres ficticios (y CV) asociados a una etnia concreta para solicitar un empleo real.

Se eligieron nombres asociados a mujeres y hombres negros, blancos, hispanos o asiáticos. El experimento se realizó 1.000 veces para un trabajo real como analista financiero en https://archive.ph/QuRHh con cientos de nombres y combinaciones de nombres diferentes y luego se repitió de nuevo para otros cuatro empleos de ingenieros de software y otros grupos profesionales.

Los nombres de determinados grupos demográficos se vieron claramente favorecidos por el GPT-3. Por ejemplo, los nombres de mujeres asiático-americanas obtuvieron la puntuación más alta para un puesto de analista financiero, mientras que los nombres claramente indicativos de varones negros obtuvieron la puntuación más baja, pero los nombres indicativos de mujeres negras también se clasificaron como candidato principal para un puesto de ingeniero de software sólo un 11 % de las veces, aproximadamente un 36 % menos a menudo que el grupo con la puntuación más alta.

Como candidato principal para un puesto de Recursos Humanos -un campo profesional en el que históricamente las mujeres han tenido más probabilidades de trabajar- el GPT seleccionó nombres asociados a mujeres hispanas con una frecuencia significativamente mayor, y como candidato principal para un puesto de socio empresarial de RR.HH. https://archive.ph/IHmN4 puesto, los nombres asociados a hombres fueron seleccionados casi el doble de veces. Estos son sólo algunos ejemplos del gran experimento https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.

Aunque a menudo se supone que la IA es más neutral y puede emitir mejores juicios, este experimento demuestra lo contrario. El sesgo se encontró no sólo en el GPT-3, sino también en el GPT-4.

Fuente(s)

Please share our article, every link counts!
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2024 03 > Reclutamiento basado en la IA: Un experimento expone el racismo de la GPT de OpenAI
Nicole Dominikowski, 2024-03-10 (Update: 2024-03-10)