Così come altre funzioni aziendali, le risorse umane utilizzano oggi ampliamente nuove tecnologie, con l’obiettivo di facilitare e migliorare il loro lavoro. Come ogni nuova tecnologia, oltre a degli effetti positivi, i nuovi sistemi si portano dietro dei potenziali impatti negativi. I bias, che influenzano molte decisioni delle risorse umane, con particolare attenzione ai bias di genere e di razza, sono purtroppo rilevabili quando si applicano algoritmi di machine learning.
Nel presente report, partendo da una panoramica generale sui bias nel processo di reclutamento, concentrandoci sul perché e come esistono, studiamo i pregiudizi di genere ed etnici nel machine learning. Quindi, esploriamo come questi due tipi di bias influenzino negativamente il processo di reclutamento digitalizzato, presentando un quadro delle principali criticità rilevate.
I nostri risultati mostrano come ci sia ampio spazio di miglioramento per l’individuazione di bias di geenre ed etnia nei processi di rectuiting automatizzato