Secondo uno studio, gli strumenti di assunzione AI superano gli esseri umani per quanto riguarda le metriche di equità

I risultati, elaborati dalla piattaforma di auditing Warden AI, fanno parte del rapporto appena pubblicato da Warden AI, The State of AI Bias in Talent Acquisition 2025. Il rapporto ha analizzato una serie di strumenti di IA utilizzati per il reclutamento e la talent intelligence, mentre l’adozione dell’IA nelle risorse umane continua a crescere, con tre team HR su quattro che ora utilizzano una qualche forma di IA o di automazione.

Gli audit rivelano una maggiore coerenza nel processo decisionale dell’IA

Il processo di audit di Warden AI ha valutato i sistemi di IA “ad alto rischio” su più dimensioni demografiche, tra cui sesso e razza. Il rapporto ha rilevato che l’85% dei modelli ha prodotto risultati equi tra i gruppi, mentre il 95% ha mantenuto la coerenza quando sono stati modificati indicatori demografici come i nomi.

Gli strumenti controllati hanno ottenuto un punteggio medio di equità pari a 0,94, superando in modo significativo la media di 0,67 attribuita alle decisioni di assunzione guidate dagli esseri umani. È stato riscontrato che le donne ricevono un trattamento più equo fino al 39% con i sistemi supportati dall’intelligenza artificiale, mentre i candidati appartenenti a minoranze razziali hanno ottenuto risultati più equi fino al 45%.

Jeffrey Pole, CEO e cofondatore di Warden AI, ha commentato: “I leader aziendali e l’opinione pubblica sono giustamente preoccupati per i pregiudizi dell’IA e il loro impatto. Ma questa paura ci fa perdere di vista quanto possa essere imperfetto il processo decisionale umano e le sue potenziali ramificazioni per l’equità e la parità sul posto di lavoro”.

Ha aggiunto che l’IA non è intrinsecamente giusta o ingiusta, ma piuttosto uno strumento il cui impatto dipende dalla sua progettazione e dal suo utilizzo.

“Questo è un campanello d’allarme per i responsabili delle risorse umane e delle imprese: se usata in modo responsabile, l’IA non solo evita di introdurre pregiudizi, ma può effettivamente contribuire a contrastare le disuguaglianze che esistono da tempo sul posto di lavoro”.

La selezione dei fornitori e l’uso responsabile restano fondamentali

Sebbene i risultati siano ampiamente positivi, lo studio rileva anche che non tutti i sistemi di IA hanno le stesse prestazioni. Il 15% degli strumenti controllati non ha raggiunto le soglie di equità in tutti i gruppi demografici e la qualità dei risultati varia fino al 40% tra i vari fornitori. Questa variabilità evidenzia l’importanza di selezionare partner tecnologici responsabili.

Secondo la ricerca, solo l’11% degli acquirenti di risorse umane ha dichiarato di aver ignorato i rischi dell’IA nella valutazione dei fornitori. Al contrario, quasi la metà (46%) ha dichiarato che l’impegno di un fornitore nei confronti dell’IA responsabile è stato un fattore critico nel proprio processo decisionale.

Kyle Lagunas, fondatore e direttore di Kyle & Co. ha dichiarato: “Dopo un decennio trascorso a fornire consulenza ai responsabili delle risorse umane e dei talenti su come adottare la tecnologia in modo responsabile, ho visto l’entusiasmo per l’IA cedere rapidamente il passo alle preoccupazioni, soprattutto per quanto riguarda i pregiudizi e l’equità. Ma ora è il momento di fare un passo avanti e di trovare risposte concrete ai rischi reali che dobbiamo affrontare”.

Don’t Stop Here

More To Explore

Professionisti HR e manager discutono del crescente problema dell'assenteismo dovuto a un aumento del 41% dei giorni di malattia, con grafici che mostrano i tassi di assenza.

Le PMI chiedono più formazione sull’IA

La mancanza di formazione è il principale ostacolo all’adozione dell’IA per meno di un terzo (29%) delle piccole imprese. Secondo un sondaggio condotto su 500

💬 Contatta un nostro operatore
1
Scan the code