Intelligenza artificiale, nuovo eldorado delle risorse umane

Da una decina di anni, l’informatica viene usata sempre più spesso nelle procedure di assunzione. Questa pratica non ottiene però un consenso generale. In Svizzera, un software tenta di riconciliare IA ed etica.

Una giovane donna scansionata dalla tecnologia biometrica.

Nel settore delle risorse umane (RU), l’informatica ha iniziato a mostrare il suo potenziale permettendo la preselezione dei dossier di candidatura più promettenti. In seguito, alcune grandi strutture hanno anche iniziato a utilizzarla per condurre colloqui d’assunzione video. Questa evoluzione ha permesso di ridurre drasticamente il numero di colloqui in presenza, che coinvolgono gli specialisti in RU, e anche di effettuare scelte più lungimiranti, esenti da influenze dovute alla valutazione umana.

Ciononostante, questo metodo ha mostrato rapidamente i propri limiti. Dal 2015, Amazon constata ad esempio che il suo software per la selezione dei CV favorisce le candidature maschili, riproducendo così i pregiudizi che dovrebbe minimizzare. Dall’inizio del 2020, anche la piattaforma per colloqui video HireVue dichiara di rinunciare all’analisi facciale, per timore che l’IA abbia integrato pregiudizi razzisti.

"Dal punto di vista giuridico, il rischio più grande derivante da questa tecnologia è che venga commessa una discriminazione", indica Prisca Quadroni-Renella, avvocato specialista in intelligenza artificiale. "Certamente nessuno è immune da possibili discriminazioni commesse da parte di un essere umano. Ma vista la frequenza con cui vengono utilizzate le IA e dato il grande numero di candidature trattate, le conseguenze possono rivelarsi ancor più gravi." Alcune pratiche RU che incorporano delle nuove tecnologie sono state manifestamente impiegate senza il necessario criterio. Il ricorso all’IA nelle assunzioni dovrebbe pertanto essere completamente evitato?

Porre nuovamente l’essere umano al centro

"L’obiettivo consiste nel permettere al candidato di rivelarsi per ciò che è, senza rischiare di essere frainteso o interpretato", precisa Caroline Matteucci. Dopo essere stata ispettrice di polizia, si è riconvertita nel profiling e ha fondato nel 2017 l’impresa CM Profiling. Il suo prodotto di punta, denominato "Cryfe", è un software che permette di analizzare le espressioni facciali e il linguaggio del corpo durante i colloqui d’assunzione. È stato sviluppato in collaborazione con la Scuola universitaria professionale d’ingegneria e di architettura di Friburgo (HEIA-FR) e l’Istituto di ricerca Idiap di Martigny.

Per evitare gli errori in cui sono incappati giganti come Amazon o HireVue, l’azienda con sede a Muri (BE) ha voluto elaborare una soluzione che combini interventi informatici e umani. "Non si tratta di inviare il video del colloquio a una macchina affinché lo analizzi in maniera fredda per farci avere la sua decisione, spiega Caroline Matteucci. La nostra soluzione consiste nel lavoro a due, con uno specialista in risorse umane e l’IA, la quale funge da aiuto per trovare le incongruenze tra il linguaggio verbale e il linguaggio del corpo."

La macchina analizza in diretta le espressioni verbali e non verbali (espressioni facciali, timbro di voce e gestualità) con l’obiettivo di permettere al personale delle RU una comprensione più globale delle risposte dei candidati e di limitare il rischio di impressioni pregiudizievoli.

Semplice da utilizzare

"Il software richiede un certo adattamento, riconosce Carole Piller, direttrice dell’agenzia di collocamento RH Valjob a Friburgo. Ma l’acquisto di Cryfe comprende una formazione, che ne permette poi un buon utilizzo.

La PMI friburghese è stata la prima a utilizzare il software per una fase di test. "Per il candidato, questo metodo è relativamente poco impegnativo: basta che accetti di farsi filmare e di mostrare le mani, poiché la macchina analizza anche la gestualità. A parte questo, si tratta di un colloquio d’assunzione assolutamente ordinario", prosegue Carole Piller. Il software offre però al reclutatore la possibilità di rivedere alcuni passaggi del colloquio, nel caso in cui un’espressione corporale messa in evidenza dal sistema non sembri concordare con quanto detto dal candidato. "La macchina è di grande aiuto, in quanto permette di rintracciare dettagli che a noi sfuggirebbero", aggiunge la direttrice.

"Ponderando le impressioni dell’essere umano e l’analisi della macchina, è possibile ridurre al minimo i pregiudizi da entrambe le parti, aggiunge Caroline Matteucci. Inoltre, la sua utilità non si limita all’assunzione di personale. Sarebbe anche possibile applicarla nell’ambito di esami psichiatrici, sempre nell’ottica di assistenza all’osservazione umana."

L’avvocato Prisca Quadroni-Renella si dichiara in linea di principio favorevole a questi diversi tipi di utilizzo dell’IA. "Il fatto che un software sia d’aiuto, come ad esempio potrebbe esserlo un collega, ma non sia da solo al comando, costituisce un grande vantaggio. Sarà tuttavia fondamentale assicurarsi che gli operatori vengano formati correttamente e, se necessario, supervisionati."


Informazione

Sul tema

IA e etica, una questione irrisolvibile?

Ancora poco regolamentata, l’intelligenza artificiale è oggi oggetto di una nuova proposta di regolamento in seno all’Unione europea. Il testo considera l’analisi facciale come appartenente ad una categoria di utilizzo "ad alto rischio". In Svizzera, il diritto è per ora flessibile, ma le considerazioni etiche promettono di animare la discussione nei prossimi anni. "In assenza di regolamentazioni restrittive a livello legale, può rivelarsi utile condurre una riflessione etica, chiedendosi se questo tipo di pratiche è conforme ai valori dell’impresa, prima di farvi ricorso", sottolinea Prisca Quadroni-Renella, avvocato specialista in intelligenza artificiale.

Trattandosi di analisi comportamentale al momento dell’assunzione, la giurista ticinese si preoccupa per le potenziali intrusioni nella sfera privata. "Prendiamo ad esempio una persona che soffre di un disturbo dello spettro autistico o dell’attenzione – cosa della quale non tutti sono coscienti. Se un’IA permette di rilevarlo all’insaputa della persona stessa, vi è allora un vero e proprio problema etico. Anche perché alcune imprese potrebbero servirsi di questa tecnologia per rivendere i dati in forma anonima dato che, a determinate condizioni, la legge permette loro di utilizzarli a scopo di lucro."

Ultima modifica 05.04.2023

Inizio pagina

Notizie e informazioni per imprenditori e futuri imprenditori
https://www.kmu.admin.ch/content/kmu/it/home/attualita/tema-del-mese/2023/intelligenza-artificiale-nuovo-eldorado-delle-risorse-umane.html