Il rapporto tra Intelligenza Artificiale e Risorse Umane si fa sempre più stretto: cresce il numero delle aziende che scelgono di affidarsi agli algoritmi per selezionare i talenti più adatti ai propri bisogni. Questa tendenza però, non è esente da sfide e criticità.
Esistono delle strategie per depotenziare i rischi di un uso sempre più frequente dell’Intelligenza artificiale nelle risorse umane quando si tratta di scegliere dei talenti? Su Forbes abbiamo trovato una interessante intervista al dott. Fred Oswald, professore di Psicologia industriale e organizzativa alla Rice University e a Jonathan Brill, business futurist, che possono aiutarci a trovare una risposta.
Intelligenza Artificiale e risorse umane, strumenti per risparmiare tempo
L’IA può essere usata per valutare i curricula in modo automatico, individuando in modo semplice e veloce quelli idonei e quelli da scartare. Serve a scremare i candidati attraverso colloqui di lavoro automatizzati, ad esempio impiegando chatbot evoluti. In generale è molto utile per risparmiare tempo prezioso durante le primissime fasi di selezione.
Questi sistemi funzionano così bene che, secondo quanto rilevato dal presidente della Equal Employment Opportunity Commission (EEOC), l'80% dei datori di lavoro utilizza l'intelligenza artificiale sul lavoro anche quando deve prendere decisioni in materia di assunzioni.
Ma combinare Intelligenza Artificiale e risorse umane mette a rischio i principi di equità e inclusione, oppure c’è il rischio di discriminazioni? Secondo Oswald e Brill usare l’IA in modo responsabile quando si selezionano dipendenti e collaboratori è possibile, a patto di seguire con attenzione alcuni consigli. Del resto, lo stesso Bill Gates (nella prima puntata della nuova serie su Netflix What’s Next) ci ricorda che è fondamentale comprendere "cosa può fare l'IA per noi” ma anche “cosa può fare a noi".
Per iniziare, quando si sceglie di usare l’Intelligenza Artificiale nel dipartimento Risorse Umane è facile fare l’errore di affezionarsi a un’idea preconcetta. Secondo Jonathan Brill si dovrebbe, piuttosto, lasciare spazio alla sperimentazione: il primo passo non dovrebbe essere quello di selezionare uno strumento ma piuttosto quello di pianificare un percorso per tentativi ed errori.
Sempre secondo Brill, le aziende dovrebbero premiare l’innovazione e creare un ambiente di lavoro dove sia possibile esplorare e sbagliare senza temere ritorsioni in caso di fallimenti. Poiché si parla di Intelligenza Artificiale e Risorse Umane, inoltre, le imprese dovrebbero pianificare e sviluppare meccanismi di governance come comitati direttivi dell'IA, strumenti per la valutazione del rischio e comitati etici, con il compito di supervisionare le iniziative basate su IA. E tutto ciò andrebbe fatto prima dell’ingresso dell’IA nel dipartimento delle Risorse Umane, non dopo.
Idealmente, accoppiare Intelligenza Artificiale e Risorse umane dovrebbe permettere di rendere più democratico l’accesso alle opportunità lavorative. Di fatto, però, è fondamentale essere consapevoli che molti modelli linguistici di grandi dimensioni (LLM) sono addestrati su una base dati che non rappresenta la popolazione nel senso più ampio. Di conseguenza, alcuni strumenti di IA possono attuare comportamenti discriminatori e prendere decisioni non eque, basate su bias.
Il dott. Oswald ha sottolineato quanto sia necessario, per le aziende, porsi le domande giuste prima di investire in strumenti di IA per la selezione del personale. Altrimenti si rischia di rafforzare i pregiudizi anziché eliminarli. Gli strumenti di intelligenza artificiale dovrebbero essere sviluppati con grande cura e le loro decisioni supportate da prove razionali che misurino caratteristiche davvero rilevanti per il lavoro.
Sempre secondo il dott. Oswald, gli algoritmi su cui si basano le valutazioni dell'IA dovrebbero essere trasparenti sotto tutti i punti di vista, e quindi comprensibili dal team HR (Human Resources). Uno dei rischi del binomio Intelligenza Artificiale e Risorse Umane, è che, al di là del marketing accattivante, i fornitori potrebbero non presentare report per spiegare come sono stati progettati i loro strumenti. Alcuni potrebbero mettere a disposizione documenti esplicativi informali ma non report tecnici con statistiche dettagliate.
Quando non c’è la possibilità di comprendere esattamente cosa sta facendo l'algoritmo e perché, secondo Oswald è meglio non usare lo strumento. Primo perché potrebbe essere impossibile spiegare perché un candidato è stato accettato o rifiutato. Secondo, perché le persone in azienda e i candidati potrebbero perdere la fiducia nei processi di selezione. Infine, in caso di problemi l’impresa potrebbe essere soggetta a rischiose azioni legali.
Come sottolinea Brill, l'intelligenza artificiale non è qualcosa di pronto all’uso che trasforma l’azienda da un giorno all’altro, ma piuttosto una tecnologia che va integrata con i dati, la cultura e gli obiettivi aziendali.
Il futuro dell'IA nelle Risorse Umane
Le aziende sono comprensibilmente attratte dalla semplicità dei prodotti di Intelligenza Artificiale già pronti all’uso per la gestione dei colloqui e la ricerca di nuovo personale. Per ridurre i rischi dell’IA nell’acquisizione dei talenti però, è fondamentale affrontare un percorso in divenire per tentativi ed errori, pretendere la trasparenza e una convalida rigorosa del processo di selezione. Infine, bisogna evitare facili soluzioni “preconfezionate”.