TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

Sul Corriere della Sera, sezione Innovazione, Umberto Torelli (1) ha firmato un articolo dal titolo “Algoritmi emotivi, assunto, lo dice il robot” “. Il giornalista spiega che le parole con cui fino a poco tempo fa e anche oggi, si conclude un colloquio di lavoro in vista di una assunzione e cioè “Grazie per avere partecipato al colloquio, le faremo sapere», sono parole che in un prossimo futuro a pronunciarle potrebbe essere un robot.
Oggi, continua Torelli, i segnali per un cambiamento rapido dei modelli di recruitment (reclutamento) ci sono tutti, a rilevarlo è HrExecutive, uno tra i maggiori portali statunitensi di risorse umane, “….dopo un sondaggio fra 225 manager americani esperti in ricerca del personale emerge che il 60% delle grandi compagnie americane utilizza già sistemi evoluti di AI (Artificial Intelligence) per gestire le risorse umane. La percentuale è prevista crescere all’82% entro il 2026. Il network Globe Newswire di Los Angeles stima in 4 miliardi di dollari il business generato quest’anno dalle applicazioni d’intelligenza artificiale per il settore della gestione del personale nelle aziende. Questa cifra è stimata aumentare del 35% nei prossimi cinque anni, fino a toccare 17 miliardi di dollari”.
I dati forniti dal giornalista vengono poi integrati da comunicazioni date da manager di “mestiere” come Ernesto Di Iorio amministratore delegato di QuestIT, azienda senese specializzata nello sviluppo di tecnologie per l’intelligenza artificiale «I reclutatori digitali - spiega - agevolano già oggi il lavoro dei direttori del personale, che possono beneficiare di algoritmi per semplificare e accelerare i processi di ricerca dei collaboratori».
Sono software di nuova generazione, capaci di vagliare ogni giorno migliaia di curriculum, per poi gestirli in giganteschi database dopo l’assunzione.
Si tratta di avatar vocali in grado di colloquiare con i candidati.
Prima analizzano gli aspetti verbali e visuali della comunicazione umana, poi classificano le risposte rispetto alle posizioni cercate.
Grazie alla AI, i programmi e le aziende possono sviluppare processi di reclutamento sempre più precisi, sfruttando l’abilità di una macchina a svolgere funzioni di ragionamento, apprendimento e pianificazione simili alle capacità umane.
L’intelligenza artificiale consente dunque ai sistemi di comprendere l’ambiente in cui operano, relazionarsi a esso e risolvere problemi sempre più complessi e agire per un obiettivo, migliorandosi ogni giorno, grazie a un procedimento avanzato di elaborazione di grosse banche dati in continua espansione. Il computer riceve dati, li processa e risponde, affinando di volta in volta il suo output (risultato finale della elaborazione) in base agli effetti ottenuti dalle azioni precedenti e al valore dei nuovi dati. Mettere a frutto il potenziale dell’intelligenza artificiale nelle diverse fasi della ricerca per trovare personale qualificato in azienda, ha moltissimi vantaggi e aiuta gli HR a raggiungere risultati migliori, senza sostituirsi a loro. Come?
Secondo un report del Journal Of Society, Economics And Management, le HR ( selezionatori human resource), stanno ricoprendo sempre più una dimensione strategica, non limitandosi più ad attività amministrative, ma ricoprendo un ruolo cruciale per il successo dell’azienda.
L’intelligenza artificiale e il Machine Learning (apprendimento automatico) sono utilizzate nel processo di selezione del personale per cercare istantaneamente, attraverso una notevole mole di dati, candidati che soddisfano i criteri di una data ricerca. Questa tecnologia è particolarmente utile nel reclutamento dei candidati passivi, ossia coloro che non ricercano un nuovo impiego in quanto già occupati; il numero di candidati passivi qualificati è esponenzialmente più grande del numero di candidati che cercano attivamente determinate posizioni aperte. Avere la capacità di cercare in modo efficiente il target desiderato nell’intero universo di possibili candidati, permette una selezione più inclusiva ed efficace del personale. Utilizzare l’intelligenza artificiale per restringere il numero di candidati o fornire dati preziosi su un certo gruppo di essi può aggiungere valore ed efficienza significativi al recruiting artificiale (selezione e reclutamento del personale) che può fornire in pochi secondi informazioni che, fino ad alcuni anni fa, avrebbero richiesto settimane di ricerca.
• Cosa è cambiato quindi nella selezione del personale e nella conduzione di un colloquio di lavoro nell’era digitale?
Il caso più conosciuto di cooperazione tra recruiter e industria 4.0 è sicuramente quello del robot Vera, realizzato nel 2018 da Strafory, una start-up russa che ha raggiunto la celebrità quando un colosso come IKEA ha deciso di assumerla per la selezione del personale. Il timbro di voce di Vera può essere sia maschile che femminile è un robot che implementa un programma di Intelligenza Artificiale e in associazione ad altri algoritmi predittivi permette a IKEA di tracciare profilature psico-sociali dei candidati a un posto di lavoro.
Naturalmente dietro l’intelligenza artificiale di Vera ci sono esseri umani: Vera è dotata di 13 miliardi di esempi di sintassi, parole ed elenchi di diverse professioni in modo tale che possa parlare nella maniera più naturale possibile. Inoltre le si sta insegnando a riconoscere le emozioni quali disappunto, piacere e rabbia.
Per adesso l’intelligenza artificiale per il recruitment aiuta il personale delle risorse umane, ma secondo Kostarev (padre del progetto Vera) ben presto sarà in grado di decidere in autonomia chi assumere. Opinione non condivisa da tutti gli addetti ai lavori che ritengono che la decisione finale di assumere una nuova risorsa ha molte sfaccettature e l’essere umano resterà sempre la persona più adatta per prenderla.
Vera oggi si occupa, almeno in una prima fase esplorativa, di individuare candidati idonei per una specifica offerta di lavoro, è stata scelta per far fronte alle migliaia di curricula che la multinazionale IKEA riceve annualmente, l’azienda che utilizza questa intelligenza artificiale fornisce al robot tutte le caratteristiche e competenze che deve possedere il candidato. Vera ricerca tali parametri tra i curricula che ha nel database e subito dopo si mette all’opera per un colloquio, colloquio che può avvenire telefonicamente o attraverso una videochiamata; riesce a fare 1.500 colloqui al giorno e dedica a ogni candidato 8 minuti, 8 minuti in cui l’intelligenza artificiale per il recruitment gli chiede dei suoi studi, di descriversi con una parola, delle sue precedenti posizioni lavorative… Insomma, fa un vero e proprio colloquio.
Tuttavia questa è solo la prima fase, una volta che il robot avrà selezionato i potenziali candidati, questi saranno ricontattati e valutati da esseri umani esperti in ambito risorse umane questo perché, come affermato da uno dei padri del progetto, Alexei Kostarev,: “Gli esseri umani rimangono i migliori valutatori, ma Vera può aiutare molto il loro lavoro abbattendo i tempi di selezione soprattutto nella fase iniziale”.
Invece Randstad Italia, parte della multinazionale olandese per la selezione del personale, ha da poco adottato un motore di ricerca basato su software di gestione recruiting. Il programma si occupa di controllare il percorso delle candidature, dal momento della pubblicazione degli annunci alla selezione dei profili. E’ intenzione della azienda, spiega Daniele Spatari, direttore Ict di Randstad Italia”di introdurre nuove funzioni chatbot per condurre colloqui più ampi, con strumenti di valutazione per condividere dati tra colleghi ad esempio le referenze incrociate ».
Durante il colloquio i contenuti delle risposte diventano essenziali per la valutazione dei candidati, ma altrettanto lo sono le modalità con cui queste risposte vengono fornite nonché lo stato emotivo, il livello di attenzione, ansia e stress nonché la velocità e sicurezza con cui il candidato risponde.
Dunque gli aspetti non verbali della comunicazione diventano decisivi nella selezione per trovare figure idonee, queste sono le caratteristiche richieste a chi progetta nuovi reclutatori virtuali.
Il sistema artificiale adottato da Randstad Italia, valuta fino a 29 mila curriculum al giorno, per poi inoltrare all’azienda i profili d’interesse in base alle posizioni.
Questo tipo di scelta cambia in modo radicale il metodo di tutto il procedimento di ricerca e selezione del personale. Molte società si spingono ancora oltre, affidando agli automatismi anche il primo contatto con il candidato, attraverso chatbot (software che simula un conversazione con un essere umano) o scambi di email che hanno l’obiettivo di schedulare un incontro faccia a faccia con il selezionatore. Tutto questo riducendo a zero l’intervento umano fino al momento del colloquio vero e proprio.
Tra le modalità di reclutamento del personale vi è anche il video recruitment, una sorta di colloquio in versione video che viene molto utilizzata: le aziende che cercano personale, per fare una prima selezione, chiedono di mandare una clip, rispondendo a una serie di domande. E così già fanno il primo screening, solo dopo, se il candidato interessa davvero, allora chiedono un colloquio vis-à-vis. Questo nuovo sistema sembra piacere: l'hanno già fatto Blablacar, Leroy Merlin, Crédit Agricole, Sephora, Cartier... insomma, in tanti.
Funziona per le aziende che così possono decidere con più rapidità chi è il dipendente giusto e funziona per i lavoratori che hanno così la possibilità di prepararsi sulle domande, senza nemmeno spostarsi da casa.
Questi automatismi si traducono in benefici economici tangibili, si stima che gli investimenti nel settore del reclutamento automatizzato superino i 200 miliardi di dollari e questa cifra tenderà a crescere, entro il 2030, l’AI contribuirà per 15,7 trilioni di dollari all’economia globale e una parte di questo contributo viene proprio dalle intelligenze artificiali dedicate al settore recruiting. Per meglio comprendere l’impiego della AI nel reclutamento del personale occorre far riferimento alle sue applicazioni nelle grandi multinazionali.
Un primo riferimento riguarda Case Study Unilever, una delle multinazionali straniere più antiche e più grandi che operano negli Stati Uniti, ed essendo una multinazionale così importante, ha continua necessità di personale qualificato, e ha l’obiettivo di arrivare ad assumere per il 60% dipendenti“millennials“.
Sfruttando l’Intelligenza Artificiale nel recruiting, Unilever sostiene di avere risparmiato circa 50000 ore in interviste, fondamentalmente, Unilever utilizza due tecnologie: HireVue e Pymetrics, .
HireVue sfrutta l’analisi di video per fare lo screening dei candidati, i quali devono inviare al team delle risorse umane, una registrazione di loro stessi, mentre rispondono ad un set di domande (circa una decina): questo è chiaramente vantaggioso per il candidato che può registrare quando vuole, e per il recruiter che può limitarsi a leggere il report finale dell’analisi effettuata sul video.
L’algoritmo alla base di questa tecnologia, è composto da circa 25000 features (caratteristiche) che sono relazionate tra di loro in maniera complessa, e consentono di valutare i candidati in base a fattori che possono essere il contatto visivo, l’entusiasmo, il sorriso, le espressioni facciali e del corpo, l’abbigliamento e le sfumature della voce.
Pymetrics- è una piattaforma basata sul gioco che consente di misurare i tratti comportamentali e sociali, l’attitudine, la formulazione del pensiero logico-razionale, la predisposizione al rischio, il livello di motivazione a vincere e ad ottenere successi, ed infine la modalità con cui i candidati affrontano problemi ed offrono soluzioni.
Un test basato sul gioco ha il duplice vantaggio di essere più avvincente rispetto ad un test classico basato su domande, ma anche più “sincero” in quanto favorisce relazioni e comportamenti più autentici grazie alla riduzione dello stress.
Invece la tecnologia adottata da DeepSense, una società che ha sede a San Francisco e New Delhi, utilizza i l’Intelligenza Artificiale per valutare la personalità dei candidati in base al loro Curriculum Vitae, con riferimento al modello Ocean, utilizzato da oltre 20 anni nel marketing per capire la scelta comportamentale dei consumatori; il candidato viene valutato in base a tutto ciò che esso posta sui suoi profili social, su 5 variabili: apertura mentale; coscienziosità; estroversione; amabilità; nevroticità.
Dobbiamo imparare a “giocare” con questi strumenti? Non sembra riduttivo pensare che il vero valore di un potenziale candidato possa essere determinato dalla sua bravura nei giochi online o dalla sua capacità di modulare il tono di voce o le espressioni facciali? E di conseguenza, immaginando questo scenario, quanto questo potrebbe essere pericoloso per persone non proprio in confidenza con questi strumenti “freddi” e “distaccati”?
• Perché dovremmo avvalerci dell’intelligenza artificiale per la selezione del personale?
La risposta è molto semplice se si considera che l’intelligenza artificiale e il machine learning utilizzati nella selezione del personale supportano i selezionatori al raggiungimento di due importanti obiettivi: 1) rende più efficiente la ricerca di nuovo personale. Le imprese richiedono figure sempre più specializzate che con i metodi tradizionali sono difficili da trovare, invece, grazie all’intelligenza artificiale, i recruiter (personale che si occupa della selezione del personale) possono fare una selezione più mirata utilizzando strumenti informatici che analizzano grandi quantità di dati presenti nelle banche dati. 2) gestisce in maniera più efficiente tutto il processo di selezione del personale- Inoltre le attività di preselezione quali l’analisi dei Curriculum Vitae si possono sicuramente automatizzare per semplificare e rendere tutto il processo più rapido in modo da permettere al recruiter di concentrarsi sui candidati che realmente corrispondono al tipo di ricerca effettuato.
L’utilizzazione di software e di algoritmi, offre inoltre degli indiscussi vantaggi in quanto essi sono: instancabili: svolgono operazioni di routine in modo ripetuto, senza perdere concentrazione, in maniera affidabile, rapida e "obbediente"; scalabili ed economici: il loro costo diventa marginale rispetto ai benefici; adattabili: se modifichiamo il sistema, possiamo far svolgere dei compiti diversi all'intelligenza artificiale, purché vi sia una quantità sufficiente di dati tale da poter iniziare una nuova attività.
Le grandi multinazionali come Microsoft, IKEA, Pepsi, Burger King, Goldman Sachs, e tantissime altre, hanno già automatizzato una buona parte delle attività legata ai milioni di colloqui che effettuano ogni anno e molte fasi del recruiting si prestano facilmente all’automatizzazione. Gli algoritmi di Machine learning possono, ad esempio, essere impiegati per scrivere e valutare gli annunci di lavoro, utilizzando termini e locuzioni che massimizzano il numero di candidati che sarà spinto a fare domanda d’impiego. L’AI, se appositamente addestrata, può anche scegliere le piattaforme di pubblicazione più adatte, valutando le caratteristiche dell’annuncio e lo storico delle risposte raccolte nel corso del tempo. Dopo la fase di pubblicazione, l’intelligenza artificiale può vagliare i curricula raccolti per classificarli e iniziare a scegliere i candidati che sono più adatti. E’ innegabile che altro grande vantaggio dell’IA è che prende decisioni basandosi solo su dati disponibili, non ha opinioni, non ha emozioni.
• La automatizzazione è esente da rischi?
Rischi ce ne sono e diversi, ad esempio la c.d “distorsione da macchina” e cioè l'effetto di assunzioni errate nei processi di apprendimento automatico. La parzialità riflette i problemi legati alla raccolta o all'uso dei dati, dove i sistemi traggono conclusioni improprie sui set di dati, sia a causa dell'intervento umano sia a causa della mancanza di valutazione cognitiva dei dati. La distorsione può verificarsi a causa di una serie di fattori, a partire dalla modalità in cui vengono forniti i dati. Se, ad esempio, i dati vengono raccolti mediante un sondaggio pubblicato su una rivista, dobbiamo essere consapevoli del fatto che le risposte (dati) provengono da coloro che leggono detta rivista, ossia un gruppo limitato di persone.
Ed ancora, questi algoritmi possono eliminare il pregiudizio umano? Gabriella Pasi (2) , docente di Informatica all’Università di Milano-Bicocca ed esperta dell’elaborazione del linguaggio naturale ritiene che con la tecnologia si rischia in due modi.
Il primo rischio è quello di assimilazione dei preconcetti umani perché gli algoritmi apprendono dagli esempi e in presenza di esempi polarizzati, li replicherebbero anche nel processo di selezione del personale. Il secondo rischio è quello dell’assenza di flessibilità: il software potrebbe escludere per una posizione con caratteristiche specifiche persone interessanti ma con un profilo un po’ diverso da quello stabilito. Mancherebbe in questo caso, la sensibilità, il captare segnali interessanti e “l’andare oltre” del selezionatore umano.
Nella selezione del personale occorre utilizzare strumenti diversi e quindi non solo ad esempio test psicoattitudinali. Questo perché i test sono molto utili per fornire un primo quadro descrittivo del candidato, ma proprio perché sono strumenti impersonali possono condizionare nelle risposte che, messe insieme, rischiano di generare un profilo distante dalla realtà della persona.
Altro problema, sopra accennato, sono i pregiudizi (bias).
Le tecnologie che individuano e scelgono il personale orbitano costantemente attorno a questi bias che possono riguardarle, con tutti i risultati potenzialmente discriminatori che ciò può comportare. Il mondo HR non ne è esente. Ad esempio, se un software HR che si basa sull’intelligenza artificiale utilizza un database vecchio di diversi anni e valuta i candidati a determinate posizioni aperte in base ad assunzioni pregresse, si crea il terreno perfetto per algoritmi interessati da bias. Questo è particolarmente vero in posizioni lavorative che sono state storicamente “dominate” da uomini di etnia caucasica, come nel campo dell’ingegneria informatica dove si rischierebbe che l’algoritmo di recruiting escluda arbitrariamente la maggior parte delle donne e delle minoranze etniche dalla corsa alla selezione del personale.
Ricordiamo ad esempio che nel 2018, uno scoop giornalistico rivelò che il sistema di machine learning utilizzato da Amazon nella ricerca del personale tendeva a discriminare le donne .Il gruppo di tecnici che aveva creato il software per il reclutamento del personale lo aveva addestrato a riconoscere circa 50 mila termini che comparivano nei curriculum di candidati precedenti; l’inghippo stava proprio nel fare riferimento ai curriculum sottoposti all’azienda nell’arco di 10 anni, la maggior parte dei quali proveniva da uomini e quindi nei loro curriculum comparivano verbi utilizzati al maschile, di conseguenza nella selezione del personale venivano svantaggiate le donne .
Sicuramente una delle sfide dell’essere umano è quella di superare i pregiudizi anche quelli inconsci, posto che oggi, gli algoritmi iniziano ad assumere un ruolo sempre maggiore nella selezione del personale, l’intero processo di selezione nel mondo del lavoro riuscirà a essere meno influenzato dai preconcetti?
Alcuni selezionatori che lavorano in start-up che si occupano di ricerca del personale tramite apprendimento delle macchine, rispondono affermativamente. Kelli Dragovich, vicepresidente senior presso Hired, afferma che uno degli interessi precipui dell’azienda è «far sì che gli algoritmi escludano a priori qualsiasi pregiudizio».
Questo proposito è molto più complesso di quel che potrebbe sembrare perché in altri settori alcuni sistemi di intelligenza artificiale hanno finito con l’esasperare i pregiudizi umani, invece di eliminarli.
Uno degli esempi più noti è quello di Tay (3) un hatbot (software per simulare una conversazione intelligente) messo a punto da Microsoft che avrebbe dovuto colloquiare con i giovani millenium americani, la rete però ha riportato Tay alla realtà e approfittando delle sue modalità di apprendimento e ingenuità, le ha insegnato messaggi razzisti e xenofobi basandosi sui commenti di Twitter nel mondo reale che aveva utilizzato per esercitarsi.
Eyal Grayevsky, fondatore di Mya Systems, spiega come il chatbot che la sua azienda sta mettendo a punto è preparato a eliminare i preconcetti ignorando sistematicamente alcuni fattori come la razza, lo status socioeconomico o il genere dei candidati durante la loro scrematura.
• Gli algoritmi si allenano da soli a utilizzare le informazioni del mondo reale, quale è il fattore che resta escluso dalle loro competenze?
Sicuramente la decisione finale di assumere o meno qualcuno. «Abbiamo scartato questa decisione perché per forza di cose è influenzata da preconcetti» spiega Grayevsky. «Per mettere a punto l’algoritmo abbiamo quindi preferito ricorrere ad altre possibilità, come valutare il mantenimento di una persona o la sua performance”.
E’ vero, che l’intelligenza artificiale non può sostituirsi del tutto a quella umana, ma chi sa come approcciarsi a questa tecnologia sa anche che non vi è alcuna pretesa di arrivare a questo punto. Le due intelligenze sono, infatti, profondamente diverse: l’AI gestisce perfettamente le regolarità e i modelli statistici, il cervello umano è invece insostituibile laddove si presentano eccezioni e situazioni impreviste.
Ma questo non esclude che le decisioni e le valutazioni effettuate da un’AI in alcuni ambiti possono avere conseguenze molto gravi. La gestione totalmente automatizzata dei candidati per una posizione lavorativa è uno di questi. Come sempre, il problema principale sta nei dati utilizzati per l’addestramento delle reti neurali, le intelligenze artificiali danno per buoni i dati sottostanti su cui basano le valutazioni, ma essi come abbiamo visto sono spesso pieni di pregiudizi e incongruenze.
Oltre a ciò bisogna valutare anche i parametri utilizzati per assegnare un punteggio (e quindi un valore) ai candidati; ad esempio, alcune AI utilizzano la voce per dare una stima dell’affidabilità della persona in esame. Questo parametro, però, potrebbe facilmente essere discriminatorio, favorendo specifici accenti o particolari toni di voce. In questo caso, però, si sta giudicando un attributo fisiologico personale (e fondamentalmente immutabile), che magari non ha diretta attinenza con le caratteristiche del candidato ideale. Questo genere di preferenze dei sistemi automatici potrebbe essere eticamente inaccettabile.
Inoltre, sempre per quanto riguarda l’importanza delle parole utilizzate nelle domande, bisogna dire che spesso una stessa parola può avere significati diversi. Alla domanda “Sei un tipo preciso?” c’è chi potrebbe rispondere di sì in quanto meticoloso, chi potrebbe dire di sì in quanto puntuale e chi potrebbe rispondere di sì in quanto ordinato. Un robot è consapevole che ciascuno di noi ha una rappresentazione mentale e del tutto soggettiva di ciascun concetto? Nel valutare le risposte del candidato, il robot considera anche questo aspetto? Oppure, come un recruiter in carne ed ossa, è in grado di riformulare la propria frase/domanda se percepisce che l’interlocutore non ha ben compreso la richiesta?
La tecnica migliore potrebbe essere quella di partire dal risultato del test ed integrarlo attraverso altri metodi, come ad esempio un colloquio individuale o un assessment (processo di valutazione delle competenze) con dinamiche di gruppo, per far emergere ulteriori informazioni molto preziose al fine di individuare le reali attitudini del candidato.
Anche l’intelligenza artificiale quindi, vista come ulteriore strumento integrativo, è utile nella misura in cui è funzionale a potenziare le capacità e le competenze dei recruiter, in modo tale da “guidare” la tecnologica e ottenerne l’espressione massima.
Occorre quindi non sottovalutare i pericoli che l’utilizzo di questa tecnologia può creare ove fosse utilizzata da sola e quindi senza la supervisione umana, in quanto , l’intelligenza artificiale può fornire dati che potrebbero non dimostrarsi utili, potrebbe ignorare le probabili idiosincrasie umane e potrebbe trascurare candidati qualificati con curriculum ritenuti “poco brillanti”.
Ecco perché è di fondamentale importanza che la AI impiegata nel campo delle risorse umane sia sempre sfruttata con la supervisione di professionisti esperti nella ricerca e nella selezione di nuovi talenti, gli unici a poter guidare tale tecnologia verso la sua “espressione massima”, riducendo al massimo le sue potenziali inefficienze.
Quanto sopra non può certo farci sottovalutare la meravigliosa macchina che è il nostro cervello il cui vantaggio è da individuare nella sua flessibilità: una persona quando occorre, sa deviare dalle istruzioni che ha ricevuto, per riconoscere le specificità di chi ha davanti a sé e gestire una situazione imprevista, grazie alla creatività e alla capacità di giudizio. Le persone giuste al posto giusto, sono infatti gli ingredienti più importanti per il successo di un’azienda. Ma questo è un concetto pleonastico, ciò che lo è meno, è che trovare la persona giusta per unirsi a questa o a quell’azienda richiede alcune “sfumature” di…esperienza umana.
Possiamo quindi ritenere che la intelligenza artificiale può essere utilizzata senza problemi nel processo di selezione del personale utilizzando un software che gestisce la programmazione delle interviste ai candidati – o automatizzando il processo delle candidature – per controllare i curricula, ad esempio partendo dalle parole chiave.
Avvalendosi di queto contributo “artificiale” il recruiter potrebbe spendere il suo tempo , ad esempio, per costruire relazioni e migliorare l’esperienza dei candidati in quanto l’intelligenza artificiale non è ancora pronta per sostituire gli esseri umani in questo importante processo: il ruolo del professionista delle risorse umane che seleziona e valuta candidati per determinate posizioni lavorative rimane quindi prioritario. Tuttavia, l’intelligenza artificiale può essere uno strumento utile per ridurre il tempo impiegato in alcuni compiti che possono portar via gran parte del tempo di un recruiter.
• Il profondo mutamento nel reclutamento del personale andrà ad incidere sulla privacy e sui diritti dei dipendenti?
Le aziende debbono essere in grado di spiegare come vengono preservati i diritti dei dipendenti – compreso quello alla privacy – durante il processo decisionale automatizzato e prendere provvedimenti per correggere eventuali errori o discriminazioni causate dagli algoritmi. Dal punto di vista legale occorre inoltre considerare che i social media e le piattaforme online sono una preziosa fonte di informazioni per le AI utilizzate nel recruiting. Navigando e interagendo online viene generata una considerevole mole di dati che, se analizzata accuratamente, può rivelare dettagli privati e sensibili che, probabilmente, i candidati non condividerebbero mai in modo volontario con le aziende per cui vorrebbero lavorare.
Secondo gli esperti, il 90% dei dati utilizzati per questi scopi sono stati generati negli ultimi due anni. Con questa espansione improvvisa dell’uso dei big data cresce anche il rischio di un uso improprio, che va oltre gli scopi per i quali sono stati raccolti. Informazioni georeferenziate ed elementi multimediali possono essere incrociati per ottenere un quadro particolarmente accurato delle ideologie religiose e politiche di un candidato, così come della sua situazione familiare e delle sue abitudini private. Ma le AI hanno il diritto di estrarre queste informazioni?
La regolamentazione al riguardo è molto frammentaria. Infatti, se da un lato l’Unione Europea ha creato un testo unico per la protezione della privacy (GDPR), gli Stati Uniti, patria dei più grandi colossi che raccolgono dati personali, hanno un approccio eterogeneo, che cambia da stato a stato. A causa di queste discrepanze diventa sempre più difficile capire quali dati vengono raccolti, a che condizioni, e per quali scopi verranno utilizzati. Nell’ambito specifico del recruiting, ad esempio, alcuni stati USA iniziano ad approvare delle leggi che limitano l’uso dei Big data da parte dei datori di lavoro nella fase di selezione dei candidati. Quindi, le grandi società iniziano a trovarsi a un bivio: hanno a disposizione una tecnologia che consente di minimizzare i costi per la scelta e l’assunzione di nuove risorse, ma potrebbero trovarsi ad accedere (in alcuni casi illegalmente) a informazioni private non raccolte per lo scopo prefissato.
Vi è poi la tutela delle categorie protette. Gli Stati europei e americani hanno messo a punto molti strumenti per proteggere le fasce deboli dai possibili ostacoli dell’approccio al mondo del lavoro. Ad esempio, la US Equal Employment Opportunity Commission ha pubblicato una guida per rendere più facile stabilire se un individuo ha una disabilità che lo include in una categoria protetta.
La tecnologia di apprendimento automatico solleva comunque diverse questioni ancora irrisolte, legate all’inclusività nel mondo del lavoro. In alcuni casi documentati, è stato dimostrato che le AI utilizzavano i dati raccolti online come strumenti per discriminare le categorie più deboli in fase di selezione. Per superare questo ostacolo, sono in sviluppo nuovi modelli di reti neurali e nuovi approcci alla gestione dei dataset, che consentano di bilanciare i sistemi di valutazione. I dati utilizzati devono rappresentare in modo appropriato tutti i gruppi di persone e non devono contenere bias o pregiudizi nei confronti delle categorie protette.
Occorre altresì valutare che potendo l’intelligenza artificiale scansionare il web in cerca di informazioni sul candidato, i recruiter hanno un accesso sempre maggiore alla vita privata e alle caratteristiche personali dei candidati. Questo significa che per un sistema di apprendimento automatico diventa semplice individuare alcuni tratti che potrebbero avere un impatto negativo nelle performance lavorative, senza valutare l’apporto che nel complesso quella persona può portare all’azienda. Questo tipo di decisioni aprono un dibattito che merita di essere portato avanti, per trovare alternative e soluzioni automatizzate ma inclusive.
Trovare una soluzione etica al problema non è semplice. Da un punto di vista economico è impensabile limitare le potenzialità delle AI mettendole al bando per alcune applicazioni specifiche. D’altro canto, da un punto di vista umano, non si può permettere a una rete neurale di decidere della vita e del futuro delle persone se non si ha la certezza che le decisioni non saranno viziate da pregiudizi discriminanti. La regolamentazione può aiutare a sciogliere questo nodo etico, ma ci sono due ostacoli: l’eventuale frammentazione legislativa e la poca evoluzione degli strumenti per valutare scientificamente l’operato dell’intelligenza artificiale.
La questione della privacy è quindi un altro dei principali dilemmi etici che si pongono nell’uso dell’intelligenza artificiale nel settore delle risorse umane. Una delle possibili applicazioni dell’AI, infatti, consiste nella capacità di monitorare i collaboratori al fine di individuare, per esempio, le aree più “stressate” all’interno dell’organizzazione. Chiaramente, l’analisi dei dati può indicare anche le aree più produttive, o le stesse persone più produttive, e anche coloro che invece sono meno efficienti.
Da un lato, questa funzionalità potrebbe offrire ai responsabili HR preziose informazioni per intervenire tempestivamente e migliorare il benessere dei dipendenti, tuttavia, dall’altro lato, solleva importanti preoccupazioni sulla privacy e sul controllo esercitato sui lavoratori.
Dov’è, però, la linea invisibile tra produttività e privacy? Il monitoraggio costante potrebbe essere considerato invasivo e minacciare la libertà individuale dei dipendenti. La possibilità che i comportamenti degli stessi vengano scrutinati da algoritmi può generare sensazioni di sfiducia e ridurre il senso di autonomia professionale.
È quindi fondamentale stabilire limiti chiari riguardo alla raccolta e all’utilizzo dei dati personali in ambito lavorativo. È necessario garantire una trasparenza totale nei confronti dei dipendenti circa le modalità con cui verranno utilizzate queste informazioni. Inoltre, è consigliabile che sia presente un sistema adeguato per contestare eventuali decisioni basate sull’AI.
Trasparenza e responsabilità sono valori fondamentali quando si tratta di lavorare con le persone e sebbene l’AI possa sembrare imparziale, poiché basata su dati oggettivi, esistono ancora incongruenze e sfide etiche da affrontare.
Il paradosso dell’algoritmo, come abbiamo già visto, ci ricorda che l’IA potrebbe non essere così imparziale come pensiamo.
Infine, è importante comprendere come funzionano gli algoritmi in modo da poter condividere i processi con i collaboratori. La trasparenza garantisce che le decisioni prese siano comprensibili agli utenti coinvolti, che ne devono essere consapevoli e partecipi.
• La legislazione europea e la AI ACT Artificial Intelligence Act proposal )
Una forte accelerazione per la soluzione delle problematiche relative alla violazione della privacy e all’etica sicuramente si è verificata pochi giorni or sono quando dopo un negoziato fiume, il Parlamento europeo ha approvato il progetto di regolamento denominato AI Act, destinato a regolamentare l’impiego dell’intelligenza artificiale nell’Unione europea. Per fine anno potrebbe arrivare approvazione finale dall’Europa, per un’entrata in vigore del regolamento nel 2024.
L’AI Act è di gran lunga il testo normativo più avanzato al mondo sulla intelligenza artificiale e anche se alcune ombre permangono, il testo è da accogliere con estremo favore.
Si tratta del primo quadro normativo sui sistemi di AI nel mondo, un accordo “storico” contenente una serie di salvaguardie soprattutto per l'uso di sistemi di identificazione biometrica (Rbi) in spazi accessibili al pubblico, tali sistemi potranno essere applicati, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. Quanto alle pratiche vietate, la lista dei divieti include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; l'AI usata per sfruttare le vulnerabilità delle persone.
I cittadini, poi, avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate sui sistemi di AI ad alto rischio che hanno un impatto sui loro diritti.
Ad oggi la UE è il primo continente a stabilire regole chiare per l'uso dell'AI
L'Ai Act è lo strumento giuridico dell'Ue per guidare la corsa globale all'intelligenza artificiale, è da sottolineare che questo regolamento consolida la posizione dell'UE come leader globale de facto sulla regolamentazione tecnologica, poiché altri governi – incluso, ad es. il Congresso degli Stati Uniti – hanno appena iniziato il loro cammino di regolamentazione in materia di AI.
Tanto è che la presidente del Parlamento europeo Roberta Metsola, ha definito l'intesa come un "momento storico per l'Europa digitale". "mentre la presidente della Commissione europea Ursula Von Der Leyen ha dichiarato che: "La legge europea sull'intelligenza artificiale è una novità mondiale. Un quadro giuridico unico per lo sviluppo dell'intelligenza artificiale di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese…”.
Da ultimo ma non per importanza, occorre sottolineare che i modelli di Intelligenza Artificiale generativa, come ChatGPT di OpenAI e Bard di Google (chatbot basate su intelligenza artificiale e apprendimento automatico specializzate nella conversazione con un utente umano) saranno autorizzati a operare a condizione che i loro output (dati che costituiscono il risultato finale dell’elaborazione) finali siano chiaramente etichettati come generati dall'IA.
• Alla luce della regolamentazione europea e tornando nello specifico alla selezione del personale, avrà ancora valore il c.d “tocco umano?”
Di sicuro sempre più il settore della selezione del personale richiederà ai propri professionisti di avere piena consapevolezza dei programmi utilizzati, dei rischi, finanche intervenendo per eliminarli e facendo in modo che il processo si possa svolgere nel pieno rispetto dei principi di non discriminazione. Sarà quindi indispensabile che i professionisti della selezione del personale sappiano come operano i loro supporti AI buddy (una sorta di mentor, un agevolatore dell'inserimento dei neoassunti), vigilando attentamente sul loro operato.
Non a caso l’occhio attento della Commissione Europea ha classificato già dal 2021 “occupazione, gestione dei lavoratori e accesso all’autoimpiego” tra i “sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali” e che essi “dovranno essere registrati in un database dell’UE”.
Un altro rischio insito nell’adozione dell’intelligenza artificiale, forse il più insidioso, è quello di credere che la selezione del personale possa essere completamente slegata da un’interazione umana. Il tocco umano resterà sempre imprescindibile all’interno di un processo di questo genere, proprio perché non si basa solo sulla corrispondenza binaria di una competenza ad una posizione professionale, ma su valutazioni molto più sottili, che possono scaturire esclusivamente da una relazione diretta in cui due persone, chi si candida per una posizione e chi offre quell’impiego, si conoscono, si piacciono, riscontrano affinità e toccano convergenze. Ad oggi, una tecnologia non potrà mai sostituire la persona in questa fase così intima della costruzione di un rapporto di fiducia e di scoperta.
La proposta di Regolamento europeo che stabilisce regole armonizzate sull’intelligenza artificiale, ha classificato i software per la selezione del personale, come sistemi ad alto rischio, “in quanto possono avere un impatto significativo sul futuro delle persone in termini di carriera e sostentamento”. Sarà indispensabile pertanto che essi siano soggetti a rigorosi obblighi, prima di poterne consentire un diffuso utilizzo.
Delegare all’AI compiti e servizi in ambiti complessi, per esempio quello della Giustizia e delle risorse umane per le assunzioni di lavoro, richiederà un orientamento a valori etici.
A meno che non vogliamo attribuire ai sistemi di IA doti e caratteristiche prettamente umane, facendoli diventare soggetti veri e propri dell’agire, dovremmo fare in modo che lo sviluppo digitale e tecnologico vengano sostenuti già a monte da tre “pilastri Umani”: valori, governance (intesa come insieme di principi, regole e procedure che governano una società) e responsabilità.
Come deve essere declinato il rapporto tra essere umano e digitale è una delle sfide che l’Ue ha lanciato istituendo presso l’Università di Macerata la nuova cattedra di “Etica per una Europa DigiTale Inclusiva (EDIT)”. Questo è il primo ed unico percorso accademico in Europa dedicato all’etica dell’intelligenza Artificiale.
La titolare della cattedra la prof. Benedetta Giovanola, afferma che siamo di fronte ad una digitalizzazione che tocca ogni sfera dell’agire umano e di conseguenza, la questione fondamentale è capire come debba essere declinato il rapporto tra essere umano e digitale.
• Considerazioni finali
Almeno per ora, i software di AI non riescono a cogliere le sfumature delle relazioni umane.
Il diritto del lavoro deve quindi sostenere l’applicazione di una tecnologia affidabile e umanocentrica , l'intelligenza artificiale non può rubare il lavoro all’uomo, perché il lavoro si compone di tante piccole mansioni; il fatto certo, però, è che l'AI automatizzerà alcune di queste mansioni, stravolgendo e reinventando alcune delle professioni così come le conosciamo oggi.
Questo vale sicuramente per la selezione del personale, ma non è tutto così pericoloso o negativo come può sembrare, certo, non poter accedere ad un lavoro perché scartati esclusivamente in base ad un colloquio avuto con un robot o sulla base di algoritmi può non far piacere… c’è da dire però che anche il selezionatore umano, distratto, che dedica al massimo 30 secondi alla lettura del nostro Curriculum vitae non è proprio il massimo!
Di fronte a questo orizzonte che muta così rapidamente, a quest’epoca di cambiamenti che, in realtà, è un cambio d’epoca quale posizione assume il Diritto del lavoro, quale funzione è chiamato a svolgere, quali soluzioni propone senza per questo negare le potenzialità dei dispositivi tecnologici sempre più sofisticati.
Sicuramente occorre salvaguardare la qualità dei rapporti di lavoro sin dal reclutamento del lavoratore-dipendente, la migliore risposta alle sfide dell’intelligenza artificiale si deve basare su di un nuovo e diverso approccio nella convinzione che il pensiero artificiale, dovrà sempre e solo agire a sostegno dell’uomo e delle sue attività .Rimane poi molto utile ricordare, nella selezione del personale , di non dare per scontate o come vere in assoluto le informazioni, i dati, il curriculum in nostro possesso ma di valutare attraverso l’approccio scientifico del dubbio e del cuore chi ci sta di fronte.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.