HR_AI

Chi ha paura dell’Intelligenza Artificiale?

L’ultimo decennio ha portato a una rapida espansione della disponibilità e dell’interesse per gli strumenti basati sull’Intelligenza Artificiale (AI) per svolgere attività HR: si tratta di strumenti che a oggi rischiano di essere da un lato iperstimati e dall’altro eccessivamente temuti. I due approcci sono contrapposti e dal punto di vista di Matissa Hollister della Desautels Faculty of Management della canadese McGill University rendono difficile implementare strumenti di gestione del personale basati sull’AI in modo davvero efficace e responsabile.

Se per alcuni, infatti, l’AI è onnipotente e continuerebbe a esserlo anche applicata all’HR, per altri il tema solleva forti preoccupazioni in aree come, per esempio, la riservatezza dei dati. Nel contesto delle Risorse Umane, si aggiunge la considerazione che le decisioni prese in questa sfera hanno un impatto estremamente significativo sulla vita delle persone. Nonostante questo, ha fatto notare il World economic forum, troppa paura dell’AI potrebbe portare a perdere opportunità reali per rendere i processi delle Risorse Umane più equi ed efficaci. Come promuovere, dunque, l’uso responsabile degli strumenti basati sulle nuove tecnologie anche nell’HR?

Oltre il timore e la reverenza

Un principio dell’AI particolarmente rilevante è la convinzione che gli esseri umani debbano continuare ad avere l’ultima parola nelle decisioni ad alto rischio. Il mantra è in sostanza mantenere in primo piano la componente umana. Dall’osservatorio di Hollister, che negli ultimi due anni ha lavorato al tema con oltre 50 esperti di Risorse Umane, Data Science, Diritto del Lavoro ed etica, mettere in pratica questo principio presenta non poche difficoltà.

In primo luogo perché attribuire all’utente dell’AI il compito di prendere la decisione finale rischia di reintrodurre proprio i problemi che gli strumenti digitali miravano ad affrontare. È assodato, però, che mantenere le persone, e non la tecnologia, veramente responsabili di quegli strumenti sia di fondamentale importanza e per farlo, ha sottolineato Hollister, è necessario riunire e dotare gli utenti delle competenze necessarie; dissipare l’aura di mistero – che si tratti di timore o di reverenza – che circonda l’IA; e creare la necessaria infrastruttura organizzativa.

Superare la paura dell’AI richiede il coinvolgimento di tutte le parti interessate nel processo di selezione e adozione di strumenti per le Risorse Umane su di essa basati, compresi i professionisti HR e i tutti gli altri lavoratori coinvolti. Inoltre, tutti dovrebbero essere incoraggiati ad apprendere le basi del funzionamento di tali sistemi. Contrariamente alle aspettative, esse sono relativamente facili da comprendere e l’aspetto più importante da sapere è che gli attuali sistemi AI sono sviluppati cercando modelli nei dati del mondo reale. Maggiore coinvolgimento e comprensione è destinato a portare sia a una migliore selezione di strumenti che si adattino all’organizzazione sia a utenti più informati e meno timorosi.

Unire i punti di forza di umani e delle macchine

I creatori di strumenti per le Risorse Umane basati sull’AI, nel frattempo, dovrebbero evitare di promuovere la tecnologia come uno strumento misterioso e potente ed enfatizzare invece i progetti ponderati, comprensibili e affidabili. Non solo questo è il percorso più responsabile, ma risponde meglio alle crescenti preoccupazioni circa le questioni etiche e legali. Secondo Hollister è questo l’approccio che, in nome dell’equilibrio, permette più di altri di combinare le due sfere in un modo efficace.

Infine, le organizzazioni dovrebbero riconoscere che l’utilizzo di questo strumento richiede una pianificazione considerevole, che passa dalla garanzia che siano eseguiti i passaggi appena indicati. Affermare semplicemente che l’essere umano ha l’ultima parola in una decisione ad alto rischio non è sufficiente. Se gli utenti mancano di fiducia, gli strumenti dell’AI sono troppo opachi o le organizzazioni sono vaghe su come dovrebbe funzionare questo processo, l’uso di questi strumenti è destinato a scivolare verso gli estremi della supremazia dell’algoritmo o di quella dell’essere umano.

Tanto le decisioni algoritmiche quanto quelle umane sono imperfette, ma con una chiara comprensione di tali imperfezioni, un’attenta riflessione e pratiche mirate, le organizzazioni possono imparare a dirigersi verso sistemi che si basano sui punti di forza di umani e macchine per realizzare il pieno potenziale dell’AI.

Fonte: World economic forum

risorse umane, Intelligenza artificiale, HR, Hollister


Avatar

Erica Manniello

Laureata in Filosofia, Erica Manniello è giornalista professionista dal 2016, dopo aver svolto il praticantato giornalistico presso la Scuola superiore di Giornalismo “Massimo Baldini” all’Università Luiss Guido Carli. Ha lavorato come Responsabile Comunicazione e come giornalista freelance collaborando con testate come Internazionale, Redattore Sociale, Rockol, Grazia e Rolling Stone Italia, alternando l’interesse per la musica a quello per il sociale. Le fanno battere il cuore i lunghi viaggi in macchina, i concerti sotto palco, i quartieri dimenticati e la pizza con il gorgonzola.

Meet_Talentia_2024

Meet Talentia 2024: potenziare l’innovazione, ispirare fiducia

/
È stato Palazzo di Varignana a Castel San Pietro Terme, ...
Sd Worx

SD Worx-F2A, Verdonck: “Italia, grande potenziale di business”

/
Dopo l’annuncio di fine luglio 2024, il 31 ottobre è ...
anticipo

Lagardère Travel Retail Italia apre all’anticipo di stipendio con Zucchetti

/
Lagardère Travel Retail Italia, società che si occupa della gestione ...

Via Cagliero, 23 - 20125 Milano
TEL: 02 91 43 44 00 - FAX: 02 91 43 44 24
EMAIL: redazione.pdm@este.it - P.I. 00729910158

© ESTE Srl - Via Cagliero, 23 - 20125 Milano