Intelligenza artificiale e mercato del lavoro. L’Information Commissioner’s Office, autorità di controllo indipendente per il Regno Unito, si è interrogata sull’impiego di algoritmi e processi decisionali automatizzati ai fini della selezione e assunzione di personale nei contesti lavorativi.
L’ICO individua alcuni punti chiave che le imprese dovrebbero considerare quando utilizzano sistemi di intelligenza artificiale per le attività di recruitment, al fine di garantire pari opportunità per i candidati. Pregiudizi e discriminazioni nel mercato del lavoro costituiscono infatti un problema ancora attuale, come dimostrato da un esperimento del 2016 condotto dai ricercatori tedeschi dell’Institute of Labor Economics (IZA): a parità di competenze, una candidata con un nome tedesco è contattata cinque volte più frequentemente di una candidata con un nome turco e che indossa un copricapo tradizionale nella foto di curriculum.

Di Jacopo Purificati


Impiego opportuno dei sistemi di IA

Algoritmi e automazioni possono sicuramente essere impiegati per risolvere i problemi anzidetti, ad esempio per individuare discriminazioni nelle prime fasi del ciclo di vita di un sistema. Ciononostante, si rileva anche una tendenza opposta.

Spiega infatti l’autorità britannica che il rapporto tra intelligenza artificiale e intelligenza umana è inevitabilmente biunivoco: se è vero che gli algoritmi influenzano la nostra società, è altrettanto vero che è l’essere umano a “istruire” il sistema di IA e, di conseguenza, eventuali pregiudizi e discriminazioni presenti nel processo decisionale umano saranno presenti anche nei processi automatizzati. Pertanto, scegliere il “miglior candidato” solamente attraverso l’utilizzo di un algoritmo significa rafforzare il problema esistente.

E anzi, lo sviluppo di algoritmi di big data e di machine learning sta rendendo più difficile rilevare simili criticità, poiché tali sistemi potrebbero compiere correlazioni discriminatorie meno palesi e intuitive, nonché favorire l’automation bias. In tal senso, le aziende sono tenute a monitorare il progresso tecnologico e a investire tempo e risorse per la formazione del personale, per continuare a seguire le best practice e gli approcci tecnici sviluppatisi in tale settore.

Al centro delle raccomandazioni dell’ICO c’è poi lo svolgimento di una valutazione d’impatto sulla protezione dei dati (peraltro espressamente richiesta, ex art. 35, par. 3, lett. a GDPR, quando si svolgono processi decisionali automatizzati), attraverso la quale:

  • determinare e documentare le criticità sin dall’inizio del ciclo di vita dell’IA;
  • mettere in atto le appropriate misure tecniche e organizzative in fase di progettazione e costruzione; e
  • vagliare necessità e proporzionalità del sistema di IA nel caso concreto.
Il processo decisionale automatizzato e l’intervento umano

L’impiego di sistemi di intelligenza artificiale qualifica l’attività di recruitment quale trattamento automatizzato di dati personali, come tale soggetto alle prescrizioni di cui all’art. 22 GDPR. Tale disposizione sancisce il divieto di prendere decisioni, basate su di un trattamento interamente automatizzato dei dati, che producano effetti giuridici o incidano significativamente in modo analogo sulla persona dell’interessato.

Può derogarsi al divieto in questione nei casi indicati dal secondo paragrafo dell’art. 22. Tuttavia, l’Information Commissioner’s Office rileva che:

  • il consenso esplicito dell’interessato costituisce un’eccezione al divieto, ma dati gli squilibri di potere tra datore di lavoro e candidato, difficilmente quest’ultimo presterà il proprio consenso liberamente; e
  • l’eccezione basata sull’autorizzazione ad opera del diritto UE o degli Stati membri non trova applicazione nel settore privato.

A ben vedere, l’unica eccezione lecitamente applicabile sarebbe quella per cui la decisione è necessaria all’esecuzione di un contratto tra interessato e titolare del trattamento. Ma in tal caso, il titolare è tenuto ad attuare misure appropriate per garantire all’interessato “almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione” (art. 22, par. 3, GDPR).

Per tali ragioni, le aziende dovrebbero valutare come introdurre l’intervento umano in un processo di selezione basato su IA. In tal modo, non andrebbero incontro al divieto suesposto, poiché il trattamento in questione si qualificherebbe come parzialmente automatizzato.

La correttezza degli algoritmi tra privacy e pari opportunità

Tra i princìpi generali in materia di protezione dei dati, l’Information Commissioner’s Office pone l’attenzione su quello ex art. 5, par. 1, lett. a) del GDPR, in forza del quale i dati personali sono trattati in modo lecito, corretto e trasparente nei confronti dell’interessato. I sistemi di IA devono quindi elaborare i dati personali in maniera rispondente alle ragionevoli aspettative dei candidati, affinché il trattamento non produca ingiustificate conseguenze negative nei loro confronti.

Il principio generale appena richiamato, osserva l’ICO, attiene tanto alle norme in materia di data protection quanto a quelle sulle pari opportunità (nel Regno Unito, l’Equality Act 2010), ma si declina in modo differente a seconda delle disposizioni di riferimento.

Ad esempio, il GDPR prescrive che la valutazione d’impatto contenga, inter alia,le misure adottate per contenere i rischi inerenti i diritti e le libertà degli interessati (art. 35, par. 7, lett. d). Le leggi in materia di pari opportunità, d’altro canto, non chiedono il semplice “contenimento”, bensì la completa eliminazione di ogni rischio di discriminazione.

La raccomandazione che ne deriva è quella per cui le imprese devono valutare la compliance sia in base alla normativa sulla protezione dei dati, sia – e separatamente – in base alle norme che prescrivono la non discriminazione nelle attività di selezione del personale, giacché il rispetto di una legge non garantirà in automatico il rispetto dell’altra.

Inoltre, gli standard in materia di discriminazione possono variare di Paese in Paese. Negli Stati Uniti, ad esempio, alcune linee guida parlano di “discriminazione” allorché il tasso di selezione lavorativa per i soggetti di una minoranza è inferiore all’80% del tasso di selezione per i soggetti di un gruppo maggioritario. Il sopra richiamato UK Equality Act 2010, invece, dispone che la discriminazione indiretta può essere giustificata fintanto che sia proporzionata, in tal modo suggerendo di valutare la correttezza caso per caso. Ecco perché le aziende dovrebbero tener presente che non ci sono garanzie che un algoritmo, progettato per soddisfare gli standard americani, soddisfi altresì quelli britannici.

Link all’articolo: https://ico.org.uk/about-the-ico/news-and-events/six-things-to-consider-when-using-algorithms-for-employment-decisions/

Immagine di Charles Deluvio su Unsplash

Author elex

More posts by elex