Diritto al futuro e trasparenza degli algoritmi – Gli algoritmi utilizzati dalle più grandi piattaforme di servizi online non solo conoscono i nostri comportamenti ma li formano attraverso tecniche sofisticate come il tuning, l’herding e il condizionamento sociale. Si tratta di una realtà nota da tempo agli addetti al settore ma che di recente è stata portata all’attenzione del grande pubblico da documentari di successo come “The Social Dilemma” prodotto da Netflix o libri come “Il Capitalismo della Sorveglianza” di Shoshana Zuboff (edito in Italia da Luiss University Press).
Algoritmi sempre più potenti e sofisticati sono ormai in grado di estrarre dati in modo ubiquo da qualsiasi nostra esperienza, sia essa online o offline: non tanto e non solo i dati forniti direttamente dall’utente ma anche e sopratutto quelli che vengono inferiti, mediante gli algoritmi, a partire dalle nostre azioni o dalle briciole digitali che lasciamo dietro di noi senza rendercene conto: il linguaggio e la punteggiatura utilizzati in un post, il tono della voce, l’espressione del volto in una foto, il tempo per cui guardiamo un’immagine, la disponibilità a partecipare a un sondaggio online.
Cosa c’è di sbagliato? Almeno due cose.
In primo luogo, questa continua estrazione di dati non avviene (solo) a vantaggio degli utenti allo scopo di migliorare i servizi ad essi forniti, bensì a loro insaputa senza alcuna consapevolezza sulle logiche con cui gli algoritmi sono in grado di tenerci incollati a un determinato servizio, di predire i nostri comportamenti ovvero addirittura di condizionarli. Tutto questo avviene in un contesto di asimmetria informativa e mancanza di reciprocità in cui chi controlla gli algoritmi, da un lato, sfrutta l’esperienza delle persone per ricavarne dati e prodotti predittivi, e dall’altro non utilizza la conoscenza e il potere così acquisiti (solo) a vantaggio dei soggetti interessati, bensì (anche) a favore di terzi (per esempio, gli inserzionisti pubblicitari che utilizzano quei dati per rendere i propri annunci più efficaci).
Facciamo un esempio: attraverso il proprio newsfeed, un utente riceve un messaggio politico che lo invita a votare in un certo modo; il messaggio è calibrato per provare a fare leva sulle vulnerabilità, psicologiche o fisiche, associate al profilo del destinatario, così come ricostruito dagli algoritmi attraverso l’estrazione dei suoi dati. Eppure nulla di tutto ciò è trasparente per l’interessato: non i dati personali che sono stati estratti e utilizzati per creare il profilo dell’interessato, né il profilo stesso e il suo scopo. Analoghi esempi potrebbero riguardare le pubblicità mirate che espongono le persone profilate come soggetti con difficoltà di accesso al credito ad annunci di prestiti con tassi di interesse più alti rispetto alla media di mercato.
In secondo luogo, a decidere sulla logica e la finalità degli algoritmi mirati a prevedere e modificare i comportamenti sono soggetti privati che, da un lato, si sottraggono per definizione a processi democratici di scrutinio pubblico e, dall’altro, si pongono come obiettivo la massimizzazione dei propri profitti anche a scapito degli interessi delle persone la cui esperienza viene sfruttata per massimizzare i propri guadagni.
Si comprende allora l’importanza che la trasparenza degli algoritmi ha per il diritto di decidere; il condizionamento del comportamento attraverso strumenti non trasparenti mina infatti la capacità di fare scelte consapevoli e di formare autonomamente i propri convincimenti senza essere spinti verso determinati esiti previsti da chi controlla gli algoritmi e la loro logica di funzionamento.
Sino ad oggi nessuna legge è riuscita ad obbligare i più grandi gestori delle piattaforme online a rendere trasparente il funzionamento degli algoritmi utilizzati per profilare gli utenti e creare prodotti predittivi da rivendere ai propri clienti (per esempio, gli inserzionisti pubblicitari, i governi, i partiti politici, etc.). Anche il GDPR, almeno per il modo in cui è stato attuato sin qui, si è dimostrato un strumento inadeguato rispetto allo scopo di garantire in modo effettivo alle persone il diritto a proteggere i propri dati personali da utilizzi che non sono trasparenti per l’interessato, essendo noti solo a chi ha il controllo sugli algoritmi.
Per questo motivo, grande speranza è riposta nel Digital Services Act che dovrebbe essere presentato dalla Commissione europea il prossimo 2 dicembre. Per la prima volta, una legge a livello europeo dovrebbe sancire espressamente alcuni principi fondamentali per la tutela del diritto di decidere: 1) l’obbligo per le più grandi piattaforme di fornire, a richiesta delle autorità competenti, informazioni sul modo in cui funzionano i loro algoritmi; 2) il diritto degli utenti a non essere tracciati e profilati per finalità di marketing attraverso un’opzione di default; 3) l’accesso da parte degli utenti ai propri profili utilizzati per scopi pubblicitari; 4) l’identificazione chiara degli inserzionisti a cui le grandi piattaforme vendono i dati degli utenti raccolti attraverso i propri servizi.
Questi principi sono stati ribaditi di recente anche dal Parlamento europeo con le raccomandazioni alle Commissione adottate lo scorso 20 ottobre per chiedere che il Digital Services Act plasmi l’economia digitale europea sulla trasparenza senza la quale non esiste diritto al futuro.
Una volta presentato dalla Commissione a dicembre di quest’anno, il pacchetto di misure dovrà poi seguire il consueto iter normativo a livello comunitario per essere approvato ed entrare in vigore; difficile immaginare che ciò possa avvenire prima del 2022.