Recentemente, si è diffusamente parlato di deepfake, ossia di quella tecnica di deep learning – una forma di intelligenza artificiale – che permette l’alterazione e la distorsione di un’immagine e/o di un video nella rappresentazione di un soggetto, che è raffigurato compiendo azioni o dichiarando affermazioni, che non sono proprie dello stesso.

Di Fabiola Iraci Gambazza


Il Garante per la protezione dei dati ha esaminato il fenomeno ed è intervenuto nell’analisi dei rischi che tale tecnica potrebbe comportare nel caso di utilizzo scorretto, mediante la pubblicazione di un Vademecum.

Difatti, la tecnica del deepfake venne per la prima volta conosciuta nel 2017, quando un utente di Reddit riuscì a rappresentare falsamente celebrità su corpi di protagonisti di video erotici con grande accuratezza, tale da rendere ardua la distinzione tra video “veri” e quelli falsi. Nel caso di specie, era stata utilizzata la tecnologia GAN, ossia reti neurali addestrate per costruire video o immagini realistici rappresentati volti umani. Seppur precedentemente il suo utilizzo fosse solamente ristretto a certi ambiti, come quello cinematografico, concorrenti gli ingenti costi della sua sperimentazione, negli ultimi anni, tuttavia, il deepfake è oramai alla portata di tutti attraverso applicazioni che permettono di sostituire il proprio viso a quello di un personaggio famoso, facendo così spopolare sui social network video ed immagini contraffatti. Si ricorda, ad esempio, il recente video parodia del discorso di auguri della Regina Elisabetta II, trasmesso dal canale televisivo britannico Channel 4 nel giorno di Natale, allo scopo di sollevare l’attenzione sul fenomeno dilagante delle fakenews.

Al di là della finalità meramente ludica, le problematiche nell’utilizzo dell’innovativa tecnica di intelligenza artificiale non passano inosservate: difatti, numerose criticità si intrecciano sotto il profilo dei diritti di immagine, di riservatezza, di privacy e soprattutto penalistici. Il Rapporto CLUSIT – Associazione Italiana per la sicurezza informatica del 2020 ha evidenziato che una delle maggiori minacce in ambito informatico consiste nel deepfake e nella sua derivazione nel Livefake, ossia nel deepfake in tempo reale, in quanto tali software che sono alla mercé di chiunque, perché semplici da utilizzare, economici e pronti all’uso, così da realizzare un “deepfake-as-a-Service”.

La pericolosità di tale tecnica si ritrova nel fatto di realizzare dei falsi profondi che impediscono di aversi autonomia nel distinguere ciò che è autentico da ciò che non lo è, a causa della precisione e della quasi-perfezione dei contenuti video, audio, o audiovisivi contraffatti.

Sotto il punto di vista penalistico, dunque, si possono temere la realizzazione di fattispecie, quali, a titolo esemplificativo: l’art. 595 c.p., che disciplina il reato di diffamazione, che può aversi nel caso di creazione di una fakenews, offensiva della reputazione e dell’onore del soggetto; il reato di estorsione ex art. 629 c.p., nei casi in cui le immagini o i video siano usati per ricattare o minacciare la persona che viene raffigurata; l’art. 580 c.p., ossia istigazione al suicidio, a causa della lesione grave che viene subita alla visione della foto o del video infamante.

In particolare, in questa sede, si riportano i recenti interventi del Garante sulla protezione dei dati personali, dai quali emergono altresì ulteriori profili penalistici, congiuntamente a quelli della protezione dei dati personali. Nell’ottobre scorso, sull’app di messaggistica Telegram, compariva un bot che permetteva la creazione di deepnude: all’invio di un’immagine di una donna con i vestiti, avveniva la restituzione della stessa, ma senza vestiti, attraverso l’utilizzo di un algoritmo che, avendo analizzato migliaia di immagini, imparava a ricostruire l’aspetto del corpo femminile nudo in base alle informazioni che trovava nella foto originale. Il bot di deepfake nude funzionava solo con persone di genere femminile e sollevava, oltre numerose questioni etiche, in modo preoccupante e pericoloso la questione del revenge porn, ossia la diffusione di immagini di una persona ritratta in nudità – di solito ex partners – al fine di rovinare la reputazione, umiliare pubblicamente. A seguito dell’accaduto, il 23 ottobre, il Garante ha aperto un’istruttoria nei confronti di Telegram e del bot in questione, per indagare sulle gravi lesioni alla dignità e alla privacy, tenendo conto dei profili penalistici coinvolti, tra i quali, il già menzionato revenge porn, estorsione e pedopornografia.

Tuttavia, considerata la diffusione del deepfake ancora più incombente negli ultimi mesi, il 28 dicembre il Garante ha pubblicato un Vademecum dal titolo “Deepfake Il falso che ti «ruba» la faccia (e la privacy)”, al fine di illustrare i principali rischi derivanti, tra cui quelli del deepnude, come già anticipati nell’istruttoria. Si rappresenta, in primo luogo, che il deepfake rappresenta un grave furto di identità: difatti, i soggetti perdono il controllo della propria immagine, sono private del controllo sulle loro idee e sui loro pensieri, che possono essere oggetto di falsificazione, rappresentandoli in contesti che a loro sono del tutto estranei e che di conseguenza, possono arrecare gravi pregiudizi. Altro rischio derivante ed evidenziato dall’Autorità è quello del cyberbullismo, mediante la creazione, il ricatto della diffusione o la stessa condivisione di video e/o immagini, atte ad offendere i soggetti presi di mira.

Tra le problematiche che concernono il deepfake, si tiene in conto anche quello delle fakenews, che contribuiscono alla disinformazione pubblica, nella rappresentazione di personaggi pubblici, in situazioni o facenti dichiarazioni, contrarie alla legge o indignitose, tali da provocare la manipolazione dell’opinione pubblica. Ultimo profilo di rischio tenuto in considerazione è quello del cybercrime, ossia il perfezionamento di reati informatici attraverso il deepfake, quali lo spoofing, ossia “il furto di informazioni che avviene attraverso la falsificazione di identità di persone o dispositivo, in modo da ingannare altre persone o dispositivi e ottenere la trasmissione di dati”, o anche il phishing o il ransomware. Immagini e video contraffatti mediante l’applicazione di tali algoritmi potrebbero, dunque, ingannare le tecnologie che utilizzano le informazioni biometriche di un individuo per accedere ad un determinato servizio.

Il Garante per la protezione dei dati, infine, elenca alcune raccomandazioni per proteggersi dal deepfake, contemporaneamente impegnandosi in qualità di Autorità per contrastare l’utilizzo di tale tecnica in modo illecito:

  • Evitare di diffondere in modo incontrollato immagini personali o dei propri cari, soprattutto con riferimento ai social media;
  • Imparare a riconoscere il deepfake, prestando attenzione alla qualità della foto e/o del video;
  • Evitare di condividere un video o una foto nel caso in cui si sospetti che sia stato realizzato attraverso l’applicazione di tale tecnica;
  • Rivolgersi alle autorità di polizia o alla stessa autorità garante per la protezione dei dati personali, se si ritiene che il deepfake sia stato utilizzato in modo da compiere un reato o una violazione della privacy.

Immagine di h heyerlein su Unsplash

Author Fabiola Iraci Gambazza

More posts by Fabiola Iraci Gambazza