É stata approvata la Risoluzione del Parlamento europeo del 20 gennaio 2021 sull’intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale.
Il testo è stato adottato con 364 voti favorevoli, 274 contrari e 52 astensione. Si chiede nello specifico che l’Unione assuma un quadro giuridico sull’adozione dell’AI in delicati ambiti, definendo i principi etici che possano sempre garantire il rispetto della dignità umana e i diritti dell’uomo.

Di Silvia Notaro


Come affermato da Pichai Sundarajan, amministratore delegato di Google, “AI is one of the most profound things we’re working on as humanity. It’s more profound than fire or electricity”.

Potremmo dire che è in atto una vera e propria rivoluzione industriale, che vede l’intelligenza artificiale e tutte le sue possibili manifestazioni protagonista indiscussa di quest’era, capace di insediarsi in tutti gli aspetti e ambiti sociali ma ponendo allo stesso tempo delle vere e proprie questioni etiche e legali. Di fronte alle molteplici sfide poste dallo sviluppo dei sistemi di intelligenza artificiale, abbiamo bisogno di risposte legali, come sostenuto dal relatore Gilles Lebreton in occasione della risoluzione europea.

Il Parlamento europeo ha sempre cercato di fornire un quadro giuridico comunitario cercando di arginare un fenomeno in crescente aumento, nonché di predisporre le norme per un suo corretto utilizzo.

Questa volta, una delle questioni sui cui il Parlamento si è pronunciato ha riguardato il fenomeno dei sistemi autonomi di armi letali (lethal autonoums weapon system) o più semplicemente detti robot assassini.

La risoluzione approvata in plenaria dal Parlamento europeo il 20 gennaio 2021 (A9-0002/2021) chiede l’adozione da parte della Commissione di una strategia volta a proibire “sistemi d’arma se non soggetti al controllo umano”.

Il processo di automazione non ha infatti esentato il fronte militare. Le macchine assassine di Terminator non sono più semplice fantascienza. La macchina, grazie ai suoi algoritmi di apprendimento, sarebbe in grado di assumere la decisione fatale circa una possibile uccisione sul fronte di guerra. I robot potrebbero essere attori decisivi per la battaglia, non si stancano, non provano paura né emozioni, in fin dei conti sono solo macchine. Non vi è nessun essere umano ai comandi. Ma il problema che tali sistemi hanno posto è proprio il seguente: è lecito lasciare alla macchina la responsabilità di decidere della vita di una persona?

D’altronde l’affermazione di tali sistemi sembra in chiara contraddizione con la prima delle tre leggi della robotica di Isaacv Asimov (1942): un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

A fronte del cambiamento nel modo di operare degli eserciti, dovuto proprio allo sfruttamento delle nuove tecnologie e le capacità autonome, è essenziale fornire un quadro giuridico adeguato rispettoso dei principi di liability, transparency e accountability.

Nella risoluzione in oggetto si chiede in particolar modo che l’AI, utilizzata nel contesto militare e civile, sia soggetta a un significativo controllo umano, in modo che la responsabilità ultima del processo decisionale possa identificarsi con quella dell’essere umano. La decisione di prendere di mira un bersaglio e compiere l’azione letale utilizzando un sistema d’arma da fuoco deve essere presa dall’uomo.

Ne consegue un divieto assoluto dei sistemi totalmente privi del controllo e della supervisione umana, nonché il divieto di antropomorfizzare i LAWS, ovvero evitare qualsiasi confusione tra persona umana e robot.

Il relatore Lebreton ha invitato l’alto rappresentante per gli Affari esteri e la politica di sicurezza, Josep Borrell, “a preparare il terreno per negoziati globali” e “a creare un regime di controllo delle armi basate sull’IA”. Al Consiglio si chiede di “tenere pienamente in considerazione i sistemi d’arma basati sull’IA” nel momento in cui vengono definite “norme comuni per il controllo delle esportazioni di tecnologia e attrezzature militari”.

La risoluzione mira a mettere in luce che in qualsiasi ambito l’AI venga utilizzata, tanto in ambito militare quanto nel settore dei servizi pubblici o nell’ambito della salute pubblica, essa deve rimanere uno strumento di supporto e coadiuvante l’agire umano.

Anche il settore della giustizia ha beneficiato dell’applicazione dell’AI, la quale ha contribuito a un’accelerazione e una maggior oggettività del processo decisionale. Tuttavia, è necessario che la decisione finale non sia frutto di un processo totalmente automatizzato ma verificata da un giudice e rispondente ai canoni del giusto processo, evitando distorsioni e discriminazioni.

Nell’ambito della sanità l’intelligenza artificiale ha svolto un ruolo significativo (chirurgia robotica, protesi intelligenti, ma anche robot sociali per l’assistenza agli anziani), per garantire il suo corretto utilizzo si sottolinea la necessità di garantire sempre il principio di parità di trattamento in termini di accesso alle cure nonché la possibilità del medico di potersi sempre discostare dalla soluzione proposta dalla tecnologia, mantenendo sempre fede al suo giuramento.

Un ultimo punto trattato dai deputati ha riguardato il pericolo che da parecchio ormai è rappresentato dalle tecnologie di deepfake (le quali consentono di produrre materiale non originale), potenzialmente capaci di creare disinformazione minando la fiducia dei cittadini e influenzando negativamente il dibattito pubblico.

Si auspica infine che l’Unione assuma un ruolo di guida nella creazione di un quadro che regoli l’utilizzo dell’AI, collaborando con l’ONU e la comunità internazionale in vista di un’operazione di coalizione.

Immagine di NeONBRAND su Unsplash

Author Silvia Notaro

More posts by Silvia Notaro