Premessa
Tra i diversi obiettivi legati all’era digitale e alle sue sfide, la Commissione Europea intende assicurare che i soggetti danneggiati dai sistemi di intelligenza artificiale godano dello stesso livello di protezione accordato a chi subisca dei danni dall’uso di tecnologie tradizionali.
Già nel febbraio 2020, con il White Paper on Artificial Intelligence ed il Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and robotics, la Commissione Europea si era impegnata a promuovere l’adozione dei sistemi di intelligenza artificiale e ad affrontare i rischi associati ad alcuni dei loro utilizzi, individuando le principali criticità poste dall’IA in materia di responsabilità civile.
Ad essi aveva fatto seguito la risoluzione legislativa pubblicata il 20 ottobre 2020 dal Parlamento Europeo, che presentava alcune raccomandazioni pratiche per la Commissione, volte a delineare un regime di responsabilità civile per l’IA.
Di qui, la Commissione è giunta a proporre un quadro giuridico regolatorio, il cosiddetto “AI Act”, pubblicato il 21 aprile 2021 e di cui si è molto parlato, il quale, in ultima analisi, mira ad affrontare i rischi generati da usi specifici dell’intelligenza artificiale, attraverso un ventaglio di norme incentrate sulla sicurezza e sul rispetto dei diritti fondamentali della persona.
È in tale contesto che si inserisce l’Artificial Intelligence Liability Directive, “AILD”, la proposta di Direttiva con la quale, lo scorso 28 settembre 2022, la Commissione ha risposto al suo Libro Bianco e alla Risoluzione del Parlamento.
Obiettivi della proposta
L’obiettivo della proposta di Direttiva “AILD” è di armonizzare le norme esistenti in materia di responsabilità civile per i danni causati da sistemi di intelligenza artificiale.
In particolare, la proposta affronta le specifiche difficoltà di prova legate al coinvolgimento di tali sistemi e ha, come fine ultimo, quello di garantire un’idonea tutela ai soggetti che ne fanno uso, rimuovendo ostacoli di tipo giuridico alle richieste di risarcimento avanzate dai danneggiati.
Le norme nazionali sulla responsabilità, allo stato, secondo la Commissione non sono adatte a gestire le richieste risarcitorie per i pregiudizi causati da prodotti e servizi abilitati all’IA: in base a tali norme, generalmente, grava sul danneggiato l’onere di dimostrare un illecito che abbia comportato la lesione di un interesse meritevole di tutela, il danno ad esso conseguente ed il nesso eziologico tra tali elementi.
Le specifiche caratteristiche dei sistemi di intelligenza artificiale – complessità, autonomia e opacità (si pensi al cosiddetto effetto “black box”) – rendono difficile identificare il responsabile di un eventuale danno e dimostrare i requisiti alla base di un’azione di responsabilità.
In altra prospettiva, le imprese hanno difficoltà a prevedere come vengono applicate le norme esistenti in materia e, conseguentemente, a valutare ed assicurare la propria esposizione ad eventuali azioni di responsabilità (con un effetto amplificato per le realtà imprenditoriali che operano a livello transfrontaliero, poiché l’incertezza giuridica, in tal caso, coinvolge diverse giurisdizioni).
Con il risultato ultimo di scoraggiare l’adozione di sistemi e tecnologie IA, limitando così anche il funzionamento del mercato interno.
In tale scenario, base giuridica della proposta è proprio l’articolo 114 TFUE, che prevede l’adozione di misure volte a garantire l’instaurazione ed il funzionamento del mercato interno.
Ciò, in quanto i problemi che la Commissione vuole affrontare, legati all’incertezza e alla frammentazione giuridica, ostacolano lo sviluppo del mercato e rappresentano, in tal senso, un problema significativo per il commercio di prodotti e servizi abilitati all’intelligenza artificiale.
Per le imprese è fondamentale conoscere i possibili profili di rischio a cui si espongono, anche al fine di potersi assicurare e di investire con fiducia nei sistemi di intelligenza artificiale.
La proposta di Direttiva “Artificial Intelligence Liability Directive” mira a delineare un quadro giuridico armonizzato in materia di responsabilità civile per l’IA, con due principali intenti: anzitutto, al fine di garantire a chi subisca un danno degli adeguati standard di tutela; in secondo luogo, al fine di favorire la diffusione dei sistemi di intelligenza artificiale nel mercato interno, contribuendo al suo funzionamento.
La presunzione del nesso di causalità in caso di colpa
Di particolare rilevanza, a parere di chi scrive, è l’Articolo 4 della proposta di Direttiva “AILD”, rubricato “Presumption of causal link in the case of fault”, ovvero “Presunzione del nesso di causalità in caso di colpa”.
La colpa cui fa riferimento la Direttiva, in particolare, sembrerebbe essere l’inosservanza di una regola di condotta stabilita dal diritto dell’Unione o dal diritto di uno Stato membro.
Per un soggetto danneggiato dall’uso di un sistema o di una tecnologia di intelligenza artificiale può essere piuttosto difficoltoso stabilire un nesso eziologico tra l’inosservanza di un dovere di diligenza e l’output prodotto dal sistema di IA o, anche, la mancata produzione di un output da parte del sistema di IA da cui sia dipeso un pregiudizio.
Pertanto, l’Articolo 4 sancisce una presunzione relativa di causalità che, per la Commissione, costituirebbe la misura “meno onerosa” per soddisfare il diritto della vittima ad un equo risarcimento.
I paragrafi (2) e (3) dell’Articolo distinguono, da un lato, le richieste di risarcimento avanzate nei confronti del fornitore di un sistema di IA ad alto rischio o nei confronti di un soggetto sottoposto agli obblighi del fornitore ai sensi dell’AI Act e, dall’altro, le richieste di risarcimento presentate nei confronti dell’utente.
In caso di richieste di risarcimento basate sull’Articolo 4, paragrafo (2), la proposta prevede che l’adempimento degli obblighi da parte dei convenuti deve essere valutato anche alla luce della gestione del rischio, ovvero delle misure in tal senso previste dall’AI Act.
In caso di sistemi di IA “ad alto rischio” – come definito dalla proposta di Regolamento sull’IA – l’Articolo 4, al paragrafo (4), stabilisce poi un’eccezione alla presunzione di causalità, qualora il convenuto dimostri che il danneggiato sia in possesso o a conoscenza di prove, competenze o informazioni sufficienti a dimostrare il nesso di causalità tra l’inosservanza ed il pregiudizio patito.
Nel caso di sistemi di IA a rischio non alto, invece, l’Articolo 4, paragrafo (5), stabilisce una condizione per l’applicabilità della presunzione di causalità, in base alla quale quest’ultima è subordinata ad una valutazione del giudice che stabilisca sia eccessivamente gravoso, per l’attore, provare il nesso causale.
In particolare, le difficoltà devono essere valutate alla luce delle caratteristiche di alcuni sistemi, come l’autonomia e l’opacità, che rendono difficoltosa, nella pratica, la decifrazione del funzionamento del sistema di IA, incidendo negativamente sulla possibilità di dimostrare il nesso tra la colpa del convenuto ed il difetto tecnologico.
Considerazioni conclusive
Secondo la Commissione, le norme contenute nella proposta di Direttiva avrebbero il vantaggio di incentivare tutti i soggetti coinvolti nell’uso dei sistemi di intelligenza artificiale al rispetto degli obblighi sugli stessi gravanti.
Adattando le tradizionali regole di responsabilità alle sfide dell’IA, l’iniziativa anticipa le nuove difficoltà di prova che le vittime di un danno devono affrontare e mira a garantire che la fiducia nell’intelligenza artificiale non diminuisca a causa di ostacoli di natura giuridica.
Tuttavia, a parere di chi scrive, seppur sia da apprezzare l’obiettivo sotteso alla proposta, volta ad armonizzare gli ordinamenti dei diversi Stati membri e a delineare nuovi standard di tutela, vi è il rischio, con determinate previsioni, di sfociare in ipotesi di responsabilità che mal si conciliano con la funzione che l’istituto del risarcimento del danno ha in alcuni ordinamenti, come quello italiano.
Ad ogni modo, l’iniziativa sulla responsabilità civile in materia di IA è parte cruciale di un piano di trasformazione incentrato su un modello “antropocentrico” e, al tempo stesso, favorevole all’innovazione, che tenga in debito conto anche l’esigenza di certezza del diritto e di regole coerenti per tutto il mercato interno.
È da ritenersi in ogni caso lungimirante, pertanto, un approccio volto alla previsione strategica e all’armonizzazione degli strumenti di tutela, malgrado il possibile impatto di alcune norme, con particolari profili di ambiguità, dovrà essere opportunamente valutato dai singoli Stati membri.
Gabriella Amato