Il National Cyber Security Centre del Regno Unito1, in collaborazione con diverse organizzazioni internazionali ha pubblicato una guida per lo sviluppo sicuro di sistemi AI. Il documento fornisce delle linee guida per garantire la sicurezza dei sistemi AI e coinvolge diverse agenzie di sicurezza e organizzazioni governative di tutto il mondo nonché anche importanti aziende del settore tecnologico.

L’obiettivo è migliorare la sicurezza dei sistemi AI attraverso Linee Guida condivise.

I sistemi di intelligenza artificiale hanno il potenziale per apportare numerosi vantaggi alla società e alle aziende che li adottano e li utilizzano. Ma comportano anche un aumento notevole dei rischi sulla protezione dei dati, dei sistemi e delle infrastrutture.

Per realizzare appieno le opportunità dell’IA, è necessario svilupparla, distribuirla e gestirla in modo sicuro e responsabile da parte dei produttori e da parte degli utilizzatori. I sistemi di IA sono soggetti a nuove vulnerabilità di sicurezza che devono essere considerate insieme alle minacce informatiche tradizionali. Quando lo sviluppo avviene in modo rapido, come nel caso dell’IA, la sicurezza può spesso essere trascurata. Tuttavia, la sicurezza deve essere un requisito fondamentale sia nella fase di sviluppo che durante l’intero ciclo di vita del sistema.

Le linee guida pubblicate sono organizzate in quattro aree chiave all’interno del ciclo di vita dello sviluppo dei sistemi di IA: progettazione sicura, sviluppo sicuro, implementazione sicura nonchè operazioni e manutenzione sicure. Ogni sezione delle linee guida fornisce considerazioni e misure di mitigazione che contribuiscono a ridurre il rischio complessivo durante lo sviluppo di un sistema di IA da parte dell’organizzazione.

Qui indichiamo in sintesi le quattro aree o sezioni:

  1. Design sicuro:
    Questa sezione contiene linee guida che si applicano alla fase di progettazione del ciclo di vita del sistema di IA. Tratta la comprensione dei rischi e la modellazione delle minacce, nonché argomenti specifici e compromessi da considerare nella progettazione di sistemi e modelli soprattutto da parte dei produttori dei sistemi.

2. Sviluppo sicuro:
Questa sezione contiene linee guida che si applicano alla fase di sviluppo del ciclo di vita del sistema di IA, tra cui la sicurezza della catena di fornitura, la documentazione e la gestione degli asset e del debito tecnico.

3. Distribuzione sicura:
Questa sezione contiene linee guida che si applicano alla fase di implementazione del ciclo di vita d e l sistema di IA, compresa la protezione dell’infrastruttura e dei modelli da compromissioni, minacce o perdite, lo sviluppo di processi di gestione degli incidenti e il rilascio responsabile.

4. Funzionamento e manutenzione sicuri:
Questa sezione contiene linee guida che si applicano alla fase di funzionamento e manutenzione sicura del ciclo di vita del sistema di IA. Fornisce linee guida sulle azioni particolarmente rilevanti una volta che il sistema è stato implementato, tra cui la registrazione e il monitoraggio, la gestione degli aggiornamenti e la condivisione delle informazioni.

Le linee guida seguono un approccio “sicuro per impostazione predefinita” e sono strettamente allineate alle pratiche definite nella guida Secure development and deployment dell’NCSC2, nel Secure Software Development Framework3 del NIST e nei “principi secure by design4” pubblicati dal CISA, dall’NCSC e dalle agenzie internazionali per la sicurezza informatica. Esse devono essere considerate insieme alle migliori prassi consolidate in materia di sicurezza informatica, gestione del rischio e risposta agli incidenti. In particolare, si invitano i fornitori a seguire i principi “secure by design “2 sviluppati dalla Cybersecurity and Infrastructure Security Agency (CISA) statunitense, dal National Cyber Security Centre (NCSC) britannico e da tutti i partner internazionali.

Le linee guida sottolineano pertanto le seguenti priorità :

– assumersi la responsabilità dei risultati di sicurezza per i clienti

– abbracciare una trasparenza e una responsabilità in modo radicale

– costruire una struttura organizzativa e una leadership tali da rendere la sicurezza di progetto una priorità aziendale assoluta

Seguire i principi del “security by design” richiede risorse significative per tutto il ciclo di vita di un sistema. Significa che gli sviluppatori devono investire tempo, risorse e denaro per dare priorità alle funzionalità, ai meccanismi e all’implementazione di strumenti che proteggono i clienti a ogni livello della progettazione del sistema e in tutte le fasi del ciclo di vita dello sviluppo. In questo modo si eviteranno costose riprogettazioni successive, oltre a salvaguardare i clienti e i loro dati nel breve periodo.

Oltre alle minacce alla sicurezza informatica esistenti, i sistemi di intelligenza artificiale sono soggetti a nuovi tipi di vulnerabilità come ad esempio “L’adversarial machine learning” (AML) che viene utilizzato per descrivere lo sfruttamento delle vulnerabilità fondamentali dei componenti di ML, compresi hardware, software, flussi di lavoro e catene di fornitura. L’AML consente agli aggressori di provocare comportamenti indesiderati nei sistemi di intelligenza artificiale con rischi molto alti di provocare notevoli danni ai sistemi, alle infrastrutture, ai dati e alle informazioni.

La sicurezza dell’intelligenza artificiale è pertanto diversa dalla sicurezza informatica in quando deve confrontarsi con azioni malevole e vulnerabilità forse più pericolose e subdole rispetto ai rischi tipici oggi più conosciuti e presenti negli altri sistemi tecnologici.

Stefano Aterno

Author Stefano Aterno

More posts by Stefano Aterno