 
        I sistemi di IA hanno fornito un impulso notevole per apportare molti benefici e facilitazioni alla società. Tuttavia, in virtù della potenza dello strumento, è necessario sviluppare, diffondere gestire tale tecnologia in modo sicuro e responsabile, affinchè se ne possano trarre reali benefici. Proprio di recente, tali temi sono stati al centro della comunità tecnologica, pertanto ripercorriamo brevemente il percorso che ha condotto ad un risultato condiviso importante,
AI Safety Summit
AI Safety Summit è un’importante conferenza che si tiene nel Buckinghamshire, Regno Unito. All’inizio di novembre 2023, i rappresentanti di 28 paesi, aziende tecnologiche e mondo accademico si sono riuniti per per discutere dei rischi della IA e su come possano essere mitigati attraverso un comune sforzo. Tra i risultati più significativi vi è sicuramente quella che può essere considerata una pietra miliare del settore: la Dichiarazione di Bletchley sulla sicurezza dell’IA, dove si sintetitazzano due principi fondamentali:
- gli sviluppatori di tecnologie di IA avanzate e potenzialmente pericolose si assumono una responsabilità significativa nel garantire che i loro sistemi siano sicuri attraverso rigorosi protocolli di test e misure di sicurezza per prevenire usi impropri e incidenti;
- la necessità di promuovere partenariati di ricerca internazionali nella sicurezza della IA, in virtù di potenziali danni gravi, persino catastrofici, deliberati o non intenzionali, derivanti dalle capacità più significative dei modelli di IA.
Le linee guida per lo sviluppo di sistemi di IA sicuri
A seguito del Summit, il National Cyber Security Centre del Regno Unito, la Cybersecurity and Infrastructure Security Agency degli Stati Uniti (CISA) e le agenzie internazionali di altri 16 paesi hanno pubblicato nuove linee guida sulla sicurezza dei sistemi di intelligenza artificiale. I sistemi di IA sono soggetti a nuove vulnerabilità di sicurezza che devono essere considerate alla stregua delle minacce standard alla sicurezza informatica. La sicurezza deve quindi essere un requisito fondamentale, non solo nella fase di sviluppo, ma durante tutto il ciclo di vita del sistema. Per questo motivo, le linee guida sono suddivise in quattro aree chiave all’interno del ciclo di vita dello sviluppo del sistema di IA:
- Design sicuro. Sono applicate alla fase di progettazione del ciclo di vita dello sviluppo del sistema di intelligenza artificiale e includono la comprensione dei rischi e la modellazione delle minacce, nonché argomenti specifici e compromessi da considerare nella progettazione di sistemi e modelli
- Sviluppo sicuro Questa sezione riguarda la fase di sviluppo del ciclo di vita del sistema di IA, tra cui la sicurezza della catena di approvvigionamento, la documentazione e la gestione delle deficienze tecniche e strumentali
- Distribuzione sicura. La fase di distribuzione del ciclo di vita dello sviluppo del sistema di intelligenza artificiale include la protezione dell’infrastruttura e dei modelli da compromissioni, minacce o perdite, nonché lo sviluppo di processi di gestione degli incidenti e il rilascio responsabile
- Funzionamento e manutenzione sicuri. Questa sezione fornisce linee guida sulle azioni particolarmente rilevanti una volta che un sistema è stato implementato, tra cui la registrazione e il monitoraggio, la gestione degli aggiornamenti e la condivisione delle informazioni.
Conclusioni
Al di là degli aspetti tecnici, le linee guida veicolano alcuni principi cardine da tenere in considerazione durante l’intero ciclo di vita dello sviluppo dei sistemi di IA:
- Assumersi la responsabilità delle implicazioni della sicurezza per i propri clienti
- Sposare i principi di trasparenza e la responsabilità
- Costruire una struttura organizzativa e una leadership sicure «by design» quale priorità assoluta
 
								 
							

