Vuoi ricevere i nostri aggiornamenti?
AI generativa: la commissione pubblica il terzo draft del codice di buone pratiche
AI - Aggiornamenti normativi
In attesa della versione finale (attesa, in verità, per i primi di maggio) la Commissione – che sta lavorando ai sensi dell’art 56 A.I. ACT – pubblica il terzo draft del “codice di buone pratiche”.
Si tratta di uno strumento cruciale nel guidare lo sviluppo e la diffusione di modelli di IA per finalità generali affidabili e sicuri nell'UE, anche (e soprattutto) in considerazione del fatto che, a partire dal 2 agosto 2025, il Capo V dell’A.I. ACT sui modelli di AI per finalità generali acquista piena efficacia.
Andiamo allora a vedere com’è strutturato e cosa prevede.
Obiettivi e struttura del draft
Il draft si articola in tre sezioni: Trasparenza, Copyright e Gestione del rischio e sicurezza: ogni sezione contiene una serie di “Impegni”
Più esattamente Trasparenza, Copyright contengono un impegno ciascuna e si applicano ai fornitori di modelli di IA per scopi generali, mente Gestione del rischio e sicurezza contempla sedici impegni e trova applicazione per i soli fornitori di modelli di IA generici a “rischio sistemico”.
Per ogni impegno, il documento elenca poi le misure necessarie per assicurarne il raggiungimento.
Trasparenza
La prima sezione, dedicata alla trasparenza, descrive tre misure che i firmatari si impegnano ad adottare per adempiere agli obblighi di trasparenza previsti dall'articolo 53(1) lett. a) e b), e dai corrispondenti allegati XI e XII dell'A.I. Act.
Più specificamente, i firmatari si impegnano a:
- redigere e tenere aggiornata la documentazione del modello in conformità alla misura I.1.1. In particolare, all’atto dell’immissione sul mercato del modello di IA per scopi generali, i firmatari si impegnano a predisporre un documento intitolato "Informazioni e documentazione sul modello di IA per scopi generali" contenente tutte le informazioni di cui al Modulo allegato alla sezione e ad aggiornare la documentazione del modello in caso di modifiche rilevanti alle informazioni ivi contenute, conservando le versioni precedenti per i 10 anni successivi al ritiro del modello dal mercato;
- fornire le informazioni pertinenti ai fornitori di sistemi di IA che intendono integrare il modello di IA per scopi generali nei loro sistemi (i c.d. "fornitori a valle") e all'Ufficio IA su richiesta (eventualmente anche per conto delle autorità nazionali competenti su richiesta all’Ufficio IA, quando ciò è strettamente necessario per l'esercizio dei loro compiti di vigilanza ai sensi della legge sull'IA) in conformità alla misura I.1.2. Quest’ultima stabilisce che i firmatari, al momento dell’immissione sul mercato di un modello di IA per scopi generali, si impegnano a divulgare tramite il loro sito web – o, in mancanza, con altri mezzi – le informazioni di contatto necessarie all'Ufficio IA e ai fornitori a valle per richiedere l'accesso alle informazioni pertinenti contenute nella documentazione del modello;
- garantire la qualità, la sicurezza e l'integrità delle informazioni documentate in conformità alla Misura I.1.3. Le informazioni documentate devono dunque essere oggetto di controllo per qualità e integrità, e vanno inoltre conservate come prova della conformità agli obblighi dettati dall’A.I. Act e protette da alterazioni non intenzionali. La misura, inoltre, specifica che nell'ambito della stesura, dell'aggiornamento e del controllo della qualità e della sicurezza delle informazioni e delle registrazioni, i firmatari sono incoraggiati a seguire i protocolli e gli standard tecnici stabiliti.
La Commissione specifica, infine, che le misure contemplate dalla prima sezione non si applicano ai fornitori di modelli di IA open-source che soddisfano le condizioni specificate nell'art. 53, comma 2, dell’A.I. Act, a meno che non si tratti di modelli di IA di uso generale con rischio sistemico.
Copyright
La sezione del Codice di condotta relativa al diritto d'autore descrive una serie di misure che i firmatari si impegnano ad adottare per adempiere all'obbligo previsto dall'articolo 53(1) lett. c) dell'A.I. Act, e quindi ad attuare una politica di conformità alla disciplina unionale in materia di diritto d’autore e, in particolare, ad “individuare e rispettare, anche attraverso tecnologie all’avanguardia, una riserva di diritti espressa a norma dell’art. 4(3) della Direttiva (UE) 2019/790”.
Perché tale obbligo possa essere adempiuto, i firmatari si impegnano a:
- redigere, tenere aggiornata ed attuare una informativa sul diritto d’autore
Tramite quest’ultima (redatta in un unico documento approvato e firmato), tenuto conto di tutti gli impegni previsti dalla sezione, i firmatari individuano all’interno della propria organizzazione i responsabili per l’attuazione e la supervisione della politica. Sono inoltre incoraggiati a rendere disponibile al pubblico e a tenere aggiornata una sintesi della loro politica sul copyright; - adottare una serie di misure per i modelli di IA per uso generale immessi sul mercato dell'UE
In particolare, si impegnano a:- riprodurre ed estrarre solo contenuti protetti da copyright legalmente accessibili quando si effettua il web-crawling;identificare e rispettare le riserve sui diritti quando si effettua il web-crawling;
- ottenere informazioni adeguate sui contenuti protetti che non sono stati oggetto di web- crawling;
- mitigare il rischio di produzione di prodotti che violano il copyright, e ciò indipendentemente dal fatto che il firmatario integri verticalmente il modello nei propri sistemi di IA o che esso sia fornito a un’altra entità sulla base di relazioni contrattuali;
- designare un punto di contatto per la comunicazione con i titolari dei diritti interessati, fornendo informazioni facilmente accessibili al riguardo.
Gestione del rischio e sicurezza
La sezione che si occupa della Gestione del rischio e della sicurezza è la più corposa e articolata del draft. La stessa si applica ai soli fornitori di modelli di IA generici più avanzati che potrebbero comportare rischi sistemici, conformemente ai criteri di classificazione di cui all'art. 51 della legge sull'IA, e descrive le modalità attraverso le quali le aziende leader nel settore dell'IA possono conformarvisi.
Come anticipato, la sezione comprende 16 impegni, ciascuno corredato da specifiche misure attuative, volte ad assicurare che, per tutto il ciclo di vita del modello, vengano valutate e implementate misure adeguate a mitigare e gestire il rischio sistemico, anche attraverso l’adozione misure all’avanguardia e con la collaborazione di tutti gli attori rilevanti del settore.
Ci riserviamo di analizzare dettagliatamente i singoli impegni e le relative misure attuative al momento della pubblicazione della versione definitiva del codice, e vediamo adesso i punti salienti di questa sezione, suddividendone l’analisi nelle 4 macro aree in cui si articola.
- Impegni generali
La bozza prevede innanzitutto che i firmatari provvedano all’adozione e implementazione di un “quadro di riferimento per la sicurezza” contenente le misure che questi intendono adottare per mantenere i rischi sistemici derivanti dai loro modelli entro livelli accettabili, nonché l’indicazione dei c.d. “criteri di accettazione del rischio sistemico” e le procedure attraverso cui le misure adottate sono implementate. L’efficacia del quadro – che dovrà identificare e descrivere anche se/quando il modello sia informato da input provenienti da attori esterni – dovrà essere migliorata nel tempo, anche attraverso le conoscenze acquisite applicando le misure ivi contenute al loro modello.
- Valutazione del rischio
Per quanto concerne l’individuazione del rischio sistemico e la sua analisi, i firmatari sono chiamati a selezionare e caratterizzare ulteriormente i rischi sistemici “significativi” derivanti dai modelli e quindi tali da giustificare un’ulteriore valutazione e mitigazione, nonché a svolgere un’analisi del rischio sistemico con diversi gradi di profondità e intensità e, in tale ultimo ambito, tenere in debita considerazione l’efficacia e la solidità delle misure di attenuazione implementate. Nel determinare l’accettabilità dei rischi sistemici i firmatari dovranno paragonarla con i “criteri di accettazione dei rischi sistemici” poc’anzi menzionati, al fine di garantire che i primi siano proporzionati alle mitigazioni previste per i secondi. Alla luce di tale confronto, i firmatari decideranno quindi se procedere o meno alla messa a disposizione sul mercato e/o utilizzo del modello.
- Mitigazione del rischio tecnico
Quanto alla mitigazione del rischio tecnico (cui sono dedicati gli impegni n. 7 e 8 e le relative misure attuative) i firmatari sono tenuti ad implementare mitigazioni tecniche di sicurezza all’avanguardia e proporzionali ai rischi sistemici generati dallo sviluppo, messa a disposizione sul mercato e/o dall’utilizzo del modello per l’intero ciclo di vita dello stesso, onde garantire la riduzione del rischio sistemico in generale e, comunque, entro livelli accettabili. In caso di incidenti gravi, i firmatari dovranno attuare misure maggiori o aggiuntive. Inoltre, per contrastare accessi non autorizzati ai modelli – comprese le minacce interne da parte di esseri umani o sistemi di IA – i firmatari si impegnano ad implementare le migliori pratiche generali di cybersecurity in conformità agli standard tecnici aggiornati in materia, nonché misure di sicurezza che soddisfino gli obiettivi e siano conformi agli standard tecnici espressamente individuati dalle misure attuative.
Qualsiasi copia del quadro di riferimento o della relazione sul modello (c.d. “Model report”) deve dare atto delle mitigazioni del rischio, implementate col massimo livello di dettaglio possibile ma senza comprometterne l’efficacia e senza divulgare informazioni (es: informazioni commerciali) in misura sproporzionata rispetto al beneficio ricavato dalla pubblicazione.
- Mitigazione del rischio di governance
L’ultima parte del draft si occupa della mitigazione del rischio di governance, cui sono specificamente dedicati gli impegni dall’8 al 16 e le corrispondenti misure attuative. Sotto tale punto di vista, la bozza impone ai firmatari una serie di adempimenti e, più specificamente:
- la predisposizione, per ogni modello messo a disposizione sul mercato, del d. “Security model report” il cui scopo è quello di riferire all’Ufficio per l’IA in merito all’attuazione del codice e all’applicazione del Quadro di riferimento sulla sicurezza. Le informazioni contenute nel report – espressamente indicate dalle misure attuative – devono raggiungere un livello di dettaglio proporzionato al livello di rischio sistemico del modello e consentire all’Ufficio per l’IA di determinare secondo quali modalità il firmatario abbia attuato la valutazione del rischio e predisposto le relative misure di mitigazione. I firmatari devono inoltre garantirne il costante aggiornamento e, a tal fine, saranno tenuti ad effettuare un puntuale monitoraggio del mercato per identificare eventuali cambiamenti sostanziali del livello di rischio
- la valutazione di adeguatezza e l’aggiornamento del proprio quadro di riferimento per la sicurezza. Nel condurre tale valutazione, i firmatari dovranno tenere in considerazione gli elementi specificamente indicati dalle misure attuative e fornirne i risultati all’organo di gestione o ad altro organo indipendente appropriato, entro 5 gg. dal completamento dell’attività. Entro 4 settimane dalla notifica all’Ufficio per l’IA che un modello per uso generale ha soddisfatto/soddisferà le condizioni tali da classificarlo “a rischio sistemico”, i firmatari dovranno effettuare una valutazione dell’adeguatezza del proprio quadro di riferimento rispetto allo specifico modello secondo le indicazioni previste (dalla misura II.9.2) e fornirlo all’Ufficio per l’IA. Dopo la valutazione iniziale, l’aggiornamento e la notifica della valutazione di adeguatezza all’Ufficio per l’IA sono comunque previsti in una serie di circostanze che rappresentano “tappe fondamentali”. I firmatari sono, infine, tenuti ad effettuare una valutazione di adeguatezza del quadro di riferimento per la sicurezza quando vengono a conoscenza di modifiche sostanziali in grado ci comprometterne significativamente l’adeguatezza o, comunque, entro 12 mesi a partire dalla prima messa a disposizione del modello, a seconda di quale sia più vicina
- per le attività relative alla valutazione e mitigazione del rischio sistemico derivante dai propri modelli, l’assegnazione di livelli adeguati di responsabilità e risorse in proporzione alla complessità organizzativa della propria struttura di governance
Le misure attuative fanno poi specifico riferimento ad una serie di standard tecnici (ISO; ISO/IEC; NIST) la cui osservanza è di per sé idonea a generare una presunzione di rispetto delle misure attuative previste per tale impegno.
Fondamentale per l’adempimento di tale impegno è la promozione di una sana cultura del rischio, nonché l’adozione di misure atte a garantire che i soggetti preposti alla gestione del rischio sistemico derivante dai modelli, adottino un approccio misurato ed equilibrato. - l’ottenimento di valutazioni esterne indipendenti del rischio sistemico lungo l’intero ciclo di vita del modello. Tali valutazioni – per cui le misure attuative prevedono adempimenti diversi a seconda che il modello sia già stato immesso sul mercato o meno – devono essere effettuate per l’intero ciclo di vita del modello
- la segnalazione gli incidenti gravi, istituendo processi per tenere traccia, documentare e riferire senza ritardi all’Ufficio per l’IA o alle autorità nazionali, le informazioni pertinenti sugli incidenti gravi durante tutto il ciclo di vita del modello e le possibili misure correttive per affrontarli, con una dotazione adeguata in base alla gravità dell’incidente e al coinvolgimento del modello. I firmatari sono tenuti ad indagare su cause ed effetti degli incidenti gravi e a tenere in considerazione le risultanze di tale indagine nella attività di analisi del rischio sistemico. Le informazioni raccolte secondo le modalità previste dalle misure attuative devono essere raccolte in un rapporto iniziale che andrà presentato all’Ufficio per l’IA o alle autorità competenti nei momenti specificamente indicati. Tali informazioni, vengono poi aggiornate attraverso un rapporto intermedio (presentato entro 4 settimane da quello inziale e fino alla risoluzione dell’incidente grave) cui segue un rapporto finale (presentato entro 60 gg. dalla risoluzione dell’incidente grave. I firmatari dovranno conservare la documentazione di tutti i dati prodotti nell’adempimento di tale impegno per almeno 36 mesi dalla data di produzione della stessa o, se successiva, di verificazione dell’incidente grave
- la predisposizione di apposite misure di protezione a tutela dei lavoratori che forniscano informazioni sui rischi sistemici derivanti dal modello all’Ufficio per l’IA o alle autorità nazionali competenti. Se esistente, i firmatari sono inoltre tenuti a comunicare annualmente ai lavoratori la casella di posta elettronica dell’Ufficio per l’IA preposta alla ricezione di tali informazioni
- la notificazione all’Ufficio per l’IA delle informazioni rilevanti relative ai modelli di IA di uso generale che soddisfano la condizione per essere classificati “a rischio sistemico” e dell’attuazione degli Impegni e delle Misure previste dal codice. Su richiesta dell’Ufficio per l’IA, i firmatari si impegnano a fornire chiarimenti, anche attraverso nuova documentazione o colloqui
- la documentazione delle informazioni rilevanti ai sensi del Codice di buone pratiche e dell’A.I. Act, come specificato dalla Misura II.15.1
- la pubblicazione di informazioni rilevanti per la comprensione pubblica dei rischi sistemici derivanti dal loro modello, attraverso il proprio sito web. La pubblicazione deve comunque avvenire adottando tutte le precauzioni necessarie per evitare un aumento sostanziale del rischio sistemico (che potrebbe, ad esempio, derivare dalla divulgazione di dati commerciali sensibili in misura sproporzionata rispetto al beneficio sociale della pubblicazione).
Conclusioni
Scrivere codici di condotta è tutt’altro che semplice.
Implica uno sforzo collaborativo che coinvolge partecipanti provenienti dall'industria, dal mondo accademico e dalla società civile.
A differenza delle due versioni precedenti, questa terza bozza migliora i contenuti e presenta una struttura più snella, con impegni e misure perfezionati, nell’intento di delineare una disciplina “a prova di futuro”.
È bene però precisare come questa ultima versione del Codice non è andata esente da polemiche.
I relatori dell’A.I. Act, in particolare, hanno espresso “grande preoccupazione” circa la possibile attenuazione delle norme sull'IA, posto che la bozza sembra “reinterpretare e restringere un testo giuridico che i co-legislatori hanno concordato”. Una mossa, contestano i parlamentari, “pericolosa, non democratica, che crea incertezza giuridica”.
Preoccupazioni, queste, che mettono in evidenza l’estrema complessità nel bilanciare l'innovazione tecnologica con la protezione dei diritti e la necessità di una regolamentazione chiara ed efficace nel campo dell'IA.
Rubrica "AI LEGAL, un prisma da comporre"
Leggi gli altri articoli presenti nella nostra rubrica dedicata.