Vuoi ricevere i nostri aggiornamenti?
Se utilizzo un sistema di IA per i miei contenuti devo dichiararlo? L’obbligo di trasparenza per i deployer
AI - Pubblicità
Sempre più spesso i sistemi di IA sono utilizzati per generare testi, creare immagini o contenuti audio e video.
Già Nel 2019 il gruppo di esperti di alto livello sull’intelligenza artificiale nominato dalla Commissione (AI HLEG) elaborò le Linee guida etiche per un’AI affidabile, indicando sette principi etici per un’AI affidabile e eticamente valida.
I sette principi sono: intervento e sorveglianza umana, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale e responsabilità.
Il recente Regolamento UE 1689/2024 (AI ACT) conferisce poi estrema importanza a tale principio
In primo luogo chiarisce che per trasparenza, si intende che “i sistemi di IA sono sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente i deployer delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti” (Considerando 27 AI ACT), ma anche “l’obbligo per i deployer di rendere noto in modo chiaro e distinto che il contenuto è stato creato o manipolato artificialmente etichettando di conseguenza gli output dell’IA e rivelandone l’origine artificiale” (Considerando 134).
L’art. 50 prevede poi specificamente obblighi di trasparenza in capo sia ai fornitori che ai deployer, qualificati questi ultimi come ““Una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale” – art. 3 (Definizioni).
Nel presente contributo ci occuperemo nello specifico dell’obbligo di trasparenza relativo ai contenuti generati con l’ausilio di un sistema di IA posto in capo ai deployer.: quindi, gli obblighi che andremo ad analizzare nel prosieguo riguardano i soggetti che utilizzano un sistema di IA nell’esecuzione di un’attività professionale.
Obbligo di trasparenza per i deployer
In relazione ai contenuti generati con l’ausilio di un sistema di AI, l’art. 50 comma 4 dell’AI ACT prevede in capo ai deployer i seguenti obblighi:
- I deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un «deepfake» rendono noto che il contenuto è stato generato o manipolato artificialmente. (…) Qualora il contenuto faccia parte di un'analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all'obbligo di rivelare l'esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l'esposizione o il godimento dell'opera.
- I deployer di un sistema di AI che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico rendono noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se l'uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati o se il contenuto generato dall'IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto.
Analizziamo le previsioni di cui sopra
In relazione alle immagini e ai contenuti audio o video, il considerando 134 ci viene in soccorso nel capire cosa si intende per deep fake e di conseguenza quando si applica l’obbligo di trasparenza, precisando che i deployer sono tenuti a rendere noto in modo chiaro e distinto che il contenuto è stato creato o manipolato artificialmente quando le immagini o i contenuti audio e video assomigliano notevolmente a persone, oggetti, luoghi, entità o eventi esistenti che potrebbero apparire falsamente autentici o veritieri a una persona (deep fake).
I deployer dovranno adempiere a questo obbligo etichettando gli output dell’AI e rivelandone l’origine artificiale.
Per quanto concerne invece i testi generati con l’ausilio di un sistema di AI, l’obbligo di rendere noto che il testo è stato creato con l’ausilio di un sistema di AI si applica se il testo ha lo scopo di informare il pubblico su questioni di interesse pubblico.
Si deve trattate quindi innanzitutto di testi rivolti al pubblico e che abbiano un contenuto e un intento di “informazione” in favore del pubblico.
L’obbligo non si applica se il testo è stato revisionato da un essere umano.
In questa ultima ipotesi la questione riguarderà le modalità con cui fornire la prova che il testo pubblicato non sia il mero output di una macchina ma il frutto di una elaborazione umana.
Analisi di un caso
Indagate le disposizioni che regolano un vero e proprio obbligo di trasparenza circa l’utilizzo di un sistema di intelligenza artificiale in capo ai deployer, concludiamo questo breve approfondimento con il riferimento ad un caso pratico in cui potrebbero applicarsi le regole della normativa in esame.
L’utilizzo dell’AI, come è facile immaginare, interessa diversi ambiti, tra cui quello pubblicitario.
Al riguardo è possibile per un brand realizzare immagini di un determinato contesto a fini pubblicitari e promozionali, tramite l’AI. Tuttavia, come abbiamo anticipato, deve essere data al pubblico una corretta informazione sull'origine dell'immagine e devono essere rispettati i principi di trasparenza fatti propri dal Regolamento e già alla base della disciplina pubblicitaria, tra cui il principio di non ingannevolezza.
Sebbene, come noto, la disciplina in esame non sia ancora entrata in vigore, per ragioni di trasparenza sarebbe così opportuno (sin da ora) l’inserimento di un disclaimer come "immagine generata/modificata con AI".
Infine, prestando attenzione proprio all’ambito pubblicitario, si evidenzia che oltre all’applicazione dell’art. 50 sopra analizzato, occorre prestare attenzione anche ai contenuti dei cui all’art. 5 Regolamento UE 1689/2024.
L’art. 5 del Regolamento introduce infatti - in sintesi - il divieto di utilizzare sistemi che adottano tecniche manipolative per indirizzare la scelta dell'utente o per indurlo ad adottare comportamenti che, diversamente, non avrebbe adottato.
Tale regola assume particolare importanza se si considera che il contesto pubblicitario risulta finalizzato a promuovere tramite le più diverse tecniche e arti comunicative un determinato servizio, prodotto o brand rivolgendosi al pubblico e averne così l’approvazione.
Nonostante ciò, come precisato dallo stesso art. 5, l’autodeterminazione e quindi l’eventuale scelta del pubblico non può essere manipolata e quindi compromessa nemmeno a favore di una attività commerciale che per sua stessa naturale è volta ad attrarre una vasta platea di destinatari.
Sul punto, non si può fare a meno di evidenziare che il principio appena descritto, unitamente all’obbligo di trasparenza, risulta in perfetta armonia anche con i principi contenuti nelle norme nazionali che regolano la materia pubblicitaria (artt. 20 e ss, D.Lgs.n 206/2005, c.d. “Codice del Consumo”), quali il divieto di pubblicità subliminale a tutela dei consumatori.
Rubrica "AI LEGAL, un prisma da comporre"
Leggi gli altri articoli presenti nella nostra rubrica dedicata.