Vuoi ricevere i nostri aggiornamenti?

Registrati per accedere ai contenuti riservati e iscriverti alla nostra newsletter

Lo sviluppo dei sistemi di intelligenza artificiale non può prescindere dalla tutela dei dataset

08/06/2023
Eleonora Lenzi
Ilaria Nanni

 AI e IP Law

Il tema dell’intelligenza artificiale è ormai all’ordine del giorno, molte sono le perplessità e le preoccupazioni sollevate dall’utilizzo di sistema di AI ma anche le opportunità che si aprono e le possibili applicazioni tecniche.

L’Unione europea è in prima linea con lo scopo di disciplinare in modo organico e unitario per l’intero territorio comunitario l’implementazione e l’utilizzo dei sistemi di AI, tanto che la proposta di  Regolamento sull’intelligenza artificiale (c.d. IA Act o AIA) risale ormai all’aprile 2021.

La stessa proposta di Regolamento è oggetto di discussione e di emendamenti da parte delle istituzioni comunitarie.  

Prima fra tutti è ancora controversa la definizione stessa di intelligenza artificiale, la quale ha già visto negli ultimi mesi, a causa delle numerose proposte ed emendamenti, diverse modifiche, non trovando tuttora una descrizione pacifica.

In ogni caso, dal punto di vista concreto, è possibile identificare un sistema di AI come un insieme di creazioni tecnologiche complesse costituite alla base da uno o più algoritmi espressi da un “programma per elaboratore elettronico”, ovvero un software.

Quali legami con la proprietà intellettuale?

In tale contesto, uno dei problemi sollevati dai sistemi di AI concerne il rapporto con la proprietà intellettuale, in particolare in relazione alla possibile violazione di diritti di privativa nella creazione e nell’uso dei data set per l’addestramento e la validazione dell’algoritmo, tanto da diventare oggetto di attenzione politica a livello mondiale, come si evince da un estratto della dichiarazione finale del Summit del G7 di Hiroshima:

“Dato che le tecnologie di intelligenza artificiale generativa sono sempre più importanti in tutti i paesi e settori, riconosciamo la necessità di fare un bilancio a breve termine delle opportunità e sfide di queste tecnologie e continuare a promuovere la sicurezza e la fiducia sullo sviluppo di tali tecnologie. Abbiamo in programma di convocare future discussioni del G7 sull’IA generativa che potrebbe includere argomenti come la governance, come salvaguardare i diritti di proprietà intellettuale compreso il diritto d’autore, promuovere la trasparenza, affrontare la disinformazione, anche straniera manipolazione delle informazioni e come utilizzare responsabilmente queste tecnologie”.

In ambito comunitario, la tematica è stata presa in esame e inserita nel recente emendamento dell’AI Act pubblicato lo scorso 16 maggio, che prevede l’obbligo per i fornitori di sistemi di AI ad alto rischio di rivelare le opere utilizzate per il training dell’intelligenza artificiale.

In particolare, secondo il nuovo art. 16 lett. ac) dell’AIA, i fornitori di sistemi di IA ad alto rischio devono:

“fornire le specifiche dei dati di input o qualsiasi altra informazione pertinente in termini di dataset utilizzati, comprese le loro limitazioni e ipotesi, tenendo in considerazione lo scopo previsto e gli usi impropri prevedibili e ragionevolmente prevedibili di tale sistema di IA”.

Per comprendere meglio

Al fine di comprendere meglio i possibili obblighi e rischi in capo al fornitore conseguenti alla futura approvazione dell’IA Act poniamo un caso pratico, ipotizzando che l’obiettivo sia lo sviluppo di un dispositivo medico che utilizzi un sistema di AI.

Per l’addestramento dell’algoritmo, è necessaria la raccolta di dati grezzi presenti nei database messi a disposizione per esempio da ospedali, università o istituti di ricerca, i quali verranno estratti, anonimizzati e rielaborati da parte dei programmatori.

Successivamente, i dati dovranno essere selezionati, individuando la categoria di pazienti di interesse, i valori di riferimento e le relative diagnosi per lo sviluppo dell’algoritmo alla base del software.

Dall’elaborazione dei dati grezzi verrà poi costituita una banca dati utilizzata per il training dell’algoritmo predittivo e per lo svolgimento di test esterni, per poi giungere alla realizzazione del software che dovrà ottenere la certificazione MDR come “Software as a Medical Device” (SaMD).

I possibili nodi problematici

Alla luce dei passaggi tecnici ipotizzati sopra, il fornitore dovrà interrogarsi alla luce delle nuove indicazioni provenienti dall’AIA:

  • sui regimi di tutela dei dataset utilizzato per il training dell’algoritmo
  • sulla possibilità di utilizzare ed includere nella documentazione tecnica i dati utilizzati per l’addestramento e la validazione dell’algoritmo.

Per quanto riguarda il primo aspetto, è necessario richiamare brevemente quanto evidenziato nel nostro precedente contributo “La tutela giuridica delle banche dati: tra diritto d’autore e diritto sui generis”.

Le banche dati, secondo la Direttiva 96/9/CE recepita poi Italia con il D.lgs. 6 maggio 1999, n. 169 possono trovare tutela nel:

  1. diritto d’autore: se la banca dati è una creazione intellettuale originale, e conferirà all’autore il diritto esclusivo di riprodurre, adattare, distribuire la banca dati o variazioni della stessa. Il diritto d’autore tutelerà poi esclusivamente la struttura della banca dati e non si estenderà ai suoi contenuti, lasciando impregiudicati eventuali diritti esistenti su di essi. La tutela avrà inizio dal momento della creazione dell’opera fino a 70 anni dalla morte dell’autore.
  2. diritto sui generis: esercitabile solo se la banca dati è frutto di un investimento ingente. La tutela concessa riguarderà l’investimento economico sostenuto, non la creatività dell’opera. La durata del diritto del costitutore della banca dati sarà poi di 15 anni.

Inoltre, è importante evidenziare che il diritto d’autore e il diritto sui generis possono in ogni caso applicarsi cumulativamente se le condizioni di protezione di ciascun diritto sono soddisfatte.

In riferimento alla seconda questione, sarà necessario verificare caso per caso l’origine dei dati utilizzati per il training dell’algoritmo, distinguendo a seconda che si tratti di dati personali o anonimizzati, ovvero di dati conferiti mediante licenza di utilizzo oppure open data.

A seconda dei casi, sarà doveroso provvedere mediante apposite regolamentazioni contrattuali allo scopo di rispondere all’obbligo di “fornire le specifiche dei dati di input o qualsiasi altra informazione pertinente in termini di dataset utilizzati” individuate dall’art. 16 dell’IA Act.

Successivamente sarà opportuno valutare quale regime di tutela può essere riconosciuto al dataset creato dal fornitore, in modo da proteggere adeguatamente quello che a tutti gli effetti può essere considerato un asset aziendale.

Considerazioni conclusive

Sebbene ad oggi l’IA Act si configuri solo come una proposta di Regolamento, in fase di modifica e approvazione, è già essenziale definire gli aspetti sulla raccolta e utilizzo dei dati presenti nei dataset posti alla base del sistema di intelligenza artificiale che il fornitore sta progettando o sviluppando.

La corretta disciplina delle banche dati sin dalla loro origine, consentirà infatti maggiori tutele all’autore e la riduzione del rischio di contenzioso sulla titolarità di tali dati.

Rubrica "AI LEGAL, un prisma da comporre"

Leggi gli altri articoli presenti nella nostra rubrica dedicata.