Vuoi ricevere i nostri aggiornamenti?
AI: Principio di trasparenza e gli obblighi informativi sulla logica dell’algoritmo
L’art. 5 stabilisce che la trasparenza è uno dei principi che devono essere applicati quando si trattano dati personali.
In linea con tale principio il GDPR stabilisce una serie di obblighi informativi in capo al Titolare del trattamento, che trovano la loro realizzazione pratica nello strumento dell’informativa.
Il GDPR stabilisce poi un obbligo “potenziato” nei casi di trattamenti di dati automatizzati, tra i quali senza dubbio devono farsi rientrare i software di Intelligenza Artificiale.
Gli articoli 13 n.2 lett. f) e 14 n. 2 lett. g) del GDPR, infatti, stabiliscono che il Titolare, per garantire un trattamento corretto e trasparente, deve fornire all’interessato al momento dell’ottenimento dei suoi dati personali, informazioni relative a:
f) l'esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all'articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l'importanza e le conseguenze previste di tale trattamento per l'interessato.
Allo stesso modo, l’articolo 15 del GDPR sancisce per gli interessati il diritto di accesso alle medesime informazioni. È importante sottolineare che viene imposto al Titolare un comportamento proattivo nell’informare l’interessato e non meramente su richiesta da parte di quest’ultimo.
Cosa si intende allora con le locuzioni “processi decisionali automatizzati” e “informazioni significative sulla logica utilizzata” dall’algoritmo?
Proviamo ad approfondire.
Processo decisionale automatizzato
Circa la nozione di processo decisionale automatizzato, l’ICO, riprendendo la definizione data dal Gruppo di Lavoro Articolo 29 nelle “Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679” fornisce la seguente nozione:
- una decisione online per la concessione di un prestito; e
- un test attitudinale utilizzato per il reclutamento che utilizza algoritmi e criteri pre-programmati.
Il processo decisionale automatizzato comporta spesso - ma non automaticamente - una profilazione dell’interessato.
Non si ha un processo decisionale automatizzato quando nel processo vi è un coinvolgimento umano (a cui si fa spesso riferimento con l’espressione “human-in-the-loop”): si tratta - ade esempio - dei casi in cui il sistema di IA formuli una previsione che viene poi sottoposta allo scrutinio di un soggetto umano, il quale sulla base di quella informazione prende una decisione. Si tratta quindi di un intervento esclusivamente attivo.
Informazioni significative sulla logica utilizzata: la guida del Garante britannico
Fornire informazioni significative sulla logica utilizzata dall’algoritmo significa giustificare come è stato ottenuto un determinato risultato (output) da un determinato punto di partenza (input). In termini semplici, si potrebbe dire che si vuole andare a spiegare come e perché da A si è arrivati a B.
Lo scopo di questa spiegazione è garantire l’accountability nel caso in cui la decisione sia stata fatta da un IA e non da un essere umano.
Il garante britannico nel corso degli ultimi due anni si è concentrato molto sul trattamento dei dati personali (pensiamo, ad esempio, alla Guida al quadro normativo di riferimento per l’audit di IA).
Per quanto riguarda in particolare l’obbligo di “spiegare” l’IA, è di massimo interesse la recentissima guida pubblicata dall’ICO come risultato di una collaborazione con l’Istituto Alan Turing.
La guida è divisa in tre parti:
- la prima parte è diretta ai DPO e, più in generale, a coloro che si occupano della compliance con il GDPR;
- la seconda parte è diretta ai team di sviluppo dell’IA e fornisce indicazioni pratiche su come fornire spiegazioni efficaci;
- la terza parte è diretta al senior management dell’azienda e riguarda i ruoli nonché le procedure e le policy necessarie a livello organizzativo.
Riassumiamo i passaggi fondamentali della prima sezione, di maggior interesse dal punto di vista strettamente giuridico, rimandando il lettore al documento completo (in inglese) per una lettera più approfondita.
Innanzitutto, si evince da subito l’importanza del contesto quando si tratta di spiegare decisioni che coinvolgono l’IA: il garante britannico delinea sei tipologie principali di spiegazioni tra le quali il Titolare del trattamento dovrebbe scegliere (o combinare tra loro) sulla base di- il settore nel quale viene impiegato il modello di IA;
- l’impatto sull’individuo;
- la tipologia di dati usati;
- l’urgenza della decisone;
- l’audience alla quale viene presentata la spiegazione.
- Spiegazioni “process-based”. Si tratta di dimostrare che nel corso del processo decisionale sono state seguite tutte le best practices di design ed utilizzo del prodotto;
- Spiegazioni “outcome-based”. Si tratta di chiarire il risultato di una decisione specifica fornendo informazioni sul ragionamento seguito in un linguaggio semplice e comprensibile a tutti.
1. Motivazione (rationale explanation): le ragioni che hanno portato ad una decisione, pronunciata in un contesto accessibile e in modo non tecnico.
- Quali caratteristiche di ingresso, parametri e correlazioni hanno giocato un ruolo significativo ruolo nel calcolo del risultato del modello e come?
- Come si possono applicare i risultati statistici alle circostanze specifiche della persona soggetta alla decisione?
- Come è stato possibile rendere tracciabili e verificabili i processi di progettazione e di implementazione nell'intero progetto?
Alcune delle domande a cui si dovrà rispondere sono:
- Quali dati avete usato per addestrare il modello?
- Da dove provengono i dati?
- Come è stata garantita la qualità dei dati che avete utilizzato?
4. Correttezza (fairness explanation): i passi compiuti attraverso la progettazione e l'implementazione di un sistema di IA per garantire che le decisioni che sostiene siano generalmente imparziali ed eque, e se un individuo o meno è stato trattato in modo equo;
5. Sicurezza e prestazioni (safety and performance explanation): i passi compiuti nella progettazione e nell'implementazione di un sistema AI per massimizzare l'accuratezza, l'affidabilità, la sicurezza e la robustezza delle sue decisioni e comportamenti;6. Impatto (impact explanation): passi compiuti attraverso la progettazione e l'implementazione di un sistema di IA per considerare e monitorare gli impatti che l'uso di un sistema di IA e le sue decisioni hanno o possono avere su un individuo, e su una società più ampia.
Spetterà al titolare del trattamento individuare, sulla base del contesto in cui operano, quali siano le tipologie di spiegazioni prioritarie e documentare le motivazioni della propria scelta.
L’esempio fornito dall’ICO: spiegare una diagnosi tumorale svolta da un’IA
Nell’esempio fornito dall’ICO nella Guida (Annexe 1), viene fornito un modello per le strutture sanitarie dove viene sviluppato un processo step-by-step per costruire e presentare una spiegazione di una diagnosi di tumore svolta da reti neurali artificiali agli interessati (pazienti).
In questo caso, viene raccomandato l’utilizzo di una spiegazione basata su due strati:
- Come sono stati etichettati i dati e perché certe immagini vengono classificate come tumori, come viene utilizzato il risultato ottenuto dall’IA da parte dell’equipe (rationale explanation);
- L’impatto della decisione fatta dall’IA sul paziente (impact explanation);
- A chi si può rivolgere il paziente per contestare la diagnosi fatta dall’IA (responsibility explanation);
2. Spiegazione fornita in un momento successivo all’incontro con il medico in modalità cartacea, via email o via un’app. In tale fase si dovrà spiegare:
- I dati che sono stati utilizzati per addestrare il modello (data explanation);
- Gli sforzi fatti per evitare bias e discriminazioni nella diagnosi (fairness explanation).
In conclusione, preme sottolineare che - nonostante il quadro normativo evidenziato faccia riferimento esclusivamente a decisioni automatizzate - quando vi è trattamento di dati personali tramite IA (anche con un “meaningful human involvment”) bisognerà sempre garantire il rispetto dei principi generali del trattamento ex art. 5 GDPR.
In altri termini, si ritiene che gli obblighi di spiegazione cui sopra siano applicabili a tutti i trattamenti di dati personali svolti tramite IA, non soltanto quelli totalmente automatizzati, sulla base del dettato dell’articolo 5 del GDPR. Ciò merita ancor più attenzione quando il trattamento ha ad oggetto dati particolarmente sensibili come quelli sanitari.
Rubrica "Sanità Digitale e Intelligenza Artificiale"
Leggi gli altri articoli presenti nella nostra rubrica dedicata.