Vuoi ricevere i nostri aggiornamenti?

Registrati per accedere ai contenuti riservati e iscriverti alla nostra newsletter

AI: Principio di trasparenza e gli obblighi informativi sulla logica dell’algoritmo

19/06/2020
Silvia Stefanelli
Alice Giannini

L’art. 5 stabilisce che la trasparenza è uno dei principi che devono essere applicati quando si trattano dati personali.

In linea con tale principio il GDPR stabilisce una serie di obblighi informativi in capo al Titolare del trattamento, che trovano la loro realizzazione pratica nello strumento dell’informativa.

Il GDPR stabilisce poi un obbligo “potenziato” nei casi di trattamenti di dati automatizzati, tra i quali senza dubbio devono farsi rientrare i software di Intelligenza Artificiale.

Gli articoli 13 n.2 lett. f) e 14 n. 2 lett. g) del GDPR, infatti, stabiliscono che il Titolare, per garantire un trattamento corretto e trasparente, deve fornire all’interessato al momento dell’ottenimento dei suoi dati personali, informazioni relative a:

f) l'esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all'articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l'importanza e le conseguenze previste di tale trattamento per l'interessato.

Allo stesso modo, l’articolo 15 del GDPR sancisce per gli interessati il diritto di accesso alle medesime informazioni. È importante sottolineare che viene imposto al Titolare un comportamento proattivo nell’informare l’interessato e non meramente su richiesta da parte di quest’ultimo.

Cosa si intende allora con le locuzioni “processi decisionali automatizzati” e “informazioni significative sulla logica utilizzata” dall’algoritmo?

Proviamo ad approfondire.

Processo decisionale automatizzato

Circa la nozione di processo decisionale automatizzato, l’ICO, riprendendo la definizione data dal Gruppo di Lavoro Articolo 29 nelle “Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679” fornisce la seguente nozione:

[…]il processo di prendere una decisione con mezzi automatizzati senza alcun coinvolgimento umano. Queste decisioni possono essere basate su dati reali, nonché su profili creati digitalmente o su dati derivati.
Ne sono un esempio:
  • una decisione online per la concessione di un prestito; e
  • un test attitudinale utilizzato per il reclutamento che utilizza algoritmi e criteri pre-programmati.

Il processo decisionale automatizzato comporta spesso - ma non automaticamente -  una profilazione dell’interessato. 

Non si ha un processo decisionale automatizzato quando nel processo vi è un  coinvolgimento umano (a cui si fa spesso riferimento con l’espressione “human-in-the-loop”): si tratta - ade esempio - dei casi in cui il sistema di IA formuli una previsione che viene poi sottoposta allo scrutinio di un soggetto umano, il quale sulla base di quella informazione prende una decisione. Si tratta quindi di un intervento esclusivamente attivo.

Informazioni significative sulla logica utilizzata: la guida del Garante britannico

Fornire informazioni significative sulla logica utilizzata dall’algoritmo significa giustificare come è stato ottenuto un determinato risultato (output) da un determinato punto di partenza (input). In termini semplici, si potrebbe dire che si vuole andare a spiegare come e perché da A si è arrivati a B.

Lo scopo di questa spiegazione è garantire l’accountability nel caso in cui la decisione sia stata fatta da un IA e non da un essere umano.

Il garante britannico nel corso degli ultimi due anni si è concentrato molto sul trattamento dei dati personali (pensiamo, ad esempio, alla Guida al quadro normativo di riferimento per l’audit di IA).

Per quanto riguarda in particolare l’obbligo di “spiegare” l’IA, è di massimo interesse la recentissima guida pubblicata dall’ICO come risultato di una collaborazione con l’Istituto Alan Turing.

La guida è divisa in tre parti:

  • la prima parte è diretta ai DPO e, più in generale, a coloro che si occupano della compliance con il GDPR;
  • la seconda parte è diretta ai team di sviluppo dell’IA e fornisce indicazioni pratiche su come fornire spiegazioni efficaci;
  • la terza parte è diretta al senior management dell’azienda e riguarda i ruoli nonché le procedure e le policy necessarie a livello organizzativo.

Riassumiamo i passaggi fondamentali della prima sezione, di maggior interesse dal punto di vista strettamente giuridico, rimandando il lettore al documento completo (in inglese) per una lettera più approfondita.

Innanzitutto, si evince da subito l’importanza del contesto quando si tratta di spiegare decisioni che coinvolgono l’IA: il garante britannico delinea sei tipologie principali di spiegazioni tra le quali il Titolare del trattamento dovrebbe scegliere (o combinare tra loro) sulla base di
  • il settore nel quale viene impiegato il modello di IA;
  • l’impatto sull’individuo;
  • la tipologia di dati usati;
  • l’urgenza della decisone;
  • l’audience alla quale viene presentata la spiegazione.
Le spiegazioni, secondo l’ICO (p. 20 e seguenti della Guida), possono essere divise innanzitutto in due macro-categorie:
  1. Spiegazioni “process-based”. Si tratta di dimostrare che nel corso del processo decisionale sono state seguite tutte le best practices di design ed utilizzo del prodotto;
  2. Spiegazioni “outcome-based”. Si tratta di chiarire il risultato di una decisione specifica fornendo informazioni sul ragionamento seguito in un linguaggio semplice e comprensibile a tutti.
Dopodiché il Garante elenca sei tipi di spiegazioni, che a seconda dei casi possono essere sviluppate come process-based  o outcome-based, fornendo indicazioni e checklist su come implementarle:

1. Motivazione
(rationale explanation): le ragioni che hanno portato ad una decisione, pronunciata in un contesto accessibile e in modo non tecnico.
Alcune delle domande a cui il Titolare dovrà rispondere sono:
  • Quali caratteristiche di ingresso, parametri e correlazioni hanno giocato un ruolo significativo ruolo nel calcolo del risultato del modello e come?
  • Come si possono applicare i risultati statistici alle circostanze specifiche della persona soggetta alla decisione?
2. Responsabilità (responsibility explanation): chi è coinvolto nello sviluppo, nella gestione e nell'attuazione di un sistema di Intelligenza Artificiale, e chi contattare per una revisione umana di una decisione.
Una delle domande a cui si dovrà rispondere è:
  • Come è stato possibile rendere tracciabili e verificabili i processi di progettazione e di implementazione nell'intero progetto?
3. Dati (data explanation): quali dati sono stati utilizzati in una determinata decisione e come.

Alcune delle domande a cui si dovrà rispondere sono:

  • Quali dati avete usato per addestrare il modello?
  • Da dove provengono i dati?
  • Come è stata garantita la qualità dei dati che avete utilizzato?

4. Correttezza (fairness explanation): i passi compiuti attraverso la progettazione e l'implementazione di un sistema di IA per garantire che le decisioni che sostiene siano generalmente imparziali ed eque, e se un individuo o meno è stato trattato in modo equo;

5. Sicurezza e prestazioni (safety and performance explanation): i passi compiuti nella progettazione e nell'implementazione di un sistema AI per massimizzare l'accuratezza, l'affidabilità, la sicurezza e la robustezza delle sue decisioni e comportamenti;

6. Impatto (impact explanation): passi compiuti attraverso la progettazione e l'implementazione di un sistema di IA per considerare e monitorare gli impatti che l'uso di un sistema di IA e le sue decisioni hanno o possono avere su un individuo, e su una società più ampia.                                                           

Spetterà al titolare del trattamento individuare, sulla base del contesto in cui operano, quali siano le tipologie di spiegazioni prioritarie e documentare le motivazioni della propria scelta.

L’esempio fornito dall’ICO: spiegare una diagnosi tumorale svolta da un’IA

Nell’esempio fornito dall’ICO nella Guida (Annexe 1), viene fornito un modello per le strutture sanitarie dove viene sviluppato un processo step-by-step per costruire e presentare una spiegazione di una diagnosi di tumore svolta da reti neurali artificiali agli interessati (pazienti).

In questo caso, viene raccomandato l’utilizzo di una spiegazione basata su due strati:

1. Spiegazione da parte del medico curante direttamente al paziente supportata da un’informativa consegnata in cartaceo o via mail. In tale fase si dovrà spiegare:
  • Come sono stati etichettati i dati e perché certe immagini vengono classificate come tumori, come viene utilizzato il risultato ottenuto dall’IA da parte dell’equipe (rationale explanation);
  • L’impatto della decisione fatta dall’IA sul paziente (impact explanation);
  • A chi si può rivolgere il paziente per contestare la diagnosi fatta dall’IA (responsibility explanation);
Come è stata garantita la sicurezza informatica del software, nonché la validità del risultato (safety and performance explanation)

2. Spiegazione fornita in un momento successivo all’incontro con il medico in modalità cartacea, via email o via un’app. In tale fase si dovrà spiegare:
  • I dati che sono stati utilizzati per addestrare il modello (data explanation);
  • Gli sforzi fatti per evitare bias e discriminazioni nella diagnosi (fairness explanation).
Trattasi di un esempio utilissimo visto il continuo crescere di applicazioni di sistemi di IA in sanità, come abbiamo evidenziato in questo intervento.

In conclusione, preme sottolineare che - nonostante il quadro normativo evidenziato faccia riferimento esclusivamente a decisioni automatizzate - quando vi è trattamento di dati personali tramite IA (anche con un “meaningful human involvment”) bisognerà sempre garantire il rispetto dei principi generali del trattamento ex art. 5 GDPR.

In altri termini, si ritiene che gli obblighi di spiegazione cui sopra siano applicabili a tutti i trattamenti di dati personali svolti tramite IA, non soltanto quelli totalmente automatizzati, sulla base del dettato dell’articolo 5 del GDPR. Ciò merita ancor più attenzione quando il trattamento ha ad oggetto dati particolarmente sensibili come quelli sanitari.

Rubrica "Sanità Digitale e Intelligenza Artificiale"

Leggi gli altri articoli presenti nella nostra rubrica dedicata.