Vuoi ricevere i nostri aggiornamenti?
La fuga in avanti dei sistemi di intelligenza artificiale e la rincorsa delle istituzioni; una sfida possibile?
Coordinated Plan on Artificial Intelligence (EC 7/12/2018)
Strategia nazionale per l’Intelligenza Artificiale (Mise luglio 2019)
L’intelligenza artificiale sta ormai entrando nella vita quotidiana di tutti, diventando sempre più di uso comune nella miriade di applicazioni o di strumenti tecnologici che utilizziamo ogni giorno.
Il rapido sviluppo di questa tecnologia è stato certamente favorito dall’aumento della potenza di calcolo degli strumenti che oggi abbiamo a disposizione, dallo sviluppo degli algoritmi, dalla improvvisa disponibilità di un’enorme massa di dati.
Le istituzioni, europee prima e nazionali poi, si sono poste il problema di rimanere competitivi sul fronte di questa nuova tecnologia, sfruttando al massimo le opportunità che essa offre in vari campi, mantenendo contemporaneamente un approccio “etico” alla questione.
La strategia europea per l’intelligenza artificiale è stata già definita nell’aprile 2018, avviando un’Alleanza europea per l’IA e istituendo un gruppo di esperti di alto livello. Nel piano coordinato europeo tutti gli Stati membri sono stati a loro volta invitati a sviluppare le proprie strategie nazionali, delineando i piani di investimento e le misure di attuazione; il Mise ha dunque elaborato una Strategia nazionale per l’intelligenza artificiale.
La realtà si muove però molto più velocemente delle istituzioni, per cui contemporaneamente allo studio ed alla redazione di questi documenti programmatici l’uso quotidiano dell’AI ha richiesto l’intervento degli organi giurisdizionali, che già in alcuni casi sono stati chiamati a pronunciarsi sulla legittimità o meno del loro utilizzo.
È il caso del Consiglio di Stato italiano, che nuovamente nel dicembre dello scorso anno si è dovuto pronunciare sulla legittimità o meno di una decisione amministrativa assunta sulla base di un algoritmo. Di fatto il Consiglio di Stato ha ribadito quanto già affermato con la sentenza 2270/2019 (già oggetto di un precedente ns. commento), approfondendo però alcuni aspetti, in considerazione del fatto che se l’utilizzo delle procedure informatizzate va sicuramente incoraggiato nell’ambito della PA, non può essere motivo di elusione dei principi cardine del nostro ordinamento. Due elementi sono dunque preminenti in ipotesi di utilizzo di algoritmi in sede decisoria pubblica
- la piena conoscibilità a monte dell’algoritmo utilizzato e dei criteri applicati;
- l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo.
Conoscibilità significa trasparenza, ovvero
- l’algoritmo deve essere conoscibile, dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti.
- il soggetto interessato al trattamento automatizzato per il tramite di un algoritmo deve essere informato sulla logica utilizzata, nonché in merito all'importanza e alle conseguenze previste di tale trattamento per l’interessato, il quale ha anche il diritto di ricevere informazioni relative all'esistenza di eventuali processi decisionali automatizzati (artt. 13-14 e 15 Reg. UE 679/2016) e di non essere sottoposta a decisioni automatizzate prive di un coinvolgimento umano e che, allo stesso tempo, producano effetti giuridici o incidano in modo analogo sull'individuo.
Quindi occorre sempre l’individuazione di un centro di imputazione e di responsabilità, che sia in grado di verificare la legittimità e logicità della decisione dettata dall’algoritmo.
Infine il Consiglio di Stato ricorda il considerando n. 71 del Regolamento 679/2016, da cui trae un ulteriore principio fondamentale, di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate. Queste devono garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell'interessato e che impedisca tra l'altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell'origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell'appartenenza sindacale, dello status genetico, dello stato di salute o dell'orientamento sessuale, ovvero che comportano misure aventi tali effetti. In tale contesto, pur dinanzi ad un algoritmo conoscibile e comprensibile, non costituente l’unica motivazione della decisione, occorre che lo stesso non assuma carattere discriminatorio.
A pronunciarsi su una questione in materia di IA è stato chiamato anche l’EPO (Ufficio europeo dei brevetti), che ha respinto due domande di brevetto che indicavano come inventore DABUS, una macchina dotata di intelligenza artificiale che inventa altre macchine. Per il momento l’EPO ha respinto le domande sull’assunto che un inventore deve essere un umano in base alla Convenzione sul brevetto europeo.
Le domande erano state depositate però proprio con l’intento di spingere le istituzioni a interrogarsi e considerare la questione dell’innovazione apportata da sistemi di intelligenza artificiale.
Dal canto suo la WIPO (l’organizzazione mondiale della proprietà intellettuale ha aperto una consultazione pubblica sulle future politiche in materia di intelligenza artificiale e di proprietà intellettuale.