Vuoi ricevere i nostri aggiornamenti?

Registrati per accedere ai contenuti riservati e iscriverti alla nostra newsletter

La grande sfida dell’Etica nell’Intelligenza Artificiale

30/06/2020
Silvia Stefanelli
Luigi Zampetti

Su vari media compaiono, sempre più spesso, articoli sulla capacità di governare l’intelligenza artificiale (e i robot).

Tra tutti si cita l’articolo del Prof. Norberto Patrignani del Politecnico di Torino scritto per “Agenda Digitale” il 25 ottobre 2018 sullo “sforzo etico che richiede l’intelligenza artificiale” ; ed ancora l’intervista ad Antonello Soro, Presidente del Garante per la protezione dei dati personali, di Andra Ballocchi sulla rivista on line “Wisesociety” del 18 dicembre 2018, nella quale si accenna ad ”un’etica per l’algoritmo”; quindi l’articolo “Un’etica per i robot” dell’Avv. Andrea Bertolini in qualità di ricercatore di Diritto Privato all’Istituto Dirpolis della Scuola Superiore Sant’Anna di Pisa su la “Lettura” del 25 dicembre 2018 .

Perché questa importanza dell’etica nell’AI?

Si discute di etica quando i criteri di legittimità non funzionano più adeguatamente ed i principi non riescono più a delimitare ciò che è bene e ciò che è male.

L’intelligenza artificiale e la robotica sono l’ampliamento delle capacità intellettuali e fisiche umane e quindi riguardano i comportamenti dell’uomo. Ora, se l’IA e i robot fossero usati solo per potenziare le capacità umane (es. uso il computer per calcolare più velocemente; uso il braccio artificiale per sollevare un peso più grande), il tema dell’etica nella AI  ricalcherebbe le generali tematiche etiche dei comportamenti umani.

Ma con l’AI il profilo è molto più ampio: queste tecnologie sono (e saranno sempre più) in grado di condizionare le scelte dell’uomo e di decidere insieme a / al posto de l’individuo.

Perciò non basta più appellarsi all’imperativo categorico di Immanuel Kant, secondo il quale “si deve trattare l’uomo sempre come fine e mai semplicemente come mezzo”, occorre invece entrare nel merito e costruire un quadro di riferimento valoriale e normativo che regoli l’AI in maniera tale da preservare la libertà dell’individuo, la sua dignità, l’equità ed il rispetto della persona nei vari ruoli che assume (lavoratore, consumatore, paziente, ecc), la riservatezza dei suoi dati, la responsabilità delle scelte.

L’apporto istituzionale europeo

L’Unione Europea si è mossa fin dal 2013 per orientare in modo responsabile la ricerca e l’innovazione: su questa strada è stato costituito l’High-Level Expert Group on Artificial Intelligence (AI-HLEG) che ha l’obiettivo di supportare l’implementazione della strategia europea sull’intelligenza artificiale su mandato della Commissione Europea per lo specifico della robotica ed è stato varato il progetto Robolaw  per la stesura della nuova legislazione europea sulla robotica, per renderla sicura e responsabile.

Assunto che la tecnologia deve rispettare i diritti fondamentali dell’uomo e le norme, l’AI-HLEG ha indicato anche cinque principi fondamentali a cui attenersi (ripresi dall’articolo de La lettura n.369 del 23 dicembre 2018 curato da Andrea Bertolini.):

  1. Beneficienza: l’IA deve essere sviluppata per promuovere il benessere degli individui e della società nel suo complesso (sviluppo economico, equità sociale, tutela dell’ambiente).
  2. Non-maleficienza: l’IA non deve nuocere agli uomini. Nel modo stesso in cui è progettata, deve proteggere dignità, integrità, libertà, riservatezza, sicurezza degli esseri umani nella società e nel lavoro.
  3. Autonomia: deve essere assicurata la libertà degli esseri umani dalla subordinazione o coercizione dei sistemi di IA. Gli esseri umani che vi interagiscono devono preservare la propria capacità di determinazione.
  4. Giustizia: lo sviluppo, l’uso e la regolazione dell’IA devono essere improntati all’equità, preservando le minoranze da pregiudizi e discriminazioni e garantendo uguali opportunità.
  5. Comprensibilità: è necessario assicurare trasparenza della tecnologia e del modello di business. La tecnologia deve essere assoggettabile al controllo e comprensibile all’essere umano. Questo ultimo va informato delle intenzioni degli sviluppatori e di coloro che implementano le soluzioni di IA.

Breve casistica delle criticità

Poiché la questione in gioco non è (non può essere) come frenare le nuove tecnologie, ma è come renderle eticamente sostenibili, nei principi compaiono criteri dirompenti per come sono andate finora le cose.

Facciamo qualche esempio, collegandolo ai principi sopra riportati.

a) Principio 2 e 4 - Non maleficienza e Giustizia

La capacità di evitare discriminazioni e manipolazioni del singolo e dell’opinione pubblica, a parte i casi di dolo, dipende molto dalla qualità del meccanismo di machine learning: la macchina impara dall’esperienza per generare/indicare l’output dell’elaborazione. Purtroppo però il meccanismo è simile alla “profezia che si auto avvera”, per cui il caso esperienziale genera la predizione che a sua volta innesca l’analisi o l’azione già orientata che trova infine conferma nella nuova esperienza (principi 2 e 44 -  Predpol). Un esempio è  il software utilizzato dalla polizia in Pennsylvania per calcolare i luoghi più a rischio e prevedere i crimini che risulta basato sull’esperienza (i reati commessi): il sistema indica le zone più degradate dove i reati minori sono endemici e dove la polizia è spinta ad intervenire. Ma, la nuova operazione di polizia fornisce nuovi dati che giustificheranno nuove azioni di polizia, in un ciclo di feedback che alimenta il data base rafforzando la tesi che occorre agire in quelle zone. Se quelle zone sono abitate in prevalenza da afroamericani, questo tipo di cittadini dovrà essere più attenzionato.

b) Principio 5 - Comprensibilità

Il grado di fiducia - e non di affidamento – nell’uso di una macchina dipende dalla conoscenza che l’uomo ha del suo “funzionamento”. 

Sotto questo profilo l’esempio dei siti web che operano nel settore della ricerca e della valutazione dei candidati ad un posto di lavoro sono emblemetici.

Si sono analizzati alcuni siti tra cui Engage Talent che cerca sul Web i candidati passivi, che hanno lavoro e non lo cercano ma possono essere interessanti per l’azienda, pronta ad una buona offerta; Entelo che raccoglie dati dai social media per verificare la traccia delle qualità richieste dal ruolo a cui si candida o che l’azienda intende affidargli; Hire Vue che esamina il linguaggio del corpo, le espressioni facciali ed il parlato dei video curriculum o delle video interviste dei candidati; Visiotalent che usa l’analisi semantica dei curriculum e delle carriere.

Per tutti i siti evidenziati non sono chiari i criteri su cui lavora l’algoritmo.

Quindi sorge spontanea la domanda: chi garantisce la non-discriminazione per motivi religiosi, razziali, di convinzioni filosofiche, di dialetto, di grado culturale? Quale evidenza è data al candidato del “ragionamento” che applicano gli algoritmi di IA ai suoi dati ed alle sue immagini (dati biometrici)?

c) Principio 3 - Autonomia

Infine, il grado di libertà e autonomia decisionale dell’uomo dipende dalle proposte della macchina: se la macchina propone alternative pesate (percentuali di frequenza e probabilità di successo) piuttosto che solo quella ritenuta (dalla macchina stessa) migliore.

Nel campo della sanità, può essere il caso di sistemi come Watson della IBM, in grado di fornire in pochi minuti la terapia per un paziente affetto da una grave malattia, confrontando decine di milioni di pubblicazioni scientifiche. La contrazione del tempo di risposta e la impressionante (inumana) quantità di informazioni detenute ed analizzate “spingono” il Medico ad “accettare” la (unica) soluzione fornita dalla macchina.

Quale sarà la responsabilità del Medico e quale della macchina se la terapia non si è rivelata corretta ed il paziente muore?

Rubrica "Sanità Digitale e Intelligenza Artificiale"

Leggi gli altri articoli presenti nella nostra rubrica dedicata.