Vuoi ricevere i nostri aggiornamenti?
Automatizzazione delle Procedure di Gara e Riserva di Umanità
AI - Appalti
L'automatizzazione delle procedure di gara implica l’uso di algoritmi, e rappresenta certamente un’opportunità per ottimizzare la gestione delle risorse pubbliche, ridurre tempi di esecuzione e minimizzare errori di calcolo e valutazione. Tuttavia, questo processo deve essere opportunamente controbilanciato dalla cd. “riserva di umanità”, un principio giuridico che assicura la supervisione umana e, quindi, la legittimità delle decisioni amministrative.
La “riserva di umanità” ha radici profonde nella teoria dell’organo e nel principio di imputazione dell’atto amministrativo. Tradizionalmente, la pubblica amministrazione opera tramite l’intervento di persone fisiche che agiscono come organi dell’ente pubblico. Questo modello, ben definito nella teoria dell’immedesimazione organica, garantisce che ogni atto amministrativo sia imputabile a una persona fisica. Con l’automatizzazione, invece, la mancanza di intervento umano nelle decisioni amministrative comporterebbe un rischio d’emanazione di atti potenzialmente privi di legittimità giuridica.
Definizioni Chiave: Algoritmo, Automazione e Intelligenza Artificiale
Un’efficace distinzione tra algoritmo, automazione e intelligenza artificiale permette di comprendere le diverse modalità di interazione tra tecnologia e l’attività amministrativa:
- Algoritmo: è una sequenza di istruzioni programmate che consente a un software di risolvere una serie di problemi in modo deterministico, ovvero offrendo lo stesso output per lo stesso input.
Nelle gare pubbliche, l'algoritmo può ad esempio mettere in ordine le offerte secondo criteri prestabiliti, determinare punteggi, escludere offerte anomale e assistere nella verifica della documentazione, riducendo l’intervento umano nelle fasi preliminari della valutazione. - Automazione: applicazione dell’algoritmo per eseguire attività senza intervento umano, delegando all’elaboratore elettronico l’operazione di calcolo o selezione. Si può distinguere tra automazione “tradizionale”, basata su algoritmi chiusi che seguono regole predefinite, e intelligenza artificiale avanzata, che include algoritmi “aperti” in grado di apprendere e adattarsi.
Nelle gare pubbliche può essere utilizzata nella verifica di requisiti formali delle offerte. - Intelligenza Artificiale (IA): insieme di tecnologie avanzate, come il machine learning, che permettono alla macchina di “apprendere” dai dati e affinare i propri risultati. A differenza dell’algoritmo tradizionale, l’IA può generare decisioni non predeterminate in fase di programmazione, aprendosi alla possibilità di interpretazioni più sofisticate delle informazioni.
Nell’ambito delle gare pubbliche, l’IA può svolgere ruoli sempre più complessi, ad esempio identificando pattern di irregolarità nelle offerte o stimando l’affidabilità di un operatore economico sulla base di dati storici.
Vizi dell'Atto Amministrativo: Nullità e Annullabilità nelle Decisioni Automatizzate
Nelle decisioni adottate tramite algoritmi e automazione/IA, i concetti di nullità e annullabilità assumono particolare rilevanza, poiché un errore o un vizio tecnico possono compromettere la validità dell’intero procedimento di gara. La giurisprudenza ha tracciato distinzioni importanti in questo contesto:
- Nullità: nelle procedure automatizzate, la nullità può derivare da un difetto radicale, come la mancata attribuzione del potere decisionale a un organo competente o la violazione dei principi costituzionali. Ad esempio, l’utilizzo di un algoritmo che discrimini o violi i principi di imparzialità e trasparenza potrebbe condurre alla nullità dell’atto, poiché comprometterebbe i principi fondamentali dell’azione amministrativa.
- Annullabilità: l’annullabilità, invece, è prevista per i vizi meno gravi che non invalidano radicalmente l’atto ma ne inficiano la legittimità. Nelle decisioni algoritmiche, i casi di annullabilità possono comprendere errori procedurali, valutazioni incomplete o omissioni. Per esempio, se un algoritmo omette di considerare informazioni rilevanti in base a istruzioni predefinite, il vizio sarebbe annullabile, poiché correggibile con una revisione e non tale da invalidare l’atto in modo irreversibile.
La "riserva di umanità" funge pertanto da strumento di tutela contro i rischi di nullità e annullabilità nelle decisioni algoritmiche. La necessità di un intervento umano non è solo una garanzia etica ma anche giuridica. È necessario che vi sia un contributo umano capace di verificare, modificare o correggere eventuali errori dell’algoritmo. L’assenza di tale intervento potrebbe portare a vizi insanabili, configurando la nullità dell’atto, specialmente se l’algoritmo agisce su decisioni discrezionali dove il controllo umano è indispensabile.
L’adozione di algoritmi che non rispettano la “riserva di umanità” potrebbe, quindi, provocare situazioni in cui viene dichiarata la nullità dell’atto, soprattutto in casi di discriminazione o di errori, con gravi conseguenze economiche e procedurali.
L’imputabilità delle decisioni
La “riserva di umanità” stabilisce altresì che ogni decisione amministrativa automatizzata debba essere riconducibile a una persona fisica o giuridica, che ne risponda giuridicamente e patrimonialmente. In caso contrario, si verrebbe a creare una lacuna di responsabilità, dove l’algoritmo opererebbe in modo indipendente, privo di un controllo efficace e senza possibilità di sanzionare eventuali errori.
I Giudice amministrativi in alcune occasioni hanno già affermato che il software, benché esegua calcoli e operazioni complesse, deve essere supervisionato e controllato da funzionari competenti. Questo significa che l’uso degli algoritmi non può esentare i responsabili amministrativi dall’assumersi la piena responsabilità delle scelte effettuate. La stessa impostazione è condivisa nel nuovo Codice Appalti, il quale specifica che l’automazione è ammessa solo se accompagnata da garanzie di trasparenza e responsabilità.
In questo quadro, l’art. 30 del nuovo Codice Appalti impone alle stazioni appaltanti di assicurare la comprensibilità delle logiche decisionali e la disponibilità del codice sorgente, in modo che eventuali vizi possano essere individuati e corretti. Tale obbligo è pensato per ridurre il rischio di nullità, facilitando il controllo umano sull'operato degli algoritmi.
Rischi e Limitazioni della Decisione Algoritmica
L’inserimento di algoritmi e intelligenza artificiale (IA) nelle gare d’appalto è una pratica che, pur offrendo vantaggi in termini di efficienza e uniformità delle valutazioni, comporta anche una serie di rischi specifici e limitazioni, che la giurisprudenza e il diritto amministrativo mirano a mitigare.
- Discriminazione Algoritmica: l’algoritmo può riflettere pregiudizi inconsapevoli se i dati di addestramento includono informazioni storicamente condizionate da discriminazioni. Ad esempio, un sistema automatizzato che favorisca certi fornitori in base a criteri quantitativi o a uno storico dei contratti precedenti potrebbe, inconsapevolmente, escludere nuovi partecipanti o realtà emergenti, consolidando un’inequità sistemica. A tale scopo, il D.Lgs. 36/2023 impone che siano in atto meccanismi di monitoraggio e revisione continua per prevenire effetti discriminatori, con la possibilità di interventi correttivi da parte del personale dell’amministrazione.
- Inesattezza dei Dati: poiché l’algoritmo si basa sui dati di input per generare risultati, la qualità e l’accuratezza di questi dati sono fondamentali. Errori o incongruenze nei dataset di input possono portare a decisioni errate, e quindi a valutazioni distorte delle offerte. Si evidenzia pertanto che anche la pubblica amministrazione deve predisporre audit regolari sui dati utilizzati e verificare che essi riflettano le informazioni necessarie e pertinenti alla gara. Le decisioni erronee dovute alla qualità dei dati non devono compromettere i principi di buon andamento e imparzialità che l’amministrazione è tenuta a rispettare.
Giurisprudenza e Riserva di Umanità: Casi Esaminati
Si prendono infine ad esempio alcune sentenze che hanno definito e circoscritto il ruolo dell’algoritmo e la necessità della supervisione umana nelle decisioni amministrative automatizzate, introducendo, già prima dell’emanazione del nuovo Codice Appalti, elementi volti a proteggere la trasparenza e la responsabilità dell’ente pubblico.
La sentenza, seppure precedente al nuovo Codice Appalti, analizza il caso di una procedura automatizzata per l’assegnazione di sedi a docenti assunti nell'ambito del piano straordinario previsto per legge. Gli appellanti lamentavano sostanzialmente l’assenza di trasparenza sull’algoritmo utilizzato per l'assegnazione delle sedi e l’irrazionalità e l’illogicità degli esiti, con assegnazioni che non rispettavano le preferenze indicate, a danno di soggetti meglio posizionati in graduatoria.
Gli appellanti evidenziavano anche l'impossibilità di comprendere i criteri alla base delle decisioni automatizzate e denunciavano l'assenza di motivazione nei provvedimenti derivanti dall'algoritmo.
L'algoritmo pertanto era percepito come una "scatola nera", inaccessibile e incomprensibile, che ha impediva il controllo sulla correttezza delle assegnazioni.
Il Consiglio di Stato ha dunque affermato che l’algoritmo, al contrario, deve essere conoscibile in tutti i suoi aspetti, inclusi: la logica sottostante, i criteri utilizzati per le decisioni, le modalità con cui i dati vengono elaborati. La conoscibilità rafforza il principio di trasparenza e consente il sindacato del giudice.
Inoltre in questa Sentenza viene espresso il concetto di Algoritmo come "atto amministrativo informatico". In pratica l’algoritmo non è un’entità autonoma, ma un’estensione della volontà amministrativa. Deve essere costruito e gestito in modo da rispettare i principi di proporzionalità, ragionevolezza e pubblicità. La discrezionalità amministrativa deve essere esercitata nella fase di programmazione dell’algoritmo, non nella sua esecuzione.
Dal canto suo il Giudice amministrativo deve poter valutare la logica e la ragionevolezza dell’algoritmo e la correttezza dei dati inseriti e delle decisioni prese. Questa possibilità garantisce il diritto di difesa dei cittadini e la piena effettività del controllo giudiziario.
In definitiva l’impiego di algoritmi sembrerebbe non liberare affatto l’amministrazione dalla responsabilità di garantire la correttezza e la legalità degli atti, sottolineando che qualsiasi errore nel processo automatizzato è imputabile al soggetto pubblico. La sentenza stabilisce inoltre che la pubblica amministrazione deve prevedere modalità di verifica dei risultati prodotti dagli algoritmi, così da poter correggere e rendere trasparenti eventuali errori o incoerenze nel processo decisionale.
Un caso similare, ma ancora più datato nel tempo, ha affrontato invece il tema dell’accesso agli atti amministrativi in relazione all’algoritmo utilizzato dal Ministero dell’Istruzione, Università e Ricerca (MIUR) per la gestione della mobilità interprovinciale dei docenti nell’anno scolastico 2016/2017. Il ricorrente richiedeva l’accesso ai codici sorgente del software che gestiva l’algoritmo, dopo che l’amministrazione aveva negato tale accesso, limitandosi a fornire una descrizione generale del funzionamento dell’algoritmo.
Il TAR ha ritenuto invece insufficiente la mera descrizione dell’algoritmo fornita dall’amministrazione, sottolineando che la comprensione completa del funzionamento del sistema richiede l’accesso ai codici sorgente. Questo per garantire la verifica di eventuali errori o incongruenze nell’elaborazione automatizzata.
Sebbene, dunque, il software sia tutelato come opera dell’ingegno, tale tutela non prevale sul diritto di accesso quando ciò è necessario per garantire il rispetto dei diritti degli interessati, a condizione che l’accesso non comprometta lo sfruttamento economico del software.
Conclusioni e Prospettive Future
In conclusione, l’introduzione, oramai conclamata, di algoritmi nelle gare d’appalto comporta vantaggi evidenti, ma è essenziale che tali strumenti siano impiegati con attenzione per prevenire possibili vizi di nullità e annullabilità. La “riserva di umanità” rappresenta una salvaguardia contro il rischio che un agire amministrativo completamente automatizzato perda di trasparenza e di legittimità. Per garantire la corretta applicazione degli algoritmi, è fondamentale che le amministrazioni assicurino la supervisione umana e la trasparenza delle logiche utilizzate.
È sancito l’obbligo imposto dal Codice Appalti di assicurare la comprensibilità delle logiche decisionali e la disponibilità del codice sorgente, in modo che eventuali vizi possano essere individuati e corretti.
In sintesi, l'equilibrio tra automazione ed etica giuridica è possibile, ma richiede un quadro normativo solido e una vigilanza costante, affinché l’efficienza tecnologica non comprometta la tutela dei diritti dei partecipanti alle gare e la legittimità dell’azione amministrativa.
Rubrica "AI LEGAL, un prisma da comporre"
Leggi gli altri articoli presenti nella nostra rubrica dedicata.