Vuoi ricevere i nostri aggiornamenti?

Registrati per accedere ai contenuti riservati e iscriverti alla nostra newsletter

AI: la definizione giuridica

11/04/2024

Articolo redatto in collaborazione con Ing. Alice Ravizza di InsideAI

Il nuovo regolamento sulla Intelligenza Artificiale (AI ACT) è alle porte.

Dopo l’approvazione delle Commissione LIBE e IMCO in data 13 febbraio 2024,  è prevista ad aprile con la votazione in Parlamento UE sessione plenaria e la successiva approvazione del Consiglio; se tutto va liscio la pubblicazione in GUCE potrebbe essere nel corso dell’estate.

Da lì partiranno i termini per l’adeguamento:
6 mesi per le pratiche di AI vietate;
12 mesi per le disposizioni relative alle autorità di notifica e agli organismi notificati, alla governance, ai modelli di AI per scopi generali, alla riservatezza e alle sanzioni;
36 mesi per i sistemi di AI ad alto rischio di cui all’articolo 6, paragrafo 1 dell’AI Act.

Apriamo allora questo nuovo progetto dello Studio Stefanelli&Stefanelli sulla Intelligenza Artificiale con un primo articolo sulla definizione di Intelligenza Artificiale

L’art. 3 lett. 1 (versione in italiano scaricata del sito del Parlamento UE) stabilisce che per Ai si intende

 "sistema di IA": un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali;"

ma cosa significa esattamente?

Un approfondimento sul significato di questa definizione può essere tratto dal EXPLANATORY MEMORANDUM ON THE UPDATED OECD DEFINITION OF AN AI SYSTEM pubblicato dallOEDC.AI proprio a marzo 2024.

Dalla lettura di tale documento si possono trarre chiarimenti sugli elementi cardine della definizione sopra riportata.

Più esattamente vediamo i  concetti fondamentali della definizione

Sistema automatizzato

La locuzione “sistema automatizzato” è volutamente ampia per poter ricomprendere  varie tecniche tra cui l'apprendimento automatico e gli approcci basati sulla conoscenza, e altresì diverse aree di applicazione come la computer vision, l'elaborazione del linguaggio naturale, il riconoscimento vocale, i sistemi intelligenti di supporto alle decisioni, i sistemi robotici intelligenti, nonché l'applicazione innovativa di questi strumenti a vari domini.

Livelli di autonomia variabile

Il sistema di AI disegnato al Regolamento è di natura antropocentrica: ci vuol dire che l’uomo è sempre in grado di sorvegliare ed intervenire sulla macchina. Ciò non fa venire meno la peculiarità della Ai: la presenza di una sua propria autonomia, che può presentare livelli diversi.

In altre parole il sistema è in grado di apprendere o agire senza coinvolgimento umano a seguito della delega di autonomia e automazione dei processi da parte dell'uomo stesso. La supervisione umana può avvenire in qualsiasi fase del ciclo di vita del sistema IA, ad esempio durante la progettazione, la raccolta ed elaborazione dei dati, lo sviluppo, la verifica, la convalida, la distribuzione o il funzionamento e il monitoraggio.

Alcuni sistemi IA possono poi generare output senza che questi output siano esplicitamente descritti nell'obiettivo del sistema IA e senza istruzioni specifiche da parte di un essere umano. Per i sistemi AI considerati “ad alto rischio”, come ad esempio i dispositivi medici in classi IIa e superiori, l’articolo 14 del AI Act prevede misure dettagliate per garantire la supervisione umana sulla macchina. Per poter essere efficace, la supervisione umana si basa su alcuni pilastri fondamentali. Tra questi citiamo: la comprensione da parte dell’uomo delle capacità e delle limitazioni del modello; la consapevolezza da parte dell’uomo di un possibile bias tecnologico, cioè la tendenza a “fidarsi” della macchina; la autonomia da parte dell’uomo nel poter sia ignorare gli output della macchina sia interrompere in modo sicuro e in ogni momento il funzionamento della macchina.

Adattabilità dopo la diffusione

L'adattabilità dopo la diffusione significa che i sistemi di AI basati sull'apprendimento automatico possono continuare ad evolversi attraverso l'interazione diretta (con input e dati) che può avvenire non solo prima della distribuzione ma anche dopo: solo a titolo di esempio un sistema di riconoscimento vocale può modificarsi adattandosi alla voce di un individuo.

L’addestramento del sistema può poi essere iniziale o periodico o continuativo, inferendo i modelli e le relazioni nei dati. Attraverso tale formazione, alcuni sistemi di IA possono sviluppare la capacità di eseguire nuove forme di inferenza non inizialmente previste dai loro programmatori.

Il Regolamento AIAct prevede, per garantire la sicurezza di questa formazione continua, che i provider si dotino di un sistema gestionale per la identificazione e la mitigazione dei rischi in tutta la vita del modello, anche dopo la prima messa a disposizione.

Obiettivi impliciti o espliciti

Gli obiettivi dei sistemi di IA possono essere espliciti o impliciti (obiettivi che possono sovrapporsi in alcuni sistemi:

  • Obiettivi espliciti e definiti dall'uomo

Sono i sistemi  in cui lo sviluppatore codifica l'obiettivo direttamente nel sistema Esempi di sistemi con obiettivi espliciti sono i classificatori semplici, i sistemi di gioco, i sistemi di apprendimento per rinforzo, i sistemi di risoluzione di problemi combinatori, gli algoritmi di pianificazione e gli algoritmi di programmazione dinamica.

  • Obiettivo impliciti derivanti dalle regole tipicamente specificate dall'uomo

 le regole dettano l'azione che il sistema di intelligenza artificiale deve intraprendere in base alla situazione nella quale ci si trova: ad esempio, un sistema di guida potrebbe avere una regola: "Se il semaforo è rosso, fermati".

  • Obiettivi impliciti derivante dai dati di addestramento:

in questo caso l'obiettivo finale non è programmato esplicitamente, ma è “incorporato” attraverso i dati di addestramento e attraverso un'architettura di sistema che impara a emulare quei dati (ad esempio, premiando i modelli linguistici di grandi dimensioni per aver generato una risposta plausibile);

  • obiettivi non completamente conosciuti in anticipo

alcuni esempi includono i sistemi di raccomandazione che usano apprendimento per rinforzo per restringere gradualmente il modello delle preferenze dei singoli utenti

Output

Gli output generati da un sistema di IA riflettono generalmente le diverse funzioni svolte dai sistemi di IA e comprendono generalmente le ampie categorie di raccomandazioni, previsioni e decisioni.

Queste categorie corrispondono a diversi livelli di coinvolgimento umano.

Più esattamente

  • le "decisioni" rappresentano il tipo di output più autonomo (il sistema di IA agisce direttamente sull'ambiente o indirizza un'altra entità a farlo)
  • le "previsioni" il meno autonomo.

I sistemi di intelligenza artificiale generativa producono invece "contenuti", tra cui testo, immagini, audio e video.

Sebbene si possa, ad esempio, considerare la generazione di testo come una sequenza di “decisioni” di produrre parole particolari, i sistemi generativi sono diventati – dopo il lancio di OpenAI - una classe così importante di sistemi di IA da essere inclusi come categoria di output a sé stante nella definizione giuridica del Regolamento.

Rubrica "AI LEGAL, un prisma da comporre"

Leggi gli altri articoli presenti nella nostra rubrica dedicata.