Vuoi ricevere i nostri aggiornamenti?

Registrati per accedere ai contenuti riservati e iscriverti alla nostra newsletter

Introdurre l’intelligenza artificiale nelle imprese è una questione di compliance: la roadmap per una integrazione responsabile

14/04/2026
Linee guida per l'implementazione dell'IA nel mondo del lavoro
L’intelligenza artificiale sta entrando nelle imprese con una velocità che spesso supera la capacità delle organizzazioni di governarne davvero l’impatto, inconsapevolmente quindi si introduce l’AI quale strumento di lavoro, ma non si ridisegna il processo, si attiva la funzione AI, ma non si presidiano dati, ruoli, controlli e responsabilità.
Per questo il tema oggi non è soltanto “usare l’AI” ma farlo con metodo.
Le “Linee guida per l'implementazione dell'IA nel mondo del lavoro” elaborate dal Ministero del Lavoro e delle Politiche Sociali forniscono una prima road map operativa.

Il contesto normativo: un quadro stratificato e in rapida evoluzione

Il 10 ottobre 2025 è entrata in vigore la Legge 23 settembre 2025, n. 132, "Disposizioni e delega al Governo in materia di intelligenza artificiale", primo riferimento legislativo nazionale in conformità all'AI Act europeo (Regolamento UE 2024/1689). Pochi mesi dopo, il Ministero del Lavoro e delle Politiche Sociali ha adottato le Linee Guida per l'implementazione dell'IA nel mondo del lavoro, elaborate nell'ambito del DM 180/2025 e destinate a imprese, PMI e lavoratori autonomi.

Le Linee Guida non hanno carattere prescrittivo ma costituiscono un autorevole quadro di orientamento che delinea, per la prima volta in modo sistematico, il rapporto tra adozione dell'AI nei contesti produttivi e tutela dei diritti fondamentali.

Ciò che emerge con chiarezza è che l'AI in azienda non è soltanto una questione tecnologica o di efficienza operativa: è, prima di tutto, una questione di compliance, nel senso che, come peraltro segnalato dalle Linee Guida del MLPS, occorre integrare la gestione dell'AI con gli altri sistemi di compliance aziendale ossia con

  • il sistema di gestione dei dati personali (GDPR – Regolamento UE 2016/679);
  • il Modello Organizzativo ex D.Lgs. 231/2001;
  • il sistema di gestione della salute e sicurezza sul lavoro (D.Lgs. 81/2008);
  • il quadro di cybersecurity (D.Lgs. 138/2024, attuativo della Direttiva NIS2);
  • il sistema qualità aziendale;
  • il canale di whistleblowing obbligatorio (D.Lgs. 24/2023).

Inutile ricordarlo: ignorare le intersezioni tra AI e compliance espone l'impresa a rischi di non conformità su più fronti e pure contemporaneamente.

Il Modello Organizzativo 231 come presidio

Nell’ambito di questa rivoluzione legata all’AI come strumento di lavoro, le Linee Guida del MLPS richiamano esplicitamente il D.Lgs. 231/2001 tra i riferimenti normativi rilevanti per la governance dell'AI.

L'integrazione non è forzata. Un uso improprio o non presidiato di sistemi di AI nello svolgimento delle attività quotidiane di un’impresa potrebbe configurare, in determinate circostanze, fattispecie di reato già presidiate dal D.Lgs. 231.

La stessa road map in sei fasi delineata dalle Linee Guida richiama alcune delle fasi tipiche dell’implementazione del Modello Organizzativo

Conoscere il contesto:

la valutazione preliminare fa esplicito riferimento ad una valutazione in concreto del contesto aziendale, con la necessaria mappatura dei processi che potrebbero essere interessati dall’uso dell’AI nonché degli strumenti già in uso. Quest’ultimo è un aspetto spesso sottovalutato. In molte organizzazioni l’intelligenza artificiale è già presente, anche senza una decisione esplicita in tal senso, perché incorporata in software acquistati da fornitori o integrata in piattaforme utilizzate quotidianamente oppure perché utilizzata nell’esecuzione delle attività lavorative anche se non autorizzata.

Definire i rischi:

sulla base del contesto aziendale lavorativo, l’organizzazione dovrà procedere ad un vero e proprio risk assesment, integrato per tutti i diversi profili di compliance interessati dal singolo processo.

Governare i rischi:

le organizzazioni che intendono dotarsi di strumenti di AI dovranno elaborare policy e strumenti organizzativi specifici per la prevenzione dei rischi individuati e, al contempo, integrarli e coordinarli con le altre policy e sistemi di gestione già implementati dall’impresa. Oltre alle policy sarà necessario stabilire ruoli e responsabilità ben definite; le Linee guida a tal proposito suggeriscono che l’impresa si doti di un team di coordinamento e di un referente che presidi l’intero processo (cd. Chief AI Officer).

Formazione:

la tecnologia non funziona nel vuoto ma dentro organizzazioni composte da persone; per questo la formazione occupa un ruolo centrale sia in quanto necessaria a garantire l’uso corretto e consapevole degli strumenti di AI sia per prevenire rischi per la salute dei lavoratori, compresi quelli psicosociali. Le Linee Guida introducono il concetto di "stress da automazione" — disagio lavorativo generato dall'introduzione di tecnologie intelligenti che modificano radicalmente tempi, modalità e contenuti del lavoro — riconducendo tale malessere lavorativo alle   esplicitamente all'art. 28 del D.Lgs. 81/2008 (Valutazione Rischi; stress da lavoro correlato).

Monitoraggio e miglioramento continuo:

il monitoraggio, la gestione del rischio e il miglioramento continuo sono attività permanenti, che devono accompagnare l’intero ciclo di vita del sistema. Questo significa audit periodici, revisione dei processi, valutazione dell’efficacia, aggiornamento delle misure di mitigazione. È la logica tipica dei sistemi di gestione, applicata all’intelligenza artificiale.

Whistleblowing: i sistemi di segnalazione come presidio della legalità algoritmica

Le Linee Guida chiariscono, inoltre, che le violazioni della normativa in materia di AI rientrano tra le materie oggetto di segnalazione tutelata ai sensi del D.Lgs. 24/2023 (attuativo della Direttiva UE 2019/1937). Le imprese soggette all'obbligo di istituire canali interni di segnalazione devono garantire che tali canali siano idonei a ricevere anche segnalazioni relative a usi impropri, rischiosi o non conformi dei sistemi di IA.

Verso un sistema integrato di compliance

Le Linee Guida del MLPS rappresentano un punto di svolta nel panorama regolatorio italiano: per la prima volta, un documento istituzionale affronta in modo sistematico il tema dell'AI nel lavoro, indicando non solo principi etici ma strumenti operativi e riferimenti normativi concreti.

La lettura che emerge è quella di un sistema di compliance integrata, in cui la governance dell'AI non può essere gestita in modo autonomo rispetto agli altri presidi normativi aziendali.

Gli adempimenti non sono rinviabili: il Reg. UE 1689/2024 (AI Act) è in larga parte già applicabile, la Legge 132/2025 è in vigore, e le autorità di vigilanza.