L’intelligenza artificiale nei rapporti di lavoro

Con la pubblicazione della Legge n. 132/2025, il Parlamento affida al Governo la disciplina organica dell’intelligenza artificiale, collocando il tema lavoro al centro dell’intervento.
Gli articoli 11, 12 e 13 compongono un nucleo coerente di regole che puntano a favorire l’adozione di soluzioni tecnologiche nei processi organizzativi senza sacrificare la tutela dei diritti fondamentali del personale. La logica è chiara: l’innovazione va incoraggiata, ma all’interno di un perimetro etico-giuridico che salvaguardi la dignità della persona, la trasparenza delle decisioni e la responsabilità dei soggetti coinvolti.
Vediamo quelli che sono i punti cardine che dovranno essere seguiti per l’emanazione di un decreto legislativo coerente con la volontà del Parlamento.
L’articolo 11 stabilisce i principi generali per l’uso dell’IA nei luoghi di lavoro e costituisce la cerniera tra diritto del lavoro tradizionale e nuove tecnologie decisionali. Il legislatore individua una fascia di applicazioni considerate a “rischio elevato”, vale a dire quelle che incidono direttamente su scelte determinanti nella vita professionale del lavoratore: selezione e assunzione, promozioni, trasferimenti e cessazioni, valutazioni delle performance, attribuzione di mansioni, turni e obiettivi. In tali ambiti l’IA non è vietata, ma la sua adozione è subordinata a presidi più stringenti. È richiesto che i sistemi siano sicuri, affidabili e trasparenti, e che il loro impiego non introduca discriminazioni, nemmeno indirette, legate a caratteristiche personali o condizioni soggettive. La trasparenza non si esaurisce in una formula generica di informativa: significa che il lavoratore deve comprendere quando un algoritmo entra nel processo, con quali finalità e secondo quali logiche essenziali. In presenza di sistemi completamente automatizzati, questa esigenza si intensifica fino a richiedere, in concreto, una descrizione intelligibile dei fattori che guidano l’output e delle eventuali soglie decisionali impostate.
Per chi gestisce il personale, l’adempimento non è meramente documentale. La norma presuppone che la direzione aziendale sappia “mappare” i sistemi di IA impiegati, distinguendo quelli di supporto da quelli che producono effetti giuridici o incidono sensibilmente sulla posizione del lavoratore. Questa mappatura non è solo un inventario tecnico, ma un esercizio di responsabilità organizzativa; occorre chiarire chi decide di adottare uno strumento, chi lo configura, chi ne verifica i risultati e con quali metriche. La tracciabilità delle decisioni, altro cardine dell’articolo 11, comporta la conservazione di elementi che consentano a posteriori di ricostruire il percorso decisionale, su quali dati il sistema si è basato, quale peso hanno avuto determinate variabili, se sono state applicate correzioni umani, e con quale giustificazione. In termini pratici, l’HR dovrà saper dimostrare che una promozione, un trasferimento o una cessazione non sono frutto di una scatola nera incontrollabile, ma il risultato di un processo governato, verificabile e, quando necessario, discutibile.
Un profilo rilevante è il coinvolgimento delle rappresentanze dei lavoratori. L’articolo 11 spinge verso un modello di dialogo sociale in cui RSU o RSA sono informate e consultate sull’introduzione di sistemi ad alto rischio. Questo passaggio, che può apparire formale, in realtà funge da anticorpo contro derive opache o implementazioni affrettate: mettere al tavolo i soggetti collettivi permette di anticipare criticità, calibrare informative chiare e definire canali di segnalazione. In assenza di rappresentanze interne, la norma richiama il ruolo delle strutture territoriali, preservando un livello minimo di partecipazione anche nelle realtà meno strutturate. È un’impostazione coerente con il quadro europeo, che guarda all’IA non solo come tecnologia, ma come cambiamento organizzativo da governare attraverso procedure e responsabilità diffuse.
L’articolo 12 introduce un attore pubblico destinato ad avere un impatto di medio periodo: l’Osservatorio nazionale su IA e lavoro presso il Ministero del Lavoro. La funzione è duplice. Da un lato l’Osservatorio produce conoscenza, raccogliendo dati e casi d’uso, mappando i settori più esposti e monitorando gli effetti dell’IA sulle dinamiche occupazionali, sulle competenze richieste e sui rischi di esclusione. Dall’altro lato svolge un ruolo di indirizzo, promuovendo linee guida e formazione continua per imprese e lavoratori. Questo significa poter contare su un riferimento tecnico-istituzionale in grado di tradurre principi in prassi, modelli di informative, esempi di tracciabilità accettabile, criteri per valutare l’impatto etico-organizzativo prima dell’adozione di sistemi ad alto rischio. In una materia in rapida evoluzione, il raccordo con una cabina di regia pubblica aiuta ad evitare soluzioni disomogenee e, soprattutto, a costruire difese solide in caso di contenzioso.
Il terzo tassello è l’articolo 13, dedicato alle professioni intellettuali. La norma prende posizione su un tema che ha già generato fraintendimenti: l’IA non sostituisce l’apporto critico e decisionale del professionista. Il suo ruolo è strumentale, di supporto, e la responsabilità rimane in capo alla persona che presta l’opera intellettuale. Questo principio si traduce in conseguenze operative. Occorre informare il cliente in modo chiaro sull’uso dell’IA nella gestione dell’incarico, specificando quali attività sono assistite da strumenti algoritmici e con quali limiti. Gli studi professionali dovranno aggiornare le lettere d’incarico, rendere trasparenti le modalità d’uso della tecnologia e documentare l’intervento umano nelle scelte rilevanti. Non si tratta di un appesantimento burocratico, ma di una forma di accountability che tutela sia il cliente sia il professionista, preservando l’affidabilità della prestazione e chiarendo il perimetro di responsabilità in caso di errori o malfunzionamenti.
L’applicazione concreta dell’articolo 13 implica una riconsiderazione attenta del ciclo dell’incarico. Il professionista che utilizza strumenti generativi o predittivi dovrebbe esplicitare in quale fase intervengono, quali controlli umani sono effettuati sul risultato e quali margini residuano per l’errore dello strumento. La documentazione interna, anche sintetica, dell’apporto umano e dei controlli svolti è una protezione efficace in caso di contestazioni, perché dimostra che l’IA è stata gestita come un ausilio e non come un sostituto del giudizio professionale.
Sul piano applicativo, il tratto comune delle tre disposizioni è l’idea di “adozione governata”. L’IA può migliorare produttività, sicurezza e qualità delle decisioni, ma solo se è incardinata in processi che ne garantiscano la controllabilità.
In prospettiva, gli articoli 11, 12 e 13 delineano un equilibrio moderno tra innovazione e diritti. Il messaggio di fondo è che l’IA può essere alleata del lavoro soltanto se inserita in una cornice di responsabilità. La trasparenza non è un optional, ma il presupposto per decisioni legittime e sostenibili; la partecipazione non è un ostacolo, ma la condizione per prevenire discriminazioni e fraintendimenti; la tracciabilità non è un adempimento fine a sé stesso, ma lo strumento che consente di spiegare, correggere e, se necessario, rimediare.
Autore: Dott. Roberto Camera