TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

1. Introduzione. Un anno dopo l’AI Act: prime evidenze dalla contrattazione collettiva

A un anno dalla promulgazione del Regolamento (UE) 1689/2024 sull’intelligenza artificiale, noto come AI Act, si apre per lo studioso una fase di osservazione e valutazione degli effetti che tale disciplina – seppur non entrata interamente in vigore – comincia a produrre, anche nell’ambito della contrattazione collettiva. Il Regolamento come noto si applica in modo trasversale a numerosi contesti, compresi i luoghi di lavoro, e introduce una struttura di regolazione graduata, fondata su una classificazione dei sistemi in base al livello di rischio . Accanto a una serie di pratiche vietate – tra cui il social scoring e il riconoscimento delle emozioni in ambito occupazionale – il legislatore europeo prevede obblighi rafforzati per i sistemi ad alto rischio, che comprendono una vasta gamma di sistemi utilizzabili in ambito lavorativo.
Queste tecnologie, spesso presentate in chiave futuribile, sono invece già operative nella quotidianità aziendale. L’intelligenza artificiale viene oggi utilizzata per la selezione automatizzata dei CV, l’assegnazione delle mansioni, l’assistenza conversazionale con chatbot, la generazione di contenuti e persino per il supporto a decisioni manageriali fondate su analisi predittive . Il diritto del lavoro si trova così nella posizione di dover comprendere e disciplinare strumenti tecnicamente complessi ma ormai diffusi, e potenzialmente pervasivi.
In questo scenario, la contrattazione collettiva è chiamata a svolgere un ruolo tanto più rilevante quanto più incerto appare l’equilibrio tra innovazione, tutela dei diritti e organizzazione del lavoro. La possibilità di riconfigurare gli assetti lavorativi attraverso l’intelligenza artificiale interpella direttamente l’autonomia collettiva, la quale è chiamata non solo a porre limiti, ma anche a costruire nuove cornici di legittimità, di responsabilità e – non da ultimo – di partecipazione.
Il presente contributo si propone, con finalità esplorativa ma non meramente descrittiva, di tracciare una prima road map della regolazione contrattuale dell’IA attraverso l’analisi di alcune clausole introdotte nei rinnovi dei principali contratti collettivi nazionali sottoscritti tra il 2023 e il 2025. L’intento è duplice: da un lato, ricostruire in chiave sistematica le principali soluzioni adottate sul piano pattizio; dall’altro, interrogarsi se e in quale misura tali esperienze riescano a dare attuazione concreta ai principi indicati dal diritto europeo, in particolare quelli di trasparenza, controllo umano e tutela dei diritti fondamentali.
Il percorso si sviluppa lungo sei tappe. Dopo un inquadramento del Regolamento europeo (par. 2), si esamina la questione della qualificazione del rischio e il ruolo delle parti sociali nella sua determinazione, con un affondo critico sul rinnovo del CCNL chimico farmaceutico che come si vedrà deroga in pejus il Regolamento AI (par. 3). Si affronta quindi il tema dell’IA generativa nel lavoro creativo, con particolare riferimento alla disciplina dei diritti della personalità dei lavoratori, alla immagine e alla voce (par. 4), per poi considerare la questione della revisione degli inquadramenti e della classificazione professionale e il diverso atteggiamento dei sindacati maggiormente rappresentativi e di quelli poco o per nulla rappresentativi (par. 5). Il sesto paragrafo è dedicato agli strumenti di monitoraggio congiunto, tra osservatori, commissioni paritetiche e cabine di regia (par. 6). Le riflessioni conclusive (par. 7) provano infine a identificare i punti ancora irrisolti: dalla strutturazione dei diritti sindacali d’informazione sull’algoritmo, al rischio di sottovalutare la portata trasformativa dell’IA generativa nei processi di lavoro.

2. Il Regolamento AI e le implicazioni per il lavoro: definizione, ambito, divieti e regole di rischio
Il Regolamento (UE) 1689/2024 sull’intelligenza artificiale rappresenta il primo tentativo organico, sul piano giuridico, di disciplinare l’impiego dell’IA all’interno dell’Unione europea. La scelta operata dal legislatore sovranazionale è quella di un impianto normativo che guarda all’AI come un bene commerciabile ed è quindi rivolto a limitare o procedimentalizzare la messa in commercio, l’importazione e, solo dopo, l’utilizzo dei sistemi, secondo una logica basata sulla valutazione del rischio . In tale assetto, i sistemi di intelligenza artificiale sono sottoposti a obblighi differenziati in base al loro potenziale impatto sui diritti fondamentali delle persone.
Dal punto di vista definitorio, il Regolamento adotta una nozione ampia di sistema di IA, qualificandolo come un sistema automatizzato in grado di dedurre, sulla base di dati di input, output destinati a produrre effetti concreti in ambienti fisici o virtuali (cd. capacità inferenziale). Sono inclusi tanto i sistemi basati su apprendimento automatico (machine learning, deep learning), quanto gli algoritmi strutturati su regole logiche o classificatorie. Sono invece esclusi i software che si limitano a svolgere operazioni preimpostate dall’uomo e perciò prive di autonoma capacità inferenziale, come accade per i fogli di calcolo tradizionali o per i database .
Sul piano delle garanzie, il Regolamento vieta alcune pratiche ritenute lesive della dignità e dei diritti fondamentali dell’uomo. In particolare, è fatto espresso divieto di immettere sul mercato o utilizzare (art. 5) sistemi di social scoring, riconoscimento delle emozioni e categorizzazione biometrica nei contesti lavorativi. Tali tecnologie, pur diffuse a livello globale, sono considerate intrinsecamente inaffidabili o discriminatorie, e vengono perciò escluse dall’ambito di legittimità, salvo deroghe puntuali e rigorosamente tipizzate, su cui si tornerà infra.
Particolarmente rilevante, ai fini del presente contributo, è la disciplina dedicata ai cosiddetti sistemi ad alto rischio, tra i quali rientrano quelli utilizzati nella gestione dei rapporti di lavoro. Uno dei punti critici già emersi nell’applicazione dell’AI Act riguarda la possibilità, riconosciuta al produttore o al fornitore, di escludere unilateralmente che un determinato sistema rientri nella categoria dell’alto rischio, in base all’uso previsto o alla destinazione dichiarata.
Qualora il sistema sia riconosciuto ad alto rischio, il Regolamento prevede obblighi rafforzati per i soggetti coinvolti. I fornitori sono tenuti a garantire trasparenza tecnica, predisporre istruzioni chiare e abilitare meccanismi di supervisione umana. I deployer, tra cui rientrano i datori di lavoro, devono assicurarsi che il sistema venga utilizzato in conformità alle istruzioni ricevute, prevedere la sorveglianza effettiva da parte di persone formate e informare in via preventiva le rappresentanze dei lavoratori.
Tali obblighi, peraltro, si innestano su una pluralità di fonti parallele: dalla disciplina statutaria che vieta il controllo a distanza sulla prestazione lavorativa (art. 4 st. lav.) a quella in materia di privacy (Reg. UE 2016/679), alla normativa sulla salute e sicurezza (d.lgs. 81/2008), fino alle previsioni sul diritto all’informazione e consultazione sindacale (d.lgs. 25/2007 e cfr. art. 1 bis d.lgs. 152/1997) . Il Regolamento stesso, nei considerando 9 e 11, afferma la propria natura complementare rispetto ad altre fonti di tutela, comprese le norme pattizie prodotte dalle parti sociali.

3. Qualificazione del rischio e limiti della regolazione pattizia: osservazioni sul CCNL chimico-farmaceutico

Tra i profili più rilevanti introdotti dal Regolamento europeo sull’intelligenza artificiale vi è senza dubbio quello relativo alla qualificazione del rischio dei sistemi, con particolare riferimento alla distinzione tra pratiche vietate e sistemi ad alto rischio, nonché all’individuazione dei soggetti legittimati a compiere tale qualificazione.
In questo quadro, assume particolare interesse la clausola introdotta nel rinnovo del CCNL per gli addetti all’industria chimica e chimico-farmaceutica, sottoscritto il 15 aprile 2025 da Federchimica e Farmindustria con Filctem-Cgil, Femca-Cisl e Uiltec-Uil.
Le parti condividono l’esigenza di un “utilizzo etico, inclusivo e sostenibile” dell’intelligenza artificiale, con un richiamo esplicito alla necessità di valutare preventivamente gli impatti dell’introduzione di sistemi ad alto rischio, «identificandosi come tali ai sensi delle norme di legge quelli che, per la loro natura o per il contesto in cui vengono impiegati, possono rappresentare un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche» (corsivo di chi scrive). Quel che è interessante è che la clausola prosegue elencando, seppur in via esemplificativa, alcune applicazioni riconducibili a tale categoria dei sistemi ad alto rischio: «(tra questi rientrano i software utilizzati nel campo dell'occupazione, della gestione dei lavoratori, l'identificazione biometrica remota, il riconoscimento delle emozioni e la categorizzazione, i sistemi di profilazione delle persone)».
Una lettura più analitica della clausola 2) delle linee guida rivela come gli esempi elencati a fini qualificatori facciano riferimento a pratiche già oggetto di disciplina nel Regolamento europeo. Alcune di esse – in particolare il riconoscimento delle emozioni e la categorizzazione biometrica, cui si aggiunge l’identificazione biometrica remota, da tempo oggetto di particolare attenzione da parte del Garante nazionale per la protezione dei dati personali – rientrano tra le pratiche espressamente vietate dal Regolamento. Si tratta, dunque, di impieghi non suscettibili di legalizzazione ad opera del contratto collettivo, nemmeno per il tramite il ricorso a garanzie rafforzate. Altre tecnologie menzionate nella medesima clausola, invece, sono classificabili come sistemi ad alto rischio, la cui utilizzazione è subordinata al rispetto degli obblighi specificamente previsti per fornitori e utilizzatori. Il contratto collettivo, in questo passaggio, finisce per assimilare prassi espressamente vietate — e dunque qualificate dal Regolamento come sistemi a rischio inaccettabile — a tecnologie rientranti nella categoria dei sistemi ad alto rischio, suscettibili di impiego subordinatamente al rispetto di specifici obblighi. Questa sovrapposizione concettuale, pur forse non intenzionale, rischia di produrre ambiguità interpretative rilevanti, in particolare laddove si dia per ammesso ciò che il legislatore europeo ha invece ritenuto incompatibile in via assoluta con i diritti fondamentali.
È evidente che nessuna clausola contrattuale può introdurre deroghe in senso peggiorativo rispetto a quanto previsto da un Regolamento europeo direttamente applicabile. Tuttavia, la formulazione adottata nel CCNL finisce per giustificare aperture interpretative che potrebbero legittimare anche l’impiego di sistemi di IA per finalizzazioni collocate nel Regolamento al confine tra divieti e deroghe agli stessi, nei termini che saranno spiegati di seguito e, peraltro, senza offrire adeguati elementi di delimitazione o chiarimento.
Non a caso, il primo nodo problematico si presenta proprio sul terreno delle pratiche vietate dall’AI ACT, in particolare con riferimento ai sistemi di riconoscimento delle emozioni, la cui proibizione subisce un’eccezione dai contorni incerti nel caso in cui tali sistemi siano immessi sul mercato o attivati per finalità mediche o di sicurezza (art. 5, par. 1, lett. f). Il busillis sta proprio nella definizione giuridica di emozione. In proposito, il considerando 18 del Regolamento distingue tra, da un lato, le emozioni in senso proprio (felicità, tristezza, rabbia, sorpresa, ecc.), la cui rilevazione è espressamente vietata; e, dall’altro, alcuni stati fisici o fisiologici (dolore, affaticamento), che, pur potendo essere classificate come emozioni – cioè come stato psicofisiologico complesso e transitorio, che si attiva in risposta a uno stimolo interno o esterno rilevante per l’organismo – sembrano restare esclusi dall’ambito applicativo del divieto. È in questa zona grigia che la clausola contrattuale finisce, forse involontariamente, per legittimare l’uso di sistemi di IA (si pensi all’IA integrata nei wearable), rivolti a rilevare stati di affaticamento o di stress psicofisico a fini di tutela della salute e sicurezza sul lavoro. Tale involontaria? apertura, tuttavia, non è accompagnata da una regolazione puntuale. Il contratto non affronta, ad esempio, le delicate questioni relative all’attendibilità scientifica dei dispositivi, né quelle riguardanti la protezione dei dati sanitari, che — ai sensi del d.lgs. 81/2008 e del GDPR — dovrebbero essere trattati esclusivamente dal medico competente. Si rischia, in questo modo, di affidare alla sola discrezionalità aziendale l’utilizzo di strumenti altamente invasivi, senza adeguati presìdi tecnici, organizzativi o negoziali.
L’operazione qualificatoria operata dal contratto collettivo in parola, poi, si scontra con un altro caso dubbio lasciato dall’AI Act, ossia la facoltà di commerciare e impiegare in azienda sistemi di sentiment analysis per motivi di “sicurezza”. Anche in questo ambito, il Regolamento non fornisce indicazioni univoche: resta, ad esempio, il dubbio se la “sicurezza” da tutelare debba intendersi come sicurezza collettiva (in contesti pubblici o ad alto rischio), oppure come sicurezza del singolo lavoratore. In assenza di chiarimenti normativi, si è già osservato che una lettura restrittiva appare preferibile, sia per la natura eccezionale della deroga, sia in coerenza con la ratio di tutela della dignità personale espressa dal considerando 44. Tale interpretazione trova ulteriore conferma nel considerando 18, che individua come unica ipotesi esemplificativa di deroga legittima quella relativa ai conducenti professionisti — ad esempio piloti — incaricati del trasporto di persone. Eppure, la clausola del CCNL chimico-farmaceutico, nel qualificare genericamente l’affaticamento come ambito a rischio, potrebbe legittimare l’utilizzo di dispositivi analoghi anche in contesti del tutto diversi, dove il bilanciamento tra finalità e intrusività non è affatto scontato.
In questo senso, l’assenza di una delimitazione esplicita della deroga e dei suoi presupposti rischia di tradursi in un’apertura eccessiva, che sottovaluta i rischi connessi alla sorveglianza fisiologica dei lavoratori e alla possibile reintroduzione, per via negoziale, di Pratiche che il Regolamento qualifica come intrinsecamente lesive della dignità della persona, e che per di più presentano rilevanti criticità sotto il profilo dell’attendibilità inferenziale, anche in considerazione delle difficoltà tecniche incontrate dai produttori nel costruire dataset di allenamento affidabili — ad esempio, nella capacità di distinguere correttamente il livello di affaticamento tra soggetti di genere diverso.

In terzo luogo, particolarmente critica si rivela la delega in bianco alla contrattazione di secondo livello che il CCNL per gli addetti all’industria chimica e chimico-farmaceutica contiene rispetto al tema della biometria, il cui impiego – ben prima della emanazione dell’AI act che peraltro ne vieta solo la categorizzazione – è inibito dal Garante per la protezione dei dati personali .
Vi è poi da mettere in rilievo un secondo profilo collegato alla qualificazione dei dispositivi, posto che la linea guida contiene un richiamo esplicito alla necessità di valutare preventivamente gli impatti dell’introduzione di sistemi ad alto rischio. Ebbene, non è chiaro nel testo contrattuale se la valutazione d’impatto debba avvenire in modo condiviso, né in quali forme debba realizzarsi il coinvolgimento delle rappresentanze sindacali. L’assenza di riferimenti a strumenti esistenti, come l’Osservatorio sulla digitalizzazione previsto dallo stesso contratto, lascia intendere che tale valutazione resti in capo all’impresa, senza che siano previste garanzie partecipative nella stesura del documento di valutazione degli impatti di questi sistemi.
In definitiva, la scelta di inserire tale clausola non è priva di significato. Segnala, infatti, la volontà delle parti sociali di intercettare precocemente gli effetti giuridici e organizzativi dell’IA, integrando nel tessuto contrattuale categorie giuridiche di matrice regolatoria. Ma la portata effettiva di questa operazione resta, al momento, limitata. La qualificazione di un sistema come “ad alto rischio”, per quanto evocata, non viene procedimentalizzata, né agganciata a un obbligo negoziale. È dunque affidata a una valutazione unilaterale dell’impresa, con il rischio che si risolva in una clausola di stile più che in uno strumento operativo. Dunque, ci si trova di fronte a un intervento importante sul piano simbolico, che apre alla possibilità di una gestione negoziata del rischio tecnologico, ma che al contempo evidenzia i limiti attuali della regolazione pattizia: da un lato, la difficoltà di tradurre nel linguaggio contrattuale categorie giuridiche di recente formulazione; dall’altro, la necessità di dotarsi di procedure e strumenti capaci di rendere effettivo l’impegno enunciato.
La sfida, dunque, non è solo quella di riconoscere l’esistenza del rischio, ma di disciplinarne in modo condiviso la valutazione, la gestione e, quando necessario, l’esclusione.

4. IA generativa e diritti della persona nel lavoro creativo: il tentativo regolativo della contrattazione collettiva

Nel dibattito sul lavoro e sull’intelligenza artificiale, il settore creativo rappresenta un banco di prova particolarmente sensibile. A differenza di altri comparti, in cui l’IA supporta o automatizza processi decisionali e lavorativi, nel mondo dello spettacolo e della produzione audiovisiva, l’intelligenza artificiale non si limita ad accompagnare il processo creativo, ma interviene potenzialmente in modo sostitutivo, clonando elementi essenziali dell’opera — come la voce, il volto, il gesto o la parola dell’interprete — e rendendo possibile la riproduzione artificiale dell’identità artistica stessa.
Ne è prova la lunga stagione di scioperi che ha interessato il settore statunitense tra il 2023 e il 2024, durante i quali attori e sceneggiatori (SAG-AFTRA e WGA) hanno rivendicato tutele contro l’uso dell’IA da parte delle piattaforme, in particolare Netflix e Disney, per la generazione di copioni o la riproduzione digitale di volti e voci .
In Italia, due contratti collettivi recentemente rinnovati affrontano con maggiore sistematicità l’impatto dell’IA generativa sulla prestazione artistica.
Il primo è il CCNL Attori e Interpreti, sottoscritto il 20 dicembre 2023 da Anica, Apa, Apee da Slc-Cgil, Fistel-Cisl e Uilcom-Uil. All’art. 20, il contratto riconosce che l’innovazione tecnologica è un processo irreversibile, ma insiste sulla necessità di salvaguardare il lavoro artistico e i diritti della persona, in particolare per quanto riguarda l’uso di immagine e voce. Le parti perciò si impegnano a giungere quanto prima a una regolamentazione specifica delle cessioni dei diritti di performance, con riferimento espresso alle applicazioni dell’IA.
In attesa di tale accordo, trova applicazione una clausola di salvaguardia: qualsiasi utilizzo dell’immagine o della voce dell’interprete è lecito solo se limitato al prodotto originario (e alle sue finalità promozionali). È invece considerato illegittimo ogni riuso parziale, frammentario o manipolativo, inclusi l’addestramento algoritmico, la clonazione vocale o la generazione di nuove opere. Fanno eccezione solo alcune attività tecniche di post-produzione – montaggio, editing, correzione colore – purché non alterino in modo sostanziale l’identità dell’interprete attraverso IA.
Di particolare rilievo è infine la previsione di un tavolo permanente, composto da rappresentanti dell’intera filiera, con il compito di monitorare gli sviluppi normativi e tecnologici e di regolare congiuntamente gli effetti dell’innovazione digitale sul lavoro artistico.
Un’impostazione analoga è rinvenibile nell’art. 22, CCNL Doppiatori, stipulato il 7 dicembre 2023 tra ANICA e le medesime federazioni sindacali. Anche qui si riconosce che l’IA generativa è già in atto, ma si pone un limite esplicito alla sua espansione: è fatto divieto di utilizzare la voce dell’interprete, o i testi redatti da dialoghisti e adattatori, per campionamento, data mining o addestramento di modelli di IA. A presidio di tali divieti, il contratto prevede l’istituzione di una Commissione paritetica di garanzia, incaricata di vigilare sull’attuazione della disciplina e di raccogliere dati sull’evoluzione tecnologica.
Pur con accenti diversi, entrambi i contratti condividono una prospettiva comune: il riconoscimento che la voce, l’immagine e la presenza scenica non sono semplici materiali riproducibili, ma elementi costitutivi della persona che li genera. La contrattazione collettiva si muove, in questo senso, su un terreno ibrido tra diritto del lavoro e diritti della personalità, cercando di delineare un perimetro di legittimità in cui l’innovazione non degeneri in espropriazione dei contenuti creativi dell’artista. Si tratta, con ogni evidenza, di un primo passo: non esaustivo, ma capace di prefigurare un nuovo lessico regolativo, in cui la protezione del lavoro artistico si fonda su criteri di consenso, riconoscimento e non replicabilità.
Il tema dell’impiego dell’intelligenza artificiale generativa nei luoghi di lavoro resta, in tutta evidenza, uno dei più delicati e controversi. Questo contributo si è limitato ad esplorarne alcune implicazioni nel contesto della contrattazione collettiva, rimandando a successivi approfondimenti un’analisi più ampia e sistematica. Resta tuttavia una considerazione di fondo: la protezione del lavoro creativo, soprattutto nelle sue forme più espressive e identitarie, non può essere affidata esclusivamente agli strumenti del diritto industriale, come il copyright o i diritti connessi. Un approccio più attento alla centralità della persona potrebbe richiedere il riconoscimento della voce, dell’immagine e della corporeità digitale come dati personali inalienabili del lavoratore, non disponibili alla cessione né suscettibili di commercializzazione. Si tratterebbe, in questa prospettiva, di rifiutare l’assimilazione dei frammenti individuali a beni economici negoziabili, in favore di una lettura che valorizzi la natura non dominicale di tali elementi, il cui trattamento dovrebbe restare ancorato alla logica del consenso, della dignità e dell’intangibilità.

5. L’intelligenza artificiale nella revisione degli inquadramenti tra prudenza negoziale e sperimentazioni mediatiche

Nel bel mezzo del dibattito pubblico sull’intelligenza artificiale – spesso dominato da scenari di sostituzione del lavoro umano e disoccupazione tecnologica –, dai percorsi della Contrattazione collettiva, in particolare nel settore del commercio e terziario emerge un dato, che va letto con particolare attenzione perché è frutto delle storture provocate dall’assenza di una legge che regola rappresentanza e rappresentatività sindacale.
S’incominci dicendo che in tale settore Confcommercio segnala che sempre più imprese adottano chatbot, analisi predittive e sistemi intelligenti per la personalizzazione dell’offerta, l’ottimizzazione dei prezzi e la gestione dell’assortimento e che dunque ciò rende probabile che nuove figure professionali, direttamente collegate al ciclo di vita dei sistemi intelligenti dalla progettazione all’implementazione, dalla gestione etica al monitoraggio degli effetti, divengano indispensabili per le imprese. Peraltro, tali nuove figure professionali, legate all’analisi dei dati, all’etica dell’IA o alla psicologia comportamentale risponderebbero anche a un’esigenza centrale dell’AI Act: la garanzia della supervisione umana significativa nei sistemi ad alto rischio. Infatti, l’intelligenza artificiale, per essere ammessa e legittimata negli ambienti di lavoro, non può operare in isolamento: deve essere incorporata in una rete di sorveglianza, controllo e responsabilità umana, che il contratto collettivo dovrebbe tentare, con strumenti propri, di istituzionalizzare.

Nonostante ciò, occorre prestare particolare attenzione a “pesare” la reale rappresentatività, nel settore considerato, dei soggetti che sino ad ora hanno stipulato i CCNL che confezionano inquadramenti innovativi inserendo le nuove professionalità anzidette. Si tratta infatti di CCNL non siglati dai sindacati confederali dei lavoratori maggiormente rappresentativi e che si insinuano in vie parallele rispetto alla rappresentanza datoriale di Confcommercio, Confesercenti o Federdistribuzione.
Si consideri infatti che va in questa direzione il rinnovo del CCNL per le aziende del settore terziario aderenti a Sistema Impresa-Confsal (Sistema Impresa e AIFOS con Fesica Confsal), firmato il 2 settembre 2024, con validità dal 1° maggio 2023 al 31 marzo 2027, dove l’articolo 96-bis introduce una nuova sezione (D) nella classificazione del personale, dedicata a figure professionali con competenze specifiche nell’ambito dell’IA. Accanto alla ristrutturazione della sezione ICT, vengono individuate nuove professionalità quali l’ingegnere software per il machine learning, l’ingegnere dei dati, il sustainability manager, gli scienziati comportamentali e cognitivi, e i consulenti di IA. Una linea simile è poi seguita nel CCNL Commercio, aggiornato il 15 aprile 2025 da Conflavoro, Fesica-Confsal e Confsal. Qui il contratto prevede l’inserimento di due figure specializzate: l’addetto senior alla gestione e coordinamento IA e l’esperto in etica dell’IA e responsabilità. Il compito di questi profili non è soltanto tecnico, ma anche valutativo: monitorare gli effetti dell’introduzione dell’IA in azienda, misurare il rischio di sostituzione tecnologica e proporre soluzioni che valorizzino le competenze esistenti, anziché neutralizzarle.

Diversamente, i rinnovi dei CCNL nel settore firmati da organizzazioni sindacali e datoriali maggiormente rappresentative non hanno sinora sentito l’esigenza di far specifico riferimento alle figure legate all’AI negli inquadramenti; continuando a mantenere dizioni generiche, specialmente nel terziario avanzato, dove i contratti fanno semplicemente riferimento a figure con “competenze digitali”. Un po’ più in là si spinge poi il rinnovo del CCNL Comunicazione, Informatica e Servizi Innovativi (8 aprile 2025), firmato da Unigec Confapi e Unimatica Confapi con Fistel Cisl, Slc Cgil e Uilcom Uil, adotta una prospettiva più graduale di governance di medio periodo. In assenza di interventi immediati sulla classificazione, il contratto istituisce una Commissione paritetica con il compito di esaminare l’impatto dell’IA sull’adeguatezza delle qualifiche esistenti, monitorare l’evoluzione normativa e formulare proposte per l’aggiornamento dei profili professionali. Si tratta di un dispositivo di studio, verifica e adattamento, che assume come dato il cambiamento e ne ricerca una traduzione pattizia nel tempo.
La discrasia appena evidenziata sollecita inevitabilmente una riflessione sulla ragione di una tale differenziazione. La prudenza mostrata dalla contrattazione collettiva di livello confederale, che risponde alla responsabilità di rappresentare un’ampia e articolata platea di lavoratori, può essere letta come l’espressione di un approccio volto a evitare scelte affrettate, preservando margini di valutazione su cambiamenti che, una volta assunti, sarebbero difficilmente reversibili.
Diversamente, alcune esperienze contrattuali di ambito più ristretto, spesso sottoscritte da soggetti scarsamente rappresentativi, sembrano talora orientate a inseguire l’attenzione mediatica generata dal tema dell’intelligenza artificiale, sfruttandone l’attrattività nel dibattito pubblico e nella comunicazione.
Ciò non toglie, tuttavia, che in prospettiva anche la contrattazione collettiva maggiormente strutturata sarà chiamata a interrogarsi su come contribuire a una possibile ridefinizione delle classificazioni professionali nell’era dell’IA, qualora l’evoluzione dei contesti lavorativi ne evidenzi una reale esigenza.

6. Governare l’innovazione: osservatori, commissioni e forme di monitoraggio paritetico

Accanto alla regolazione dei contenuti, l’emersione dell’intelligenza artificiale nei luoghi di lavoro sollecita una riflessione sul governo dei processi di trasformazione . La natura opaca, adattiva e spesso imprevedibile, quanto agli effetti, dei sistemi intelligenti impone infatti che la regolazione non si esaurisca in norme statiche, ma si affidi a strutture dinamiche capaci di vigilanza e adattamento. È in questa direzione che si collocano numerose esperienze contrattuali recenti che istituiscono osservatori, commissioni paritetiche o tavoli permanenti, pensati come sedi stabili di confronto sul cambiamento tecnologico.
Nel rinnovo del CCNL per l’industria chimica e chimico-farmaceutica (15 aprile 2025), le parti rilanciano l’Osservatorio per la trasformazione digitale già istituito nel 2022, individuando in esso lo spazio deputato al confronto sulle implicazioni dell’IA, in particolare in termini di salute, sicurezza, supervisione umana e protezione dei dati. L’Osservatorio è anche il luogo di raccolta delle esperienze aziendali e di raccordo con la formazione sindacale, secondo una logica di apprendimento continuo.
Una logica analoga guida la clausola del CCNL Attori e Interpreti (20 dicembre 2023), che prevede l’istituzione di un tavolo permanente sulla tecnologia rappresentativo dell’intera filiera cine-audiovisiva. La sua funzione è duplice: da un lato monitorare l’evoluzione normativa e tecnologica, dall’altro favorire una regolazione concertata dell’impatto dell’IA generativa sul lavoro artistico.
Ancora più centrata sulla qualificazione professionale è l’esperienza del rinnovo Unigec – Unimatica (aprile 2025), che istituisce una commissione paritetica per la classificazione dei lavoratori, con il compito di verificare l’adeguatezza degli inquadramenti rispetto all’introduzione di nuove tecnologie, compresa l’intelligenza artificiale.
Nel settore del doppiaggio, infine, è la Commissione paritetica di garanzia a farsi carico del controllo sull’utilizzo dei dati vocali e testuali, con il compito di vigilare sul rispetto dei divieti di text and data mining e sul legittimo impiego delle voci nei sistemi generativi.
Particolare attenzione merita infine il settore del credito, storicamente esposto all’automazione dei processi decisionali (credit scoring, profilazione del rischio, sistemi antifrode), e oggi al centro di una rapida transizione verso strumenti di intelligenza artificiale predittiva e generativa. Proprio in questo contesto, la contrattazione collettiva ha introdotto strumenti di cabina di regia a livello aziendale, con funzioni di vigilanza congiunta e trasparenza sull’impiego degli algoritmi, sulle loro finalità, e sugli effetti sull’occupazione. L’esperienza mostra come, anche in comparti ad alta intensità tecnologica, sia possibile costruire forme pattizie di governance dell’innovazione, basate sul coinvolgimento anticipato delle rappresentanze e su dispositivi di controllo ex ante.
Pur nella diversità delle formulazioni, queste esperienze condividono una convinzione comune: la regolazione dell’IA non può essere affidata a clausole isolate, ma necessita di luoghi stabili, condivisi e informati, dove si intreccino visioni, esperienze e competenze. In un contesto tecnologico in continua evoluzione, la contrattazione collettiva sembra recuperare un ruolo di regia partecipata, in grado di non subire il cambiamento ma di accompagnarlo, indirizzarlo e, quando necessario, limitarlo.

7. Conclusione. Quello che (ancora) manca

L’analisi delle più recenti esperienze di contrattazione collettiva restituisce un quadro vitale, in cui le parti sociali non si limitano a difendere lo status quo, ma tentano di regolare i primi impatti noti dell’intelligenza artificiale nei luoghi di lavoro.
Tuttavia, questo stesso dinamismo mette in luce le zone d’ombra di un processo ancora incompiuto.
Manca, innanzitutto, una riflessione pienamente giuridica sull’oggetto dell’automazione: troppo spesso i testi contrattuali si limitano a richiamare principi generali (etica, trasparenza, supervisione umana), senza concretizzare regole specifiche sui comportamenti che le parti devono detenere.
Ancora troppo timida, inoltre, è la costruzione di una via contrattuale per governare l’algoritmo come oggetto di informazione e confronto sindacale. Nella maggioranza delle parti prime dei CCNL rinnovati, manca una strutturazione organica dei diritti di informazione e consultazione sulla logica dei sistemi intelligenti, sul loro funzionamento e sugli impatti attesi. Tali diritti – tanto a livello di categoria quanto a livello aziendale – rappresenterebbero una via primaria di conoscenza e vigilanza collettiva. Una volta garantito l’accesso alle informazioni, saranno poi le organizzazioni sindacali a dover elaborare, categorizzare e tradurre i dati ricevuti in strumenti di contrattazione e tutela. La premessa indispensabile è l’accesso alle informazioni, sia inteso come informazione ex ante che come informazione ex post (diritto d’accesso) : senza una visibilità preliminare sulle logiche algoritmiche, non può esistere una contrattazione realmente informata.
Un’ombra di questa consapevolezza si intravede nel recente rinnovo del CCNL Gas-Acqua (8 maggio 2025), che – pur senza formalizzare un diritto all’informazione algoritmica – prevede iniziative formative congiunte rivolte alle RSU sui temi della digitalizzazione, dell’intelligenza artificiale e degli impatti organizzativi. È un primo passo, utile ma ancora esplorativo, verso un modello di partecipazione che abbia nella conoscenza tecnica il suo prerequisito e nella contrattazione collettiva il suo spazio naturale di applicazione.
Un ulteriore profilo di ritardo riguarda la mancanza di una riflessione strutturata sull’uso dell’IA generativa come strumento operativo nei processi aziendali. Se in alcuni contratti – come quello dell’industria chimica – il tema viene solo sfiorato attraverso richiami generici alla conformità e alla sicurezza, manca ancora una consapevolezza diffusa dei rischi di dispersione del know-how, violazione della riservatezza e perdita di controllo sui dati strategici. L’utilizzo smodato o non sorvegliato di sistemi generativi per la redazione di documenti tecnici, proposte progettuali o analisi interne può infatti compromettere la protezione dei segreti industriali, con conseguenze potenzialmente gravi in termini di competitività e responsabilità giuridica. Anche su questo fronte, la contrattazione collettiva è chiamata a strutturare garanzie sostanziali e protocolli condivisi, per un uso consapevole e tracciabile di strumenti ad altissimo potenziale, ma non privi di insidie.
E infine, manca una vera capacità di interrogarsi sul dato, sul corpo digitale del lavoratore. I testi più avanzati iniziano a cogliere la delicatezza dell’uso dell’immagine e della voce, ma la questione dell’identità digitale, della tracciabilità costante e della profilazione permanente rimane in larga parte inesplorata. Forse è tempo di chiedersi se non serva una nuova grammatica contrattuale per una condizione post-fordista in cui l’essere umano è non solo forza-lavoro, ma anche fonte di dati.
È su questi terreni ancora incerti – dove diritto, tecnica e politica si incontrano – che si giocherà la prossima sfida della contrattazione collettiva. Non si tratta solo di regolare l’IA, ma di riscrivere, con intelligenza (umana), la forma del lavoro che verrà.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.