testo integrale con note e bibliografia
1. IL TEMA DI INDAGINE
Da tempo si parla dei rischi connessi all’utilizzo dell’intelligenza artificiale nel mondo del diritto del lavoro: ci si divide tra entusiasti e detrattori, tra chi intravede il futuro dell’umanità affidato all’intelligenza artificiale e chi viceversa ritiene che l’intelligenza artificiale possa soppiantare l’umanità, sostituendosi ad essa . Sono gli stessi timori nati con la rivoluzione industriale, quando le macchine hanno iniziato a sostituire il lavoro umano e la dottrina giuslavoristica ha iniziato ad occuparsi del fenomeno, molto spesso con immutati interrogativi di fondo .
Già nel Libro Bianco della Commissione Europea sull’intelligenza artificiale, del 19 febbraio del 2020, si dava atto da un lato delle potenzialità positive per gli Stati membri nell’utilizzo dell’intelligenza artificiale in vari settori, a partire dalla sanità, ma dall’altro dei rischi relativi a detto utilizzo, in relazione ai diritti fondamentali, alla protezione dei dati personali e della privacy, alla discriminazione fondata sul sesso, sulla razza, sull'origine etnica, sulla religione o sulle convinzioni personali, sulla disabilità, sull'età o sull'orientamento sessuale; di qui l’esigenza di dare al problema un approccio europeo comune; l’Unione Europea, si legge nel Libro Bianco sull’Intelligenza Artificiale, deve parlare con “un’unica voce” e definire il suo modo di promuovere lo sviluppo dell’IA nel rispetto dei valori unionali. Analoghe affermazioni si leggono nella proposta di Regolamento sull’IA della Commissione Europea dell’aprile 2021, come emendata all’esito dell’approvazione del testo da parte del Parlamento nel giugno 2023, in cui al 36° considerando, si afferma che “Durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre compromettere l'essenza dei loro diritti fondamentali in materia di protezione dei dati e vita privata”.
Dinanzi ai pericoli insiti nell’universo tecnologico emerge l’esigenza di una disciplina eurounitaria di base, che, secondo gli emendamenti proposti dal Parlamento europeo, non pregiudica comunque la possibilità sia dell’Unione che dei singoli Stati membri di prevedere norme interne più specifiche per l’utilizzo dei sistemi di IA nell’ambito dei rapporti di lavoro . La tecnologia ha invaso il mondo del lavoro, con ritmi sempre più incalzanti, mettendo l’operatore del diritto, ed in particolare del diritto del lavoro, di fronte ad una serie di problemi inediti , peraltro non governabili unicamente con la scienza giuridica: l’invasività e pervasività della tecnologia non incide soltanto sul rapporto tra lavoratore e datore di lavoro, ma anche sul rapporto tra il lavoratore e gli enti terzi che comunque gestiscono fasi specifiche del rapporto di lavoro, quale ad esempio il controllo della malattia . Il presente contributo intende verificare se ed in quale misura la sempre più incalzante dimensione digitale del lavoro possa comportare uno stravolgimento o, quanto meno, la necessità di una rimodulazione dell’impianto regolativo del diritto del lavoro, anche attraverso l’analisi della “tenuta giudiziaria” di quello esistente rispetto alle nuove e crescenti problematiche conseguenti all’utilizzo delle tecnologie nell’organizzazione del lavoro. Anticipando le conclusioni, l’analisi condotta induce a ritenere che gli strumenti di regolazione ad oggi vigenti sostanzialmente consentano di governare, anche sotto il versante processuale, i fenomeni conseguenti all’utilizzo della tecnologia nel mondo del lavoro , fermi ovviamente gli adattamenti necessari a comprendere e gestire le novità connesse alla sempre crescente eterogeneità sia delle nuove forme di lavoro che del diverso modo di rendere la prestazione lavorativa e soprattutto ferma restando la necessità di riaffermare i contenuti assiologici della disciplina lavoristica, che rendano compatibile l’ecosistema digitale ai valori costituzionali , mirando alla salvaguardia dell’apparato di tutele inderogabili per il “tecnolavoratore” sans phrase.
Del resto, la capacità di adattamento costituisce una caratteristica peculiare del diritto del lavoro, da tempo costretto a rincorrere cambiamenti di contesti socio economici, che tuttavia con la quarta rivoluzione industriale paiono avere connotati più repentini e dirompenti, incidendo sulla rarefazione o comunque sulla destrutturazione della figura datoriale, sulla nascita di nuove tipologie di lavoro e di lavoratori, su un nuovo modo di organizzare e rendere la prestazione lavorativa , su diverse modalità di esercizio delle prerogative datoriali. La conferma di quanto sostenuto si ricava dall’analisi, necessariamente ristretta e dal contenuto tematico variegato, di pronunce giurisprudenziali, soprattutto di merito, che hanno affrontato “temi nuovi”, rivenienti dal nuovo e diverso modo di lavorare tecnologico in senso ampio, con strumenti regolativi ed ermeneutici “vecchi”, sia sotto il profilo sostanziale che processuale. L’analisi sarà per tali ragioni necessariamente eterogenea quanto ai temi trattati, uniti tuttavia dal filo conduttore innanzi richiamato.
2. ALGORITMI E IMPIEGO PUBBLICO.
Particolare clamore mediatico ha prodotto l’utilizzo dell’algoritmo nei processi di mobilità del personale docente effettuati nel comparto scuola in esecuzione del piano straordinario di immissione in ruolo previsto dalla legge 107/2015. In tale contesto, il Ministero dell’Istruzione ha appaltato la gestione dei processi di mobilità del personale docente ad una società esterna, che ha gestito le operazioni di trasferimento del personale docente sul territorio italiano. Ne è derivato un notevole contenzioso, originato dal fatto che l’algoritmo utilizzato aveva provveduto ad assegnare posti o province non richiesti dai candidati al trasferimento, peraltro in assenza di qualsivoglia esplicita motivazione. Al netto degli errori di impostazione e/o di funzionamento dell’algoritmo, la giurisprudenza si è inizialmente interrogata sulla compatibilità dell’algoritmo con l’azione amministrativa. Ferma la valutazione positiva in ordine ai vantaggi derivanti dall’automazione dei processi gestionali della pubblica amministrazione mediante procedure digitali ed algoritmi, sia in termini di riduzione della tempistica procedimentale soprattutto per la gestione di procedure massive e/o standardizzate, che in termini di esclusione di interferenze dovute a comportamenti umani colposi o peggio dolosi, la giurisprudenza amministrativa si è in primis interrogata sulla compatibilità ab imis dell’algoritmo con i principi basilari che informano il procedimento amministrativo, quali ad esempio quello della trasparenza, della partecipazione procedimentale e dell’obbligo di motivazione dei provvedimenti amministrativi: principi indefettibili e prodromici ad un corretto esercizio del diritto di difesa, che viceversa risulterebbe frustrato tutte le volte in cui la violazione di detti principi non consenta in prima battuta al soggetto inciso del provvedimento, ed in via successiva ed eventuale al giudice, di comprendere l’iter logico-giuridico seguito dall’amministrazione per giungere ad un determinato approdo provvedimentale: esattamente come accaduto per i docenti incisi da illegittimi provvedimenti di trasferimento, non essendo stati gli stessi messi in grado di conoscere il funzionamento dell’algoritmo, di esercitare il diritto di accesso ai codici sorgenti del software che lo regolava, di conoscere la motivazione posta alla base del trasferimento, sì da avviare un’azione giudiziaria “al buio”. Quanto innanzi detto esclude quindi che, anche in procedimenti di particolare complicatezza ovvero ampiezza, in termini di numero di soggetti interessati ovvero di territori coinvolti, si possa giustificare la devoluzione tout court della gestione di un procedimento amministrativo ad un meccanismo informatico o matematico del tutto impersonale e privo di capacità valutazionali; le procedure informatiche non possono ritenersi surrogatorie dell’attività umana, rispetto alla quale assumono viceversa una funzione servente, con conseguente necessità di sottoporre gli esiti del funzionamento algoritmico alle verifiche (necessariamente umane) tipiche di qualsivoglia procedimento amministrativo . Il Giudice amministrativo ha quindi ritenuto che l’utilizzo dell’algoritmo in sede decisoria pubblica presuppone due elementi di garanzia basilari, costituiti: a) dalla piena conoscibilità a monte del modulo utilizzato e dei criteri applicati ; b) dall’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo, al fine evidente di rendere trasparenti – e quindi ex post sindacabili – le regole e le modalità e con le quali sia stato assunto un determinato provvedimento , in applicazione dell’art. 22 del GDPR, secondo cui l’interessato ha il diritto di non essere sottoposto a una decisione basata sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona. La ricaduta in termini processuali dei principi sopra riportati comporta che gli oneri probatori in ordine alle modalità di funzionamento ed al corretto utilizzo dell’algoritmo ricadano sulla parte datoriale, ferma restando la possibilità, in sede giudiziaria, di acquisire l’algoritmo utilizzato al fine di comprenderne il funzionamento. Trattasi peraltro di una regola processuale di carattere generale applicabile, sia nel pubblico che nel privato, con riferimento alla verifica giudiziale in ordine al corretto esercizio dei poteri datoriali che incidono sulla posizione soggettiva del lavoratore, in quanto “il rispetto del limite al potere datoriale costituisce fatto costitutivo del legittimo esercizio dello stesso, con onere che incombe, per diretta applicazione dell’art. 2697 c.c., in capo al datore di lavoro” .
3. ALGORITMI E DISCRIMINAZIONE.
Anche con riferimento ai comportamenti discriminatori, la normativa sostanziale e gli strumenti di tutela processuale esistenti paiono aver co-stituito una efficace barriera rispetto ai rischi derivanti dalla gestione au-tomatizzata dell’attività lavorativa. In termini sostanziali, infatti, non pa-re che i comportamenti discriminatori possano ritenersi ontologicamen-te mutati nel nuovo contesto digitale. Deve escludersi, ad esempio, che possa parlarsi di una nuova “discriminazione da algoritmo”: cambiano, sicuramente ed incisivamente, le modalità con le quali gli effetti discri-minatori possono prodursi (per interposta macchina/calcolo) ma non i contorni della discriminazione, che rimangono immutati, ove si conside-ri che l’algoritmo, in fase di programmazione, di immissione dati o in senso lato di gestione, riceve comunque un input umano, in maniera de-liberata, consapevole o anche inconsapevole, cui correlare le responsabi-lità derivanti dal suo utilizzo. Deve quindi escludersi l’idea, in sé perico-losa, che la gestione algoritmica di processi decisionali riguardanti il rapporto di lavoro attribuisca a questi ultimi ex ante una sorta di patente di legittimità, in ragione della loro presunta oggettività, avendo la tecno-logia – che comunque non può discostarsi da radici antropocentriche - una funzione servente rispetto al diritto. L’ algoritmo non funziona “da solo”: la gestione automatizzata dei dati non è automatica, in quanto i dati sono gestiti secondo le regole che ex ante governano la loro immis-sione e la loro gestione, con la conseguenza che responsabili dell’errato o malizioso funzionamento dell’algoritmo non potranno che essere co-loro i quali immettono i dati in maniera errata e/o distorta e soprattutto coloro i quali questi dati distorti utilizzano, più o meno consapevolmen-te. È noto che ad esiti discriminatori mediante algoritmo si arrivi per varie ragioni: a) nelle ipotesi in cui il sistema algoritmico venga ideato e strutturato a monte in mala fede per raggiungere un determinato risul-tato discriminatorio (cd. masking); b) per l’utilizzo di elementi distorsivi (cd. bias) che conducono, in maniera anche inconsapevole, a risultati di-versi da quelli cui l’algoritmo dovrebbe condurre; c) per l’utilizzo dei cd. proxies, ovverossia di dati che pur essendo di per sé neutri (ad esempio, il luogo di nascita ovvero di residenza) immediatamente rimandano il soggetto scrutinato ad una certa etnia o religione, ad una determinata fascia di reddito ecc. La nota ordinanza emessa il 31 dicembre 2020 dal Tribunale di Bologna , in un procedimento antidiscriminatorio ex art. 28 del d.lgs. 150/2011, conferma quanto sostenuto in ordine all’adeguatezza del sistema sia sostanziale che processuale in materia di discriminazione in relazione a comportamenti che derivino dall’utilizzo di algoritmi. In detto giudizio le organizzazioni sindacali agivano - ex art. 5 co. 2 del d.lgs. 216/2003 - al fine di far accertare la discriminato-rietà di un sistema di profilazione dei riders e di accesso al lavoro me-diante una piattaforma digitale; in particolare, i riders potevano prenota-re sessioni di lavoro secondo fasce orarie disponibili, tramite un’app, con l’obbligo di presentarsi all’interno del perimetro della zona di lavoro assegnata entro un lasso temporale di 15 minuti, fatta salva la possibilità di annullare la prenotazione nelle 24 ore precedenti; la piattaforma gesti-ta dalla società provvedeva quindi ad assegnare l’attività da svolgere previa profilazione dei singoli aspiranti, valutando il tasso di rispetto delle ultime 14 giornate di sessioni di lavoro prenotate; in detto sistema, qualsivoglia annullamento della prenotazione, indipendentemente dai motivi che lo avevano generato, produceva una penalizzazione delle statistiche del singolo rider, con conseguente minore possibilità di acces-so alle sessioni di lavoro, in tal modo penalizzando il rider nell’adesione a scioperi concomitanti con la sessione prenotata. Il Tribunale di Bolo-gna ha accertato il carattere discriminatorio della condotta datoriale, ri-conducendolo alla cd. discriminazione indiretta, in quanto il sistema al-goritmico, pur essendo gestito in maniera apparentemente neutra, risul-tava idoneo a porre una determinata categoria di lavoratori (quelli par-tecipanti ad iniziative sindacali di astensione dal lavoro) in una posizione di potenziale particolare svantaggio; correttamente, il Tribunale eviden-zia che “trattare nello stesso modo chi non partecipa alla sessione pre-notata per futili motivi e chi non partecipa perché sta scioperando (o perché è malato, è portatore di un handicap, o assiste un soggetto por-tatore di handicap, o un minore malato) in concreto discrimina quest’ultimo, eventualmente emarginandolo dal gruppo prioritario e dunque riducendo le sue future occasioni di accesso al lavoro”. Peral-tro, il Tribunale di Bologna evidenzia come la società convenuta non aveva adeguatamente assolto all’onere probatorio relativo ai fatti giusti-ficativi della condotta denunciata, omettendo di dimostrare la sussisten-za di una finalità legittima, nonché il carattere di appropriatezza e ne-cessità dei mezzi impiegati per conseguirla, ai sensi di quanto disposto dall’art. 3, co. 6, d.lgs. n. 216/03. Per i fini che ci occupano, secondario appare in questa sede evidenziare come, nella fattispecie, il comporta-mento discriminatorio avrebbe potuto essere ricondotto ad una ipotesi di discriminazione diretta , posto che quel che rileva è che l’effetto di-scriminatorio algoritmico, o comunque disumanizzato, comunque abbia trovato in sede giudiziaria un solido argine. Peraltro, sotto il profilo so-stanziale ed indipendentemente da comportamenti o esiti discriminatori, l’art. 47 quinquies co. 2 della legge 128/2019 vieta espressamente, con riferimento ai riders, che la mancata accettazione della prestazione possa comportare l’esclusione dalla piattaforma o riduzioni delle occasioni di lavoro , costituendo un’ulteriore barriera, di carattere sostanziale, per tale categoria di lavoratori, all’utilizzo indiscriminato di strumenti algo-ritmici forieri di discriminazioni o in senso lato di penalizzazioni nello svolgimento dell’attività lavorativa. Quanto innanzi conferma, pertanto, che con riferimento agli effetti discriminatori rivenienti dall’utilizzo della tecnologia il problema non è costituito dallo strumento tecnologico uti-lizzato (algoritmo o meno), potendo a volte risultare ancora più imper-scrutabili comportamenti umani, consapevoli o meno, che prescindono dalla tecnologia, sicché l’accertamento giudiziale deve necessariamente tendere a verificare, al netto dell’apparente neutralità del comportamen-to – umano o disumanizzato - se il materiale raccolto nel singolo caso, sulla base di un ragionamento presuntivo, possa condurre ad affermare la sussistenza di un possibile fattore di discriminazione – diretta o indi-retta - nella scelta datoriale. Sotto tale profilo, il diritto antidiscimina-torio può costituire un valido ausilio ai fini dell’accertamento di discri-minazioni derivanti da algoritmi, ove si consideri che la discriminazione opera sul mero rilievo del trattamento deteriore riservato al lavoratore inciso dal provvedimento, a prescindere dalla volontà illecita del datore di lavoro .
Non risultano quindi mutati né i confini della discriminazione né il pe-rimetro o le tecniche di tutela del soggetto inciso da decisioni datoriali automatizzate nei procedimenti antidiscriminatori; ma anche nei proces-si ordinari, è stato correttamente evidenziato che l’imperscrutabilità o comunque l’opacità algoritmica potrebbero essere efficacemente contra-state mediante l’utilizzo dei poteri istruttori del giudice, ex art. 421 c.p.c. – da esercitarsi ovviamente non in funzione sostitutiva degli oneri di parte - sia mediante l’audizione di testimoni qualificati - coloro i quali sono a conoscenza del funzionamento dell’algoritmo - ovvero mediante CTU “percipienti” - che presuppongono il possesso di particolari cogni-zioni specialistiche – sempre con l’obiettivo di disvelamento del funzio-namento dei dispositivi algoritmici .
In tale contesto, e nell’ottica di tutela del lavoratore, gioca ovviamente un ruolo fondamentale la conoscibilità delle modalità di funzionamento degli strumenti adottati, riconducibile al principio di trasparenza che, unitamente a quello della sorveglianza umana, costituiscono a livello unitario “due pietre angolari nella costruzione delle garanzie di tutela dei diritti fondamentali di fronte ai rischi di violazione derivanti dall’utilizzo dei sistemi algo-ritmici” . Sotto tale profilo, assume particolare rilievo l’obbligo infor-mativo di cui all’art. 1 bis del d.lgs. 152/97 introdotto dal d.lgs 104/2022 e da ultimo modificato dal cd. decreto lavoro (d.l. 4 maggio 2023 n. 48, convertito, con modificazioni, con la legge 3 luglio 2023 n. 85), secondo cui il datore di lavoro pubblico e privato è tenuto ad in-formare il lavoratore dell’utilizzo di sistemi decisionali o di monitorag-gio integralmente automatizzati deputati a fornire indicazioni rilevanti ai fini dell’assunzione o del conferimento dell’incarico, della gestione o della cessazione del rapporto di lavoro, dell’assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l’adempimento delle obbligazioni contrattuali dei lavora-tori (co. 1), ivi compresi “la logica ed il funzionamento dei sistemi di decisionali o di monitoraggio” (co. 2 lett. c).
Al netto delle ultime modifiche della disposizione, aventi all’evidenza la finalità di restringere l’ambito informativo ricadente sulla parte datoriale mediante l’inserimento dell’avverbio “integralmente” , la giurispruden-za sinora espressasi sul punto, pur antecedente all’entrata in vigore del decreto lavoro, è concorde nel ritenere che l’informazione sulle modalità di funzionamento dei processi decisionali automatizzati costituisca og-getto di un diritto sia soggettivo che collettivo , giudizialmente tutelabi-le, che può costituire un efficace ausilio nei giudizi antidiscriminatori di nuova generazione.
4. ALGORITMI ED INTERPOSIZIONE
La giurisprudenza pare utilizzare le tradizionali categorie ed i consolidati criteri ermeneutici al fine di accertare fenomeni di interposizione illecita anche nelle ipotesi in cui l’organizzazione dell’attività lavorativa risulti completamente automatizzata. Recenti pronunce di merito hanno ana-lizzato – negandola – la genuinità di contratti di appalto endoaziendali di servizi nel settore della logistica, riguardanti la movimentazione delle merci in magazzini di proprietà delle società committenti, in cui i lavo-ratori – formalmente dipendenti di cooperative – risultavano in realtà gestiti e diretti da un software di proprietà della committente, che in de-finitiva “telecomandava” i dipendenti, impartendo precise direttive sull’attività da svolgere in ordine ai prelievi di merce, con l’obbligo di caricare i risultati delle operazioni effettuate sul medesimo software. In tali ipotesi, con iter argomentativo condivisibile, è stata valorizzata non tanto la circostanza che il software in questione, quale strumento di lavo-ro, fosse di proprietà della committente, quanto, viceversa, che median-te detto software la società committente esercitasse sui dipendenti della società appaltatrice il potere organizzativo e direttivo, rispetto al quale il ruolo svolto dall’appaltatore risultava del tutto marginale, riducendosi ad un’attività priva di qualsivoglia discrezionalità, essendo i tempi e le modalità di lavoro unicamente dettati dalla società committente. Per quanto qui rileva, ancora una volta appare del tutto irrilevante il fatto che – nella fattispecie – il potere direttivo fosse esercitato mediante l’intermediazione di una macchina, essendo la stessa di proprietà della società committente e dalla stessa impostata e gestita; l’indagine giudi-ziale ha correttamente verificato la riconducibilità della “macchina” all’effettivo utilizzatore, imputandone effetti e responsabilità conseguen-ti alla società committente che la utilizzava, esattamente come sarebbe avvenuto ove il potere direttivo fosse stato “umanamente” esercitato . Le pronunce si pongono quindi in linea con l’orientamento giurispru-denziale consolidato, in virtù del quale il discrimen tra appalto genuino e fenomeno interpositorio risiede nell’accertamento in ordine al soggetto datoriale che effettivamente esercita il potere organizzativo, direttivo e di controllo sui dipendenti oggetto dell’appalto. Secondo l’insegnamento nomofilattico, infatti, per valutare la genuinità di appalti aventi ad og-getto la prestazione di servizi è necessaria la verifica del requisito dell’autonomia di gestione ed organizzazione dell’impresa appaltatrice, da escludersi ove i dipendenti dell’appaltatrice siano gestiti e diretti dalla società committente . Ancora una volta, quindi, nel nuovo contesto di algorithmic management, la “macchina” in sé non assume autonoma rile-vanza, né pare inciso o abbisognevole di rimodulazione l’impianto rego-lativo riguardante la fattispecie interpositoria.