TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

1. Introduzione.
Intelligenza artificiale, machine learning, bias, sono concetti che hanno superato il confine della specializzazione degli iniziati (come i programmatori informatici e i data scientist) per approdare dapprima nell’ambito degli specialisti del diritto (chiamati a discutere di come regolamentare le fattispecie che si percepiscono come nuove e senza precedenti) e poi nell’arena del dibattito pubblico.
Dell’intelligenza artificiale si è ormai diffusa un’immagine distopica secondo cui le macchine prevarranno sull’humanitas e domineranno le nostre vite, mentre al machine learning è collegata la metafora della scatola nera, della “black box” , all’interno della quale si svolgono i procedimenti matriciali decisori, mentre il bias è stato collegato semplicisticamente alla “discriminazione” .
Ma è davvero tutto così semplice e riconducibile a una ricostruzione manichea del tema?
In realtà le questioni sono più sfumate, a partire da uno dei concetti più diffusi in ambito dell’intelligenza artificiale, cioè quello stesso di intelligenza artificiale, la quale non è riconducibile a una mera imitazione del ragionamento umano, in quanto ad essa manca l’elemento della logica abduttiva (ovvero trarre conclusioni sensate da presupposti ipotetici o sconosciuti) . Al contrario, negli anni Sessanta, quando essa venne elaborata in modo più strutturale, l’intelligenza artificiale venne modellata sui giochi di strategia, in particolare gli scacchi, dove le soluzioni possibili del gioco sono limitate e facilmente memorizzabili da un calcolatore . Invece, attualmente l’intelligenza artificiale è riconducibile a una serie collegata di decisioni automatizzate orientate a risolvere dei problemi complessi, ma all’interno di istruzioni predeterminate da parte dell’autore dell’operazione di calcolo.
L’uso del machine learning è stato introdotto dopo che la raccolta dei c.d. “big data” (cioè le quantità massive di dati elaborate attraverso l’uso di piattaforme o altri strumenti che consentono la loro trattamento e conservazione) è esplosa in conseguenza dell’utilizzo di piattaforme informatiche e cloud. In precedenza, la minore quantità di informazioni a disposizione non consentiva lo sviluppo di tali tecnologie che rimanevano allo stato astratto.
L’uso di tali quantità di informazioni ha avuto anche conseguenze sulla loro qualità, consentendo l’apparizione sulla scena informativa del “bias”. Si tratta di un termine polisemico, con un preciso significato differente, ma corretto, a seconda del contesto disciplinare in cui viene utilizzato. Per esempio, tanto nel linguaggio giuridico quando in quello comune esso viene utilizzato come sinonimo illustrativo di un elemento discriminatorio. In realtà, nel linguaggio e nell’ambito informatico e di data scientist il bias indica un elemento distintivo puro e semplice che non necessariamente è riconducibile a fattispecie discriminatorie. In conseguenza di ciò, se osservato con la lente informatica, appunto, tale neutralità nel trattare elementi distintivi apportata dal bias può contenere, anzi sarebbe meglio dire nascondere, elementi che lo sguardo giuridico percepirebbe come discriminatori.
Come è possibile superare siffatto ostacolo? L’unica soluzione ragionevole, anche se spesso onerosa (vuoi dal punto di vista economico, vuoi dal punto di vista informativo) è effettuare una raccolta di dati di buona qualità. Sembrerebbe apodittico (se non addirittura banale), ma da dati di buona qualità si possono ottenere risultati di buona qualità e, di contro, da dati di cattiva qualità si ottengono risultati qualitativamente non adeguati.

2. Definizioni e caratteristiche degli algoritmi
Nell’ordinamento italiano la prima definizione di algoritmo proviene dalla giurisprudenza amministrativa, a seguito della soluzione delle controversie nate dal piano straordinario di assunzioni predisposto dall’art. 1, co. 108, della l. n. 107/2015 (c.d. “Buona Scuola”). Come è noto, la procedura nazionale di affidamento degli incarichi di insegnamento aveva preso forma con ordinanza ministeriale n. 241/2016, attraverso l’affidamento dei trasferimenti e delle assegnazioni di posti di ruolo dei docenti ad un algoritmo. Insoddisfatti dell’operato algoritmico, gli insegnanti trasferiti in sedi sgradite, vuoi perché troppo lontane dalla residenza e dalla famiglia, vuoi perché sentitisi discriminati, hanno impugnato tale ordinanza di fronte ai diversi gradi della giustizia amministrativa .
Nel risolvere la questione il Consiglio di Stato ha stabilito che l'utilizzo nel procedimento amministrativo di una procedura informatica, attraverso la quale un algoritmo conduca direttamente alla decisione finale, deve ritenersi ammissibile, in via generale, anche nell'attività amministrativa connotata da ambiti di discrezionalità, a condizione che siano osservate una serie di requisti essenziali, e cioè:
a) la piena conoscibilità della modalità di funzionamento del sistema decisorio aumatizzato;
b) l'imputabilità della decisione da questo prodotta all'organo titolare del potere, cui competono tutte le responsabilità correlate;
c) il carattere non discriminatorio dell'algoritmo utilizzato .
A questo proposito occorre ricordare che il termine “algoritmo” sia riconducibile a una formula di calcolo matematico astratta e simbolica espressa attraverso operazioni logicamente predeterminate che consentono di giungere ad un certo risultato .
Contrariamente a quanto si possa pensare, gli algoritmi non sono tutti uguali, ma possiedono caratteristiche che li distinguono sia sotto un profilo filosofico, sia sotto quello della loro applicabilità concreta.
In relazione al primo profilo, il dibattito, prevalentemente filosofico , riguarda la loro relazione con l’intelligenza umana nel senso se possano avere o meno un comportamento intelligente, anche in un ambiente complesso , o se vi siano differenze sostanziali tra intelligenza umana e artificiale . In merito al secondo profilo ci si riferisce alla distinzione relativa alla loro applicazione in merito alla conoscibilità e trasparenza del loro procedimento decisorio .
Occorre inoltre distinguere i sistemi di “narrow artificial intelligence ”, in grado di proporre soluzioni a problemi specifici, dalle reti neurali artificiali (artificial neural networks , ANN) che si riferiscono alla “general artificial intelligence” (AGI) .
Si riferiscono alla prima categoria algoritmi definiti di “knowledge management ”, anche conosciuti come “sistemi esperti” , i quali sembrano essere stati utilizzati nel caso in esame, considerato che la fattispecie presenta che una operazione di calcolo la quale utilizza dati limitati per quel che concerne sia i parametri empirici, sia i soggetti coinvolti.
Afferiscono alla seconda categoria i programmi di machine learning la cui condotta è analoga a quella dell’intelligenza umana, poiché elaborano quantità massive di dati (c.d. “big data”) e autoapprendono imitando il comportamento delle sinapsi del cervello umano .
Più recentemente, con l’avvento dei chat-bot (cioè algoritmi LLM, acronimo di Large Language Model, il più commercialmente noto, ma non l’unico, è ChatGPT) la questione sulla natura dell’algoritmo è mutata ancora. Come è noto, i chat-bot sono stati considerati, specie dagli enti normativi giuridici, programmi algoritmici meramente in grado di assistere la clientela nell’acquisto di beni e servizi online ovvero aiutare l’utenza nell’uso di personal computer, auto a guida assistita, applicazioni software e così via. Al contrario, essi possono assurgere allo svolgimento di un ruolo di primo piano nella diffusione di disinformazione e di fake news e manifestano significative questioni per quel che concerne l’utilizzo di tali strumenti algoritmici in quanto il controllo sulla provenienza dei materiali informativi che li alimenta si indebolisce vieppiù, nonostante i tentativi dei suoi programmatori di evitare le interferenze mistificatrici .
Questa circostanza, non del tutto imprevedibile, ma dagli effetti non prevedibili, pone il focus della ricerca sulla puntualizzazione della qualificazione giuridica degli algoritmi in quanto la stessa classificazione che l’Artificial Intelligence Act Proposal , cioè il più concreto ed effettivo tentativo di regolare il tema, si pone a livello definitorio su una prospettiva invecchiata velocissimamente. Infatti il criterio di classificatorio degli algoritmi effettuato dall’Artificial Intelligence Act Proposal si basa sul rischio di violazione dei diritti umani e i risultati della classificazione appaiono non condivisibili, né congrui. Infatti, l’Artificial Intelligence Act Proposal pone al vertice del rischio i programmi di riconoscimento facciale dal vivo come portatori di rischio massimo, quindi proibendoli, mentre gli algoritmi fondati su programmi di risk assessment aventi una funzione predittiva sono posti ad un livello inferiore, con rigida regolamentazione. Al contrario, ChatGPT (e i chat-bot che dopo di questa verranno diffusi sul mercato) sono stati chiaramente sottostimati. Ciò dimostra nuovamente come il procedimento legislativo soffra di un ritardo congenito nei confronti dell’evoluzione tecnologica.
Da tali circostanze si può dedurre che un procedimento algoritmico possa rimanere sempre sconosciuto al soggetto sul quale i risultati ottenuti manifestano i loro effetti, nonostante in via astratta, un sistema esperto possa presentare le caratteristiche di interpretabilità e conoscibilità, in quanto è sufficiente mantenere gli utenti all’oscuro delle caratteristiche dello specifico algoritmo decisorio. Tali sistemi sono utilizzati in ambiti settoriali nei quali si richiedono operazioni specifiche attraverso un modello di “question/answer” in grado di rispondere ad una precisa domanda secondo un paradigma ad albero, il quale consente di ricostruire il loro percorso logico anche a ritroso.
Nel caso delle reti neurali, invece, la conoscibilità del procedimento è di difficile interpretazione per la modalità stessa del funzionamento. Infatti, una rete neurale gestisce i sentieri logici dei dati nella formazione del risultato in maniera non trasparente poiché tale percorso è composto da input, hidden layers e output: in tali casi si parla di black box . Tuttavia, in specifici ambiti empirici sono applicati modelli di c.d. “grey box”, la cui interpretabilità è parziale poiché sussiste la combinazione tra passaggi noti e altri rimasti ignoti . Ciò nonostante, anche in siffatti casi può sussistere una modalità di verifica trasparente della rete neurale, cioè attraverso la tracciabilità dell’informazione ovvero del dato con cui l’algoritmo viene nutrito dalla mano umana, cioè dal suo programmatore che decide, e quindi sceglie, a quali fonti informative consentirgli l’accesso.
In questo quadro si inserisce il tema della tutela del segreto industriale del proprietario dell’algoritmo. Seppure la proprietà intellettuale sia considerata un diritto fondamentale ai sensi dell’art. 17.2 della Carta dei diritti fondamentali dell’Unione Europea , nel bilanciamento tra diritti essa recede se contrapposta all’art. 41 della medesima Carta, relativa al riconoscimento del diritto ad una buona amministrazione. Infatti, per la pubblica amministrazione sussiste l’obbligo, e quindi il dovere, di motivare le proprie decisioni , veppiù in presenza di un algoritmo che in quelle deliberazioni svolge una funzione decisiva a tal punto da poter essere ritenuto parte integrante del procedimento amministrativo stesso .
Parimenti, il diritto all’accesso all’algoritmo e alla spiegazione della decisione da questo prodotto è riconosciuto in diverse statuizioni del Regolamento 679/2016, in primis dall’art. 22, il quale riconosce alla parte coinvolta in siffatto processo automatizzato il diritto a che la decisione non sia esclusivamente automatizzata, ma che l’amministrazione, con un esplicito contributo umano, controlli i passaggi decisionali, non convalidandoli in caso di violazione di diritti fondamentali
Sul punto interviene, de jure condendo, l’ Artificial Intelligence Act Proposal , il cui articolo 68c, rubricato “diritto alla spiegazione del processo decisionale individuale”, attribuisce maggiori tutele alla persona soggetta a una decisione automatizzata sulla base dei risultati di un sistema di intelligenza artificiale ad alto rischio, implementato da un deployer . Secondo il disposto della norma, l’algoritmo deve produrre significativi effetti giuridici ovvero un impatto negativo sulla sua salute, sicurezza, diritti fondamentali, benessere socioeconomico o qualsiasi altro diritto derivante dagli obblighi stabiliti dal regolamento stesso. La persona alla decisione automatizzata ha il diritto di ottenere dal deployer una spiegazione “chiara e significativa” del funzionamento dell’algoritmo utilizzato, sufficientemente trasparente da consentire agli utenti di interpretare l'output del sistema e utilizzarlo adeguatamente, sul ruolo dell’algoritmo nella procedura decisionale, sui parametri principali della decisione presa e sui relativi dati utilizzati.
Tuttavia, vi è l’eccezione nel caso in cui l’uso di tali sistemi possa derivare dagli obblighi stabiliti dalla legislazione dell’Unione ovvero nazionale, purché tali eccezioni o restrizioni rispettino l'essenza dei diritti e delle libertà fondamentali e costituiscano una misura necessaria e proporzionata in una società democratica.
Il testo dell’art 68c dell’AIA proposal appare innovativo ed estensivo di tutela dei soggetti alla decisione algoritmica. Ciò nonostante le tutele promosse da tale disposizione restano insufficienti. Invero, l’individuazione del deployer quale referente per la summenzionata richiesta di una spiegazione “chiara e significativa” della decisione automatizzata non dovrebbe escludere dal medesimo dovere di risposta il produttore dell’algoritmo utilizzato, cioè il reale creatore della metodologia di raccolta e trattamento dei dati secondo il procedimento logico-decisorio utilizzato dal software.
Tale omissione rafforza ulteriormente la posizione di potere dei produttori di software come gli algoritmi predittivi, già ampiamente garantiti dalla disciplina sulla tutela del segreto industriale .

3. La settorialità della disciplina algoritmica antidiscriminatoria italiana
Per quel che concerne la disciplina italiana, il nuovo codice degli appalti, cioè il D. Lgs. 31 marzo 2023, n. 36, all’art. 30, ha stabilito la prima regolamentazione espressamente antidiscriminatoria in materia di intelligenza artificiale. Seppure si tratti di una normativa settoriale, si rimane perplessi come una tale disciplina sia stata pensata ed implementata in un settore a chiara valenza economica, cioè quello degli appalti pubblici, ma non sia stato elaborato un analogo quadro normativo destinato a fattispecie in cui le persone siano assoggettate agli effetti delle decisioni automatizzate, in particolare per quel che concerne i rapporti di lavoro.
Come già ricordato, il primo contenzioso rilevante per l’analisi degli algoritmi discriminatori affrontato dall’ordinamento italiano riguardava la disciplina predisposta dal già citato 1, co. 108, della l. n. 107/2015. A questo proposito, parrebbe che le disposizioni contenute nel “nuovo codice degli appalti” seguano il dettato elaborato dal Consiglio di Stato in una questione inerente il diritto del lavoro pubblico, cioè il trasferimento degli insegnanti nelle sedi scolastiche vacanti, ma non estesa alla tutela generalizzata dei lavoratori sottoposti al vaglio automatico degli algoritmi decisori. La nuova disposizione legislativa stabilisce che debbano essere resi pubblici il codice sorgente dell’algoritmo decisorio, la relativa documentazione, nonché “ogni altro elemento utile a comprenderne le logiche di funzionamento, ovvero introducano (…) clausole volte ad assicurare le prestazioni di assistenza e manutenzione necessarie alla correzione degli errori e degli effetti indesiderati derivanti dall'automazione (art. 30, co. 2, d. lgs. 36/2023).
Sul punto si desidera rimarcare che sia necessario in qualsiasi procedimento ove siano implementati algoritmi decisiori automatizzati il rispetto dei principi di conoscibilità e comprensibilità, per cui ciascun soggetto coinvolto ha diritto a conoscere l'esistenza di processi decisionali automatizzati che lo riguardino e, in tal caso, a ricevere informazioni significative e pertinenti sullo svolgimento dei processi logici inerenti a tale algoritmo. La disponibilità pubblica di tali informazioni andrebbe resa obbligatoria in qualsiasi procedimento e non soltanto quelli che coinvolgano gli “operatori economici” che partecipino agli appalti pubblici.
Tali requisiti rappresentano la garanzia che la decisione algoritmica non sia esclusiva, riconoscendo l’esistenza nel processo decisionale di un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata. Infine, deve essere esplicitato il riconoscimento del principio di non discriminazione algoritmica, per cui il titolare mette in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti delle persone sottoposte a siffatte operazioni.
Ulteriormente, e analogamente al 4 comma dell’art. 30 D. Lgs, 36/2023, gli enti che utilizzano gli algoritmi decisori automatizzati devono essere obbligati ad adottare “ogni misura tecnica e organizzativa atta a garantire che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori, nonché a impedire effetti discriminatori nei confronti di persone fisiche sulla base della nazionalità, dell'origine etnica, delle opinioni politiche, della religione, delle convinzioni personali, dell'appartenenza sindacale, dei caratteri somatici, dello status genetico, dello stato di salute, del genere o dell'orientamento sessuale”. Altresì, come previsto al 5o comma del medesimo art. 30, ed in obbedienza al principio di trasparenza, ciascun ente, pubblico ovvero privato, che utilizzi tali sistemi, debba pubblicare sul proprio sito istituzionale ovvero di riferimento, l'elenco delle soluzioni tecnologiche, in particolare decisorie, utilizzate ai fini dello svolgimento della propria attività.
Al contrario, da un lato si evidenzia l’assenza di una disciplina organica ed appropriata estesa a tutti gli ambienti ove sono utilizzati, ovvero utilizzabili, gli algoritmi decisori automatizzati, in particolare in ambito lavorativo; dall’altro si rafforzano garanzie a favore della parte contrattualmente più forte, come la tutela dei segreti industriali. Infatti, la lett b) dell’art. 26 del D. L. 4 maggio 2023, n. 48 (rubricato “Misure urgenti per l’inclusione sociale e l’accesso al mondo del lavoro.”) stabilisce una tutela prevalente del segreto industriale e commerciale dei sistemi decisori automatizzati, ostacolando così il diritto dei lavoratori di accedere al procedimento informatico che li riguarda. Tale disposizione, oltre a presentare dubbi di costituzionalità, in particolare per quel che concerne la tutela dei diritti inviolabili ex art. 2 e al principio di uguaglianza ex art 3 Cost., e contrarietà al diritto dell’Unione Europea, nello specifico dell’art. 22 GDPR, relativo alla conoscibilità delle decisioni automatizzate non soltanto è in controtendenza rispetto al summenzionato autorevole orientamento del Consiglio di Stato, ma introduce una ingiustificata disparità nella disciplina degli effetti discriminatori legati all’uso degli algoritmi. In altri termini: il Legislatore italiano parrebbe considerare il contrasto degli effetti discriminatori legati alle decisioni automatizzate soltanto nel caso in cui tali effetti si manifestino sugli “operatori economici” che partecipano alle gare d’appalto pubbliche, ma non nei confronti dei lavoratori sottoposti alle decisioni automatizzate prodotte dalle piattaforme digitali, come nel caso dei crowdworker .
Per evidenziare l’irragionevolezza e l’illiceità di tale settorialità della tutela dalle discriminazioni algoritmiche si propone una comparazione tra le due situazioni attraverso un esperimento mentale. Protagonista del nostro esperimento è “Alfa Ltd”, primaria società di sviluppo tecnologico, con svariati interessi nell’ambito dell’industria dell’innovazione: dalle chat-bot, ai social network, alla vendita a distanza, alla posta elettronica e così via elencando rispetto a tutte le potenzialità commerciali offerte dalla infosfera. Non di meno, Alfa è presente in diverse parti del mondo con i suoi prodotti, in fase espansiva alla ricerca di nuovi mercati.
Nel primo caso, l’”operatore economico” Alfa partecipa un appalto pubblico per un servizio digitale da erogare alla P. A. insieme ad altri potenziali concorrenti. È noto che siffatti appalti sono di importi assai significativi, tuttavia gli operatori economici che vi partecipano vengono considerati parti deboli in contrapposizione alla pubblica amministrazione, anche per un retaggio presente nella nostra cultura che ci porta a considerare la pubblica amministrazione come una entità kafkiana incomprensibile e pertanto ingiusta. Ne consegue che la PA è tenuta a garantire ai partecipanti a quell’ipotetico appalto per un servizio digitale le stesse caratteristiche di trasparenza, interpretabilità, non discriminazione e così via cui è tenuta a garantire nei confronti di tutti gli effettivi e potenziali partecipanti a quello e a tutti gli altri potenziali appalti.
Nel secondo caso Alfa Ltd, (cioè lo stesso “operatore economico” della prima parte dell’esperimento mentale in corso di svolgimento) gestisce una ipotetica piattaforma di distribuzione a domicilio di beni, per esempio viveri. Nel nostro esperimento mentale Alfa Ltd non sarebbe tenuta a garantire gli stessi principi di trasparenza, conoscibilità, interpretabilità, non discriminazione e così via nei confronti dei suoi dipendenti in caso in cui il loro lavoro sia gestito con scelte algoritmiche.
Ulteriormente, nei rispettivi casi in cui sono parte dominante, la PA ed Alfa Ltd potrebbero avvalersi della protezione del segreto industriale sugli strumenti algoritmici utilizzati? La risposta può essere ambigua, nel senso che tanto la pubblica amministrazione quanto i datori di lavoro potrebbero rivolgersi al mercato (nazionale ovvero internazionale) per l’acquisto dei sistemi algoritmici da utilizzare nelle rispettive procedure e il produttore di tali sistemi opporre la tutela del segreto industriale ovvero della proprietà intellettuale sui suoi prodotti di fronte alle richieste di trasparenza.
A questo punto, l’eccezione che potrebbe essere fatta valere riguarda l’esercizio dei diritti dei singoli soggetti sottoposti alla decisione automatizzata in merito al rispetto del loro diritto alla privacy. Tale eccezione potrebbe venire accolta nel caso degli “operatori economici” che abbiano relazioni contrattuali ovvero giuridiche con la pubblica amministrazione, ma rifiutata nel caso dei dei lavoratori soggetti a decisioni algoritmiche. Questa disparità può essere considerata ragionevole e legittima? La risposta è sicuramente negativa perché detto divario contraddice il principio di uguaglianza ex art. 3 Cost., nonché agli artt. 1 (tutela della dignità), 7 (tutela dell’integrita psico-fisica) e 8 (protezione dei dati personali) della Carta dei diritti fondamentali dell’Unione Europea (essendo siffatta materia rientrante nella sfera di applicazione del diritto dell’UE). Inoltre, si tratterebbe dell’implementazione della protezione (e della tutela) del più forte (ovvero le imprese in grado di partecipare agli appalti pubblici) venga effettuata a scapito della tutela del più debole (cioè i lavoratori).
Lo scopo dell’esperimento mentale non è supportare la deminutio di tutela degli “operatori economici” nei confronti della PA, dato che non è ignoto a chi scrive, né alla pubblica opinione, il verificarsi episodi (più o meno diffusi) di malagestione degli appalti pubblici, ma il detrimento di protezione dei soggetti più vulnerabili, spesso costretti ad accettare condizioni di lavoro precarie come accade nella realtà del lavoro organizzato con l’intermediazione delle piattaforme telematiche.
In conclusione, e per portare a compimento l’esperimento mentale, Alfa Ltd, pur non essendo considerabile un soggetto vulnerabile, godrebbe di garanzie che invece ai sensi della normativa in vigore non sarebbe tenuta a riconoscere ai suoi dipendenti, i quali sono indiscutibilmente le parti vulnerabili e deboli del rapporto di lavoro esplicato attraverso decisioni automatizzate.

4. De jure condendo: la proposta di direttiva sul lavoro organizzato attraverso piattaforme
La Commissione Europea ha pubblicato una proposta di Direttiva relativa alla disciplina del lavoro organizzato attraverso piattaforme . Tale disciplina sembrerebbe aver recepito l’esperienza giurisprudenziale comparata sviluppatasi in Europa e in Italia negli ultimi anni per quel che concerne la predominanza delle piattaforme in tema di gestione del rapporto di lavoro .
Sul punto, la proposta di Direttiva si focalizza sulla promozione della trasparenza dell’algoritmo utilizzato dalla piattaforma, al fine di contrastare le discriminazioni. L’art. 1 della Direttiva stabilisce l’obiettivo della medesima, cioè “migliorare le condizioni di lavoro delle persone che svolgono un lavoro mediante piattaforme digitali garantendo la corretta determinazione della loro situazione occupazionale, promuovendo la trasparenza, l'equità e la responsabilità nella gestione algoritmica del lavoro mediante piattaforme digitali e migliorando la trasparenza nel lavoro mediante piattaforme digitali, anche in situazioni transfrontaliere”.
L’art. 2 della proposta di Direttiva contiene una definizione di “piattaforma di lavoro digitale” riconducibile “a qualsiasi persona fisica o giuridica che fornisce un servizio commerciale che soddisfa tutti i requisiti seguenti: a) è fornito, almeno in parte, a distanza con mezzi elettronici quali un sito web o un’applicazione mobile; b) è fornito su richiesta di un destinatario del servizio; c) comporta, quale componente necessaria ed essenziale, l’organizzazione del lavoro svolto dalle persone fisiche, indipendentemente dal fatto che tale lavoro sia svolto online o in un determinato luogo”. Si tratta di una definizione ampia, che contrasta con quella italiana, la quale, all’art. 47 bis, co. 2 del d. lgs 81/2015 “i programmi e le procedure informatiche utilizzati dal committente che, indipendentemente dal luogo di stabilimento, sono strumentali alle attività di consegna di beni, fissandone il compenso e determinando le modalità di esecuzione della prestazione”. La dottrina sostiene che questa disposizione “riflette una visione miope, che riconduce tutto il mondo della gig-economy al fenomeno dei riders” .
Il punto focale della Direttiva riguarda la disciplina delle modalità automatizzate con cui le piattaforme digitali assegnano incarichi, ne monitorano lo svolgimento, valutano e prendono decisioni in merito allo svolgimento delle mansioni dei lavoratori. Il testo della Direttiva definisce tali pratiche come “gestione algoritmica”, la quale è intrinseca al modello di business delle piattaforme digitali. Il punto cruciale della normativa della Direttiva riguarda il possibile raggiungimento dell’e¬qui¬li¬brio tra l’ef¬fi¬cienza della gestione del lavoro nelle piattaforme digitali, la subordinazione e il controllo delle persone che svolgono il lavoro attraverso la piattaforma digitale. In questo ambito si possono annidare discriminazioni basate su pregiudizi razziali, di genere, sociali che la discriminazione algoritmica rischierebbe di amplificare. Pertanto, risulta essenziale comprendere in che modo gli algoritmi influenzano o determinano talune decisioni, quali l’accesso a future opportunità di lavoro o premi, l’im¬po¬si¬zione di sanzioni o l’eventuale sospensione o limitazione degli account .
Il Legislatore europeo lamenta la scarsità di trasparenza nella gestione algoritmica dei sistemi decisionali e con la Direttiva in commento colma il vuoto rimediale verso le decisioni automatizzate delle piattaforme, dato che il rimedio previsto dal¬l’art. 22 GDPR è insufficiente, considerati i limiti intrinseci presenti nel suo stesso testo, limitato alla tutela dei dati personali e non inerente alla gestione algoritmica dell’economia delle piattaforme .
A questo proposito, la Direttiva predispone l’intero Capo III, rubricato “Gestione algoritmica” relativo alla disciplina della materia. L’articolo 6 (Trasparenza e uso dei sistemi decisionali e di monitoraggio automatizzati) impone alle piattaforme di lavoro digitali di informare i lavoratori di tali piattaforme in merito al¬l’u¬so e alle caratteristiche principali dei sistemi di monitoraggio automatizzati, utilizzati per monitorare, supervisionare o valutare l’esecuzione del lavoro dei lavoratori delle piattaforme digitali con mezzi elettronici, e dei sistemi decisionali automatizzati, utilizzati per prendere o sostenere decisioni che incidono in modo significativo sulle condizioni di lavoro dei lavoratori delle piattaforme digitali . Le informazioni che le piattaforme devono fornire ai loro lavoratori riguardano le categorie di azioni monitorate, supervisionate e valutate (anche da parte dei clienti, come per esempio i sistemi di rating) e i principali parametri di cui tali sistemi tengono conto per le decisioni automatizzate. Altresì, deve essere specificata la forma e il momento in cui siffatte informazioni devono essere messe a disposizione su richiesta sia delle parti, sia delle autorità, sia dei sindacati dei lavoratori delle piattaforme digitali. Ulteriormente, le piattaforme digitali devono astenersi dal trattare i dati personali dei lavoratori che non siano connessi e necessari con l’esecuzione del contratto lavorativo. Tra questi vanno annoverati i dati sulle conversazioni private, sulle condizioni di salute fisica e mentale, nonché qualsiasi dato relativo ai periodi in cui il lavoratore della piattaforma digitale non sta svolgendo un lavoro mediante piattaforme digitali o non si sta offrendo per svolgerlo.
L’art. 7 riguarda il “Monitoraggio umano dei sistemi automatizzati”, secondo cui le piattaforme sono tenute a monitorare e valutare periodicamente l’impatto della gestione algoritmica sulle condizioni di lavoro dei lavoratori. Tale monitoraggio è necessario per garantire la sicurezza dei lavoratori al fine di evitare loro di subire una pressione indebita che possa impattare negativamente sulla salute dei lavoratori medesimi. A tale scopo è necessario che le piattaforme di lavoro digitale allochino le risorse necessarie per siffatto monitoraggio. Inoltre, detto articolo stabilisce una garanzia essenziale per coloro che si occupano del monitoraggio di tali decisioni. Infatti, oltre alla competenza, alla formazione e all’autorità necessarie per svolgere siffatto ruolo, tali controllori devono essere protetti dalle conseguenze negative (come licenziamento o sanzioni di altra natura) nel caso in cui revisionino o non accolgano il risultato delle decisioni automatizzate.
Relativamente al “(R)iesame umano di decisioni significative”, articolo che si pone in coordinamento con il summenzionato art. 22 GDPR, rappresentandone sia l’e¬voluzione speciale appropriata per i lavoratori digitali, sia tracciando una direzione a favore di altre fattispecie coinvolte nella “gestione algoritmica” di ruoli e richieste da parte degli utenti: la discussione e i chiarimenti sui fatti e circostanze delle decisioni significative riguarda ogni sistema automatizzato decisorio. Secondo la Relazione che accompagna la proposta di Direttiva sono “significative” quelle decisioni che incidono sulle condizioni di lavoro, pertanto ci si potrebbe chiedere se le decisioni organizzative dell’agenda lavorativa incidano sulle condizioni lavorative e quindi possano considerarsi tali. In questo caso l’interpretazione di tale inciso relativo all’incidenza delle decisioni sulle condizioni di lavoro potrebbe variare a seconda della situazione personale del platform worker: per esempio se si tratta di un genitore con un figlio minorenne, ovvero uno studente alle prese con gli ultimi esami prima della laurea e così via.
Al fine di chiarire e adattare tali decisioni alle condizioni dei lavoratori, anzi di ciascun lavoratore, la piattaforma di lavoro digitale dovrebbe offrire loro la possibilità di discutere e chiarire i fatti, le circostanze e i motivi di tali decisioni con una persona di contatto presso la piattaforma di lavoro digitale. L’articolo impone inoltre alle piattaforme di lavoro digitali di fornire una motivazione scritta per qualsiasi decisione di limitare, sospendere o chiudere l’account del lavoratore delle piattaforme digitali, di non retribuire il lavoro svolto dal lavoratore delle piattaforme digitali o che incide sulla situazione contrattuale del lavoratore delle piattaforme digitali. Infine, se la spiegazione ottenuta non è soddisfacente o se ritengono che i loro diritti siano stati violati, i lavoratori delle piattaforme digitali hanno anche il diritto di chiedere alla piattaforma di riesaminare la decisione e di ottenere una risposta motivata entro una settimana. Le piattaforme di lavoro digitali devono rettificare la decisione senza indugio o, se ciò non è più possibile, fornire una compensazione adeguata, qualora la decisione violi i diritti dei suoi crowdworker.
In conclusione, in queste brevi e sommarie considerazione si è voluta proporre una riflessione su come la legislazione in materia di discriminazione algoritmica non possa essere settoriale, perché se così fosse le parti deboli e vulnerabili del rapporto giuridico, in particolare quello lavorativo, rimarrebbero lese nella tutela dei loro diritti fondamentali come: dignità, uguaglianza, privacy e non discriminazione. Tuttavia, ciò che appare evidente è la difficolta di discutere, elaborare ed approvare una normativa efficace che possa tutelare le parti deboli da un lato e dall’altro non subire gli effetti della velocità dell’evoluzione tecnologica, con il rischio di promulgare una disciplina già superata nella sua applicazione empirica.
Per questo, l’esempio ispiratore più appropriato di regolamentazione della materia proviene dalla letteratura, ci si riferisce alle già da tempo note Tre Leggi della Robotica di Asimov . Esse, nella loro semplicità e linearità, hanno colto pienamente qual è il senso della tecnologia nel rapporto con l’humanitas.

 

 

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.