Testo integrale con note e bibliografia

1. L’algorithmic management e il problema della opacità algo-ritmica
La tecnologia sta cambiando le modalità con cui le imprese gestiscono il proprio personale. Le decisioni manageriali sono, sempre più spesso, delegate a strumenti algoritmici che, sulla base di processi di raccolta e trattamento dati, assumono poi decisioni automatizzate o semiautoma-tizzate riguardanti i lavoratori .
Questo fenomeno, ribattezzato “algorithmic management” , è stato dap-prima rintracciato nel lavoro tramite piattaforma digitale . Tuttavia, es-so sembra essere ormai radicato, seppur in misura minore, anche in contesti organizzativi più tradizionali rispetto a quelli in cui operano le piattaforme . In settori come la logistica e i servizi, infatti, strumenti al-goritmici sono sempre più spesso utilizzati anche per gestire la presta-zione di lavoratori con rapporti di lavoro c.d. “standard” .
Gli imprenditori stanno facendo sempre maggior ricorso a questi stru-menti principalmente perché essi sono funzionali a migliorare la qualità delle decisioni manageriali e a creare valore aggiunto per gli stessi in termini di aumenti di produttività . In ogni caso, è stato sottolineato come la crescente delega dell’esercizio delle prerogative manageriali a strumenti algoritmici abbia generato una serie di problemi per i lavora-tori a essi soggetti, derivanti da alcune caratteristiche salienti delle prati-che di algorithmic management.
Questo contributo intende concentrarsi su uno di questi problemi che, in letteratura, è stato definito “opacità algoritmica” . La trasparenza dei processi decisionali algoritmici incontra infatti almeno tre tipologie di ostacoli.
Il primo è di natura legale e fa riferimento alla circostanza che gli strumenti utili a implementare un processo decisionale automatizzato possono essere protetti, tra gli altri, da doveri di riservatezza e segreto incombenti sui dipendenti che li sviluppano o ne conoscono il funzio-namento oppure da diritti di proprietà intellettuale .
Il secondo ostacolo è di natura tecnica e può essere definito analfabeti-smo informatico . Non solo scrivere, ma anche leggere il codice di un algoritmo richiede infatti competenze altamente specialistiche che, allo stato attuale, sono possedute soltanto da esperti.
Il terzo ostacolo, al pari del secondo, è anch’esso di natura tecnica e ri-guarda, nello specifico, gli algoritmi di machine learning (ML), cioè quelli dotati di capacità di autoapprendimento . Essi, rispetto ai più semplici algoritmi rule-based, raggiungono sovente una complessità tale da poter risultare incomprensibili o inspiegabili a una mente umana . Pertanto, anche se gli specialisti possono essere in grado di illustrare la logica ge-nerale sottesa ad un algoritmo di ML, gli stessi non sono generalmente capaci di spiegare come lo stesso sia giunto ad assumere, in concreto, una specifica decisione .
Il risultato è che, quando strumenti algoritmici sono utilizzati per eserci-tare prerogative datoriali nei confronti dei lavoratori, questi ultimi re-stano perlopiù all’oscuro delle modalità con cui gli algoritmi assumono decisioni che impattano sulla esecuzione della loro prestazione. Mentre queste pratiche possono rendere il lavoratore trasparente agli occhi dei managers, le ragioni sottese alle decisioni organizzative assunte da stru-menti di algorithmic management restano imperscrutabili dai lavoratori . L’osservatore si trova dunque di fronte a uno scenario in cui gli algo-ritmi dirigono la prestazione dei lavoratori con decisioni dal carattere per loro opaco, così creando nuove asimmetrie informative nella rela-zione già sbilanciata che lega le parti di un rapporto di lavoro .
La scarsa trasparenza che contraddistingue gli strumenti di algorithmic management ha un importante effetto collaterale per i lavoratori. L’opacità algoritmica è infatti idonea a dissimulare l’esercizio dei poteri datoriali, così rendendo più difficoltoso l’accertamento della natura di certi rapporti di lavoro o della violazione dei limiti che tradizionalmen-te il diritto del lavoro pone all’esercizio di questi poteri, soprattutto con riguardo a quello di controllo . Ancora, nei casi in cui la decisione algo-ritmica produca effetti discriminatori, la scarsa trasparenza di questi strumenti riduce ulteriormente la probabilità che questi siano percepiti, e poi dimostrati, dai lavoratori . Peraltro, dato che gli strumenti di algo-rithmic management sono alimentati da grandi quantità di dati dei lavorato-ri , occorre considerare anche il rischio, già peraltro materializzatosi, che questi ultimi siano raccolti e trattati in violazione della disciplina posta a tutela dei dati personali .
Concludendo, l’opacità algoritmica può pregiudicare l’effettivo esercizio dei diritti dei lavoratori per due ragioni. Da un lato, essi potrebbero non rendersi conto che i loro diritti siano stati violati. Dall’altro, anche qua-lora se ne rendessero conto, potrebbero non riuscire ad acquisire prove che siano utili a svelare in giudizio la verità materiale che si cela dietro gli algoritmi.
2. Gli anticorpi regolativi contro l’opacità algoritmica nel diritto italiano oggi vigente
A fronte del problema presentato al par. 1 supra, è dunque necessario chiedersi se esistano, nel nostro ordinamento, anticorpi regolativi utili a ridurre le asimmetrie informative create dal crescente utilizzo di stru-menti di algorithmic management.
Nel ricercare questi anticorpi regolativi, occorre distinguere tra quelli a disposizione dei lavoratori prima della instaurazione di un eventuale giudizio e quelli utilizzabili nel corso dello stesso.
A. Prima del processo
Diritti di informazione e accesso
Il primo strumento utile a promuovere la trasparenza algoritmica è co-stituito dagli artt. 13 e 15 del GDPR, che garantiscono al lavoratore di avere notizia della esistenza di un trattamento di dati e, nel caso di pro-cessi decisionali automatizzati, della logica generale utilizzata dallo strumento di algorithmic management per assumere decisioni che lo hanno riguardato. L’art. 13 del GDPR prevede infatti che il lavoratore abbia diritto a ottenere una serie di informazioni quando il datore di lavoro o committente, in qualità di titolare del trattamento, abbia trattato dati personali del lavoratore. L’art. 15 del GDPR va anche oltre, disponendo che lo stesso lavoratore, quando il trattamento dei suoi dati personali sia già in corso, abbia diritto a ottenere le medesime informazioni og-getto del diritto di cui all’art. 13 del GDPR mediante l’esercizio di un diritto di accesso nei confronti del datore di lavoro o committente tito-lare del trattamento .
Sul punto, è utile osservare come, in due contenziosi instaurati da lavo-ratori tramite piattaforma, essi abbiano esercitato il diritto di accesso ex art. 15 del GDPR per ottenere informazioni utili ad avere cognizione di alcune funzionalità dell’algoritmo, poiché esse avrebbero potuto costi-tuire circostanze fattuali utili a dimostrare l’esistenza di un rapporto di lavoro subordinato.
Il primo caso è quello relativo al contenzioso instaurato da un rider di Glovo dinanzi al Tribunale di Palermo che, con pronuncia resa alla fine di novembre 2020, ha poi dichiarato la natura subordinata del suo rap-porto di lavoro . Da quanto emerge dai fatti riportati nella prima parte della pronuncia, il lavoratore ricorrente ha esercitato, in ben due occa-sioni, il proprio diritto di accesso ai sensi dell’art. 15 del GDPR, otte-nendo dalla società committente fittizia: a) con riguardo alla prima ri-chiesta, i dati relativi alle «sessioni risultanti dalla banca dati» aziendale in merito alle ore effettivamente lavorate (cap. prova 51 riportato in sentenza); e b) con riguardo alla seconda richiesta, volta a «conoscere l’esistenza di un trattamento di dati che ha determinato la decisione di disconnettere il suo account e di non riconnetterlo dopo la richiesta», in-formazioni insufficienti: ciò perché la società, secondo quanto riferito dalla difesa del ricorrente, ha riscontrato l’istanza del lavoratore «con una comunicazione del tutto generica nella quale si omettevano le indi-cazioni necessarie per la tutela dei diritti rivendicati nel presente giudi-zio» (cap. prova 66 riportato in sentenza).
Occorre però osservare come il rider ricorrente, una volta ottenute dalla società informazioni insufficienti, avrebbe ben potuto agire in giudizio, prima di instaurare il contenzioso relativo all’accertamento della subor-dinazione, per ottenere una pronuncia di condanna nei confronti di Glovo ad adempiere diligentemente alla seconda richiesta oggetto del diritto di accesso. Una volta ottenuta la pronuncia di condanna, il rider avrebbe poi potuto utilizzare le informazioni fornite da Glovo come prova nel giudizio avente ad oggetto la qualificazione del proprio rap-porto di lavoro.
Ciò è quanto accaduto in alcuni contenziosi instaurati nei Paesi Bassi da lavoratori tramite piattaforma aventi a oggetto, tra le altre cose, il diritto degli stessi ad avere accesso, ai sensi dell’art. 15 GDPR, ad alcune in-formazioni relative al funzionamento degli algoritmi utilizzati da Uber e Ola, società attive nel servizio taxi, per le quali lavoravano . La Corte Distrettuale di Amsterdam ha poi accolto, sebbene solo in parte, le do-mande avanzate dai lavoratori. In primo luogo, la Corte ha ordinato a Uber di garantire ai lavoratori accesso ai dati utilizzati come base della decisione di disattivare l’account di alcuni drivers, ivi inclusi i dati utilizzati per calcolare il ranking di ciascuno di essi. Soprattutto, dopo aver accer-tato che Ola aveva implementato un sistema automatizzato di bonus e malus nella gestione dei turni di lavoro dei drivers, la Corte ha poi ordina-to a questa società di comunicare ai lavoratori quali fossero i principali criteri di valutazione utilizzati dal sistema e di specificare quale fosse il ruolo che essi rivestissero nella assunzione di decisioni automatizzate assunte nei confronti dei lavoratori: ciò al fine di garantire che questi fossero in grado di conoscere i criteri sulla base dei quali tali decisioni fossero state assunte, al fine di poter controllare che ciò fosse avvenuto nel rispetto dei principi di correttezza e liceità del trattamento dei dati previsti dall’art. 5 del GDPR.
Concludendo sul punto, i diritti di informazione e accesso previsti dagli artt. 13 e 15 del GDPR sono utili ad alleviare la situazione di accentuata asimmetria informativa in cui si vengono a trovare i lavoratori soggetti a strumenti di algorithmic management opachi, anche se non ad annullarla. Ciò perché essi non prevedono un diritto a ottenere una vera e propria spiegazione delle ragioni sottese all’assunzione di certe decisioni me-dianti algoritmi ma un più generico diritto a ottenere «informazioni si-gnificative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato», che sembrano peraltro li-mitate ai soli casi di processi decisionali «automatizzati» ai sensi del GDPR. Pertanto, questi diritti potrebbero essere funzionali a garantire l’effettività di alcune tutele attribuite dall’ordinamento ai lavoratori, ma solo a condizione che il loro esercizio, preventivo e stragiudiziale, sia combinato con gli altri strumenti regolativi che operano durante il pro-cesso, su cui si concentrerà il resto dell’analisi.
B. Durante il processo
Modificazione degli oneri della prova
Il secondo strumento utile a promuovere la trasparenza algoritmica è costituito da quelle regole che addossano, in tutto o in parte, l’onere di dimostrare certi fatti in capo al datore di lavoro o committente . Lo stesso effetto pratico hanno le regole che stabiliscono presunzioni legali relative a favore del lavoratore, che determinano «una relevatio ab onere probandi in favore della parte che avrebbe l’onere di dare prova del fatto che viene presunto; sarà quindi l’altra parte a dover dimostrare che quel fatto non si è verificato» .
L’effetto della manipolazione degli oneri della prova a favore del lavora-tore è determinato, nel diritto del lavoro, da una pluralità di regole .
Tra le più rilevanti, vi sono quelle che introducono un presupposto so-stanziale in presenza del quale può essere esercitato un potere datoria-le , circostanza che «comporta sempre automaticamente l’imposizione a carico del datore di lavoro del relativo onere probatorio» . Altre rego-le rilevanti sono quelle che, nel diritto antidiscriminatorio, introducono una inversione parziale dell’onere della prova in capo al datore di lavo-ro .
Più recentemente, una regola analoga è stata introdotta dall’art. 5(2) GDPR, che impone al datore di lavoro o committente, in qualità di tito-lare del trattamento, di dimostrare di aver rispettato la disciplina posta a tutela dei dati dei lavoratori .
Tutte queste regole sono molto utili per promuovere la trasparenza al-goritmica, poiché stabiliscono in anticipo che il datore di lavoro o committente soccomberà in giudizio in caso di mancata dimostrazione del fatto che uno strumento di algorithmic management abbia assunto una determinata decisione nel rispetto della disciplina giuslavoristica o priva-cy. Consapevole di questo rischio, un datore di lavoro o committente ra-zionale avrà dunque dinanzi a sé due scenari: ricorrere solo a quei di-spositivi algoritmici rispettosi dei diritti dei lavoratori e che, soprattutto, possano essere resi trasparenti in giudizio; oppure, continuare a na-scondersi dietro il velo della opacità algoritmica, consapevole che il prezzo da pagare per questa scelta sarà la soccombenza in giudizio.
Sul punto, è utile osservare come, in un recente contenzioso instaurato dalla Cgil c. Deliveroo sulla asserita discriminatorietà dell’algoritmo Frank utilizzato dalla società per la gestione e programmazione di inca-richi e turni, le regole in materia di inversione parziale degli oneri della prova previste dal diritto antidiscriminatorio siano state decisive nel de-terminare la soccombenza di Deliveroo.
Come noto, nella pronuncia resa dal Tribunale di Bologna , la giudice ha dichiarato discriminatorio l’algoritmo di Deliveroo perché, stando al-la verità processuale accertata in giudizio, esso sarebbe stato program-mato in modo da penalizzare, in termini di future occasioni di lavoro, quei riders che si fossero astenuti dal lavorare dopo essersi prenotati sul-la piattaforma. Questo meccanismo, secondo il Tribunale, avrebbe de-terminato una discriminazione per ragioni sindacali di quei lavoratori che, una volta prenotatisi per un turno, decidevano poi di non lavorare per partecipare ad uno sciopero.
In realtà, come del resto ammesso dalla stessa giudice, la decisione è stata assunta in assenza di prova piena sul «concreto meccanismo di funzionamento dell’algoritmo», che resta tuttora sconosciuto. Infatti, è stato solo il combinato disposto delle informazioni rivelate da Deliveroo sul proprio sito internet e da un teste da essa introdotto che, facendo scattare il meccanismo di inversione parziale dell’onere probatorio pre-visto nel contesto normativo antidiscriminatorio, ha poi condannato la società alla soccombenza.
Questa analisi dimostra plasticamente come le regole in materia di in-versione degli oneri della prova abbiano una funzione antiepistemica perché ammettono che, quando un fatto resti indimostrato al termine dell’istruttoria (come il funzionamento dell’algoritmo Frank di Delive-roo), la decisione di una controversia possa essere fondata su un enun-ciato potenzialmente falso.
Concludendo, le regole che modificano la ripartizione degli oneri della prova, ivi incluse quelle che introducono presunzioni legali relative, promuovono la trasparenza algoritmica, ma solo indirettamente, incen-tivando un datore di lavoro o committente che non voglia perdere la causa a utilizzare solo gli algoritmi che possono essere resi trasparenti in giudizio. Naturalmente, l’efficacia di queste regole è piena ove l’onere della prova sia allocato in toto in capo al datore di lavoro o committente, mentre è solo parziale nei casi in cui esso venga ripartito tra le parti, come accade ad esempio nel diritto antidiscriminatorio. Pertanto, nei casi di inversione parziale dell’onere della prova, la piena trasparenza al-goritmica può essere promossa solo mediante l’esercizio preventivo e stragiudiziale dei diritti di informazione e accesso previsti dagli artt. 13 e 15 GDPR descritti supra, oppure per mezzo di un altro strumento rego-lativo, di matrice squisitamente processuale, su cui si concentrerà la parte finale di questo paragrafo.
Poteri istruttori
Il terzo e ultimo strumento utile a promuovere la trasparenza algoritmi-ca è costituito dai poteri istruttori del giudice del lavoro, previsti dall’art. 421 c.p.c. Mediante l’esercizio di questi poteri (che, secondo una interpretazione restrittiva della giurisprudenza, possono essere esercitati solo con funzione integrativa e mai suppletiva delle carenze probatorie delle parti), il giudice del lavoro potrebbe infatti ribilanciare nel processo quello squilibrio delle parti nell’accesso alla prova che è accentuato dall’utilizzo di algoritmi opachi .
Vi sono due prove che potrebbero essere funzionali allo scopo.
La prima è la prova testimoniale. Il giudice del lavoro potrebbe infatti chiamare a testimoniare individui non affetti dai problemi di opacità al-goritmica, cioè gli sviluppatori dello strumento di algorithmic management o, in alternativa, coloro che ne conoscano, comunque, il funzionamento. Questi soggetti potrebbero infatti rivelare in giudizio la logica sottesa al processo decisionale algoritmico o, quantomeno, i suoi effetti per i lavo-ratori.
La seconda è la consulenza tecnica c.d. “percipiente”, con cui il giudice affiderebbe al consulente di valutare le risultanze di una ispezione o un esperimento giudiziale aventi a oggetto l’algoritmo condotte dal CTU, al fine di comprendere l’effettivo funzionamento dello strumento di algo-rithmic management.
Peraltro, l’esercizio di tali poteri non potrebbe essere totalmente frenato da esigenze di protezione degli interessi al segreto di coloro che svilup-pano o comunque utilizzano i dispositivi algoritmici oggetto di prova. Non pare, infatti, che una investigazione processuale più attenta sui fatti di causa mediante testimonianze o consulenze tecniche percipienti pos-sa costituire una violazione del dovere di fedeltà di cui all’art. 2105 c.c. né di eventuali segreti commerciali a tutela degli algoritmi poiché, come più volte precisato dalla giurisprudenza, «al diritto di difesa in giudizio deve riconoscersi prevalenza rispetto alle eventuali esigenze di segretez-za dell’azienda», soprattutto ove «l’applicazione corretta della normativa processuale in materia [...] è idonea a impedire una vera e propria divul-gazione» delle informazioni riservate aziendali . Ciò, naturalmente, a condizione che le prove oggetto dell’esercizio del potere istruttorio sia-no rilevanti ai fini della dimostrazione dei fatti oggetto del processo.
Concludendo, le regole che attribuiscono ai giudici del lavoro ampi po-teri istruttori promuovono direttamente la trasparenza algoritmica, in-centivando un datore di lavoro o committente che non voglia perdere la causa a utilizzare solo gli algoritmi che possono essere resi trasparenti in giudizio e che non siano lesivi dei diritti dei lavoratori. In altre parole, essi «corrispondono ad una necessità epistemica, trattandosi di stru-menti finalizzati a conseguire lo scopo dell’accertamento della verità» materiale nel processo , fino ad allora celata dietro un velo di opacità algoritmica.
Da questo angolo prospettico, potrebbe dunque sembrare opportuno rivisitare gli orientamenti restrittivi della giurisprudenza in materia di esercizio dei poteri istruttori del giudice del lavoro, perlomeno nei casi in cui la tecnologia, aumentando le asimmetrie informative tra le parti del processo, precluda l’accertamento della verità materiale. Insomma, un esercizio più incisivo di questi poteri, guidato e allo stesso tempo li-mitato dal criterio di prossimità alla fonte di prova, renderebbe il diritto del lavoro italiano ancor meglio equipaggiato per far fronte alle sfide lanciate dalla rivoluzione tecnologica in atto .
3. Gli anticorpi regolativi contro l’opacità algoritmica nella Pro-posta di Direttiva relativa al miglioramento delle condizioni di lavoro nel lavoro tramite piattaforme digitali
L’analisi portata avanti al par. 2 supra ha dimostrato come esistano, nell’ordinamento italiano, tre classi di anticorpi regolativi utili a garanti-re una maggiore trasparenza delle decisioni assunte mediante algoritmi.
Tuttavia, il problema della opacità algoritmica continua a costituire un ostacolo alla piena tutela dei diritti dei lavoratori, soprattutto in quei contenziosi in cui l’onere di provare certi fatti grava in toto sul lavorato-re, come accade nelle azioni volte ad accertare la natura subordinata o etero-organizzata di un rapporto di lavoro qualificato dalle parti come autonomo.
Da questo punto di vista, dunque, può essere accolta con favore la Pro-posta di Direttiva del Parlamento europeo e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattafor-me digitali (da qui in avanti, la “Proposta di Direttiva”) , perché si propone di affrontare il problema della opacità algoritmica , anche se limitatamente al lavoro tramite piattaforma digitale e principalmente con riguardo al problema della qualificazione dei rapporti di lavoro con le piattaforme .
Posto che la trasparenza algoritmica è uno degli obiettivi che il legisla-tore UE si è proposto di perseguire mediante la Proposta di Direttiva , sembra dunque utile analizzare gli strumenti normativi per mezzo dei quali si è cercato di raggiungere questi scopi che, come si vedrà a breve, sono analoghi a quelli presentati al par. 2 supra.
A. Prima del processo
Diritti di informazione e accesso
Il primo strumento utile a promuovere la trasparenza algoritmica a fa-vore dei lavoratori che operano per le piattaforme digitali è costituito dall’art. 6 della Proposta di Direttiva.
In particolare, l’art. 6 della Proposta di Direttiva prevede che le piatta-forme digitali debbano informare i lavoratori in merito, da un lato, ai si-stemi di monitoraggio automatizzati e, dall’altro, ai sistemi decisionali automatizzati.
L’art. 6(2) dettaglia poi la tipologia di informazioni oggetto di questo di-ritto. Di fatto, il legislatore UE si è mosso nella direzione di ampliare il novero delle informazioni che le piattaforme digitali avrebbero già do-vuto fornire ai propri lavoratori ai sensi dell’art. 13 del GDPR, preve-dendo, ad esempio, che essi abbiano diritto di ottenere le informazioni relative ai principali parametri utilizzati dai sistemi decisionali automa-tizzati, nonché i motivi sottesi alle decisioni da essi assunte.
L’art. 6(3) precisa poi che tali informazioni debbono essere fornite «al più tardi il primo giorno lavorativo come pure in caso di modifiche so-stanziali». Peraltro, lo stesso articolo precisa che le stesse dovranno es-sere altresì fornite «in qualsiasi momento su richiesta dei lavoratori delle piattaforme digitali», così enucleando un diritto di accesso sulla scorta di quello previsto dall’art. 15 del GDPR.
B. Durante il processo
Modificazione degli oneri della prova
Il secondo strumento utile a promuovere la trasparenza algoritmica a favore dei lavoratori che operano per le piattaforme digitali è previsto dal combinato disposto degli artt. 4 e 5 della Proposta di Direttiva.
In particolare, l’art. 4(1) della Proposta di Direttiva prevede una pre-sunzione legale di subordinazione nel caso in cui la piattaforma digita-le «controll[i] […] l’esecuzione del lavoro» di un determinato lavoratore.
La presunzione legale scatta al ricorrere di almeno due di cinque indici, che sono enumerati dall’art. 4(2) della Proposta di Direttiva.
La presunzione legale è relativa perché, come chiarito dall’art. 5(1), cia-scuna delle parti – anche se, verosimilmente, sarà il datore di lavoro ad avere nella prassi questo interesse – ha la possibilità di «confutare la presunzione legale di cui all’articolo 4 nei procedimenti giudiziari».
Effetto automatico derivante dalla introduzione di una presunzione le-gale relativa, almeno in Italia, sarebbe poi stato quello di una relevatio ab onere probandi in favore della parte onerata, con conseguente inversione dell’onere probatorio in capo alla controparte. Tale effetto sugli oneri della prova è peraltro esplicitato dall’art. 5(2) della Proposta di Diretti-va, il quale prevede espressamente che, qualora la piattaforma intenda «confutare la presunzione legale», allora «l’onere della prova incombe alla piattaforma di lavoro digitale».
Una seconda modificazione degli oneri della prova è prevista all’art. 18(3) della Proposta di Direttiva, che prevede che spetti alla piattaforma digitale «dimostrare che il licenziamento o le misure equivalenti erano basati su motivi diversi» dal fatto che i lavoratori abbiano esercitato i di-ritti previsti dalla Proposta di Direttiva.
Poteri istruttori
Il terzo e ultimo strumento utile a promuovere la trasparenza algoritmi-ca a favore dei lavoratori che operano per le piattaforme digitali è previ-sto dall’art. 16 della Proposta di Direttiva.
In particolare, l’art. 16(1) della Proposta di Direttiva prevede che, nei contenziosi aventi ad oggetto la qualificazione di un rapporto di lavoro con una piattaforma digitale, «gli organi giurisdizionali nazionali […] possano ordinare alla piattaforma di lavoro digitale di divulgare qualsiasi prova pertinente che rientri nel suo controllo». In altre parole, questa disposizione attribuisce ai giudici un potere istruttorio molto ampio, il quale trova soltanto due limiti che, utilizzando il gergo giuridico nazio-nale, vengono individuati nel criterio di vicinanza della prova e in quel-lo di rilevanza: cioè, i due criteri già valorizzati al par. 2 supra.
L’art. 16(2) della Proposta di Direttiva prevede poi che gli Stati Membri provvedano affinché i giudici nazionali, nei casi in cui l’esercizio dei po-teri istruttori abbia ad oggetto «prove che contengono informazioni ri-servate», «dispongano di misure efficaci per proteggerle […] allorquan-do ordinano la divulgazione di tali informazioni» . Insomma, consape-vole dei rischi di opacità algoritmica derivanti da ostacoli alla trasparen-za di natura legale, il legislatore UE dispone una soluzione che tutela i contrapposti interessi delle parti e che sembra in linea con quella propo-sta al par. 2 supra, sulla scorta di una certa giurisprudenza della Corte di Cassazione.
4. Conclusioni
In questo contributo, si è cercato di dimostrare come esistano tecniche normative che costituiscono anticorpi regolativi utili a contrastare il problema della scarsa trasparenza algoritmica. Come precisato al par. 2 supra, nel sistema normativo italiano sono state già sperimentate tecni-che normative funzionali a svelare potenziali violazioni della disciplina giuslavoristica o privacy che, altrimenti, sarebbero rimaste nascoste die-tro un velo di opacità algoritmica.
In ragione del sempre più ampio ricorso a pratiche di algorithmic manage-ment, queste tecniche normative potrebbero essere utilizzate su più larga scala da quei legislatori che vogliano fornire una risposta efficace per garantire una tutela effettiva dei lavoratori la cui prestazione viene gesti-ta da dispositivi algoritmici, così riducendo le asimmetrie informative che, altrimenti, sarebbero da questi ampliate.
Da questo punto di vista, deve dunque essere salutata con favore la Proposta di Direttiva perché, come precisato al par. 3 supra, essa fa am-pio ricorso a queste tecniche normative per garantire una tutela effettiva dei diritti dei lavoratori tramite piattaforma, terreno di vasto utilizzo di strumenti di algorithmic management, soprattutto con riguardo al problema della qualificazione del loro rapporto di lavoro.
Tuttavia, la Proposta di Direttiva costituisce una risposta solo parziale per risolvere il problema della opacità algoritmica poiché, come precisa-to in apertura, il fenomeno, lungi dall’essere sperimentato solo nel lavo-ro tramite piattaforma, è oggi ormai radicato anche in contesti organiz-zativi più tradizionali rispetto a quello in cui operano le piattaforme. In altre parole, sarebbe stato forse più opportuno regolare il fenomeno dell’algorithmic management in quanto tale e non il contesto organizzativo dove esso è, ad oggi, maggiormente sperimentato, cioè quello delle piat-taforme digitali. Il rischio di questo approccio regolativo, infatti, è che i legislatori si trovino sempre a rincorrere, invece che a orientare ex ante tramite la regolazione, il progresso tecnologico.
Nulla toglie, in ogni caso, che la Proposta di Direttiva possa essere il primo passo per estendere poi su più larga scala tecniche normative che hanno già dimostrato di essere estremamente efficaci nel risolvere il problema della opacità algoritmica.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.