Testo integrale con note e bibliografia

1. Premessa: dalla Società dell’informazione alla Società algoritmica
L’intelligenza artificiale costituisce oramai un tratto che caratterizza la società contemporanea, tanto che si tende giustamente a parlarne in termini di “Società algoritmica” più che “dell’informazione” : certo, quest’ultima rimane pur sempre cruciale, ma è ciò che se ne fa che permette una evoluzione prima solo fantasticata e oggi progressivamente realizzata, ancorché non compiutamente. Così, la società viene organizzata sulla base di processi decisionali delegati a software che, in esecuzione di complessi algoritmi, elaborano o comunque adoperano proprio l’informazione non solo a fini decisionali, bensì anche solo per apprendere (e dunque diventare più intelligente ed esperta), dal momento che l’addestramento dei sistemi intelligenti richiede proprio la fornitura di dati per consentire loro di imparare costantemente e poi continuare a farlo grazie all’esperienza che progressivamente acquisiscono.
In linea generale, pertanto, un intermediario privilegiato per l’esercizio del potere viene ad essere costituito dagli algoritmi e, com’è noto, anche il potere datoriale viene sempre più spesso esercitato mediante delega ai sistemi informatici.
Non ci si può tuttavia illudere che l’automazione consenta di superare le problematiche connesse a quelle decisioni inconsapevolmente o consapevolmente illecite, errate, arbitrarie e/o discriminatorie che in taluni casi caratterizzano l’esercizio, proprio, del potere datoriale: gli algoritmi, infatti, non sono neutrali, né tecnicamente né eticamente , e “nascondono la vecchia ambizione di dominio, tipica dell’assolutizzazione del potere ‘oligarchico’” .
Questa “nuova ondata tecnologica” pone costantemente delicatissime sfide ed è idonea a creare nuove forme di vulnerabilità e potenziare quelle esistenti . Di particolare rilievo, in questa prospettiva, è proprio l’ambito giuslavoristico, che è delicatissimo a causa della sua stessa natura. Prima di affrontarlo specificatamente è tuttavia opportuno effettuare talune notazioni preliminari sull’intelligenza artificiale e, in particolar modo, su una problematica centrale: l’oscurità degli algoritmi che ne guidano l’operato.

2. L’intelligenza artificiale fra opacità e imperscrutabilità
I sistemi intelligenti coadiuvano l’essere umano nel prendere decisioni, tanto da poterlo addirittura sostituire in casi sempre più numerosi: è, questo, un tratto che caratterizza la Società algoritmica. Dopo il susseguirsi di “estati” e “inverni” dell’intelligenza artificiale, forse siamo oramai giunti al principio di una eterna estate che è lungi dal poter svanire. Ciò non significa, però, che vi siano solo aspetti positivi: tutt’altro.
Pur non essendo questa la sede per effettuare considerazioni generali sulle problematiche che scaturiscono dalla pervasiva diffusione dell’intelligenza artificiale nella società contemporanea, può osservarsi che un aspetto negativo particolarmente rilevante è costituito dalla sua opacità che può giungere alla moltiplicazione di sistemi che possono essere considerati delle vere e proprie “scatole nere” , in cui i flussi informativi viaggiano sovente all’insaputa degli interessati grazie ad algoritmi segreti. Ciò rileva, ai fini del presente scritto, in relazione a due aspetti principali.
In primo luogo, chi crea gli algoritmi (e li implementa nei sistemi intelligenti che poi fornisce ai propri clienti e utenti) acquisisce un notevole potere economico che può prosperare grazie alla confidenzialità degli algoritmi e dei codici informatici, che a loro volta sono protetti dalle normative in materia di proprietà intellettuale e industriale (che impedisce accessi e utilizzi non autorizzati), da un lato, e dalla stessa complessità dei sistemi informatici (che rende arduo comprenderne in modo preciso e accurato i “comportamenti”), dall’altro.
In secondo luogo, chi adopera detti sistemi - ancorché forniti da terzi - per delegare parzialmente o totalmente l’esercizio del potere datoriale, gestisce i relativi flussi informativi potendo godere non solo di un controllo più o meno intenso sul sistema di cui trattasi, ma altresì della confidenzialità intrinseca proprio a tali sistemi: spesso è di fatto impossibile, o è molto complesso e costoso, andare a ritroso e ricostruire effettivamente (ossia in quel sistema informatico in un determinato arco temporale) le direttive fornite dal datore al sistema intelligente in un determinato momento, così da comprendere la logica sottostante alle decisioni prese: e, in caso di controversia giudiziale, le relative tempistiche non aiutano di certo.
Su tale questione si tornerà più compiutamente nel prosieguo, ma appare opportuno ora evidenziare l’attualità di quanto acutamente osservato da Stefano Rodotà circa la nuova forma di arcana imperii che ha preso forma in modo tristemente paradossale: da un lato, le tecnologie dell’informazione e della comunicazione rendono la società più trasparente poiché permettono controlli diffusi su qualsiasi potere, ma gli algoritmi che fondano a loro volta il potere dei soggetti che prestano i relativi servizi tecnologici rimangono segreti, dall’altro . Questo fenomeno assume, oggi, nuove valenze: alla segretezza degli algoritmi del fornitore dei sistemi si aggiunge, potenzialmente, quella delle “indicazioni” fornite dal loro utilizzatore-datore di lavoro e, ciò che più conta, dei dati effettivamente trattati dal sistema al fine di prendere le proprie decisioni.
In argomento, nonostante alle specifiche disposizioni lavoristiche si affianchino quelle in materia di protezione dei dati personali (sostanzialmente il Regolamento UE n. 679/2016, Regolamento Generale sulla Protezione dei Dati – di seguito GDPR, e il D.lgs. 196/2003, Codice in materia di protezione dei dati personali), l’opacità è pressoché assoluta: non è normalmente possibile sapere quali e quante informazioni siano effettivamente acquisite ed elaborate, né come lo siano o controllarne realmente la circolazione (che hanno però un impatto settoriale e limitato). Ciò comporta la creazione di un circolo vizioso in assenza, a tutt’oggi, di una reale regolamentazione dell’intelligenza artificiale e delle sue applicazioni, cui consegue un potenziamento dell’opacità. Solo negli ultimi anni i legislatori si stanno risvegliando dal loro torpore: troppo poco, troppo tardi? In ogni caso, mentre le proposte vengono discusse, la tecnologia avanza incessantemente.
Si ripropone, ancora una volta e in altre modalità, il problema delle norme opache, che vengono applicate dal giudice senza poterle realmente comprendere ma facendo invece riferimento a ciò che viene detto dagli esperti. In simili ipotesi, l’opacità non è dovuta al tecnicismo in sé, bensì all’asimmetria cognitiva fra i legislatori e i giudici, da un lato, e gli esperti, dall’altro, poiché quando il linguaggio tecnico non giuridico è comprensibile dai primi, il diritto non è opaco ed essi operano nell’ambito dei propri ruoli. Qualora ciò non avvenga, essi non possono compiere una serie di attività intellettuali, di scelte pratiche e di ragionamenti .
La summenzionata asimmetria cognitiva è massima in riferimento ai sistemi intelligenti, per la loro stessa natura. Essa riguarda tutti i loro utilizzatori, siano essi diretti (chi si fa coadiuvare da un sistema, come il datore di lavoro, salvo che non abbia sviluppato internamente il sistema stesso o comunque abbia commissionato ad hoc lo sviluppo acquisendo altresì i diritti sul codice sorgente) o indiretti (chi subisce gli effetti dell’utilizzo del sistema, come lavoratori e lavoratrici nel caso che ci occupa): essi sono opachi perché non comprensibili al di fuori della cerchia di chi li ha creati e li gestisce. Solo il loro output e/o le conseguenze delle loro azioni (materiali o immateriali) vengono percepite, ma operando in ambienti complessi in cui avvengono infinite interazioni diviene estremamente difficile, e talvolta impossibile, comprendere se in essi vi siano anomalie o se essi compiano azioni riferibili ai propri produttori od utilizzatori; in ipotesi, tali informazioni potrebbero essere ricavate soprattutto dallo studio dei rispettivi codici e dei file di log.
Una precisazione appare doverosa: anche chi detiene il potere sui sistemi medesimi può faticare nel comprenderli realmente e renderli trasparenti. Ciò è dovuto al fatto, da un lato, che sistemi tanto evoluti sono oltremodo complessi (del resto svolgono compiti che richiedono intelligenza) e, dall’altro, che operano in modo autonomo, applicando le conoscenze apprese anche automaticamente sulla base degli algoritmi di apprendimento automatico: anche grazie alla loro crescente “intelligenza” , le loro azioni sono imprevedibili dal punto di vista sia teorico sia pratico .

3. Dall’opacità alla spiegabilità?
I rilievi sin qui svolti fanno intuire l’importanza del superamento, anche entro limiti comunque discutibili (ad esempio, solo al verificarsi di determinate condizioni e cercando un punto di equilibrio rispetto alle legittime pretese dei fornitori e degli utilizzatori dei sistemi intelligenti), dell’opacità: ciò, però, può avvenire esclusivamente mediante una regolamentazione che sia non solo formalmente valida, ma anche efficace – il che richiede, però, di volgere in modo deciso lo sguardo anche alle problematiche tecniche che scaturiscono dalla sua eventuale applicazione pratica, fra cui la complessità dei sistemi informatici che potrebbero dover essere sottoposti a verifica.
Sino ad oggi è indubbio che, nella prospettiva del legislatore, un ambito della società tanto trasversale e importante sia stato lasciato a una tecno-regolazione autoreferenziale, in cui la legge è il codice informatico (per usare la celebre espressione di Lawrence Lessig e andando verso la c.d. lex informatica ) e il legislatore chi lo crea e lo gestisce (con prerogative più ampie di un legislatore nazionale, avendo un dominio sostanzialmente assoluto sullo spazio cibernetico che va a creare e gestire).
Il grado di opacità non pare ridursi neanche nei casi in cui il potere tecno-economico debba cedere e adeguarsi alle decisioni di quello giudiziario, come nei celebri casi Google Spagna e Schrems I e II ; non abbiamo ancora, infatti, strumenti tecnici che consentano di accertare che determinate operazioni vengano effettivamente svolte su sistemi informatici di elevatissima complessità e magari dislocati in stati diversi.
Si consideri che mentre in alcuni casi le azioni dell’agente di un sistema sono percepibili esternamente solo dopo essere state compiute, in altri possono non esserlo: basti pensare alla sorveglianza che viene effettuata non solo e non tanto con “vistose” videocamere quanto, piuttosto, sfruttando funzionalità proprie di dispositivi e servizi di uso comune, dagli smartphone agli autoveicoli, dai computer alle carte di pagamento, dalla videoconferenza alla posta elettronica, e così via.
Fra i vari ambiti da prendere in considerazione, dunque, quello lavoristico appare – intuitivamente – assai delicato,
In ambito lavoristico (e non solo), una simile sorveglianza, poi, può essere particolarmente delicata: ad esempio, come è possibile accertarsi che non venga monitorata la condotta di un dipendente durante le videoconferenze grazie al ricorso a tecniche di intelligenza artificiale, magari al fine di calcolarne la produttività in base a un trattamento automatizzato e imperscrutabile ? In tal senso, la sempre maggiore spinta verso il cloud computing rende sempre più difficile giungere a rendere concretamente esercitabile un eventuale diritto alla spiegabilità delle “azioni” dei sistemi intelligenti, oltre che effettivamente accertabile il rispetto della vigente normativa in materia di protezione dei dati personali (v. altresì infra, par. 4): bisognerebbe forse effettuare una verifica sulla versione specifica del relativo software adoperato in un determinato momento? E come contrastare eventuali fenomeni di elusione o violazione anche di una simile normativa ?
Come dimostra la prassi, oltretutto, ben difficilmente un giudice imporrà di verificare il codice utilizzato nella prestazione di un servizio reso su scala globale, in quanto basato su segreti industriali e utilizzato per fornire servizi a milioni o addirittura a miliardi di utenti; ciò potrebbe in ipotesi essere una conseguenza della sproporzione fra il valore della causa (e del diritto tutelato), da un lato, e della proprietà industriale e intellettuale, dall’altro, cui si aggiunge la (im)possibilità di raggiungere un risultato accettabile (dal punto di vista probatorio) con minor sforzo e rischi per tali diritti. In tal modo, la tecnica prevale sul diritto e ambito cruciale della società contemporanea viene celato allo sguardo di terzi, inclusi legislatori e giudici.
Così, l’opacità potrebbe essere uno strumento per nascondere eventuali trattamenti illeciti di dati personali, atti di discriminazione, anomalie del software, falle di sicurezza, e così via, dal momento che è praticamente possibile, o comunque assai difficile, ricostruire ciò che sia realmente accaduto in un determinato sistema in un momento specifico: il che può assumere rilevanza per valutare la legittimità dell’esercizio del potere direttivo, di controllo e disciplinare del datore di lavoro.
Invero, già nel considerando n. 71 del GDPR si legge che un trattamento automatizzato che produce effetti giuridici (o analoghi) sull’interessato (nei casi in cui viene consentito), “dovrebbe essere subordinato a garanzie adeguate, che dovrebbero comprendere la specifica informazione all’interessato e il diritto […] di ottenere una spiegazione della decisione conseguita dopo tale valutazione e di contestare la decisione”.
Sul punto, il Gruppo di lavoro articolo 29 per la protezione dei dati ha osservato che il titolare dovrebbe comunicare in modo semplice all’interessato la logica o i criteri sui quali si basa l’adozione della decisione, “ma non necessariamente una spiegazione complessa degli algoritmi utilizzati o la divulgazione dell’algoritmo completo” .
Del resto, la trasparenza potrebbe essere illusoria anche qualora si potesse visionare tutto il codice informatico adoperato durante i processi decisionali, poiché sarebbe difficilmente comprensibile, anche ove dovesse esserne consentito l’accesso a chi ha il controllo sul medesimo (cui si aggiunge la difficoltà di cristallizzarne una versione a causa di costanti modifiche al codice medesimo).
Anche spiegazioni fornite sulla scorta di quanto osservato dal Gruppo di lavoro articolo 29, ad ogni buon conto, potrebbero essere insufficienti ove non dovesse essere possibile verificarne l’implementazione in un caso concreto. Ragionando in senso contrario, il creatore (o gestore) degli algoritmi godrebbe di una presunzione assoluta di buona fede previo adempimento di un’astratta obbligazione di disclosure, cui conseguirebbe una sostanziale irresponsabilità (fatti salvi casi estremi in cui sia possibile dedurre l’inadempimento dall’output del sistema o della piattaforma nel caso in cui dovesse essere palesemente in contrasto con quanto dichiarato).
Negli ultimi anni, però, il quadro sta mutando; la letteratura in materia è oramai sterminata così come i dibattiti e le discussioni a livello della società intera .
Ciò nonostante, i legislatori sono in notevole ritardo: i proclami, i lavori delle commissioni, le raccomandazioni, e così via, non si sono ancora colpevolmente tradotti in testi normativi che, ad oggi, effettivamente e concretamente impongano una evoluzione che si potrebbe definire costituzionalmente orientata della Società algoritmica, che viene ora guidata in modo quasi totalmente esclusivo dai poteri privati a scapito di quelli pubblici. Già le procedure (e i pesi e i contrappesi) che regolano l’azione di quest’ultimi, del resto, appaiono basate su concezioni calate in realtà in cui l’evoluzione avanzava in modo rapido ma non incessantemente vorticoso come accaduto dopo la diffusione del web e il passaggio dalla Società dell’informazione a quella algoritmica.

 

4. Intelligenza artificiale, privacy e protezione dei dati personali nel rapporto di lavoro
L’utilizzo di strumenti “intelligenti” nell’ambito del rapporto di lavoro può assumere rilevanza giuridica ancor prima della sua costituzione. Basti pensare, in tal senso, alle indagini finalizzate a ricostruire l’identità del potenziale lavoratore; ai fini del presente scritto, si intende per essa la proiezione sociale della personalità di un individuo che comprende normalmente quel patrimonio di idee e di opinioni che toccano la nota elencazione di cui all’art. 8 l. 300/70 (opinioni politiche, religiose o sindacali del lavoratore, nonché fatti non rilevanti ai fini della valutazione della sua attitudine professionale del lavoratore).
Tali indagini possono anche essere compiute agevolmente su larga scala e, com’è noto, processi di selezione automatizzata basata, magari, sulla elaborazione di dati provenienti da social network, web e altre fonti (come database privati) potrebbero comportare discriminazioni ove i sistemi all’uopo adoperati avessero dei c.d. bias.
Le nuove tecnologie, inoltre, si prestano a essere proficuamente utilizzate in ambito lavoristico anche nel corso della esecuzione dei contratti di lavoro subordinato e parasubordinato, nonché di molte collaborazioni con lavoratori autonomi (che, magari, tali non sono). Così, strumenti sempre più avanzati possono essere adoperati per monitorare e addirittura gestire tali rapporti. Un caso paradigmatico è quello dei c.d. riders, che evidenzia come il datore di lavoro deleghi l’esercizio dei poteri datoriali a un sistema informatico che esegue implacabilmente algoritmi estremamente avanzati, portando all’estremo il fenomeno della disumanizzazione del rapporto lavorativo.
A titolo esemplificativo, si consideri che anche il Garante per la protezione dei dati personali si è occupato a più riprese di tali questioni, gli algoritmi di prenotazione e assegnazione degli ordini di cibo e prodotti non producano forme di discriminazione , mentre in ambito legislativo dovrebbe giungersi – finalmente – a una regolarizzazione in tempi brevi grazie alla proposta di direttiva sulle piattaforme digitali .
Così, in prospettiva informatico-giuridica, può evidenziarsi che questo caso, così come tutti quelli in cui un sistema intelligente venga utilizzato al fine anzidetto, non si pongano “solo” le questioni già ottimamente affrontate da dottrina e giurisprudenza , ma altresì la problematica di una ulteriore forma di squilibrio fra datore e prestatore: la trasparenza dei controllati che si contrappone alla segretezza delle tecnologie di controllo.
Vi è di più. A ben vedere, il funzionamento “interno” di tali tecnologie è, sovente, sconosciuto addirittura per il datore-controllante, in quanto detti avanzati sistemi sono normalmente forniti da soggetti terzi che mantengono piena confidenzialità del codice informatico che viene eseguito e che può ipoteticamente venire a conoscenza di dati personali estremamente delicati, come si è già evidenziato nel paragrafo precedente.
Sullo sfondo rimane comunque la problematica, essenziale, della nulla o minima tutela per lavoratori e lavoratrici, che, realizzando la prospettiva del dataismo, vengono ridotti ai dati che si riferiscono a loro e che vengono elaborati per gestire il personale grazie alle tecniche di “people analytics”.

 

5. Problemi e prospettive
Il quadro sin qui descritto, ancorché necessariamente parziale, ha consentito di mostrare talune criticità conseguenti alla progressiva adozione di sistemi intelligenti anche in ambito lavoristico.
Particolare attenzione è stata dedicata alla questione della opacità e della auspicabile spiegabilità (degli algoritmi) dei sistemi intelligenti, tenendo conto che la normativa vigente sostanzialmente protegge la prima, rendendo di fatto inconoscibili i reali meccanismi di funzionamento dei suddetti sistemi. Può tuttavia affermarsi che sia possibile reperire un’arma negli strumenti di tutela previsti dalla vigente normativa in materia di protezione dei dati personali: essa è, però, un’arma spuntata, come di seguito esposto.
Innanzi tutto, si è detto in precedenza che può essere molto complesso e costoso comprendere la logica sottostante alle decisioni prese da un sistema intelligente cui un ipotetico datore di lavoro abbia delegato lo svolgimento di azioni che concretizzano l’esercizio del potere datoriale (sia esso direttivo, di controllo o disciplinare) , o sia comunque stato assistito dal sistema medesimo nel prendere le proprie decisioni (ad esempio, commina una sanzione disciplinare grazie a una pervasiva azione automatizzata di monitoraggio).
Ciò è dovuto alla complessità e segretezza (intrinseche) degli strumenti (hardware e software), che oltretutto sono forniti sempre più in modalità cloud e dunque al di fuori della possibilità di un controllo realmente totale da parte del datore dal momento che i relativi server sono gestiti da fornitori terzi.
Vi è di più. Proprio nel caso di servizi resi in cloud, i fornitori possono trovarsi a trattare dati personali e aziendali estremamente delicati, effettuando inoltre elaborazioni di varia tipologia: ad esempio, analisi automatizzata delle videoconferenze per giudicare l’attenzione degli interlocutori da utilizzarsi ai fini della valutazione della loro produttività.
Indipendentemente dalle suddette esemplificazioni, può comunque osservarsi che la diffusione capillare di strumenti intelligenti in ambito lavoristico ha una invasività e una pervasività variabili – anche considerando unicamente la protezione dei dati personali – in base alle mansioni concretamente svolte. Così, mentre i reparti produttivi si riempiono di macchinari “intelligenti” che, nell’aumentare la produttività, consentono altresì l’effettuazione di monitoraggi estremamente precisi dell’attività di ciascun lavoratore, sorgono addirittura nuove professioni che, per loro natura, sono costantemente monitorate: basti pensare alla prestazione di lavoro e-sportivo.
Sul punto è opportuno effettuare due riflessioni in due prospettive del tutto diverse.
In primo luogo, i rischi per lavoratori e lavoratrici sono evidenti: gli stessi dispositivi utilizzati per l’effettuazione della prestazione lavorativa si prestano a essere adoperati per lo svolgimento di un monitoraggio continuativo, pervasivo ed estremamente preciso.
In secondo luogo, la diffusione di simili sistemi “intelligenti” rischia di aumentare il divario fra piccole e medie imprese, da un lato, e le grandi aziende, dall’altro, che possono utilizzare gli anzidetti sistemi o comunque possono fornirli.
Queste brevissime considerazioni – il cui compiuto sviluppo richiederebbe ben altro spazio – ne fanno emergere un’altra, quale conseguenza forse ineluttabile: dinanzi al prepotente incedere della tecnologia è necessario riaffermare costantemente la centralità del diritto e, in particolare, della normativa in materia di protezione dei dati personali per trovare un equilibrio che sarà – comunque – sempre mutevole.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.