TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

1. Un libro denso

Il libro di Elena Falletti (di seguito, per brevità, solo EF) è, come nota subito Roberto Pardolesi nella sua prefazione, “innanzi tutto, una straordinaria miniera di informazioni” (p. XI). Ciò dipende certamente dalla vastità della materia investigata in una prospettiva storico-comparata e autenticamente interdisciplinare: come infatti ricorda efficacemente la stessa Autrice a conclusione del suo ponderoso sforzo ricostruttivo, l’obiettivo perseguito nel lungo percorso di ricerca nel quale si snoda il libro riguarda “l’analisi di un ambito complesso ed elusivo attraverso un approccio multidisciplinare al fine di indagare come funziona e, in conseguenza di ciò, come valutare sotto il profilo giuridico, un sistema algoritmico decisorio automatizzato” (p. 291). E la vastità proteiforme della materia trattata è tale da costringere EF ad un autentico tour de force praticamente in tutti gli ambiti della esperienza giuridica – sempre più vasti e trasversali – nei quali si fa uso di tali sistemi e, in prospettiva, delle nuove forme di intelligenza artificiale (AI): dal diritto pubblico e amministrativo a quello penale, dal diritto commerciale e della concorrenza a quello dei consumi, sino al diritto del lavoro e della sicurezza sociale, per citare sommariamente i principali ambiti di approfondimento tematico rinvenibili nel libro. E ciò, per precisa scelta di metodo, mettendo sempre al centro della propria analisi – in ottica rigorosamente comparata (tra Europa e Stati Uniti, essenzialmente, con timidi cenni alla cultura “altra” della Cina) – la disciplina della privacy e dei dati personali (in primis, ovviamente, il regolamento generale 2016/679: GDPR) e il diritto antidiscriminatorio: le due chiavi ricostruttive fondamentali (e complementari).
La parte più ricca – e insieme più densa – di informazioni che EF generosamente offre al lettore, che (come il redattore di queste brevi note) ( ) è più digiuno dei rudimenti tecnici di base, riguarda l’apparato nozionistico e definitorio minimo che occorre possedere per iniziare almeno ad addentrarsi nella ineliminabile complessità dell’oggetto indagato: è qui che l’A. deve soprattutto esercitare la sua sapienza, e vorrei dire la sua (a tratti persino didascalica) pazienza divulgativa, fornendo i concetti “basici” per comprendere il testo: quali quelli di algoritmo, di sistema esperto, di vero e proprio ADM (i.e., algoritmo decisorio automatizzato, l’oggetto precipuo della analisi: v. p. 5), di intelligenza artificiale, e quindi di black box, machine learning, deep learning e così via: in un crescendo di distinzioni tanto necessarie quanto oggettivamente “difficili”, quantomeno per il non addetto ai lavori.
Si tratta di un apparato di concetti molto complesso – denso appunto, come dense sono le lunghe pagine del libro che li svolgono (v. in particolare pp. 145 ss.) –, che EF introduce pazientemente a più riprese nel corso della trattazione anche al lettore (confessiamolo ora apertamente senza infingimenti) più ignaro (e ignorante), qual è di sicuro il sottoscritto, e che ha quindi maggior bisogno di sapersi orientare con un minimo di capacità di discernimento. Qui l’A. certamente si giova di un fitto dialogo, autenticamente multi-disciplinare, con le discipline “dure”, informatiche e logico-matematiche, con le quali, anche per esigenze accademico-professionali, ha necessità di misurarsi da giurista consapevole della complessità dei problemi (non sembra inutile rammentare che EF insegna diritto comparato nella Scuola di Ingegneria della Università Carlo Cattaneo - LIUC).

2. L’oggetto proteiforme del libro

L’oggetto della indagine è dunque proteiforme ma al contempo nitidamente e rigorosamente individuato. Se “la decisione automatizzata rappresenta il bilanciamento ottimale tra l’efficienza nell’ottenimento di un risultato il più possibile aderente alla realtà seriale di riferimento e la necessità che il suo committente (singolo, ente pubblico o privato) ha di rimanere immune da forme di responsabilità rispetto alla decisione medesima, in particolare in termini di accountability, di fronte alla pubblica opinione” (p. 7), e ovviamente agli stessi destinatari diretti di tali decisioni “delegate” all’algoritmo, l’obiettivo di fondo della ricerca di EF è esattamente quello di guardare dentro questi meccanismi – di rompere “il giocattolo … per vedere come è fatto” (come scrive a p. 291) – utilizzando, come chiave per questa sofisticata operazione di decostruzione e di ricostruzione, i diritti fondamentali della persona (anzitutto alla privacy e al controllo sui propri dati personali e quello, collegato, a non essere ingiustamente e sistematicamente discriminati in sede di trattamento dei medesimi dati da parte dell’ADM).
L’assunto di fondo del libro è, infatti, che “solo il controllo (soprattutto individuale e personale, sulla base del principio di auto-responsabilità, oltre a quello istituzionale) dei propri dati possa rappresentare una soluzione il più possibile efficace contro il trattamento discriminatorio dei risultati dei procedimenti automatizzati” (p. 7); donde la necessità di far interagire le prospettive e le risorse di tutela – diverse ma complementari – rispettivamente offerte dalla normativa europea in materia di privacy e protezione dei dati personali e da quella anti-discriminatoria, anche essa caratterizzata, come la prima, da una stratificazione multi-livello.
EF colloca in questo contesto – già presidiato da questi blocchi normativi di partenza – l’analisi, svolta diffusamente nelle pagine del libro (specie all’inizio e alla fine: v. spec. pp. 8 ss. e 291 ss.), delle nuove e ambiziose iniziative regolative messe in campo dalla Commissione europea, in particolare con la proposta di regolamento in materia di intelligenza artificiale e, per cominciare ad avvicinarci ai temi più vicini agli interessi specifici di chi scrive questa recensione, con la proposta di direttiva sul lavoro tramite piattaforme digitali ( ).
La trattazione del tema è ordinata per progressiva accumulazione di informazioni, analisi, ricostruzioni: dapprima è ricostruito il ruolo centrale che la normativa europea in materia di privacy – il primo e fondamentale baluardo contro le tentazioni di controllo totalitario che sulle nostre vite può esercitare il nuovo Leviatano algoritmico e digitale – svolge anche per proteggere dalle diverse forme di discriminazione; in secondo luogo, è esaminato lo specifico rilievo della normativa anti-discriminatoria (con un interessante confronto, anche in tal caso, tra le due varianti, sensibilmente diverse pure sotto questo profilo, della tradizione giuridica occidentale: la nordamericana e l’europea); vengono quindi approfonditi i problemi applicativi posti dalla sfida radicale dei nuovi algoritmi decisori automatizzati e ancor più dalle ulteriori prospettive di implementazione dovute agli sviluppi vertiginosi della IA, resi possibili da Big Data; infine, sono passate in rassegna le principali esperienze di valutazione giudiziaria delle decisioni automatizzate di profilazione (con il loro impatto discriminatorio) tra le due sponde dell’Atlantico, anche in tal caso con una forte diversità di approccio tra Stati Uniti d’America e Unione europea.

3. La tesi di fondo

L’ambiente digitale nel quale siamo immersi ha radicalmente trasformato le forme di quella che, rifacendoci a Hannah Arendt, possiamo chiamare la nostra “condizione umana”; al contempo, ha cambiato il volto del potere che gli Stati, e ancor più subdolamente i grandi gruppi privati che detengono il monopolio di fatto sulle nuove tecnologie, esercitano in ogni istante sulle nostre vite costantemente tracciabili on-line: “oggigiorno è possibile affermare che le membra del Leviatano non sono più composte dai minuscoli corpi dei suoi sudditi, ma dai dati massivamente raccolti dai corpi e dai comportamenti di quei sudditi” (p. 67).
La domanda che percorre tutto il libro di EF è tanto assillante quanto essenziale, ed è a ben vedere quella di sempre: “come ci si può difendere da un potere così soverchiante?” (ibid.). La tesi di fondo del volume è che questa risposta debba essere anzitutto cercata negli strumenti di difesa messi a disposizione – già oggi, almeno in parte – dal diritto in materia di privacy e protezione dei dati personali, che nel diritto dell’Unione europea danno origine a due diritti fondamentali distinti, non a caso articolati – e non possiamo qui non ricordare il decisivo apporto di Stefano Rodotà, anche nella sua veste di membro autorevole della Convenzione presieduta da Roman Herzog – in due specifiche previsioni della CDFUE: l’art. 7 e l’art. 8, rispettivamente (la CEDU non contiene questa articolazione e fa come noto transitare la tutela attraverso il diritto al rispetto della vita privata e familiare). Mentre il diritto alla privacy si manifesta nella sua veste di libertà negativa (a non subire interferenze nella propria vita privata), quello alla protezione dei dati personali “si concretizza nella libertà positiva di esercitare il controllo sul trattamento e sulla circolazione delle informazioni relative alla propria persona” (ibid.).
Entrambe queste dimensioni della libertà fondamentale della persona sono messe in crisi dalle nuove forme potenziate e ubique di controllo e appropriazione realizzate dal moloch digitale ( ); del resto, come nota EF, “ciò che è giuridicamente valutabile in senso negativo (tutela della privacy verso interferenze esterne) ovvero positivo (tutela dei dati personali attraverso il controllo delle informazioni) all’interno della black box assume una connotazione indistinta perché ad essere elaborate sono le informazioni estratte dai soggetti durante la loro vita, indipendentemente dalla loro relazione con le classificazioni giuridiche di varia natura concettuale” (p. 68).
De iure condito, nell’ambito degli strumenti messi a disposizione dal GDPR, EF valorizza nel corso della sua trattazione le potenzialità difensive dell’art. 22 del regolamento, che stabilisce in effetti un primo ed essenziale presidio dei confronti dei possibili impatti discriminatori dei sistemi di decisione automatizzata, specie di nuova generazione. Questa disposizione, nel sancire il diritto dell’interessato a non essere sottoposto ad una decisione basata esclusivamente sul trattamento automatizzato, compresa la profilazione, “istituisce una barriera difensiva simbolica, per quanto insufficiente, contro le decisioni formate senza intervento umano, le quali incidano sui diritti umani individuali” (p. 167). Da essa “affiora il tentativo di bilanciamento tra la centralità del fattore umano e l’esigenza di trasparenza decisionale con l’intento di evitare ostacoli all’innovazione tecnologica e al miglioramento dei procedimenti decisionali. Ciò vale soprattutto per i procedimenti amministrativi, nei confronti dei quali è necessaria la verifica sull’esercizio del potere e il suo relativo controllo giurisdizionale” (ibid.).
La disposizione – che è sicuramente applicabile ai “sistemi di Automated Decision Making attraverso i quali un sistema informatico debitamente programmato può produrre una decisione rilevante per i soggetti coinvolti senza l’ausilio dell’intervento umano, basandosi esclusivamente sulla valutazione algoritmica dei dati personali dei soggetti/utenti profilati”(p. 169) – offre una tutela certamente importante contro i possibili risvolti discriminatori dei sistemi ADM, garantendo “il diritto ad ottenere l’intervento umano, nonché [di] consentire al soggetto sottoposto di esprimere la propria opinione e di contestarne la decisione” (p. 170). Si tratta, tuttavia, di una garanzia ancora insufficiente, da un lato perché opera solo ex post, quanto una decisione automatizzata a impatto discriminatorio si è già prodotta a danno della persona; dall’altro perché non riesce veramente a scalfire la barriera della sostanziale inaccessibilità dei criteri che presiedono al funzionamento dell’algoritmo, così impedendo un pieno controllo sul trattamento dei propri dati.
L’inadeguatezza dello strumento offerto dall’art. 22 del GDPR emerge soprattutto in relazione agli sviluppi dell’IA. È per questo che EF auspica una innovazione nell’approccio regolativo sovranazionale, in grado di rendere disponibili sia strumenti preventivi di controllo sia rimedi efficaci contro la discriminazione, in una direzione che la proposta di regolamento sulla intelligenza artificiale della Commissione europea sembrerebbe, tuttavia, non avere ancora intrapreso in modo appagante (v. pp. 203-208).

4. America vs. Europa

È, quello appena evocato, uno dei profili in cui emerge con maggior evidenza la diversità di vedute e di approcci che caratterizza il confronto tra Stati Uniti d’America ed Europa. Come osserva EF, la giurisprudenza nordamericana tende a giustificare “il mantenimento della opacità” dei procedimenti algoritmici, assegnando una sostanziale prevalenza, nel bilanciamento degli interessi in gioco, alle “regole di proprietà intellettuale [che] proteggono gli interessi economici di chi sviluppa la tecnologia di machine learning” (p. 221). La giurisprudenza dei giudici europei – in virtù dell’assetto regolatorio sovranazionale, connotato da un approccio decisamente più garantistico – è invece molto più attenta alle esigenze di tutela dei diritti fondamentali delle persone soggette alle decisioni automatizzate, specialmente quando esse provengano dalle amministrazioni pubbliche (di grande interesse è, al riguardo, l’analisi di alcune pronunce dei giudici amministrativi francesi e italiani, tra cui spicca il nostro Consiglio di Stato: v. pp. 236 ss.).
Ma i punti in cui si manifesta tale differenza – che in taluni casi dà luogo a una vera e propria divergenza di approcci regolativi – sono numerosi e riguardano, come già accennato, non solo il tema della privacy, ma anche quello delle concezioni alla base della tutela antidiscriminatoria, visto che negli Stati Uniti è ancora dominante una forte impostazione liberale, visibile ad esempio nel modo assai rigoroso “in cui le Corti richiedono in ogni caso la prova dell’esistenza dell’intenzione discriminatoria da parte del soggetto” (p. 32), e prevale “una lettura meramente formale del principio di eguaglianza, il quale pone tutti i soggetti sullo stesso piano di fronte alla legge, indipendentemente dalle loro condizioni sociali di partenza” (p. 33).
EF si sofferma a lungo sul caso in qualche modo paradigmatico di questa differenza – e qui, invero, di vera e propria divergenza (“il clash of culture tra Stati Uniti ed Europa”, come viene definito a p. 91) – di impostazioni culturali e orientamenti regolativi, analizzando diffusamente le decisioni Schrems I e II della Corte di Giustizia dell’Unione europea (pp. 104 ss.), nelle quali i giudici di Lussemburgo hanno affermato con forza il principio per cui il trasferimento di dati di cittadini europei ad un Paese terzo può avvenire solo a condizione che quest’ultimo “garantisca … un adeguato livello di protezione dei diritti fondamentali delle persone interessate” (p. 108). A differenza di quanto vale negli Stati Uniti, che tendono a previlegiare l’interesse geopolitico alla sicurezza nazionale, “la Corte di Giustizia ha confermato che l’apparato normativo dell’Unione europea nel suo complesso vieta che gli Stati membri possano adottare indiscriminatamente misure legislative eccessive nell’ambito della raccolta e conservazione dei dati, nonostante siano motivati dalla lotta al crimine ovvero per esigenze di sicurezza nazionale” (p. 115).
Ma EF giustamente mette in luce, analizzando anche la giurisprudenza della Corte europea dei diritti dell’uomo ( ), come una tale diversità di approcci, che sono anzitutto politico-culturali prima che regolativi, emerga, in definitiva, anche in relazione all’applicazione che essa fa dell’art. 8 della CEDU, ancorché i giudici di Strasburgo mostrino, complessivamente, una maggiore deferenza nei confronti dei margini di apprezzamento goduti dagli Stati membri.

5. Il potere “algoritmico” del datore di lavoro

Un ambito nel quale emergono, anche nelle prime risposte dei giudici, preoccupazioni comuni alle due sponde dell’Atlantico è quello della qualificazione e del conseguente trattamento giuridico da riservare alle nuove forme di lavoro tramite piattaforma digitale, rapidamente diffusesi sia negli Stati Uniti che in Europa nel corso degli ultimi anni. Anche su questo versante, peraltro, ancorché siano state per prime alcune Corti nordamericane a interrogarsi su queste nuove forme di manifestazione del potere di controllo datoriale (si pensi al celebre “ABC test” elaborato in California), è indubbio come un ruolo di avanguardia regolativa sia stato assunto, in Europa, su iniziativa della Commissione europea, con la proposta di direttiva sul lavoro tramite piattaforma digitale, a cui EF dedica importanti pagine conclusive del suo volume.
L’analisi di EF è al riguardo ricca di spunti d’interesse per la specifica prospettiva disciplinare del giuslavorista. L’A. esprime un giudizio “misto”, per così dire, sugli orientamenti in prevalenza maturati presso i giudici del lavoro europei (in particolare in Francia e Spagna), anche sulla scorta della posizione espressa dalla Corte di Giustizia nella nota sentenza Uber, nella quale il giudice dell’Unione ha qualificato l’attività della piattaforma come un servizio di trasporto, e non già come un semplice “servizio della società dell’informazione”, orientandosi così “verso l’interpretazione lavoristica rispetto a quella tecnologica” (p. 265).
Questa lettura ha avuto senza dubbio il merito di favorire la qualificazione del rapporto di lavoro degli autisti della nota piattaforma in termini di subordinazione, giacché per l’appunto “la piattaforma non mette in contatto domanda e offerta di un certo servizio, ma offre direttamente il servizio per il tramite di lavoratori” (p. 264), che da essa pertanto dipendono. Sennonché, questo “approccio risponde al tentativo di fuga dal diritto del lavoro da parte degli operatori delle piattaforme telematiche, ma allo stesso tempo rappresenta una visione di retroguardia su questo tipo di servizi, perché considera neutrali applicazioni che non possono più essere considerate tali dato l’utilizzo di strumenti quali le reti neurali artificiali e le black box” (p. 266). Ed invero, secondo l’A., “tale decisione ha mutato il piano del discorso facendolo rientrare nei binari più tradizionali della qualificazione del rapporto di lavoro, sottraendo attenzione agli aspetti connessi al trattamento dei dati e quindi alla profilazione dei rider”; con il che la posizione di questi lavoratori, se esce rafforzata in termini di imputazione delle tradizionali tutele lavoristiche, risulta in pari tempo indebolita, “poiché se dà loro una sorta di stabilità della posizione lavorativa, dall’altro istituzionalizza la loro profilazione e rimane inerte sulla possibile discriminazione effettuata dagli ADMs utilizzati nelle piattaforme” (ibid.).
È per questo che EF giudica nel complesso positivamente la recente proposta di direttiva della Commissione europea, giacché essa, senza abbandonare l’approccio “lavoristico” (che è anzi rilanciato dalla previsione sulla presunzione relativa di subordinazione), fa proprio anche quello “tecnologico”, più attento alla protezione dei dati personali in funzione di prevenzione di effetti discriminatori dei sistemi di decisione automatizzata impiegati dalle piattaforme, in virtù degli obblighi di trasparenza in materia di management algoritmico.

6. Qualche nota finale sulle prospettive regolative dal punto di vista del giuslavorista

E sono significativamente dedicate proprio a questi innovativi contenuti regolativi della proposta di direttiva europea le pagine conclusive del volume di EF, che chiude così la sua ampia riflessione sistematica apprezzando le logiche di tutela che questa proposta – come già prima l’originale disciplina contenuta nella cosiddetta “Ley Rider” adottata dalla Spagna ( ) – pare poter dischiudere in una prospettiva più ampia, suscettibile di ricadute di carattere generale.
È, in questa prospettiva, di particolare rilievo, per EF, la scelta di imporre alle piattaforme di lavoro digitali di informare i lavoratori in merito all’uso e alle caratteristiche principali dei sistemi di monitoraggio automatizzati, “utilizzati per monitorare, supervisionare o valutare l’esecuzione del lavoro dei lavoratori delle piattaforme digitali con mezzi elettronici, e dei sistemi decisionali automatizzati, utilizzati per prendere e sostenere decisioni che incidono in modo significativo sulle condizioni di lavoro dei lavoratori delle piattaforme digitali” (p. 279). Le informazioni che le piattaforme dovranno fornire – ove venisse approvata questa previsione normativa ( ) – appaiono invero molto significative, giacché “riguardano le categorie di azioni monitorate, supervisionate e valutate (anche da parte dei clienti, come per esempio i sistemi di rating) e i principali parametri di cui tali sistemi tengono conto per le decisioni automatizzate” (p. 280).
Si tratterebbe di primi importanti presidi – di carattere “preventivo-sistemico” – contro l’abuso del potere algoritmico delle piattaforme e della loro pervasiva potenzialità discriminatoria, a tutela della libertà e della dignità della persona.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.