TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

Premessa
L’autrice (di seguito A.) del volume “Discriminazione algoritmica. Una prospettiva comparata” edito da Giappichelli nel 2022 è un’accademica di diritto comparato e delle nuove tecnologie.
Già dalla copertina, con l’immagine del Leviatano di Thomas Hobbes, è possibile evincere il fil rouge che ne accompagna le riflessioni che prendono l’avvio dalla assimilazione del diritto con il Giano bifronte: da un lato il diritto scruta e si volge al passato per ricercare le regole da applicare ai casi già conclusi nel tempo, imputando le conseguenze giuridiche solo successivamente all’avverarsi del fatto (p. 303); dall’altro lo sguardo del diritto è al futuro, alla costruzione e regolamentazione di situazioni ancora in divenire che “vedono il coinvolgimento dei giudici nella soluzione di questioni di rilevanza giuridica ancora non positivamente formalizzate” (p. 295) e nelle quali il cambio di prospettiva (contenuto nella Proposta di regolamento in materia di intelligenza artificiale) si concretizza nel “prevenire la futura illiceità attraverso sperimentazioni limitate sul funzionamento del meccanismo” (p. 303).
L’utilizzo di questa immagine accompagnerà l’A. durante tutto il percorso sino alle battute finali delle sue riflessioni, consentendole di dimostrare, allorquando vuol rappresentare i risultati delle decisioni automatizzate come la citata divinità che “non sarebbe più bifronte ma mutilat(o)a” (p. 295). Quantunque, infatti, esso tenga il viso rivolto al passato, nei passaggi conclusivi del volume, l’A. lo immagina privo della capacità di vedere il futuro, “cieco, come amputato nella visione e nella comprensione delle circostanze” (p. 295).
L’A. dota altresì il Leviatano di un corpo le cui membra non sono più costituite da minuscoli corpi, bensì dalla quantità di dati massivamente raccolti dai sudditi e dai comportamenti di costoro. In tal maniera l’A. vuole rappresentare la composizione dell’autorità del XVII secolo (e dello stato assoluto e sovrano) che non appare più composta dalle individualità dei minuscoli consociati, che componevano in origine il corpo del Leviatano, bensì dalla massiva quantità di dati che consentirebbe di “riconoscere la posizione nel mondo (tanto virtuale quanto reale) del soggetto sorgente di tali dati” (p. 216). Il corpo così rappresentato del Leviatano rammenta come i sistemi automatizzati si nutrano di dati che, inevitabilmente, sono riconducibili a situazioni compiutesi nel passato, ma ciò che vuole sottolineare l’A. è che, nonostante lo sguardo sia volto verso il passato, “gli algoritmi dovrebbero elaborare teorie predittive sul comportamento dei soggetti sottoposti alla loro attenzione” (caso VioGén p. 228) evitando pregiudizi basati su vicissitudini passate dell’individuo. Evidenzia, infatti, l’A. che l’algoritmo automatizzato non riesce a fare del passato un elemento riabilitativo (p. 229).
Il messaggio derivante dalla scelta dell’A. va collegato alla sfida radicale che ci pongono le decisioni automatizzate, unitamente alle prospettive dell’intelligenza artificiale verso i diritti fondamentali. L’A. pone in evidenza come l’intelligenza artificiale abbia consentito la diffusione di informazioni e di dati che appartengono al passato. Così facendo è stato permesso al passato di influenzare il nostro futuro attraverso l’elaborazione automatizzata che “congela il nostro futuro proprio perché lo iberna nel nostro passato” (p. 229). Questa sfida va raccolta confrontandoci con la complessità che la caratterizza “rompendo il giocattolo per vedere cosa c’è dentro” (p. 291) poiché ad incidere negativamente sui diritti fondamentali concorrono sia l’uso della Intelligenza artificiale, sia alcune sue caratteristiche quali “l’opacità, la complessità, la dipendenza dai dati, il comportamento autonomo” (p. 200). L’espressione riferita al “giocattolo” usata dall’A. (che troviamo nelle conclusioni) è fortemente evocativa ed è riferita alla giurisprudenza che svolge ed ha svolto un “ruolo pionieristico” (p. 291) nel ricostruire una disciplina costituita da fattispecie innovative, con il che si riferisce alle decisioni automatizzate ed agli algoritmi che propongono soluzioni (anche giuridiche). Per far questo la giurisprudenza ha rivestito un ruolo di primo piano focalizzandosi sulla esperienza empirica ricordando che “il potere” è composto da persone e non da dati.
Dall’immagine e dalla lettura del libro si delinea, infatti, una nuova struttura delle relazioni tra livello giuspubblicistico e giusprivatistico, allorquando, l’utilizzo delle nuove tecnologie, frutto dell’azione di privati, va potenzialmente a indirizzare l’esercizio del potere e l’immagine dell’individuo. Purtuttavia, l’A., non manca di sottolineare sin dalle prime battute del suo ragionamento (lo si ritrova nel corso di tutto il libro) un caveat evidenziando il rischio di una immobilizzazione dell’interpretazione del diritto dottrinale e giurisprudenziale sulla base delle pronunce precedenti, assunte a principi immutabili di diritto.
Uno dei messaggi contenuti nel testo è quello di respingere quell’idea di neutralità che si associa da sempre alla tecnica, in particolare ai processi di decisione automatizzata, con conseguente necessario intervento e controllo umano sulla costruzione e sul funzionamento delle nuove tecnologie non autonomizzate dal loro “creatore”. Si tratta di un messaggio che si trova ribadito nelle battute finali del libro allorquando evidenzia come “è difficile sostenere che l’intelligenza artificiale abbia una vera e propria autonomia decisionale” e che il “il compito più arduo riguarda trovare un equilibrio tra regola generale (ad esempio la trasparenza, l’intervento umano, la tutela dei diritti fondamentali) e l’eccezione (provocata dallo sviluppo tecnologico). Se tale equilibrio sarà raggiunto o meno dipende esclusivamente da fattori umani, gli algoritmi non potranno fare altro che obbedire eseguendo gli ordini” (p. 307).
Il frutto della decisione realizzata per il tramite dell’algoritmo, infatti, nella ricostruzione dell’A. altro non è che il risultato dell’attività di programmazione umana che deve sottostare ad un vaglio di legalità. L’A. puntualizza come “il machine learning e il deep learning sono influenzabili, ma con informazioni non neutre inserite dai programmatori umani nelle loro black box” (p. 307).
Dalla riflessione emerge la consapevolezza che questa nuova condizione non racchiude una delega di poteri decisionali che contragga l’esercizio dei diritti fondamentali, con il rischio di alterare i percorsi di costruzione della volontà e della realtà. L’A. richiama il monito del Garante della Privacy allorquando affermava che “gli algoritmi non sono neutri sillogismi di calcolo, ma opinioni umane strutturate in forma matematica che (…) rischiano di volgere la discriminazione algoritmica in discriminazione sociale”. Per contrastare questi rischi rivestono un ruolo fondamentale “le garanzie sancite dal quadro giuridico in ordine ai processi decisionali automatizzati, assicurandone la contestabilità e la trasparenza della logica, ed esigendo, almeno in ultima istanza, il filtro dell’uomo, per contrastare la delega incondizionata al cieco determinismo della tecnologia” (p. 155).

La struttura del libro
Compongono il libro: una Prefazione di Roberto Pardolesi, un’introduzione di 16 pagine, che ripercorre la struttura dell’intera opera, quattro capitoli e le conclusioni.
La Prefazione elogia la vastità di informazioni che compongono il testo: “una miniera” che poggia sulla “sapiente ricognizione comparativa” elaborata dalla A. che si presenta quale “vero banco di prova per chi voglia seriamente saggiare le prospettive prossime venture dell’intelligenza artificiale e di tutto quanto vi si riconnette” (p. XI) sollecitando il lettore ad un approfondimento dei molti fattori che contraddistinguono la complessità della questione.
Il testo offre innanzitutto una trattazione generale del rapporto tra il funzionamento degli algoritmi e il rischio di discriminazione focalizzandosi sulle radici storiche dell’antidiscriminazione, analizzate sotto diversi profili, a cui viene dedicato l’intero primo capitolo (Uguaglianza, disuguaglianza e discriminazione – pp. 17-63). L’A., in particolare, muove dal principio di uguaglianza, in senso kantiano, per andare a delineare la questione della discriminazione anche al fine di individuare i tratti distintivi della discriminazione algoritmica e le possibili azioni di contrasto. Il percorso di riflessione sin dalle radici storiche di quello che l’A. definisce “un problema apparentemente senza soluzione” (p. 17) viene sviluppato ripercorrendo i corsi e ricorsi in un fluire storico di richiami sul tema dell’uguaglianza che, in maniera puntuale e con vasti afflati comparati (richiami al sistema francese, americano, britannico …) delinea i confini di ciò che identifica quale “punto di partenza empirico per l’individuazione di un possibile paradigma discriminatorio”. Tale presupposto è riferito al comportamento che una maggioranza pone nei confronti di una minoranza, soprattutto per ciò che attiene “la valutazione di un pregiudizio presente in tale gruppo minoritario socialmente svantaggiato, che lo rende ghettizzato e più debole rispetto al gruppo di maggioranza (…) dominante” (p. 35). La riflessione dell’A. si sviluppa richiamando il principio di eguaglianza “quale strumento di ponderazione del principio maggioritario, volto ad impedire “derive ultrademocratiche” attraverso la protezione di chi pur non facendo parte della maggioranza è membro a pieno titolo della società” (p. 36).
Tra i temi di fondo affrontati dall’A. nel proseguo del capitolo iniziale vi è la identificazione della natura discriminatoria delle “tragic choices” effettuate durante la crisi pandemica relativamente all’accesso alle terapie intensive; la riconduzione nel novero delle discriminazioni degli hate crime e dell’hate speech (p. 49) che transitano attraverso le piattaforme sociali tramite l’utilizzo di algoritmi (p. 49) (profilazioni, trattamento massivo dei dati e black box) (p. 60, 62). Nell’affrontare il delicato tema della esposizione della personalità digitale e le conseguenze discriminatorie riconducibili all’automatizzazione delle decisioni, l’A. rammenta come “il diritto non può abdicare al suo ruolo regolativo” ma che sono i giudici che si trovano quali primi operatori ad affrontare questioni di natura innovativa (p. 58). Alla giurisprudenza spetta il compito di “riempire i contenuti il concetto vago di dignità (della persona) e contestualizzarlo nella prospettiva antidiscriminatoria della quale si chiede la tutela” (p. 59).
Il capitolo si chiude invitando alla prudenza, al rispetto della trasparenza ed all’attenzione nella formazione delle black box essendo queste la “base di partenza ai fini della elaborazione dei processi decisionali automatizzati” (p. 63).
Lo scenario di riflessione del secondo capitolo (Proteggere i dati dalla discriminazione: il ruolo della privacy – pp. 65-127) offre una breve ricostruzione storica della disciplina della privacy e del trattamento dei dati arricchendola con riferimento a casi specifici, con un volo pindarico “dal cielo d’Irlanda” (p. 98) a quello statunitense, con diverse tappe nel continente europeo cercando di tratteggiare la disciplina cui sono assoggettate le piattaforme nei casi in cui il loro business riguardasse anche i dati personali dei cittadini dell’UE. Di grande pregio è proprio la capacità dell'A. di procedere all'analisi del rapporto tra giudice e strumento di decisione algoritmica nei diversi ordinamenti sottolineando, di volta in volta, i diversi punti critici dell'utilizzo dell'intelligenza artificiale, ricercando i meccanismi di protezione dei dati personali.
L’A. in tutto il percorso ricostruttivo, che si apre con l’immagine del Leviatano (già citato), riesce a declinare i principi di diritto sottesi ad un etico e corretto utilizzo della tecnologia algoritmica all’interno dei diversi ordinamenti procedendo ad una profonda comparazione dei diversi sistemi e sottolineando punti di forza e di criticità delle singole discipline, ponendo particolare attenzione alla salvaguardia della protezione dei dati personali nel caso di trasferibilità dei dati (p. 105 Schrems I e II). La visione comparata con gli ordinamenti di Common law, anche diversi dal modello inglese, si sviluppa con un volo pindarico sulle realtà dell’Australia, degli Stati Uniti, dell’Irlanda, del Regno Unito, della Francia, del Canada, della Cina, dando vita ad un testo denso e ricco, una “vera miniera di informazioni” (già nella Prefazione XI). Lo sviluppo delle riflessioni sul rapporto tra i dati personali e non e la filiera informativa affronta le nuove dimensioni della tutela di riservatezza di fronte al cambio di paradigma derivato dalle fasi di raccolta e conservazioni dei dati che consentono la profilazione. Il nuovo contesto che va a delinearsi nelle pagine del libro porta a rivedere la raffigurazione del Leviatano le cui membra non sono più ora composte dai minuscoli corpi dei sudditi, bensì dai dati massivamente raccolti da corpi e dai comportamenti di tali sudditi.
Per delineare le modalità di protezione contro “un potere così soverchiante”, l’A. offre una narrazione del “mondo nella rete, quali diritti quali vincoli” (p. 67) partendo dalle norme della Carta dei diritti fondamentali dell’UE (art. 7 e 8) nonché dall’art. 16 del TFUE per giungere all’esperienza statunitense passando attraverso la giurisprudenza cui spetta “un preciso ruolo nella soluzione della contrapposizione tra esigenze di sicurezza pubblica e tutela della privacy” (p. 70).
La ricostruzione dei passaggi che portano alla costruzione delle banche dati tramite la raccolta, l’organizzazione ed elaborazione, l’analisi, l’archiviazione e indicizzazione, la fruibilità e la condivisione dei dati funge da sponda, all’A., per richiamare Carl Schmitt e ricordare “che la tecnologia non è mai neutrale (…) è insieme uno strumento ed un’arma e come tale non può essere considerata neutrale” (p. 73). Il quadro di analisi degli strumenti a tutela dei dati si sviluppa dall’art. 4 del GDPR, alle previsioni del Data Act Regulation Proposal del 2022, per giungere attraverso l’analisi dottrinale e la giurisprudenza del Consiglio di Stato, a delineare una “tutela multilivello dei diritti della persona in ambito digitale” (p. 81).
Il capitolo dedica particolare attenzione sia al fenomeno della trasmigrazione dei dati ed alla loro conservazione, problema legato alle tematiche della prevenzione degli attentati terroristici, che viene affrontato osservando l’approccio delle Corti degli Stati Uniti e del Regno Unito, sia al fenomeno della sorveglianza di massa e della profilazione di massa posta in essere da enti pubblici e governativi analizzando la giurisprudenza della Corte Europea dei diritti dell’uomo del 2018 nei confronti del Regno Unito, della Svezia e della Bulgaria (p. 96). A completamento delle riflessioni in tema di analisi automatizzata dei dati relativi al traffico e all’ubicazione della persona soggetta alla raccolta massiva degli stessi, il testo affronta le pronunzie della Corte di Giustizia dell’UE in materia di Data Retention confermando che l’apparato normativo dell’UE “vieta che gli Stati membri possano adottare indiscriminatamente misure legislative eccessive nell’ambito della raccolta e conservazione dei dati, nonostante siano motivati dalla lotta al crimine ovvero per esigenze di sicurezza nazionale” (p. 115) consolidando l’orientamento già sviluppatosi in tema.
Il terzo capitolo (La formazione delle black box e discriminazione – pp. 129-208) sviluppa insieme al quarto capitolo il cuore della questione. Tale capitolo è incentrato sul tema del controllo, sul funzionamento degli algoritmi e sul loro lato oscuro, chiedendosi se questi possano esser considerati come soggetti giuridici autonomi (p. 161). L’A. sviluppa le sue riflessioni attorno al tema della responsabilità, ripercorrendo gli studi effettuati rispettivamente dalla Presidenza degli Stati Uniti (Rapporto Preparing for the Future of Artificial Intelligence), dalla House of Commons britannica e dal Parlamento Europeo laddove enuciavano le rispettive visioni di come gli ordinamenti ed i consociati si sarebbero dovuti preparare “per l’uso potenzialmente diffuso e massivo delle tecnologie legate all’intelligenza artificiale” (p. 130 ss.). In particolare, viene posto l’accento da un lato, sulla “fatica” che il diritto, “disciplina legata alla stabilità”, si possa trovare ad affrontare nella “definizione di concetti giuridici relativi ad un ambito dinamico come l’intelligenza artificiale”, e dall’altro, sulle promesse mantenute (o mancate) e sulle risposte (o silenzi) in merito alla implementazione di una tecnologia che utilizza programmi di decisione automatizzate ovvero algoritmi in grado di auto apprendere. L’A. sottolinea lo sforzo di intervento su questo “dominio considerato promettente e innovativo” in un’ottica di garanzia delle prospettive etiche e giuridiche (p.130).
La riflessione mette in luce come sia stata sottovalutata, relativamente al ricorso all’intelligenza artificiale, la “capacità di assorbire nel procedimento e potenzialmente amplificare i profili discriminatori nei risultati ottenuti” (p. 131), ponendo in evidenza come è illusorio pensare che enti regolatori, siano essi nazionali o no, possano circoscrivere tali effetti.
Nell’affrontare la questione l’A. sviluppa le riflessioni soffermandosi in primo luogo, sulle possibili sfaccettature della regolamentazione giuridica della Intelligenza Artificiale contenuta nel Preparing for the future of Artificial Intelligence statunitense (osservata con riguardo alle Amministrazioni Trump, Biden) soffermandosi anche sui risvolti che la discriminazione può assumere con riguardo alla formazione e ricerca della forza lavoro, con particolar riferimento alle caratteristiche del machine learning ed alla profilazione (p. 132); in secondo luogo, l’analisi passa per la visione prospettica fornita dal Rapporto della House of Commons britannica che denuncia come discriminazioni e bias non abbiano ricevuto sufficiente considerazione e questo approccio trova il suo fondamento in “a technocratic attitude that assumes data-driven decision making is good and algorithms are neutral” (p. 133 con riguardo al caso dell’Universal Credit per l’erogazione dei benefici sociali); in terzo luogo, lo sviluppo affronta l’approccio che il Civil law rules on robotic del Parlamento Europeo dà alla questione, incentrandola maggiormente sull’impatto dell’automazione sulla forza lavoro, piuttosto che sui risvolti discriminatori e possibili bias (p. 134); in quarto luogo, si delinea il cambio di rotta della Commissione Europea con il Libro Bianco sull’intelligenza artificiale del 2020, laddove l’attenzione viene focalizzata sulla disponibilità dei dati, sulla loro protezione, garanzia e tutela normativa tramite la previsione di strategie antidiscriminatorie relative alla protezione dei dati per la formazione di black box “funzionanti con algoritmi con capacità di machine learning e di deep learning” nelle quali “la logica decisionale interna dell’algoritmo viene modellata dinamicamente dai dati di addestramento a disposizione” (p. 135).
Due sono i risvolti sui quali l’A. pone l’accento. Il primo è rappresentato dal continuo mutare dell’algoritmo, una sorta di moto perpetuo di modifica, che concretizza quell’opacità algoritmica contraddistinta dalla opacità intrinseca (nota 33, p. 135) dovuta “al meccanismo di autoapprendimento dei meccanismi in esame che rendono impossibile anche allo stesso programmatore, un controllo puntuale sull’attività dell’algoritmo in azione”. Il secondo è il pericolo derivante dalla natura distorta dei dati con cui viene nutrito l’algoritmo: nel caso in cui questi esprimano un pregiudizio, dalla sua applicazione può derivare un modello discriminatorio (p. 136) anche inconsapevolmente.
L’A. si sofferma sulla dottrina sviluppatasi sul punto evidenziando la pericolosità intrinseca di tali modelli che spesso celano le reali intenzioni discriminatorie, dando vita a discriminazioni inconsapevoli. L’A. individua e richiama, quale metodo risolutivo per i sistemi che basati sull’Intelligenza Artificiale danno vita a decisioni che potenzialmente, ed in maniera subdola ed insidiosa, possono influenzare la vita delle persone, le diverse posizioni dottrinali sviluppatesi in tema. Da una parte vi è quella dottrina che sollecita il ricorso a meccanismi di riparazione (redress) per correggere il bias contenuto nei dati di addestramento (p. 136); dall’altra quella che sollecita l’intervento umano nella supervisione (p. 137).
Per quanto riguarda le riflessioni sulle conseguenze scaturenti dall’utilizzo degli algoritmi decisori l’A. richiama, per analizzare la questione di responsabilità, l’approccio garantista elaborato dal Parlamento Europeo nella Risoluzione del 20 ottobre 2020 che individua i codici etici di sicurezza, trasparenza e presa di responsabilità che le applicazioni di Intelligenza Artificiale dovranno garantire per evitare di dar vita a pregiudizi e discriminazioni. La centralità del pieno controllo umano, che deve esser garantito in qualsiasi momento intervenendo sulle tecnologie è delineata all’art. 7 della Risoluzione. L’A. sottolinea come il quadro normativo di tutela costituito dalla Risoluzione unitamente al Protocollo del Consiglio d’Europa del 2018, sottoscritto dal nostro Paese nel 2019, quantunque siano state emanate successivamente al GDPR “sembra avere una visione di retroguardia in materia di trattamento automatizzato dei dati personali” (p. 139). In tale panel va, altresì, inserito un altro strumento di policy che quantunque non cogente, “coglie appieno il punto focale della realizzazione di tutti i sistemi algoritmici di decisione automatizzata … progettati dall’uomo (ove) prevedono un certo grado di coinvolgimento umano nel loro funzionamento” (p. 140). Si tratta della Raccomandazione del Comitato dei Ministri del Consiglio d’Europa CM/Rec(2021)8 in materia di trattamento automatizzato dei dati. Tale documento si focalizza sia, sugli aspetti discriminatori conseguenti all’uso degli algoritmi decisori a danno delle categorie più vulnerabili (p. 140), sia sulla necessità che sia consentito l’intervento umano (con assunzione di conseguente responsabilità), dando vita ad un procedimento di decisione automatizzata trustworthty che ne garantisca il legittimo funzionamento nel rispetto dei principi di equità e non discriminazione (p. 141). All’impianto riconducibile alla Raccomandazione l’A. contrappone il sistema cinese (p. 142) di cui analizza il diverso approccio finalizzato a “sfruttare al meglio l’efficienza anche in modo non neutro”, soprattutto a fini di e-commerce oltre che per altri ambiti. L’A. delinea le differenze tra il concetto di giustizia proprio della cultura cinese e quello proprio della Western Legal Tradition, (aprendo una parentesi anche sulla posizione della Corte Costituzionale italiana in merito alla decisione robotica ed al ruolo del giudice (p. 144)), osservando come la riflessione debba proprio partire dal diverso contesto sostanziale e processuale di riferimento.
La prospettiva empirica è adottata dalla A. per mostrare le applicazioni dell’articolo 22 del GDPR, in primo luogo, con riferimento al contesto olandese, soffermandosi sull’“utilizzo degli algoritmi di decisione automatizzata nella definizione dei driver impiegati attraverso le piattaforme” (p. 174), dedicando ampia attenzione alla conformità o meno all’art. 22, par. 3 del GDPR del sistema di ranking di Uber; in secondo luogo con riferimento ad un contenzioso relativo alla trasparenza del procedimento decisorio in Germania (p. 186); in terzo luogo le riflessioni affrontano la posizione assunta dalla giurisprudenza amministrativa italiana (p. 188), con riguardo al ruolo che le procedure informatizzate applicate ai procedimenti amministrativi devono assumere sottolineandone la posizione “necessariamente servente rispetto agli stessi” senza ostacolare i rapporti tra le parti (privati, pubbliche amministrazioni, p. 193). Il ragionamento sviluppato dall’A. ripercorre l’operato dei giudici amministrativi relativamente all’operatività di un algoritmo per la gestione (in capo al MIUR) della mobilità docenti soffermandosi sulla natura dell’atto amministrativo che viene elaborato, trattandosi di un atto proveniente dall’operato dell’algoritmo stesso (rapporto tra atti di natura privata che si inseriscono nelle attività di rilevanza pubblicistica – p. 191).
Altro ambito di riflessione è la distinzione tra atto amministrativo informatico, prodotto dagli algoritmi di gestione del progetto di mobilità dei docenti, il cui contenuto viene affidato interamente allo strumento informatico e atto amministrativo redatto con uno strumento informatico. Nel primo caso essendo l’algoritmo che provvede a reperire, correlare le norme ed i dati, diviene esso stesso uno strumento dell’atto amministrativo conclusivo (che potrebbe assumere qualsiasi forma anche cartacea) (p. 192). L’A. ripercorre l’orientamento della giurisprudenza amministrativa che si è spinta a sostenere che “affidare all’attivazione di meccanismi e sistemi informatici e al conseguente loro impersonale funzionamento” lo svolgimento dei procedimenti amministrativi relativi inerenti ai diritti di rilievo costituzionale avrebbe sottratto all’attività “dianoetica” la valutazione, comparazione e ponderazioni di situazioni personali e circostanze di fatto, la cui carenza senza dubbio inficerebbe la validità motivazionale dell’emanando provvedimento” (p. 194).
Il riferimento che fa l’A. alla dianoetica è sintomatico di una “visione astratta ed ideale del giudicare, infungibile rispetto a qualsiasi altro strumento tecnico eventualmente disponibile”. La ricostruzione operata viene dalla A. evidenzia come dominus del procedimento sia l’uomo e che all’algoritmo vada attribuito un ruolo meramente strumentale e ausiliario, né surrogatorio né dominante sull’intervento umano (p. 194). L’A. riconduce ad unità la contrapposizione che aveva contraddistinto la giurisprudenza amministrativa espressasi sul punto, riconducendo la questione nell’alveo degli artt. 22 e 71 del GDPR sottolineando come in primo luogo sia “necessario che la macchina interagisca con l’essere umano” (principio di centralità del presidio umano sull’azione del procedimento decisorio algoritmico (p. 196) e che in secondo luogo il programma algoritmico nel procedimento amministrativo debba essere in grado di garantire la rettifica di discriminazioni, errori o inesattezze, essendo assoggettato a una serie di criteri di autorizzazione/accettazione.
Proseguendo la sua riflessione l’A. perviene a delineare (anche nelle conclusioni p. 301) la prospettiva di tutela antidiscriminatoria de iure condendo contenuta nell’Artificial intelligence act Proposal elaborata dalla Commissione europea (21 aprile 2021) che “rappresenta il primo tentativo compiuto di regolare in termini generali l’intelligenza artificiale dopo la pubblicazione di numerosi atti di impulso e soft law” (p. 197). Tale Proposal nasce con l’intento di rafforzare il mercato unico digitale che si serve di regole armonizzate. La strategia elaborata dalla Commissione poggia su tre pilastri dei quali il primo è costituito appunto dall’Artificial Intelligence Act Proposal arricchito da alcuni allegati nei quali vengono identificati gli high risk AI systems (p. 198) per i quali le norme tecniche di regolamentazione prevedono una specifica disciplina di conformità, un procedimento di revisione quinquennale nonché l’attivazione del meccanismo delle “sandboxes” (ripreso anche nelle conclusioni pp. 300 e 307) quali spazi operativi di sperimentazione controllata dei sistemi di Intelligenza Artificiale preventivi alla immissione sui mercati (p. 198 con i richiami ai modelli adottati in Canada ed in Francia, e p. 199).
Il quarto capitolo (La valutazione giudiziaria delle decisioni automatizzate di profilazione e discriminazione – pp. 209-290) si apre con le riflessioni dell’A. sulle situazioni discriminatorie derivanti dai modelli algoritmici (bias) sottolineando come sia importante “distinguere i bias informatici dall’impatto del pregiudizio iniquo o ingiusto che consiste nella discriminazione illegale, a seconda di come si formano e come interagiscono i dati raccolti tra loro stessi e al contempo con la realtà circostante” (p. 209). L’analisi osserva come i bias interagiscono nelle decisioni automatizzate soffermandosi in particolar modo sul metodo di apprendimento automatico e di formazione degli algoritmi di machine learning (e sui procedimenti di raccolta dei dati la cui qualità influenzerà l’operatività dell’algoritmo) nonché sul loro risvolto etico. Precisa l’A. che “la questione concern(a)e la capacità di comprendere la differenza tra i pregiudizi cognitivi presenti negli esseri umani (la cui intelligenza è in grado di adattarsi e di effettuare ragionamenti abduttivi e inattesi) e il machine learning, la cui intelligenza dipende sempre dai dati, dalle ipotesi e dalle caratteristiche di entrambi con cui il machine learning viene alimentato” (p. 212). L’A. evidenzia come questi algoritmi perderebbero “la capacità di generalizzare e quindi sono propensi a esagerare” pervenendo a risultati erronei, discriminatori o sbagliati. In questi casi evidenzia l’A. “la responsabilità è di chi ha organizzato il dataset e impostato l’algoritmo. Il machine learning di per sé obbedisce a istruzioni che si limita ad eseguire” (p. 213).
L’A. cala queste considerazioni nel contesto della valutazione effettuata dagli organi giudiziari umani sui risultati ottenuti da procedimenti decisori automatizzati in applicazione della normativa antidiscriminatoria in essere, e, per fare questo, richiama l’art. 22 GDPR.
La discriminazione algoritmica, focus attorno al quale si sviluppano le riflessioni, viene affrontata con riguardo alla potenzialità discriminatoria, diretta o indiretta (p. 215), conseguente ad un sistema di settaggio dei dati che è esso stesso potenzialmente discriminatorio, in virtù di come l’algoritmo è stato nutrito. L’utilizzo degli algoritmi di machine learning viene sviluppato dalla A. ripercorrendo alcuni casi giurisprudenziali oltre che empirici decisi dalle Corti (p. 215, 229). La riflessione dei bias e dei pregiudizi, attraverso lo strumento digitale, evidenzia l’A., si diffonde nei soggetti, le cui convinzioni sono raccolte e ordinate dall'elaborazione degli algoritmi e resi poi previsioni per il futuro, dando vita “ad una sorta di circolo che si autoalimenta” (p. 295).
Il capitolo approfondisce una serie di casi concreti, tra i quali ad esempio il Caso Loomis relativo all’utilizzo di un algoritmo sviluppato per coadiuvare il lavoro dei giudicanti in materia di libertà vigilata e rischio di recidiva delle persone arrestate (p. 219 e il Caso Compass, p. 220, il caso Ewert v Canada p. 221), il Caso VioGén in tema di sistema di monitoraggio per i casi di abusi familiari, in particolare verso donne e minori (p. 223).
Il testo riflette in particolare sui vizi che l’impiego dell’intelligenza artificiale nei processi può causare evidenziando come il giudice debba essere sottoposto solo alla legge, (il testo contiene richiami all’illuminismo, a Montesquieau con l’espressione “bouche de la loi,” invece che “bouche du roi” che troviamo in svariati passaggi a pp. 5-142-219, 294), e non sono ammissibili interventi di questo tipo nella formazione della volontà dello stesso. Al contrario si intravedono delle potenzialità con riferimento all’agevolazione di certi passaggi e alla riduzione del contenzioso in tutti quei casi caratterizzati da meccanicità nella soluzione (pur tenendo presente il necessario controllo umano e il fatto che nel nostro ordinamento non si ha il c.d. precedente vincolante).
L’A. si domanda chi rivesta i panni del “roi” nel caso di utilizzo giudiziario dei risks assessments algorithms ed evidenzia il rischio di fattori nascosti quali pregiudizi, errori, irrazionalità e specifica che contro tali criticità, nei confronti dei decisori automatizzati “non sembra possibile effettuare un’analoga operazione di trasparenza data l’acclarata opacità della fase decisoria” (p. 219) quantunque sia “impellente” la necessità di disciplinare l’Intelligenza Artificiale (p. 199) superando quella “diffidenza” verso tale strumento quanto nella capacità umana di controllare il medesimo.
Una tale impostazione appare pacificamente accettata, ed anche favorita, in ordinamenti, come quello della Repubblica popolare cinese in cui la giustizia automatizzata è considerata equa in quanto soddisferebbe un concetto essenziale di equità riconducibile, non tanto sul riconoscimento dei diritti individuali, quanto ai principi di efficienza, conformità e trasparenza. Una tale garanzia non appare però sufficiente in altri ordinamenti, come quello italiano, in cui il Giudice non può essere vincolato da automatismi decisionali o da presunzioni assolute nonostante i possibili vantaggi, anche in termini di efficienza, che ne potrebbero derivare (p. 142).
Di particolare interesse è l’approfondimento sulla possibilità di ricorrere ad un sistema automatizzato di valutazione dell’avverarsi di una possibile recidiva nell’ambito di un giudizio penale. L’utilizzo di tali strumenti, come ad esempio COMPAS oppure VioGèn (che affronta il sistema di monitoraggio integrale sulle violenze di genere applicato in Spagna con la Ley orgànica de protecciòn de datos personales) (p. 224) presenta, nella puntuale ricostruzione dell’A., dei fattori di forte criticità collegati in primis al fatto che l’algoritmo nel suo iter formativo e poi valutativo “congela il nostro futuro proprio perché lo iberna nel nostro passato” (p. 295), ignorando, sia la possibile evoluzione individuale di colui che ha commesso un reato, sia i fattori individuali che potrebbero condurre ad una reiterazione. L’individuo, si vedrebbe così giudicato non solo per il reato commesso, bensì anche in funzione dell’ipotetica propensione ad una recidiva. Questo si trova concretizzato pienamente nel Caso VioGèn ove il sistema prevede la possibilità di conservare ed utilizzare dati personali delle persone sospettate, coinvolte in procedimenti giudiziari e indagini relative a eventi qualificabili come violenza di genere, senza alcuna decisione giudiziaria, “apparentemente senza pregiudicare il diritto alla presunzione di innocenza dal momento che la questione sarà risolta dalle autorità giudiziarie competenti” (p. 224).
L’A., inoltre, nel descrivere puntualmente il sistema di raccolta dati e di decisione di VioGèn (p. 224) sottolinea come la massiva raccolta di dati, in questo caso relativa a soggetti riconducibili ad atti di violenza di genere, ricomprenda in realtà un numero molto elevato di vicende che, a causa della bassa percentuale di rischio, non presentano ragioni per essere soggette al monitoraggio della polizia, generando una lesione della privacy del soggetto sottoposto a profilazione, nonché del diritto alla presunzione di innocenza.
Appare, quindi, di grande interesse il ragionamento dell’A. richiamato trasversalmente sia nel secondo che nel quarto capitolo relativo all’importanza di garantire un diritto di accesso ai meccanismi di funzionamento e decisionali dell’algoritmo da parte di colui che è soggetto alla valutazione. Tale possibilità, come sottolineato anche attraverso il commento del Caso Loomis (p. 219, 224), è fortemente contrastata dai produttori di software, nel caso di specie COMPAS (p. 224), nel quale l’uso dell’algoritmo così denominato deve essere motivato e comunque soggetto a restrizioni sul suo utilizzo. Il rifiuto opposto dal produttore di COMPASS volto a rivelare la metodologia e le linee guida usate dal software, giustificato sulla base delle norme di proprietà intellettuale e di tutela del segreto industriale, ed è così forte all’interno di molti ordinamenti, a punto da divenire la voce del sovrano ossia quella che l’A. identifica come la “concretizzazione della voix du roi” (p. 220).
Seppure il ricorso a tali strumenti appaia oggi non applicabile in Italia in sede di giudizio penale, in quanto in contrasto con gli artt. 6 della Convenzione europea per la salvaguardia dei diritti umani e delle libertà fondamentali, e 24 e 27 della nostra Costituzione, il loro utilizzo è possibile, e si sta diffondendo, in altri ambiti ponendo delicate questioni relative alla privacy ed al principio di non discriminazione. In tale ricostruzione si sottolinea la debolezza della tutela apprestata dall’art. 22 del GDPR, che non riesce a costituire un’efficace tutela del soggetto sottoposto alla gestione algoritmica delle piattaforme in quanto garantisce al soggetto sottoposto ad una decisione automatizzata di esserne edotto soltanto a posteriori e nel caso in cui l’esito del giudizio sia tale da dare un risultato meritevole di attenzione. Lo sforzo ricostruttivo posto in essere è riferito alle modalità di costruzione di una tutela efficace dinanzi alla sfida radicale della tecnologia, coniugandola al nucleo fondamentale della disciplina sulla tutela della privacy e protezione dei dati, enucleando un giudizio di inadeguatezza dello strumento contenuto nell’articolo 22 del Regolamento generale destinato ad intervenire sostanzialmente ex post, quando la decisione automatizzata di impatto discriminatorio ha già prodotto i suoi effetti.
Lo sforzo ricostruttivo dell’A. si focalizza altresì sul ruolo che la gestione algoritmica ha avuto nella gig economy osservando come black box e algoritmi decisionali possano influire sulla quotidianità dei consociati (p. 229).
A tal fine il capitolo affronta oltre alla casistica già citata anche casi dedicati alla discriminazione nella tecnologia di riconoscimento biometrico (p. 230) tratteggiando gli interventi giurisprudenziali sviluppatisi in tema nel Regno Unito che hanno affrontato la questione in materia di utilizzo del riconoscimento facciale automatizzato relativamente a possibili violazioni della privacy e della protezione dei dati; in Francia che ha affrontato il tema della raccolta di dati biometrici riflettendo sulla sperimentazione del controllo degli accessi tramite riconoscimento facciale alle scuole superiori (p. 236); negli Stati Uniti ove il ricorso al tracciamento dei dati biometrici è stato effettuato con finalità di prevenzione di episodi di crimine violento (p. 240). Particolare attenzione è stata altresì posta sul riconoscimento biometrico di massa tramite la ricerca di immagini all’interno di un data base (Clearview AI p. 243), tematica con riguardo alla quale l’A. si domanda se le operazioni di monitoraggio effettuate tramite Clearview non costituisca una lesione del diritto all’oblio (p. 245, p. 62, p. 168). Questo tema è sviluppato in ottica comparata richiamando da una parte la giurisprudenza emessa dai giudici tedeschi e svedesi, e dall’altro richiamando la posizione del Garante per la protezione dei dati personali italiano e, de iure condendo, quella dell’Artificial Intelligence Act Proposal che “vieta l’uso di software e banche dati biometriche senza limitazioni, eccezion fatta per tre situazioni elencate in modo esaustivo e definite rigorosamente, nelle quali l’uso è strettamente necessario per perseguire un interesse pubblico rilevante, la cui importanza prevale sui rischi” (p. 245 ss.).
Oltre alla casistica indicata l’A. si focalizza sull’impiego dell’algoritmo per valutare capacità e meritevolezza nell'accesso agli studi universitari (p. 250), sviluppando le riflessioni intorno ai casi affrontati nel Regno Unito, in Irlanda, in Francia.
Altro tema centrale affrontato dalla A. in un testo così ricco e denso è quello del lavoro su piattaforma digitale (p. 260). L’A. dopo una prima ricognizione sul dibattito che si è sviluppato intorno alla nozione di gig economy e di sharing economy si sofferma sull’approccio qualificatorio adottato dai giudici del lavoro innanzi a rapporti di lavoro intermediati dalle piattaforme, giudicando insufficiente l’operazione qualificatoria preliminare ed invitando al superamento di questa logica che lascia in ombra la vera natura del problema, che è costituito della regolazione del rapporto.
In particolar modo l’A. incentra le sue riflessioni sull’asserita autonomia decisionale degli algoritmi utilizzati dalla piattaforma richiamando quella dottrina che sostiene che “la responsabilità giuridica delle istruzioni impartite, seppur meccanicamente, resta in capo alla piattaforma: non solamente perché la piattaforma detiene la proprietà intellettuale dell’algoritmo, (..) ma soprattutto perché la piattaforma reagisce con scelte economiche, foriere di precisi effetti giuridici, a ciò che viene a seguito degli input dell’algoritmo” (p. 260).
Le riflessioni sul ruolo ricoperto dall’algoritmo che compie attività un tempo “eseguite dal personale con mansioni organizzative” (p. 260) vengono sviluppate calando nel contesto del lavoro su piattaforma i tradizionali poteri propri del datore di lavoro. Ne consegue un’ampia analisi dell’impatto del nuovo modello di organizzazione automatizzata della gestione dei rapporti di lavoro tra prestatori e piattaforma, piattaforma e utenti, e tra utenti e prestatori di lavoro alla luce delle tradizionali norme che disciplinano la relazione lavorativa (p. 262). L’analisi sul funzionamento delle piattaforme, della tecnologia e sul ruolo del lavoratore è stata condotta anche in questo caso in ottica comparata, osservando come questo fenomeno si sia manifestato in Europa ma anche negli Stati Uniti, centrando l’attenzione sul metodo di valutazione (rating) a cui è sottoposto il crowdworker attraverso il punteggio che i clienti danno sul servizio ricevuto. Tale metodo scippa al datore di lavoro il potere di controllo. In questo caso il sistema di rating fa divenire l’utente direttamente il supervisore del lavoratore, esonerando i gestori dalla piattaforma dall’onere di controllo, quantunque permanga in capo alla stessa il potere di licenziare il lavoratore.
Il dibattito sulla natura del rapporto che lega crowdworker e piattaforma viene analizzato con riguardo alla messa a disposizione di un servizio, che la piattaforma vende al cliente, servizio che però coincide con l’attività svolta dal lavoratore. Il testo affronta pertanto gli sviluppi del Caso Uber (p. 265) ripercorrendo le pronunzie della Corte di Giustizia dell’Unione Europea che indirizza il dibattito sul tema verso una “soluzione poco pionieristica”, che costituisce quella che l’A. delinea “una fuga dal diritto del lavoro” nel senso che “nel bilanciamento si orienta verso l’interpretazione lavoristica rispetto a quella tecnologica” stabilendo che il trasporto di passeggeri posto in essere da conducenti non professionisti che utilizzano il proprio veicolo, ma siano organizzati attraverso strumenti informatici messi a disposizione da Uber debbano esser riportati ad una fattispecie complessiva riconducibile al “servizio nel settore dei trasporti” ex art. 2, paragrafo 2, lett. d), Direttiva 2006/123. Questa è secondo l’A. una visione di retroguardia su questo tipo di servizi perché “considera neutrali applicazioni che non possono essere piò considerate tali dato l’utilizzo di strumenti quali reti neurali artificiali e black box” (p. 266) e l’A. evidenzia l’aspetto critico della visione individuata che sposta il perno della questione “riconducendola nei binari della qualificazione del rapporto di lavoro, sottraendo attenzione agli aspetti connessi al trattamento dei dati e alla profilazione dei rider” (p. 266).
L’approccio adottato se da un lato consente di elaborare una “sorta di stabilità della posizione lavorativa dei rider”, dall’altro però ha il gravissimo effetto di “istituzionalizzare la loro profilazione restando inerte sulla possibile discriminazione posta in essere dagli ADMs (Automated decision-making systems) utilizzati nelle piattaforme” (p. 266). Nelle pagine dedicate al caso Uber emerge la formazione della A. che ripercorre il percorso che ha portato la Corte di Giustizia a ricondurre Uber nell’ambito dei servizi di trasporto invece che in quelli della società di informazione. L’A. analizza in senso critico le valutazioni della Corte di Giustizia nonché quelle della Supreme Court of United Kingdom, evidenziando i problemi relativi alla privacy, alla non discriminazione, alla tutela della dignità di lavoratori ed utenti oltre alle problematiche legate all’utilizzo di programmi automatizzati per la gestione dei servizi che il caso propone. Purtroppo, come sottolinea l’A. l’aver attribuito maggior attenzione alla natura della figura del lavoratore e alle modalità con cui si sviluppa la relazione lavorativa dei rider (ai quali viene attribuito lo stato effettivo di subordinazione effettiva (p. 268)), ha lasciato sullo sfondo il ruolo giocato dalla piattaforma in questi casi ed il vero rischio legato all’utilizzo dei programmi di decisioni automatizzate. Il punto della questione viene pertanto riposizionato dall’A. sull’aspetto discriminatorio poiché il riconoscimento della natura subordinata non sottrae i rider dalla sottoposizione alle decisioni automatizzate predisposte dall’algoritmo (anche con riguardo alla assegnazione ed all’inquadramento lavorativo subordinato), aspetto questo che anche la stessa Supreme Court non affronta riconducendo la fattispecie nell’alveo delle norme giuridiche vigenti in materia di lavoro, non pronunciandosi pertanto con riguardo ai rischi della profilazione e sul ruolo giocato dalla piattaforma. Va segnalato come anche le prime pronunzie della Corte di Cassazione Italiana si siano poste nel medesimo solco interpretativo e occorrerà attendere la più recente esperienza giurisprudenziale elaborata dal Tribunale di Bologna nel 2021 per assistere ad un cambio di passo. I giudici, infatti, adottano un nuovo approccio che pur partendo dalla tradizionale impostazione incentrata sulla natura del rapporto che si instaura tra le parti pone al centro lo spillover tecnologico causato dal ranking operato dalla piattaforma conseguente all’adozione di un servizio flessibile di prenotazione self-service a cui il rider può loggarsi per prenotare le sessioni in cui vuole ricevere le proposte di servizio.
L’ A. ripercorre con dovizia la metodologia utilizzata, il cui metodo di funzionamento non fu portato a conoscenza dei giudici, evidenziandone le potenzialità discriminatorie scaturenti dall’uso di un algoritmo “che sceglie i rider sulla scorta di criteri che sono estranei alle preferenze del lavoratore ed al suo interesse” (p. 273). Va evidenziato come il rifiuto posto ai giudici di accedere “al concreto meccanismo di funzionamento dell’algoritmo che elabora le statistiche dei rider” violi il dovere di trasparenza previsto dall’art. 22 GDPR dando vita ad una condotta doppiamente discriminatoria: da una parte perché il rider non viene messo a conoscenza del procedimento sanzionatorio, dall’altro perché la piattaforma vuole restare “cieca” nella penalizzazione derivante dalle statistiche (p. 274). Questa condizione dà vita a quella che l’A. definisce una “incoscienza discriminatoria” dato che “considerare irrilevanti motivi della mancata partecipazione alla sessione prenotata implica necessariamente trattare in modo uguale situazioni diverse, elemento tipizzante la discriminazione indiretta” (p. 274). Non sarebbe la piattaforma ad esser bendata o incosciente, bensì puntualizzano i giudici, le scelte effettuate dalla azienda datrice di lavoro che violano la normativa.
Questa pronunzia, a differenza delle precedenti, ha attribuito maggior rilievo all’aspetto dell’automazione rispetto a quello della forma contrattuale della relazione lavorativa, orientamento nel cui solco si è posto anche il legislatore spagnolo che accogliendo le statuizioni del Tribunal Supremo ha modificato la Ley del Estatuto de los Trabajadores nota come Ley Rider (p. 277) introducendo una presunzione di subordinazione lavorativa qualora l’organizzazione delle mansioni lavorative sia gestita attraverso strumenti algoritmici.
La questione viene ulteriormente sviluppata dalla A. richiamando la proposta di Direttiva relativa alla disciplina del lavoro organizzato attraverso piattaforme del 2021 nel quale un apposito capo il III viene dedicato alla gestione algoritmica.
Il capitolo si conclude con una analisi delle dinamiche discriminatorie relative all’utilizzo delle black box nel welfare state.
L’opera si completa con un capitolo conclusivo (p. 291-207) nel quale l’A. ripercorre in larga parte gli ambiti di riflessioni che la compongono cercando di racchiudere in una immagine fotografica fissa un contesto che, come appare da subito al lettore, è assai instabile. L’A. proietta la situazione fotografata in ottica comparata verso il futuro offrendo una ricostruzione obiettiva che comprova rischi e vantaggi (con gli adeguati accorgimenti) delle trasformazioni tecnologiche in corso, il cui effetto invasivo è tale da intaccare tutta una serie di contesti che precedentemente non si sarebbero mai considerati e in cui l’interesse pubblico può manifestarsi nel non ostacolare, ma comunque controllare, la diffusione e lo sviluppo delle nuove tecnologie. Quantunque i sistemi di Intelligenza Artificiale si stiano dimostrando incapaci di agire con quella autonomia, narrata con timore dall’immaginario collettivo (p.2), essi dovrebbero porsi a disposizione, quale mero strumento, dell’operatore umano, che dovrebbe valutarne di volta in volta l’utilità e l’affidabilità nell’utilizzo, limitando l’uso indiscriminato e distorto e correggendo la mancanza di ragionamento abduttivo che connota l’Intelligenza Artificiale (p. 296). Dal testo emerge come, proprio per questo motivo, sia fondamentale che l’approccio non si limiti all’intervento legislativo, ma spazi dalla mediazione alla definizione di principi fondamentali sottolineando come neppure il diritto alla privacy, con le adeguate motivazioni, può essere una ragione che ostacola la tecnologia.
Le battute conclusive dell’A. richiamano ad una “responsabilizzazione del ruolo umano nelle applicazioni” (studio, realizzazione, implementazione, messa sul mercato) dei sistemi automatizzati, attraverso sistemi trasparenti e chiari, sandboxes e così via. In questo senso il Proposal (p. 299) sembra indicare la soluzione corretta per un utilizzo di questi sistemi in modo appropriato e non (troppo) intrusivo, trovando un equilibrio tra la regola e l’eccezione nel quadro mobile (vista l’impossibilità di fissare per lungo tempo tecnologie e le relative norme a causa dello sviluppo tecnicamente non condizionato, né condizionabile dell’Intelligenza Artificiale) delle applicazioni legate allo sviluppo dell’automazione decisoria. Il compito più arduo riguarda trovare un equilibrio tra la regola generale (ad esempio la trasparenza, l’intervento umano, la tutela dei diritti fondamentali) e l’eccezione (provocata dallo sviluppo tecnologico p. 307).
Il volume va segnalato perché cerca di realizzare una prima mappatura organica e critica di questa fase di transizione del dibattito sulla regolazione delle nuove tecnologie, approcciandola sia dal punto legislativo che giurisprudenziale. L’impianto è interdisciplinare, con spunti di riflessione derivanti dalle normative elaborate in Italia, Francia, Gran Bretagna, Germania, Olanda, Spagna, alcuni paesi asiatici, America Latina, USA, Canada ed altri. La riflessione sulla giurisprudenza è molto ampia e supera i confini nazionali, prendendo in considerazione anche pronunce della Corte di giustizia dell’Unione europea e della Corte europea dei diritti dell’uomo.
Il tema indagato spazia dal diritto pubblico, al diritto amministrativo, al diritto penale, al diritto commerciale, al diritto del lavoro e della sicurezza sociale, con riferimento al lavoro tramite piattaforma. Tra i pregi del libro vi è quello di saper coniugare la complessità degli ambiti disciplinari con una coerenza sistematica, senza perdere la profondità necessaria, dando vita ad un elaborato eclettico. L’A. si avventura in un territorio eterogeneo, ponendo al centro l’esigenza di controllare i nuovi processi sottesi all’implementazione e al funzionamento dell’algoritmo, evidenziando l’aspetto etico che dovrebbe guidare la riflessione, adottando una categorizzazione per l’inquadramento dei fenomeni che si vogliono gestire ponendosi in dialogo con le scienze esatte. L’opera costituisce “una straordinaria miniera di informazioni”, sviluppate con un linguaggio tecnico ma accessibile a tutti (p. XI), da cui l’A. estrae la forza dell’impatto che le nuove tecnologie stanno producendo su tutti gli aspetti rilevanti della vita dei cittadini (sia nel contesto lavorativo, penale oltre che nelle diverse dimensioni che il cittadino assume nella società). L’A. affronta tale percorso intraprendendo un viaggio sia geografico che per contenuti che non si limita ad essere una riflessione sulla disciplina di un istituto specifico spaziando e richiamando l’evoluzione dei principi di diritto che vengono affrontati con un approccio filosofico comparato.
Uno degli interrogativi sottesi alla riflessione che accompagna in tutta l’opera l’A. è se in questi ambiti sia possibile ottenere gli stessi risultati dell’attività umana incaricando le macchine di svolgere la medesima funzione e, qualora questo fosse possibile, quali ne potrebbero i risvolti sui rapporti di lavoro, compresa la relativa regolamentazione, e sulla vita individuale e collettiva. Torna così l’immagine del Leviatano, già richiamato in apertura, quale attore attuale, privato o pubblico, che si nutre dei dati personali dei singoli componenti della collettività e che da questi stessi dati trae la propria legittimazione.

 

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.