testo integrale con note e bibliografia
1. Tratti terminologici e tentazioni antropomorfe. – Viviamo un tempo assai particolare, in cui ci viene chiesto, anzitutto come studiosi, ma anche come semplici cittadini di un mondo ormai globalizzato, di interrogarci e misurarci con pregi e limiti, vantaggi e rischi di quello che, a partire dalla formula linguistica in voga, ossia “intelligenza artificiale”, denota i tratti di un evidente ossimoro. La terminologia adoperata, infatti, come acutamente rilevato, «attribuisce all’”artificiale” qualcosa che è essenzialmente “naturale” in quanto è la prerogativa più gelosa della natura umana: l’intelligenza. E l’ossimoro è piuttosto provocatorio, poiché c’è chi molto seriamente si domanda se la macchina possa essere davvero “intelligente”, nel senso in cui questo termine è attribuito alla mente dell’uomo» . In altri termini, la non appropriatezza della terminologia deriva dalla circostanza che «per ora, almeno, alle macchine manca, in senso assoluto, il cervello e, tra le molteplici sue declinazioni, la capacità di discernere, la sensibilità, la morale, il giudizio, l’equità, la discrezionalità» .
Gli aspetti rilevanti sono molteplici, così come pure i corrispondenti angoli di osservazione. Ci si può infatti muovere sul fronte tecno-scientifico, su quello etico, su quello giuridico e così via . In questa sede, nella convinta consapevolezza del costante e inarrestabile progresso tecnologico, a cui corrisponde, per converso, la altrettanto sicura certezza della sistematica inadeguatezza della compiuta avvertenza, ci si soffermerà sui tratti distintivi dei sistemi di intelligenza artificiale o algoritmici (ossia procedure digitali governate dall’algoritmo, quale sequenza ordinata di operazioni di calcolo) rispetto alla relativa incidenza (tra i possibili, svariati ambiti di applicazione) nel settore dell’amministrazione della giustizia.
Due appaiono al riguardo le parole chiave dell’impostazione seguita, ossia conoscenza e responsabilità. Per un verso, infatti, si è molto insistito nel rilevare che appare diffuso un sostanziale analfabetismo digitale, considerato che «il 75% dell’umanità (8 miliardi) utilizza le “macchine” programmate ma solo 27 milioni sono in grado di parlare il loro linguaggio. Ciò significa che il 99% della popolazione è “analfabeta”. Siamo di fronte a una questione educativa, di libertà e democrazia» . L’educazione digitale rappresenta dunque la grande sfida odierna e del prossimo futuro, deputata ad assicurare l’appropriato rapporto tra uomo e macchina, ove il primo è chiamato a mantenere i propri caratteri distintivi e irripetibili, espressione della sua unicità; mentre la seconda deve continuare a essere considerata al servizio dell’umano, strumento per accrescere la conoscenza e il benessere collettivo. Per altro verso, poi, proprio l’evidenziata relazione servente impone, come appropriatamente messo in luce, che la progettazione degli algoritmi vada sviluppata (e, prima ancora, pensata) su base etica, «indagando gli effetti che potranno avere e chiarendo bene le finalità della loro applicazione e del loro uso» . Un utilizzo, dunque, responsabile delle capacità umane, grazie alle quali la macchina viene realizzata, quale risultato, dell’attività creativa dell’uomo, che per l’appunto ne è l’artifex. La tecnologia va quindi accompagnata da una formazione alla responsabilità .
2. Persona umana e strumentalità oggettiva. – Accanto agli ormai tradizionali e risalenti utilizzi degli strumenti di intelligenza artificiale, ve ne sono altri, più recenti (almeno per quanto riguarda il nostro Paese) che certamente hanno un significativo, positivo impatto quanto a situazioni giuridiche soggettive di primario rilievo, ad esempio rispetto all’impiego in sanità, sia quanto alla diagnostica sia quanto all’interventistica . Rispetto ad altri ancora il relativo ricorso è molto discusso, come per l’appunto nel settore giudiziario ; mentre, infine, nei confronti di taluni l’esclusione è scontata, basti pensare ai sistemi di identificazione biometrica di massa ai fini di controllo, in quanto limitativi di libertà fondamentali. Su questo fronte, come a breve si vedrà, si pongono i più recenti interventi normativi finalizzati alla tutela di diritti inviolabili, onde evitare il temuto rischio dell’algocrazia, ossia il potere degli algoritmi .
Proprio in ragione dell’enorme diffusione dei sistemi algoritmici e del crescente rilievo assunto dagli stessi, anche in termini di acquisite capacità, si è prospettato il possibile ricorso a una formula descrittiva, identificativa della relativa soggettività, in termini di persone elettroniche; in buona sostanza, una sorta di corrispondente digitale (a fini giuridici) del soggetto persona fisica (ma anche persona giuridica). Si può al riguardo rilevare che tale prospettiva, assunta anche a livello sovranazionale, è stata successivamente abbandonata, ritenendosi più appropriato rimanere, quando si discute di sistemi di intelligenza artificiale, a livello delle res, ossia delle cose, per quanto tecnologicamente avanzate . In questa direzione deve allora ribadirsi ancora una volta il rilievo centrale della persona umana , rispetto alla quale proprio il tratto dell’umanità (e della corrispondente ontologica diversità rispetto alla macchina, anche se “intelligente”) opera e rileva in quella dimensione spazio-temporale che si traduce (all’evidenza esterna) in un corpo in evoluzione, attraverso quel percorso cioè che va dal concepimento alla nascita, al progressivo sviluppo, sino all’estinzione; ciò che propriamente manca, come è stato giustamente evidenziato, alle prospettate persone elettroniche, anche nella forma “umanoide”, segnandosi il passaggio, con espressione figurata ma particolarmente incisiva, dall’habeas corpus all’habeas data.
3. Le differenti tipologie di sistemi algoritmici. – Alla precedente, sommaria indicazione fornita a proposito delle forme di utilizzo dell’intelligenza artificiale, può adesso aggiungersi quella relativa alle diverse forme di possibile configurazione strutturale e funzionale. Al riguardo si distingue comunemente tra sistemi meramente automatizzati, dunque controllati e guidati a tutti gli effetti dall’uomo; sistemi dotati di un certo grado di autonomia, in quanto capaci, in ragione della intervenuta programmazione, di assumere alcune scelte rispetto all’ambiente circostante, con il quale sono capaci di “relazionarsi”; sistemi totalmente autonomi, basati su modelli di autoapprendimento o deep learning (apprendimento profondo, espressione dell’apprendimento automatico), con l’utilizzo di reti neurali multilivello (reti neurali profonde) per simulare il complesso potere decisionale del cervello umano e per questo ritenuti “intelligenti”.
Ovviamente, al diverso grado di autonomia della macchina (assente, limitata, assoluta) corrisponde un differente rapporto con l’uomo, con evidenti, distinti problemi in ordine alla responsabilità per le azioni compiute attraverso il sistema di “intelligenza artificiale”, ora dipendente, ora parzialmente autonomo, ora totalmente autonomo.
4. I recentissimi interventi regolatori sovranazionali. – Il sempre più diffuso utilizzo di sistemi di “intelligenza artificiale” introduce ovviamente nuovi possibili rischi e correlative nuove possibilità di pregiudizi, risultando necessarie pertanto precise scelte in ordine alle regole di responsabilità e ai relativi criteri di imputazione.
Rischi e pregiudizi possono riguardare, oltre ai profili di natura meramente patrimoniale, anche il versante (ben più importante) dei diritti fondamentali della persona, sia rispetto al soggetto nella corrispondente individualità (dunque nella dimensione interna della propria sfera giuridica) sia rispetto al rapporto con gli altri soggetti (dunque nella dimensione esterna della proiezione pubblica). In questo senso è stato evidenziato, da un lato, il rischio, sempre più emergente, della profilazione da algoritmo con pregiudizio di accesso a determinati contesti (ora quanto all’aspetto personale ora quanto all’aspetto patrimoniale); dall’altro, il pericolo, anch’esso men che latente, di manipolazione dell’opinione pubblica attraverso l’uso di dati personali acquisiti ed elaborati tecnologicamente con effetto distorsivo e con possibile impatto sul fronte delle libertà . Così come pure non possono sottacersi, in ragione dell’àmbito di incidenza, taluni utilizzi dell’intelligenza artificiale dove la precauzione assume carattere centrale per prevenire e contenere rischi e pregiudizi ma anche per misurare appropriatezza e limiti della prospettata destinazione .
Si è dunque oggi approdati, dopo varie elaborazioni, alla redazione finale della prima legge sull’intelligenza artificiale, approvata lo scorso 13 marzo 2024 e pubblicata nella forma del regolamento UE, 13 giugno 2024, n. 1689 (Artificial Intelligence Act, acronimo AI Act) nella Gazzetta ufficiale UE 12 luglio 2024. Il regolamento è entrato in vigore venti giorni dopo la relativa pubblicazione (dunque, il 2 agosto 2024) e ne è prevista la piena applicazione nei successivi ventiquattro mesi (dunque, a partire dal 2 agosto 2026) . Esso è il risultato di una serie di atti, a partire dalla proposta di regolamento UE, 21 aprile 2021 e dalla successiva proposta di direttiva europea, 28 settembre 2022, sull’approccio europeo all’intelligenza artificiale, espressione del primo quadro giuridico europeo in quest’àmbito. È stato poi così approvata da parte del Parlamento europeo, il 14 giugno 2023, la versione definitiva ed emendata (in senso maggiormente protettivo) della già richiamata proposta del 21 aprile 2021, su cui si è raggiunto un accordo preliminare, il 9 dicembre 2023, tra Consiglio, Parlamento e Commissione UE, a cui è seguita la redazione e approvazione finale del già richiamato AI Act.
Deve al riguardo preliminarmente avvertirsi che obiettivo generale della introdotta regolazione è quello di assicurare che i sistemi di “intelligenza artificiale” utilizzati nell’Unione europea siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente, promuovendosi «la diffusione dell’intelligenza artificiale antropocentrica e affidabile, garantendo al contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea» (considerando 1).
Peraltro il nostro Consiglio dei Ministri, nella seduta del 23 aprile 2024, ha approvato, con la previsione della richiesta alle Camere di sollecita calendarizzazione nel rispetto dei due rami del Parlamento, un disegno di legge per l’introduzione di disposizioni e la delega al Governo in materia di intelligenza artificiale (comunicato alla Presidenza del Senato della Repubblica il 20 maggio 2024), senza alcuna sovrapposizione con quanto approvato in sede europea, ma a cui si accompagna (in una visione antropocentrica) il quadro regolatorio negli spazi propri del diritto interno, tenuto conto che (come a breve sarà meglio rappresentato) il regolamento UE è impostato su un’architettura di rischi connessi all’uso dell’intelligenza artificiale .
Centrale, nella approntata disciplina europea, appare proprio il richiamato ruolo del rischio e la connessa, prefigurata adozione di regole di responsabilità armonizzate, con l’introduzione, attraverso correlative differenti previsioni per i diversi tipi di rischi, di un regime comune di responsabilità oggettiva (o senza colpa) per sistemi di intelligenza artificiale (autonomi) a rischio intrinseco elevato e un regime di responsabilità soggettiva (o per colpa) per tutti gli altri sistemi di intelligenza artificiale (dunque non autonomi e in assenza di un rischio intrinseco elevato). Si tratta di una soluzione deputata a mettere in stretta correlazione le distinte tipologie di sistemi di intelligenza artificiale, segnatamente a rischio elevato e fermo il divieto quanto al rischio inaccettabile, e le corrispondenti modalità di immissione nel circuito di utilizzo, con la connessa individuazione dei soggetti che vi possono avere a che fare (sia pure con ruoli differenti) rispetto agli obblighi gravanti su ciascuno (fornitore, distributore, utilizzatore), con l’obiettivo di garantire adeguati standard di tutela e, soprattutto, assicurare la predeterminazione dei diversi livelli di responsabilità.
5. Esercizio della giurisdizione e “intelligenza artificiale”. Il ricorso ai sistemi algoritmici. – Quanto, più precisamente, ai rapporti tra giustizia e “intelligenza artificiale” deve mettersi in evidenza un doppio, distinto percorso di analisi. Per un verso, infatti, possono esaminarsi temi e problemi del possibile utilizzo dei sistemi algoritmici all’interno del sistema giustizia, quanto dunque all’esercizio della funzione giurisdizionale che se ne vale; per altro verso, poi, possono analizzarsi alcune delle (prime) decisioni giudiziali su controversie nascenti proprio dall’uso dei sistemi algoritmici e dai relativi risultati, quanto dunque al controllo giudiziario sull’utilizzo di tali sistemi.
In ordine al primo profilo (“intelligenza artificiale” in uso all’amministrazione della giustizia) ritorna prepotentemente all’attenzione, in termini ancora più stringenti, il tema del rischio, rispetto all’utilizzo di sistemi algoritmici per rispondere a una doppia necessità, comunemente avvertita in questo campo: certezza e prevedibilità delle decisioni giudiziali, espressione entrambe, sotto il profilo dell’efficienza dell’attività resa, dell’esigenza di uguaglianza tra i cittadini . Sono note, al riguardo, a fronte della diversità dei modelli processuali nei diversi settori di riferimento e, dunque, dei correlativi distinti ordini di problemi, le criticità di una possibile integrale sostituzione della macchina al giudizio umano, ritenendo preferibile che essa sia piuttosto di mero, ma non per questo meno rilevante, ausilio all’insostituibile operato dell’uomo, che mantiene altresì la primaria ed esclusiva responsabilità.
Le ragioni di una tale opzione (assolutamente condivisibile) sono da rinvenire nella permanente necessità sia di un’evoluzione giuridica di certo non assicurabile attraverso una giurisprudenza meccanica, sia di quelle valutazioni discrezionali che, proprie della particolare sensibilità umana, garantiscono soluzioni più rispondenti all’effettivo assetto di interessi in gioco e maggiormente rispettose del valore della persona umana . Quanto al primo aspetto si è infatti giustamente rilevato che alla giustizia digitale di tipo predittivo, seppur attendibile in termini di proiezione sulle future pronunce giudiziarie, è tuttavia naturalmente estraneo quel tratto di inventiva creatività che può scaturire solamente dall’operatore umano . In ordine, poi, al secondo aspetto si è parimenti evidenziato che il ricorso a una tecnologia in grado di produrre in via autonoma decisioni giudiziarie, i programmi cioè di machine learning, mette seriamente a rischio il rispetto di una serie di requisiti che sono propri dell’esercizio della giustizia . Si tratta di tipi di problemi ben presenti a tutte le (ormai sempre più numerose) indagini sull’utilizzo dei sistemi di “intelligenza artificiale” nell’esercizio della giurisdizione, proprio in ragione dei rapporti tra input e output che governano il funzionamento delle macchine e ne traducono un agire sostanzialmente opaco .
Parimenti, tali ordini di questioni sono oggetto della recente attenzione del legislatore sovranazionale che, rispetto ad alcuni sistemi di “intelligenza artificiale” destinati all’amministrazione della giustizia, ne propone la classificazione, nel relativo regolamento, come sistemi ad alto rischio. Viene evidenziato, per l’appunto, l’impatto potenzialmente significativo, tra le altre cose, «sul diritto a un ricorso effettivo e a un giudice imparziale (considerando 61». Proprio per tali ragioni, ossia per far fronte ai rischi di potenziali distorsioni, errori e opacità, viene ritenuto opportuno «classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti» (considerando 61). In buona sostanza, dunque, «il processo decisionale deve rimanere un’attività a guida umana» (considerando 61).
Diverso (e sicuramente auspicabile) è invece il modello algoritmico ausiliario o ancillare, declinabile in plurime forme, a partire dal trattamento di un’enorme mole di dati e alla correlativa elaborazione, attività di fatto impossibile per l’uomo. Qui, effettivamente, può misurarsi pienamente l’operatività dei sistemi di “intelligenza artificiale”, pur senza escludere la necessità, comunque, di forme di controllo, di natura certo differente rispetto al tipo di compito affidato. Si rileva al riguardo, a livello di regolazione sovranazionale, la non elevata rischiosità di «sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi» (considerando 61). Nella medesima direzione si muove il già richiamato disegno di legge di iniziativa governativa il cui art. 14, rubricato “Uso dell’intelligenza artificiale nell’attività giudiziaria”, prevede che «I sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale» (comma 1); diversamente, «È sempre riservata al magistrato la decisione sull’interpretazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione di ogni provvedimento» (comma 2). A tale prospettata previsione sono stati apportati, come risulta dal resoconto sommario del Senato della Repubblica n. 9 del 12 marzo 2025, taluni emendamenti; in particolare, la riserva «in via esclusiva» al magistrato della decisione e, l’introduzione di un comma 1-bis ai cui sensi «In nessun caso i sistemi di intelligenza artificiale possono sostituire la valutazione e la decisione del magistrato. Tutti i provvedimenti adottati in seguito a suggerimenti generati da sistemi di intelligenza artificiale devono essere conformi alla classificazione del rischio stabilita dal Regolamento (UE) 202471689 e devono garantire l’intervenuto umano nelle decisioni finali», e, in versione parzialmente differente, «È vietato l’uso di sistemi di intelligenza artificiale per l’assegnazione automatizzata di sanzioni o punizioni senza una preventiva valutazione umana, in conformità con i requisiti previsti dal Regolamento (UE) 2024/1689 per i sistemi ad alto rischio».
Tuttavia, anche funzioni a prima vista meramente ausiliarie possono celare, nell’ambito degli utilizzi ritenuti esterni, rischi di intrusione e correlativa alterazione dello stesso ragionamento giuridico e finanche della decisione adottata pur sempre umanamente. Si è appropriatamente al riguardo richiamata l’ipotesi dell’utilizzo di dispositivi di traduzione automatica attraverso l’intelligenza artificiale da una lingua a un’altra . In senso ausiliario e non tecnicamente invasivo si pone di certo, invece, l’utilizzo della capacità di incameramento e rielaborazione di un gran mole di dati da parte dei sistemi algoritmici, testata all’interno del recente progetto “Giustizia Smart: Strumenti e Modelli per ottimizzare il lavoro dei giudici” - Just Smart, finanziato dal Ministero della Giustizia e di cui può qui darsi rapido riscontro in ordine a quanto realizzato dall’unità decentrata e periferica catanese. L’unità locale, infatti, con il coinvolgimento di figure professionali diversificate (giuristi, ingegneri, matematici e informatici), espressione di professionalità distinte ma complementari e integrabili, ha provveduto a creare una banca dati destinata a raccogliere la giurisprudenza di merito del distretto della Corte d’appello di Catania, per una immediata e più agevole conoscenza degli orientamenti giudiziali locali nella condivisa ottica della deflazione del contenzioso . L’operata massimazione dei provvedimenti (all’interno peraltro di un progetto originario ben più ampio, comprendente anche attività di redazione di bozze di provvedimenti) appare in tal senso funzionale alla realizzazione della già richiamata banca dati, la cui assicurata consultazione e gestione attraverso l’utilizzo di sistemi algoritmici quanto alla ricerca e all’incrocio delle decisioni non è certo traduzione di un modello di giustizia predittiva ma risulta indubbiamente di efficace supporto all’attività di tutti gli operatori del diritto coinvolti nel sistema giustizia (magistrati, avvocati e personale amministrativo) .
6. (Segue). Il controllo sui sistemi algoritmici. – In ordine, poi, al secondo profilo (controllo giudiziario sull’utilizzo dei sistemi di “intelligenza artificiale”), già diverse volte i giudici sono stati chiamati a decidere controversie legate al ricorso a strumenti algoritmici. Possono qui ricordarsi, perché particolarmente emblematiche, le questioni che hanno interessato, rispettivamente, l’automazione del processo decisionale della pubblica amministrazione, l’affidamento all’algoritmo della gestione del rapporto di lavoro privato e il ricorso alla profilazione quale tipo di trattamento automatizzato sul quale si regge (anche) il fenomeno del rating.
Nel primo caso la procedura algoritmica è stata oggetto di vaglio quanto all’utilizzo ai fini della valutazione e formulazione della graduatoria di una moltitudine di domande. La relativa vicenda, già conclusa (ma altre si sono succedute e sono in corso di definizione nel medesimo senso), riguarda l’instaurato ricorso dinanzi al giudice amministrativo nei confronti del procedimento del Ministero dell’Università e della Ricerca in ordine al piano straordinario di mobilità territoriale e professionale, a fronte delle doglianze dei ricorrenti rispetto alla nomina su classi di concorso e ordine di scuola in cui non avevano mai lavorato o alla destinazione di proposta di assunzione nella scuola superiore di primo grado (nonostante nella relativa domanda fosse stata espressa la preferenza per la scuola superiore di secondo grado), comunque in province lontane rispetto a quella di provenienza. Oggetto di censura è stato proprio lo strumento algoritmico, che aveva concretamente presieduto alla graduazione delle domande di assegnazione, in assenza tuttavia della possibilità di conoscerne le effettive modalità di funzionamento. Il proposto appello, a fronte del rigettato ricorso in primo grado, è stato poi accolto, con il conseguente annullamento della procedura impugnata per violazione dei princìpi di imparzialità, pubblicità e trasparenza, non risultando in fatti comprensibile la ragione per la quale le legittime aspettative di soggetti collocati in una determinata posizione in graduatoria fossero andate deluse .
Secondo l’intervenuta statuizione di accoglimento l’utilizzo di procedure robotizzate, che elevano il livello di digitalizzazione dell’amministrazione pubblica assicurando un significativo miglioramento della qualità dei servizi resi ai cittadini e agli utenti, deve pur sempre avvenire nel rispetto dei princìpi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa. In tal senso la regola tecnica che governa ciascun algoritmo rimane pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla macchina, per essere poi (solo) applicata da quest’ultima, sia pure in via esclusiva, dovendosi considerare l’algoritmo, ossia il software, a tutti gli effetti come un atto amministrativo informatico. Siamo in presenza, peraltro, di una questione che, a monte, è stata talora risolta, proprio per comprendere il meccanismo di funzionamento del predisposto sistema di selezione, attraverso una vera e propria richiesta (giudizialmente accolta) di accesso agli atti amministrativi, individuandosi un documento amministrativo accessibile nel programma per elaboratore e nell’algoritmo in esso contenuto .
Nel secondo caso, invece, relativo all’àmbito lavorativo privato, vengono in considerazione le vicende che hanno coinvolto la nota categoria dei riders almeno sotto due profili, entrambi attinenti alla funzione svolta, in merito, dall’algoritmo . Si è posta anzitutto l’attenzione sul tipo di rapporto lavorativo (se cioè autonomo o subordinato) dei riders delle piattaforme di food delivery, statuendosi, sia pure in posizione (sinora) minoritaria e in controtendenza rispetto alla precedente giurisprudenza di legittimità , che essi devono essere qualificati come lavoratori subordinati, nella misura in cui (e ove) la loro prestazione venga interamente organizzata dall’algoritmo . L’accoglimento del ricorso è stato infatti fondato sull’analisi delle concrete modalità di svolgimento del rapporto, caratterizzato nel caso di specie dalla collaborazione da parte dei riders in maniera continuativa con la piattaforma che provvedeva alla completa gestione e organizzazione dell’attività lavorativa; in disparte, pertanto, la limitata possibilità per il lavoratore di scegliere di prenotarsi per i turni che il sistema mette a disposizione, è apparsa di centrale rilevanza la soggezione al potere organizzativo della piattaforma, per il tramite appunto dell’algoritmo, deputato altresì, in particolare, alla predisposizione delle modalità di assegnazione degli incarichi di consegna, con evidenti conseguenze proprio sulla qualificazione del rapporto di lavoro.
In parallelo si è concluso il giudizio intentato nei confronti di una importante società che si occupa della consegna di cibo on line, condannata al risarcimento dei danni prodotti dal sistema di prenotazione e distribuzione del lavoro tra i riders, basato sull’utilizzo di un algoritmo che, a motivo di una programmazione sostanzialmente limitata, finiva per discriminare in maniera indiretta i singoli addetti . Costoro, infatti, venivano profilati attraverso l’attivato sistema di prenotazione delle sessioni di lavoro sulla piattaforma digitale in base alla effettiva partecipazione a quanto previamente prenotato; il sistema, tuttavia, non consentiva di distinguere le possibili ragioni della mancata partecipazione alle sessioni di lavoro in precedenza prenotate, determinando così, attraverso lo stilato ranking reputazionale di affidabilità (consequenzialmente falsato), una graduatoria che consentiva ai ritenuti migliori di avere priorità di accesso alla prenotazione delle fasce orarie lavorative nelle sessioni numericamente più significative e, dunque, più redditizie.
Deve peraltro segnalarsi l’importante, recentissima presa di posizione dell’Unione europea in materia, con l’adozione della direttiva UE, 23 ottobre 2024, n. 2831, relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali, per l’appunto i riders, stimati in 28 milioni di persone in tutto il territorio dell’Unione. La nuova normativa, pubblicata nella Gazzetta ufficiale UE 11 novembre 2024, entrata in vigore il 1° dicembre 2024 e che dovrà essere recepita dai Paesi dell’Unione entro il 2 dicembre 2026, è deputata a consentire la determinazione in modo corretto dello status occupazionale delle persone che lavorano nelle piattaforme, in prevalenza veri e propri lavoratori subordinati, ai quali dunque spettano le relative tutele protettive, essendosi peraltro assunta la scelta della presunzione di lavoro dipendente.
Nel terzo caso, infine, la controversia ha riguardato una piattaforma web (con annesso archivio informatico), preordinata all’elaborazione di profili reputazionali di persone fisiche e giuridiche, su cui era intervenuta l’Autorità Garante per la protezione dei dati personali dichiarando l’illiceità del trattamento, con provvedimento poi annullato per l’appunto in sede giudiziale . Il servizio di rating in questione è deputato a calcolare, e dunque definire, la reputazione dei soggetti censiti, al fine di assicurare maggiore trasparenza e certezza nelle relazioni interpersonali e di business . Tale risultato viene ottenuto attraverso un sofisticato algoritmo matematico, con l’assegnazione agli interessati di un punteggio complessivo, atto a determinarne il grado di affidabilità, calcolato sulla base della documentazione proveniente da soggetti terzi e caricata sulla piattaforma dagli stessi utenti . Tuttavia questo algoritmo opera ben più a largo raggio rispetto ai principali sistemi di rating, limitati al solo contesto finanziario o patrimoniale, determinando così un complessivo risultato in termini di vera e propria identità digitale , di natura personale e sociale, quale elemento nuovo e caratterizzante del rating c.d. reputazionale.
Nella vicenda in esame, allora, per un verso è stato giudizialmente confermato il diritto alla conoscibilità dell’algoritmo , sia pure con una base normativa differente quanto al relativo, richiesto consenso per il trattamento dei dati personali ; per altro verso si è ritenuto che la riconosciuta trasparenza dell’algoritmo abbia dunque assicurato un consenso valido da parte dell’utente quale condizione di liceità del trattamento, consentendo in questo modo di respingere gli eccepiti rilievi di segno opposto. Non può tuttavia negarsi che cosa però ben diversa è verificare, in concreto, se attraverso la preliminare informativa resa venga effettivamente assicurata la conoscenza dello schema esecutivo dell’algoritmo, ossia le relative modalità logiche e operative, garantendo in tal modo il corretto esercizio del diritto all’autodeterminazione informativa in ragione della ricevuta spiegazione.