testo integrale con note e bibliografia
Uno strumento di lavoro come un altro.
«È uno strumento di lavoro come un altro, come il telefono, come il ciclostile. Il fattore umano è e sarà sempre indispensabile, nel nostro lavoro; ma abbiamo dei concorrenti, e perciò dobbiamo pure affidare alle macchine i compiti più ingrati, più faticosi. I compiti meccanici, appunto...» . A pronunziare queste parole è un poeta intento ad ottimizzare il proprio lavoro. L’oggetto del suo discorso, lo strumento, è una macchina che genera rime su richiesta dell’agente umano e secondo le istruzioni da questi impartite: il Versificatore. La penna è quella di Primo Levi, in un racconto che porta proprio il nome della macchina. Nel racconto il poeta si rivolge alla segretaria con cui lavora insieme, la quale, forse spaventata che l’insolita invenzione possa sostituirla nelle sue mansioni, imbastisce una breve apologia del lavoro umano: «... al suo posto non farei mai una cosa simile. Non lo dico mica per me, sa: ma un poeta, un artista come lei... come può rassegnarsi a mettersi in casa una macchina... moderna finché vuole, ma sarà sempre una macchina... come potrà avere il suo gusto, la sua sensibilità...» . Mai come oggi queste parole risuonano attuali. Sembrano restituire, con sorprendente lucidità, la preoccupazione relativa alle questioni sollevate dalla rivoluzione digitale nei numerosi domini dell’esperienza umana che ne risultano coinvolti : la delega alle macchine, la progressiva sostituzione del lavoro umano, il confronto diretto tra essere umano e macchina e la rinnovata ricerca di ciò che costituisce l’irriducibile specificità del fattore umano, il suo quid pluris.
Tuttavia, un ulteriore aspetto viene in rilievo leggendo il testo di Levi. Con un salto alle battute finali del racconto, il poeta, dopo avere utilizzato per due anni l’invenzione, così afferma: «mi è diventato indispensabile. Si è dimostrato molto versatile: oltre ad alleggerirmi di buona parte del mio lavoro di poeta, mi tiene la contabilità e le paghe, mi avvisa delle scadenze, e mi fa anche la corrispondenza: infatti, gli ho insegnato a comporre in prosa, e se la cava benissimo» . Ecco, che la macchina è divenuta “indispensabile”. Il suo impiego è stato esteso a una gamma sempre più ampia di attività nei diversi ambiti del lavoro di poeta, tra i quali anche quelle più strettamente amministrative e gestionali. Così, il racconto, che si apre con la rivendicazione dell’indispensabilità del lavoro umano, alla fine si chiude con l’affermazione dell’indispensabilità della macchina. È in questo slittamento narrativo, discreto ma dirompente, che, ancora prima di essere tematizzata, una sostituzione sembra prendere forma.
1. Decidere con un prompt.
Il tempo attuale è però abitato da macchine diverse . Il riferimento è alle intelligenze artificiali , che del Versificatore sembrano essere una versione potenziata: tecnologie capaci, tra l’altro, di sfruttare il linguaggio per elaborare risposte in reazione a un comando – un prompt – impartito dall’essere umano. Pur non del tutto dissimili alla macchina del racconto, le intelligenze artificiali possiedono però campi di applicazione ben più ampi – seppure sempre specifici e non generali – rispetto alla sola capacità di generare poesie e sonetti. La cosiddetta intelligenza artificiale generativa, infatti, non si limita a riprodurre testi o informazioni, ma con i propri output simula veri e propri atti linguistici , che appaiono avere la forma di argomentazioni, pareri, raccomandazioni o decisioni .
Proprio l’abilità di giungere a decisioni, su cui si concentrerà l’attenzione nel prosieguo, sembra costituire una delle caratteristiche distintive di questi sistemi e più in generale delle tecnologie di intelligenza artificiale . In questo senso può essere letto l’art. 3 del Regolamento (UE) 2024/1689 (cosiddetto AI Act), che definisce «sistema di IA» come «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali» .
Inevitabili sono i punti di contatto con il diritto, rispetto al quale la riflessione sull’intelligenza artificiale attiene, tra l’altro, anche all’eventualità di realizzare processi decisionali automatizzati e quindi di delegare al sistema artificiale i compiti per l’esecuzione dei quali è richiesta all’essere umano la facoltà di giudizio . Un’attività che oggi è riservata al giudice umano. Delegare, proprio così . E riservare. Due verbi che descrivono bene le questioni in gioco e che ne richiamano un altro di verbo: sostituire . Invero, sebbene l’ipotesi della sostituzione integrale appaia, allo stato attuale, piuttosto remota – se non del tutto da escludere – , resta nondimeno utile interrogarsi sul rapporto tra essere umano e macchina in questi termini, anche solo per comprendere la preoccupazione che tale prospettiva continua a generare. Un’idea, questa, che acquista maggiore rilievo alla luce dello scivolamento verso l’indispensabilità della macchina che il racconto di Levi, in modo forse profetico, già suggeriva : una sostituzione che – conviene metterlo già in evidenza – non nasce da una presa di posizione o dall’imposizione di una norma, ma è il frutto di una adozione progressiva.
2. Un’implicita preoccupazione.
A proposito di norme, per cogliere appieno le questioni in gioco, è utile volgere lo sguardo al panorama regolatorio, in particolare ai livelli europeo e nazionale, limitando l’analisi a due atti normativi nello specifico . Il primo riferimento è all’AI Act . Per quanto qui di interesse, il Regolamento, strutturato secondo un approccio basato sul rischio, inscrive tra i settori i cui sistemi sono classificati ad alto rischio quello relativo all’amministrazione della giustizia (e ai processi democratici). In particolare, l’allegato III comma 8, cui fa rimando l’art. 6 par. 2 del Regolamento, individua alcune sottocategorie (o “casi d’uso”) all’interno di ciascun settore . Tra queste vi sono ricompresi «i sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie».
In realtà, per comprendere quali sistemi siano effettivamente considerati a rischio elevato, è opportuno esaminare le eccezioni previste. Sono esclusi, infatti, quei sistemi che non presentano «un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale» , vale a dire quando ricorre una delle seguenti situazioni: «il sistema di IA è destinato a eseguire un compito procedurale limitato»; oppure «è destinato a migliorare il risultato di un'attività umana precedentemente completata»; o ancora, «è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un’adeguata revisione umana»; o infine «è destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d’uso elencati nell’allegato III».
Queste situazioni a rischio “ridotto” sembrano accomunate dalla circostanza che non vi è sostituzione dell’essere umano nel processo decisionale o che comunque essa è parziale, per diverse ragioni: o perché il compito è in sé limitato, o perché l’attività è stata già completata di fatto dall’agente umano, o perché vi è comunque una revisione umana, o, ancora, perché il contributo dell’intelligenza artificiale riguarda un’attività marginale . In questo senso può essere letto quanto scritto al Considerando 61, a proposito dei sistemi di intelligenza artificiale destinati all’amministrazione della giustizia: «L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana» .
In questa cornice sta per inserirsi la disciplina nazionale, che rappresenta qui il secondo riferimento normativo. Non può passare in secondo piano, infatti, come il 20 marzo 2025 sia stato approvato al Senato della Repubblica il Disegno di legge riguardante le Disposizioni e deleghe al Governo in materia di intelligenza artificiale. Al netto della forma finale che assumerà la norma all’esito dell’iter parlamentare, qui torna utile la lettura dell’art. 15, rubricato «Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria», nel quale al primo comma viene posto in risalto il principio antropocentrico. È, infatti, previsto che «Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti» . Da una prima lettura parrebbe che la norma, attraverso una “riserva” in capo al giudice umano, sia destinata a imporre un divieto di delega dell’attività decisionale al sistema artificiale.
È il caso di fermarsi, poiché gli elementi fin qui considerati appaiono già sufficientemente indicativi. Infatti, da questa lettura mirata del contesto normativo sembra affiorare un’implicita preoccupazione: che una forma di sostituzione possa, in effetti, avere luogo.
3. Il foglietto illustrativo.
La preoccupazione descritta, in fin dei conti, può essere ricondotta alla circostanza che l’intelligenza artificiale è oggi in grado di condurre un processo decisionale in autonomia . Occorre, tuttavia, intendersi sul punto. A questo proposito può essere d’aiuto il contributo di Susskind, secondo il quale domandarsi se una macchina possa rimpiazzare un giudice umano nasconde in realtà interrogativi ulteriori . Tra questi, particolarmente interessante per il presente discorso è quello relativo alla realizzabilità tecnica. Egli mette in discussione quella che definisce la «fallacia dell’intelligenza artificiale», ovvero l’errore logico che porta a ritenere che le macchine possano svolgere compiti umani soltanto imitando i processi mentali degli esseri umani. Al contrario, l’autore suggerisce di spostare l’attenzione dal processo al risultato: ciò che conta, per valutare se un computer possa assumere una decisione, non è il modo in cui “ragiona”, ma se l’output che produce è adeguato al compito e risponde alle aspettative. Fare altrimenti, sarebbe come «chiedersi se un computer possa pensare», che «è tanto interessante quanto chiedersi se un sottomarino possa nuotare» . Non è questa la questione, insomma. Una tale prospettiva, fondata sull’equivalenza funzionale dell’output, conduce a ritenere che la sostituzione del giudice non sia del tutto irrealizzabile, a condizione di limitare l’osservazione al solo esito della decisione e non all’intero processo deliberativo . Un’idea, questa della sostituzione, che, così declinata, trova ulteriore sostegno in un altro errore cognitivo: la tendenza dell’essere umano ad attribuire maggiore affidabilità e legittimità alle decisioni prodotte da una macchina rispetto a quelle formulate da un suo simile . E, da questa visuale, l’implicita preoccupazione del legislatore, emersa nel contesto normativo sopra descritto, appare tutt’altro che infondata.
Del resto, a ben vedere, una siffatta impostazione – la sostituibilità dell’output algoritmico al giudizio umano – trova un’eco, sia pure indiretta, tra le righe della sentenza emessa nel noto caso Loomis . Il riferimento è a quella parte della decisione in cui la Supreme Court del Wisconsin, dopo avere esposto le circostanze che rendono compatibile con il sistema giuridico l’utilizzo del sistema artificiale (di risk assessment, in quel caso specifico), elenca alcuni elementi che devono essere presenti nel Presentence Investigation Report (PSI), ovvero in quel documento contenente la valutazione elaborata dall’algoritmo . In particolare, – afferma la Corte – è necessario che il giudice sia informato, per iscritto, dei limiti insiti nella valutazione automatizzata: ad esempio, tra di essi, merita attenzione la circostanza che la valutazione del rischio si fonda sull’elaborazione di dati che fanno riferimento a categorie di persone . Quel che qui interessa, però, è mettere in evidenza la funzione di tale informazione dovuta al giudice. Si potrebbe affermare, con una metafora, che queste indicazioni svolgono la stessa funzione del libretto di istruzioni, o, forse meglio, del foglietto illustrativo che accompagna i farmaci. Esse, infatti, sembrerebbero ricordare all’operatore umano che tra le sue mani vi è un’elaborazione algoritmica, così fornendo al lettore un avvertimento utile a prevenire l’automatismo nell’adozione dell’output . Ciononostante, neppure questo tipo di informazione è sufficiente a escludere il rischio che l’intervento umano si riduca, in concreto, a un controllo meramente formale.
4. L’esonero.
Stando così le cose, appare chiaro che un sistema intelligente può generare un risultato utile, ma non per questo può dirsi che “decida” . La decisione, in senso proprio, presuppone un atto umano: è l’essere umano, infatti, a conferire valore e legittimazione giuridica all’output prodotto. In assenza di questo riconoscimento – come accade oggi – il modello sostitutivo può essere ragionevolmente accantonato. Nel contesto della giurisdizione, l’elaborazione algoritmica può dunque svolgere, al più, una funzione ausiliare. Ne sono un esempio (per riprendere l’AI Act): le attività preparatorie, di miglioramento di compiti già svolti da un umano e quelle che non comportino deviazioni dagli schemi decisionali . In sintesi, al sistema intelligente possono essere delegati quei compiti che non implicano una valutazione sulle norme o sui fatti, né tantomeno la decisione finale . Ne deriva, così, una figura di giudice che, nel corso del processo decisionale, è chiamato a gestire diverse tecnologie.
Per descrivere tale dinamica, può essere utile richiamare la categoria dell’“esonero”. Come osserva Casadei, riprendendo il pensiero di Gehlen, «un esonero è un’attività agevolante, in genere legata a un oggetto tecnico […], che permette al singolo individuo di non impiegare tempo nel pensare a come superare una condizione mondana, ma di risolverla senza dissipare energie, che possono quindi essere impiegate per altre attività» . Da questa prospettiva, l’intelligenza artificiale può essere intesa come un oggetto tecnico che permette di risolvere problemi senza che all’essere umano sia richiesto di dissipare le corrispondenti energie. La delega di attività ausiliarie alla giurisdizione può così essere letta come la concretizzazione di un’attività agevolante, di un esonero appunto.
Ma c’è un ulteriore aspetto da considerare. Infatti, l’esonero è possibile in forza di quella che, opportunamente, Simoncini definisce la «forza pratica» del sistema artificiale: «una volta introdotto un sistema automatico di decisione all’interno di un processo decisionale umano, il sistema automatico tende, nel tempo, a catturare la decisione stessa», accadendo ciò «non per ragioni di valore scientifico, di accuratezza predittiva o di affidabilità tecnica dell’automatismo, ma eminentemente per ragioni di convenienza pratica» . In altre parole: basta che funzioni e niente esclude, dal punto di vista tecnico (nei limiti di quanto sopra affermato), che l’esonero possa estendersi anche al nucleo centrale dell’attività giurisdizionale, analogamente a quanto accade nel racconto di Levi, dove il Versificatore si occupa non solo di funzioni secondarie, ma solleva il protagonista dal cuore stesso del suo mestiere di poeta. Infatti, la forza pratica dei sistemi intelligenti è così «travolgente», che l’esonero può trovare argine solo in prescrizioni provenienti dall’esterno, attraverso una regolazione . Eppure, anche laddove tale forza venga limitata da vincoli normativi, resta aperto un interrogativo: fino a che punto l’essere umano, pur mantenendo formalmente il controllo, riesce a sottrarsi alla logica che guida il funzionamento del sistema?
5. Sintomatologia del disimpegno.
Quanto fin qui rappresentato suggerisce che alle forme di manifestazione dell’esonero corrisponde un “disimpegno” umano nella decisione, seppure parziale. Non si può escludere, però, che il disimpegno decisionale possa avvenire anche a prescindere da una delega di funzioni alle intelligenze artificiali e che possa imporsi, piuttosto, come conseguenza dell’adozione, da parte dell’essere umano, della logica posta a fondamento del sistema artificiale e come effetto dell’assimilazione del suo criterio primo, l’efficienza . In questo senso, può essere interessante ipotizzare una breve “sintomatologia” del disimpegno, limitando l’osservazione a tre segni attraverso i quali potrebbe manifestarsi. Il primo possibile sintomo è la “fuga dalla motivazione”, che si rivela nella tendenza alla sinteticità degli argomenti decisori e che potrebbe preludere a una decisione binaria (ridotta all’opposizione tra: torto e ragione, vittoria e soccombenza, condanna e assoluzione). Il secondo è il “rifugio nel precedente”, inteso non come strumento di coerenza giurisprudenziale, ma come reazione all’incertezza insita nell’atto del giudicare : la possibilità di aderire a un esito già consolidato può offrire una rassicurazione, specie nei contesti ad alta complessità o elevato carico di lavoro. Infine, il terzo riguarda la “tecnicizzazione del diritto”, riconducibile alla crescente produzione di norme settoriali sempre più dettagliate, all’eccessiva proliferazione regolativa e alla tendenza a colmare in modo capillare ogni possibile “spazio vuoto” normativo.
In uno scenario siffatto, a profilarsi è una pratica giuridica sempre più proceduralizzata e potenzialmente suscettibile di automazione, nella quale lo spazio riservato alla decisione come esercizio umano di discernimento tende a ridursi. Tra l’altro, detto di passaggio, questi sintomi sembrano trovare corrispondenza – pur con le dovute cautele – in alcuni dei limiti comunemente attribuiti alla giustizia digitale: l’effetto black-box delle tecnologie di deep learning e i limiti nella spiegabilità delle operazioni algoritmiche; la tendenza a proiettare sul presente pattern di regolarità basati su dati passati; e l’insondabilità del linguaggio computazionale. Per quanto qui interessa, però, questa ipotetica sintomatologia è utile perché mette in guardia rispetto al graduale emergere in primo piano del criterio di efficienza, cui potrebbe corrispondere il rischio di un progressivo arretramento del criterio di giustizia. Il tema richiederebbe certo uno spazio di trattazione più ampio, ma, nell’economia del presente discorso, è sufficiente rilevare come, nel contesto del digitale, il diritto rischi di ridursi a mero strumento di efficienza del sistema. Per dirla con le parole di Garapon, che discute appunto della riduzione del diritto da “ordinamento” a “sistema” : «in un ordinamento giuridico la legittimità di una decisione o di un atto proviene dalla sua corrispondenza con le fonti sociali, politiche e simboliche dell’autorità. Al contrario, in un sistema, il flusso porta in sé stesso la propria legittimità. La dimensione simbolica che fondava l’autorità del diritto finisce nel dimenticatoio in quanto il diritto si riduce alla sua performance sociale ed economica. È giusto ciò che è efficace, più precisamente ciò la cui efficacia è misurabile» . In definitiva, quando la misura della giustizia tende a sovrapporsi a quella dell’efficienza, a dovere trovare una ridefinizione non sono soltanto le modalità della decisione, ma anche il ruolo dell’umano stesso all’interno del sistema.
6. Il collo di bottiglia.
Se l’efficienza è posta al centro del sistema, l’essere umano finisce per esserne il “collo di bottiglia”: il nodo critico in cui il processo rallenta o si inceppa . Al riguardo, è esplicativo quanto evidenziato da Condello a proposito della contrapposizione tra “scienza algoritmica” e “scienza del diritto” . Osservando il panorama dei programmi che automatizzano i processi giuridici, l’autrice afferma: «qui c’è un dato interessante a proposito dello ‘scarto’ fra intelligenza artificiale (che riflette quella che definiamo qui ‘scienza algoritmica’) e scienza giuridica. […] la scienza giuridica è focalizzata in particolare sull’azione umana, mentre questi programmi sembrano, al contrario, voler eliminare l’apporto umano perché, tendenzialmente, l’uomo tende a rallentare i processi» . L’idea di fondo è che, se l’umano è fonte di incertezza, lentezza o errore, allora è meglio che il processo decisionale venga automatizzato del tutto. Questa descrizione sembra richiamare quella che Garapon, riprendendo Watzlawick, definisce «l’ultra-soluzione della giustizia digitale», la quale «consiste nel porre rimedio ai mali costitutivi della giustizia in modo radicale, eliminando il fattore umano» .
È questo, insomma, l’effetto della forza pratica del sistema automatico, che finisce con il travolgere la decisione stessa . In questa prospettiva, lo slittamento – evocato in apertura – dall’indispensabilità del fattore umano all’indispensabilità della macchina, non appare necessariamente come il risultato di una dichiarata delega di funzioni ai sistemi intelligenti, bensì come l’esito di una – meno evidente ma più radicale – esposizione alla forza travolgente del digitale . Non occorre che si palesi una sostituzione, poiché una trasformazione può compiersi anche nel momento in cui l’umano inizia a rappresentare l’anello debole del processo. In questo senso, l’intelligenza artificiale non può essere considerata, come il Versificatore del racconto di Levi, uno strumento di lavoro come un altro. Il suo impiego nel processo decisionale esige, al contrario, una cura particolare. E se è vero che oggi il sistema giudiziario è, come è stato osservato, «la prima vittima dell’eccesso tecnocratico» , allora, ciò che si impone non è il rifiuto della tecnologia, ma una sua integrazione critica, in un modo tale che a venire meno siano le condizioni di possibilità di qualsiasi sostituzione. È anche in questo senso che va accolto l’appello di Coudrais a «riumanizzare la giustizia» .