testo integrale con note e bibliografia

1. Le prospettive digitali del sistema giudiziario.

I procedimenti giudiziari si stanno progressivamente calando in una nuova dimensione digitale del rito. Le caratteristiche delle moderne tecnologie di gestione dei dati giudiziari pongono delicati problemi di raccordo tra i tradizionali istituti giuridici e le forme digitalizzate delle procedure soprattutto nel confronto con una sempre più performante intelligenza artificiale. La cifra di questi cambiamenti emerge particolarmente evidente analizzando gli attuali assetti dei sistemi automatizzati dell’amministrazione giudiziaria i quali si confrontano con una complessità tecnologica che implica una radicale rimodulazione delle tradizionali categorie giuridiche.
Le riflessioni che seguono provano a dare atto dell’attuale assetto ordinamentale e del ruolo del Consiglio Superiore della Magistratura nel nuovo scenario.

2. Definizione di intelligenza artificiale e contesto ordinamentale. Cenni.
La necessità di una regolamentazione dell’utilizzo dell’Intelligenza Artificiale nei sistemi giudiziari viene avvertita in ambito europeo già nel dicembre 2018 quando la CEPEJ adotta la “Carta Etica europea sull’utilizzo dell’Intelligenza Artificiale nei sistemi giudiziari”.
La Carta - oltre a contenere una vera a propria definizione di intelligenza artificiale - (definita come “Insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani. Si distingue tra intelligenze artificiali “forti” (capaci di contestualizzare problemi specializzati di varia natura in maniera completamente autonoma) e intelligenze artificiali “deboli” o “moderate” (alte prestazioni nel loro ambito di addestramento”) individua cinque principi fondamentali cui attenersi nello sviluppo e utilizzo dell’I.A. nei sistemi giudiziari .

La carta, poi, classifica i possibili utilizzi della stessa I.A. in tre diverse categorie:
- da incoraggiare (vi rientrano: la valorizzazione del patrimonio giurisprudenziale; la creazione di nuovi strumenti strategici per migliorare l’efficienza della giustizia);
- da utilizzare con notevoli precauzioni metodologiche (comprendente, ad esempio, l’utilizzo nelle indagini al fine di prevedere ed individuare i luoghi in cui verranno o vengono commessi i reati);
- da esaminare al termine di supplementari studi o con le più estreme riserve (tra questi: la profilazione degli operatori di diritto, l’utilizzo di algoritmi in materia penale al fine di profilare le persone, estrazione di una «norma» basata sull’insieme delle decisioni ovvero elaborazione di una regola vincolante di decisione fondata sull’analisi dei precedenti).

Successivamente, il 6 ottobre 2021, il Parlamento europeo ha adottato la risoluzione “sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale”. La Risoluzione – particolarmente articolata – affronta i principali nodi problematici del rapporto tra Intelligenza Artificiale e diritto penale auspicando, tra l’altro, la “spiegabilità, la trasparenza, la tracciabilità e la verifica degli algoritmi … anche al fine di garantire che i risultati generati dagli algoritmi di IA possano essere resi intelligibili per gli utenti e coloro che sono soggetti a tali sistemi, e che vi sia trasparenza riguardo ai dati di base e alle modalità con cui il sistema è giunto a una certa conclusione” .

La Risoluzione è poi sfociata nel recentissimo Regolamento sull’Intelligenza Artificiale (AI Act) approvato dal Parlamento Europeo nel marzo 2024 e, successivamente, ratificato dal Consiglio nel maggio 2024 (con un’entrata in vigore completa prevista nel 2026, dopo un periodo di transizione di due anni) .
L’AI Act conferma l’impostazione già seguita dalla Carta etica europea sull’utilizzo dell’intelligenza artificiale proponendo un approccio basato su quattro categorie di rischio:
- rischio inaccettabile: sistemi vietati, come la manipolazione cognitiva o il riconoscimento biometrico indiscriminato in spazi pubblici;
- rischio elevato: sistemi usati in settori critici (sanità, istruzione, giustizia) che dovranno superare valutazioni di conformità e garantire supervisione umana;
- rischio limitato: strumenti come chatbot o generatori di immagini, soggetti a obblighi di trasparenza verso l’utente;
- rischio minimo o nullo: tecnologie come filtri antispam o giochi, che non richiedono requisiti particolari

Il provvedimento contiene, altresì, ulteriori innovazioni volte ad arginare i possibili rischi connessi all’uso massivo dell’I.A. con un controllo virtuoso da parte di nuovi organismi di controllo e nello specifico:
- viene proibito il “social scoring” da parte delle autorità pubbliche (modelli che sono in corso di sperimentazione in Cina) e vietati sistemi che possano manipolare il comportamento umano;
- vengono imposti controlli sui sistemi ad alto rischio, per proteggere i diritti fondamentali dei cittadini;
- viene creato Ufficio europeo per l’IA e di un Comitato per l’IA per coordinare la vigilanza e garantire applicazione uniforme delle regole.

Con specifico riferimento al settore giustizia l’AI Act classifica i sistemi di IA utilizzati in campo giudiziario come sistemi ad “alto rischio”, imponendo loro requisiti stringenti:
- controllo umano obbligatorio: le decisioni suggerite dall’IA devono essere riviste o confermate da un essere umano;
- trasparenza algoritmica: chi utilizza un sistema di IA (es. giudici, amministrazioni giudiziarie) deve essere a conoscenza del funzionamento e dei limiti della tecnologia;
- tracciabilità dei dati: i sistemi devono registrare dati e processi decisionali in modo da permettere audit successivi;
- divieto implicito di uso “cieco”: è vietato delegare la decisione finale unicamente all’intelligenza artificiale, in particolare in questioni che incidano su diritti, libertà o status giuridico delle persone.

In parallelo all’approvazione dell’AI Act europeo, anche il Parlamento italiano ha avviato l’iter per giungere ad una regolamentazione nazionale sull’intelligenza artificiale ed il Senato ha appena approvato il disegno di legge n. 1146, intitolato “Disposizioni e delega al Governo in materia di intelligenza artificiale” .
Il provvedimento – minimale rispetto alla portata del regolamento europeo - mira a stabilire principi generali per lo sviluppo, la gestione e l’uso dei sistemi di IA in Italia. Tra le principali misure previste: trasparenza nei contenuti generati dall’IA, con l’obbligo di segnalare chiaramente testi, immagini, video o audio modificati o creati da intelligenze artificiali; promozione di un’IA etica, rispettosa dei diritti fondamentali, della sicurezza e della non discriminazione; delega al Governo per l’adozione di decreti legislativi che regolino più nel dettaglio l’applicazione di tali principi nei vari settori.

Per quanto riguarda il contesto giudiziario il disegno di legge n. 1146 riprende alcuni dei principi individuati dal regolamento europeo, ma in modo ancora piuttosto generale limitandosi al riferimento ad un “IA affidabile ed etica” e richiamando la necessità di trasparenza nei sistemi di supporto alle decisioni giudiziarie: una valutazione complessiva della embrionale disciplina italiana dovrà, quindi, necessariamente attendere l’eventuale esercizio della delega governativa a cui è rimessa la risoluzione dei principali nodi critici.

Colpisce, tuttavia, come, allo stato, il disegno di legge non preveda alcuna necessaria interlocuzione con il CSM proprio nella elaborazione e adozione di sistemi di supporto alla decisione giudiziaria.
Dall’analisi delle diverse tipologie di provvedimenti adottati - sia al livello nazionale che europeo – emerge, dunque, un’elevata aspettativa nei confronti dell’intelligenza artificiale riconosciuta come fattore di sviluppo anche in ambito giudiziario, ma con specifici profili controversi correlati ad alcuni usi della stessa I.A. (potenzialmente discriminatori) e alla capacità di garantire la necessaria trasparenza e intellegibilità nella ricostruzione del percorso algoritmico utilizzato dai sistemi per giungere alle conclusioni proposte.
L’aspetto della spiegabilità e della trasparenza degli algoritmi appare ancora più centrale nelle ipotesi di applicazione dell’I.A. al settore del diritto penale (processuale e sostanziale) dove sono in gioco i diritti fondamentale dell’indagato/imputato (e della parte offesa) e dove, paradossalmente, il ricorso all’I.A. presenta peculiari suggestioni nella prospettiva di evitare ingiustificate disparità di trattamento (o che possono apparire tali dal punto di vista del cittadino che entra nel meccanismo giudiziario - si pensi ad esempio alla diversa valutazione adottata per la determinazione della c.d. modica quantità di stupefacente).
3. La capacità espansiva dell’intelligenza artificiale.
I sistemi informatici utilizzati hanno, invero, una capacità di espansione sempre più significativa proponendosi come veri e propri formanti giudiziari in grado trasformare, più o meno surrettiziamente, il lavoro quotidiano del magistrato (si è già visto come estrattori statistici improntati a dati meramente quantitativi indurranno il giudice verso un’elevata produttività anche a potenziale discapito della qualità del lavoro giudiziario – supra paragrafo precedente).
Parimenti, la tentazione di riconoscere sempre maggiori spazi all’I.A. (anche nei profili inerenti alla fase decisoria in senso stretto) fonda sulla convinzione che sia possibile ridurre (presunte) disparità di trattamento e aumentare la prevedibilità delle decisioni giudiziarie.
Invero le decisioni umane (giudiziarie, ma non solo) sono affette da «bias» (errore) e «rumore» : il primo dipende da un difetto di valutazione strutturale correlato all’incapacità di giungere alla decisione corretta in un determinato contesto (condanna o assoluzione); il secondo è collegato all’interferenza di elementi esterni alla decisione che ne alterano in maniera più o meno consapevole l’esito finale (es. determinazione della pena da infliggere per una rapina da parte di un giudice che è stato recentemente vittima di analogo reato).
L’I.A., da questo punto di vista, prospetta la possibilità di decisioni che eliminino qualunque interferenza esterna alla decisione selezionando solo i fattori che debbano essere effettivamente valutati per raggiungere alla definizione del procedimento. Partendo proprio dal presupposto che sia “inaccettabile che persone condannate per lo stesso reato ricevano sentenze drasticamente diverse” gli algoritmi si propongono, dunque, come strumenti per realizzare una reale uguaglianza del singolo innanzi alla legge.
L’I.A., inoltre e grazie alla capacità di interrogare banche dati (strutturate e non), promette di raggiungere elevate capacità predittive degli esiti delle decisioni giudiziali riducendo potenzialmente l’accesso al contenzioso e garantendo, così, una maggiore certezza del diritto.

Tutti questi profili – particolarmente suggestivi – sono, tuttavia, portatori di enormi potenziali criticità correlate, da una parte, alla difficoltà di adattare gli algoritmi alla necessaria unicità della decisione in ambito giudiziario (connessa – specie nel penale – anche a valutazioni di natura soggettiva che restano estranee ai percorsi algoritmici) e, dall’altra, alla potenziale involuzione della capacità adattativa della giurisprudenza che, chiusa nel recinto della predittività, potrebbe degenerare verso un’inaccettabile conformismo giudiziario.
Il sistema giudiziario si trova – dunque e per la prima volta nella storia - di fronte alla concreta possibilità di una concorrenza tecnologica che si presenta come particolarmente insidiosa.
Di fronte alla complessità delle trasformazioni in atto, è necessario interpretarne le linee evolutive tentando di governare il cambiamento, ribaltando i paradigmi fin qui seguiti che hanno visto gli operatori del diritto sostanzialmente passivi rispetto alle innovazioni tecnologiche (per lo più immaginate e imposte dall’esterno).
In quest’ottica appare dunque necessario che:
- che le decisioni meccanizzate siano intellegibili nei loro presupposti giuridici;
- i sistemi garantiscano sempre la possibilità che le decisioni umane, adeguatamente motivate, possano superare quelle meccanizzate ;
- la predittività basata sull'analisi dei precedenti giudiziari non favorisca il conformismo giudiziario, mantenendo una giurisdizione di elevata qualità gestita da professionisti non schiacciati dalla quantità degli affari.

4. Le posizioni espresse dal Consiglio. La necessità di tutelare la qualità della giurisdizione.
Le riflessioni sul rapporto tra strumenti informatici e giurisdizione hanno significativi riflessi anche sul ruolo del Consiglio Superiore della Magistratura atteso che – come chiarito (supra par. 4) - gli applicativi per il processo telematico e gli strumenti di IA non sono più semplici strumenti tecnici. La loro architettura può influire profondamente sulla giurisdizione, condizionando l'operato dei magistrati e l'organizzazione degli uffici giudiziari. Invero nell’ultima “Relazione sullo stato della giustizia telematica”, approvata dal plenum con delibera del 27 aprile 2024, il CSM manifesta consapevolezza della problematica dedicando ampio spazio all’analisi dell’impatto delle tecnologie digitali evolute – e in particolare dell’intelligenza artificiale (IA) – sull’esercizio della funzione giurisdizionale. L’organo di autogoverno sviluppa una riflessione che abbraccia sia il piano delle applicazioni algoritmiche nei processi decisionali (giustizia predittiva e algoritmica), sia il rapporto tra IA e banche dati giurisprudenziali, alla luce dei recenti sviluppi normativi europei e nazionali.
Il primo punto fermo ribadito nella delibera è quello della “riserva di umanità” nella funzione giurisdizionale. Secondo il Consiglio, l’impiego di strumenti algoritmici, anche di tipo predittivo, può essere ammesso solo se rimane pienamente subordinato al controllo umano, in linea con i principi consolidati della giurisdizione costituzionale e con il modello europeo dell’“human-in-the-loop” . La decisione giudiziaria, infatti, deve scaturire da un processo valutativo autonomo, libero da condizionamenti tecnici o statistici.
La delibera, pur riconoscendo che l’IA può apportare benefici in termini di efficienza, uniformità e supporto decisionale, mette in guardia contro l’automatizzazione del giudizio, che rischia di svuotare il ruolo del magistrato e compromettere i principi di indipendenza, terzietà e motivazione. In tale prospettiva, il magistrato deve mantenere la titolarità esclusiva del potere decisionale, anche quando si avvale di strumenti di supporto basati su IA .

Il CSM analizza anche le implicazioni dell’uso di algoritmi predittivi, evidenziando che l’elaborazione di modelli decisionali basati su dati giurisprudenziali può favorire la prevedibilità e la coerenza dell’azione giudiziaria. Tuttavia, la loro adozione deve avvenire in un quadro di trasparenza e regolazione pubblica, fondato sulla conoscibilità degli algoritmi, sulla tracciabilità delle operazioni logiche e sulla responsabilità dei decisori.
Viene espressamente richiamata la necessità di conformarsi alle direttive etiche europee (CEPEJ) e ai principi fissati nel Regolamento sull’intelligenza artificiale (AI Act) approvato dal Parlamento Europeo nel marzo 2024, che qualifica i sistemi di IA ad alto rischio, come quelli impiegati nei contesti giudiziari, come soggetti a obblighi rigorosi di valutazione, documentazione e supervisione .

Un secondo, importante ambito di analisi riguarda il rapporto tra banche dati di giurisprudenza e tecnologie predittive. Il CSM evidenzia come l’impiego dell’IA nella consultazione e nell’interrogazione intelligente di banche dati possa rappresentare un importante strumento di lavoro per il magistrato, in particolare nell’ambito dell’Ufficio per il processo e nell’attività di studio e redazione dei provvedimenti .
La delibera opera però una distinzione netta tra uso orientativo e uso vincolante del precedente. Nella tradizione giuridica italiana, il precedente giurisprudenziale non ha valore vincolante e l’accesso alle decisioni passate deve servire come supporto interpretativo, non come automatismo decisionale. In tal senso, l’impiego di strumenti di IA in grado di fornire “sentenze suggerite” o esiti probabili del giudizio rischia di creare conformismo decisionale, svilendo la funzione interpretativa del giudice anche in chiave di evoluzione ordinamentale.

Il CSM elenca quindi le criticità che possono derivare dall’integrazione dell’IA nelle banche dati giudiziarie:
- opacità algoritmica (black box);
- profilazione degli utenti e dei magistrati;
- uso improprio dei dati personali o sensibili;
- standardizzazione motivazionale;
- perdita di autonomia decisionale.

Viene suggerita l’adozione di una classificazione ufficiale delle banche dati, distinguendo tra quelle a uso interno, quelle ad accesso esterno, quelle costruite con finalità accademiche e quelle integrate con IA a scopo predittivo. Inoltre, suggerisce che tali banche dati, soprattutto se pubbliche o sviluppate da privati per l’uso negli uffici giudiziari, siano sottoposte a un controllo preventivo e continuo da parte dell’autogoverno, per valutarne l’impatto sul lavoro del magistrato e sulla qualità della giurisdizione .

Il CSM, dunque, non esclude l’uso dell’intelligenza artificiale nel processo, ma ne auspica l’impiego nell’ambito di precisi limiti ordinamentali, alla trasparenza degli strumenti, alla vigilanza dell’organo di autogoverno e alla formazione continua dei magistrati riservandosi l’adozione di specifiche linee guida in corso di elaborazione.

5. Le (tante) questioni aperte: la necessaria sovranità cognitiva della giurisdizione.
Il quadro tracciato nei paragrafi precedenti – caratterizzato da posizioni tutto sommato lineari - si complica enormemente nel confronto con la reale complessità dei problemi sottesi al dispiegamento dell’I.A nella realtà - in generale - e nel settore giudiziario - nello specifico.

L’intelligenza artificiale non rappresenta, infatti, una nuova fase della digitalizzazione giudiziaria: è un cambio di paradigma che investe la funzione giurisdizionale nella sua essenza. Trattarla come una semplice evoluzione della transizione avviata negli anni novanta e duemila – quando il processo cartaceo è stato progressivamente sostituito da fascicoli digitali, PDF e metadati – significa sottovalutarne la portata. Quella digitalizzazione aveva natura documentale: si limitava a riprodurre in formato digitale ciò che già esisteva in forma cartacea. L’IA, invece, introduce nuove logiche predittive e probabilistiche. Non organizza i dati: li interpreta.

E’ dunque necessaria una riflessione più consapevole, che si spinga oltre i riferimenti normativi generali e affronti le questioni strutturali ancora irrisolte. In particolare, uno delle questioni ricorrenti nel dibattito giuridico e tecnologico è quello della c.d. “spiegabilità” degli algoritmi, principio invocato in ambito europeo e nazionale al fine di garantire la trasparenza delle decisioni automatizzate e la loro compatibilità con i diversi contesti ordinamentali: la pretesa spiegabilità omette, tuttavia, di considerare che molti dei modelli oggi più diffusi (in particolare quelli basati su deep learning) sono, per struttura, “opachi” ovvero non spiegabili nei termini propri della razionalità giuridica.

Più chiaramente detto: il funzionamento degli algoritmi avanzati con cui opera attualmente l’IA non può essere descritto con gli stessi parametri della motivazione giudiziaria , la black box non è una metafora, ma una caratteristica intrinseca delle tecnologie più avanzate.

Il disegno di legge italiano sull’intelligenza artificiale (ddl n. 1146 – supra par. 2), pur richiamando alcuni dei principi generali dell’AI Act, prevede sperimentazioni locali affidate al controllo del Ministero della Giustizia e limitate alla giurisdizione ordinaria. Una simile impostazione solleva non pochi interrogativi, sia sul piano del coordinamento istituzionale – poiché non prevede alcuna forma di interlocuzione strutturata con il Consiglio Superiore della Magistratura – sia sul piano dell’eguaglianza tra giurisdizioni. Ancora una volta, poi, si affida all’amministrazione ministeriale una prerogativa che incide direttamente sull’esercizio della giurisdizione, con potenziali conseguenze anche sul piano costituzionale.

A ciò si aggiunge la questione, spesso trascurata, ma cruciale quella della sovranità tecnologica. La gestione e l’addestramento dei modelli linguistici di intelligenza artificiale su dati giudiziari italiani richiede capacità infrastrutturali e dataset di alta qualità che, allo stato, il sistema giustizia attualmente non possiede. Le poche sperimentazioni finora condotte hanno restituito risultati modesti, proprio per la scarsa quantità e qualità dei dati disponibili. E’ quindi concreto e attuale il rischio di una “consegna” del dato giudiziario a sistemi di analisi che operano al di fuori dall’ambito nazionale .

Ancora, il tema della formazione. Sono già presenti nei fascicoli giudiziari atti redatti con il supporto di IA generativa, basati su narrazioni concepite per convincere “a qualsiasi costo” (anche quello di “creare” un precedente giurisprudenziale inesistente come accaduto di recente ). Si tratta di strumenti che non sono più futuribili, ma attuali. È urgente, quindi, che anche la Scuola Superiore della Magistratura elabori percorsi formativi specifici per i magistrati, in grado di affrontare criticamente l’uso dell’IA nei procedimenti giudiziari e prevenire derive che potrebbero minare la funzione stessa del giudicare.

Il Consiglio Superiore della Magistratura, in quanto garante della qualità e indipendenza della giurisdizione, deve interrogarsi sul ruolo che intende assumere di fronte a questa evoluzione. Nella prospettiva di chi scrive può e deve contribuire a promuovere una strategia nazionale sulla gestione dei dati giudiziari, sulla valutazione dei modelli algoritmici e sulla definizione di standard minimi di compatibilità con i principi costituzionali del giusto processo.

Il Consiglio non può limitarsi a osservare. La magistratura è già dentro il cambiamento tecnologico: negli atti scritti con AI generativa, nelle motivazioni che ricalcano strutture statisticamente persuasive, nei fascicoli che circolano oggi nei sistemi digitali. Servono strumenti, ma soprattutto strategie. Serve presidiare la qualità della decisione giurisdizionale nel nuovo contesto in cui quella decisione prende forma: dati, codici, modelli, logiche.
Il principio della “riserva di umanità” nella giurisdizione resta centrale, ma deve accompagnarsi a una nuova riserva: quella della sovranità cognitiva della giurisdizione. Una sovranità che il Consiglio ha il dovere istituzionale di esercitare – oggi – affinché l’indipendenza della magistratura nei prossimi anni non sia un valore da recuperare ex post, ma un principio da tutelare immediatamente anche e soprattutto nell’epoca dell’intelligenza artificiale.

In conclusione: è compito anche del Consiglio Superiore della Magistratura assumere un ruolo attivo nell’individuare le linee guida istituzionali per garantire che l’innovazione tecnologica sia compatibile con il principio costituzionale di autonomia e indipendenza della funzione giurisdizionale .

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.