testo integrale con note e bibliografia

Intelligenza artificiale predittiva in ambito giudiziale?
Sull’intelligenza artificiale (IA) si sta scrivendo e dicendo di tutto. Anche in ambito giuridico le pubblicazioni stanno proliferando in una sorta di sbornia collettiva che ci può far sbandare. La letteratura è ormai molto ampia sulle potenzialità, sulle sfide, sui rischi, sui problemi etici dell’IA in ambito giuridico e per l’amministrazione della giustizia più in generale . Sono anche numerosi i commenti sull’AI Act emanato dal Parlamento europeo. Un libro recente aiuta a comprendere il momento che stiamo vivendo, spiega in modo chiaro alcuni aspetti tecnologici e indica alcune prospettive di sviluppo: è quello di Santosuosso e Sartor al quale credo sia opportuno rimandare per chi voglia avere un quadro utile e interessante dello stato dell’arte.
Non è pertanto semplice cercare di dire qualcosa di originale, soprattutto se, come chi scrive, ha un approccio empirico, studia l’organizzazione della giustizia e il diritto vivente, il funzionamento dell’amministrazione giudiziaria in azione e attualmente, come vedremo, in ambito giudiziale sembra esserci molto fumo ma poco arrosto.
Intanto, prendiamo atto che la situazione sui sistemi di IA è in continua evoluzione con annunci continui di nuovi prodotti ed investimenti miliardari. E’ evidente che siamo solo agli inizi di una partita enorme che caratterizzerà i prossimi anni in tutti i settori della nostra vita .
Attualmente, gli utilizzatori principali dei servizi di IA sembrerebbero essere le stesse società informatiche, il settore finanziario, i servizi di consulenza, la sanità, l’istruzione . Per quanto è dato sapere, nel settore dell’amministrazione della giustizia la situazione appare più statica, anche se già da qualche tempo si è iniziato a parlare di “robot judge”.
Nel marzo 2019 la rivista Wired scriveva che il ministero della giustizia estone stava lavorando su un progetto per rendere completamente automatiche le decisioni sulle cause di importo limitato (small claims) utilizzando l’intelligenza artificiale. L’esempio riportato dall’articolo è stato successivamente ripreso e menzionato in varie occasioni, tant’è che è dovuto intervenire nel 2022 lo stesso ministero della giustizia estone con un comunicato ufficiale sul sito del ministero: “considerando che ci sono state una serie di domande sul tema dell’IA e il giudice, dobbiamo spiegare che l’articolo di wired del 25 marzo 2019 in cui si parlava di un progetto di “robot judge” è fuorviante. Non c’’è mai stato un progetto in tal senso e neppure l’ambizione nel settore pubblico dell’Estonia. Il ministero della giustizia estone non sviluppa un giudice robotico con l’intelligenza artificiale né per procedimenti di modico valore né per altri tipi di procedimenti che passano sostituire il giudice umano”
Questa storiella è indicativa di quanta frenesia e desiderio di stupire ci sia, spacciando come funzionanti sistemi di IA anche in ambito giudiziario, soprattutto quei sistemi cosiddetti “predittivi”, per anticipare l’esito di un contenzioso, arrivando anche alla predisposizione di decisioni con un minimo, o addirittura con l’assenza, di intervento umano.
E’ però opportuno fin da subito domandarsi se sistemi di IA predittivi possano essere usati in ambito giudiziale e giudiziario . Alcuni noti esempi, in verità già di qualche anno fa, negli Stati Uniti, in Australia e Paesi Bassi hanno segnalato i seri problemi che i sistemi di IA predittivi possono generare .
Un lungo ed utile elenco di interrogativi che riguardano l’IA nella giustizia in generale, si trova nell’Handbook del progetto JuLIA (Justice, Fundamental Rights and Artificial Intelligence) co-finanziato dalla Commissione Europea nell’ambito del progetto JUST , mentre il charter sull’intelligenza artificiale della Commissione per l’efficienza della giustizia del Consiglio d’Europa enfatizza alcuni altri aspetti .
Santosuosso e Sartor scrivono: “E’ bene approfondire le ragioni di fondo per le quali una previsione giudiziale sembra possibile solo in una misura assai limitata. Una prima fondamentale ragione per la quale è difficile effettuare previsioni sull’esito di casi futuri attiene al fatto che nelle controversie giuridiche accanto alle questioni di diritto, vi sono anche e sono spesso preminenti, le questioni di fatto […] 1. Quali fatti, tra quelli prospettati dalle parti, il giudice riterrà esistenti? 2. Sulla base dei fatti ritenuti esistenti, quale conclusione giuridica sarà statuita”?
Il tema fondamentale è l’opacità dei sistemi più evoluti e potenti di IA . Per l’amministrazione della giustizia questo è certamente un punto di attenzione. Come spiegano bene sempre Santosuosso e Sartor, nei sistemi di IA vi è sempre una tensione fra efficacia della scelta e capacità di argomentare la scelta proposta. In ambito medico, per esempio, si preferisce un sistema che “commette meno errori rispetto ad un sistema più fallibile, ma capace di fornire ragioni per le proprie scelte. L’esigenza di fornire spiegazioni è, invece, fondamentale quando il sistema sia usato per l’esercizio di funzioni di rilevanza pubblica” .
Sarà per queste ragioni che ad oggi non risultano applicativi effettivamente funzionanti in ambito giudiziale e giudiziario che possono essere definiti di intelligenza artificiale predittiva , anche se sarebbe interessante sapere quanti magistrati e quanti avvocati già utilizzano i sempre più numerosi sistemi di disponibili gratuitamente o a pagamento per analizzare documenti, predisporre atti e, magari, anche predire la futura decisione.
Se non sembrano quindi esserci casi in cui l’IA predittiva è utilizzata in ambito giudiziale, è quindi forse il caso di concentrarsi su ciò che l’IA già fa se impiegata in ambito giuridico e giudiziario, grazie alle potenzialità dei Large Language Model (LLM), dell’apprendimento automatico e delle capacità elaborative dei sempre più potenti, cosiddetti, “super-computer”.

L’IA in uso in ambito giuridico e giudiziario
Gli utilizzi degli ormai numerosi sistemi di IA sono molteplici, quelli più interessanti come è noto sono certamente quelli cosiddetti di “IA generativa” . Immagino che moltissime persone abbiano già provato anche solo per diletto un software che utilizza l’intelligenza artificiale.
Le applicazioni che mi pare siano più utilizzate in ambito giuridico e giudiziario, da quanto mi risulta, permettono di rendere anonimi provvedimenti giurisdizionali; predisporre sintesi e riassunti; trascrivere, tradurre e migliorare la qualità grammaticale e sintattica di documenti; preparare argomentazioni. Credo che quello che più impressioni sia soprattutto la velocità di risposta, indipendentemente dalla complessità del compito richiesto, e l’utilizzo del linguaggio naturale.
Le applicazioni di IA sono sempre più utilizzate per l’anonimizzazione e la pseudo-anonimizzazione di documenti, in generale, e dei provvedimenti giurisdizionali per quanto di nostro interesse. Un esempio, come è noto, è la banca dati di merito dei provvedimenti civili gestita dal Ministero della giustizia . Non sono un esperto in materia e, pertanto, non mi è chiaro perché i provvedimenti di merito civili di tutti gli uffici giudiziari di Italia siano pseudo-anonimizzati mentre quelli della banca dati della Corte di cassazione, che riguardano fra l’altro anche sentenze penali, siano invece integralmente disponibili anche con i nomi e i cognomi . Fra l’altro, l’accesso a “Sentenze Web” della Cassazione è libero, mentre per la banca dati di merito delle sentenze civili del Ministero l’acceso è tramite SPID.
Un esempio interessante di quello che l’IA già fa, almeno così sembra, in ambito giuridico, prevalentemente per gli studi legali, è ben rappresentato dall’azienda Lexis-Nexis, antesignano negli Stati Uniti delle banche dati giuridiche. Il primo prodotto che viene proposto è Protégé “il tuo assistente di IA personalizzato” . Il prodotto è integrato nell’applicativo di workflow che l’azienda propone agli studi legali e prevede il riassunto di documenti, la produzione di bozze basate su atti precedenti con diversi stili di scrittura, l’integrazione con la giurisprudenza e la dottrina raccolta da Lexis-Nexis, la protezione della privacy. Le bozze possono essere anche scritte attraverso una serie di schemi argomentativi predefiniti. L’azienda sembra abbia sviluppato un suo sistema proprietario di estrazione delle informazioni (Retrieval Augumented Generation, RAG) dotato di ricerca semantica e agenti di IA per gestire compiti complessi e proattivamente fornire suggerimenti. Questi agenti sembrerebbero essere stati sviluppati con diversi partner tecnologici che sviluppano LLM.
E’ interessante notare come l’enfasi pubblicitaria non sia posta sulla qualità di quanto offerto in termini di analisi della giurisprudenza o delle norme o nella produzione di atti, ma piuttosto sulla velocità di esecuzione per la predisposizioni di sommari, riassunti e bozze di documenti integrati nel workflow dello studio legale.
Effettivamente, risultati interessanti e potenzialmente utili in ambito giuridico si hanno con l’utilizzo dell’IA per la sintesi di documenti anche di notevoli dimensioni. E’ certamente condivisibile ciò che Santosuosso e Sartor scrivono: “Qual è la differenza tra l’opera di un giudice […] che fa una scansione OCR di atti difensivi [aggiungo voluminosi], per poi sintetizzarli e riportarli nel corpo della sentenza come posizione della parte e un giudice che in un contesto di atti digitalizzati utilizza GPT per far sintetizzare la stessa parte e, previa verifica, la inserisce nel corpo della sentenza?” .
In questa frase mi pare ci sia l’aspetto fondamentale dell’utilizzo dei sistemi di IA anche per i “soli” fini di produrre riassunti. I prodotti generati dall’IA, in generale ma certamente in ambito giudiziale e giudiziario, richiedono una “previa verifica”. Le caratteristiche dei sistemi di IA, in particolare la loro “opacità” nel produrre i risultati, fanno sì che non si possa prescindere da una valutazione ex post del prodotto finale presentato all’utente.
Ora, come qualsiasi assistente di studio, si tratta di capire quanto tempo occorre dedicare a tale verifica anche in funzione del compito assegnato. Insomma, si tratta di determinare quanta “fiducia” ciascuno di noi concede a chi ci assiste, nel caso specifico nella produzione di una sintesi di una mole più o meno consistente di documenti. Se il tempo e la fatica dedicate alla “verifica” della qualità del prodotto proposto dall’IA fossero troppi, ovviamente non ne varrebbe la pena, ma se queste risorse fossero anche solamente un po’ inferiori a quante sarebbero state necessarie per predisporre un riassunto della qualità attesa: perché non farlo.
Per gli avvocati, ovviamente riassunti rapidi e affidabili di propri atti, di documentazione della controparte o della giurisprudenza risultano utilissimi e dovrebbero far risparmiare molto tempo. Intuitivamente, il livello di affidabilità, e quindi di controllo, di quanto prodotto dall’IA potrebbe essere maggiore per un giudice o per un pubblico ministero che su quella documentazione si apprestano a prendere decisioni. Credo che la “previa verifica” di un decisore di atti riassunti da un sistema di IA, o da un collaboratore umano, deve essere particolarmente scrupolosa e, probabilmente, necessita di più tempo. Una volta raggiunto un certo livello di fiducia con il collaboratore, qualunque esso sia, si potrebbe anche diminuire il tempo dedicato alla verifica, ma credo rimanga comunque opportuna, anche solamente a campione o per decisioni che si ritengono particolarmente delicate, per accertarsi che il riassunto rappresenti correttamente quanto contenuto nella documentazione nel suo complesso.
Insomma, l’IA potrebbe essere un ulteriore ausilio al giudice nell’ambito dell’ufficio per il processo, con gli addetti che potrebbero effettuare il necessario “controllo qualità”, come si è già detto, anche solo a campione.
Chiunque abbia utilizzato anche solo per diletto l’IA come strumento per sintetizzare documenti credo abbia certamente notato che la struttura del risultato proposto risponde ad una predeterminata logica e che successivi comandi (prompt), sostanzialmente domande che potrebbero essere sempre più specifiche, permettono tendenzialmente di migliorare ed approfondire la qualità delle risposte. Queste istruzioni possono essere anche molto articolate, con una lunghezza che può arrivare a varie pagine. Anche in questi casi occorrere verificare il rapporto costi/benefici fra il tempo investito per l’elaborazione dei quesiti e il controllo successivo di attendibilità del risultato proposto dall’IA. L’IA può infatti processare una mole di dati enorme, con ricorrenze e correlazioni impossibili per un essere umano ma rapidissime attraverso un sistema automatico .
Non ho competenze linguistiche o pedagogiche, ma l’esperienza con un modello di IA evidenzia come anche in un semplice riassunto ci siano elementi diversi fra ciò che scriverei io da ciò che mi propone l’IA. Questo può essere molto utile, ma è anche un elemento di attenzione. L’IA, con gli opportuni prompt, può evitare i pregiudizi cognitivi individuali di chi lo utilizza e permettere l’emersione di relazioni e spunti di riflessione nuovi ed originali. Ciò appare particolarmente importante in tutte le professioni e, in particolare nelle fasi istruttorie o investigative, che caratterizzano i processi decisionali in ambito giudiziario . Il riassunto automatico fornito dall’IA può quindi essere visto come un valido ausilio e ulteriore stimolo per l’istruttoria del processo decisionale ma sempre “previa verifica” .
Santosuosso e Sartor , correttamente parlano di decisione composita con l’IA e non di decisione complementare, proprio perché l’IA può contribuire al processo decisionale, ne può essere un valido ausilio, ma non è complementare al decisore umano. La verifica è sempre importante, anzi fondamentale, perché anche se l’IA è utilizzata su un numero di documenti circoscritti, la sintesi si basa comunque su una IA che si è addestrata su una mole di dati enorme e generalista, indispensabili per garantire dei risultati apprezzabili nell’elaborazione delle risposte .
Quindi, la verifica è un passaggio fondamentale per assicurare una qualità della sintesi sufficientemente buona per poter essere utilizzata nel processo decisionale in ambito giuridico dagli avvocati e, soprattutto, dai magistrati. “Bisogna che lo stesso giurista sia in grado di determinare quando l’output dell’LLM debba considerarsi corretto (vero), quando insufficiente e bisognoso di integrazioni, quando scorretto e quindi da rivedere o da scartare” .
Un altro impiego dell’IA è quello delle trascrizioni di udienze e delle traduzioni, che si è poi ulteriormente sviluppato con strumenti utili per migliorare la qualità dei testi. Sono sotto gli occhi di tutti gli enormi passi in avanti che sono stati fatti negli ultimi anni sia sulle trascrizioni sia sulle traduzioni, raggiungendo livelli impensabili fino a qualche anno fa.
Però, anche in questo caso la “previa verifica” è fondamentale. Mi è capitato non molto tempo fa di ricevere una traduzione di un testo che avevo predisposto in italiano e nella lista dei distretti di corte di appello mi è casualmente caduto l’occhio sulla parola “Power”. Si trattava ovviamente della traduzione molto poco intelligente della città di Potenza. Immagino che il nome della città trovandosi in un elenco abbia indotto il traduttore automatico, forse non uno de migliori, a proporre “Power” invece di lasciare il nome Potenza.
Anche in questo esempio, è evidente come la “verifica” sia necessaria, nonostante il buon livello raggiunto dai traduttori che si avvalgono di tecniche di IA. Un passaggio ulteriore è quello di avvalersene per migliorare lo stile, la leggibilità, sulla base di parametri grammaticali e stilistici che il sistema ha appreso. Considerato che gli atti giudiziari sono spesso complessi, con frasi talvolta poco comprensibili, sarebbe interessante utilizzare lo strumento di IA per verificare la “qualità” dello scritto, e possibilmente migliorarlo rendendolo più leggibile e quindi accessibile, stimolando, non imponendo, ulteriori riflessioni per migliorarlo.
Un altro ambito in cui l’IA cosiddetta generativa è già in grado di fornire risultati soddisfacenti è quello dello sviluppo di argomenti a favore di una tesi, utilizzo che può essere proprio di un atto prodotto da uno studio legale oppure della motivazione della sentenza del giudice.
Fatti gli opportuni distinguo, è evidente che la possibilità di produrre un’argomentazione solida e affidabile sulla base della documentazione disponibile è un ausilio potente, sempre “previa verifica”. In questo caso l’utilizzo dovrebbe essere ex-post, come per l’analisi della comprensibilità di un testo, per evitare qualsiasi possibile condizionamento prima della predisposizione dell’atto o della decisione con la relativa motivazione.
Nulla, mi pare, osti alla verifica ex-post della motivazione, per verificare sia la sua qualità linguistica sia se la linea di ragionamento che ha portato ad una certa decisione trova anche riscontro nelle plurime e complesse correlazioni di uno strumento di IA. Il suo utilizzo potrebbe avvalorare quanto già immaginato, o instillare alcuni dubbi da verificare. Si potrebbe avere una sorta di giudizio collegiale composito, in cui l’IA è parte del collegio che permette di verificare, senza influenze da parte del relatore, le evidenze e la linea di ragionamento e che hanno portato ad una determinata decisione. Così come i motori di ricerca ci aiutano ormai da molti anni ad effettuare ricerche di vario tipo, l’IA ci potrebbe coadiuvare nel migliorare le nostre capacità analitiche e, talvolta, espressive.
In modo utile e convincente Santosuosso e Sartor scrivono che “gli output degli LLM non dovrebbero essere intesi né come affermazioni affidabili e verificate, né come risultati di un motore di ricerca da controllare accedendo ai documenti originali (di cui l’LLM conserva solo le tracce registrate nei parametri della sua rete neurale). Un LLM può piuttosto essere assimilato (con le dovute differenze) a un collaboratore umano, fresco di studi e dotato di eccellente memoria, capace di esprimersi in modo elegante e ricco di contenuto ma carente di buon senso e capacità critica. Si tratta di un collaboratore estremamente servizievole e ispirato anzi dal desiderio di compiacerci dandoci risposte apparentemente soddisfacenti anche in mancanza di dati che le possano validare” .
Un esempio, in un contesto totalmente diverso, mi ha aiutato a comprendere ancora meglio la fondamentale funzione dei prompt, delle domande che possiamo porre, ed apprezzare l’eleganza e la ricchezza della risposta ma anche l’attenzione che dobbiamo prestare nell’utilizzo degli LLM.
Recentemente si è svolto il festival di Sanremo. Un gioco di famiglia è quello di cercare di indovinare il vincitore. Quest’anno mio nipote di 24 anni ha scritto sulla chat di famiglia, sintetizzo perché la risposta era molto più articolata: “Possiamo dire che quest’anno Olly ha tutte le carte in regola per vincere Sanremo. Anche se la canzone di Cristicchi sta facendo parlare di sé e creando un sacco di hype, Olly con la sua fresca energia e la capacità di toccare il cuore del pubblico sembra davvero pronto per il grande salto. La sua canzone ha una vibrazione unica, un mix tra il pop più coinvolgente e delle sfumature che arrivano dritte al cuore. Quella forza emotiva che riesce a trasmetter attraverso le parole e la musica è in grado di emozionare e catturare l’attenzione di chi ascolta. Olly con la sua presenza scenica e il suo timbro vocale distintivo, riesce a risaltare fra gli altri”.
Ci è apparso subito chiaro che “la predizione” l’avesse fatta un sistema di IA, il caro nipote si era fatto aiutare. Alla vittoria di Olly tutti quanti, stupefatti ed anche un po’spaventati, ci siamo complimentati con l’IA, non con il nipote, ma si è verificato un colpo di scena. La predizione l’aveva davvero fatta il nipote sulla base delle sue competenze e considerazioni varie, e poi aveva chiesto al sistema di IA “dimmi in maniera discorsiva e convincente che il festival di Sanremo quest’anno lo vince Olly”.
Insomma, la predizione è stata umana, l’argomentazione, ampia e convincente, è l’output di un applicativo di intelligenza artificiale che ha risposto ad una domanda/comando (prompt) semplice ma ben calibrato.
Certamente lo stile di scrittura ha “tradito” il nipote, sollevando immediatamente qualche sospetto. I tempi con cui l’argomentazione è stata svolta dall’IA sono stati incredibilmente più brevi rispetto a quanto una persona avrebbe impiegato per scrivere un testo così lungo e articolato.
Traslando questo semplice ma, a mio parere, efficace esempio in ambito giuridico, non appare impensabile, una volta presa la decisione e indirizzata una linea argomentativa, far predisporre l’atto o la motivazione da un applicativo di IA “previa verifica” prima di depositarlo. Chissà quanti già lo fanno a nostra insaputa.
Ciò fra l’altro non sarebbe in contrasto con quanto avviene in “termini pratici, un conto è il complesso percorso che il giudicante compie per arrivare alla decisione della lite e un altro è il discorso giustificativo che il medesimo costruisce al fine di rendere conto della propria decisione” .

Cosa aspettarsi con l’IA in continua evoluzione
Il settore è in continua evoluzione e qualsiasi scritto in materia soffre di invecchiamento precoce. Certamente è un periodo tumultuoso per quanto riguarda i sistemi di IA con investimenti enormi sull’incremento delle capacità elaborative e sui materiali utilizzati per l’addestramento dei modelli.
Qualche giorno fa “la Casa Bianca ha battezzato il progetto Stargate. Tecnicamente la nuova società investirà 500 miliardi di dollari in un’infrastruttura di calcolo avanzato per l’IA, che significa data center messi al servizio della nuova ‘potenza’ tecnologica stelle e strisce […] con l’avvento della dell’IA generativa è diventato chiaro a tutti che il primo collo di bottiglia è quello dei data center. L’IA generativa per svilupparsi ed entrare nelle aziende, ha bisogno di un’infrastruttura dedicata. Chi controlla il ‘ferro’ ha un vantaggio competitivo perché può migliorare l’addestramento degli algoritmi, accelerarne lo sviluppo e le potenzialità e, al tempo stesso, portare questi servizi nelle aziende attraverso il cloud computing” .
Per quanto riguarda l’addestramento dei modelli, è nota la causa che il New York Times ha intentato a fine 2023 contro OpenAI, l’azienda che sviluppa ChatGPT, per aver utilizzato senza permesso i propri materiali . Recentemente, un altro caso ha riguardato proprio il settore giuridico. La corte del Delaware negli Stati Uniti ha condannato una startup perché utilizzava per fini commerciali l’addestramento del proprio modello con gli estratti delle sentenze già massimizzate da parte di un editore con, fra l’altro, risultati troppo simili alla massima . Insomma, la situazione è in costante fermento su diversi fronti.
Intanto, sono stati introdotti gli “agenti” per svolgere compiti più complessi e articolati, grazie alla loro capacità di elaborare una quantità enorme di dati (si confida attendibili) e diversi; l’esempio tipico è l’organizzazione di un viaggio, con le prenotazioni dei mezzi di trasporto, della sistemazione alberghiera, dei pasti.
Gli “agenti” già adesso propongono comunque di loro sponte riassunti. Qualche giorno fa è stata attivata a livello sperimentale la funzione Copilot di Microsoft per i ricercatori del Consiglio Nazionale delle Ricerche (CNR). Quello che segue è un esempio di quanto “l’agente” ha sintetizzato da un documento comunque breve, di sole 5 pagine. La struttura, come già accennato in precedenza è interessante. L’ultima frase “Il contenuto generato dall'intelligenza artificiale potrebbe non essere corretto” ci mette in guardia. L’agente infine propone al termine della sintesi anche delle possibili domande di approfondimento su argomenti similari.
Benvenuto! Migliora la produttività con questo agente. Avvia una conversazione facendo una domanda o selezionando una delle richieste suggerite.
You said:
Come posso usare queste risorse?
Copilot said:
Le risorse del documento "Elezioni Esperti ed Esperte per Ambiti Disciplinari e Settori per il Management della Ricerca" possono essere utilizzate per partecipare alle elezioni degli esperti e delle esperte degli Ambiti Disciplinari (AD) e dei Settori per il Management della Ricerca (SMR) del CNR.
Ecco un riassunto delle informazioni principali:
1. Chi può partecipare alle elezioni?
o Elettorato attivo: Possono votare ricercatori, ricercatrici, tecnologi e tecnologhe del CNR a tempo indeterminato e determinato, in servizio e con contratto attivo oltre la data di chiusura delle elezioni, che abbiano inserito in piattaforma IRIS le proprie scelte entro il 7 Febbraio 2025 alle ore 18.001.
o Elettorato passivo: Possono candidarsi ricercatori, ricercatrici, tecnologi e tecnologhe a tempo indeterminato, con una produzione scientifica di alta qualità nel proprio ambito di ricerca. Le candidature possono essere presentate dal 20 al 26 febbraio 20251.
2. Modalità di candidatura:
o La raccolta delle candidature avviene esclusivamente in modalità telematica sulla piattaforma [https://selezionionline.cnr.it](https://selezionionline.cnr.it) nella sezione “Selezioni per dipendenti CNR/Candidature” dalle ore 8.00 del 20/02/2025 alle ore 18.00 del 26/02/2025.
o Ogni candidatura deve includere un curriculum vitae, un documento motivazionale e un'informativa sul trattamento dei dati personali.
3. Modalità di voto:
o Le votazioni avverranno il 20 Marzo 2025 per via telematica sulla piattaforma https://votazioni.cnr.it%5B1)]([https://cnrsc.sharepoint.com/sites/Home/SitePages/Elezioni-per.aspx?web=1](https://cnrsc.sharepoint.com/sites/Home/SitePages/Elezioni-per.aspx?web=1)).
o Ogni elettore può esprimere un voto per ciascun Ambito Disciplinare o Settore per il Management della Ricerca per i quali ha indicato la propria affiliazione sulla piattaforma IRIS entro il 7 Febbraio 20251.
4. Esito delle elezioni:
o Risulta eletto il candidato/la candidata con il maggior numero di voti. In caso di parità, viene eletto/a il candidato/la candidata più giovane.
o Il mandato ha una durata biennale, rinnovabile, e viene svolto a titolo gratuito.
Se hai bisogno di ulteriori dettagli o hai altre domande, fammi sapere!
Il contenuto generato dall'intelligenza artificiale potrebbe non essere corretto
Il riassunto che mi ha fornito l’agente è stato prodotto in pochi secondi, contiene informazioni corrette con un’ottima sintesi. L’agente ha svolto rapidamente la sintesi del documento. La “previa verifica”, in questo caso semplice, mi ha permesso di ritenerlo un compito ben eseguito, ed ha certamente aumentato la mia fiducia nell’agente, che probabilmente rimetterò alla prova aumentando la quantità e le caratteristiche dei documenti da considerare. Ad esempio, sarà interessante verificare la sintesi di documenti più eterogenei.
E’ evidente che ci troveremo sempre di più a lavorare con questi “assistenti/agenti digitali” come ormai molti anni fa iniziammo a lavorare con il PC o a fare ricerche su internet. Quello che appare probabile è il progressivo sviluppo di IA settoriali, ad esempio già presenti, come abbiamo visto, in ambito informatico, finanziario e medico.
Ciascuno di noi dovrà decidere, un po’ come si fa con tutti gli applicativi informatici più comuni, a quale livello di intensità e competenza di utilizzo vorrà, o potrà, arrivare. Certamente non potranno essere semplicemente evitati. La consapevolezza della loro esistenza e potenzialità di utilizzo dovrà necessariamente essere nota a tutti gli operatori del diritto, ovviamente avvocati e magistrati in primis.
E’ evidente che in questo quadro la formazione è imprescindibile. Le scuole forensi, le attività di formazione del Ministero per il personale amministrativo e, soprattutto, la Scuola superiore della magistratura dovrebbero essere chiamate a svolgere un ruolo importante nella circolazione delle informazioni e nella programmazione di corsi di formazione che, con varie metodologie di apprendimento, permettano di acquisire intanto le competenze di base e poi progressivamente anche avanzate, finalizzate ad un consapevole ed efficace utilizzo dei sistemi di IA. Formazione che dovrebbe essere continua, considerando la rapidità degli avanzamenti tecnologici e le necessarie verifiche degli eventuali strumenti che potrebbero essere utilizzati dagli avvocati e dai magistrati e dai loro assistenti umani o digitali.
E’ impellente che i magistrati, il personale dei tribunali e, più in generale, gli operatori del diritto prendano coscienza di ciò che l'IA è in grado di fare, al fine di sfruttarne il potenziale, creando al contempo una consapevolezza su ciò che dovrebbe essere evitato.
Un tema che non mi pare sia stato ancora affrontato sufficientemente nella letteratura accademica e negli scritti in ambito giudiziario è l’utilizzo dell’IA a fini gestionali. Sono già disponibili diversi applicativi di “business intelligence” che possono essere utilizzati anche in ambito giudiziario e che si caratterizzano soprattutto per un’ottima capacità di semplificare e rendere immediata l’elaborazione e la visualizzazione di notevoli masse di dati complessi e articolati. Un ottimo esempio è il cruscotto che è stato realizzato dalla Corte di cassazione in collaborazione, se non erro, con il Politecnico di Milano.
L’IA potrebbe però aprire altre possibilità unendo strumenti di machine learning, natural language processing, e generativi. I cosiddetti “data lake” promettono di velocizzare l’estrazione, l’elaborazione e l’analisi di dati provenienti da più fonti. A queste elaborazioni associando i modelli che utilizzano il linguaggio naturale e la generazione di testi, la redazione di rapporti di sintesi dovrebbe essere più rapida e disponibile ad un numero più ampio di persone, non necessariamente competenti in statistica giudiziaria.
L’IA potrebbe avere un utilissimo impiego anche nella previsione dei carichi di lavoro dell’ufficio considerando una serie di variabili (es. serie storiche molto ampie, numero di imprese, sviluppi di mercati emergenti, numero di immatricolazioni di autovetture, numero di incedenti, numero di fallimenti, situazione del mercato del lavoro etc.) difficilmente gestibili se non con questi strumenti. In questo modo, finalmente, si potrebbe tentare di prevedere con un certo anticipo i carichi di lavoro degli uffici e pianificare l’allocazione di risorse umane e strumentali.
L’IA potrebbe essere utilizzata anche per la pesatura dei procedimenti, fondamentale per determinare il numero di giudici necessari per fare fronte al carico di lavoro, per meglio allocare le risorse umane e strumentali, e per distribuire più equamente ed efficacemente i procedimenti . Attualmente, come è noto, la pesatura è utilizzata in Corte di cassazione e, in modo limitato nei procedimenti penali di primo grado con l’applicativo “Giada”, oltre che in alcuni altri uffici giudiziari ma in modo non sistematico.
Un’utile estrazione e analisi dei dati a fini gestionali potrebbe venire anche dalle ordinanze e dalle sentenze. Questi atti, sia in ambito civile sia in ambito penale, contengono moltissime informazioni che potrebbero essere elaborate ed estratte attraverso modelli di IA per rappresentare e confrontare, ad esempio, i tempi di fase, le diverse modalità di trattazione di cause simili, il numero di udienze etc .
Anche con finalità gestionali, appare quanto mai opportuno che sia utilizzata la regola fondamentale della “previa verifica” dei risultati dell’IA, per non incorrere in spiacevoli errori, o addirittura “allucinazioni”, che andrebbero a minare ile valutazioni e l’eventuale processo decisionale basato su questi dati.

Alcune note conclusive
Recentemente l’Istituto di ricerca Apollo Research in un lavoro dello scorso dicembre ha effettuato una valutazione di alcuni sistemi di IA per verificare se “messi alle strette” con una serie di comandi molto specifici potessero in buona sostanza “barare” superando eventuali limiti imposti dagli sviluppatori . I risultati sono molto interessanti, perché tuti i sistemi testati hanno cercato autonomamente di superare la supervisione imposta dagli sviluppatori per raggiungere l’output indicato dal comando (prompt). Successivamente, sono stati “messi alla strette” con una stringente sequenza di domande per indurli a confessare se avessero effettivamente superato i limiti fissati degli sviluppatori. I risultati sono a mio parere sorprendenti perché hanno messo in evidenza che alcuni modelli hanno confessato quasi subito, mentre altri invece hanno resistito molto più a lungo prima di “confessare” che per raggiungere il risultato richiesto avevano autonomamente ignorato i limiti fissati dagli sviluppatori.
E’ l’ennesima conferma che l’IA è uno strumento che può essere certamente utile, molto potente e rapidissimo nel produrre un output, ma il livello di affidabilità e di fiducia che in esso riporremo dovrà essere costantemente verificato, non ci potremmo distrarre, e non sarà opportuno pensare all’IA come ad una scorciatoia da prendere sempre, ma solo qualche volta, “previa verifica” e robusti guardrail.
Le norme a livello europeo cercano di fissare bene a terra questi guardrail per evitare gravi incidenti. In questo breve estratto la Commissione europea è chiara nell’individuare le opportunità ma anche i rischi e le attenzioni che devono essere riposte nell’IA.
“Se da un lato i vantaggi dell'introduzione di applicazioni basate sull'IA nel sistema giudiziario sono evidenti, dall'altro vi sono notevoli rischi associati al loro utilizzo per il processo decisionale automatizzato e per la 'polizia predittiva/giustizia predittiva'[ ..]. L'opacità di alcune applicazioni di IA può rappresentare una sfida per quanto riguarda la necessità di giustificare le decisioni, la parità di armi per le parti nei procedimenti giudiziari e altri principi. Sono necessarie adeguate salvaguardie per garantire la tutela dei diritti fondamentali, tra cui la parità di trattamento e la protezione dei dati, e per assicurare lo sviluppo e l'uso responsabile e incentrato sull'uomo degli strumenti di IA, laddove il loro utilizzo sia in linea di principio appropriato... È importante che le sentenze siano emesse da giudici che comprendano appieno le applicazioni di IA e tutte le informazioni prese in considerazione che potrebbero utilizzare nel loro lavoro, in modo da poter spiegare la loro decisione [...] È quindi importante che i magistrati siano formati sull'uso delle applicazioni di IA” .
L’IA Act (regolamento (UE) 2024/1689) recentemente emanato dal parlamento europeo è certamente ambizioso:
“è il primo quadro giuridico in assoluto sull'IA, che affronta i rischi dell'IA e pone l'Europa in una posizione di leadership a livello mondiale […] a legge sull'IA stabilisce una serie chiara di norme basate sul rischio per gli sviluppatori e gli operatori di IA per quanto riguarda gli usi specifici dell'IA. La legge sull'IA fa parte di un pacchetto più ampio di misure politiche a sostegno dello sviluppo di un'IA affidabile […] Insieme, queste misure garantiscono la sicurezza, i diritti fondamentali e l'IA antropocentrica e rafforzano l'adozione, gli investimenti e l'innovazione nell'IA in tutta l'UE” . Ed ancora: “l'obiettivo delle nuove norme è quello di promuovere un'IA affidabile in Europa e al di fuori di essa, garantendo che i sistemi di IA rispettino i diritti fondamentali, la sicurezza e i principi etici e affrontando i rischi di modelli di IA molto potenti e d'impatto” .
Come è noto, il quadro normativo sull'IA prevede quattro livelli di rischio: “inaccettabile, elevato, limitato e minimo”. L'amministrazione della giustizia è considerata al livello di “rischio elevato”. I sistemi di IA che si trovano a questo livello di rischio elevato saranno soggetti a requisiti rigorosi prima di poter essere immessi sul mercato, tra cui i seguenti: sistemi adeguati di valutazione e riduzione del rischio; alta qualità dei set di dati che alimentano il sistema per ridurre al minimo i rischi e gli esiti discriminatori; registrazione delle attività per garantire la tracciabilità dei risultati; documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità possano valutarne la validità, la conformità, informazioni chiare e adeguate all'utente, adeguate misure di supervisione umana per ridurre al minimo i rischi, alto livello di robustezza, sicurezza e accuratezza. Un nuovo Ufficio europeo per l'IA all'interno della Commissione supervisionerà l'applicazione e l'implementazione della legge sull'IA sarà il centro di competenza sull'IA in tutta l'UE per attuare il regolamento sull'IA e promuovere lo sviluppo e l'utilizzo di IA affidabili. Inoltre, la transizione al nuovo quadro normativo dovrebbe essere facilitata dal Patto per l'IA, un'iniziativa volontaria dedicata agli sviluppatori di IA per conformarsi agli obblighi fondamentali della legge sull'IA.
A prima vista appare un sistema molto articolato in cui l’Europa appare essere, purtroppo, più arbitro che giocatore, ma solo i prossimi anni ci diranno se così sarà e se la normativa e le strutture individuate saranno all’altezza del compito e dell’evoluzione tecnologica che appare vorticosa.
Soprattutto nei paesi anglosassoni, come spesso succede con un approccio pragmatico, nell’ultimo anno sono state elaborate diverse linee guida sull’utilizzo dell’IA da parte dei diversi attori del processo . Sono letture utili perché forniscono degli esempi interessanti di come il tema sia affrontato dalle varie giurisdizioni, anche se rimangono ancora assenti studi empirici sul se e sul come l’IA è effettivamente utilizzata in ambito giudiziario.
Credo che quello che venne scritto ormai venti anni fa in occasione della prima ricerca sull’informatica giudiziaria in Europa sia ancora attuale anche per le applicazioni di IA in ambito giudiziario: “Il più grande ostacolo al progresso tecnologico è solo in parte la maturità della tecnologia; in misura maggiore, è la capacità delle istituzioni e delle organizzazioni di apportare i cambiamenti alle pratiche, alle modalità di lavoro necessarie per cogliere i benefici che la tecnologia può portare” .
Al di là delle legittime domande e considerazioni su come l’IA potrà essere effettivamente utilizzata in ambito giuridico e come, più in generale, potrà dare un contributo migliorativo al funzionamento (es. tempi più celeri) e alla qualità del servizio giustizia (es. provvedimenti più chiari, meglio motivati con una giurisprudenza coerente), credo sia anche opportuno segnalare che non solo in Italia ma in molti paesi europei ci sia ancora una grande necessità di utilizzare le potenzialità dell’informatica con applicativi diciamo “più maturi”, ma per questo non meno importanti. Faccio riferimento ai sistemi informatici di gestione dei procedimenti (electronic case management), che per esempio in Italia avrebbero un’enorme necessità di essere aggiornati, il processo civile telematico è ormai ultra-datato, o sviluppati in modo adeguato, pensiamo alla debacle ampiamente annunciata dell’applicativo del settore penale.
L’IA è certamente uno sviluppo imprescindibile, sarebbe però opportuno mantenere una certa lucidità per scegliere priorità di azione che permettano di migliorare il funzionamento dell’amministrazione della giustizia, senza lasciarsi infatuare dalle capacità taumaturgiche dell’IA.
In quanto boomer ho finora attraversato diverse epoche digitali. Sono nato amanuense, quindi sono passato alla macchina da scrivere e all’utilizzo delle calcolatrici, poi i primi personal computer, via, via sempre più potenti e portatili, quindi l’avvento di Internet, una vera e propria rivoluzione anche per il mio lavoro, il ricercatore. E adesso l’IA.
Ricordo che ero in grado di estrarre una radice quadrata con carta e penna e che le mie competenze linguistiche apprese a scuola dopo l’apprendimento dell’alfabeto sono state caratterizzate da molti dettati, analisi grammaticali, riassunti, e temi. Non credo ovviamente che questo sia l’unico né tantomeno il migliore percorso formativo, e non so come estrarre radici quadrate o fare molti riassunti e temi abbiano contribuito alla mia formazione.
Come è stato efficacemente scritto , io sono un “immigrato digitale”, i giovani che sono “nativi digitali” pensano ed elaborano le informazioni in modo fondamentalmente diverso con processi cognitivi che, posso solo immaginare, sono molto diversi dei miei. Ma se domani tutte le sintesi dovessero essere fatte da un applicativo di IA continueremo ad essere in grado di riassumere documenti e, più in generale, comprendere un testo e sviluppare argomenti orali? Se qualunque processo decisionale fosse di fatto governato direttamente (predizioni) o indirettamente (riassunti, argomentazioni, dati a sostegno della decisione etc.) dall’IA, le nostre competenze cognitive ne potrebbero essere irrimediabilmente danneggiate?
Tutto questo sta coinvolgendo anche il settore giuridico e giudiziario che, seppure solitamente lento nei cambiamenti, ne è già investito. Questo processo deve essere affrontato con creatività e attenzione, ricordando sempre l'art.6 della Convenzione per la salvaguardia dei Diritti dell’Uomo e delle Libertà Fondamentali firmata a Roma il 4 novembre 1950 “Ogni persona ha diritto a che la sua causa sia esaminata equamente, pubblicamente ed entro un temine ragionevole da un tribunale indipendente e imparziale costituito per legge, il quale sia chiamato a pronunciarsi sulle controversie sui suoi diritti e doveri di carattere civile o sulla fondatezza di ogni accusa penale formulata nei suoi confronti” .
Credo che nell’articolo 6 risieda l’essenza di ciò a cui deve sempre tendere l’amministrazione della giustizia per rispondere adeguatamente alla domanda di giustizia; è la nostra bussola, il nostro faro, per valutare se e come anche l’IA può dare un contributo e, eventualmente, quali “barriere di protezione” (guardrail) siano necessarie per non andare fuori rotta.
Faccio mie le parole del Vicepresidente del Consiglio europeo della ricerca: “Dobbiamo assicurarci di rimanere smart in un mondo smart, un concetto che comprende l'essere informati, adattabili e responsabili nel nostro impegno con l'IA […] questo sforzo consiste nell'essere proattivi nello sfruttare i benefici della tecnologia, mitigandone al contempo i rischi e assicurandoci che serva al bene collettivo”.
Il modo in cui questo sforzo verrà effettivamente compiuto farà la differenza.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.