testo integrale con note e bibliografia
Introduzione
Negli ultimi decenni, il progresso dell’intelligenza artificiale (AI) ha trasformato profondamente molti settori, aprendo grandi opportunità ma anche interrogativi complessi sul piano giuridico, etico e sociale. Se finora il giurista si è limitato per lo più a interpretare norme preesistenti applicandole alle nuove tecnologie o ad utilizzare strumenti tecnologici forniti dal mercato, oggi il suo ruolo sta evolvendo: da osservatore a figura che può diventare centrale nei team che progettano soluzioni “intelligenti” per il mondo del diritto.
La quotidiana evoluzione dell’AI sta rendendo sempre più evidente la necessità di una collaborazione interdisciplinare, in cui la figura del giurista non è più un semplice utilizzatore o, al contrario, un illuminato “teorico dei principi” o “regolatore esterno del fenomeno”, ma un vero e proprio supporto e indirizzatore dello sviluppo.
Se è vero che l’intelligenza artificiale, nelle sue diverse declinazioni anche storiche – dall’apprendimento automatico alle reti neurali, dai sistemi esperti ai modelli generativi – solleva questioni normative, etiche, inedite, è altrettanto vero anche la progettazione e l’implementazione di sistemi AI richiedono l’adozione di saperi giuridici sin dalla fase di sviluppo per garantire da una parte la rispondenza della soluzione ai “requisiti” dell’utente giuridico dall’altra una progressiva riduzione della fascinazione che sembra subire parte dei giuristi-utilizzatori dei sistemi di AI.
In questo scenario, il giurista assume un ruolo chiave: non solo come garante della conformità alla normativa specifica sull’intelligenza artificiale, ma come soggetto che sa guidare chi crea soluzioni tecnologiche “che tutto possono” verso lo sviluppo di soluzioni tecnologiche more iurisconsulti.
L’obiettivo di questo contributo è analizzare il ruolo del giurista nello sviluppo dell’ AI, evidenziando come la presenza di questa competenza nei team interdisciplinari sia diventata imprescindibile.
Verranno esaminati i diversi ambiti in cui il giurista interviene – dalla compliance normativa alla governance dell’ AI, alla tutela dei dati personali alla gestione della reputazione – illustrando come la sua expertise possa contribuire non solo a ridurre le criticità ma anche a orientare l’innovazione verso modelli più rispondenti alle necessità dell’utente giuridico.
Lo sviluppo dell'intelligenza artificiale è un processo complesso che richiede la collaborazione di diverse figure tecniche altamente specializzate. A differenza dei progetti software tradizionali, l'AI implica la capacità dei sistemi di “apprendere” dai dati, adattarsi a nuove informazioni e prendere decisioni autonome. Questo livello di complessità richiede competenze tecniche eterogenee che spaziano dalla raccolta e gestione dei dati alla progettazione di algoritmi, fino alla messa in produzione e alla gestione della sicurezza. Ogni figura tecnica coinvolta nello sviluppo dell'AI ha un ruolo preciso e richiede una competenza specifica: non stiamo parlando generalmente di “sviluppatori” o di “ingegneri del software” ma di figure altamente specializzate di cui, per alcune, si proverà a dare inquadramento ad alto livello al fine di descrivere la competenza giuridica da affiancare.
Si descriveranno brevemente le figure del Data Engineer che cura la raccolta, la trasformazione e l’organizzazione dei dati, il Data Scientist che analizza queste informazioni per individuare pattern e tendenze utili, si passerà poi al Machine Learning Engineer che si occupa di rendere i modelli di intelligenza artificiale scalabili ed efficienti per chiudere infine con il Prompt Engineer che ha assunto un ruolo cruciale nella definizione delle modalità di interazione tra utente e AI, ottimizzando gli input per ottenere risposte pertinenti e affidabili.
Si dimostrerà che a fronte di questa (progressiva quanto micro) settorializzazione della figura di sviluppatore non è possibile immaginare che esistano giuristi “per tutte le stagioni”, ma sia lecito ipotizzare che una similare specializzazione, quantomeno in termini di focus, sarà progressivamente richiesta anche ai nuovi giuristi che vengano coinvolti nei team di sviluppo: il contributo prova a descrivere queste “strane coppie” che da semplici conoscenti saranno chiamate sempre più velocemente ad un matrimonio che s’ha da fare.
Queste, necessarie, “strane coppie”
Nel contesto dello sviluppo di sistemi basati su intelligenza artificiale, il Data Engineer è il soggetto deputato a garantire la gestione efficiente dei dati durante l’intero processamento. Il processo o insieme di processi che consentono di raccogliere, trasformare e trasferire i dati da diverse fonti fino ai sistemi di analisi o ai modelli di AI di elaborazione è definito come “pipeline di dati”.
È indubbio che l’automazione nelle attività di trasformazione e trasferimento dei dati abbia evoluto radicalmente il modo in cui vengono creati i progetti di intelligenza artificiale, portando a una maggiore astrazione del ruolo del Data Engineer. Oggi, grazie alle pipeline automatizzate, è possibile estrarre, pulire e organizzare milioni di dati provenienti da fonti eterogenee – come nel nostro caso registri di cancelleria, verbali stenotipici e sentenze – senza necessità di intervento umano costante. Tuttavia, questa automazione non elimina la necessità di progettazione architetturale avanzata, anzi, ne amplifica la complessità e la fase di analisi propedeutica al “lancio” della pipeline.
Per garantire un processo realmente efficiente, è necessaria una profonda conoscenza del dominio giuridico: solo comprendendo le dinamiche specifiche e le possibili eccezioni è possibile ridurre al minimo l’intervento umano nelle fasi operative. L’ingestion – ovvero il processo di acquisizione e trasferimento dei dati verso i sistemi di elaborazione, step della pipeline – per essere “industrializzato” per il mondo reale dei sistemi Giustizia e non rimanere in vitro, richiede necessariamente la capacità di anticipare e intercettare eccezioni già nelle fasi di analisi architetturale garantendo così scalabilità ed efficienza, ma anche capacità di gestione specifica di dati in un contesto altamente regolamentato e caratterizzato da forti vincoli normativi, tecnici nonchè fonti dati complesse e stratificate nel tempo.
Se è vero che la costruzione delle pipeline di dati curate dai Data Engineer varia significativamente in base al task specifico per cui sono progettate allora l’intervento del giurista è baricentrico nel design delle pipeline di dati, in quanto l’obiettivo specifico della pipeline influenza non solo la tipologia dei dati raccolti, ma anche le tecniche utilizzate per la loro identificazione, trasformazione e analisi.
Per tentare di spiegare come a seconda dell’obiettivo del sistema AI la pipeline sia specializzata e tarata diversamente si riportano tre esempi su tematiche diverse cercando di rendere evidente al contempo il ruolo della competenza giuridica anche questa fase:
1. Ricerca del precedente giurisprudenziale:
Le pipeline sviluppate per questo compito possono essere progettate per utilizzare diverse tecniche di text mining e natural language processing (NLP) a seconda della “modalità” di ricerca che il giurista suggerisce di adottare. Ad esempio, una pipeline potrebbe essere costruita per l’elaborazione dell’intero provvedimento giurisdizionale (senza fare distinzione tra sezione di testo che riporta il dispositivo e quella che riporta il collegio che ha assunto la decisione) ovvero concentrarsi solo sulle parti del documento che riportano ad esempio la motivazione in facti e in juris. A seconda della scelta effettuata a monte è evidente come il risultato del sistema AI potrebbe essere completamente diverso. La scelta effettuata in fase di progettazione influenzerà in modo significativo l’output del sistema AI, con risultati anche radicalmente diversi a seconda dell’approccio adottato.
Tali scelte non hanno solo un impatto in termini di efficienza, ma possono ad esempio incidere su aspetti più profondi, come sul profiling implicito dei giudici .
2. Creazione della scheda del processo:
In questo caso, i Data Engineer potrebbero progettare la relativa pipeline trasformando dati non strutturati (come i dati e le informazioni contenute in un ricorso e nei relativi documenti a sostegno della domanda) in un formato strutturato, facilitandone la consultazione, e preliminarmente la verifica, da parte dei giudici o dagli addetti dell’Ufficio per il processo. La costruzione della pipeline, anche in questo caso, richiede competenze specifiche di dominio giuridico per garantire che le informazioni estratte siano rilevanti e rispettino i criteri processuali, organizzativi di modalità di approccio allo studio del fascicolo che possono differenziarsi anche tra diversi gradi di giudizio .
3. Supporto alla fase di analisi degli estratti conto bancari
Le pipeline progettate per l’analisi dei dati finanziari che intendano applicare algoritmi di machine learning per rilevare automaticamente ad esempio anomalie nei tassi d’interesse e identificare pratiche potenzialmente scorrette, come l’anatocismo, richiedono che i Data Engineer collaborino strettamente con esperti giuristi in materia finanziaria (e con professioni con competenze economico-finanziarie specifiche) per definire correttamente ad esempio le fonti, le soglie di rischio e le metriche da monitorare.
Se il Data Engineer si occupa di raccogliere, trasformare e organizzare i dati per renderli accessibili e utilizzabili, il Data Scientist li esplora, li analizza e ne estrae elementi strategici. La qualità del lavoro del Data Engineer incide direttamente sull'efficacia delle analisi condotte dal Data Scientist: dati sporchi, incompleti o male organizzati possono compromettere la validità dei modelli.
Grazie alla sinergia tra queste due figure, i modelli di intelligenza artificiale possono operare su dataset ben strutturati, garantendo previsioni stocastiche più accurate e affidabili.
Il Data Scientist è quindi una ulteriore figura nello sviluppo dell’intelligenza artificiale, con il compito di trasformare grandi quantità di dati in conoscenze strategiche attraverso metodi avanzati di analisi e modellazione. Questa figura professionale si distingue per la capacità di esplorare e interpretare i dati, applicando strumenti di statistici e stocastici, machine learning e programmazione per individuare pattern, relazioni e tendenze nascoste.
L’attività del Data Scientist parte dalla fase di raccolta e pulizia dei dati, che devono essere preparati in modo che risultino utilizzabili per le analisi successive. Una volta garantita la qualità del dataset, il focus si sposta sull’ottimizzazione dello stesso per lo sviluppo di algoritmi. Per analizzare grandi quantità di dati e costruire, tra gli altri, modelli predittivi, i Data Scientist utilizzano strumenti informatici che permettono di organizzare le informazioni in modo strutturato e di applicare metodi di intelligenza artificiale.
Un esempio di evidente comprensione del ruolo del giurista che affianca questa figura tecnica potrebbe riguardare la determinazione della prescrizione in un procedimento penale.
Per un Data Scientist identificare i dati nel database per iniziare una fase di modellizzazione potrebbe sembrare un task banale che si risolve recuperando una data di inizio e la data odierna.
Tuttavia, se la stessa domanda viene posta a un giurista anche non particolarmente esperto, la risposta cambia radicalmente .
L’analista con competenze giuridiche comprende che la prescrizione:
1. non è una semplice questione temporale, ma dipende da fattori normativi e giurisprudenziali complessi;
2. può subire interruzioni e sospensioni, che possono modificare il computo del termine, e quali sono le condizioni e le eccezioni alla eccezione;
3. evolve nel tempo, poiché da una parte le modifiche normative e dall’altra la giurisprudenza di Cassazione e Corte di Giustizia dell’Ue, possono ridefinire l’interpretazione delle regole esistenti.
Al giurista del team di sviluppo si richiede, quindi, una competenza particolare: la capacità di descrivere la complessità mentre si interfaccia con chi analizza i dati nel database e, non solo indicare quali dati sono realmente necessari, ma anche assegnare loro il corretto significato giuridico.
Ulteriore spazio di interlocuzione tra data scientist e giuristi si ha all’interno del panorama di applicazione del Regolamento Generale sulla Protezione dei Dati (GDPR) che, come ricorda il Garante italiano, trasforma in Europa il ruolo della privacy: “da obbligo avvertito solo in maniera formale [a] parte integrante delle attività di un’organizzazione, che è tenuta al rispetto del principio di responsabilizzazione ("accountability"), in base al quale il titolare deve adottare comportamenti proattivi e attività dimostrabili, finalizzati al rispetto della normativa.”
Tale contesto influenza direttamente il lavoro dei Data Scientist perché sono chiamati a adottare metodologie, i citati “comportamenti proattivi e attività dimostrabili”, che devono rispettare tali rigorosi standard anche per l’elaborazione dei dati personali (di cui i registri applicativi dei sistemi giudiziari sono ricchi), ma spesso non possiedono una preparazione giuridica adeguata a interpretare correttamente gli obblighi normativi.
In questo contesto, il giurista specializzato in privacy e diritto dei dati diventa una figura necessaria nei progetti di Data Science e AI. La conformità al GDPR e ad altre normative sulla protezione dei dati è infatti non solo un requisito normativo, ma un elemento strategico: garantire il rispetto delle regole significa ridurre il rischio di sanzioni e, al tempo stesso, rafforzare la fiducia degli utenti nei confronti delle tecnologie basate sui dati.
Abbiamo visto come l’obiettivo del Data Scientist è individuare pattern ed elementi utili per risolvere problemi specifici, sviluppando algoritmi, ma un modello di machine learning elaborato in vitro non è immediatamente pronto per essere utilizzato su larga scala. Qui entra in gioco un’ulteriore figura tecnica: il Machine Learning Engineer.
Mentre il Data Scientist crea e valida i modelli, il Machine Learning Engineer si occupa di ottimizzarli, renderli scalabili e integrabili nel mondo reale. Il passaggio da un modello teorico a un’implementazione reale richiede competenze in ingegneria del software, gestione delle infrastrutture dati e ottimizzazione delle performance.
Mentre il Data Scientist si occupa della ricerca, sperimentazione e validazione degli algoritmi di machine learning, il Machine Learning Engineer si concentra sulla loro ottimizzazione e implementazione su larga scala, garantendo stabilità ed efficienza in ambienti di produzione. Uno dei compiti è trovare il giusto equilibrio tra accuratezza del modello ed efficienza computazionale, assicurandosi che gli algoritmi funzionino in modo rapido e preciso anche su grandi volumi di dati.
Tuttavia, una delle sfide più critiche per i Machine Learning Engineer è garantire la trasparenza degli algoritmi. La crescente complessità dei modelli di deep learning li rende spesso difficili da interpretare, limitando la loro accountability ed explainability. In questo scenario, il ruolo del giurista diventa essenziale per limitare la riproduzione di bias e dare strumenti che aiutino l’utente a comprendere e contestare l’output del sistema.
Negli ultimi anni, la necessità di garantire modelli equi e spiegabili ha portato alla collaborazione tra giuristi esperti di bias negli algoritmi ed esperti di spiegazione della black-box, con l'obiettivo di rendere le decisioni AI più trasparenti e verificabili.
In questo contesto, il ruolo del giurista non si limita alla conoscenza della regolamentazione dell’AI, ma richiede anche competenze in diritto costituzionale e filosofia del diritto. Un esperto con questa formazione è una guida preziosa per il Machine Learning Engineer, aiutandolo a individuare ed eliminare potenziali bias nei dataset e nei modelli di machine learning. Poiché gli algoritmi allenano le loro capacità previsionali stocastiche con dati storici, esiste il rischio che riproducano e amplifichino pregiudizi sistemici già presenti nei documenti giuridici o nei precedenti giudiziari. Il giurista può identificare elementi che siano sintomi di queste distorsioni, suggerire metriche per misurare la fairness e collaborare con lo sviluppatore per applicare tecniche di debiasing riequilibrando i dati di addestramento e collaborando a che le decisioni algoritmiche rispettino i principi fondamentali del diritto consapevole dell’evoluzione giuridica, filosofica, nella storia.
Se il Machine Learning Engineer si occupa di ottimizzare e rendere stabili i modelli di intelligenza artificiale per la produzione, chiudiamo questa breve analisi delle “strane coppie” con una figura divenuta centrale con la diffusione di strumenti di AI generativa utilizzati in produzione da parte di utenti non professionali: il Prompt Engineer.
Questa nuova sfida emerge soprattutto con i Large Language Models , modelli di intelligenza artificiale pre-addestrati su grandi quantità di testo, capaci di comprendere (o forse sarebbe meglio dire “prevedere stocasticamente il susseguirsi di termini”) e generare linguaggio naturale in modo sofisticato. A differenza dei modelli tradizionali, che richiedevano “solo” ottimizzazioni ingegneristiche per migliorarne la precisione, la maturità degli LLM generativi è valutata qualitativamente attraverso il modo in cui interagiscono con gli utenti umani.
Il Prompt Engineer diventa quindi centrale per progettare modalità che consentano all’utente di inserire input ottimizzati, garantendo che l’AI risponda in modo coerente, pertinente e utile, trasformando l’interazione tra uomo e AI in un processo fluido. Tale obiettivo viene raggiunto con l’applicazione di tecniche che instradano la formulazione precisa della richiesta (input) da inviare al backend, in modo che il sistema di AI sia in grado di elaborarla in modo più efficiente perché coerente con la modalità di elaborazione del modello stesso.
La capacità di bilanciare la specificità della modellazione algoritmica con la flessibilità delle risposte è uno degli elementi chiave nell’interazione tra utenti e sistemi di intelligenza artificiale. Questo aspetto emerge non solo nei chatbot e negli assistenti virtuali, ma anche nei nuovi strumenti di ricerca semantica giuridica, che hanno come obiettivo (anche commerciale) la trasformazione del modo in cui professionisti del diritto accedono alle banche dati giuridiche. Tuttavia, la qualità e l’affidabilità di questi sistemi non dipendono solo dalla potenza computazionale ma anche da come le richieste vengono formulate e interpretate dai sistemi AI.
In questo contesto, lo studio di Siino et al. (2025), Exploring LLMs Applications in Law: A Literature Review on Current Legal NLP Approaches, offre un’analisi sul ruolo dei Large Language Models nel settore giuridico attraverso l’analisi di oltre 60 articoli scientifici: la ricerca, pur non affrontando direttamente il prompt Engineering, evidenzia le difficoltà legate alla complessità del linguaggio giuridico e alla sua specificità interpretativa, aspetti cruciali per garantire che i modelli AI restituiscano risultati affidabili e come anche la qualità dell’input dell’utente influenzi la coerenza e la precisione delle risposte generate dall’AI.
In questo scenario il giurista può assumere un ruolo centrale nella progettazione e ottimizzazione della ricerca semantica giuridica. La sua expertise è fondamentale per definire concetti chiave, strutturare richieste più efficaci e collaborare con ingegneri e linguisti computazionali per garantire risposte più contestualizzate e accurate. A seconda delle esigenze, il giurista può intervenire con approcci differenti: da quello del linguista giuridico, che si occupa di affinare i modelli NLP per il diritto supportando una attività di cd fine tuning, al filosofo del diritto, che contribuisce ad astrarre e organizzare le relazioni ontologiche tra norme e principi.
Tuttavia, più che soffermarsi su figure già consolidate, appare particolarmente interessante, in questa sede, riflettere su una nuova figura di giurista che potrebbe emergere quale “esperto nella gestione del rischio reputazionale”.
La ricerca semantica con AI sfrutta, ad esempio, tecniche di Natural Language Processing come i modelli di deep learning, per analizzare semanticamente l’input dell’utente: queste tecniche consentono di espandere la ricerca a concetti affini al testo strettamente ricercato e proporre risultati che, pur non contenendo il termine esatto, trattano argomenti “ritenuti” simili. La vicinanza semantica è una misura matematica della somiglianza tra parole, frasi o documenti, basata sul loro significato piuttosto che sulla loro forma testuale. Questa può essere calcolata matematicamente attraverso diverse tecniche .
Questo approccio consente la maggiore flessibilità nell’attività di ricerca a cui si accennava e la capacità di individuare risultati potenzialmente rilevanti, ma introduce rischi reputazionali connessi all’essenza stessa della ricerca non deterministica.
Si può verosimilmente ipotizzare che il crescente utilizzo di queste tecnologie implicherà un affinamento progressivo delle strategie di mitigazione degli effetti indesiderati perché, come emerge dagli esempi estremizzati elencati a seguire, la reputazione del soggetto pubblico o privato che mettesse a disposizione uno strumento carente in termini di strategie di tutela reputazionale potrebbe essere esposta a critiche e contestazioni:
● Espansione non controllata del significato
Potrebbe essere il caso di un prodotto di ricerca normativa che processi un input di ricerca relativo ad “immobili dichiarati inagibili" restituendo erroneamente informazioni relative alla legge 20 febbraio 1958, n. 75 (cd. Legge Merlin) perché generalizza l’input di ricerca “edifici non conforme ai requisiti di stabilità strutturale” fino ad arrivare a “case chiuse”.
● Correlazione statistica decontestualizzata
Si pensi ad esempio ad un utente che inserisca nella barra di ricerca di un sito istituzionale il nome di un’organizzazione criminale per trovare atti relativi a una specifica cosca mafiosa e gli vengano restituiti risultati relativi ad un partito politico che non ha alcun legame diretto con la mafia. Questo potrebbe avvenire perché il motore di ricerca semantica identifica connessioni statisticamente più frequenti tra parole e concetti presenti nei documenti utilizzati per l’allenamento (es. verbali della commissione parlamentare antimafia presieduta da un componente di quel partito).
● Mancata moderazione dell’input
Le espressioni volgari utilizzate come input nei motori di ricerca semantici richiedono l’adozione di tecniche di moderazione. L’obiettivo non è vietare la ricerca di tali espressioni nei documenti giuridici (ad esempio, in materia di diffamazione), ma monitorare il funzionamento della ricerca semantica.
A differenza della ricerca full-text, che restituisce solo documenti contenenti esattamente i termini inseriti, i sistemi basati su NLP ampliano i concetti ricercati, creando connessioni statistiche che possono generare risultati problematici dal punto di vista reputazionale. Potrebbe quindi essere opportuno limitare i risultati di ricerca ai soli documenti con un' elevata similarità semantica, in modo che l’utente ottenga risultati più prevedibili e analoghi a quelli della ricerca full-text.
Il giurista specializzato in reputational managment potrebbe intervenire per supportare il Prompt Engineer nella mitigazione di questi rischi, sviluppando strategie di monitoraggio e controllo del testo in input. Il suo compito non è eliminare il rischio reputazionale, ma strutturare meccanismi di mitigazione, supervisione e auditing per il miglioramento continuo.
Nonostante i continui progressi tecnologici, l’intelligenza artificiale resta uno strumento fallibile, soggetto a margini di errore, bias e ambiguità interpretative, anche quando lo sviluppo coinvolge esperti giuridici. Il successo dell’AI in ambito giuridico dipenderà dalla capacità di creare una sinergia efficace tra giuristi, chiamati a svolgere un ruolo di mediatori culturali con le diverse sensibilità a cui abbiamo brevemente accennato in questo contributo, e le varie figure tecniche. Questo approccio multidisciplinare che coniuga competenze giuridiche, ingegneristiche ed etiche, potrà facilitare lo sviluppo di soluzioni affidabili, trasparenti e rispettose della cultura giuridica e, quindi, più tutelanti dei diritti dei cittadini.