TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

Nel mondo dell'intelligenza artificiale vengono continuamente scambiate enormi quantità di informazioni per mezzo di una fitta e complessa rete di relazioni.
L’approccio empirico, che permette di affinare le conoscenze, migliorare le performance e massimizzare i risultati attraverso l’acquisizione e lo scambio di dati nel tempo, subisce infatti un’accelerazione esponenziale per effetto del funzionamento in batteria dei sistemi cd. di machine learning, in cui ciascun elemento del sistema opera autonomamente, condividendo in tempo reale con il resto del sistema tutte le informazioni via via acquisite.
Siffatta modalità operativa velocizza la raccolta e l’analisi dei dati, permettendo di accumulare in tempi minimi un bagaglio di conoscenze che l’essere umano potrebbe forse raggiungere solo nell’arco di un’intera vita professionale.
Delegare lavori rapidi e ripetitivi a strumenti di calcolo specializzati, che operano simultaneamente in rete, permette dunque di abbattere considerevolmente i tempi della ricerca e dei processi produttivi, con conseguente risparmio di spesa e promozione dello sviluppo del settore.

Algoritmo e data-set
Il funzionamento di un sistema di intelligenza artificiale si basa su due elementi cardine: algoritmo e pacchetto dati (o data-set) .
L'algoritmo consiste in una sequenza di istruzioni che la macchina deve eseguire per risolvere un problema dato: è una procedura di calcolo, che il programmatore imposta a partire dalla conoscenza ex ante della soluzione del problema. Lavorando infatti sui dati in ingresso e sul risultato in uscita, il programmatore individua il processo di calcolo da eseguire, lo scompone in sequenze distinte, che poi traduce in linguaggio comprensibile al calcolatore. La sequenza di codici che ne deriva, se corretta, deve sempre restituire un risultato determinato per ogni configurazione di dati in ingresso .
Nonostante l’evidente semplificazione tecnica, emerge comunque l’importanza fondamentale rivestita dal pacchetto dati, che è insieme nutrimento e propellente dei sistemi di intelligenza artificiale. Col che, per garantire la validità del risultato finale elaborato dal sistema, occorre identificare e correggere eventuali deviazioni a partire dai dati in ingresso: occorre cioè regolare specificamente la composizione del data-set, per rimuovere possibili elementi fallaci.
I sistemi per la selezione del personale basati sull’intelligenza artificiale forniscono un chiaro esempio degli errori che possono derivare da informazioni non corrette in entrata: in mancanza di rettifica, il sistema tende infatti a considerare il genere maschile quale valore aggiunto da tenere in considerazione nella scelta del candidato per una posizione dirigenziale per il solo fatto che, statisticamente, i dirigenti sono più numerosi tra gli uomini che tra le donne. Il programmatore deve allora eliminare ex ante il dato relativo al genere dei candidati, da cui il sistema potrebbe desumere conclusioni inesatte e discriminatorie .
L’efficacia dell’approccio statistico, che è alla base dei sistemi di intelligenza artificiale, è stata esaminata nel famoso caso statunitense People v. Collins , che ha evidenziato come l'uso improprio delle probabilità possa generare errori di giudizio.
Il processo Collins riguardava una rapina perpetrata da un uomo di colore, con barba e baffi, e da una donna caucasica con coda di cavallo bionda, in fuga insieme a bordo di un'automobile gialla. Gli imputati, Janet e Malcolm Collins, pur corrispondendo alla descrizione resa dai testimoni, non erano stati riconosciuti dalla vittima. Il pubblico ministero aveva allora chiamato quale teste un professore di matematica, che aveva dichiarato che la corrispondenza degli imputati rispetto alla descrizione agli atti dei due rapinatori, costituiva una schiacciante probabilità di colpevolezza a carico degli stessi .
La sentenza di condanna in primo grado era stata però riformata dalla Corte Suprema della California, che aveva criticato la testimonianza matematica per mancanza di prove empiriche a sostegno delle probabilità individuali, e aveva giudicato non corretta l'inferenza statistica alla base della condanna del giudice di prime cure, dal momento che equiparava erroneamente la probabilità che un imputato avesse determinate caratteristiche con la probabilità che l'imputato fosse colpevole:
"[m]athematics, a veritable sorcerer in our computerized society, while assisting the trier of fact in the search for truth, must not [be allowed to] cast a spell over him "
La Corte Suprema aveva dunque concluso, sostenendo che la matematica non dovesse sostituirsi al compito proprio del giudice che, in quanto persona fisica raziocinante, era tenuto a valutare personalmente l’attendibilità dei testi.
Il caso Collins è stato oggetto di un importante dibattito dottrinale, suscitando aspre critiche nei confronti dell’utilizzo dell'inferenza probabilistica in campo legale , sul presupposto che, se è vero che ai medesimi input inziali possono corrispondere risultati diversi, è altresì vero che il risultato corretto non corrisponde necessariamente a quello più probabile tra i tanti risultati possibili.
Col che, per massimizzare la fiducia generale nei confronti della correttezza del risultato finale, sono stati sviluppati sistemi ausiliari di sostegno al processo decisionale sempre più precisi, accurati ed efficaci . Ma poiché ad impossibilia nemo tenetur, occorre stabilire uno standard di errore accettabile , rispetto al quale tarare anche tali sistemi, riconoscendo la fallibilità dell’intelligenza artificiale (seppur in misura percentualmente minima).

La strategia europea sull’intelligenza artificiale
La Commissione europea ha formulato in data 21 aprile 2021 una proposta di regolamento , volta ad incentivare il ricorso all’intelligenza artificiale in termini di sicurezza e affidabilità.
Per mezzo di un approccio innovativo, la proposta classifica ex ante i sistemi di intelligenza artificiale entro quattro categorie:
(a) a rischio inaccettabile, nell’eventualità in cui l’utilizzo del relativo sistema configuri una minaccia oggettiva per la sicurezza e l’incolumità dei cittadini ;
(b) a rischio elevato, quando il sistema è in grado di influenzare indebitamente la vita o la salute dei cittadini;
(c) a rischio limitato, quando ciascun singolo utente può dismettere a piacimento l’uso del sistema, così evitando di incorrere in conseguenze pregiudizievoli;
(d) a rischio minimo o nullo, in assenza di minacce per i diritti o la sicurezza dei cittadini. Rientrano in quest’ultima categoria la maggior parte dei sistemi e delle applicazioni quotidianamente utilizzate a livello globale, che sfruttano l’intelligenza artificiale.
Questa tassonomia presuppone la distinzione tra i sistemi di intelligenza artificiale in funzione del rischio collegato al contenuto e alla compilazione del data-set di riferimento: uno strumento d’intelligenza artificiale è reputato cioè a basso rischio, se il suo pacchetto dati viene raccolto nel rispetto della legalità e dei principi etici e giuridici dell’Unione europea. Col che risulta evidente lo spostamento del focus europeo da una valutazione astratta e aprioristica del rischio complessivo del sistema, in favore di una disamina precisa e puntuale delle modalità di raccolta e composizione del data-set, onde evitare che l’incompletezza dei dati in ingresso possa ingenerare discriminazioni o errori in uscita.
La cornice regolatoria così proposta mira all’armonizzazione delle regole europee , per garantire il funzionamento delle nuove tecnologie nel rispetto dei valori dell'Unione, scongiurando una disomogeneità normativa pregiudizievole allo sviluppo e alla libera circolazione di prodotti e servizi basati sull’intelligenza artificiale.
La Proposta di Regolamento parte da un approccio innovativo alla materia, che si discosta dagli orientamenti giurisprudenziali precedenti: mentre infatti le decisioni giudiziarie sin qui adottate hanno per lo più autorizzato i sistemi di intelligenza artificiale basati su algoritmi conosciuti o conoscibili, l’Unione Europea ha focalizzato invece l’attenzione sui dati con cui viene ‘alimentato’ il sistema operativo e sulla loro raccolta, che deve avvenire nel rispetto dei principi dell’Unione, a pena d’inammissibilità.

La complessa questione della responsabilità civile per i danni provocati dai sistemi di intelligenza artificiale
La Proposta di Regolamento europeo sull’intelligenza artificiale omette ogni considerazione in punto all’allocazione della relativa responsabilità civile. Col che resta aperta la questione su quale regime risulti più idoneo a mediare tra innovazione nel contesto delle tecnologie emergenti e protezione degli utenti finali.
In considerazione delle perduranti lacune normative al riguardo, vengono in sostegno dottrina e giurisprudenza, che tendono a ricondurre l’intelligenza artificiale nell’alveo della responsabilità oggettiva , così da prescindere dall’accertamento in concreto dell'elemento soggettivo di colpa o dolo e permettere il tempestivo risarcimento dei danni.
Resta però irrisolta la questione dell’individuazione di un singolo responsabile per l’attività dell’intelligenza artificiale, dal momento che il risultato finale costituisce il frutto del lavoro congiunto, coordinato e complementare di più elementi che operano in batteria all’interno di un medesimo sistema.
Né può essere sminuita la possibilità per un sistema d’intelligenza artificiale di auto-determinarsi, allorché sia stato progettato per incrementare autonomamente il proprio data-set nel tempo . In una simile ipotesi, infatti, risulterebbe iniquo ed ingiustificato il ricorso tassativo al regime di responsabilità diretta del programmatore, che potrebbe essere totalmente estraneo al data-set esistente al momento del verificarsi dell’evento dannoso.
Appare dunque evidente l’inadeguatezza del regime della responsabilità oggettiva rispetto alle peculiarità dell’intelligenza artificiale. Talché risulta necessario sviluppare strumenti, categorie e classificazioni nuove, compatibili con gli sviluppi delle più moderne tecnologie.
Nel mentre, la materia resta affidata alle decisioni, anche difformi, delle diverse corti chiamate a decidere nel merito di casi specifici.

I robot ad uso industriale
Il diritto delle nuove tecnologie è stato trattato già in epoca risalente dalla giurisprudenza statunitense, che per prima si è occupata dei danni arrecati da robot automatici ed autonomi.
L'orientamento iniziale, a partire da Brouse v. United States , è stato per l'esclusione della responsabilità del produttore in mancanza di difetti nel robot , con conseguente trasferimento della responsabilità in capo al supervisore umano.
In senso conforme anche Payne v. ABB Flexible Automation , Jones v. W.+M Automation Inc , Provenzano v. Pearlman, Apat & Futterman : tutti casi di assoluzione dei produttori dall’obbligo risarcitorio per i danni causati dai loro impianti robotizzati, in mancanza della prova di difetti di produzione.
La giurisprudenza ha cioè generalmente addossato la responsabilità civile per i danni derivanti dall’uso dei robot all’utente finale che, affidandosi alla macchina, è venuto meno al suo specifico compito di supervisore. Tale orientamento si fonda tuttavia sul presupposto, ormai superato per effetto dell’evoluzione delle nuove tecnologie, che i robot non siano capaci di comportamenti emergenti .
Ecco allora che l’avvento dell’intelligenza artificiale rende necessario rivedere gli orientamenti sin qui adottati, siccome relativi a sistemi robotici antiquati, rudimentali e tecnologicamente obsoleti. La capacità intrinseca dei sistemi di machine learning di imparare dall'esperienza pregressa e di risolvere i problemi con soluzioni talora inimmaginabili persino per gli stessi programmatori, induce ad abbandonare la primitiva concezione antropocentrica delle tecnologie robotiche per abbracciare teorie nuove, fondate sulla neutralità giuridica dell’intelligenza artificiale .
Neutralità che non comporta un’impossibile equiparazione giuridica tra uomo e macchina, ma che presuppone l’elaborazione di regole e categorie giuridiche nuove, volte ad evitare discriminazioni tra chi svolge compiti funzionalmente simili, anche quando si tratti di agenti umani da una parte e di sistemi robotizzati dall’altro .

Intelligenza artificiale nel bio-medicale
I sistemi algoritmici utilizzati nel settore bio-medicale si basano sullo sfruttamento delle capacità di affinamento delle competenze nel tempo, proprie dell’intelligenza artificiale, per fornire risultati diagnostici e terapeutici quasi perfetti: nella valutazione delle performance, infatti, la macchina può raggiungere livelli di precisione, efficacia ed efficienza del 95%, con ampio distacco rispetto alla correttezza media umana.
L'intelligenza artificiale è dunque particolarmente utile nella diagnosi di vari disturbi e patologie, oltre che nello sviluppo di terapie innovative . Tuttavia, nonostante le sue enormi e innegabili potenzialità, il ricorso all’intelligenza artificiale in campo medico è precluso dal diritto sanitario vigente. Ché infatti le regole in materia di assistenza sanitaria, tutela del paziente e responsabilità medica, previste a livello sia nazionale che sovranazionale, presuppongono l’insostituibile supervisione umana da parte del medico curante , che può discostarsi dalle soluzioni proposte dalla letteratura scientifica per seguire le indicazioni diagnostiche o terapeutiche offerte da un sistema d’intelligenza artificiale, solo assumendosene personalmente la relativa responsabilità.
In questa direzione si pone l’interessante analisi del Bundesgerichtshof tedesco , che, precisando che le indicazioni diagnostiche e terapeutiche sono di esclusiva competenza dei medici-persone fisiche, trasferisce in capo a questi ultimi la responsabilità per eventuali valutazioni diagnostiche o decisioni terapeutiche disallineate rispetto agli standard medici tradizionali.
Tale orientamento non esclude la possibilità di ricorrere a sistemi d'intelligenza artificiale in campo sanitario, ma segna una pesante involuzione del diritto: è il ritorno all’orientamento giurisprudenziale sopra analizzato in materia di robot, che imputa all’uomo ogni responsabilità, costringendolo al ruolo di supervisore necessario della macchina .
La pandemia da Covid-19 ha dato nuovo impulso allo sfruttamento dell’intelligenza artificiale per fini medici, evidenziando le incredibili capacità e potenzialità offerte da sistemi algoritmici capaci di sintetizzare, sequenziare e replicare in autonomia il genoma di SARS-CoV-2, d’individuare rapidamente eventuali modifiche epigenetiche e persino di prevedere gli andamenti epidemiologici sul lungo periodo. Compiti particolarmente complessi e lunghi da eseguire manualmente.

L’unicum australiano
In Thaler v. Commissioner of Patents , la Corte Federale australiana ha autorizzato la domanda di brevetto depositata a nome di un sistema di intelligenza artificiale, del tutto privo di personalità giuridica.
Questa decisione è stata riformata dalla Corte Suprema del Tribunale Federale , che ha negato all’intelligenza artificiale il riconoscimento del ruolo di inventore di un brevetto, non già perché l’invenzione fosse ascrivibile all’opera dell’ingegno di un soggetto terzo, né perché l’intelligenza artificiale sia stata giudicata incapace di attività creativa e inventiva sua propria, ma semplicemente perché la disciplina in materia di brevetti presuppone la sussistenza di personalità giuridica in capo all’inventore. Personalità giuridica di cui non godono appunto i sistemi d’intelligenza artificiale. La questione è ora sub iudice, essendo stata depositata una richiesta (tuttora pendente) di permesso speciale per proporre appello alla High Court of Australia.
Per il momento, dunque, l'Australia continua ad escludere la brevettabilità a nome di un sistema d'intelligenza artificiale di un'invenzione. Ma poiché è assodato che per incoraggiare lo sviluppo tecnologico e industriale occorre garantire un'efficace protezione della proprietà intellettuale, non sono esclusi nuovi sviluppi nel diritto dell’intelligenza artificiale, per adeguare la teoria del diritto alle esigenze delle nuove tecnologie. Col che, in Australia, la personalità giuridica dei sistemi d’intelligenza artificiale non è argomento confinato alla discussione teorica ed astratta del diritto, ma costituisce un possibile punto d’arrivo dell’attuale evoluzione (rectius, rivoluzione) del diritto.

Il rating reputazionale nella giurisprudenza italiana
La sentenza n. 14381 del 25 maggio 2021 della prima sezione civile della Suprema Corte di Cassazione ha recentemente esaminato il funzionamento di un sistema di intelligenza artificiale di rating reputazionale , ritenendo illecito il trattamento dei dati personali, seppur espressamente autorizzato dai singoli utenti, in mancanza di trasparenza sull’algoritmo utilizzato.
La Suprema Corte è così incorsa in un errore tecnico, per aver ricondotto la tanto discussa opacità dell’intelligenza artificiale esclusivamente alla mancata conoscenza dello schema di calcolo algoritmico, trascurando invece ogni valutazione in punto al data-set di riferimento .
La questione è in effetti molto più complessa rispetto alla soluzione resa dagli ermellini, dal momento che, mentre è possibile esplicitare una stringa algoritmica in totale trasparenza , potrebbe non essere sempre possibile rendere nota la composizione del data-set: è il caso, ad esempio, di quei programmi che si autoalimentano nel tempo, espandendo il loro data-set ben oltre il loro contenuto iniziale.
In caso di utilizzo di simili sistemi automatizzati, che raccolgono sempre più dati da esaminare comparativamente ai fini del rating reputazionale, il consenso al trattamento dei dati personali non può dirsi validamente prestato quand’anche fosse noto l’algoritmo di calcolo utilizzato, dal momento che risulterebbero comunque ignoti i parametri di riferimento via via utilizzati in sede valutativa.
L’algoritmo infatti è un semplice strumento di calcolo . Col che il risultato finale dipende tanto dall'algoritmo, quanto dai dati elaborati per mezzo di uno specifico algoritmo , inspiegabilmente trascurati invece dalla Corte di Cassazione.

Per uno sviluppo appropriato del diritto dell’intelligenza artificiale
La breve rassegna giurisprudenziale sopra fornita in chiave comparata dimostra la totale mancanza di orientamenti uniformi in materia d’intelligenza artificiale. Con la conseguenza che, allo stato attuale, ogni singolo magistrato può decidere discrezionalmente i casi sottoposti alla sua attenzione.
Le sentenze sopra richiamate coprono settori del diritto profondamente diversi tra loro, spaziando dal diritto penale a quello del lavoro, dall'ambito medico-sanitario alla protezione della proprietà intellettuale. Con un filo rosso che collega però tutti i procedimenti esaminati: la presenza di sistemi robotici, automatici o autonomi, che causano danni a terzi.
Prescindendo pertanto dal settore giuridico via via considerato, la giurisprudenza italiana e straniera sopra richiamata esamina il tema dell’allocazione della responsabilità civile in caso di danno da uso di robot o di intelligenza artificiale, e dimostra come a decorrere dalla seconda metà del XX secolo si sia passati da una concezione antropocentrica della macchina robotica, a teorie nuove ed innovative di rappresentazione della società contemporanea attraverso il filtro del giurista .
Dal che emerge l'urgente e pressante necessità di disciplinare attentamente il settore delle nuove tecnologie.
Ché, in effetti, l’opacità che giurisprudenza e dottrina imputano criticamente agli algoritmi alla base dei sistemi d’intelligenza artificiale , andrebbe invece ricondotta al perdurante ed inescusabile vuoto normativo in materia.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.