IA e attività giudiziaria. Decisioni digitali

Di Serena Ricci

08 luglio 2021

Negli ultimi tempi è diventato oggetto di discussione l’affidamento di una parte del nostro sistema di giustizia alla decisione robotica superando le farraginosità, causa della lentezza, del nostro sistema giudiziario a vantaggio di un alto tasso di prevedibilità. Tuttavia, sia che si tratti di procedimenti che generano una decisione nel sistema giudiziario sia negli altri procedimenti nei quali è protagonista l’intelligenza artificiale, quest’ultima potrebbe perdere efficienza a causa dei cosiddetti bias cognitivi (interferenze, le limitazioni, le discriminazioni, i pregiudizi) che derivano dall’inserimento dei dati. Verificare se il contenuto della decisone giudiziaria sia scevro da condizionamenti è possibile soltanto con una contestazione successiva all’emanazione della decisione stessa. Dal punto di vista della trasparenza amministrativa e del relativo procedimento decisionale, è più difficile testare l’algoritmo alla base della decisione finale, comportando la necessità di un controllo della cosiddetta black box (massimo livello di opacità che contraddistingue alcuni sistemi di I.A.), frutto di un deep learning al quale l’uomo è sempre più estraneo. Germana Lo Sapio, magistrato del TAR Campania (La black box: l’esplicabilità delle scelte algoritmiche quale garanzia di buona amministrazione) evidenzia che è proprio la black box a rendere l’IA incompatibile con la trasparenza amministrativa a livello decisionale. Secondo i sistemi di Deep Learning la decisione è fondata sui dati senza necessità di motivazioni. La decisione fondata su regole giuridiche, invece, segue un modello normativo prestabilito costituito da una fattispecie astratta applicabile in un “caso concreto”, per giungere ad una decisione ragionevole. Tuttavia, come evidenziato anche da Amedeo Santosusso (“Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto”), per “ridimensionare l’ansia da spiegabilità della decisione che sembra pervadere alcune posizioni contrarie pregiudizialmente all’uso di I.A. nel decidere (..) si può cominciare ad accettare che (anche)gli umani hanno i loro pregiudizi e un loro modo unico e non conoscibile di prendere decisioni”. Dunque i bias cognitivi inficiano anche le decisioni umane.


Al fine di creare una macchina di intelligenza artificiale che collabori alle funzioni di giustizia, il professor Beniamino Caravita di Toritto suggerisce l’utilizzo di uno staff di laureati che aspirano ad entrare nella macchina del processo, scegliendoli però in un ventaglio di specializzazioni più ampio che coinvolga ingegneri, informatici, fisici, scienziati della comunicazione, giuristi che mastichino tali temi. Non si vuole sostituire la decisione robotica a quella umana, perché si incorrerebbe in una violazione dei principi costituzionali che governano l’attività giudiziaria, ma si potrebbe prendere spunto dalla figura dell’Avvocato generale, da noi operante presso la Corte di Cassazione e in Corte d’Appello, nell’Unione europea presso la Corte di giustizia, che esprime un’opinione esterna al collegio giudicante sui casi che gli vengono sottoposti, ma dalla quale ci si può distaccare. Tale figura potrebbe essere sostituita da una macchina lasciando al giudice-persona la possibilità di disattendere la decisione robotica, salvaguardando quella umana. La macchina-avvocato generale potrebbe dunque elaborare una proposta di decisione in tempi più rapidi di studio dei dati, mentre il giudice-uomo si assumerebbe la responsabilità di una sentenza difforme realizzando una contaminazione tra l’uomo e la macchina. Utile infine si rivelerebbe anche l’elaborazione di una lex robotica generalis, che fissi i principi fondamentali, per regolamentare l’interazione tra uomo e macchina nell’attività giudiziaria.