Errori giudiziari
La tradizione giuridica occidentale si radica su una convinzione: il giudizio deve essere razionale, senza interferenze, tanto che la popolare immagine del giudice come “bocca della legge” ha come premessa la funzione automatica del diritto. Nel diritto romano la giustizia è contraddistinta da equilibrio e rigidità, con Kant e l’illuminismo ci si basa sull’imperativo categorico cioè su una legge razionale e astratta. Del resto il processo si struttura proprio sul ragionamento, sulla coerenza logica, sulle prove affidabili e sul confronto critico delle ragioni contrapposte. La collettività accetta il responso processuale in quanto lo ritiene strutturato su procedure che condurranno a risultati giusti se usate correttamente e controllabili.
Nel palazzo del processo sono entrati in questi anni però ospiti inattesi, non graditi e inquietanti. Uno di questi, forse il più rappresentativo, è il riconoscimento che può esistere l’errore, buco in cui si può cadere soprattutto durante la raccolta delle prove, come osservano gli autori, quando ad esempio si punta solo su alcuni elementi, quando si cercano conferme e si trascurano le incoerenze.
La domanda è: perché questo avviene? Le ragioni sono solo giuridiche o ve ne sono altre? E soprattutto: tutto ciò è evitabile? Queste sono le domande che si pongono Antonio Forza e Rino Rumiati, in L’errore invisibile. Dalle indagini alla sentenza (Il Mulino 2025). La loro risposta, del tutto condividibile, è che la questione si radichi nella scienza, entrata con irruenza nel mondo del processo a fronte delle complessità sempre maggiori. Lo dimostrano, oggi, le cronache sulla tortuosa vicenda del delitto di Garlasco. Gli autori mettono in evidenza le “trappole cognitive”, la distorsione delle informazioni, la fallibilità della memoria, il peso dei pregiudizi e degli stereotipi, gli automatismi psicologici che determinano effetti spesso drammatici anche nel mondo della giustizia. Non si può non riconoscere, secondo gli autori, il ruolo delle discipline extra-giuridiche e soprattutto il fatto che “il dibattito sull’errore giudiziario è approdato solo di recente su un terreno più propriamente psicologico” e che quindi anche occorre cercare anche in quel contesto le cause di questi errori. “I sistemi giuridici si fondano sul presupposto che la ragione e l’intelligenza umana rappresentino un sistema unitario, così come vuole il senso comune, e che il pensiero e la coscienza umana funzionino secondo un unico livello di consapevolezza”.
In questi anni le neuroscienze hanno assestato un altro duro colpo all’impalcatura giuridica. Sono progredite le tecniche neuro diagnostiche che hanno anche ricadute nel processo, dall’accertare con strumenti la capacità di intendere e volere, a valutare le dichiarazioni con tecnologie che verificano le testimonianze attraverso le variazioni della ossigenazione di aree cerebrali. Le neuroscienze hanno svelato anche un altro versante, quello delle emozioni, sondato in precedenza da questi autori (Forza, Menegon e Rumiati, Il giudice emotivo, Il Mulino, 2017). Un indiscusso specialista ha osservato ‘non siamo macchine pensanti che si emozionano, ma macchine emotive che pensano’ (Damasio). Le emozioni sono radicate nel cervello, all’interno dei meccanismi neuronali, e si manifestano nella vita collettiva, nel linguaggio della politica, nell’economia, nelle piazze emotivamente passionali e mutanti con l’oscillare delle ansie. La vita consociata è esposta a folate istintive che corrodono la metallica forza dei numeri o la persuasione della ragione. Sembrava che la modernità potesse esserne immunizzata, ma il flusso dell’emotività è stato imparabile e pervasivo connotando la società come “eccitata’ (C. Turke). Inoltre si è riconosciuta l’esistenza di trappole cognitive, i “bias”, in cui gli operatori di giustizia possono incorrere. La mente umana opera attraverso due sistemi. Quello “lento”, il “Sistema 1”, che interviene con scarso impegno intellettivo e nessun controllo volontario, e quello “veloce”, il “Sistema 2”, che si sforza di concentrarsi invece sui problemi da risolvere. La predominanza istintiva del “Sistema 1” crea distorsioni cognitive, come l’ancoraggio – aggiustamento con cui si confronta un insieme limitato e incompleto di elementi. Ad esempio quando nelle indagini ci si “ancora” alla prima “pista” dedicando minore attenzione a quelle successive, o quanto meno tornando al dato iniziale sottostimando i fatti nuovi. Esistono poi le trappole psicologiche che influiscono negativamente sull’obiettività, come quella di “conferma” che cerca adesioni alle proprie ipotesi respingendo quelle contrarie. Svetta inoltre “il senno del poi” che si verifica quando conoscere le conclusioni induce a ritenere più probabile quell’esito finale rispetto ad altri. La trappola della rappresentatività è una sorta di scorciatoia che connette le informazioni disponibili con gli stereotipi mentali. È la strada che veicola le informazioni nei processi mediatici oscurando i dati ufficiali presenti nelle carte processuali. Tra le influenze distorcenti ha poi un ruolo rilevante il “rumore” nella ricostruzione dei fatti, non solo quello individuale e soggettivo interno alle aule, ma anche quello esterno al Tribunale. È il classico volano, noto e percepibile, tra attività processuale e opinione pubblica. Quest’ultima è sempre più dominante e non esiste transenna o muro che protegga i segreti istruttori o la segretezza dell’indagine, previste per legge. Per i media tutto è pubblico, i cittadini vogliono sapere sempre tutto a dispetto dei limiti procedurali, senza freni o ostacoli. È quanto si osserva ogni giorno attraverso le ingerenze nella riservatezza dei protagonisti del processo, tra questi e tra tutti il cittadino imputato.

Questa situazione che incrina le certezze sui valori del processo è superabile? e se sì, come? Si trovano soluzioni oggi o si è costretti a ricercare le opportunità nel domani? Il dibattito, come noto, è aperto e irrigidito tra i tecnofobici e i diffidenti del progresso da un lato (di recente Gallese, Moriggi, Rivoltella, Oltre la tecnofobia, Cortina, 2025) e i fautori dello sviluppo della tecnica dall’altro. Ma, per intenderci, di quale tecnica si parla? Di quella solo “agevolante” come il trapano elettrico rispetto a quello manuale, come la macchina da scrivere rispetto alla stilografica, o anche quella “dirompente” che sovverte gli schemi classici per evitare le trappole in cui invece può cadere la mente umana? Occorre ricercare, secondo gli autori, tecniche che potrebbero essere un ‘possibile correttivo’ (p.243), con mente aperta, senza chiusure antistoriche.
E poi perché diffidare? Perché non dovrebbero essere abbandonati i lavori pesanti a favore di macchine che svolgono in autonomia i compiti assegnati? Perché non affidare a macchine incarichi di assistenza e monitoraggio sanitario, diretto o a distanza? Perché diffidare di automobili a guida autonoma (con o senza umano a bordo)? Perché tollerare gli incidenti provocati da auto guidate da persone sotto l’effetto di sostanze o che usano l’auto come un cavallo selvaggio. Però le trappole mentali non sono neutralizzate definitivamente e forse sarà il ricorso alla travolgente e dirompente IA a offrire nuove prospettive per il futuro (p.230-231). Oggi la realtà dell’IA viene trattata come un fatto presente, riconosciuta persino dalle alte sfere religiose (Papa Francesco: “IA è sostegno se usata per comprendere fatti complessi, oppure guida per la ricerca della verità”, in “Nota Antiqua e Nova”, studio in 117 punti, 25.1.25), oltre che dalla comunità europea (Regolamento 2024/1689 del Parlamento europeo) che stabilisce rigide condizioni per il riconoscimento. Su questo versante i problemi da affrontare e superare sono molteplici (su questa rivista “Giustizia digitale”, e di recente Santosuosso Sartor, Decidere con IA, Il mulino, 2024).
Rispetto ai dati, lo strumento si evolve con l’autoapprendimento prefigurato dall’algoritmo, con la digitalizzazione del contesto sociale che rende disponibile una grande quantità di informazioni. Il problema che si pone è quello di quali dati sono all’interno dell’algoritmo e quali sono utilizzabili per decidere. Esistono poi meccanismi di selezione dei dati dovuti, ad esempio, alla tutela della riservatezza, che costituiscono un limite a un incontrollato utilizzo del patrimonio delle banche dati. In sostanza il problema non è tanto l’algoritmo in sé e nemmeno i compiti assegnati, quanto i dati. La massa dei dati è inesauribile, riutilizzabile, durevole, variabile a secondo di chi li utilizza e degli scopi che ci si prefigge. In altri termini l’algoritmo senza dati è come una macchina ferma in garage, mentre i dati forniscono il propellente per funzionare. Il funzionamento degli algoritmi è poi coperto dal segreto industriale che ne rende impossibile la verificabilità e il controllo della comunità scientifica. Una totale mancanza di trasparenza che rende ardua la contestazione di affidabilità o genuinità dello strumento. Di qui nasce la proposta di organizzare a livello istituzionale un’infrastruttura per il controllo degli algoritmi, per il loro funzionamento. Un tentativo di scalfire la prerogativa degli algoritmi come proprietari di sé stessi. Quindi la IA può essere utile nel decidere su fatti analizzabili su base logico-matematica, molto meno se si chiedono giudizi su concetti discrezionali.

Ci si può altresì interrogare sugli ambiti nei quali la presenza di informazioni potrebbe consentire predizioni espresse con l’IA, pur con le riserve del caso. Ad esempio la Polizia Predittiva, il “Laws enforcement”, è uno strumento preventivo che indica chi, dove e quando commetterà reati. Inserendo nella macchina dati estrapolati da denunce di furti o rapine verificatesi nelle stesse zone e con modalità analoghe, il sistema è in grado di prevedere luoghi e orari in cui verosimilmente potranno essere commessi altri reati della stessa specie. Il fatto che in un certo quartiere si commettano più reati fa qualificare quindi quel quartiere, e coloro che da esso provengano, più a rischio di commissione di reati. Vi sono ulteriori applicazioni come il “risk assestements tools”, sistema in grado di calcolare il rischio che un imputato si sottragga al processo o commetta reati o che vi ricada divenendo recidivo. In altri termini quell’applicazione studia la pericolosità attraverso un numero di dati relativi al passato del cittadino, individuando ricorrenze caratterizzate su base statistica.
Ulteriore, cruciale variabile è l’impiego delle macchine rispetto al “decidere”. Si confermano alcuni problemi già esposti: la macchina è programmata per fornire risposte certe, senza dubbi, mentre il giudice deve tener conto dell’esistenza di ogni ragionevole dubbio. Inoltre esiste, nella realtà, l’intreccio degli indizi delineato dalla legge per desumere l’esistenza di un fatto. Essi devono essere “gravi, precisi e concordanti” e anche in questo caso i requisiti non sono riconducibili ai principi astratti dell’IA. Per determinare la sanzione penale infine si ricorre altrettanto a indici soggettivi, non matematici o statistici come l’intensità del dolo, il grado della colpa, i motivi a delinquere e il carattere del reo.
Pertanto la complessità dei rapporti tra giudice e macchina coinvolge una pluralità di temi, il bilanciamento di vantaggi e limiti, di obiettivi ottenibili e di rispetto delle leggi. Sul piano dei vantaggi, programmare una macchina per la decisione giudiziaria è un potente aiuto per il giudicante poiché essa è in grado di gestire i precedenti con velocità molto superiore alla capacità umana. Quindi influisce sul fattore “tempo” in quanto si astrae dalla dinamica reale e si colloca in un mondo formale. Questo comporta una diversa e maggiore rapidità e/ tempestività del processo e quindi un maggior smaltimento delle richieste di giustizia. Devolvendo la risoluzione ai dati meccanici sono escluse le variabili impreviste in quanto le decisioni sono prevedibili e omogenee. Non solo: soprattutto nei paesi anglosassoni si diffonde il favore per la decisione robotica in quanto garantisce un’efficacia effettiva per tutti, aumenta l’accesso alla giustizia, la promuove invece di negarla con arretrati smaltibili ed anche in zone meno protette.
Il saggio è illuminante e arricchente perché approfondisce le dinamiche psicognitive, le sue distonie, le emozioni affioranti e circostanti. Nel contempo è anche inquietante e perturbante perché segnala incertezze ed errori che minano l’indagine giudiziaria umana che non si sa ancora come superare, sempre che sia possibile. In realtà il disincanto oramai è un compagno di viaggio che non è disposto a lasciarci, nel processo penale come in altre realtà. Del resto questa situazione ansiogena era già comparsa nella celebre serie di fantascienza “Star Treck” con Spock, il vulcaniano privo di emozioni che insegue la purezza logica, il Kolinahr. Il suo tentativo però fallisce non tanto per l’arrivo di una misteriosa entità, la V’ger, ma perché “la mente senza emozioni non è una mente ma un’anima di ghiaccio” (Le Doux, Il cervello emotivo, Baldini Castoldi 1999).
