Processo Penale e GiustiziaISSN 2039-4527
G. Giappichelli Editore

indietro

stampa articolo indice fascicolo leggi articolo leggi fascicolo


Intelligenza artificiale e giudizio penale: scenari, limiti e prospettive (di Giorgia Padua, Dottore di ricerca in Diritto Pubblico – Università degli Studi di Roma “Tor Vergata”)


La crescente diffusione di tecnologie basate sull’intelligenza artificiale sta interessando anche lo scenario del­l’ac­certamento penale, rendendo necessaria una riflessione che abbia ad oggetto l’impatto dei nuovi modelli computazionali sulla cornice costituzionale e sovranazionale dei valori, nonché sulle regole processuali vigenti. L’emer­sione delle principali questioni interpretative e delle possibili prospettive di ragionamento conduce ad un’analisi che, a partire dalle svariate applicazioni degli strumenti algoritmici in campo investigativo, probatorio e decisionale, indaghi i riflessi sui canoni tipici della giustizia penale e sulle sfumature cognitive del giudizio, anche alla luce degli emergenti tentativi europei di regolamentazione.

Artificial Intelligence and criminal trial: scenarios, limits and perspectives

The growing spread of Artificial Intelligence is starting to invest the criminal justice scenario, making it necessary to reflect on the impact of new computational models on the constitutional and supranational framework of values, as well as on the current procedural rules. The main interpretative issues and perspectives lead to an analysis which, starting from the various applications of algorithmic tools in the investigative, probative and decision-making field, explores the repercussions on the typical principles of criminal justice and on the cognitive aspects of judgment, also in the light of emerging European regulatory attempts.

SOMMARIO:

1. Premessa - 2. Nozione, caratteri e metodo dell’intelligenza artificiale - 3. L’orizzonte processuale: una “guida” sovranazionale su presupposti e criticità - 4. Software di polizia predittiva, nuove tecniche d’indagine e prove c.d. algoritmiche - 5. Algoritmi e decisione: la giustizia predittiva - 6. (Segue:) i risk assessment tools e l’utilizzo giudiziario dei risultati - 7. L’impatto con i principi e le regole del giusto processo - 8. Il versante cognitivo: riflessioni conclusive e prospettive - NOTE


1. Premessa

Il dirompente fenomeno dell’intelligenza artificiale, che si presenta come l’ultima frontiera del progresso tecnologico e ormai pervade molti ambiti del vivere quotidiano, è diventato un tratto evolutivo distintivo della società odierna. Svariati sono, infatti, i settori in cui è in atto una trasformazione digitale di più alto livello, basata su un intreccio di elaborazione algoritmica, apprendimento automatico e analisi di grandi quantità di dati, che rende più immediato ed efficace – sul piano organizzativo e funzionale – lo svolgimento di tradizionali compiti e operazioni. In questo quadro, inevitabilmente si inscrivono le intersezioni fra l’intelligenza artificiale e il campo della giustizia penale, che non solo riguardano la possibilità di riconoscere – sul piano sostanziale – le macchine come autori o vittime di reati [1], ma investono direttamente il paradigma processuale. Difatti, con la diffusione di modelli algoritmici nei dispositivi di uso quotidiano e nelle prassi investigative, il panorama conoscitivo dell’accertamento penale si sta aprendo a nuovi orizzonti: dai software per la prevenzione del crimine, alle tecniche di riconoscimento facciale; dallo sfruttamento delle potenzialità dell’Internet of Things, alle prove c.d. algoritmiche. Inoltre, questo mutamento di scenario sta producendo un impatto sulla sfera decisionale, con riguardo alle nuove frontiere della prevedibilità giuridica e ai risk assessment tools per il calcolo predittivo del rischio individuale. In verità, la contaminazione del processo penale con linguaggi, tecniche e saperi propri del mondo delle tecnologie informatiche non è un novum per il nostro ordinamento. Le pratiche investigative sono da tempo diffusamente orientate verso la digital forensics: a seguito dell’introduzione della l. 18 marzo 2008, n. 48, approdo finale dell’iter di ratifica della Convenzione di Budapest sulla criminalità informatica del 2001, sono state regolamentate le modalità di apprensione di elementi probatori digitali [2] e nella prassi si fa largo uso di strumenti tecnologicamente avanzati che sfruttano la rete internet per captare flussi di dati, come il trojan, nonché di tecnologie di uso comune quali il GPS, le videoriprese e i social network. Tuttavia, la diffusione degli algoritmi nelle trame del processo penale [continua ..]


2. Nozione, caratteri e metodo dell’intelligenza artificiale

Sin da questi primi cenni, risulta chiaro che l’intelligenza artificiale non si riduce a una precisa e univoca applicazione tecnologica ma si presenta, piuttosto, come una categoria che racchiude sistemi e dispositivi in grado di svolgere attività diverse. La natura composita ed eterogenea del fenomeno induce, quindi, a soffermarsi preliminarmente sugli aspetti definitori e ad individuare gli elementi caratterizzanti la nozione. Il percorso verso la definizione dell’intelligenza artificiale è in continua evoluzione, ma può essere schematizzato in tre distinte stagioni. La prima risale alla metà del Novecento, quando per la prima volta il termine «Artificial Intelligence» è stato usato da un gruppo di ricercatori per riferirsi alla disciplina scientifica di recente formazione [3]. In questa prima fase, il concetto di intelligenza artificiale era strettamente legato a quello di intelligenza umana [4], perché rifletteva l’idea di una macchina in grado di elaborare un pensiero. Già dal 1940, con lo studio pionieristico di Alan Turing, uno dei padri fondatori dell’informatica moderna, la frontiera era rappresentata dal tentativo di riuscire a costruire una “macchina pensante”, congegnata in modo tale che un valutatore esterno non riuscisse a distinguere un pensiero elaborato dall’uomo da quello elaborato da una macchina [5]. In un secondo momento, a partire dalla fine degli anni ‘90, si inizia a sganciare l’intelligenza artificiale dall’attività cognitiva umana e ad identificarla con l’abilità di un sistema di seguire un metodo che sia frutto della programmazione e non biologicamente osservabile, di interpretare le informazioni esteriori e di produrre autonomamente un risultato o raggiungere uno specifico obiettivo secondo la logica dell’adattamento flessibile [6]. In altre parole, viene enucleato puntualmente il concetto di “intelligenza computazionale”. Infine, in tempi più moderni, si è avvertita l’esigenza di un approccio definitorio dinamico e flessibile, che rifletta la fluidità di un campo in continua evoluzione e destinato al perenne perfezionamento e sia in grado di accomunare la varietà di tecnologie che ricadono sotto la medesima definizione. In quest’ottica, rimane ancora troppo vaga anche la definizione fornita dalla [continua ..]


3. L’orizzonte processuale: una “guida” sovranazionale su presupposti e criticità

Per la complessità dei fattori tecnici, per le multiformi applicazioni, nonché per gli sfuggenti automatismi funzionali, l’impiego (attuale o prossimo) di tecnologie basate sull’intelligenza artificiale in campo giudiziario presuppone una riflessione trasversale che metta in luce le principali criticità e questioni interpretative, nell’ottica di scongiurare collisioni con i principi cardine del processo penale e con i diritti fondamentali dei soggetti coinvolti. Il rinnovato contesto processuale, permeabile alle ultime frontiere tecnologiche, imprime una forte tensione alla cornice costituzionale delle tutele, soprattutto alla luce di un “potere decisionale artificiale”. Allora, uno scenario in cui la prassi giudiziaria si orienti verso un uso diffuso di processi automatizzati deve necessariamente fare i conti con una fiducia misurata, con una cautela rafforzata e con i limiti propri di un sistema improntato al garantismo accusatorio. Il ricorso ad algoritmi, infatti, se non è assistito dal soddisfacimento dei requisiti di accessibilità e trasparenza, profila il rischio di un «buco nero giuridico» [29], in cui la decisione risulti difficilmente contestabile. Il principale timore è, cioè, che, affidandosi ai software predittivi, la pronuncia che si fondi sugli esiti da questi prodotti appaia anch’essa “opacizzata”, ovvero priva della necessaria limpidezza argomentativa, con una motivazione apparente e in un contesto di asimmetria conoscitiva. D’altra parte, questi caratteri sarebbero inconciliabili con il diritto di difesa e con la stessa idea di fair trial così come interpretata dalla Corte EDU: il principio di parità delle armi, infatti, trova il suo fondamento proprio nella possibilità di visionare e criticare le prove della controparte (dunque, per l’imputato, le prove a carico) [30] e nell’opportunità di contestarne l’accuratezza e l’attendibilità [31]. Viene da sé che l’uso di strumenti predittivi o di prove c.d. algoritmiche possa porre problemi direttamente riferiti al rispetto del principio del contraddittorio. La preoccupazione è, cioè, che venga sacrificata la dialettica processuale sulla fondatezza empirica della prova per un deficit di “trasparenza probatoria” e che sfuggano forme legittime di acquisizione. Dalla [continua ..]


4. Software di polizia predittiva, nuove tecniche d’indagine e prove c.d. algoritmiche

Nel campo della giustizia penale, l’ambito in cui si è maggiormente registrato un crescente utilizzo degli applicativi basati sull’intelligenza artificiale è quello della prevenzione [57]. Tipicamente, la prevenzione si basa sulla connessione di vari elementi (ambientali, temporali, sociali, anagrafici) che, quando rielaborati congiuntamente, possono suggerire previsioni sulla futura commissione di reati e consentire, così, l’intervento di law enforcement. In questo quadro, gli algoritmi potenziano le attività di polizia predittiva, cioè quelle messe in atto al fine di intuire dove, quando e da chi potrebbe essere commesso un fatto di reato. Gli applicativi informatici, infatti, sono in grado di realizzare un’analisi integrata dei dati in modo più rapido ed efficiente rispetto alle persone fisiche e, di conseguenza, ottimizzare la risposta investigativa, anche solo in termini di risorse e mezzi. In particolare, si tratta di sistemi in grado di analizzare immagini e video, programmi di riconoscimento facciale e di identificazione biometrica o, ancora, droni e altri robot impiegati per prevedere le zone a più alto rischio criminale e individuare soggetti potenzialmente pericolosi [58]. Non mancano, inoltre, analisi predittive basate sull’uso di social network, in particolare Twitter, da parte degli utenti [59]. In questo campo, l’impiego di algoritmi predittivi risulta particolarmente efficace nella localizzazione di possibili reati. Molti software, già ampiamente sperimentati negli Stati Uniti, riescono ad individuare le “zone calde” (c.d. hotspots) che presentano un più elevato rischio di occorrenza di determinati reati, soprattutto quelli connessi allo spaccio di sostanze stupefacenti. In termini concreti, l’algoritmo realizza una “mappatura” di alcune aree metropolitane sulla base dei fattori ambientali più frequentemente connessi alla commissione di questo tipo di delitti (presenza di scarsa illuminazione, vicinanza a locali notturni, stazioni, fermate di mezzi pubblici, bancomat e scuole) ed elabora un risultato probabilistico che favorisce l’intervento della polizia sui luoghi così identificati. Fra i più noti software di questo tipo, vi è PredPol, sviluppato da alcuni ricercatori dell’Università di Los Angeles in collaborazione con la polizia locale, che ha [continua ..]


5. Algoritmi e decisione: la giustizia predittiva

Sebbene il campo investigativo e probatorio sia il terreno d’elezione principale per l’uso di tecnologie basate sull’intelligenza artificiale, gli algoritmi non esauriscono la propria collocazione in queste fasi processuali ma sono destinati ad applicazioni che riguardano direttamente il momento “decisorio”. Il trait d’union tra la decisione umana e quella, per così dire, “robotica” [78] è da ricercare nello sforzo incessante della disciplina processualpenalistica verso una maggiore oggettivizzazione della giustizia, che attiene alla necessità di garantire, in uno Stato di diritto, una decisione che sia il più possibile equa, imparziale, razionale e auspicabilmente incontestabile. In questo senso, il concetto di giustizia predittiva, intesa strettamente come la possibilità di «prevedere la probabile sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi» [79], è correlato in maniera evidente all’esigenza di prevedibilità cui è orientato il sistema penale nel suo complesso. Per un verso, la prevedibilità va letta come necessità di poter prevedere, sul piano giuridico, le conseguenze delle proprie azioni. Così intesa, è diretta espressione del principio di legalità ex art. 25, comma 2, Cost. che governa tutto l’impianto del diritto penale e garantisce la piena autodeterminazione in ordine ai comportamenti sociali. Per altro verso, la prevedibilità consiste nella possibilità di avere effettiva contezza dell’esito di un processo. Se la finalità è quella di poter prevedere le conseguenze delle proprie azioni, viene da sé che tale scopo non può dirsi realizzato se non eliminando le tracce di arbitrarietà che possono contaminare una vicenda giudiziaria. Infatti, una piena attuazione del principio implica che ciascun soggetto deve essere messo in grado di sapere cosa aspettarsi dall’apparato giudiziario: non solo per intuire se la sua condotta è antigiuridica e penalmente rilevante, ma anche per capire a quali conseguenze andrà concretamente incontro. La prevedibilità della norma penale diventa, così, prevedibilità della decisione giudiziale [80]. Inoltre, secondo una chiave di lettura che tiene conto delle influenze sovranazionali, per effetto dell’art. 7 CEDU la [continua ..]


6. (Segue:) i risk assessment tools e l’utilizzo giudiziario dei risultati

Il significato della “giustizia predittiva” sinora descritto valorizza il concetto di calcolabilità [91] quale obiettivo di un sistema giuridico. La calcolabilità, in diritto, si può però declinare, oltre che in termini di prevedibilità di eventi propriamente giuridici (come i provvedimenti giudiziari), anche in termini di prevedibilità di eventi umani. In questa seconda accezione, la prevedibilità «concerne e misura il grado di osservanza o di efficacia o effettività delle norme che impongono comportamenti ad esse conformi e sanzionano comportamenti da esse difformi» [92]. Si tratta, quindi, delle occasioni in cui si manifesta la necessità di prevedere il grado di conformità del comportamento di un soggetto all’ordinamento giuridico. In particolare, con riferimento al sistema penale, la principale casistica concerne tutte quelle situazioni in cui il giudice è chiamato a compiere una valutazione sul comportamento futuro di un individuo o sulla sua pericolosità sociale [93] – cioè quando si tratta di applicare una misura di sicurezza, una misura cautelare o una misura di prevenzione, o di concedere la sospensione condizionale della pena o l’affidamento in prova ai servizi sociali – oppure ancora, più specificamente, sul rischio che un prevenuto commetta un (ulteriore) reato. Tale giudizio prognostico è basato su una serie di elementi, soggettivi e oggettivi, che sono aggregati e valutati attraverso un ragionamento di tipo intuitivo-esperienziale. Il calcolo del rischio individuale di recidiva corrisponde, dunque, al calcolo della probabilità di verificazione di un evento futuro e incerto. In linea con questo inquadramento, l’approccio alla valutazione della pericolosità sociale si inscrive agilmente nello scenario della giustizia predittiva, fornendo l’en­nesima prospettiva applicativa dell’intelligenza artificiale. Allora, in una rinnovata prospettiva metodologica, basata sullo sfruttamento degli algoritmi, il sistema giudiziario può aprirsi ad una valutazione di tipo statistico-attuariale, cioè ad un giudizio basato su parametri oggettivi e concretamente apprezzabili (c.d. evidence-based) realizzato a partire da evidenze statistiche e fattori individuali, denominati “fattori di rischio” [94]. Il paradigma valutativo di [continua ..]


7. L’impatto con i principi e le regole del giusto processo

Dopo aver analizzato il ventaglio di ipotesi applicative degli algoritmi, appare chiaro che il ruolo di questi strumenti nell’ambito dell’accertamento penale deve necessariamente essere circoscritto all’in­terno di una precisa rete di regole e valori propri del nostro ordinamento. Allora, diventa un imperativo non rimandabile ricavare de iure condito le linee guida interpretative e i punti fermi normativi che impediscano scivolamenti verso un uso illegittimo dell’intelligenza artificiale. Fra questi, importante riferimento è l’insieme di regole e principi condensati nell’art. 111 Cost., che costituiscono gli argini valoriali per l’espletamento di un processo «giusto» [121], che tuteli cioè tanto la funzione cognitiva, quanto i diritti dell’accusato. In primo luogo, dinanzi alle frontiere del c.d. judge-bot [122], occorre interrogarsi sulla persistenza dei principi che orbitano intorno alla figura del giudicante e sui limiti che questi imprimono all’espan­sione processuale delle tecnologie algoritmiche, soprattutto con riguardo al rinnovato significato da attribuire ai canoni di indipendenza e imparzialità di un giudice che, nella sua attività decisionale, sia affiancato da strumenti algoritmici. Così, viene inevitabilmente in rilievo il concetto di imparzialità, carattere che si estrinseca sul piano sia interiore che esteriore [123] nell’indifferenza rispetto agli interessi in conflitto e nella mancanza di pregiudizi rispetto al thema decidendi [124]. A partire da questo principio, il rapporto tra intelligenza artificiale e attività giurisdizionale si snoda lungo due direttrici alternative. Per un verso, affiora la prospettiva per cui la decisione algoritmica, per natura priva di emozioni e condizionamenti dal momento che si basa su un’elaborazione statistico-matematica che è per definizione oggettiva, può in realtà garantire una vera imparzialità nel giudizio [125]. Infatti, se è vero che, come si è visto, all’elaborazione algoritmica può essere associato il rischio di discriminazioni, legate a possibili bias cognitivi, questo problema non è esclusivamente riconducibile all’attività autonoma del sistema e può con qualche sforzo essere risolto o almeno fortemente contenuto con una particolare attenzione in sede di [continua ..]


8. Il versante cognitivo: riflessioni conclusive e prospettive

In ultima analisi, la consapevolezza delle potenzialità dell’intelligenza artificiale nel fornire apporti conoscitivi alla ricostruzione della verità nel processo impone di coordinare le nuove frontiere dimostrative con le regole imperanti sul piano epistemologico, cercando di definire il peso dimostrativo attribuibile al risultato algoritmico, specie se di natura predittiva, nel contesto della decisione penale e avendo riguardo alle regole probatorie e ai canoni di giudizio vigenti. Sul piano dell’accertamento, una svolta epocale è derivata dall’evoluzione del sapere scientifico, messo a servizio dell’ambito probatorio attraverso mezzi di prova tipici o atipici previsti dal codice di rito. Insieme alla loro inconfutabile utilità pratica ed efficacia cognitiva, le prove scientifiche hanno, però, portato alla luce significative questioni interpretative che riecheggiano in tutta la loro complessità se riferite, per estensione, ai nuovi esiti algoritmici. In primo luogo, per quanto solida e verificabile, la conoscenza scientifica non è in grado di fornire conclusioni certe e incontrovertibili; piuttosto, le prove empiriche presentano carattere congetturale e risultano compatibili con una pluralità di costruzioni teoriche, che necessitano di essere validate attraverso il processo di falsificazione e il parere degli esperti [132]. Questa prospettiva apre a scenari problematici ogniqualvolta l’oggetto della prova si scopra in balia di teorie contrastanti e il giudice si ritrovi arbitro di una disputa a lui aliena, quando entra in gioco una teoria non ancora sufficientemente affidabile, o anche laddove ci si concentri sul rapporto tra una risposta scientifica e il principio del libero convincimento. Strettamente collegato a quest’ultima considerazione è il timore che il sapere scientifico condizioni ineluttabilmente l’accertamento giudiziario, fino a rendere il processo uno «strumento tecnocratico» [133] guidato dagli esperti, il giudice una figura subalterna e le parti mere spettatrici di una dialettica specializzata. Contro l’egemonia della scienza nel processo, che rischia di rievocare modelli di stampo inquisitorio-positivistico, si erge la difesa del ruolo ricostituente delle regole probatorie [134]. È l’itinerario processuale, infatti, che riporta l’ordine legale, rende affidabile la risposta [continua ..]


NOTE