belluta

home / Archivio / Fascicolo / Intelligenza artificiale tra quantistica matematica e razionalismo critico: la necessaria tutela di ..

indietro stampa articolo indice leggi articolo leggi fascicolo


Intelligenza artificiale tra quantistica matematica e razionalismo critico: la necessaria tutela di approdi euristici

di Filippo Raffaele Dinacci, Professore ordinario di Diritto processuale penale - Università di Roma “Luiss Guido Carli”

Non bisogna incorrere nell’errore di considerare i meccanismi predittivi dell’intelligenza artificiale quali espressione di una scienza certa. Al contrario gli stessi costituiscono il frutto di un calcolo statistico-probabilistico che porta con sé l’incertezza dell’indizio. Tale consapevolezza, unita alla difficoltà di verificare i modi di formazione dell’algoritmo predittivo, impone un controllo umano affidato a quel razionalismo critico che ispira la funzione cognitiva del processo.

Parole chiave: intelligenza artificiale - meccanismi predittivi - tutela dei diritti fondamentali.

Artificial intelligence between mathematical quantum and critical rationalism: the necessary protection of heuristic approaches

One should not make the mistake of considering the predictive mechanisms of artificial intelligence as the expression of a certain science. On the contrary, they are the result of a statistical-probabilistic calculation that carries with it the uncertainty of the clue. This awareness, combined with the difficulty of verifying the modes of formation of the predictive algorithm, imposes a human control entrusted to that critical rationalism that inspires the cognitive function of the trial.

Sommario:

1. L’autonomia del giudicare quale tutela dei diritti fondamentali della Costituzione - 2. Le indicazioni normative ed operative sulla necessità di un giudizio “umano” - 3. Il soggettivismo dell’intelligenza artificiale: il problema della verificabilità del percorso e la confutabilità del risultato - 4. L’equivocità della prova innominata e l’esigenza che il giudizio si formi sul “contesto” probatorio - 5. Dalla presunzione di non colpevolezza alla presunzione di pericolosità - 6. L’intelligenza artificiale quale erogatrice di meri indizi - 7. Conclusioni: non fruibilità di forme conoscitive opache e non verificabili - NOTE


1. L’autonomia del giudicare quale tutela dei diritti fondamentali della Costituzione

La vorticosa espansione del sapere scientifico e la comparsa di forme tecnologiche in grado di elaborare verdetti predittivi costituiscono fattori che “tentano” l’operatore del diritto ad affidarsi a quella che appare una scienza capace di fornire soluzioni “certe”. Si paventa così il rischio di adagiarsi su produzioni scientifiche di verità con conseguente marginalizzazione delle tradizionali regole epistemiche del processo. In sostanza, è umana la seduzione che suscitano criteri decisori che, nella misura in cui sono basati su una pretesa robustezza scientifica, conducono ad un giudizio senza decisione [1]. Si potrebbe riscoprire quella “comodità del giudicare” [2] capace di schermare anche da polemiche e critiche in ordine al decisum; e ciò tanto più in un momento storico in cui l’operato della magistratura (a volte a ragione, a volte meno) è oggetto di attacchi di “piazza” per i motivi più disparati. Ma quel che preoccupa è quando la critica del “sociale” si incentra sul contenuto di una pronuncia; ormai si assiste a forme di virulenza le quali, ancorché in alcuni casi comprensibili, non appaiono giustificabili e rischiano di ledere, anche in ragione dell’amplificazione mediatica delle prese di posizione, l’autonomia dei giudizi. In tale contesto socio-culturale l’affidarsi ad un giudizio artificiale di [continua ..]

» Per l'intero contenuto effettuare il login inizio


2. Le indicazioni normative ed operative sulla necessità di un giudizio “umano”

Occorre subito dire che l’ipotesi di una sostituzione della macchina al giudice nella funzione di giudizio non è consentita da fonti sovraordinate. Basti pensare all’art. 101, comma 2, Cost. laddove dispone che “i giudici sono soggetti soltanto alla legge”. Il comando costituzionale, in realtà, sembra precludere non solo la sostituzione della macchina al giudice ma anche forme vincolanti di automatismo valutativo non rinvenibili nella produzione normativa [5]. Nella medesima direzione si pone anche la Convenzione edu. In quella sede, all’art. 6 par. 1 si prevede il diritto ad essere giudicato “da parte di un tribunale indipendente”. E, anche laddove si voglia equivocare sulla “neutralità” del richiamo ad un tribunale che potrebbe evocare una composizione indistinta, soccorre a conferma l’art. 5 par. 3 della medesima Convenzione che, nel disciplinare il diritto di accesso alla giurisdizione, personalizza quest’ultima mediante l’espresso riferimento al “giudice o ad un altro magistrato” [6]. Si profila, così, una visione antropocentrica che si collega alla consapevolezza che la “dignità della persona implica sempre, in sede giurisdizionale, il diritto ad essere giudicato da un essere umano” [7]. Presa di posizione, questa, correlabile a quel­l’habeas corpus su cui è fondato il moderno costituzionalismo dei [continua ..]

» Per l'intero contenuto effettuare il login inizio


3. Il soggettivismo dell’intelligenza artificiale: il problema della verificabilità del percorso e la confutabilità del risultato

Tuttavia, quest’ultima è comunque verificabile secondo gli ordinari criteri di scientificità e di logica razionale, mentre il controllo dei programmi di intelligenza artificiale pone qualche problema in più. Ed infatti, secondo la definizione della “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi”, l’intelligenza artificiale è “l’insieme di metodi scientifici, teorie e tecniche formalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani. Gli attuali sviluppi mirano a far svolgere alle macchine compiti complessi precedentemente assolti da esseri umani” [15]. Nel medesimo testo si opera una distinzione tra “intelligenze artificiali forti” (e cioè capaci di contestualizzare problemi specializzati di varia natura in maniera completamente autonoma) e “intelligenze artificiali deboli” (idonee ad altre prestazioni nel loro ambito di addestramento), precisandosi che nel presente documento gli “strumenti menzionati sono sviluppati utilizzando metodi di apprendimento automatico, ovvero intelligenze artificiali deboli” [16]. Come tutte le classificazioni, quella appena riportata si presta ad equivocità e, sul punto, basti considerare che la Carta etica europea analizza anche il tema della giustizia predittiva, che parrebbe collocabile [continua ..]

» Per l'intero contenuto effettuare il login inizio


4. L’equivocità della prova innominata e l’esigenza che il giudizio si formi sul “contesto” probatorio

Questa, del resto, non può esplicarsi in un’attività a forma libera, ma solo con modalità regolamentate. E qui occorre dissipare un primo equivoco. Le realtà storiche derivanti o ricavabili dalle macchine dell’intelligenza artificiale non possono essere introdotte nel processo attraverso lo schema dell’art. 189 c.p.p. Se è vero che tale disposizione costituisce una sorta di “adattatore automatico” [24] preposto a gestire quelle situazioni probatorie derivanti da forme di conoscenza allora non possedute, è anche vero che il tema va affrontato con cautela e, comunque, non sempre soccorre nel “trattamento” del rapporto tra processo e scienza. Basti pensare che la nuova scienza trova uno strumento di introduzione nel processo attraverso il veicolo della prova tecnica; i dati conoscitivi da essa derivanti necessariamente risultano recuperabili nei contenitori normativi della perizia, della consulenza tecnica di parte e, infine, degli accertamenti tecnici irripetibili. Ed è con riferimento alla disciplina per essi dettata che va individuata la procedura da seguire per una legittima conoscenza del giudice. Ma, seppure così non fosse, e cioè se i contenitori tipici del mezzo probatorio non si prestassero a regolare processualmente i risultati del nuovo sapere scientifico, occorrerebbe comunque applicare la disciplina normativa di quel mezzo di prova o di ricerca della [continua ..]

» Per l'intero contenuto effettuare il login inizio


5. Dalla presunzione di non colpevolezza alla presunzione di pericolosità

Ma, a prescindere da tali percorsi che invocano la necessaria previsione di controlli confutativi epistemici, evidenzia segnalare ulteriori perplessità dell’agire dell’intelligenza artificiale. Essa si caratterizza per una presunta capacità predittiva in grado di fornire una risposta probabilistica sulla verificazione, o meglio verificabilità, di un evento futuro ovvero, perché no, nell’essersi verificato nel passato un evento non conosciuto. In ambedue i casi la capacità predittiva incide nella sua valenza statistico-probabilistica su un fatto incerto in quanto ignoto o in quanto futuro. Calando tale realtà nel processo penale vengono in rilievo tutti quei campi applicativi dove la regola giuridica è connotata da ampia discrezionalità (recte, facoltatività) [34] e si parametra su una commistione tra valutazione della personalità e della responsabilità. Vengono in rilievo le disposizioni relative alla dosimetria della pena, alle attenuanti generiche e, in ultimo ma non da ultimo, alle esigenze cautelari di cui all’art. 274 c.p.p. con particolare riferimento al pericolo di recidiva ex lett. c) della medesima previsione normativa. E qui la situazione si complica in quanto viene in evidenza la regola di trattamento di cui all’art. 27, comma 2, Cost. [35]. Si approccia, in altri termini, “la dimensione special-preventiva: c’è una prognosi di [continua ..]

» Per l'intero contenuto effettuare il login inizio


6. L’intelligenza artificiale quale erogatrice di meri indizi

Ad ogni modo, quando un giudizio sulla pericolosità si converte in dato probatorio quel che si inquina è la legalità dell’accertamento che impone materiale purificato dal corretto criterio conoscitivo. Ma, al di là dell’esigenza di un adeguato metodo probatorio, occorre rimarcare come il prodotto conoscitivo promanante dall’intelligenza artificiale, costituendo la risultante di un calcolo probabilistico-statistico, assuma la valenza di mero indizio; quindi, si assoggetta alla regola di cui all’art. 192, comma 2, c.p.p. [44]. Tuttavia, sul punto, la pratica operativa dovrà confrontarsi con inconsce “predilezioni” di quanto affermato dalla macchina produttrice di intelligenza sulla base di una non dimostrata forza dimostrativa dell’algoritmo [45]. Qui si può cadere in “miraggi decisionali” fondati sul falso mito della scientificità della prova. E, quel che più conta, è che in tal modo si paventa il pericolo di generare, in sede di accertamento, prove a resistenza privilegiata. Una sorta di prova legale di fatto quale frutto della trappola valutativa in cui si incorre quando si abbandonano schemi di razionalismo critico e si approda a chimiche decisorie di natura matematica. Del resto non deve sfuggire come l’algoritmo intelligente, essendo privato di quel rapporto diretto tra il giudice e la prova, non possa tenere conto del valore che veicola [continua ..]

» Per l'intero contenuto effettuare il login inizio


7. Conclusioni: non fruibilità di forme conoscitive opache e non verificabili

La materia è pericolosa e va trattata con cura. Non è pensabile affidare la decisione giudiziaria ad algoritmi predittivi. Gli stessi infatti, anche a voler prescindere dalla loro affidabilità, paventano solo una probabilità; e tale giudizio probabilistico è deprivato di quel fattore fondamentale per l’analisi della prova costituito dalla necessità che la stessa sia percepita da chi la deve giudicare. Tale situazione, peraltro, evidenzia l’ulteriore deficit valutativo che caratterizza la prova per algoritmo: e cioè l’incapacità di poter cogliere il “contesto” probatorio che si sviluppa nel processo. Ne deriva che il singolo risultato di prova potrà essere giudicato differentemente anche in ragione delle interferenze con altri dati conoscitivi che impongono diverse massime di esperienza proprio in ragione della valutazione complessiva del quadro probatorio. In altre parole, l’intelligenza artificiale sarebbe in grado di fornire, tutt’al più, risposte sul singolo esperimento conoscitivo ma non risulterebbe idonea ad essere esportata nel momento di valutazione complessiva di tutti gli elementi probatori. Momento, questo, come noto, in cui il principio del libero convincimento cede il passo alle regole di giudizio [53]. A ciò si aggiungano tutte le segnalate problematiche relative alla “controllabilità” del percorso che produce la [continua ..]

» Per l'intero contenuto effettuare il login inizio


NOTE

» Per l'intero contenuto effettuare il login inizio