Altro tema centrale di questo 66° congresso dell’Associazione Internazionale Magistrati riguarda gli effetti dell’IA sull’esercizio della giurisdizione. Tema non solo discusso nella sessione convegnistica di questa mattina 20 ottobre, ma anche oggetto di approfondimenti e confronto in seno ai lavori della 1° Commissione di Studio dell’IAJ cui l’Italia ha attivamente partecipato e nel corso dei quali è emersa la necessità di tracciare linee guida chiare e principi etici condivisi
Il tema degli effetti dell’IA sull’esercizio della giurisdizione è centrale nel corso di questo 66° congresso dell’Associazione internazionale dei giudici: non solo è stata ad esso dedicata una sessione di approfondimento convegnistico nella giornata del 20 ottobre, ma è stato fatto oggetto di approfondimenti e confronto in seno ai lavori della 1° Commissione di studio dell’Associazione internazionale cui l’Italia ha attivamente partecipato.
Con il report nazionale predisposto per la delegazione italiana, si sono evidenziati i problemi centrali che si pongono in punto di uso dell’IA nell’esercizio della giurisdizione.
Quanto alla normativa, va premesso che a livello europeo lo scorso 13 marzo 2024 è stato approvato dal Parlamento europeo (poi dal Consiglio europeo il 21.5.2024) il cosiddetto AI ACT che contiene una regolamentazione dei sistemi di intelligenza artificiale basata sui livelli di rischio, i divieti e gli obblighi relativi. Questa normativa, quanto ai sistemi di IA destinati all’amministrazione della giustizia, al considerando n. 61 specifica che “è opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti”. Il considerando prosegue rilevando come, invece, non possano essere classificati come ad alto rischio i “sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi”. Ancora, viene rilevato che “l’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana”.
In Italia l’uso dell’IA nell’attività giudiziaria è in fase sperimentale e non vi è ancora una regolamentazione specifica in materia.
Si deve segnalare che già l’articolo 8 del d.lgs. 51/2018 ha stabilito che sono “vietate le decisioni basate unicamente su un trattamento automatizzato, compresa la profilazione, che producono effetti negativi nei confronti dell’interessato, salvo che siano autorizzate dal diritto dell’Unione europea o da specifiche disposizioni di legge”.
Pur non essendoci ancora una regolamentazione specifica in materia di uso dell’IA nell’attività giudiziaria, è del maggio 2024 il disegno di legge 1146 contenente “disposizioni e delega al Governo in materia di intelligenza artificiale”.
In particolare, quanto all’attività giudiziaria, il ddl all’articolo 14 prevede che “i sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale”. Viene demandato al Ministero della giustizia il compito di disciplinare l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari, mentre per le altre giurisdizioni si prevede che l’impiego di strumenti di IA sia disciplinato in conformità ai rispettivi settori. La norma in parola affida espressa centralità al valore dell’attività umana stabilendo che “è sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”.
Ma quali sono i possibili effetti dell’IA sull’amministrazione della giustizia e sull’indipendenza della magistratura?
Quanto agli effetti dell’IA sull’amministrazione della giustizia si pongono questioni complesse.
Si deve segnalare che a dicembre del 2018 la CEPEJ (European Commission for the Efficiency of Justice) ha adottato la “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari” e in Italia l’articolo 8 del d.lgs. 51/2018 ha stabilito che sono “vietate le decisioni basate unicamente su un trattamento automatizzato, compresa la profilazione, che producono effetti negativi nei confronti dell’interessato, salvo che siano autorizzate dal diritto dell’Unione europea o da specifiche disposizioni di legge”. Ciò premesso, ad esempio in Italia sono stati avviati in alcuni Uffici giudiziari progetti volti a sperimentare l’uso di sistemi di intelligenza artificiale nell’attività giudiziaria al fine di creare una banca dati che possa essere interrogata con linguaggio naturale per acquisire la possibile proiezione giudiziaria del caso proposto. Questo progetto parte dall’idea che la prevedibilità della decisione giudiziaria rappresenti un indicatore di qualità dell’attività giudiziaria. Il rischio, tuttavia, è il “conformismo giudiziario” e, dunque, che l’uso di taluni applicativi informatici impoverisca la qualità della giurisdizione, producendo effetti negativi sull’amministrazione della giustizia e, in particolare, su indipendenza e autonomia della magistratura.
Adesso che l’uso dell’IA può andare ben oltre il servizio di supporto per la giurisdizione attraverso sistemi di IA generativa molto complessi, si rende necessaria l’interlocuzione con altri soggetti, oltre al ministero della Giustizia, quali ad esempio il Csm. Questo anche perché sussiste il rischio che il ministero, se non adeguatamente fornito di risorse anche in termini di personale tecnico-informatico, operi in una prospettiva di privatizzazione del settore affidando a grandi società private gli appalti per la costruzione e la gestione dei sistemi di IA applicati al settore giudiziario con il rischio di non riuscirsi ad operare adeguati controlli e a fornirsi indicazioni operative.
Un importante rilievo è stato operato in particolare nel settore penale nella “Relazione sullo stato della Giustizia telematica – anno 2021” del Consiglio superiore della magistratura, ove si legge che l’installazione ed il funzionamento della struttura tecnica (hardware e software) con cui in prospettiva futura saranno gestite tutte le attività processuali (il riferimento nella specie è in particolare al processo penale) “condiziona oggi e condizionerà sempre più le stesse concrete modalità di esercizio dell’attività giurisdizionale e dunque, in ultima analisi, l’autonomia e l’indipendenza della magistratura”. Si tratta di una riflessione che evidenzia l’impatto potenziale dell’infrastruttura tecnologica messa a disposizione nel settore giustizia sull’effettivo esercizio delle funzioni giudiziarie e sottolinea la necessità di una attenta considerazione per garantire che l’implementazione di tali sistemi non comprometta l’indipendenza e l’autonomia della magistratura.
Dalla Commissione
In merito ai possibili effetti dell’IA sull’indipendenza della magistratura, all’esito dei lavori plenari della 1° Commissione di studio presieduta dalla giudice Marilyn L. Huff, è emerso in particolare che, se è vero che un uso corretto ed efficace dell’IA da parte della magistratura può aiutare a prendere decisioni più informate e ben documentate, tuttavia un eccessivo affidamento nell’IA potrebbe compromettere l’indipendenza della magistratura, riducendo la capacità dei giudici di adattare le decisioni alle specifiche circostanze di ciascun caso. Un giudice potrebbe diventare un mero supervisore degli strumenti di IA, piuttosto che il vero decisore del caso e questo potrebbe portare a una giustizia influenzata di fatto dai soggetti privati cui verrà demandata la creazione dei software di IA. Pertanto, qualsiasi implementazione dell’IA nel sistema giudiziario dovrebbe garantire che il giudice mantenga il potere decisionale e sia libero di discostarsi dagli esiti delle analisi e dei contributi ottenuti a mezzo dell’IA.
È anche emersa la necessità di linee guida chiare e di principi etici per regolare l’uso dell’IA nel sistema giudiziario. Tra le principali limitazioni suggerite figurano: 1) garantire che l’uso dell’IA da parte dei giudici sia facoltativo – nessun giudice dovrebbe essere obbligato a utilizzare strumenti di IA; 2) implementare misure di protezione contro la divulgazione non autorizzata di dati personali, assicurando così la tutela della privacy; 3) fornire trasparenza al pubblico riguardo al design e all’uso di qualsiasi sistema di IA impiegato nel sistema giudiziario.