L’intelligenza artificiale entra nella giustizia: le nuove raccomandazioni del Consiglio Superiore della Magistratura

L’uso dell’intelligenza artificiale (IA) è ormai entrato nell’operatività quotidiana degli avvocati ed anche il sistema giudiziario deve confrontarsi con questa realtà: strumenti generativi e predittivi promettono supporto nello studio, nella gestione documentale e nell’organizzazione dei flussi informativi. Proprio per governare questa transizione, l’8 ottobre 2025 il Consiglio Superiore della Magistratura ha approvato le “Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia”, delineando confini, cautele e traiettorie di sviluppo per un’adozione compatibile con i principi del giusto processo e con l’autonomia della funzione giurisdizionale.
La delibera parte da una constatazione: i sistemi di IA non sono meri applicativi di videoscrittura o archiviazione; generano contenuti, correlazioni e suggerimenti che affiancano il ragionamento umano e, se non governati, possono condizionarlo. Per questo, l’IA è ammessa solo come supporto, mai come sostituto del giudice o del pubblico ministero. Devono essere sempre garantite trasparenza dell’elaborazione, verificabilità e contestabilità degli output, supremazia del controllo umano e parità informativa tra le parti.
Il documento individua i rischi principali dell’uso dell’intelligenza artificiale:
Protezione dei dati e segreti d’ufficio: l’immissione di dati processuali in servizi generalisti (spesso cloud extra‑UE) può comportare riusi non previsti e profilazioni anche degli utenti.
- Qualità degli output: errori, “allucinazioni” e bias sono intrinseci a modelli probabilistici addestrati su basi dati non sempre verificabili.
- Variabilità e dipendenza dal prompting: la stessa domanda può generare risposte diverse; la formulazione del quesito incide sul risultato.
Ne discende un principio cardine: verifica umana sistematica della correttezza, pertinenza e completezza dell’output, con riscontro su fonti ufficiali e normativa vigente.
La circolare richiama il Regolamento (UE) 2024/1689 (“AI Act”), che classifica come ad alto rischio i sistemi destinati ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto su casi concreti. A regime (dall’agosto 2026), magistrati e uffici potranno utilizzare solo sistemi conformi, certificati e registrati nella banca dati UE. L’AI Act, però, prevede una deroga quando l’IA svolge compiti procedurali limitati o preparatori che non influenzano materialmente l’esito della decisione: è la “zona grigia” in cui la circolare colloca gli usi ammessi nella fase transitoria.
In parallelo, il DDL italiano n. 1146/2025 (approvato il 17 settembre 2025) riserva al magistrato ogni decisione su interpretazione, valutazione dei fatti e adozione dei provvedimenti, attribuendo al Ministero della Giustizia la disciplina degli impieghi organizzativi e accessori dei sistemi di IA negli uffici giudiziari.
Con che limiti i magistrati possono utilizzare l’intelligenza artificiale? Fino all’entrata in vigore piena dell’AI Act, la regola è netta: é ammesso l’utilizzo solo di strumenti autorizzati dal Ministero della Giustizia per attività procedurali/organizzative (in ambiente protetto e tracciato), con revisione umana. Non è ammesso l’uso di IA generaliste non autorizzate per attività giudiziarie in senso stretto.
La circolare elenca esempi concreti di usi ammissibili (non esaustivi), tra cui: ricerche dottrinali; sintesi di provvedimenti ostensibili e contributi dottrinali; report statistici, comparazioni automatizzate di documenti, gestione calendari e udienze; supporto agli “affari semplici” con bozze standardizzate da adattare; controlli documentali (anche contabili) su materiali opportunamente anonimizzati; generazione di presentazioni, tabelle e grafici; revisione linguistica; traduzione assistita, sempre con controllo umano.
Resta vietata l’immissione di atti processuali o dati sensibili in sistemi non interni al dominio giustizia; è richiesto tracciamento degli utilizzi, minimizzazione degli input e auditabilità.
Per il futuro, il CSM auspica l’avvio di sperimentazioni controllate congiunte tra il Ministero della Giustizia ed il CSM, l’introduzione di sistemi interni di IA (anche on‑premise o con modelli open‑source in locale), integrati con i nuovi applicativi ministeriali e sotto controllo pubblico; audit periodici, formazione e diffusione di buone prassi su rischi probabilistici, bias e verifiche degli output; coinvolgimento dell’avvocatura per regole uniformi sulle ricadute processuali (trasparenza d’uso, contestabilità degli output, limiti alle profilazioni).
La delibera del CSM non demonizza l’intelligenza artificiale; la orienta. Stabilisce un perimetro garantista: l’IA come strumento che libera tempo per la decisione e migliora l’organizzazione, senza comprimere autonomia e responsabilità del giudice. La sfida, ora, è costruire un ecosistema pubblico di tecnologie affidabili, certificato e governato, capace di dialogare con la pratica del foro e con i diritti delle parti. Sta qui la differenza tra una digitalizzazione matura della giustizia e una deriva tecnocratica che il sistema – opportunamente – vuole evitare.
