Skip to content Skip to sidebar Skip to footer

L’intelligenza artificiale entra nella giustizia: le nuove raccomandazioni del Consiglio Superiore della Magistratura

L’uso dell’intelligenza artificiale (IA) è ormai entrato nell’operatività quotidiana degli avvocati ed anche il sistema giudiziario deve confrontarsi con questa realtà: strumenti generativi e predittivi promettono supporto nello studio, nella gestione documentale e nell’organizzazione dei flussi informativi. Proprio per governare questa transizione, l’8 ottobre 2025 il Consiglio Superiore della Magistratura ha approvato le “Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia”, delineando confini, cautele e traiettorie di sviluppo per un’adozione compatibile con i principi del giusto processo e con l’autonomia della funzione giurisdizionale.

La delibera parte da una constatazione: i sistemi di IA non sono meri applicativi di videoscrittura o archiviazione; generano contenuti, correlazioni e suggerimenti che affiancano il ragionamento umano e, se non governati, possono condizionarlo. Per questo, l’IA è ammessa solo come supporto, mai come sostituto del giudice o del pubblico ministero. Devono essere sempre garantite trasparenza dell’elaborazione, verificabilità e contestabilità degli output, supremazia del controllo umano e parità informativa tra le parti.

Il documento individua i rischi principali dell’uso dell’intelligenza artificiale:

Protezione dei dati e segreti d’ufficio: l’immissione di dati processuali in servizi generalisti (spesso cloud extra‑UE) può comportare riusi non previsti e profilazioni anche degli utenti.

  • Qualità degli output: errori, “allucinazioni” e bias sono intrinseci a modelli probabilistici addestrati su basi dati non sempre verificabili.
  • Variabilità e dipendenza dal prompting: la stessa domanda può generare risposte diverse; la formulazione del quesito incide sul risultato.

Ne discende un principio cardine: verifica umana sistematica della correttezza, pertinenza e completezza dell’output, con riscontro su fonti ufficiali e normativa vigente.

La circolare richiama il Regolamento (UE) 2024/1689 (“AI Act”), che classifica come ad alto rischio i sistemi destinati ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto su casi concreti. A regime (dall’agosto 2026), magistrati e uffici potranno utilizzare solo sistemi conformi, certificati e registrati nella banca dati UE. L’AI Act, però, prevede una deroga quando l’IA svolge compiti procedurali limitati o preparatori che non influenzano materialmente l’esito della decisione: è la “zona grigia” in cui la circolare colloca gli usi ammessi nella fase transitoria.

In parallelo, il DDL italiano n. 1146/2025 (approvato il 17 settembre 2025) riserva al magistrato ogni decisione su interpretazione, valutazione dei fatti e adozione dei provvedimenti, attribuendo al Ministero della Giustizia la disciplina degli impieghi organizzativi e accessori dei sistemi di IA negli uffici giudiziari.

Con che limiti i magistrati possono utilizzare l’intelligenza artificiale?  Fino all’entrata in vigore piena dell’AI Act, la regola è netta: é ammesso l’utilizzo solo di strumenti autorizzati dal Ministero della Giustizia per attività procedurali/organizzative (in ambiente protetto e tracciato), con revisione umana. Non è ammesso l’uso di IA generaliste non autorizzate per attività giudiziarie in senso stretto.

La circolare elenca esempi concreti di usi ammissibili (non esaustivi), tra cui: ricerche dottrinali; sintesi di provvedimenti ostensibili e contributi dottrinali; report statistici, comparazioni automatizzate di documenti, gestione calendari e udienze; supporto agli “affari semplici” con bozze standardizzate da adattare; controlli documentali (anche contabili) su materiali opportunamente anonimizzati; generazione di presentazioni, tabelle e grafici; revisione linguistica; traduzione assistita, sempre con controllo umano.

Resta vietata l’immissione di atti processuali o dati sensibili in sistemi non interni al dominio giustizia; è richiesto tracciamento degli utilizzi, minimizzazione degli input e auditabilità.

Per il futuro, il CSM auspica l’avvio di sperimentazioni controllate congiunte tra il Ministero della Giustizia ed il CSM, l’introduzione di sistemi interni di IA (anche on‑premise o con modelli open‑source in locale), integrati con i nuovi applicativi ministeriali e sotto controllo pubblico; audit periodici, formazione e diffusione di buone prassi su rischi probabilistici, bias e verifiche degli output; coinvolgimento dell’avvocatura per regole uniformi sulle ricadute processuali (trasparenza d’uso, contestabilità degli output, limiti alle profilazioni).

La delibera del CSM non demonizza l’intelligenza artificiale; la orienta. Stabilisce un perimetro garantista: l’IA come strumento che libera tempo per la decisione e migliora l’organizzazione, senza comprimere autonomia e responsabilità del giudice. La sfida, ora, è costruire un ecosistema pubblico di tecnologie affidabili, certificato e governato, capace di dialogare con la pratica del foro e con i diritti delle parti. Sta qui la differenza tra una digitalizzazione matura della giustizia e una deriva tecnocratica che il sistema – opportunamente – vuole evitare.

Leave a comment

La “Certificazione B Corporation” è un marchio che viene concesso in licenza da B Lab, ente privato no profit, alle aziende che, come la nostra, hanno superato con successo il B Impact Assessment (“BIA”) e soddisfano quindi i requisiti richiesti da B Lab in termini di performance sociale e ambientale, responsabilità e trasparenza.

Si specifica che B Lab non è un organismo di valutazione della conformità ai sensi del Regolamento (UE) n. 765/2008 o un organismo di normazione nazionale, europeo o internazionale ai sensi del Regolamento (UE) n. 1025/2012.

I criteri del BIA sono distinti e autonomi rispetto agli standard armonizzati risultanti dalle norme ISO o di altri organismi di normazione e non sono ratificati da parte di istituzioni pubbliche nazionali o europee.