IA e giustizia: responsabilità del giudice e limiti all'automazione delle decisioni
La Cassazione ribadisce l’obbligo per i magistrati di mantenere un controllo umano effettivo su ogni output generato da sistemi di intelligenza artificiale. Le sentenze non possono essere fondate su contenuti non verificati.
- Novembre 5, 2025
- Categories: Archivio, Finanza aziendale, Fiscalità

L’uso dell’intelligenza artificiale nell’ambito giudiziario rappresenta una delle sfide più complesse dell’attuale fase di transizione digitale. La Corte di Cassazione, con la sentenza n. 34481 del 22 ottobre 2025, ha riaffermato con forza il principio secondo cui i giudici non possono utilizzare in modo acritico i risultati prodotti da strumenti di IA nella redazione delle motivazioni dei provvedimenti giurisdizionali.
Il rischio identificato dalla Suprema Corte riguarda l’abdicazione al ruolo valutativo del giudice. L’atto di attingere contenuti dall’esterno – in particolare da sistemi informatici generativi – senza sottoporli a un vaglio autonomo, compromette l’imparzialità e la terzietà del magistrato. Tale condotta mina il fondamento stesso della funzione giurisdizionale, che si basa sulla valutazione autonoma dei fatti e del diritto.
Un ulteriore campanello d’allarme arriva dalla sentenza n. 25455 del 10 luglio 2025, con cui la Cassazione ha annullato una pronuncia di merito fondata su precedenti giurisprudenziali inesatti o inesistenti, con ogni probabilità ricavati tramite IA senza il necessario controllo umano. Anche se la Corte non ha esplicitamente attribuito tale errore all’uso di sistemi di IA, l’evidente carenza motivazionale suggerisce un utilizzo disinvolto di strumenti automatizzati.
Dal 10 ottobre 2025 è in vigore l’art. 15 della Legge 132/2025, che vieta espressamente l’uso dell’intelligenza artificiale per funzioni decisionali in ambito giudiziario. In particolare, il magistrato non può delegare a sistemi automatizzati le attività connesse all’interpretazione normativa, alla valutazione delle prove e all’adozione del provvedimento. L’articolo distingue nettamente tra ciò che può essere delegato e ciò che resta esclusivo dominio della razionalità umana.
La norma lascia tuttavia uno spazio operativo all’IA nell’ambito delle attività amministrative accessorie, come l’organizzazione dei servizi giudiziari o il supporto nella ricerca documentale. Tuttavia, anche in questi ambiti, secondo quanto riportato nelle “Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia” approvate dal CSM l’8 ottobre 2025, ogni output dovrà essere verificato e interpretato dal giudice in modo critico. Non è ammesso l’utilizzo esclusivo dell’output di IA come base della decisione.
La finalità del legislatore è chiara: evitare che si affermi una “giustizia predittiva” dove le decisioni vengono prese o indirizzate da modelli algoritmici non trasparenti, con il rischio di ledere il diritto di difesa e la personalizzazione del giudizio.
A livello sistemico, emerge anche la necessità di regolare le banche dati giurisprudenziali alimentate dall’intelligenza artificiale. Queste dovranno garantire aggiornamento, neutralità e supervisione umana nella selezione e classificazione delle fonti. Un dato errato o fuori contesto può compromettere l’intera motivazione di una sentenza se non viene filtrato da un controllo umano competente.
Alla luce di tali orientamenti, l’impiego dell’intelligenza artificiale in sede giudiziaria, se non accompagnato da un utilizzo consapevole e responsabile, può tradursi in una grave violazione del dovere professionale del magistrato. La Cassazione non esclude che un uso scorretto dell’IA possa integrare una responsabilità disciplinare per negligenza grave, specie nei casi in cui emerga una delega sostanziale e non solo formale al sistema automatizzato.
In sintesi, il giudice può usare strumenti di IA come supporto, ma non può mai rinunciare al proprio ruolo di garante del diritto. L’intelligenza artificiale non può diventare un surrogato del giudizio umano. Il rischio non è tecnologico, ma etico e giuridico.
Il Team Noverim Legal STA
(riproduzione riservata)
Ricevi gli approfondimenti direttamente nella tua mail!
Iscriviti alla newsletter!
Contatta i Professionisti NoverimLegal