Il plenum del Consiglio Superiore della Magistratura ha deciso di porre un freno deciso all’utilizzo dell’intelligenza artificiale nella redazione delle sentenze. La decisione arriva dopo due procedimenti sospetti e numerosi casi di ricorsi con citazioni inesistenti, che hanno acceso un dibattito sulla correttezza e sull’affidabilità dell’IA in ambito giudiziario.
Stop alle sentenze “automatiche”
L’Ai Act europeo 2024/1689 e la legge 132 del 23 settembre scorso considerano l’uso della tecnologia nella giustizia “ad alto rischio” e vietano decisioni basate unicamente su un trattamento automatizzato. Alla luce di queste norme, il Csm avverte i giudici: chi sceglie scorciatoie rischiose affidandosi a software generativi come ChatGPT, Copilot, Gemini o Perplexity si assume la piena responsabilità delle proprie decisioni.
I casi che hanno acceso l’allarme
Presso la Procura della Cassazione pendono due procedimenti nei confronti di giudici che avrebbero emesso sentenze citando precedenti inesistenti. In un caso, il Procuratore Generale ha avviato un’azione disciplinare per grave e inescusabile negligenza. Inoltre, due avvocati sono stati condannati a Torino e a Latina per lite temeraria, dopo aver presentato ricorsi redatti con ChatGPT contenenti citazioni astratte e inconferenti.
L’indipendenza giudiziaria resta sacra
Secondo la proposta elaborata dalla settima Commissione del Csm, la responsabilità delle decisioni non può essere delegata. Il giudice che firma la sentenza risponde personalmente, nel rispetto dei principi di indipendenza, imparzialità e responsabilità sanciti dagli articoli 101 e 104 della Costituzione. I software generativi sono quindi considerati strumenti fuorilegge in ambito giudiziario, anche se l’IA potrebbe essere stata utile per smaltire il pregresso: entro il 31 dicembre 2024, infatti, le pendenze erano calate del 91,7% rispetto all’obiettivo richiesto del 95%.
Un segnale chiaro
Il Csm lancia un messaggio chiaro: l’innovazione tecnologica non può mai sostituire la valutazione critica, l’esperienza e la responsabilità del magistrato. L’uso improprio dell’IA in tribunale non solo mette a rischio la legalità, ma mina anche la fiducia dei cittadini nella giustizia.









