+020.098.456
Have Any Questions?
+020.098.456
Have Any Questions?
Mar 26, 2026 .

Intelligenza artificiale e processo: le prime pronunce italiane sull’uso degli strumenti IA negli atti giudiziari

AI e processi

1. Intelligenza artificiale e professione legale: uno strumento sempre più diffuso

La diffusione dei sistemi di Intelligenza Artificiale ha senza dubbio coinvolto anche il mondo della professione legale: secondo uno studio del CNF, un terzo degli avvocati ne fa uso per scopi professionali. Le risorse che può offrire l’intelligenza artificiale sono molteplici e spaziano dalla ricerca, passando per la produzione e revisione documentale, fino ad arrivare alla redazione di veri e propri atti giudiziari.

I vantaggi legati all’utilizzo dell’IA sono indubbi: efficienza, rapidità di ricerca, automazione. Ma occorre tenere in considerazione anche i rischi, sempre crescenti, che tali sistemi comportano, anche a causa dei meccanismi alla base dell’addestramento degli algoritmi: errori e allucinazioni dei modelli di IA, che possono inventare sentenze o precedenti inesistenti, citare norme in modo errato o fuori contesto, fornire analisi giuridiche plausibili ma sbagliate; violazione della riservatezza e del segreto professionale, mancanza di aggiornamento o bias e distorsioni.

Il problema si riduce, in sostanza, a una questione di affidabilità degli output generati dai sistemi di IA. L’AI Act europeo prima, e la normativa italiana poi (L. 132/2025), hanno tentato di arginare questo problema, quantomeno a livello generale, introducendo – tra gli altri – il principio della supervisione umana (human oversight), ossia la necessità che l’intervento umano sia in grado di monitorare, valutare e, se del caso, correggere o interrompere il funzionamento dei sistemi di IA e i relativi output.

In questo contesto, alcuni Ordini degli Avvocati e il CCBE (il Consiglio degli Ordini Forensi d’Europa), hanno diffuso linee guida specifiche per gli avvocati, affinché possano integrare l’utilizzo dell’IA nell’attività professionale senza compromettere la qualità del proprio lavoro e il prestigio della categoria, con un approccio etico e trasparente per garantire l’efficacia della difesa e la privacy dei dati.

2. Le prime pronunce sull’uso dell’Intelligenza Artificiale

Con il diffondersi dei sistemi di Intelligenza Artificiale, non sono mancate anche le prime pronunce italiane legate all’uso di questa tecnologia nella redazione degli atti giudiziari.

Se da un lato, come si anticipava, tali sistemi costituiscono un prezioso strumento ad ausilio dell’avvocato, dall’altro è bene ricordare che si tratta pur sempre di un ausilio, e non di un mezzo in grado di sostituire l’attività professionale.

Ed è proprio tale discrimine che è stato evidenziato dalle prime decisioni di alcuni Tribunali italiani.

Nel caso oggetto del provvedimento del 20 febbraio 2026 del Tribunale di Ferrara, parte ricorrente aveva allegato un documento denominato “Conversazione con ChatGPT” (il quale peraltro non riportava nemmeno il quesito oggetto della richiesta formulata all’IA) senza chiarire né quale fosse lo scopo della produzione di tale documento né la valenza probatoria che si intendesse attribuire al medesimo; a ciò si aggiunga, inoltre, che il documento riportava giurisprudenza per nulla inerente ai fatti di causa. Appare evidente, pertanto, che un controllo umano degli output generati dai sistemi IA sia non solo opportuno, ma anche ispirato alla più pura etica professionale che contraddistingue la professione dell’avvocato. “Invero – conclude il giudice del citato provvedimento – trattasi di una produzione da considerarsi tamquam non esset, neppure qualificabile come prova atipica, essendo priva di qualsivoglia utilità, vista la mancanza del quesito proposto al chatbot, ma anche della doverosa (e non solamente opportuna) verifica dei riferimenti approntati da ChatGPT”.

Il Tribunale di Siracusa, invece, con la sentenza n. 338 del 20 febbraio 2026, solleva un ulteriore punto rilevante, legato alle “allucinazioni” dei sistemi di IA. Nel caso di specie, parte attrice richiamava quattro precedenti giurisprudenziali, riportandone tra virgolette alcuni passaggi presentati come testuali, i quali, tuttavia, non trovavano riscontro in alcuna decisione effettivamente esistente. Il giudice, attraverso un percorso argomentativo particolarmente puntuale, ha dapprima escluso un eventuale malfunzionamento delle banche dati, quindi l’ipotesi di un mero errore di trascrizione e, infine, persino quella di una deliberata invenzione. È proprio tale progressiva esclusione a condurre al cuore della decisione: “l’unica ipotesi residua, e al tempo stesso la più compatibile con la fenomenologia concreta del caso, è che il difensore si sia avvalso di uno strumento di intelligenza artificiale generativa senza sottoporre gli output ottenuti alla doverosa verifica sulle fonti primarie”. È evidente, anche in questa occasione, come l’utilizzo di sistemi di IA possa comportare dei rischi, se non utilizzato con le accortezze necessarie. Ma vi è di più: da un punto di vista strettamente processuale, il giudice ha ritenuto che “l’utilizzazione acritica di tali strumenti, senza la doverosa verifica dell’attendibilità degli output mediante consultazione delle fonti primarie […], integr[i] gli estremi della colpa grave”, che giustifica l’applicazione della sanzione di cui all’art. 96 c.p.c.

Alla medesima conclusione giungeva il Tribunale di Torino – Sezione Lavoro, con la sentenza del 16 settembre 2025.

Nel caso di specie, il Tribunale ha esaminato un ricorso in opposizione a un’ingiunzione di pagamento redatto “col supporto dell’intelligenza artificiale” e lo ha ritenuto manifestamente infondato, evidenziando come esso si risolvesse in un “coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio”.

Pur senza porre in discussione, in sé, l’utilizzo di strumenti di IA, il Giudice ha quindi messo in luce i rischi connessi a un loro impiego acritico e, anche in questo caso, ha ritenuto applicabile l’art. 96 c.p.c.

3. Il principio affermato dai tribunali e le implicazioni per i professionisti

Alla luce delle citate pronunce – cui verosimilmente se ne aggiungeranno di ulteriori e concordi nel corso dei prossimi mesi – emerge con crescente chiarezza un orientamento comune della giurisprudenza. Le Corti, pur dimostrando apertura nei confronti delle innovazioni tecnologiche e riconoscendo il potenziale dell’intelligenza artificiale quale strumento di supporto all’attività professionale, escludono in modo netto che essa possa essere qualificata come “fonte giuridica”.

L’intelligenza artificiale, infatti, non è in grado di produrre diritto in senso proprio, né può essere assimilata alle fonti normative o giurisprudenziali tradizionalmente riconosciute dall’ordinamento. Essa si configura piuttosto come un sofisticato strumento di elaborazione e generazione linguistica, basato su modelli probabilistici, che restituisce contenuti caratterizzati da un elevato grado di plausibilità, ma non necessariamente da attendibilità giuridica. In altre parole, l’IA generativa non conosce il diritto nel senso umano del termine, ma assembla sequenze di testo che, sulla base di quanto appreso in occasione del suo addestramento, appaiono plausibili, ma non per forza giuridicamente esatti. In tale prospettiva, rileva in modo particolare il noto fenomeno delle cosiddette “allucinazioni”, ossia la produzione di informazioni inesatte, non verificabili o addirittura inesistenti, che possono riguardare norme, precedenti giurisprudenziali o riferimenti dottrinali.

Proprio in ragione di tali limiti strutturali, le Corti sottolineano l’indispensabilità di un controllo umano qualificato. Solo l’intervento del professionista del diritto è in grado di verificare la correttezza delle informazioni generate, contestualizzandole nel sistema normativo vigente e attribuendo loro un significato giuridicamente rilevante. L’intelligenza artificiale, dunque, non sostituisce il giurista, ma si inserisce come strumento ausiliario, il cui utilizzo richiede competenza, senso critico e responsabilità.

In questo quadro, spetta all’avvocato – attraverso il ricorso a fonti normative e giurisprudenziali certe, aggiornate e attendibili – valutare, confermare o disattendere gli output prodotti dall’IA, assumendosi la piena responsabilità delle scelte difensive e degli atti redatti. Ne deriva che l’uso dell’intelligenza artificiale, pur potendo contribuire ad aumentare l’efficienza e la rapidità dell’attività forense, non può in alcun modo incidere sui principi fondamentali della professione, tra cui il dovere di diligenza, competenza e verifica delle fonti, essendo evidente come da un uso errato dall’IA possano derivare anche delle importanti conseguenze di tipo deontologico, con conseguente rischio per il professionista di incorrere in responsabilità disciplinari.

Contatti

+39.02.66010054
info@slvg.it

Uffici

Corso Venezia, 10 - 20121 Milano
Largo Fontanella Borghese, 84 - 00186 Roma
Viale Gramsci, 5 - 80122 Napoli
Piazza Eremitani, 18 - 35121 Padova