ChatGPT non è una prova giuridica: l’errore degli avvocati che può costare caro
Il Tribunale di Ferrara stabilisce che le risposte di ChatGPT non possono costituire prova in tribunale. Gli avvocati rischiano sanzioni e spese se le usano senza supervisione.

Si può usare ChatGPT durante un processo? Domanda più che legittima, dal momento che l’intelligenza artificiale è ormai impiegata ovunque, anche al di fuori dal mondo aziendale e domestico. Tuttavia, secondo una recente ordinanza del Tribunale di Ferrara, non solo l’IA non può essere impiegata come prova, ma il suo utilizzo può essere altamente rischioso.
Vediamo bene tutta la vicenda dietro, e perché l’avvocato può rischiare grosso.
- ChatGPT non è una prova giuridica secondo il Tribunale di Ferrara
- L'errore che gli avvocati non devono commettere con l'IA
- In quali casi un chatbot può essere adoperato
ChatGPT non è una prova giuridica secondo il Tribunale di Ferrara
Tutto ha avuto inizio con un ricorso relativo a un incidente stradale mortale, in cui un avvocato ha deciso di allegare agli atti una chat con ChatGPT, presentandola come se fosse documentazione legale.
Una produzione di testi che il giudice del Tribunale ha definito “neppure qualificabile come prova atipica, essendo priva di qualsivoglia utilità, vista la mancanza del quesito proposto al chatbot, ma anche della doverosa (e non solamente opportuna) verifica dei riferimenti approntati da ChatGPT“.
Particolare rilievo è stato dato all’incompletezza strutturale del materiale depositato. L’avvocato aveva infatti presentato solo le risposte dell’IA, tralasciando i cosiddetti prompt. Un dettaglio tutt’altro che marginale: senza conoscere la domanda, la risposta perde completamente il suo contesto interpretativo.
Senza contare il rischio delle cosiddette allucinazioni. Sempre nella sentenza viene fatto notare come l’IA anche oggi, possa generare informazioni verosimili ma completamente false. Nel caso esaminato a Ferrara, il chatbot aveva citato sentenze che, verificate nelle banche dati ufficiali, risultavano riguardare materie del tutto diverse.
L’errore che gli avvocati non devono commettere con l’IA
La sentenza non si è limitata a dichiarare l’inammissibilità del ricorso, con il ricorrente condannato a pagare oltre 1.700 euro di spese di lite.
È emerso anche un avviso rilevante per tutti i professionisti che utilizzano, o intendono utilizzare, l’IA nel proprio lavoro. Come evidenziato dalla sentenza, la Legge n. 132/2025, all’articolo 13, comma 2, obbliga il professionista a informare esplicitamente il cliente qualora ricorra a sistemi di IA nell’attività di consulenza legale. Nel caso in esame, questa comunicazione era del tutto assente.
A ciò si aggiunge il principio di supervisione umana, sancito a livello europeo dal Regolamento UE n. 2024/1689, secondo cui il professionista deve mantenere il controllo finale su ogni atto prodotto con il supporto dell’IA.
In una situazione del genere, con un intero lavoro privo di revisione e trasparenza, le conseguenze potrebbero arrivare addirittura essere penali. La sentenza richiama infatti la possibilità di applicare la condanna per lite temeraria prevista dall’art. 96 del c.p.c., destinata ai casi in cui la difesa risulti palesemente infondata o gestita con colpa grave, come già stabilito dalla sentenza 1034/2025 del Tribunale di Latina.
In quali casi un chatbot può essere adoperato
È bene chiarire fin da subito che con questa sentenza non si vuole bandire l’IA dal mondo forense. Semmai si vuole ridefinirne i limiti, visto il contesto delicatissimo come quello dei processi, relegandola a semplici operazioni redazionali , al massimo.
Creare invece un prompt per ottenere fonti giuridiche senza verificarle è anzi altamente rischioso: lo stesso giudice sottolinea “l’intrinseca inaffidabilità dei riferimenti giurisprudenziali citati dalle IA“. Per questo motivo, l’IA non deve essere impiegata per gestire il procedimento né per la redazione di atti difensivi o altri elementi delicati della pratica legale.
Insomma, per usare le parole della sentenza, “salvo che, in un futuro, le intelligenze artificiali raggiungano livelli di sviluppo più avanzati in ambito giuridico, fino ad allora, non è ammissibile che “le loro “risposte” assurgano a prova – nemmeno atipica – di un fumus di fondatezza della pretesa azionata in giudizio“.
FAQ
Secondo il Tribunale di Ferrara no: le risposte del chatbot, senza prompt e verifiche, non sono ammissibili come prova.
Sì: la Legge n.132/2025 richiede di informare il cliente quando si utilizza l'IA nella consulenza legale.
Solo come semplice supporto in attività di poco conto, e sempre con supervisione umana: non per elementi decisivi come atti processuali o gestione del procedimento.
Rischia responsabilità professionale e perfino accuse di lite temeraria per colpa grave.



















