📌 La vicenda: tribunale di Firenze, ordinanza del 14 marzo 2025
Il caso del Tribunale di Firenze rappresenta il primo episodio noto in Italia di utilizzo improprio dell’intelligenza artificiale generativa in ambito giudiziario.
Un collaboratore ha usato ChatGPT per reperire riferimenti giurisprudenziali, ma il modello ha generato sentenze inesistenti, attribuite alla Corte di Cassazione.
Tali riferimenti, mai verificati, sono stati inseriti nella memoria difensiva e successivamente riconosciuti come “allucinazioni” dal giudice.
La decisione del Tribunale
Il giudice non ha applicato alcuna sanzione, ritenendo che il riferimento alle sentenze inventate:
- non fosse volto a influenzare il collegio,
- si inserisse in una linea difensiva già fondata dalla prima fase del giudizio,
- mancasse prova del danno necessario per una condanna aggravata ex art. 96 c.p.c.
In altre parole, è stato ravvisato un errore di non controllo, ma non un comportamento doloso o grave.
Implicazioni legali e deontologiche
L’allerta sulle “allucinazioni giuridiche”
Questi errori, noti come legal hallucinations, indicano situazioni in cui l’IA inventa in modo credibile interi riferimenti o sentenze.
Responsabilità dell’avvocato
Non è consentito affidarsi passivamente all’output dell’IA. L’avvocato resta pienamente responsabile della veridicità delle fonti citate e deve supervisionare ogni contributo derivato da strumenti automatizzati.
Rischi disciplinari
Il caso conferma che l’uso non verificato dell’IA può integrare profili deontologici di responsabilità. Occorre sensibilizzare gli operatori su questo rischio crescente.
✅ Best practice: come evitare errori
- Verifica manuale delle citazioni: ogni sentenza o norma suggerita dall’IA deve essere controllata tramite fonti ufficiali.
- Prompt critico e consapevole: quando si chiede all’IA di generare contenuti legali, includere richieste di fonti verificabili.
- Formazione interna agli studi legali: sessioni di aggiornamento su limiti, opportunità e rischi dell’IA nel contesto professionale.
- Usare strumenti specifici e non generalisti: usare lo strumento giusto, come sententIA, consente di escludere la possibilità di un output basato su una sentenza inventata.
📝 Conclusione
Il caso italiano di Firenze (e il numero crescente di episodi analoghi nel mondo), dimostra quanto sia cruciale mantenere alta l’attenzione sull’impiego delle IA in ambito legale.
Non bisogna mai dimenticare che:
- L’IA è uno strumento potente, ma non infallibile.
- La supervisione umana è essenziale per garantire la credibilità e l’affidabilità degli atti giuridici.
- Sono necessarie norme chiare, formazione, policy interne e cultura digitale nei team legali.

