Negli ultimi giorni OpenAI ha pubblicato un nuovo paper dal titolo “Why Language Models Hallucinate” (settembre 2025), che analizza in profondità una delle sfide più note dell’intelligenza artificiale: le allucinazioni.

Cosa significa “allucinazione” in un modello IA?
Con questo termine si indica la tendenza dei modelli linguistici a fornire risposte plausibili ma errate, invece di ammettere di non sapere.
È un comportamento molto diverso da quello umano: mentre una persona può dichiarare la propria incertezza, un modello di linguaggio preferisce spesso “inventare” una risposta, con il rischio di confondere chi legge.
Perché succede?
Secondo OpenAI, il problema nasce in due momenti fondamentali dell’addestramento:
- Pretraining (fase di apprendimento iniziale):
Anche se i dati di addestramento fossero perfetti, gli obiettivi statistici che guidano l’apprendimento spingerebbero i modelli a commettere errori inevitabili. Per molte domande (es. date di nascita poco note), il modello non ha abbastanza informazioni e tende a “indovinare”. - Post-training (fase di ottimizzazione):
Qui il modello viene migliorato per dare risposte più utili. Tuttavia, la maggior parte delle valutazioni attuali penalizza le risposte incerte (“non lo so”), mentre premia quelle sicure anche quando sbagliate. In altre parole, i modelli vengono incentivati a comportarsi come “studenti che bluffano a un esame”, piuttosto che come professionisti attenti alla veridicità delle informazioni.
La proposta di OpenAI
Per ridurre le allucinazioni, gli autori suggeriscono di modificare i sistemi di valutazione: i modelli dovrebbero essere incoraggiati a riconoscere e comunicare l’incertezza, senza essere penalizzati per questo.
Meglio un “non lo so” onesto, che una risposta inventata ma convincente.
E nel settore legale?
Per gli avvocati e i professionisti del diritto, il rischio di ricevere informazioni imprecise o inventate non è accettabile. Una sentenza citata erroneamente o un principio giuridico distorto possono avere conseguenze molto serie.
Ecco perché sententIA nasce con un approccio diverso:
✔️ non fornisce risposte inventate
✔️ se non ha le informazioni necessarie, lo comunica chiaramente
✔️ privilegia la trasparenza e l’affidabilità rispetto alla “creatività”
Conclusione
Le allucinazioni nei modelli linguistici non sono un’anomalia misteriosa, ma una conseguenza diretta del modo in cui vengono addestrati. La vera sfida è modificare questo meccanismo, premiando l’IA che sa dire “non lo so”.
Con sententIA, questa filosofia è già realtà: meno rischi, più affidabilità, più sicurezza per i professionisti legali.


