allucinazione
1
In ambito AI e LLM, “allucinazione” indica l’output in cui il modello genera informazioni false, inventate o non verificabili presentandole come fatti. È un uso metaforico del termine clinico, qui applicato a errori dei modelli probabilistici dovuti a dati, ambiguità del prompt o limiti del sistema; le allucinazioni possono riguardare nomi, citazioni, date o interi racconti non reali.
Cfr. allucinare, fact check, fake news, llm, prompting
Esempi
«Dopo il fact-check abbiamo scoperto che metà del documento generato tramite AI conteneva allucinazioni dell’LLM.»