allucinare
1
"Allucinare", nel contesto di AI e LLM, significa generare contenuti falsi, inventati o non verificabili presentandoli come reali. È un uso metaforico del termine clinico, applicato a errori dei modelli generativi dovuti a limiti del sistema, ambiguità del prompt o dati incompleti.
Cfr. allucinazione, fact check, fake news
Esempi
«L’AI ha allucinato un’intera biografia dell’autore che non esiste.»
«Abbiamo confrontato le fonti perché il modello ha allucinato metà dei dettagli.»