• allucinazione

    1

    In ambito AI e LLM, “allucinazione” indica l’output in cui il modello genera informazioni false, inventate o non verificabili presentandole come fatti. È un uso metaforico del termine clinico, qui applicato a errori dei modelli probabilistici dovuti a dati, ambiguità del prompt o limiti del sistema; le allucinazioni possono riguardare nomi, citazioni, date o interi racconti non reali.

    Cfr. allucinare, fact check, fake news, llm, prompting

    Esempi

    • «Dopo il fact-check abbiamo scoperto che metà del documento generato tramite AI conteneva allucinazioni dell’LLM.»

Aggiungi una definizione