• allucinare

    1

    "Allucinare", nel contesto di AI e LLM, significa generare contenuti falsi, inventati o non verificabili presentandoli come reali. È un uso metaforico del termine clinico, applicato a errori dei modelli generativi dovuti a limiti del sistema, ambiguità del prompt o dati incompleti.

    Cfr. allucinazione, fact check, fake news

    Esempi

    • «L’AI ha allucinato un’intera biografia dell’autore che non esiste.»

    • «Abbiamo confrontato le fonti perché il modello ha allucinato metà dei dettagli.»

Aggiungi una definizione