【论文笔记】A Survey of Hallucination in “Large” Foundation Models
总述基础模型(FoundationModels)指的是通过自监督学习在大量未标记数据上训练的大规模AI模型,能够在各种各样的任务中表现出色。在基础模型的背景下,幻觉(Hallucination)是指模型生成的内容不是基于事实或准确信息的情况。当模型生成的文本包括虚构的、误导性的、或完全捏造的细节、事实或主张,而不是提供可靠和真实的信息时,就会发生幻觉。之所以会出现这个问题,是因为模型能够根据它从训