用语义熵在大模型中检测幻觉

图灵汇官网

探索大语言模型的不确定性与虚构检测

在当今技术快速发展的时代,大语言模型(LLM)如ChatGPT和Gemini等在推理和问答领域的表现令人瞩目,但同时也伴随着潜在的风险——生成虚假和未经验证的输出。这类输出不仅可能削弱其在法律、新闻和医疗等专业领域的应用可信度,甚至有可能对人类决策和健康产生负面影响。为应对这一挑战,研究者们正积极寻求解决方案,旨在提升LLM的可靠性。

识别与应对虚构内容

虚构内容指的是LLM生成的错误或任意表述,这类表述既不正确也不符合实际情境。例如,在回答关于药物索托拉西布的靶点时,LLM可能会给出看似合理的但实际上是错误的答案。这种现象揭示了LLM在处理复杂知识领域时存在的局限性。

解决思路与方法

  • 开发不确定性估计器:通过统计学方法,研究人员提出了一种基于熵的不确定性估计器,旨在检测虚构内容。这种方法无需依赖特定任务的数据集,具备跨任务应用的潜力,为用户在使用LLM时提供了更为谨慎的指导。

  • 语义熵的引入:为检测虚构,研究者利用概率工具定义并测量了语义熵——一种量化句子意义不确定性的指标。高语义熵对应着更高的不确定性,从而成为评估LLM输出可靠性的有力工具。

  • 算法聚类与蕴含判断:通过算法性地聚类具有相似意义的答案,并利用双向蕴含判断来识别是否属于同一语义簇,语义熵方法得以有效识别虚构内容。这一过程结合了通用LLM和专门的自然语言推理工具,实现了对答案意义分布的准确估计。

效果与应用

实验结果表明,语义熵方法在不同语言模型和领域内的自由文本生成中均能有效检测虚构内容,且无需额外的领域知识。该方法不仅在知识问答、生命科学、自然问题、数学题目和传记生成等多个数据集中显示出良好性能,而且在预测错误答案和提高问答准确性方面展现出显著优势。

未来展望

随着大语言模型能力的不断提升,有效检测和管理虚构内容成为亟待解决的关键问题。通过引入语义熵等概率方法,研究者不仅提升了LLM输出的准确性,也为用户提供了更为可靠的决策支持。未来,随着技术的进一步发展,预计会有更多创新性的解决方案涌现,以应对这一挑战,确保LLM在各类应用场景中的安全与有效性。

本文来源: 图灵汇 文章作者: 梁有崴