type
status
date
slug
summary
tags
category
icon
password

AI的幻觉率是衡量人工智能模型生成内容可靠性的核心指标。
幻觉的核心定义是AI模型生成看似合理但实际为虚假或编造内容的概率,即“一本正经地胡说八道”的程度。比如说,你问AI一本书的资料,你预期得到书的主要内容、分类、出版时间、作者等信息,如果AI不知道,他可能不会告诉你他没找到,而是凭空杜撰一本不存在的书的信息并分享给你。
量化计算上通常以百分比表示,例如,生成100条内容中有20条存在虚假信息,幻觉率即为20%。主要表现形式有无中生有(虚构人物、事件、文献)、张冠李戴(混淆信息)、逻辑谬误等。
AI幻觉并非程序“故意撒谎”,而是源于其底层技术原理。大模型本质上是基于海量数据(常包含错误或偏见信息)的概率预测模型,通过“预测下一个词”的方式生成内容,但并不真正“理解”含义 。当训练数据不足、有污染或遇到未知问题时,模型倾向于根据统计规律“编造”信息来填补空白。值得注意的是,更强的推理和创意能力,有时会伴随更高的幻觉率。
我们可以通过一些方法来识别和降低AI幻觉带来的风险:提升提示词质量、培养批判性思维或者利用技术手段
2025.11.21