🧠AI LLM 基础
幻觉与能力边界
面试回答
常见问法
大模型为什么会幻觉?它的能力边界到底在哪里?
回答
幻觉的本质不是“模型故意胡说”,而是它在按概率生成最像答案的文本时,没有可靠证据约束,结果生成了看起来合理但实际错误的内容。
常见原因有:
- 训练数据不完整或有噪声
- 当前上下文证据不足
- Prompt 要求模糊
- 模型被迫“必须回答”
所以幻觉不能只靠一句“温度调低”解决,通常要靠更强的证据链,比如 RAG、工具调用、引用约束和拒答策略。
追问
- 幻觉和知识过时是同一回事吗
- 为什么低温度也会一本正经地错
- 什么任务更适合直接用模型,什么任务一定要接外部系统
原理展开
能力边界可以从三个层面讲:
- 语言生成能力很强
- 事实正确性没有天然保证
- 执行真实世界动作需要外部工具和系统约束
大模型适合:
- 总结
- 改写
- 归纳
- 提取
- 基于给定材料回答
大模型单独不适合直接兜底:
- 高确定性事实问答
- 实时数据查询
- 交易、审批、支付这类高风险动作
面试里可以直接落到工程判断: “模型擅长生成和推理,不擅长自己保证事实来源;证据、权限和执行都要靠系统补齐。”
易错点
- 把幻觉全归因给采样参数
- 以为参数调得够保守就能替代外部事实校验
- 把“表达流畅”误认为“结果可靠”
记忆技巧
记住一句话: “LLM 强在生成,不强在自证。”
控制幻觉常见三板斧:
- 给证据
- 能拒答
- 高风险接工具