🧠AI LLM 基础

幻觉与能力边界

面试回答

常见问法

大模型为什么会幻觉?它的能力边界到底在哪里?

回答

幻觉的本质不是“模型故意胡说”,而是它在按概率生成最像答案的文本时,没有可靠证据约束,结果生成了看起来合理但实际错误的内容。

常见原因有:

  • 训练数据不完整或有噪声
  • 当前上下文证据不足
  • Prompt 要求模糊
  • 模型被迫“必须回答”

所以幻觉不能只靠一句“温度调低”解决,通常要靠更强的证据链,比如 RAG、工具调用、引用约束和拒答策略。

追问

  • 幻觉和知识过时是同一回事吗
  • 为什么低温度也会一本正经地错
  • 什么任务更适合直接用模型,什么任务一定要接外部系统

原理展开

能力边界可以从三个层面讲:

  1. 语言生成能力很强
  2. 事实正确性没有天然保证
  3. 执行真实世界动作需要外部工具和系统约束

大模型适合:

  • 总结
  • 改写
  • 归纳
  • 提取
  • 基于给定材料回答

大模型单独不适合直接兜底:

  • 高确定性事实问答
  • 实时数据查询
  • 交易、审批、支付这类高风险动作

面试里可以直接落到工程判断: “模型擅长生成和推理,不擅长自己保证事实来源;证据、权限和执行都要靠系统补齐。”

易错点

  • 把幻觉全归因给采样参数
  • 以为参数调得够保守就能替代外部事实校验
  • 把“表达流畅”误认为“结果可靠”

记忆技巧

记住一句话: “LLM 强在生成,不强在自证。”

控制幻觉常见三板斧:

  1. 给证据
  2. 能拒答
  3. 高风险接工具