报告聚焦 AI 幻觉从模型技术问题升级为制度性、系统性风险的核心议题结合 NIST、英美监管机构及医疗、政务、教育等场景实践明确幻觉的定义、成因、风险与可落地治理方案核心结论为幻觉无法彻底消除需通过技术 制度复合治理实现可识别、可约束、可追责。关注公众号【互联互通社区】回复【AI984】获取全部报告内容。报告指出AI 幻觉本质是生成 — 采信 — 执行链条的系统性风险而非模型单点错误。NIST 将其定义为模型自信输出错误、虚假内容涵盖事实、逻辑、引用、语境、行动、遗漏六大类型其中引用性幻觉易造成组织知识污染行动性幻觉在 Agent 场景会引发流程误触高权威品牌如政务、医疗会因用户过度信任放大幻觉危害。同时抑制幻觉存在遗漏 — 幻觉跷跷板效应强护栏可降低幻觉率但会提升遗漏与拒答率需按场景动态平衡。幻觉无法根除的核心根因有五点一是模型基于统计概率生成文本而非对接外部真值二是通用模型存在专业知识断层三是提示不充分导致模型强行补全答案四是组织追求回复速度与完整感抬高误信概率五是检索 — 生成错配RAG 仅能降低幻觉无法根治。此外实验室基准分数无法反映真实风险幻觉测量需结合发生概率、严重度、可发现性与业务场景高风险场景的错误后果远大于普通场景。治理层面报告提出幻觉治理六层栈与H3M 成熟度模型明确组织需分阶段落地30 天识别低置信高伤害区锁定健康、安全、财务等高风险任务60 天搭建知识锚定体系接入受控知识库与 RAG设置拒答机制90 天完善人工复核与日志制度避免 “责任折返门”确保复核有否决权、可追溯。同时官方监管框架达成三大共识幻觉需持续治理而非一次性解决高风险场景必须人工在环内容需可标识、可追溯。Agent 场景需融合抑幻觉与安全工程防范提示注入、数据投毒等边界风险。最终报告强调幻觉治理的核心是从 “追求完美模型” 转向 “建设长期控制体系”组织竞争力不在于模型 “无所不知”而在于能在高风险场景主动止步通过证据链、流程链、责任链的协同实现生成式 AI 的安全可控落地。以下是报告部分内容声明来源清华大学互联互通社区推荐阅读版权归作者所有。文章内容仅代表作者独立观点不代表互联互通社区立场转载目的在于传递更多信息。如涉及作品版权问题请联系我们删除或做相关处理关注公众号【互联互通社区】回复【AI984】获取全部报告内容。