
2023年5月,纽约联邦法院上演了戏剧性的一幕:律师提交的法律文书包含了6个由ChatGPT杜撰的法律判例。这个标志性事件揭开了人工智能发展历程中的重大课题——AI幻觉现象。
所谓AI幻觉(AI Hallucination),指的是人工智能系统在生成内容时,产生的看似合理但实际上错误、虚构或不存在的信息。这些内容可能表现为编造实际、虚构数据、引用不存在的文献,甚至创造出逻辑矛盾的描述。
AI幻觉在主流的各种问答式AI中都有表现。当初ChatGPT震撼问世时,就曾出现过逻辑清晰地证明9是质数的错误,而被马斯克称为“地球上最机智的AI”的Grok 3也在“比较9.9和9.11大小”时出错。当然,在这个经典AI陷阱面前翻车的还有大名鼎鼎的ChatGPT-4o和Gemini。“人类认为最容易的,恰是AI最难实现的。”日常问题也同样面临AI的幻觉:我向AI询问一个不出名的地点如何到达,查阅不到准确资料的AI竟然编造虚假信息,并信誓旦旦地为我导航;当用一个截图向三个AI询问一个关于图形旋转的几何问题时,其中一个给出了错误结论,并在我的反驳中坚持己见,我不得不拿出另外两个AI的正确解法给它,它才承认自己的错误,并主动分析出错的缘由。当我们注视着AI聊天界面流畅输出的文字时,是否意识到在这些看似逻辑严密的回答中,可能暗藏着机器认知的海市蜃楼呢?
图灵奖得主杨立昆今年3月在美国联合数学会议上尖锐地指出:“自回归大语言模型(LLM)注定淘汰!用预测下一个词的方法造AGI,就像用算盘登陆火星!”自回归模型的核心逻辑是根据前文预测下一个词(Token),这种机制的致命缺陷就是,每个预测的微小误差都会随着文本生成呈指数级爆炸。深度神经网络的数十亿参数编织着独特的认知图景,Transformer架构的自注意力机制将训练数据中的语义碎片编织成连贯文本,在赋予AI强劲创造力的同时,也埋下了幻觉的种子:当上下文关联超过模型理解阈值时,系统会启动概率补偿机制,用统计学最优解填补认知空白。
大语言模型通过上千亿Token的语料库学习人类表达范式,但数据中的偏见、错误与时代局限性都被编码进模型参数,形成认知烙印。若训练数据中类似问题未被充分覆盖或标注,模型可能无法正确归纳,从而强行拼图,在语义补全冲动下制造出逻辑自洽的合理虚构。这也反映了当前AI模型的一个局限性,即依赖大量数据和特定训练,而缺乏真正的常识推理能力。类似问题还有AI生成人物图片时常常出现的6根手指。
在医疗咨询场景中,某AI系统曾给出“糖尿病可用胰岛素鼻腔喷雾治疗”的虚假方案,这种专业领域的幻觉输出可能造成严重后果。教育领域同样面临挑战,如学生提交的AI生成论文中频繁出现“幽灵引用”,这种现象会摧毁知识传播的信任基础,增加AI普及的隐性社会代价。
为了对抗AI幻觉,众多AI公司正努力构建可信AI的进化图景:DeepSeek的混合专家系统(MoE)通过动态路由机制,将问题分配给专业子模型处理,相比传统Transformer架构可将实际错误率降低40%;OpenAI的“过程监督”系统对推理链进行逐步验证,这种培养式训练使GPT-4的逻辑严谨性提升3倍;谷歌的PaLI-X模型通过视频帧序列分析验证文本描述的真实性,这种跨模态纠错机制将幻觉发生率压缩至0.3%以下;IBM的Neuro-Symbolic AI将深度学习与知识推理分离又整合,在保持创造力的同时实现逻辑可验证。
在这场人机共生的认知革命中,AI迷之自信的幻觉正是技术黎明期的成长阵痛,标记着技术进化的必经阶段,其最终将走向更可信、更具人文关怀的人工智能未来。
本文作者:
邱元阳
河南省安阳县职业中专
文章刊登于《中国信息技术教育》2025年第09期
引用请注明参考文献:
邱元阳.AI的幻觉[J].中国信息技术教育,2025(09):22.



