4月14日,OpenAI正式发布代号”Spud”(土豆)的GPT-6模型。这个名字听起来接地气,但它掀起的冲击波却一点都不”土”——从底层架构到多模态能力,这是一次彻底的代际跃迁,而非GPT-5的简单迭代。
200万Token上下文:整本《三体》一次读完
GPT-6最直观的突破,是将上下文窗口拉到了200万Token,是GPT-5.4的2倍。什么概念?整部《红楼梦》、百万行代码库、10小时音频、完整高清视频——统统可以一次性塞进去,全局记忆不中断。
这意味着AI终于可以”带着记忆工作”了。无论是超长代码审查、全案法律分析,还是跨文档知识整合,GPT-6都能在一个对话窗口内完成,不再需要分段喂料、反复提醒。
MoE架构:5万亿参数只激活10%,效率飙升
GPT-6没有继续走”参数越大越强”的老路。它采用MoE(混合专家)架构,总参数5-6万亿,但每次推理仅激活10%(约5000-6000亿参数),推理速度大幅提升,能耗降低40%。
这就像一家超级公司不需要每个员工同时上班,按需调度、精准出击。算力的浪费被压缩到极致,而能力却在全面跃升。
Symphony原生多模态:告别拼接式AI
此前的大模型,多模态能力多是”文本为主、插件拼接”的模式——先理解文字,再贴图、贴音频。GPT-6引入了Symphony架构,实现原生统一多模态,文本、图像、音频、视频、3D在底层就融为一体,”五感合一”。
这不是给AI装上了眼和耳,而是让AI的”大脑”天生就同时理解一切感官输入。
幻觉率降至0.1%以下:AI第一次”不太会编”
GPT-5.4时代,幻觉率已经从GPT-4的约15%降到了6.2%。GPT-6进一步将幻觉率压到0.1%以下,数学推理准确率92.5%,代码生成通过率96.8%。
当AI”编造实际”的概率降到千分之一以下,它在金融、医疗、法律等高精度场景的可信度就不再是”勉强可用”,而是”可以信赖”。
AGI真的来了吗?
OpenAI将GPT-6定义为”冲刺AGI的关键一步”,投入超20亿美元算力(约10万张H100),耗时18个月完成预训练。综合性能较GPT-5.4提升40%,训练数据达100万亿Token。
但AGI的门槛从来不只是”更强”——自主意识、跨域泛化、持续学习,这些”G”(General)层面的突破,GPT-6到底走到了哪一步?
当一颗”土豆”开始重新定义AI的能力边界,你觉得,我们离真正的AGI还有多远?