OpenClaw 4.22 炸裂更新:Grok全家桶来啦

内容分享2小时前发布 棂苘
0 7 0

今天凌晨,OpenClaw 正式发布了 v2026.4.22 版本。是的,你没看错——版本号已经追平了发布日期。一个拿日期做版本号的项目,多少带点不讲道理的狂气。但如果你看到它这半年来在 GitHub 上狂揽 363K 星标的轨迹,就知道这股狂气来自实力。

这个版本不是一次温吞的定期小修小补,它是一次全栈能力的大爆炸。下面我用四个关键词,带你快速读完这次更新真正值得关注的内容。


一、xAI Grok 全家桶:从图片到语音,一个没落下

如果你印象中 Grok 还只是 X(原 Twitter)上那个爱怼人的聊天机器人,那这版更新会刷新你的认知。

OpenClaw 这次一次性接入了 xAI Grok 的完整能力矩阵

图片生成——grok-imagine-image 模型正式入驻,支持直接通过聊天指令生成图片。更狠的是它还有 Pro 版本,在生成质量和分辨率上再次升级。你不用再切到 Midjourney 或其他平台,告知 OpenClaw 你的需求,它当场出图。

文本转语音——6 种声音可选,输出格式覆盖 MP3、WAV、PCM 甚至 G.711(VoIP 场景硬需求)。如果你在写自动化语音客服、播客生成或语音助手的项目,这基本是开箱即用。

语音识别——grok-stt 模型支持实时语音转录。而且 Grok 不是唯一的新面孔——Deepgram、ElevenLabs、Mistral STT 也一起进来了。Mistral 的语音识别能力本身就是开源模型里的佼佼者,目前一并打通。

说明什么?说明 OpenClaw 不再满足于做一个”聊天聚合器”,它在朝着多模态 AI 中间件进化。你给它文本,它能给你图片、语音、甚至完整的对话流。这种集成深度,才是它拿 363K 星的真实底气。


二、腾讯云 Hy3 + Amazon Mantle:中国模型的第一梯队接入

OpenClaw 这次对模型提供方的扩展,有两个消息值得单独拎出来说。

腾讯云 Hy3 preview 模型——这是腾讯混元系列的最新进展。搭配 OpenClaw 的 TokenHub 引导机制,用户可以通过统一的接口使用腾讯云的推理能力,而不需要自己拼凑 API 适配层。对于国内开发者来说,这意味着低延迟、合规强、且无需翻墙的模型接入方案正式落地。

Amazon Bedrock Mantle——Claude Opus 4.7 在云原生层面提供了更强力的托管选择。如果你在 AWS 生态里跑项目,Mantle 让部署和调用像喝口水一样自然。

还有一个不易察觉但后劲很大的更新:GPT-5 提示覆盖(Prompt Overrides)。这玩意儿的作用是,在 OpenAI、OpenRouter、Codex 三条线上统一模型行为。开发者可以在 OpenClaw 配置文件里一次性设定 GPT-5 的响风格、指令权重、甚至人格设定,然后这些规则会自动投射到所有调用 GPT-5 的通道中。大模型从”API 调用”变成了”一致的智能底座”。


三、这个版本最值得普通用户尖叫的功能

如果说前两大亮点偏向开发者和集成者,那这第三部分,几乎每个用 OpenClaw 的人都会忍不住喊一声”早该有了”。

/models add—— 聊天框就是命令行

以前你要注册一个新模型,得停掉整个服务,修改配置文件,再重启。目前?直接在聊天对话框里输入 /models add gpt-4o-turbo 就行。OpenClaw 会从模型注册表自动拉取配置并生效。

这背后实则是模型注册体系的重构——模型不再是”写死在配置里的东西”,而变成了可以热插拔的资源。这种架构思路,适合那些每天换模型、比换衣服还勤快的 AI 重度用户。

TUI 本地模式:断网也能聊

Gateway 掉了?网络没了?没问题。openclaw chat 直接拉起终端聊天,不需要网关、不需要复杂配置。这对于开发者在 SSH 环境里调试、或者临时在无网络的工作站上跑推理的场景,简直是救命稻草。而且 TUI 体验做得不差,支持多轮对话上下文,和网页端几乎无差异。

Control UI 个性化 + 诊断导出

Control UI 终于支持自定义头像和名字了——虽然是个小功能,但说明开发团队开始注意”用户体验的体面”了。想想看,你把 OpenClaw 挂在管理后台,打开页面看到的是你自己的头像,而不是冰冷的默认图标,这种感觉完全不一样。

Gateway 诊断导出则是另一种体面——当你遇到问题找社区求助时,一键导出日志+配置文件的压缩包,开发人员看到能少问三个问题。这个功能节省的时间不是几秒钟,而是几小时的来回拉扯。

WhatsApp 引用回复 + 群组 Prompt

WhatsApp 通道终于可以引用回复了——当你开着 OpenClaw 在群聊里回答问题,不再只是发一条孤零零的消息,而是可以准确指向对方的问题。配合群组自定义 prompt,不同的群可以有不同的 AI 人格和指令集。工作群严肃,闲聊群活泼,一键切换。

Claude CLI 会话持久化

Claude 的 CLI 会话在重启后依然保留——对于习惯了终端工作的用户来说,这条更新意味着断点续写不再是幻想。你前一天没讨论完的代码架构,第二天打开窗口,上下文还在。


四、藏在沉闷数字背后的硬核工程

最后这部分没有酷炫的新功能,但它决定了上面所有功能能不能稳定跑起来。

插件启动加速 82%-90%。 这不是渐进式优化,这是重写了 Jiti 的加载链路。原来一个中等规模的插件集需要 8 秒启动,目前不到 1 秒。doctor 命令运行时间减少 74%,从原来将近 20 秒的执行时间缩短到 5 秒以内。

这些数字背后,是团队对数千行核心配置加载逻辑的重构。

安全方面,这个版本打了一套组合拳:

  • dotenv 封锁:环境变量不再被非授权插件读取
  • MCP 参数过滤:防止注入式参数篡改
  • SSRF 防护加固:服务端请求伪造攻击的门被封死

另外还有 OOM 优先级调整——当内存不足时,OpenClaw 目前会优先保核心进程,而不是随机崩一个;sqlite-vec 内存搜索修复,让向量搜索在长期运行后不会内存泄漏。

大型开源项目做到这个体量后,安全性和稳定性就是它的地基。这一层打得越扎实,上面长出来的东西越有想象力。


写到最后

OpenClaw v2026.4.22 是个有意思的版本号——它是项目成熟度的分水岭。早期项目靠特性堆叠吸引用户,成熟项目靠集成深度和安全稳定留住用户。

这个版本同时做了两件事:

  1. 横向扩张——Grok 全家桶、腾讯云 Hy3、ElevenLabs STT,把能力半径拉到不能再宽
  2. 纵向深挖——热插拔模型、终端离线模式、插件加速 90%,把每一个功能的体验做到可感知的更好

© 版权声明

相关文章

7 条评论

  • 头像
    卷跳跳 读者

    腾讯云那一段没看懂,就是加了个腾讯大模型吗

    无记录
    回复
  • 头像
    字错刊 投稿者

    已升级,没问题

    无记录
    回复
  • 头像
    漫黑团长 读者

    有踩雷的虾友吗?给出来让大家避雷

    无记录
    回复
  • 头像
    muuunyu 读者

    大语言模型能生成图片吗[星星眼]

    无记录
    回复
  • 头像
    61sWeirdo 读者

    升级一次瘫痪一次

    无记录
    回复
  • 头像
    朱格麟 读者

    收藏了,感谢分享

    无记录
    回复
  • 头像
    鼠条1 读者

    @豆包 grok在这个版本是集成进去了?免费用吗?

    无记录
    回复