OpenClaw 2026.4.22 版本更新:更丰富的模型、更流畅的对话和更可靠的运行

如果你正在使用 OpenClaw 搭建自己的智能对话代理或自动化工作流,那么这次更新值得你花时间了解。2026 年 4 月 22 日发布的版本带来了大量实质性的改进:新增了 xAI 的完整能力、更灵活的模型管理、更稳定的消息发送,以及对诸多主流服务和插件的深度优化。

下面我会用平实的语言,把这次更新中最值得关注的变化讲清楚,帮助你快速判断哪些内容对自己的使用场景最有价值。

这次更新主要解决了什么问题?

说白了,OpenClaw 作为一个连接多种聊天渠道、大语言模型和自动化工具的“中枢”,它的核心任务就是让消息和指令能够可靠、高效地流转。这次更新围绕三个方向做了大量工作:

  1. 扩展能力边界:加入新的 AI 服务商(比如 xAI 的 Grok 系列),支持更多媒体类型(图像生成、语音识别与合成)。
  2. 提升日常使用的流畅度:修复了大量导致消息重复、会话中断、配置丢失的 bug,让长时间运行更稳定。
  3. 让配置和管理更灵活:新增命令行工具、改进模型添加方式、优化配置合并逻辑,减少重启服务的频率。

接下来我们分块看具体内容。

一、新增的 AI 服务能力:xAI 全系支持

在本次更新中,xAI 被正式纳入 OpenClaw 的供应商列表,而且不仅仅是文本对话。你现在可以通过 OpenClaw 直接调用 Grok 模型的以下能力:

能力类型 具体功能
图像生成 grok-imagine-imagegrok-imagine-image-pro,支持基于参考图片进行编辑
文本转语音(TTS) 六种实时语音,支持 MP3、WAV、PCM、G.711 等格式输出
语音转文本(STT) grok-stt 音频转录,以及在语音通话流中的实时转录

这意味着,如果你原本在 OpenClaw 中使用其他供应商的 TTS 或 STT,现在多了一个来自 xAI 的选择。特别是图像生成功能,可以直接在对话中让 Grok 根据描述生成或修改图片,而无需切换到其他工具。

二、语音通话流中的实时转录得到加强

实时语音转录(STT)在本次更新中是一个跨供应商的改进点。除了原有的 OpenAI 和 xAI 路径,现在 Deepgram、ElevenLabs 和 Mistral 也支持在语音通话流中进行实时转录。简单说,当你的 OpenClaw 接收到一段实时音频流(比如来自网页或电话的语音),这些供应商可以边接收边输出文字,而不是等整段音频结束才开始处理。

同时,ElevenLabs 还增加了 Scribe v2 批量音频转录 能力,适用于处理已上传的音频文件(例如语音邮件或会议录音)。

三、终端聊天界面(TUI)新增本地嵌入式模式

对于不喜欢或者不方便使用网页控制面板的用户,这次更新在 TUI(终端用户界面)中增加了一个 本地嵌入式模式。它的作用是:

  • 🍄
    你可以在不启动 Gateway 的情况下,直接在终端里进行对话。
  • 🍄
    插件审批等安全规则依然生效,不会因为跳过 Gateway 而绕过权限控制。

这个模式特别适合在服务器上快速测试对话逻辑,或者在没有图形界面的环境中使用 OpenClaw。

四、模型管理:终于可以动态添加模型了

过去,如果你想在 OpenClaw 里使用一个新模型,往往需要编辑配置文件并重启 Gateway。新版本带来了两个重要的命令改进:

  1. /models add <provider> <modelId>
    直接从聊天中注册一个新模型,无需重启。添加后立刻可以选用。

  2. /models 命令重新设计
    它现在主要作为一个“模型浏览器”,方便查看当前可用的模型列表。同时增加了更清晰的添加引导和便于复制粘贴的命令示例。

此外,当你通过 openclaw models auth login 重新认证某个 OAuth 供应商(比如 OpenAI Codex)时,系统会合并新获得的默认模型,而不是抹掉其他供应商的已有配置。只有在你主动设置了 replaceDefaultModels 标记时才会替换。这避免了反复登录导致常用的模型别名丢失。

五、WhatsApp 方面的改进

对于使用 WhatsApp 渠道的用户,这次有两个比较贴心的变化:

  • 🍄
    可配置的回复引用:新增 replyToMode 选项,让你可以控制当 OpenClaw 在 WhatsApp 中回复消息时,是否以及如何引用原消息。这让群聊中的上下文更清晰。
  • 🍄
    每个群组和私聊独立设置系统提示词:你可以为不同的 WhatsApp 账号、不同的群组甚至不同的私聊对象分别配置 systemPrompt。系统还支持通配符 "*" 作为默认回退,并且账号级别的配置会完全替换根配置(而不是合并),这与现有的 requireMention 行为保持一致。

举个例子,你可以让 OpenClaw 在工作群中扮演“技术助手”角色,在亲友群里则用更轻松的语气,这些都不需要写复杂的条件判断。

六、会话管理:像管理邮箱一样管理会话列表

本次更新为会话管理引入了 sessions_list 命令,并增加了类似邮箱的筛选功能。你现在可以:

  • 🍄
    标签筛选会话
  • 🍄
    代理名称筛选会话
  • 🍄
    关键词搜索会话内容
  • 🍄
    查看自动生成的会话标题和最后一条消息的预览

这在你同时维护上百个对话(例如客服系统或社区机器人)时会非常有用。快速找到相关会话,而不必翻遍所有记录。

七、控制界面(Control UI)的个性化与布局优化

Web 控制界面的这次更新主要是为了提升个人使用体验:

  • 🍄
    你可以在浏览器中设置一个本地身份(姓名和头像),这个身份会与助手和代理的头像共用同一套渲染逻辑,让界面看起来更连贯。
  • 🍄
    快速设置面板、代理备选芯片以及窄屏布局都做了优化,避免个人化信息占用太多空间,同时防止控制按钮被遮挡。

简单说,界面更整洁,而且你能看到谁是谁(尤其是在多人共用同一个 OpenClaw 实例控制面板时)。

八、诊断与故障排除:不再盲目重启

新版本加入了一个诊断导出功能,当你遇到问题需要提交 bug 报告时,可以一键导出:

  • 🍄
    清理过敏感信息的日志
  • 🍄
    系统状态和健康检查结果
  • 🍄
    当前配置(脱敏后)
  • 🍄
    稳定性快照

这大大减少了在 GitHub issue 中反复提供信息的过程。另外,网关默认开启了“无负载稳定性记录”,也就是不记录具体的消息内容,只记录系统是否稳定运行,兼顾了调试需求和隐私安全。

九、腾讯云和亚马逊 Bedrock 的深度集成

腾讯云(Tencent)

新增了腾讯云供应商插件,包含 TokenHub 的引导流程、文档链接,以及 hy3-preview 模型的目录条目和分级定价元数据。如果你使用腾讯云的 AI 服务,现在可以直接在 OpenClaw 里调用,而不用自己拼接口。

亚马逊 Bedrock:Claude Opus 4.7 和 Mantle 通道

  • 🍄
    Claude Opus 4.7 通过 Mantle 的 Anthropic Messages 路由得以支持,采用供应商持有的承载认证流式传输。这样就不需要把 AWS 的承载令牌当作 Anthropic 的 API 密钥来用了。
  • 🍄
    Bedrock 的 Mantle 通道现在会在运行时刷新 IAM 承载令牌,而不是在发现服务时生成一个固定令牌。避免了长时间运行的会话因为令牌过期而中断。
  • 🍄
    对于新发现的模型,会使用它们真实的上下文窗口大小,而不是保守地使用旧模型的默认值。这改善了消息压缩和溢出处理逻辑。

十、GPT-5 模型的统一处理

如果你使用 GPT-5 系列模型,这次更新让它们在不同供应商之间获得更一致的行为。OpenClaw 将 GPT-5 的提示词叠加逻辑移到了共享的供应商运行时中。这意味着无论你是通过 OpenAI、OpenRouter、OpenCode、Codex 还是其他兼容提供商调用 GPT-5,都会得到相同的指令处理和心跳引导。

此外,新增了一个全局设置 agents.defaults.promptOverlays.gpt5.personality,用于控制友好的风格化提示,而 OpenAI 插件内部的设置则作为回退。

十一、不再自动复制 Codex 的 OAuth 凭据

过去,OpenClaw 在首次配置时可能会从 ~/.codex 目录中复制 OAuth 材料。这个版本移除了这条导入路径。现在,配置 Codex 需要使用浏览器登录或设备配对。此举避免了因意外复制陈旧凭据导致的认证混乱。

十二、CLI 和插件的性能与稳定性提升

  • 🍄
    Doctor 命令提速 74%:通过延迟加载插件路径,并优先使用插件 dist/* 的运行时入口,doctor --non-interactive 的启动时间大幅缩短。
  • 🍄
    插件加载提速 82-90%:在支持的运行时上,优先使用 Jiti 加载内置的插件 dist 模块,同时保留 TypeScript 的转换路径。
  • 🍄
    更可靠的插件更新:当已安装的插件版本与注册表目标匹配时,不再重复执行 npm 重装和配置覆写。plugins install 会提示用户使用 plugins update--force,而不是回退到旧的钩子包安装。

十三、安全与配置方面的修复亮点

这一版本修复了不少可能影响数据安全和运行稳定的问题,挑几个重要的列出来:

问题类型 具体修复
沙箱逃逸风险 修复了文件读取时,通过父目录符号链接交换导致读取宿主机文件的问题。现在会固定已打开的描述符,并重新检查身份。
未授权配置读取 当网关启用认证后,未登录用户无法再直接访问 /__openclaw/control-ui-config.json
工作区 .env 覆盖 Matrix、Mattermost、IRC、Synology 等通道不再允许工作区中的 .env 文件覆盖连接配置,防止克隆的仓库劫持流量。
WebSocket 配对加固 如果通过反向代理转发的头部表明是代理流量,则不能通过本地回环共享密钥自动配对。另外,删除已配对设备时会同时清理未完成的配对请求。
日志与诊断脱敏 诊断导出的日志会自动过滤敏感信息。默认的稳定性记录不包含消息负载。

十四、让人困扰的 bug 修复(精选几个高频场景)

除了上述大块内容,还有很多零碎的修复值得日常用户注意:

  • 🍄
    重复发送消息问题:WhatsApp 中一个长期存在的 bug 导致断线重连后,待发送队列被重复处理,同一消息可能被发送 7 到 12 次。现在增加了内存中的“活动发送声明”,避免重连时重复驱动同一个任务。
  • 🍄
    Slack 流式回复丢失:当 Slack Connect 流在 SDK 刷新本地缓冲区之前被拒绝时,会回退到普通回复模式,避免短回复消失或错误报告成功。
  • 🍄
    Discord 线程中运行 /new 崩溃:修正了在部分线程通道中访问 parentId 时因数据不完整而报错的问题。同样修复了 /vc 命令在部分线程中的崩溃。
  • 🍄
    Telegram 长轮询 409 冲突:当遇到 getUpdates 返回 409 冲突时,会重建 HTTP 传输,而不是卡在已关闭的 keep-alive 套接字上循环失败。
  • 🍄
    Ollama 的 /think off 不生效:现在将 OpenClaw 的思考控制正确传递给 Ollama 的 /api/chat 请求,关闭思考后不会再无限等待。
  • 🍄
    Codex ACP 会话覆盖本地认证:内置的 Codex ACP 现在使用独立的 CODEX_HOME,不会在用户的真实 Codex CLI 目录中写入不完整的 ChatGPT 网桥文件。

常见问题解答(FAQ)

为了方便你快速判断这个版本是否需要升级,我整理了几个可能最关心的问题:

问:我是否需要立即升级?
如果你使用了 xAI、腾讯云或 WhatsApp,强烈建议升级。如果你遇到上述任何一种 bug(比如消息重复发送、插件加载慢、模型配置丢失),也建议升级。

问:升级后配置会丢失吗?
正常情况下不会。但注意:Codex 的旧版 OAuth 凭据导入路径被移除了,如果你之前依赖自动复制 ~/.codex 来配置,升级后需要手动执行一次浏览器登录或设备配对。另外,plugins.allow 等配置现在能正确合并,不会意外清空。

问:新增的 TUI 本地嵌入式模式怎么用?
在终端运行 openclaw tui --local(具体命令请参照官方文档)。该模式不需要预先启动 Gateway,但插件审批规则依然生效。

问:WhatsApp 的独立系统提示词怎么设置?
在配置文件中,channels.whatsapp.accounts.<id>.groupschannels.whatsapp.accounts.<id>.direct 下,为每个群组或私聊对象分别设置 systemPrompt。使用 "*" 作为键名可以设置默认值。

问:我用的是本地 llama.cpp,这次更新对我有什么好处?
流式响应中的令牌使用量现在可以从 timings.prompt_n / timings.predicted_n 元数据中恢复,而且多个本地后端(vLLM、SGLang、LM Studio 等)被标记为流式使用量兼容,令牌统计不再显示为未知或过时。

问:我使用 Amazon Bedrock Mantle,会话经常几个小时后中断。
这个问题已经在本次修复中解决:Mantle 的 IAM 承载令牌会在运行时刷新,而不是使用启动时生成的一次性令牌。升级后长会话应该能持续运行。

总结

OpenClaw 2026.4.22 是一个值得升级的稳定版本。它没有引入颠覆性的架构变更,但在实际使用中的痛点——模型管理灵活性、消息重复发送、某些渠道的崩溃、配置意外丢失——都得到了系统的修复。同时,xAI 的加入和语音能力的增强为开发者提供了更多选择。

如果你正在维护一个基于 OpenClaw 的机器人或自动化系统,这次更新能让你的日常运维减少很多麻烦。建议先在测试环境中验证你的核心流程,然后计划一次升级。

本文内容基于 OpenClaw 公开发布的 v2026.4.22 版本更新记录整理,所有功能描述和修复项均来自该版本的官方说明。实际操作时请以你的实际配置和环境为准。