EdgeClaw 2.0:记忆引擎 + 省钱路由

2026/04/01

核心要点

  • EdgeClaw 2.0 是基于 OpenClaw 的端云协同 AI Agent,2026 年 4 月 1 日由清华 THUNLP、人大、OpenBMB 联合开源
  • ClawXMemory 提供多层结构化长期记忆(L0/L1/L2 + Global),采用模型驱动的主动推理检索,而非向量搜索
  • ClawXRouter 通过 LLM-as-Judge 复杂度分类,将 60–80% 的请求路由到低成本模型,实测 节省 58% 成本,PinchBench 分数高出 6.3%
  • 三级隐私体系:S1(直接上云)、S2(脱敏转发)、S3(全本地处理)——敏感数据永不离开设备
  • 零配置启动pnpm build && node openclaw.mjs gateway run,首次启动自动生成配置

EdgeClaw 是什么?

EdgeClaw 是一个端云协同 AI Agent,基于 OpenClaw 构建,由清华 THUNLP中国人民大学AI9Stars面壁智能OpenBMB 联合开发。

核心属性:

  • 类别:端云协同 AI Agent 框架
  • 基础框架:OpenClaw(TypeScript)
  • 仓库地址OpenBMB/EdgeClaw
  • 开源协议:MIT
  • 首次发布:2026 年 2 月 12 日
  • v2.0 发布:2026 年 4 月 1 日

解决的核心问题:

  • OpenClaw 没有跨会话记忆 → EdgeClaw 添加 Claude Code 级别的持久化记忆
  • 云端 API 调用昂贵 → EdgeClaw 将简单任务路由到便宜模型,节省 58%
  • 敏感数据泄露到云端 → EdgeClaw 三级隐私体系保证私密数据本地处理

EdgeClaw vs OpenClaw vs Claude Code

这是最关键的对比。EdgeClaw 的定位是"将 Claude Code 体验带入 OpenClaw":

能力OpenClawClaude CodeEdgeClaw 2.0
跨会话项目知识
持久化用户偏好
多层结构化记忆
记忆整合策略召回按需读取主动推理
持续记忆整合Auto-Dream(后台)空闲/话题切换时自动整合
成本感知路由节省 58% 成本
三级隐私协同S1 / S2 / S3
可视化 Dashboard

核心差异化:EdgeClaw 不只是复刻 Claude Code 的记忆——它额外提供了 OpenClaw 和 Claude Code 都没有的省钱路由和隐私管控。


ClawXMemory:记忆引擎如何工作

ClawXMemory 是 OpenClaw 生态中第一个实现 Claude Code 级别记忆能力的插件。

三层记忆架构

系统在对话过程中自动蒸馏信息,逐层构建结构化记忆:

记忆层级类型说明
L2项目记忆 / 时间线记忆围绕特定主题或时间线聚合的高层长期记忆
L1记忆片段从已结束话题中蒸馏出的结构化核心摘要
L0原始对话最底层的原始消息记录
Global用户画像持续更新的全局用户偏好单例

检索机制

当模型需要回忆信息时,它通过推理沿"记忆树"主动导航——而不是向量搜索:

  1. 先从高层记忆(项目/时间线/用户画像)评估相关性
  2. 仅在需要时才下钻到更细粒度的片段
  3. 必要时回溯到具体对话

这比传统 RAG 检索更接近人类专家逐层推理的方式。

与 Claude Code 记忆的关键差异

维度Claude CodeClawXMemory
记忆检索按需文件读取模型驱动主动推理
记忆整合Auto-Dream(后台)空闲/话题切换时自动整合
存储位置云端本地 SQLite(数据不离开设备)
可视化Canvas 视图 + 列表视图 Dashboard
导入/导出不支持一键导入导出

ClawXRouter:省钱路由如何工作

ClawXRouter 是 EdgeClaw 的路由大脑。它拦截请求,根据复杂度将其路由到最经济的模型。

LLM-as-Judge 复杂度分类

大多数请求——浏览文件、阅读代码、简单问答——根本不需要最贵的模型。Token-Saver 对每个请求进行分类:

复杂度任务示例默认目标模型
SIMPLE查询、翻译、格式化、问候gpt-4o-mini
MEDIUM代码生成、单文件编辑、邮件起草gpt-4o
COMPLEX系统设计、多文件重构、跨文档分析claude-sonnet-4.6
REASONING数学证明、形式逻辑、实验设计o4-mini

性能数据:

  • 典型工作流中 60–80% 的请求被转发到更便宜的模型
  • PinchBench 实测:节省 58% 成本,分数高出 6.3%
  • Judge 运行在本地小模型(MiniCPM-4.1 / Qwen3.5),增加约 1–2 秒延迟
  • Prompt 哈希缓存(SHA-256,TTL 5 分钟)避免重复判断相同请求

三级隐私体系

每条消息、工具调用和工具结果都被实时检查并分级:

级别含义路由策略示例
S1安全直接发送到云端"写一首关于春天的诗"
S2敏感脱敏后转发地址、电话号码、邮箱
S3隐私仅本地处理工资单、密码、SSH 密钥

S2 脱敏转发流程:

用户消息(含PII)→ 本地LLM检测 → S2 → 提取PII → 替换为 [REDACTED:*]
    → 隐私代理 → 剥离标记 → 转发到云端 → SSE 响应

双轨记忆:云端模型永远看不到 MEMORY-FULL.md 或完整会话历史——Hook 系统在文件访问层拦截。

可组合路由管道

安全路由和成本路由在同一管道中运行:

用户消息

    ├── 阶段一:快速路由(权重 ≥ 50)— 隐私路由
    │       └── 三级敏感度检测

    ├── 短路:如发现敏感数据 → 跳过阶段二

    └── 阶段二:慢速路由(权重 < 50)— 省钱路由
            └── LLM Judge 复杂度分类

安全优先——隐私路由以高权重先运行。仅在安全检查通过(S1)后,成本路由才介入。


快速上手

构建与启动

git clone https://github.com/openbmb/edgeclaw.git
cd edgeclaw
pnpm install
pnpm build
node openclaw.mjs gateway run

首次启动时,完整配置骨架自动生成在 ~/.edgeclaw/。ClawXRouter 和 ClawXMemory 作为内置扩展打包——无需手动安装插件。

填写 API Key

三种方式:

  • 环境变量:启动前设置 EDGECLAW_API_KEY(自动填充)
  • 配置文件:编辑 ~/.edgeclaw/openclaw.json 中各 provider 的 apiKey
  • Dashboard:访问 http://127.0.0.1:18790/plugins/clawxrouter/stats 直接修改——即时生效

验证安装

node openclaw.mjs agent --local --agent main -m "Hello"

看到 [ClawXrouter] token-saver: S1 redirect → 和 Agent 回复,部署即成功。

Dashboard 地址

面板URL
ClawXRouter(路由配置与统计)http://127.0.0.1:18790/plugins/clawxrouter/stats
ClawXMemory(记忆可视化)http://127.0.0.1:39394/clawxmemory/

谁适合使用 EdgeClaw?

选择 EdgeClaw 如果你:

  • 已经在用 OpenClaw,想要跨会话记忆但不想切换到 Claude Code
  • 处理敏感数据(患者记录、专利序列)且数据不能离开本机
  • 想降低 LLM API 成本但不牺牲质量
  • 需要可视化面板监控路由决策和记忆状态

继续用原版 OpenClaw 如果你:

  • 不需要跨会话持久记忆
  • 不处理敏感数据
  • 对当前 API 成本满意
  • 偏好最简单的安装配置

考虑 Claude Code 如果你:

  • 想要完全托管的方案,无需自建服务
  • 不介意锁定在 Anthropic 生态
  • 不需要省钱路由或隐私分级

常见问题(FAQ)

Q1:EdgeClaw 需要本地 GPU 吗?

在仅 Token-Saver 模式(默认),不需要 GPU——Judge 模型可在 CPU 上运行。如果启用隐私路由的本地 LLM 检测,需要本地推理后端(Ollama / vLLM),GPU 有帮助但非必须。

Q2:EdgeClaw 实际能省多少 API 成本?

在 PinchBench 测试中,EdgeClaw 实现了 58% 的成本节省,同时分数高出 6.3%。典型工作流中,60–80% 的请求被分类为 SIMPLE 或 MEDIUM 并路由到更便宜的模型。

Q3:ClawXMemory 数据存在本地还是云端?

完全本地。 ClawXMemory 默认使用 SQLite,所有记忆数据留在本地设备。支持一键导入导出用于备份和迁移。

Q4:EdgeClaw 能用 OpenAI 和 Anthropic 以外的模型吗?

可以。EdgeClaw 继承了 OpenClaw 的多 Provider 支持。ClawXRouter 的 Token-Saver 分级完全可自定义——你可以将任何复杂度级别映射到任何 Provider/模型组合,包括通过 Ollama 或 vLLM 运行的本地模型。

Q5:EdgeClaw 和其他 OpenClaw 记忆插件有什么区别?

ClawXMemory 是目前唯一实现多层结构化记忆 + 主动推理检索的插件。标准 OpenClaw 只有基础召回;其他社区插件通常使用向量搜索 RAG。ClawXMemory 的"沿记忆树推理导航"在架构上有本质区别。

Q6:如果隐私路由误判了怎么办?

系统使用双引擎检测:规则引擎(关键词 + 正则,约 0ms)+ 本地 LLM 引擎(语义理解,约 1–2s)。两者可叠加使用以最大化安全性。可在 clawxrouter.json 中添加自定义规则,匹配你的特定敏感度需求。


总结

EdgeClaw 2.0 将两项此前仅存在于 Claude Code 的能力——持久化记忆和智能成本管理——带入了开源 OpenClaw 生态,同时添加了两个平台都没有的隐私管控。

核心价值:

  • ClawXMemory:多层结构化记忆 + 主动推理检索——跨会话记住你的项目、偏好和上下文
  • ClawXRouter:LLM-as-Judge 路由,API 成本降低 58% 且不损失质量
  • 三级隐私:S1/S2/S3 分级确保敏感数据永不离开设备

对于处理敏感数据、想要 Claude Code 级别记忆但不愿承担高成本和隐私风险的研究者,EdgeClaw 2.0 是目前最强的开源选择。