核心要点
- EdgeClaw 2.0 是基于 OpenClaw 的端云协同 AI Agent,2026 年 4 月 1 日由清华 THUNLP、人大、OpenBMB 联合开源
- ClawXMemory 提供多层结构化长期记忆(L0/L1/L2 + Global),采用模型驱动的主动推理检索,而非向量搜索
- ClawXRouter 通过 LLM-as-Judge 复杂度分类,将 60–80% 的请求路由到低成本模型,实测 节省 58% 成本,PinchBench 分数高出 6.3%
- 三级隐私体系:S1(直接上云)、S2(脱敏转发)、S3(全本地处理)——敏感数据永不离开设备
- 零配置启动:
pnpm build && node openclaw.mjs gateway run,首次启动自动生成配置
EdgeClaw 是什么?
EdgeClaw 是一个端云协同 AI Agent,基于 OpenClaw 构建,由清华 THUNLP、中国人民大学、AI9Stars、面壁智能 和 OpenBMB 联合开发。
核心属性:
- 类别:端云协同 AI Agent 框架
- 基础框架:OpenClaw(TypeScript)
- 仓库地址:OpenBMB/EdgeClaw
- 开源协议:MIT
- 首次发布:2026 年 2 月 12 日
- v2.0 发布:2026 年 4 月 1 日
解决的核心问题:
- OpenClaw 没有跨会话记忆 → EdgeClaw 添加 Claude Code 级别的持久化记忆
- 云端 API 调用昂贵 → EdgeClaw 将简单任务路由到便宜模型,节省 58%
- 敏感数据泄露到云端 → EdgeClaw 三级隐私体系保证私密数据本地处理
EdgeClaw vs OpenClaw vs Claude Code
这是最关键的对比。EdgeClaw 的定位是"将 Claude Code 体验带入 OpenClaw":
| 能力 | OpenClaw | Claude Code | EdgeClaw 2.0 |
|---|---|---|---|
| 跨会话项目知识 | ✗ | ✓ | ✓ |
| 持久化用户偏好 | ✗ | ✓ | ✓ |
| 多层结构化记忆 | ✗ | ✓ | ✓ |
| 记忆整合策略 | 召回 | 按需读取 | 主动推理 |
| 持续记忆整合 | ✗ | Auto-Dream(后台) | 空闲/话题切换时自动整合 |
| 成本感知路由 | ✗ | ✗ | 节省 58% 成本 |
| 三级隐私协同 | ✗ | ✗ | S1 / S2 / S3 |
| 可视化 Dashboard | ✗ | ✗ | ✓ |
核心差异化:EdgeClaw 不只是复刻 Claude Code 的记忆——它额外提供了 OpenClaw 和 Claude Code 都没有的省钱路由和隐私管控。
ClawXMemory:记忆引擎如何工作
ClawXMemory 是 OpenClaw 生态中第一个实现 Claude Code 级别记忆能力的插件。
三层记忆架构
系统在对话过程中自动蒸馏信息,逐层构建结构化记忆:
| 记忆层级 | 类型 | 说明 |
|---|---|---|
| L2 | 项目记忆 / 时间线记忆 | 围绕特定主题或时间线聚合的高层长期记忆 |
| L1 | 记忆片段 | 从已结束话题中蒸馏出的结构化核心摘要 |
| L0 | 原始对话 | 最底层的原始消息记录 |
| Global | 用户画像 | 持续更新的全局用户偏好单例 |
检索机制
当模型需要回忆信息时,它通过推理沿"记忆树"主动导航——而不是向量搜索:
- 先从高层记忆(项目/时间线/用户画像)评估相关性
- 仅在需要时才下钻到更细粒度的片段
- 必要时回溯到具体对话
这比传统 RAG 检索更接近人类专家逐层推理的方式。
与 Claude Code 记忆的关键差异
| 维度 | Claude Code | ClawXMemory |
|---|---|---|
| 记忆检索 | 按需文件读取 | 模型驱动主动推理 |
| 记忆整合 | Auto-Dream(后台) | 空闲/话题切换时自动整合 |
| 存储位置 | 云端 | 本地 SQLite(数据不离开设备) |
| 可视化 | 无 | Canvas 视图 + 列表视图 Dashboard |
| 导入/导出 | 不支持 | 一键导入导出 |
ClawXRouter:省钱路由如何工作
ClawXRouter 是 EdgeClaw 的路由大脑。它拦截请求,根据复杂度将其路由到最经济的模型。
LLM-as-Judge 复杂度分类
大多数请求——浏览文件、阅读代码、简单问答——根本不需要最贵的模型。Token-Saver 对每个请求进行分类:
| 复杂度 | 任务示例 | 默认目标模型 |
|---|---|---|
| SIMPLE | 查询、翻译、格式化、问候 | gpt-4o-mini |
| MEDIUM | 代码生成、单文件编辑、邮件起草 | gpt-4o |
| COMPLEX | 系统设计、多文件重构、跨文档分析 | claude-sonnet-4.6 |
| REASONING | 数学证明、形式逻辑、实验设计 | o4-mini |
性能数据:
- 典型工作流中 60–80% 的请求被转发到更便宜的模型
- PinchBench 实测:节省 58% 成本,分数高出 6.3%
- Judge 运行在本地小模型(MiniCPM-4.1 / Qwen3.5),增加约 1–2 秒延迟
- Prompt 哈希缓存(SHA-256,TTL 5 分钟)避免重复判断相同请求
三级隐私体系
每条消息、工具调用和工具结果都被实时检查并分级:
| 级别 | 含义 | 路由策略 | 示例 |
|---|---|---|---|
| S1 | 安全 | 直接发送到云端 | "写一首关于春天的诗" |
| S2 | 敏感 | 脱敏后转发 | 地址、电话号码、邮箱 |
| S3 | 隐私 | 仅本地处理 | 工资单、密码、SSH 密钥 |
S2 脱敏转发流程:
用户消息(含PII)→ 本地LLM检测 → S2 → 提取PII → 替换为 [REDACTED:*]
→ 隐私代理 → 剥离标记 → 转发到云端 → SSE 响应双轨记忆:云端模型永远看不到 MEMORY-FULL.md 或完整会话历史——Hook 系统在文件访问层拦截。
可组合路由管道
安全路由和成本路由在同一管道中运行:
用户消息
│
├── 阶段一:快速路由(权重 ≥ 50)— 隐私路由
│ └── 三级敏感度检测
│
├── 短路:如发现敏感数据 → 跳过阶段二
│
└── 阶段二:慢速路由(权重 < 50)— 省钱路由
└── LLM Judge 复杂度分类安全优先——隐私路由以高权重先运行。仅在安全检查通过(S1)后,成本路由才介入。
快速上手
构建与启动
git clone https://github.com/openbmb/edgeclaw.git
cd edgeclaw
pnpm install
pnpm build
node openclaw.mjs gateway run首次启动时,完整配置骨架自动生成在 ~/.edgeclaw/。ClawXRouter 和 ClawXMemory 作为内置扩展打包——无需手动安装插件。
填写 API Key
三种方式:
- 环境变量:启动前设置
EDGECLAW_API_KEY(自动填充) - 配置文件:编辑
~/.edgeclaw/openclaw.json中各 provider 的apiKey - Dashboard:访问
http://127.0.0.1:18790/plugins/clawxrouter/stats直接修改——即时生效
验证安装
node openclaw.mjs agent --local --agent main -m "Hello"看到 [ClawXrouter] token-saver: S1 redirect → 和 Agent 回复,部署即成功。
Dashboard 地址
| 面板 | URL |
|---|---|
| ClawXRouter(路由配置与统计) | http://127.0.0.1:18790/plugins/clawxrouter/stats |
| ClawXMemory(记忆可视化) | http://127.0.0.1:39394/clawxmemory/ |
谁适合使用 EdgeClaw?
选择 EdgeClaw 如果你:
- 已经在用 OpenClaw,想要跨会话记忆但不想切换到 Claude Code
- 处理敏感数据(患者记录、专利序列)且数据不能离开本机
- 想降低 LLM API 成本但不牺牲质量
- 需要可视化面板监控路由决策和记忆状态
继续用原版 OpenClaw 如果你:
- 不需要跨会话持久记忆
- 不处理敏感数据
- 对当前 API 成本满意
- 偏好最简单的安装配置
考虑 Claude Code 如果你:
- 想要完全托管的方案,无需自建服务
- 不介意锁定在 Anthropic 生态
- 不需要省钱路由或隐私分级
常见问题(FAQ)
Q1:EdgeClaw 需要本地 GPU 吗?
在仅 Token-Saver 模式(默认),不需要 GPU——Judge 模型可在 CPU 上运行。如果启用隐私路由的本地 LLM 检测,需要本地推理后端(Ollama / vLLM),GPU 有帮助但非必须。
Q2:EdgeClaw 实际能省多少 API 成本?
在 PinchBench 测试中,EdgeClaw 实现了 58% 的成本节省,同时分数高出 6.3%。典型工作流中,60–80% 的请求被分类为 SIMPLE 或 MEDIUM 并路由到更便宜的模型。
Q3:ClawXMemory 数据存在本地还是云端?
完全本地。 ClawXMemory 默认使用 SQLite,所有记忆数据留在本地设备。支持一键导入导出用于备份和迁移。
Q4:EdgeClaw 能用 OpenAI 和 Anthropic 以外的模型吗?
可以。EdgeClaw 继承了 OpenClaw 的多 Provider 支持。ClawXRouter 的 Token-Saver 分级完全可自定义——你可以将任何复杂度级别映射到任何 Provider/模型组合,包括通过 Ollama 或 vLLM 运行的本地模型。
Q5:EdgeClaw 和其他 OpenClaw 记忆插件有什么区别?
ClawXMemory 是目前唯一实现多层结构化记忆 + 主动推理检索的插件。标准 OpenClaw 只有基础召回;其他社区插件通常使用向量搜索 RAG。ClawXMemory 的"沿记忆树推理导航"在架构上有本质区别。
Q6:如果隐私路由误判了怎么办?
系统使用双引擎检测:规则引擎(关键词 + 正则,约 0ms)+ 本地 LLM 引擎(语义理解,约 1–2s)。两者可叠加使用以最大化安全性。可在 clawxrouter.json 中添加自定义规则,匹配你的特定敏感度需求。
总结
EdgeClaw 2.0 将两项此前仅存在于 Claude Code 的能力——持久化记忆和智能成本管理——带入了开源 OpenClaw 生态,同时添加了两个平台都没有的隐私管控。
核心价值:
- ClawXMemory:多层结构化记忆 + 主动推理检索——跨会话记住你的项目、偏好和上下文
- ClawXRouter:LLM-as-Judge 路由,API 成本降低 58% 且不损失质量
- 三级隐私:S1/S2/S3 分级确保敏感数据永不离开设备
对于处理敏感数据、想要 Claude Code 级别记忆但不愿承担高成本和隐私风险的研究者,EdgeClaw 2.0 是目前最强的开源选择。
