为什么你的 OpenClaw 一个月烧 $1000? 如果你发现 OpenClaw Token 消耗异常高,很可能不是模型贵,而是配置没优化,导致大量“隐形 token 浪费。会配置的人,用同样模型,成本能差 5–10 倍。
OpenClaw 高 token 消耗的常见根源:
1️⃣ 上下文累积未优化(Context Accumulation / No Pruning)
OpenClaw 默认会将整个会话历史、MEMORY.md、AGENTS.md、SOUL.md、USER.md 等文件反复注入系统 prompt。
即使是简单问答,也可能一次吃掉 100k–200k+ token(包括缓存写)。
症状:即使新会话或简单指令,输入 token 仍高达 13k–136k。
解决方案:安装并启用 token-memory-optimizer 或 context-pruning-skill,
配置自动总结/修剪上下文、设置 contextPruning aggressive 模式。
社区实测可降 30–70%。
━━━━━━━━━━━━━━━
2️⃣ 模型未分层路由(No Model Routing / Always Using Premium Model)
所有任务(包括“今天天气”“2+2”这种简单查询)都扔给昂贵模型如 Claude Opus 4.6($5–$25/M token),
而非路由到廉价模型(如 GPT-4o-mini、Gemini Flash、DeepSeek)。
症状:heartbeat、cron 定时任务、后台检查全用顶级模型,闲置时也在烧钱。
解决方案:安装 ClawRouter 或 smart-router-skill,实现智能分层
(简单任务 → $0.3–$0.6/M 模型,复杂任务 → Sonnet/Opus)。
实测可省 70–90%。
━━━━━━━━━━━━━━━
3️⃣ Prompt 缓存未充分利用(No / Weak Prompt Caching)
OpenClaw 支持 Anthropic/OpenRouter 的 prompt caching(缓存写/读可省 90%),
但默认 TTL 短(5min)或未启用 long-retention,
导致每次都重写大上下文。
症状:Cache Write (1h) 始终为 0,重复任务仍全价付费。
解决方案:在 config 中设置 cacheRetention: "long",
心跳间隔调至 55min(保持热缓存),结合 OpenRouter caching。
社区反馈可省 50–83% 缓存成本。
━━━━━━━━━━━━━━━
4️⃣ 心跳 / Cron / 后台任务频率过高(Heartbeat / Cron Over-Firing)
默认心跳每 10–30 分钟触发一次,即使无用户交互,
也会拉起完整上下文 + 工具 schema,消耗数万 token。
症状:夜间/闲置期账单仍快速上涨
(有用户报告心跳单日烧 $6+)。
解决方案:调高 heartbeat interval(至 1h+),
或安装 cron-isolator-skill / low-power-mode,
将后台任务路由到本地小模型或禁用非必需 cron。
━━━━━━━━━━━━━━━
5️⃣ 技能加载未动态 / 全量加载(Static Skill Loading / Too Many Skills)
所有已装技能的定义(schema)在 session 开始就全注入 prompt,
即使未使用也占 token(11 个技能可多吃 15k+ token/turn)。
症状:技能越多,基线 token 越高;未用技能也在“吃”钱。
解决方案:安装 dynamic-skill-loader 或 auto-skill-unload,
实现关键词触发加载 + 闲置卸载。
潜在节省 30–50%。
━━━━━━━━━━━━━━━
6️⃣ Session 文件膨胀未清理(Session JSONL Bloat)
sessions/*.jsonl 文件无限增长,包含历史工具输出、错误日志等,
导致下次加载时 token 爆炸。
症状:老会话响应变慢、token 暴增;
删除 sessions 文件夹后立即改善。
解决方案:定期运行 /new 重置会话,
或安装 session-cleaner-skill + auto-summarize 到 MEMORY.md。
━━━━━━━━━━━━━━━
7️⃣ 本地 / 离线 fallback 未启用(No Local Fallback for Simple Tasks)
所有推理都走云 API,
即使是总结本地文件、简单计算也发给远程模型。
解决方案:集成 Ollama / 本地小模型作为 fallback
(e.g. Phi-3、Llama-3.1 8B),
简单任务零 token 成本。
实测重度用户可省 80%+。
━━━━━━━━━━━━━━━
OpenClaw 成本高,不一定是模型贵,而是配置在“全功率空转”。