这是很多人在用 Clawdbot 时最先踩的坑: 👉 不是 Clawdbot 本身耗 token,是它的“Agent 行为方式”天然烧 token。
因为它会:
- 反复思考(reasoning)
- 多轮规划
- 调工具再总结 = 每一步都是一次模型调用
如果不控制,token 会指数级上涨。
下面给你一套【实战可落地】的降 token 方案,从根源解决 👇
➡️阿里云优惠购机渠道
一、最核心原则:减少“无意义思考”
❌ 默认模式(很烧钱)
你问一句 → Agent: “我该怎么做?” “我该用什么工具?” “我总结一下结果” = 3~5 次模型调用
✅ 优化思路
让它: 👉 少想 👉 少总结 👉 少复述
二、最有效的 6 个降 token 技巧
✅ 1. 用“小模型负责决策,大模型负责输出”
模式:
- 规划 / 判断 → 小模型(便宜)
- 最终结果 → 大模型
例如:
planner_model: gpt–4.1–mini
executor_model: gpt–4.1
效果:
token ↓ 50% 以上 成本 ↓ 70%
✅ 2. 限制最大思考轮数
防止:
“我再检查一次…” “我再确认一下…”
设置:
max_steps: 3
max_reflection: 0
原则:
能 2 步解决的,绝不跑 5 步
✅ 3. 关闭 verbose / chain-of-thought
很多人没注意: Clawdbot 默认可能开启了调试输出:
VERBOSE=true
改成:
VERBOSE=false
或者:
show_reasoning: false
👉 token 直接腰斩
✅ 4. 给 Agent 明确“输出格式”,减少废话
❌ 模糊指令:
帮我分析一下今天的数据
✅ 明确:
只输出三行: 销量、同比、结论 不要解释过程
例如:
只输出JSON,不要任何解释:
{"sales":0,"growth":0,"summary":""}
👉 输出越短,token 越少
✅ 5. 能用代码算的,别让模型算
错误做法:
把 1000 行 CSV 扔给模型分析
正确做法: 👉 Python 先算 👉 模型只负责“总结”
流程:
CSV → Python统计 → 10行结果 → 模型总结
👉 token 从 10k → 200
✅ 6. 开启 Memory 截断 / 滑动窗口
很多人 token 爆炸是因为:
对话越来越长 全部历史上下文都在带
必须做:
memory:
window: 5
summarize_old: true
或:
- 超过 N 轮 → 自动摘要
- 丢弃无关历史
三、性价比模型搭配建议
💰 低成本组合
- 决策:DeepSeek / Qwen
- 输出:GPT-4.1-mini
⚖️ 平衡组合
- 决策:gpt-4.1-mini
- 输出:gpt-4.1
🚀 高质量组合
- 决策:gpt-4.1
- 输出:gpt-4.1
四、最容易被忽略的烧 token 行为
❌ 自动反思(self-reflect) ❌ 自动重试(retry loop) ❌ 全量上下文 ❌ debug 日志 ❌ 工具结果再喂回模型全文
这些全部可以关掉或限流。
五、判断你现在为什么烧 token
你可以自检 3 个问题:
👉 命中任意一个 = 必烧 token
说人话总结
Clawdbot 不是聊天机器人 是“会反复思考的员工”
你现在的问题本质是: 👉 给了它“无限思考 + 全上下文 + 大模型”
正确姿势是: 👉 小模型打杂 👉 大模型收尾 👉 严格限步数 👉 严格限输出
网硕互联帮助中心







评论前必须登录!
注册