OpenAI Codex CLI Token 省钱工具箱 — 降低 40-60% 的 token 消耗。
姊妹项目:claude-token-saver — Claude Code 版本
针对 OpenAI Codex CLI 的 token 优化指南,涵盖:
- OpenAI 自动缓存机制(50% 折扣,≥1024 token 前缀)
- 3 大缓存杀手及规避方法
- 10 条实战优化策略
config.toml优化模板- Codex vs Claude Code 成本对比
# 手动安装到 Codex 项目
mkdir -p ~/.codex/skills/token-saver
curl -o ~/.codex/skills/token-saver/SKILL.md \
https://raw.githubusercontent.com/Myking1983/codex-token-saver/main/token-saver/SKILL.md
# 或者直接阅读 SKILL.md 作为参考# 这个设置等于禁用了自动压缩!
model_auto_compact_token_limit = 9999999 # ❌
# 建议设为上下文窗口的 60-70%
model_auto_compact_token_limit = 120000 # ✅ (GPT-5.4, 200K context)| 特性 | OpenAI (Codex) | Anthropic (Claude Code) |
|---|---|---|
| 缓存触发 | 自动 (≥1024 token) | 手动断点 |
| 缓存折扣 | 50% | 90% |
| 写入溢价 | 无 | +25% |
| 核心策略 | 减少总量优先 | 最大化缓存命中 |
| # | 策略 | 节省 |
|---|---|---|
| 1 | 修复 auto-compact 配置 | 40-60% |
| 2 | 一个会话一个任务 | 40-60% |
| 3 | 固定模型不中途切 | 40-60% |
| 4 | 会话前写好 AGENTS.md | 40-60% |
| 5 | 启用 multi_agent | 40-60% |
| 6 | 一次说完 > 分多条 | 20-40% |
| 7 | 给精确路径 > 模糊搜索 | 20-40% |
| 8 | 合理设置 reasoning effort | 20-40% |
| 9 | .gitignore 排除大文件 | 20-40% |
| 10 | AGENTS.md 写详细享缓存 | ~45% |
model = "gpt-5.4"
provider = "openai"
model_reasoning_effort = "medium"
model_auto_compact_token_limit = 120000
[features]
multi_agent = true详细说明见 token-saver/SKILL.md。
MIT