Skip to content

Myking1983/codex-token-saver

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 

Repository files navigation

codex-token-saver

OpenAI Codex CLI Token 省钱工具箱 — 降低 40-60% 的 token 消耗。

姊妹项目:claude-token-saver — Claude Code 版本

这是什么?

针对 OpenAI Codex CLI 的 token 优化指南,涵盖:

  • OpenAI 自动缓存机制(50% 折扣,≥1024 token 前缀)
  • 3 大缓存杀手及规避方法
  • 10 条实战优化策略
  • config.toml 优化模板
  • Codex vs Claude Code 成本对比

安装

# 手动安装到 Codex 项目
mkdir -p ~/.codex/skills/token-saver
curl -o ~/.codex/skills/token-saver/SKILL.md \
  https://raw.githubusercontent.com/Myking1983/codex-token-saver/main/token-saver/SKILL.md

# 或者直接阅读 SKILL.md 作为参考

核心策略

⚠️ 最常见的问题

# 这个设置等于禁用了自动压缩!
model_auto_compact_token_limit = 9999999  #

# 建议设为上下文窗口的 60-70%
model_auto_compact_token_limit = 120000   # ✅ (GPT-5.4, 200K context)

OpenAI vs Anthropic 缓存对比

特性 OpenAI (Codex) Anthropic (Claude Code)
缓存触发 自动 (≥1024 token) 手动断点
缓存折扣 50% 90%
写入溢价 +25%
核心策略 减少总量优先 最大化缓存命中

10 条策略速查

# 策略 节省
1 修复 auto-compact 配置 40-60%
2 一个会话一个任务 40-60%
3 固定模型不中途切 40-60%
4 会话前写好 AGENTS.md 40-60%
5 启用 multi_agent 40-60%
6 一次说完 > 分多条 20-40%
7 给精确路径 > 模糊搜索 20-40%
8 合理设置 reasoning effort 20-40%
9 .gitignore 排除大文件 20-40%
10 AGENTS.md 写详细享缓存 ~45%

config.toml 优化模板

model = "gpt-5.4"
provider = "openai"
model_reasoning_effort = "medium"
model_auto_compact_token_limit = 120000

[features]
multi_agent = true

详细说明见 token-saver/SKILL.md

License

MIT

About

OpenAI Codex CLI Token 省钱工具箱 — 降低 40-60% token 消耗

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors