fenno-codex-helper
v0.1.1
Published
One-command Codex config installer for OpenAI-compatible providers.
Maintainers
Readme
fenno-codex-helper
一个适合通过 npx 分发的 Codex 配置安装器。它的职责很明确:
- 获取
OPENAI_API_KEY - 写入
~/.codex/auth.json - 把推荐配置固定写到
~/.codex/config.toml最前面 - 自动备份旧文件
它默认不负责安装 Codex App 本体;更稳妥的定位是“安装后配置器”。
给客户直接发
把下面这段直接发给最终用户即可:
用途:
这个命令会自动帮你写好 Codex 所需配置,不需要手动改文件。
使用方法:
1. 打开终端
2. 粘贴下面命令并回车
npx fenno-codex-helper 你的真实APIKey
示例:
npx fenno-codex-helper sk-abc1234567890example
请把示例里的 key 替换成你自己的真实 API Key,不要直接输入上面的示例内容。
执行完成后,它会自动写入:
- ~/.codex/config.toml
- ~/.codex/auth.json实现思路
整个工具只做三件事:
- 解析命令行参数,拿到
API Key - 把固定的推荐配置写到
~/.codex/config.toml开头 - 把
OPENAI_API_KEY写入~/.codex/auth.json
核心实现点:
- 使用零依赖 Node CLI,避免用户额外安装脚手架
- 对
config.toml采用“托管头部 + 保留其余配置”的合并策略,而不是整文件覆盖 - 对
auth.json采用标准 JSON 输出,保证 Codex 直接可读 - 写入前自动把旧文件备份到
~/.codex/backups/ - 默认模型、推理强度、上下文窗口、
base_url全部内置,普通用户只需要提供凭证
推荐命令
npx fenno-codex-helper 你的真实APIKey工具写入的配置模板
model_provider = "OpenAI"
model = "gpt-5.4"
review_model = "gpt-5.4"
model_reasoning_effort = "xhigh"
disable_response_storage = true
network_access = "enabled"
windows_wsl_setup_acknowledged = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
[model_providers.OpenAI]
name = "OpenAI"
base_url = "https://fenno.qnaigc.com"
wire_api = "responses"
requires_openai_auth = trueauth.json:
{
"OPENAI_API_KEY": "sk-xxxxx"
}发布到 npm
首次发布前至少检查三件事:
package.json里的name是否就是fenno-codex-helper- 当前机器是否已经
npm login - npm 上这个包名是否可用
常用流程:
cd fenno-codex-helper
npm whoami
npm publish --access public发布成功后,用户就可以直接执行:
npx fenno-codex-helper 你的真实APIKey实用建议
如果目标用户是完全不会命令行的人,npx 方案最好只作为技术用户入口。真正面对普通用户时,还是更适合搭配一个双击启动的 GUI 配置器。
