OpenAI Codex CLI 安装与配置完整指南(OpenClaw 拼车实测)
我们是 OpenClaw 拼车的维护团队。Codex CLI 在 2025 年下半年补齐了 gpt-5-codex 和自定义 model_provider 之后,已经从「玩具」长成「日常生产力工具」——同一份 token 可以兼跑 Claude Code 和 Codex,对成本敏感的团队尤其香。
这篇是从安装到第一次跑通的完整路径:先讲什么是 Codex、最低系统要求,然后给三种安装方式(npm / Homebrew / 二进制),再把 Windows 与 macOS/Linux 的环境变量姿势讲清楚,最后是 ~/.codex/config.toml 的实战配置。
想跳过手工配置? OpenClaw 拼车
setup.sh一行命令把 Codex CLI、~/.codex/config.toml、~/.codex/auth.json全部写好:curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20x同一个 token 既给 Claude Code 用、也给 Codex 用,不用配两次。
OpenAI Codex 是什么
Codex 是 OpenAI 出的 AI 编程 CLI——可以理解成「装在终端里的 Cursor Composer」。它读你的项目、生成代码、解释报错、补测试,所有交互在命令行完成,不需要再开浏览器。
适合的场景:
- 大段重构(让 Codex 同时读多个文件)
- 写测试 / 写文档 / 加注释这种程式化任务
- 自然语言 → SQL / 自然语言 → shell 脚本
- 跨多种编程语言的代码翻译
OpenClaw 拼车允许同一个 cr_... token 同时跑 Claude Code 和 Codex,相当于一份订阅费拿到两个 SOTA 编程模型。
系统要求
不要被官方文档吓到,要求其实很低:
- 操作系统:Windows 10/11、macOS 10.14+、Linux(Ubuntu 18.04+ 或同期发行版)
- 运行时:Node.js 18+(用 npm 安装时需要);二进制方式不需要
- 网络:能稳定连到你拼车的接入点即可
- 凭据:一份 OpenAI 兼容协议的 API key(OpenClaw 拼车给的
cr_...直接用)
推荐配置:8GB+ 内存(Codex 在大上下文下吃内存),现代编辑器(VS Code / Cursor / Neovim 都行——Codex 是终端工具,编辑器只是查看代码用)。
安装:选一种
方式 1:npm 全局安装(推荐多数人用)
最干净、最跨平台:
npm install -g @openai/codex装完跑 codex --version 能输出版本号就完事了。npm 装失败大概率是镜像问题,国内可以临时加 --registry=https://registry.npmmirror.com。
方式 2:Homebrew(macOS 用户首选)
brew install codexHomebrew 会同步 OpenAI 官方仓库的 release,更新也是 brew upgrade codex 一句话。
方式 3:二进制(无 Node.js 环境时用)
服务器上没 Node.js、不想装的话,直接抓二进制。打开 GitHub Releases,按你系统挑:
- macOS:Apple Silicon(arm64)或 Intel(x86_64)
- Linux:x86_64 或 arm64
下载解压后扔到 PATH 里:
chmod +x codex
sudo mv codex /usr/local/bin/跑 codex --version 验证。
验证安装
无论哪种装法,下面三条命令分别试一下:
# 看版本号
codex --version
# 进入交互式 REPL
codex
# 跳过审批 + 沙盒(高级用法,**别在不信任的项目里用**)
codex --dangerously-bypass-approvals-and-sandbox--dangerously-bypass-approvals-and-sandbox 这个参数顾名思义——会跳过所有「确认是否执行 X」的提示,也会绕开 Codex 默认的文件系统沙箱。只在你完全信任当前项目代码、且需要批量自动化时用,否则模型一旦被注入恶意指令可以直接 rm -rf。
环境变量:两个就够
Codex 也是 OpenAI 协议兼容,启动时读两个:
OPENAI_BASE_URL:你拼车给到的接入点完整 URLOPENAI_API_KEY:你的 token(OpenClaw 拼车统一是cr_...开头)
Windows · PowerShell(推荐)
当前会话临时生效:
$env:OPENAI_BASE_URL = "你的 URL"
$env:OPENAI_API_KEY = "你的 token"永久写到用户环境变量:
[System.Environment]::SetEnvironmentVariable('OPENAI_BASE_URL', '你的 URL', 'User')
[System.Environment]::SetEnvironmentVariable('OPENAI_API_KEY', '你的 token', 'User')写完关掉重开 PowerShell 才生效。
Windows · CMD
临时(当前窗口):
set OPENAI_BASE_URL=你的 URL
set OPENAI_API_KEY=你的 token永久(写到注册表,下次新开 CMD 生效):
setx OPENAI_BASE_URL "你的 URL"
setx OPENAI_API_KEY "你的 token"注意 setx 写完当前窗口里读不到,必须新开一个窗口。
macOS / Linux
临时:
export OPENAI_BASE_URL="你的 URL"
export OPENAI_API_KEY="你的 token"永久(写到登录 shell 的 rc 文件):
echo 'export OPENAI_BASE_URL="你的 URL"' >> ~/.bashrc
echo 'export OPENAI_API_KEY="你的 token"' >> ~/.bashrc
source ~/.bashrczsh 把上面三行的 ~/.bashrc 改成 ~/.zshrc 即可。
~/.codex/config.toml:把模型固定下来
环境变量解决「连得上」,配置文件解决「连得对」。Codex 通过 ~/.codex/config.toml 决定用哪个 provider、哪个模型、推理深度多少。OpenClaw 拼车推荐配置:
model_provider = "crs"
model = "gpt-5-codex"
model_reasoning_effort = "high"
disable_response_storage = true
preferred_auth_method = "apikey"
[model_providers.crs]
name = "crs"
base_url = "你的 URL"
wire_api = "responses"字段含义:
model_provider:指定下面[model_providers.xxx]段里哪个 providermodel:用哪个模型——拼车默认gpt-5-codex是性价比最高的编码模型model_reasoning_effort:low/medium/high,越高质量越好但 token 越多disable_response_storage:拼车场景务必设true,避免响应数据被官方留存preferred_auth_method:apikey表示用 token 鉴权(别选oauth,OpenClaw 拼车不走 OAuth 流程)wire_api:responses是新协议,老chat_completions协议正在淘汰
~/.codex/auth.json:API 密钥
环境变量已经够用了,但 Codex 也支持把密钥写到 ~/.codex/auth.json——这个方式适合「机器上多账号切换」「不想环境变量泄露到子进程」的场景:
{
"OPENAI_API_KEY": "你的 token"
}这份文件 Codex 会优先于环境变量读取。OpenClaw 拼车的 token 跟 Claude Code 那一份完全一样(都是 cr_...),不用申请两次。
一行命令把上面全做完
实际上你不用真的手敲那么多步。OpenClaw 拼车的 setup.sh 已经把:
- 选择最佳安装方式(优先 npm,缺 Node 时回落二进制)
- 写两个环境变量到当前 shell rc
- 生成
~/.codex/config.toml - 写
~/.codex/auth.json
全都串成一条命令:
curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20x跑完直接 codex 进 REPL 开始干活,不用再翻这篇文章。
第一次跑:体验 Codex
新建一个空目录,跑:
mkdir codex-demo && cd codex-demo
codex进入交互式之后试这几句:
用 Python 写一个 fizzbuzz,并且加一个能跑的测试把这段 SQL 翻译成 Prisma schema:[贴 SQL]检查当前目录代码有没有明显的 bug
Codex 会在你确认每一步动作之后再写文件——和 Claude Code 的 plan 模式类似,但默认更保守。如果你想批量自动化,再考虑 --dangerously-bypass-approvals-and-sandbox。
常见错误
| 报错 | 原因 | 修法 |
|---|---|---|
invalid api key | token 复制掉字符或过期 | 拼车控制台重新复制 |
connection reset | base_url 不通 | 检查 OPENAI_BASE_URL 是否带 https://、末尾不要 / |
model not found: gpt-5-codex | 接入点不支持 / 写错模型名 | 改成接入点支持的模型,或换接入点 |
wire_api mismatch | responses 协议不被支持 | 在 config.toml 里改成 chat_completions 试试 |
| Windows setx 不生效 | 新值要新窗口才能读到 | 关掉重开 PowerShell / CMD |
总结
- Codex CLI 三种装法选一种就行——多数人
npm install -g @openai/codex最快 - 两个环境变量 + 一个
~/.codex/config.toml,配齐就能跑 - OpenClaw 拼车的 token 跟 Claude Code 共享,配置一次双 CLI 都能用
- 想跳过所有手工步骤,直接
setup.sh一行解决
立即开始
curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20x
codex --version第二条命令能输出版本号,就说明你已经完整接入。需要选不同套餐或了解 Codex 与 Claude Code 共用拼车的细节,到 https://cp.bizq.net/setup 直接进控制台。
相关文章
- Claude Code 完整使用指南 — 跟 Codex 共用同一份 token 的另一半
- Claude Code 拼车最佳实践 — 把 token 花在最值的地方
- Claude Code 在 Windows 设置环境变量 — 环境变量姿势的姊妹篇,Codex 配置同理