全部教程OpenAI Codex CLI 安装与配置完整指南(OpenClaw 拼车实测)

OpenAI Codex CLI 安装与配置完整指南(OpenClaw 拼车实测)

我们是 OpenClaw 拼车的维护团队。Codex CLI 在 2025 年下半年补齐了 gpt-5-codex 和自定义 model_provider 之后,已经从「玩具」长成「日常生产力工具」——同一份 token 可以兼跑 Claude Code 和 Codex,对成本敏感的团队尤其香。

这篇是从安装到第一次跑通的完整路径:先讲什么是 Codex、最低系统要求,然后给三种安装方式(npm / Homebrew / 二进制),再把 Windows 与 macOS/Linux 的环境变量姿势讲清楚,最后是 ~/.codex/config.toml 的实战配置。

想跳过手工配置? OpenClaw 拼车 setup.sh 一行命令把 Codex CLI、~/.codex/config.toml~/.codex/auth.json 全部写好:

curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20x

同一个 token 既给 Claude Code 用、也给 Codex 用,不用配两次。


OpenAI Codex 是什么

Codex 是 OpenAI 出的 AI 编程 CLI——可以理解成「装在终端里的 Cursor Composer」。它读你的项目、生成代码、解释报错、补测试,所有交互在命令行完成,不需要再开浏览器。

适合的场景:

  • 大段重构(让 Codex 同时读多个文件)
  • 写测试 / 写文档 / 加注释这种程式化任务
  • 自然语言 → SQL / 自然语言 → shell 脚本
  • 跨多种编程语言的代码翻译

OpenClaw 拼车允许同一个 cr_... token 同时跑 Claude Code 和 Codex,相当于一份订阅费拿到两个 SOTA 编程模型。


系统要求

不要被官方文档吓到,要求其实很低:

  • 操作系统:Windows 10/11、macOS 10.14+、Linux(Ubuntu 18.04+ 或同期发行版)
  • 运行时:Node.js 18+(用 npm 安装时需要);二进制方式不需要
  • 网络:能稳定连到你拼车的接入点即可
  • 凭据:一份 OpenAI 兼容协议的 API key(OpenClaw 拼车给的 cr_... 直接用)

推荐配置:8GB+ 内存(Codex 在大上下文下吃内存),现代编辑器(VS Code / Cursor / Neovim 都行——Codex 是终端工具,编辑器只是查看代码用)。


安装:选一种

方式 1:npm 全局安装(推荐多数人用)

最干净、最跨平台:

npm install -g @openai/codex

装完跑 codex --version 能输出版本号就完事了。npm 装失败大概率是镜像问题,国内可以临时加 --registry=https://registry.npmmirror.com

方式 2:Homebrew(macOS 用户首选)

brew install codex

Homebrew 会同步 OpenAI 官方仓库的 release,更新也是 brew upgrade codex 一句话。

方式 3:二进制(无 Node.js 环境时用)

服务器上没 Node.js、不想装的话,直接抓二进制。打开 GitHub Releases,按你系统挑:

  • macOS:Apple Silicon(arm64)或 Intel(x86_64)
  • Linux:x86_64 或 arm64

下载解压后扔到 PATH 里:

chmod +x codex
sudo mv codex /usr/local/bin/

codex --version 验证。


验证安装

无论哪种装法,下面三条命令分别试一下:

# 看版本号
codex --version
 
# 进入交互式 REPL
codex
 
# 跳过审批 + 沙盒(高级用法,**别在不信任的项目里用**)
codex --dangerously-bypass-approvals-and-sandbox

--dangerously-bypass-approvals-and-sandbox 这个参数顾名思义——会跳过所有「确认是否执行 X」的提示,也会绕开 Codex 默认的文件系统沙箱。只在你完全信任当前项目代码、且需要批量自动化时用,否则模型一旦被注入恶意指令可以直接 rm -rf


环境变量:两个就够

Codex 也是 OpenAI 协议兼容,启动时读两个:

  • OPENAI_BASE_URL:你拼车给到的接入点完整 URL
  • OPENAI_API_KEY:你的 token(OpenClaw 拼车统一是 cr_... 开头)

Windows · PowerShell(推荐)

当前会话临时生效:

$env:OPENAI_BASE_URL = "你的 URL"
$env:OPENAI_API_KEY = "你的 token"

永久写到用户环境变量:

[System.Environment]::SetEnvironmentVariable('OPENAI_BASE_URL', '你的 URL', 'User')
[System.Environment]::SetEnvironmentVariable('OPENAI_API_KEY', '你的 token', 'User')

写完关掉重开 PowerShell 才生效。

Windows · CMD

临时(当前窗口):

set OPENAI_BASE_URL=你的 URL
set OPENAI_API_KEY=你的 token

永久(写到注册表,下次新开 CMD 生效):

setx OPENAI_BASE_URL "你的 URL"
setx OPENAI_API_KEY "你的 token"

注意 setx 写完当前窗口里读不到,必须新开一个窗口。

macOS / Linux

临时:

export OPENAI_BASE_URL="你的 URL"
export OPENAI_API_KEY="你的 token"

永久(写到登录 shell 的 rc 文件):

echo 'export OPENAI_BASE_URL="你的 URL"' >> ~/.bashrc
echo 'export OPENAI_API_KEY="你的 token"' >> ~/.bashrc
source ~/.bashrc

zsh 把上面三行的 ~/.bashrc 改成 ~/.zshrc 即可。


~/.codex/config.toml:把模型固定下来

环境变量解决「连得上」,配置文件解决「连得对」。Codex 通过 ~/.codex/config.toml 决定用哪个 provider、哪个模型、推理深度多少。OpenClaw 拼车推荐配置:

model_provider = "crs"
model = "gpt-5-codex"
model_reasoning_effort = "high"
disable_response_storage = true
preferred_auth_method = "apikey"
 
[model_providers.crs]
name = "crs"
base_url = "你的 URL"
wire_api = "responses"

字段含义:

  • model_provider:指定下面 [model_providers.xxx] 段里哪个 provider
  • model:用哪个模型——拼车默认 gpt-5-codex 是性价比最高的编码模型
  • model_reasoning_effortlow / medium / high,越高质量越好但 token 越多
  • disable_response_storage:拼车场景务必设 true,避免响应数据被官方留存
  • preferred_auth_methodapikey 表示用 token 鉴权(别选 oauth,OpenClaw 拼车不走 OAuth 流程)
  • wire_apiresponses 是新协议,老 chat_completions 协议正在淘汰

~/.codex/auth.json:API 密钥

环境变量已经够用了,但 Codex 也支持把密钥写到 ~/.codex/auth.json——这个方式适合「机器上多账号切换」「不想环境变量泄露到子进程」的场景:

{
  "OPENAI_API_KEY": "你的 token"
}

这份文件 Codex 会优先于环境变量读取。OpenClaw 拼车的 token 跟 Claude Code 那一份完全一样(都是 cr_...),不用申请两次。


一行命令把上面全做完

实际上你不用真的手敲那么多步。OpenClaw 拼车的 setup.sh 已经把:

  • 选择最佳安装方式(优先 npm,缺 Node 时回落二进制)
  • 写两个环境变量到当前 shell rc
  • 生成 ~/.codex/config.toml
  • ~/.codex/auth.json

全都串成一条命令:

curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20x

跑完直接 codex 进 REPL 开始干活,不用再翻这篇文章。


第一次跑:体验 Codex

新建一个空目录,跑:

mkdir codex-demo && cd codex-demo
codex

进入交互式之后试这几句:

  • 用 Python 写一个 fizzbuzz,并且加一个能跑的测试
  • 把这段 SQL 翻译成 Prisma schema:[贴 SQL]
  • 检查当前目录代码有没有明显的 bug

Codex 会在你确认每一步动作之后再写文件——和 Claude Code 的 plan 模式类似,但默认更保守。如果你想批量自动化,再考虑 --dangerously-bypass-approvals-and-sandbox


常见错误

报错原因修法
invalid api keytoken 复制掉字符或过期拼车控制台重新复制
connection resetbase_url 不通检查 OPENAI_BASE_URL 是否带 https://、末尾不要 /
model not found: gpt-5-codex接入点不支持 / 写错模型名改成接入点支持的模型,或换接入点
wire_api mismatchresponses 协议不被支持在 config.toml 里改成 chat_completions 试试
Windows setx 不生效新值要新窗口才能读到关掉重开 PowerShell / CMD

总结

  • Codex CLI 三种装法选一种就行——多数人 npm install -g @openai/codex 最快
  • 两个环境变量 + 一个 ~/.codex/config.toml,配齐就能跑
  • OpenClaw 拼车的 token 跟 Claude Code 共享,配置一次双 CLI 都能用
  • 想跳过所有手工步骤,直接 setup.sh 一行解决

立即开始

curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20x
codex --version

第二条命令能输出版本号,就说明你已经完整接入。需要选不同套餐或了解 Codex 与 Claude Code 共用拼车的细节,到 https://cp.bizq.net/setup 直接进控制台。


相关文章