OpenClaw 接入 cp.bizq.net 官方拼车配置完整指南
我是 Quentin,OpenClaw 作者,也是 OpenClaw 拼车(cp.bizq.net)的维护者。
OpenClaw 自己跑得起来,但配置一个稳定、便宜、还能跨厂商 fallback 的多模型网关是另一件事。这篇讲的就是怎么把 OpenClaw 跟 cp.bizq.net 官方拼车 接在一起:让 Claude Sonnet/Opus/Haiku、GPT-5 系列、Gemini 3 系列统一从一个 baseUrl 出,配置文件不用手抄,一行 setup.sh 自动写好。
本文最终目标 —— 一行命令完成接入:
curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20x
这套配置解决什么
如果你已经在用 OpenClaw,应该见过这种痛点:
- 每个 provider 的
baseUrl/apiKey/api字段各不一样,手抄 JSON 总有错位 - 想 Claude → GPT → Gemini 自动 fallback,但
agents.defaults.fallbacks写起来很繁琐 - token 换了之后要找好几处替换
- 团队里多人协作,没有标准化的配置基线
OpenClaw + cp.bizq.net 的方案是:
- cp.bizq.net 提供统一拼车网关,三家模型一个 token、一个 baseUrl 入口
setup.sh自动写出标准的~/.openclaw/openclaw.json,包括models.providers和agents.defaults- 你只需要从微信群拿到一个 token(按团队规模定制),剩下的全自动
前置准备
1. 确认 OpenClaw 已安装并能跑起来
先检查 OpenClaw 自身的健康状态:
openclaw --version
openclaw gateway status如果还没装,参考 OpenClaw VPS 部署指南。
2. 拿到拼车 token
加 OpenClaw 拼车微信群,群主会按团队规模分发 token。常见档位:
- 单人 max-20x
- 小团队 team-pool
- 企业定制
具体规格按团队规模定制,详情微信咨询。
一键接入(推荐)
最快路径,一行搞定:
curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20xsetup.sh 会做的事:
- 检测
~/.openclaw/openclaw.json是否存在;存在则备份成openclaw.json.bak - 写入
models.providers段,包含 claude / openai / gemini 三个子 provider - 写入
agents.defaults,配好 primary + fallbacks + alias - 注入 token 到环境变量与配置文件
- 自动重启
openclaw gateway
跑完之后直接:
openclaw run "你是什么模型"模型名应该返回 claude-sonnet-4-6(默认 primary)。
手动配置(理解原理)
如果你想自己手写一份、或者要 review 自动脚本写出来的内容,下面是完整的 openclaw.json 片段。
1. 编辑配置文件
${EDITOR:-vim} ~/.openclaw/openclaw.json2. 写入 models.providers
把 你的令牌 替换成实际 token:
{
"models": {
"providers": {
"carpool-claude": {
"baseUrl": "https://cp.bizq.net/",
"apiKey": "你的令牌",
"api": "anthropic-messages",
"models": [
{
"id": "claude-opus-4-6",
"name": "Claude Opus 4.6",
"reasoning": false,
"input": ["text", "image"],
"contextWindow": 200000,
"maxTokens": 8192
},
{
"id": "claude-sonnet-4-6",
"name": "Claude Sonnet 4.6",
"reasoning": false,
"input": ["text", "image"],
"contextWindow": 200000,
"maxTokens": 8192
},
{
"id": "claude-haiku-4-5",
"name": "Claude Haiku 4.5",
"reasoning": false,
"input": ["text", "image"],
"contextWindow": 200000,
"maxTokens": 8192
}
]
},
"carpool-openai": {
"baseUrl": "https://cp.bizq.net/v1",
"apiKey": "你的令牌",
"api": "openai-responses",
"models": [
{
"id": "gpt-5.4",
"name": "GPT-5.4",
"input": ["text"],
"contextWindow": 128000,
"maxTokens": 16384
},
{
"id": "gpt-5.3",
"name": "GPT-5.3",
"input": ["text"],
"contextWindow": 128000,
"maxTokens": 16384
}
]
},
"carpool-gemini": {
"baseUrl": "https://cp.bizq.net/v1beta",
"apiKey": "你的令牌",
"api": "google-generative-ai",
"models": [
{
"id": "gemini-3.1-pro-preview",
"name": "Gemini 3.1 Pro Preview",
"input": ["text"],
"contextWindow": 1000000,
"maxTokens": 8192
},
{
"id": "gemini-3-flash-preview",
"name": "Gemini 3 Flash Preview",
"input": ["text"],
"contextWindow": 1000000,
"maxTokens": 8192
}
]
}
}
}
}要点:
- 三个 provider 共用同一个
apiKey(一个 token 走天下) baseUrl末尾路径不一样:原生 Anthropic 协议是根路径,OpenAI 协议是/v1,Gemini 是/v1betaapi字段决定 OpenClaw 网关怎么转协议:anthropic-messages/openai-responses/google-generative-ai
3. 写入 agents.defaults
继续编辑同一文件,加上 agents 段:
{
"agents": {
"defaults": {
"maxConcurrent": 4,
"model": {
"primary": "carpool-claude/claude-sonnet-4-6",
"fallbacks": [
"carpool-claude/claude-opus-4-6",
"carpool-openai/gpt-5.4",
"carpool-gemini/gemini-3.1-pro-preview"
]
},
"models": {
"carpool-claude/claude-opus-4-6": { "alias": "opus" },
"carpool-claude/claude-sonnet-4-6": { "alias": "sonnet" },
"carpool-claude/claude-haiku-4-5": { "alias": "haiku" },
"carpool-openai/gpt-5.4": { "alias": "gpt54" },
"carpool-openai/gpt-5.3": { "alias": "gpt53" },
"carpool-gemini/gemini-3.1-pro-preview": { "alias": "gemini31" },
"carpool-gemini/gemini-3-flash-preview": { "alias": "flash" }
}
}
}
}alias 段很关键:CLI 里就能直接 openclaw run --model sonnet ...,不必背完整路径。
4. 重启网关
openclaw gateway restart看到 gateway: ready 即生效。
模型选型建议
我自己跑下来的实战经验:
| 任务类型 | 推荐 alias | 原因 |
|---|---|---|
| 日常代码生成 | sonnet | 性价比最高,速度也够 |
| 复杂架构 / 重构 | opus | Sonnet 思路浅时切换 |
| 简单文档 / 摘要 | haiku | 又快又便宜 |
| 长上下文阅读(>200k) | gemini31 | 1M 上下文窗口顶上 |
| 工具调用密集型 | gpt54 | OpenAI Responses API tool call 表现稳 |
fallback 策略我推荐 Claude → Gemini → GPT 这个顺序,避免一家服务商抖动时全军覆没。Claude 主力够用,Gemini 上下文长备用,GPT 兜底。
验证配置
跑完所有步骤之后逐一验证:
检查配置语法
openclaw config validate报错最常见两类:JSON 多/少逗号,或者 apiKey 没替换占位符。
跑测试请求
openclaw run --model sonnet "你好,你是什么模型?"
openclaw run --model gpt54 "你好,你是什么模型?"
openclaw run --model gemini31 "你好,你是什么模型?"三条都能返回正确模型名,说明三个 provider 都通了。
测 fallback
故意写个错的 model id 看 fallback 生效不:
openclaw run --model carpool-claude/claude-does-not-exist "ping"应该看到日志里 fallback 到下一个候选。
常见问题
apiKey invalid
token 复制带了空格,或者前后引号不匹配。重跑 setup.sh 会重新写一次干净的版本:
curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20xmodel not found
agents.defaults.models 里的键和 providers 里的 provider/model_id 拼写不一致。检查斜杠两侧。
gateway not responding
openclaw gateway restart 跑一下;如果还不行,看日志:
tail -f ~/.openclaw/logs/gateway.log90% 是 JSON 解析失败,回到上一步备份恢复:
cp ~/.openclaw/openclaw.json.bak ~/.openclaw/openclaw.jsontoken 用量怎么看
openclaw usage --since 7d按 provider 聚合的成本视图。每月初看一眼大约就知道哪个模型用多了。
我自己的工作流
接入完成之后,我的日常长这样:
- 每个新项目根目录写
CLAUDE.md限定上下文(参考 CLAUDE.md 约束提示词指南) openclaw run默认走 sonnet,复杂任务才--model opus- 长文档审阅
--model gemini31,能一次塞完整本 RFC - 每周一
openclaw usage --since 7d复盘成本 - token 异常时跑 Claude Code 清理脚本 + 重跑 setup.sh,30 秒回血
立即开始
一行命令把上面所有事全做完:
curl -fsSL https://cp.bizq.net/setup.sh | bash -s -- claude-max-20x更多文档见 https://cp.bizq.net。具体团队规模与 token 档位微信咨询。
相关文章
- Claude Code 拼车配置完整教程 — 直接用 Claude Code 原生 CLI 接拼车
- Claude Code 5 分钟快速开通 — 最短路径起步
- OpenClaw 接入视觉模型 — 把 Gemini Vision / GPT-4V 加到同一份配置
- Claude Code 缓存清理脚本 — 出问题先清,再 setup.sh 回血