
一 账号
data_group_329.7z GXt41TQCnqf22hzM
mac自带的软件无法解压缩,需要终端
7z x data_group_329.7z
接着输入密码GXt41TQCnqf22hzM即可
二 cliproxyapi
2.1 Mac安装
brew install cliproxyapi
brew services start cliproxyapi
2.2 配置
~/.cli-proxy-api/config.yaml
secret-key:MGT-123,是WebUI的登陆密码。
your-api-key-1要改成sk开头的
sk-001
sk-12345678901234567890
ABC-12dafasdfasdf8883236
如果修改配置,改密码之后需要重启:
brew services restart cliproxyapi
三 配置WebUI
3.1
http://localhost:8317/management.html
http://127.0.0.1:8317/management.html
认证文件管理,导入认证文件。
3.2 配置访问网络
开启TUN模式;
或者配置代理URL:
socks5://host.docker.internal:7890
Base URL:
http://localhost:8317/v1
3.3 获取API Key,在”配置面板“中查看API密钥列表,其实就是刚才在~/.cli-proxy-api/config.yaml配置的
3.4 Codex API 配置
Base URL (必填):
http://localhost:8317/v1
API密钥:
sk-001
点击"从 /v1/models 获取",可以找到gpt-5.3-codex等模型。
如果用终端验证,可以使用命令:
curl -v -H "Authorization: Bearer sk-001" http://localhost:8317/v1/models
也能返回支持的模型
3.6 其他连通性测试方法
Cherry Studio设置apikey和baseUrl,可视化的界面,也能判断baseurl, apikey是否可用。
Codex使用
~/.codex/config.toml
model = "gpt-5.3-codex"
model_reasoning_effort = "xhigh"
reasoning_effort = "xhigh"
personality = "pragmatic"
model_provider = "cpa"
[features]
skills =true
[projects."/Users/kk/Documents/kCode/AIRule"]
trust_level = "trusted"
[projects."/Users/ll/.codex"]
trust_level = "trusted"
[model_providers.cpa]
name = "cpa"
base_url = "http://localhost:8317/v1"
wire_api = "responses"
requires_openai_auth = false
~/.codex/auth.json
{
"OPENAI_API_KEY": "sk-001"
}
奇葩报错
Codex使用时,401
• Reconnecting… 1/5 (6s • esc to interrupt)
└ Unexpected status 401 Unauthorized: Incorrect API key provided: sk-001. You can find your API key at https://
platform.openai.com/account/api-keys., url: https://api.openai.com/v1/responses, cf-ray: 9d8a8f81eedcc0cc-LAX, request id:
req_07d439c5b38747f8a7f567fd5bf3eef2
使用AI搜索的经历
Gemini, ChatGPT说配置zshrc,
export OPENAI_BASE_URL=""http://localhost:8317/v1"
export OPENAI_API_KEY="sk-001"
看起来就不对。
最后还是Grok看出来问题了。
我之前配置如下(因为我单独改过model_provider,而且是在信任路径之后改的)
[projects."/Users/aa/Documents/Code/Workspace"]
trust_level = "trusted"
model_provider = "cpa"
Grok发现了问题的原因:
你的 cat ~/.codex/config.toml 显示 model_provider = "cpa" 被错误地放在了 [projects."..."] 表里面!
TOML 解析规则:一旦进入 [projects.xxx] 这个 section,后面的 key(直到下一个 [)都属于这个表。所以全局 model_provider 实际上不存在,Codex 直接回退默认 openai provider → 强制走 https://api.openai.com/v1/responses(这就是你一直看到的错误)。
{"detail":"Unsupported parameter: response_format"}
格式问题,容易解决
在 CPA 的 config.yaml 末尾添加 payload 覆盖规则:
payload:
override:
- models:
- name: "gpt-*"
protocol: "codex"
params:
"reasoning.effort": "xhigh"
filter:
- models:
- name: "gpt-*"
params:
- "response_format"