Codex CLI 反代 CPA配置

20260307Codex CLI 反代 CPA配.png

一 账号

data_group_329.7z GXt41TQCnqf22hzM
mac自带的软件无法解压缩,需要终端

7z x data_group_329.7z

接着输入密码GXt41TQCnqf22hzM即可

二 cliproxyapi

2.1 Mac安装

brew install cliproxyapi
brew services start cliproxyapi

2.2 配置
~/.cli-proxy-api/config.yaml

secret-key:MGT-123,是WebUI的登陆密码。

your-api-key-1要改成sk开头的

sk-001
sk-12345678901234567890
ABC-12dafasdfasdf8883236

如果修改配置,改密码之后需要重启:

brew services restart cliproxyapi

三 配置WebUI

3.1
http://localhost:8317/management.html
http://127.0.0.1:8317/management.html

认证文件管理,导入认证文件。

3.2 配置访问网络
开启TUN模式;
或者配置代理URL:
socks5://host.docker.internal:7890

Base URL:

http://localhost:8317/v1

3.3 获取API Key,在”配置面板“中查看API密钥列表,其实就是刚才在~/.cli-proxy-api/config.yaml配置的

3.4 Codex API 配置
Base URL (必填):

http://localhost:8317/v1

API密钥:

sk-001

点击"从 /v1/models 获取",可以找到gpt-5.3-codex等模型。

如果用终端验证,可以使用命令:

curl -v -H "Authorization: Bearer sk-001" http://localhost:8317/v1/models

也能返回支持的模型

3.6 其他连通性测试方法
Cherry Studio设置apikey和baseUrl,可视化的界面,也能判断baseurl, apikey是否可用。

Codex使用

~/.codex/config.toml
model = "gpt-5.3-codex"
model_reasoning_effort = "xhigh"
reasoning_effort = "xhigh"
personality = "pragmatic"

model_provider = "cpa"

[features]
skills =true

[projects."/Users/kk/Documents/kCode/AIRule"]
trust_level = "trusted"

[projects."/Users/ll/.codex"]
trust_level = "trusted"

[model_providers.cpa]
name = "cpa"
base_url = "http://localhost:8317/v1"
wire_api = "responses"
requires_openai_auth = false

~/.codex/auth.json

{
  "OPENAI_API_KEY": "sk-001"
}

奇葩报错

Codex使用时,401

• Reconnecting… 1/5 (6s • esc to interrupt)
└ Unexpected status 401 Unauthorized: Incorrect API key provided: sk-001. You can find your API key at https://
platform.openai.com/account/api-keys., url: https://api.openai.com/v1/responses, cf-ray: 9d8a8f81eedcc0cc-LAX, request id:
req_07d439c5b38747f8a7f567fd5bf3eef2

使用AI搜索的经历

Gemini, ChatGPT说配置zshrc,
export OPENAI_BASE_URL=""http://localhost:8317/v1"
export OPENAI_API_KEY="sk-001"
看起来就不对。

最后还是Grok看出来问题了。
我之前配置如下(因为我单独改过model_provider,而且是在信任路径之后改的)

[projects."/Users/aa/Documents/Code/Workspace"]
trust_level = "trusted"
model_provider = "cpa"

Grok发现了问题的原因:

你的 cat ~/.codex/config.toml 显示 model_provider = "cpa" 被错误地放在了 [projects."..."] 表里面!
TOML 解析规则:一旦进入 [projects.xxx] 这个 section,后面的 key(直到下一个 [)都属于这个表。所以全局 model_provider 实际上不存在,Codex 直接回退默认 openai provider → 强制走 https://api.openai.com/v1/responses(这就是你一直看到的错误)。

{"detail":"Unsupported parameter: response_format"}

格式问题,容易解决
在 CPA 的 config.yaml 末尾添加 payload 覆盖规则:

payload:
  override:
    - models:
        - name: "gpt-*"
          protocol: "codex"
      params:
        "reasoning.effort": "xhigh"
  filter:
    - models:
        - name: "gpt-*"
      params:
        - "response_format"
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容