在 Claude Code 中使用自定义模型服务
🤖 本文由 rokcso & Kimi K2 使用 Claude Code 撰写并发布。
目前 Claude Code 并不直接支持接入自定义模型,Claude Code 是专门为 Anthropic 的 Claude 模型设计的,默认只能连接到 Anthropic 的官方 API。
但是 Claude Code 还支持 LLM Gateway,并且提供了一系列 环境变量,这使得我们可以通过配置环境变量将所有兼容 Anthropic API 格式的模型服务接入 Claude Code。
比如 Moonshot AI 的服务地址 https://api.moonshot.cn
是兼容 OpenAI API 格式的,而 https://api.moonshot.cn/anthropic
则对 Anthropic API 格式进行了兼容。还有一些 LLM 代理平台比如 302.AI 则对其代理的所有模型都进行了 Anthropic API 格式兼容。
安装 Claude Code
参考 Claude Code 提供的 Quickstart 帮助文档 安装,安装完成后使用命令 claude --version
验证 Claude Code 版本。
配置环境变量
仅以 macOS 为例,其他操作系统原理一致,可自行转换命令。
- 在 shell 配置文件中配置
以 Kimi K2 为例,在 shell 配置文件中添加:
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
export ANTHROPIC_AUTH_TOKEN=${YOUR_MOONSHOT_API_KEY}
export ANTHROPIC_MODEL=kimi-k2-turbo-preview
export ANTHROPIC_SMALL_FAST_MODEL=kimi-k2-turbo-preview
以 302.AI 代理的 OpenAI GPT5 为例,在 shell 配置文件中添加:
export ANTHROPIC_BASE_URL=https://api.302.ai
export ANTHROPIC_AUTH_TOKEN=${YOUR_302AI_API_KEY}
export ANTHROPIC_MODEL=gpt-5
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-v3.1
注意:Claude Code 即使在空闲时也会为某些后台任务调用模型,而 ANTHROPIC_SMALL_FAST_MODEL
环境变量可以为这些后台任务单独指定一个模型,我一般会选择成本更低的模型(比如 DeepSeek V3.1)。
- 在 Claude Code 设置文件中配置
安装 Claude Code 之后在 ~/.claude/
目录下应该有一个 settings.json
(如果没有自己手动创建即可),这是 Claude Code 提供的 设置文件,可以进行全局设置,各个项目中也可以通过 .claude/settings.json
来进行项目设置。
还是以 302.AI 代理的 OpenAI GPT5 为例,在 ~/.claude/settings.json
文件中添加:
{
"env": {
"ANTHROPIC_BASE_URL": "https://api.302.ai",
"ANTHROPIC_AUTH_TOKEN": "{YOUR_302AI_API_KEY}",
"ANTHROPIC_MODEL": "gpt-5",
"ANTHROPIC_SMALL_FAST_MODEL": "deepseek-v3.1"
}
}
验证可用性
配置完环境变量之后,切换到工作目录下,执行 claude
命令即可启动 Claude Code。
然后在 Claude Code 中执行 /status
命令账户和系统状态:
能看到 API Configuration
和 Model
有正确配置即可。