Skip to main content

News:

  • 2026-0212:智谱发布新一代旗舰模型GLM-5,重点提升编程与智能体能力
  • 2026-0127:杨植麟亲自开源Kimi K2.5!国产大模型打架的一天
  • 2026-0206:AI编程大战打响!OpenAI推出GPT-5.3-Codex,与Anthropic同步发布新模型 Claude Opus 4.6
Claude Code 支持通过 OpenAI 兼容 API 接口使用第三方模型。本文介绍如何配置各种国内外模型提供商。

配置方式

Claude Code 支持两种配置第三方 API 的方式:

方式一:环境变量

# 设置 API 基础地址
export ANTHROPIC_BASE_URL="https://api.example.com/v1"

# 设置 API 密钥
export ANTHROPIC_API_KEY="your-api-key"

# 设置模型名称(可选)
export ANTHROPIC_MODEL="model-name"

方式二:配置文件

~/.claude/settings.json 中添加:
"env": {
    "ANTHROPIC_API_KEY": "sk-xxxxxx",
    "ANTHROPIC_BASE_URL": "your base url",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1",
    "DISABLE_ERROR_REPORTING": "1",
    "DISABLE_TELEMETRY": "1"
  },

国内模型提供商

GLM(智谱)

智谱最新推出的 GLM-5 是全球最强的开源 Agent 模型,在变成和 Agent 能力上效果卓越。 配置文件:
# 编辑或新增 `settings.json` 文件
# MacOS & Linux 为 `~/.claude/settings.json`
# Windows 为`用户目录/.claude/settings.json`
# 新增或修改里面的 env 字段
# 注意替换里面的 `your_zhipu_api_key` 为您上一步获取到的 API Key
# GLM-5 已经发布,可以使用 GLM-5 替换下面的模型 ID
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key",
    "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
    "API_TIMEOUT_MS": "3000000",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.7"
  }
}
# 再编辑或新增 `.claude.json` 文件
# MacOS & Linux 为 `~/.claude.json`
# Windows 为`用户目录/.claude.json`
# 新增 `hasCompletedOnboarding` 参数
{
  "hasCompletedOnboarding": true
}
获取 API Key:https://open.bigmodel.cn/

Kimi (月之暗面)

Kimi 2.5 是月之暗面推出的最新模型,支持超长上下文。
# Linux/macOS 启动高速版 kimi-k2-thinking-turbo 模型
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
export ANTHROPIC_AUTH_TOKEN=${YOUR_MOONSHOT_API_KEY}
export ANTHROPIC_MODEL=kimi-k2-thinking-turbo
export ANTHROPIC_DEFAULT_OPUS_MODEL=kimi-k2-thinking-turbo
export ANTHROPIC_DEFAULT_SONNET_MODEL=kimi-k2-thinking-turbo
export ANTHROPIC_DEFAULT_HAIKU_MODEL=kimi-k2-thinking-turbo
export CLAUDE_CODE_SUBAGENT_MODEL=kimi-k2-thinking-turbo 
claude
获取 API Key: https://platform.moonshot.cn/console/api-keys

MiniMax

MiniMax 提供高性能的国产大模型服务。
# Stpe1: 编辑或创建 Claude Code 的配置文件
# MacOS & Linux 为 `~/.claude/settings.json`
# Windows 为`用户目录/.claude/settings.json`
# `MINIMAX_API_KEY` 需替换为您的 MiniMax API Key
# 环境变量 `ANTHROPIC_AUTH_TOKEN` 和 `ANTHROPIC_BASE_URL` 优先级高于配置文件
{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.minimaxi.com/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "MINIMAX_API_KEY",
    "API_TIMEOUT_MS": "3000000",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1,
    "ANTHROPIC_MODEL": "MiniMax-M2.1",
    "ANTHROPIC_SMALL_FAST_MODEL": "MiniMax-M2.1",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "MiniMax-M2.1",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "MiniMax-M2.1",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "MiniMax-M2.1"
  }
}
# Step2: 编辑或新增 `.claude.json` 文件
# MacOS & Linux 为 `~/.claude.json`
# Windows 为`用户目录/.claude.json`
# 新增 `hasCompletedOnboarding` 参数
{
  "hasCompletedOnboarding": true
}
获取 API Key: https://platform.minimaxi.com/user-center/basic-information/interface-key

智谱 GLM

智谱 AI 的 GLM 系列模型,包括 GLM-4 等。
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/paas/v4"
export ANTHROPIC_API_KEY="your-zhipu-key"
export ANTHROPIC_MODEL="glm-4-plus"
可用模型:
模型名称说明
glm-4-plus最新旗舰模型
glm-4高性能模型
glm-4-air快速响应
glm-4-airx极速响应
glm-4-flash免费模型
获取 API Key: https://open.bigmodel.cn

DeepSeek

DeepSeek 提供高性价比的代码和推理模型。
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN="DEEPSEEK_API_KEY"
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
可用模型:
模型名称说明
deepseek-chat通用对话模型,目前版本是 DeepSeek-V3.2(2026-0212)
deepseek-reasoner推理增强模型
获取 API Key: https://platform.deepseek.com

百度千帆

百度文心大模型平台。
export ANTHROPIC_BASE_URL="https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop"
export ANTHROPIC_API_KEY="your-access-token"
export ANTHROPIC_MODEL="ernie-4.0-8k"
可用模型:
模型名称说明
ernie-4.0-8kERNIE 4.0
ernie-3.5-8kERNIE 3.5
ernie-speed-128k长文本快速
获取 API Key: https://console.bce.baidu.com/qianfan

阿里通义千问

阿里云通义千问系列模型。
export ANTHROPIC_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
export ANTHROPIC_API_KEY="sk-your-dashscope-key"
export ANTHROPIC_MODEL="qwen-max"
可用模型:
模型名称说明
qwen-max最强能力
qwen-plus平衡选择
qwen-turbo快速响应
qwen-long长文本
获取 API Key: https://dashscope.console.aliyun.com

国际模型提供商

OpenRouter

OpenRouter 聚合了多种模型,一个 API 访问所有模型。
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_API_KEY="sk-or-your-key"
export ANTHROPIC_MODEL="anthropic/claude-3.5-sonnet"
热门模型:
模型名称说明
anthropic/claude-3.5-sonnetClaude 3.5 Sonnet
openai/gpt-4-turboGPT-4 Turbo
google/gemini-pro-1.5Gemini 1.5 Pro
meta-llama/llama-3.1-405bLlama 3.1 405B
获取 API Key: https://openrouter.ai

Groq

Groq 提供超快速的推理服务。
export ANTHROPIC_BASE_URL="https://api.groq.com/openai/v1"
export ANTHROPIC_API_KEY="gsk_your-groq-key"
export ANTHROPIC_MODEL="llama-3.1-70b-versatile"
可用模型:
模型名称说明
llama-3.1-70b-versatileLlama 3.1 70B
llama-3.1-8b-instantLlama 3.1 8B
mixtral-8x7b-32768Mixtral 8x7B
获取 API Key: https://console.groq.com

Together AI

Together AI 提供开源模型的托管服务。
export ANTHROPIC_BASE_URL="https://api.together.xyz/v1"
export ANTHROPIC_API_KEY="your-together-key"
export ANTHROPIC_MODEL="meta-llama/Llama-3-70b-chat-hf"
获取 API Key: https://api.together.xyz

自托管方案

Ollama (本地部署)

使用 Ollama 在本地运行开源模型。
# 启动 Ollama 服务
ollama serve

# 配置 Claude Code
export ANTHROPIC_BASE_URL="http://localhost:11434/v1"
export ANTHROPIC_API_KEY="ollama"  # Ollama 不需要真实 key
export ANTHROPIC_MODEL="llama3.1:70b"
推荐模型:
  • llama3.1:70b - 最强开源模型
  • codellama:34b - 代码专用
  • qwen2.5:72b - 通义千问开源版
  • deepseek-coder-v2:16b - DeepSeek 代码模型

vLLM / Text Generation Inference

自建推理服务:
export ANTHROPIC_BASE_URL="http://your-server:8000/v1"
export ANTHROPIC_API_KEY="your-key"
export ANTHROPIC_MODEL="your-model"

常见问题

如何验证配置是否正确?

运行以下命令测试连接:
claude --version
claude "你好,请介绍一下你自己"

模型不支持某些功能怎么办?

部分第三方模型可能不支持 Claude Code 的所有功能(如工具调用)。建议:
  • 使用支持 function calling 的模型
  • 查看模型提供商的 API 文档了解支持的功能

如何切换不同的模型?

可以通过修改环境变量或使用配置文件快速切换:
# 切换到 Kimi
export ANTHROPIC_MODEL="moonshot-v1-128k"

# 切换到 DeepSeek
export ANTHROPIC_MODEL="deepseek-chat"

API 调用失败怎么办?

  1. 检查 API Key 是否正确
  2. 检查网络连接
  3. 确认 API 余额是否充足
  4. 查看错误信息了解具体原因

相关资源

Last modified on February 12, 2026