可用模型
对于 Claude Code 中的model 设置,你可以配置以下任一项:
- 一个模型别名
- 一个模型名称
- Anthropic API:完整的**模型名称**
- Bedrock:推理配置文件 ARN
- Foundry:部署名称
- Vertex:版本名称
模型别名
模型别名提供了一种便捷的方式来选择模型设置,无需记住确切的版本号:| 模型别名 | 行为 |
|---|---|
default | 推荐的模型设置,取决于你的账户类型 |
sonnet | 使用最新的 Sonnet 模型(当前为 Sonnet 4.5)用于日常编码任务 |
opus | 使用最新的 Opus 模型(当前为 Opus 4.6)用于复杂推理任务 |
haiku | 使用快速高效的 Haiku 模型用于简单任务 |
sonnet[1m] | 使用 Sonnet 和100 万 token 上下文窗口用于长会话 |
opusplan | 特殊模式,在计划模式中使用 opus,然后在执行时切换到 sonnet |
claude-opus-4-5-20251101)或设置相应的环境变量,如 ANTHROPIC_DEFAULT_OPUS_MODEL。
设置你的模型
你可以通过多种方式配置模型,按优先级顺序列出:- 在会话期间 - 使用
/model <alias|name>在会话中切换模型 - 启动时 - 使用
claude --model <alias|name>启动 - 环境变量 - 设置
ANTHROPIC_MODEL=<alias|name> - 设置 - 在设置文件中使用
model字段永久配置。
特殊模型行为
default 模型设置
default 的行为取决于你的账户类型:
- Max 和 Teams:默认为 Opus 4.6
- Pro:在 Claude Code 中默认为 Opus 4.6
- Enterprise:Opus 4.6 可用但不是默认值
opusplan 模型设置
opusplan 模型别名提供了一种自动化的混合方法:
- 在计划模式中 - 使用
opus进行复杂推理和架构决策 - 在执行模式中 - 自动切换到
sonnet进行代码生成和实现
调整努力级别
努力级别控制 Opus 4.6 的自适应推理,它根据任务复杂性动态分配思考。较低的努力级别对于直接任务更快更便宜,而较高的努力级别为复杂问题提供更深入的推理。 有三个级别可用:低、中 和 高(默认)。 设置努力级别:- 在
/model中:选择模型时使用左右箭头键调整努力级别滑块 - 环境变量:设置
CLAUDE_CODE_EFFORT_LEVEL=low|medium|high - 设置:在设置文件中设置
effortLevel
/model 中。
使用 [1m] 扩展上下文
[1m] 后缀为长会话启用100 万 token 上下文窗口。
对于 Opus 4.6,100 万 token 上下文窗口可供 API 和 Claude Code 按使用量付费用户使用。Pro、Max、Teams 和 Enterprise 订阅用户在推出时无法访问 Opus 4.6 100 万 token 上下文。
[1m] 后缀与模型别名或完整模型名称一起使用:
检查你当前的模型
你可以通过多种方式查看你当前使用的模型:- 在状态行中(如果已配置)
- 在
/status中,它也显示你的账户信息。
环境变量
你可以使用以下环境变量,这些变量必须是完整的模型名称(或你的 API 提供商的等效项),以控制别名映射到的模型名称。
注意:
ANTHROPIC_SMALL_FAST_MODEL 已弃用,改为使用 ANTHROPIC_DEFAULT_HAIKU_MODEL。
Prompt caching 配置
Claude Code 自动使用 prompt caching 来优化性能并降低成本。你可以全局禁用 prompt caching 或针对特定模型层禁用:| 环境变量 | 描述 |
|---|---|
DISABLE_PROMPT_CACHING | 设置为 1 以禁用所有模型的 prompt caching(优先于按模型设置) |
DISABLE_PROMPT_CACHING_HAIKU | 设置为 1 以仅禁用 Haiku 模型的 prompt caching |
DISABLE_PROMPT_CACHING_SONNET | 设置为 1 以仅禁用 Sonnet 模型的 prompt caching |
DISABLE_PROMPT_CACHING_OPUS | 设置为 1 以仅禁用 Opus 模型的 prompt caching |
DISABLE_PROMPT_CACHING 设置优先于特定模型设置,允许你在需要时快速禁用所有缓存。按模型设置对于选择性控制很有用,例如在调试特定模型或与可能有不同缓存实现的云提供商合作时。