提升 Claude Code 自定义模型上下文识别容量 200K -> 1M(迎接 DeepSeek V4)
这两天看到了 DeepSeek V4 Lite / V4 API 要上线的消息,心里想着又了 1M 上下文之后,Cladue Code × DeepSeek V4 可以爽用了。
紧接着产生一个疑问,Claude Code 是怎么识别自定义模型的上下文长度的?目前配置的 DeepSeek 在 Claude Code 中默认的上下文长度是多少?
DeepSeek 自定义模型配置:
1 | { |

用/context 命令看了一下,Claude Code 默认会认为模型的上下长度是 200K。想到之前 Sonnet / Opus 测试 1M 上下文模型的时候要用 /model sonnet[1m] 来进行指定,[1m] 这个上下文标识符可能是个突破口。
翻看了一下官方文档,找到了如下描述:

抱着试一试的想法,我修改了自定义模型配置,给模型名称后添加了 [1m] 标识
1 | { |
重新打开 Claude Code,使用 /context 命令再次查看

上下文大小成功识别为 1M,由于之前的源代码已经泄漏了,马上让 DeepSeek 驱动的 Cladue Code 去调查一下上下文容量判断的具体依据是什么 🤣
本文原贴发布在 Linux Do 论坛:提升 Claude Code 自定义模型上下文识别容量 200K -> 1M(迎接 DeepSeek V4)
提升 Claude Code 自定义模型上下文识别容量 200K -> 1M(迎接 DeepSeek V4)
https://cloverkit.dev/2026/04/23/提升-Claude-Code-自定义模型上下文识别容量-200K-1M(迎接-DeepSeek-V4)/