GPT-5.5在claude code自定义上下文长度的方法

目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着) 我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。) 然而我觉得400k虽然没那么多,但是也不至...
GPT-5.5在claude code自定义上下文长度的方法
GPT-5.5在claude code自定义上下文长度的方法

目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着)

我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。)

然而我觉得400k虽然没那么多,但是也不至于经常触发窗口上限吧。。

结果就是用起来频繁压缩很头疼,以前用gpt-5.4的时候默认开了100万上下文(写[1M]后缀即可,现在的deepseek v4 pro如果开1M上下文也是这样干的)

然后使用/context指令才发现,只有200k上下文!!

经过查询和试错(期间我发现grok就算有网络搜索能力,给出的参数设置也是过时的,真正有效的数据还是gemini3.1pro结合谷歌搜索才找到的),
目前的结论是如下:

如果需要自定义模型在cc突破cc默认设置的200k上下文,同时又不至于到[1m]这种上下文,claude code设定必须让env里设定 DISABLE_COMPACT 为 1 才能生效,自动压缩以及压缩阈值autoCompactThreshold将失效,需注意手动压缩,否则超出上下文可能导致模型处理能力爆炸

.claude\settings.json的这部分示例如下:

“env”: {
“DISABLE_AUTOUPDATER”: “1”,
“CLAUDE_CODE_EFFORT_LEVEL”: “max”,
“ENABLE_TOOL_SEARCH”: “true”,
“CLAUDE_CODE_MAX_CONTEXT_TOKENS”: “400000”, //配置核心
“DISABLE_COMPACT”: “1”, //配置核心
“IS_SANDBOX”: “1”
},
“enabledPlugins”: {
“document-skills@anthropic-agent-skills”: true,
“superpowers@claude-plugins-official”: true
},
“hasCompletedOnboarding”: true,
“autoCompactThreshold”: “0.9”(这里只是示范我以前的自动压缩参数,前面已经设定了禁止压缩,所以这个参数实际上也会不工作)

如果佬友需要复制参数,记得去掉“//配置核心”,有可能导致claude认为配置文件有错误(在JSON文件的标准规范(RFC 8259)中是不支持注释的)

以上只是针对这样一个需求提供一种办法,如果佬友有更好的办法来控制就再好不过啦。
我codex和claude都用,有时候只是想试试在claude code里用gpt的感觉))

1 个帖子 - 1 位参与者

阅读完整话题

来源: linux.do查看原文