codex 中GPT5.5 现在怎么配置 1M 上下文

[已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三 解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M ...
codex 中GPT5.5 现在怎么配置 1M 上下文
codex 中GPT5.5 现在怎么配置 1M 上下文
[已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三
解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?我怎么记得有 1M 的 [image]

之前用 GPT5.4 的时候,可以自己配置上下文,之前也搜了官方支持 1M 上下文。


这两天更新 codex 之后,切换到 GPT5.5之后,这个配置失效了,佬们有新的手段吗?

3 个帖子 - 2 位参与者

阅读完整话题

来源: linux.do查看原文