站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下:
首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。
这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用作上下文压缩的冗余。
所以很多人看到的大概 260-270k 上下文就是这么来的。
不过实际上,之前就有人认为:输出窗口分配 128k 太大了,完全没必要,实际上这是可以改的,目前的具体做法大概:
修改上下文 (点击了解更多详细信息)例如改成 350k,但是这样输出超过50k左右就会导致截断、失败,这个需要自行权衡。
其他问题
- 为什么 codex 里面 5.5 的上下文反而小于 5.4:大概率是成本考虑,5.5 的规模是要比 5.4 大的,推理成本更高,开放长上下文会大幅增加推理成本
- 会提高吗:按照 Codex 团队负责人,会的( https://x.com/thsottiaux/status/2047436878350307482 ),但不知道什么时候、提高到多少
- 实际上目前的 5.5 上下文和 5.2/5.3/5.4(不手动修改1M)完全一样,如果前面你用得不错 5.5 也不会有什么问题
1 个帖子 - 1 位参与者