GPT-5.5 / Codex 上下文相关问题

站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版 是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是 模型上下文 ,也就是 输入+输出 模型最大能处理的上下文,并不是...
GPT-5.5 / Codex 上下文相关问题
GPT-5.5 / Codex 上下文相关问题

站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下:

首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。

这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用作上下文压缩的冗余。

所以很多人看到的大概 260-270k 上下文就是这么来的。

不过实际上,之前就有人认为:输出窗口分配 128k 太大了,完全没必要,实际上这是可以改的,目前的具体做法大概:

修改上下文 (点击了解更多详细信息)

例如改成 350k,但是这样输出超过50k左右就会导致截断、失败,这个需要自行权衡。

其他问题

  1. 为什么 codex 里面 5.5 的上下文反而小于 5.4:大概率是成本考虑,5.5 的规模是要比 5.4 大的,推理成本更高,开放长上下文会大幅增加推理成本
  2. 会提高吗:按照 Codex 团队负责人,会的( https://x.com/thsottiaux/status/2047436878350307482 ),但不知道什么时候、提高到多少
  3. 实际上目前的 5.5 上下文和 5.2/5.3/5.4(不手动修改1M)完全一样,如果前面你用得不错 5.5 也不会有什么问题

1 个帖子 - 1 位参与者

阅读完整话题

来源: linux.do查看原文