关于Claude + gpt-5.5 +400K上下文讨论

首先感谢,佬的详细总结 GPT-5.5 / Codex 上下文相关问题 开发调优 站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K ...
关于Claude + gpt-5.5 +400K上下文讨论
关于Claude + gpt-5.5 +400K上下文讨论

首先感谢,佬的详细总结

GPT-5.5 / Codex 上下文相关问题 开发调优
站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是模型上下文,也就是输入+输出模型最大能处理的上下文,并不是单纯的最大输入窗口。具体来说,codex 给输入分配了约 260k,给输出分配了 128k,最后剩余一点用…

接下来讨论,

已知,在codex中,gpt5.5完整的上下文窗口是 400k(输入+输出)(工具定义也算输入)

那么,CPA 代理出来,也是 400K;

如何在Claude code 接入 gpt-5.5,并使用上 400K 呢?

因为默认开启的是 200K,目前来看,确实短了点。
开启 Oups [1M] 后,超出 400K 就会报错。

4 个帖子 - 2 位参与者

阅读完整话题

来源: linux.do查看原文