258K - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

258K - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 5 篇相关文章

gpt 5.5 只能258k上下文, 没法干活阿, 还是换成5.4了

原来5.4 1M上下文习惯了 真干活, 很容易搞倒800k了, 我手动压缩一次 200多k要不停压缩怕质量不行 还是等1M 5.5再用把 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-29 21:55:52+08:00

gpt5.5 只有 258k吗

我看gpt5.4还是950k 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 16:53:58+08:00

GPT-5.5 配了 1M 却又显示 258K?Codex Desktop Windows 修复记录(无效)

我遇到的问题是: config.toml 里明明已经写了 GPT-5.5 的 1M 上下文,但 Codex Desktop 新开线程或重启后,界面又显示回 258K。 最后排查发现,不是 config.toml 写错,而是 Codex Desktop 会读取本地模型缓存。缓存里的

tech linux.do 2026-04-25 13:59:11+08:00

codex gpt 5.5不支持高上下文,貌似只有258k

然而我已经开了350k(刚刚还试过了512k / 1m) model = "gpt-5.5" model_reasoning_effort = "xhigh" model_context_window = 350000 model_auto

tech linux.do 2026-04-24 10:02:14+08:00

求问 现在free号最低的额度(我看有0.2刀左右的:distorted_face:)够用一次codex258k顶格的请求吗???

就是上下文默认最大258k的情况下,一个free号会不会可能出现 一次顶格上下文的请求 完不成的情况???如果会的话,那free号实在是没什么意义了… 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 12:47:01+08:00