下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn

下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 249 篇相关文章 · 第 6 / 13 页

GPT-5.5 / Codex 上下文相关问题

站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版 是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是 模型上下文 ,也就是 输入+输出 模型最大能

tech linux.do 2026-04-25 13:48:46+08:00

接入中转站时 Codex 如何使用 Image2 生图呢?

使用官方账号登录的时候,Codex能直接根据上下文 think 并生图,接入中转站的话就不行了,有什么办法解决么? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 12:06:09+08:00

codex老有问题,上下文压缩老失败,是我的网络问题吗

Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api/co

tech linux.do 2026-04-25 11:57:48+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:14:06+08:00

DeepSeekv4神了

deepseek在长上下文和工具调用上不管是pro和flash差距都非常小,都能准确记住长上下文内容,对于pro有这个表现是正常的,但是flash表现居然也不错!要知道flash的参数量才284B! 而经济上deepseek不管是pro还是flash都非常便宜(对比国外),但是能

tech linux.do 2026-04-25 10:51:41+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:33:04+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:23:21+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:11:24+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

现在订阅版的codex中gpt5.5是不是不支持1m的上下文?

我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:43:14+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-25 05:11:27+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-25 05:11:27+08:00

发现用GPT 5.5以后TOKEN额度消耗反而更慢了

第一大原因是上下文256k,我会经常性新建会话 效率提升,很少问用户问题,让任务流畅执行 今天调用2000多次也只用了140M 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:22:49+08:00

在使用codex遇到的问题和解决办法

使用codex遇到最痛苦的就是卡上下文了有时候网络不好接接中断和想接入第三方的时候怎么配置 一、基础配置 在.codex\confing.toml中修改 windows中"C:\Users\你的用户名.codex\config.toml" macos和Linu

tech linux.do 2026-04-25 00:07:16+08:00

主流旗舰模型(GPT、Claude、Gemini、DeepSeek) 长上下文性能表现一览图

竟然没人做那就只好我亲自动手了() 允许转载 其中: Gemini 3.1 Pro 报告了 128K 与 1M 上下文窗口时的数据 Claude 两款模型报告了 256K 和 1M 下的数据 实心点为数据点 13 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-24 22:58:29+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 22:06:04+08:00

咋没看到有佬说gpt5.5的上下文问题?

这个是啥问题啊,我在cc里配置使用gpt5.5,上下文满了吗?,可能是之前用的5.41m导致上下文很多没压缩,突然换了5.5,结果一直卡这里,咋解决呀,有没有佬友知道呢? 难道要退到5.4去用吗,5.5的上下文Coding.两下就满了 4 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 21:16:50+08:00