上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn

上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 242 篇相关文章 · 第 6 / 13 页

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:14:06+08:00

DeepSeekv4神了

deepseek在长上下文和工具调用上不管是pro和flash差距都非常小,都能准确记住长上下文内容,对于pro有这个表现是正常的,但是flash表现居然也不错!要知道flash的参数量才284B! 而经济上deepseek不管是pro还是flash都非常便宜(对比国外),但是能

tech linux.do 2026-04-25 10:51:41+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:33:04+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:23:21+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:11:24+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

现在订阅版的codex中gpt5.5是不是不支持1m的上下文?

我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:43:14+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-25 05:11:27+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-25 05:11:27+08:00

发现用GPT 5.5以后TOKEN额度消耗反而更慢了

第一大原因是上下文256k,我会经常性新建会话 效率提升,很少问用户问题,让任务流畅执行 今天调用2000多次也只用了140M 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:22:49+08:00

在使用codex遇到的问题和解决办法

使用codex遇到最痛苦的就是卡上下文了有时候网络不好接接中断和想接入第三方的时候怎么配置 一、基础配置 在.codex\confing.toml中修改 windows中"C:\Users\你的用户名.codex\config.toml" macos和Linu

tech linux.do 2026-04-25 00:07:16+08:00

主流旗舰模型(GPT、Claude、Gemini、DeepSeek) 长上下文性能表现一览图

竟然没人做那就只好我亲自动手了() 允许转载 其中: Gemini 3.1 Pro 报告了 128K 与 1M 上下文窗口时的数据 Claude 两款模型报告了 256K 和 1M 下的数据 实心点为数据点 13 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-24 22:58:29+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 22:06:04+08:00

咋没看到有佬说gpt5.5的上下文问题?

这个是啥问题啊,我在cc里配置使用gpt5.5,上下文满了吗?,可能是之前用的5.41m导致上下文很多没压缩,突然换了5.5,结果一直卡这里,咋解决呀,有没有佬友知道呢? 难道要退到5.4去用吗,5.5的上下文Coding.两下就满了 4 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 21:16:50+08:00

求·大佬推荐管理 codex 上下文的工具

每次工作进行到一半会提示我 希望各位佬推荐个可以管理历史对话,进行迁移的工具(最好gpt 跨 claude 也可以) 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 21:00:33+08:00

DeepSeek V4把百万上下文打到2毛 国产卡将“腰斩”API价格?

DeepSeek-V4预览版本,终于发布了。今日,DeepSeek官方宣布:拥有百万字超长上下文的deepseek-v4-pro和deepseek-v4-flash两款模型发布并开源,即日起登录官网或官方App即可与最新的DeepSeek-V4对话,探索1M(百万)超长上下文记忆

tech plink.anyfeeder.com 2026-04-24 19:35:41+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 19:22:39+08:00

一样的上下文, Claude占用Token是其他模型的1.5倍

以前在OpenCode中使用Claude和GPT的时候就发现. 同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token. 现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100kto

tech linux.do 2026-04-24 19:04:52+08:00

想学习一下各位佬的Vibecoding焚绝

最近一直的研究vibecoding,但是到后期上下文长了,感觉写起来就很吃力,各位佬可以分享一下自己vibecoding的思路或者流程吗?刚开始是如何设计前端页面的?另外各位佬们有什么好用skill推荐么? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 18:28:57+08:00