上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn

上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 242 篇相关文章 · 第 7 / 13 页

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 18:01:50+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 16:35:29+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 16:35:29+08:00

GPT5.5 给skill的上下文这么少吗

Exceeded skills context budget of 2% 系统尝试加载一些 “skills/技能” 的说明文档,但给 skills 的上下文预算很小,只有 2%,所以技能描述被截断了。 6 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:34:37+08:00

deepseek-v4-pro Max思考下的缓存率稳定在95%,长上下文注意力也不错

测了几个会话下来,发现ds v4 pro max的缓存率不断上升,从85%升到95%左右并稳定下来。 官Key显示 145.23人民币。 目前单轮对话最长已经到了500k,注意力正常,没有偏离主线。 12 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:12:03+08:00

DeepSeek 正式发布 V4 API:Flash/Pro 双版本齐发 百万上下文成标配

万众期待中,DeepSeek V4,终于发布了!就在刚刚,被期待已久的 DeepSeek V4 预览版正式登场。两个版本—— V4-Pro 和 V4-Flash,全系标配 1M(百万字)超长上下文,同步开源模型权重和技术报告 。 五一前的这两天,大模型又进入新一轮发布潮。 4 月

tech plink.anyfeeder.com 2026-04-24 16:05:25+08:00

GPT5.5 怎么开 1M 上下文呀

之前 5.4 是通过改 .codex/config.toml 实现的,现在改完还是现实只有 256k 上下文,各位佬是我配置错了吗? 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:03:38+08:00

codex更新后不能开启1M上下文了吗?

一直改的config.toml 之前5.4 1M效果不佳就关了,今天看GPT5.5 1M上下文的召回率提高了就又打开了,但是似乎无法生效? 有知道怎么开启的佬吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:02:03+08:00

DeepSeek V4 预览版已发布

官方公众号: DeepSeek-V4 预览版:迈入百万上下文普惠时代 https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg 官网和 API 已经同步更新,有想要尝鲜的可以用起来了

tech www.v2ex.com 2026-04-24 15:57:16+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 15:54:34+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 15:49:30+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 15:32:26+08:00

codex 中GPT5.5 现在怎么配置 1M 上下文

[已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三 解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?

tech linux.do 2026-04-24 14:53:33+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 14:47:19+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 14:47:19+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 14:13:13+08:00

DeepSeek V4 预览版已发布

官方公众号: DeepSeek-V4 预览版:迈入百万上下文普惠时代 https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg 官网和 API 已经同步更新,有想要尝鲜的可以用起来了

tech www.v2ex.com 2026-04-24 13:57:16+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 13:56:24+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 13:34:28+08:00

天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6

1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了

tech www.v2ex.com 2026-04-24 13:30:48+08:00