GPT5.5 怎么开 1M 上下文呀
之前 5.4 是通过改 .codex/config.toml 实现的,现在改完还是现实只有 256k 上下文,各位佬是我配置错了吗? 5 个帖子 - 4 位参与者 阅读完整话题
上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 287 篇相关文章 · 第 9 / 15 页
之前 5.4 是通过改 .codex/config.toml 实现的,现在改完还是现实只有 256k 上下文,各位佬是我配置错了吗? 5 个帖子 - 4 位参与者 阅读完整话题
一直改的config.toml 之前5.4 1M效果不佳就关了,今天看GPT5.5 1M上下文的召回率提高了就又打开了,但是似乎无法生效? 有知道怎么开启的佬吗? 2 个帖子 - 2 位参与者 阅读完整话题
官方公众号: DeepSeek-V4 预览版:迈入百万上下文普惠时代 https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg 官网和 API 已经同步更新,有想要尝鲜的可以用起来了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
[已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三 解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
官方公众号: DeepSeek-V4 预览版:迈入百万上下文普惠时代 https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg 官网和 API 已经同步更新,有想要尝鲜的可以用起来了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
deepseek v4 的推出,应该对相关同行有着不小的影响。简单的像其他家的ai也要有1m上下文了啥的。光是对昇腾gpu的支持,就能把老黄逼急(前不久采访提到的不该限制gpu卖给中国的言论)。 光从模型看,哪怕公众号文章提到的性能有所差距 “目前 DeepSeek-V4 已成为
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
目前在使用qwen3max内部测试用,打算换了,一个是上下文长度不够,另一个应该是有些情况理解能力还是不够. 想选一个,1m上下文,暂时没有多模态需求,目前看dsv4p和mimo2.5p, 但是没有对比测试. 或者挖个坑,有对比大家 发一下 3 个帖子 - 2 位参与者 阅读完整
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
官方公众号: DeepSeek-V4 预览版:迈入百万上下文普惠时代 https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg 官网和 API 已经同步更新,有想要尝鲜的可以用起来了