现在订阅版的codex中gpt5.5是不是不支持1m的上下文?
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题
上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 287 篇相关文章 · 第 8 / 15 页
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
第一大原因是上下文256k,我会经常性新建会话 效率提升,很少问用户问题,让任务流畅执行 今天调用2000多次也只用了140M 7 个帖子 - 5 位参与者 阅读完整话题
使用codex遇到最痛苦的就是卡上下文了有时候网络不好接接中断和想接入第三方的时候怎么配置 一、基础配置 在.codex\confing.toml中修改 windows中"C:\Users\你的用户名.codex\config.toml" macos和Linu
不是很多但速度是真的快啊! flash|每秒175 tokens pro|每秒81 tokens 我觉得等大家都完善配置了速度还能起飞 12 个帖子 - 9 位参与者 阅读完整话题
竟然没人做那就只好我亲自动手了() 允许转载 其中: Gemini 3.1 Pro 报告了 128K 与 1M 上下文窗口时的数据 Claude 两款模型报告了 256K 和 1M 下的数据 实心点为数据点 13 个帖子 - 7 位参与者 阅读完整话题
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
这个是啥问题啊,我在cc里配置使用gpt5.5,上下文满了吗?,可能是之前用的5.41m导致上下文很多没压缩,突然换了5.5,结果一直卡这里,咋解决呀,有没有佬友知道呢? 难道要退到5.4去用吗,5.5的上下文Coding.两下就满了 4 个帖子 - 2 位参与者 阅读完整话题
每次工作进行到一半会提示我 希望各位佬推荐个可以管理历史对话,进行迁移的工具(最好gpt 跨 claude 也可以) 2 个帖子 - 2 位参与者 阅读完整话题
DeepSeek-V4预览版本,终于发布了。今日,DeepSeek官方宣布:拥有百万字超长上下文的deepseek-v4-pro和deepseek-v4-flash两款模型发布并开源,即日起登录官网或官方App即可与最新的DeepSeek-V4对话,探索1M(百万)超长上下文记忆
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
以前在OpenCode中使用Claude和GPT的时候就发现. 同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token. 现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100kto
最近一直的研究vibecoding,但是到后期上下文长了,感觉写起来就很吃力,各位佬可以分享一下自己vibecoding的思路或者流程吗?刚开始是如何设计前端页面的?另外各位佬们有什么好用skill推荐么? 1 个帖子 - 1 位参与者 阅读完整话题
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
Exceeded skills context budget of 2% 系统尝试加载一些 “skills/技能” 的说明文档,但给 skills 的上下文预算很小,只有 2%,所以技能描述被截断了。 6 个帖子 - 4 位参与者 阅读完整话题
测了几个会话下来,发现ds v4 pro max的缓存率不断上升,从85%升到95%左右并稳定下来。 官Key显示 145.23人民币。 目前单轮对话最长已经到了500k,注意力正常,没有偏离主线。 12 个帖子 - 8 位参与者 阅读完整话题
万众期待中,DeepSeek V4,终于发布了!就在刚刚,被期待已久的 DeepSeek V4 预览版正式登场。两个版本—— V4-Pro 和 V4-Flash,全系标配 1M(百万字)超长上下文,同步开源模型权重和技术报告 。 五一前的这两天,大模型又进入新一轮发布潮。 4 月