deepseekv4pro搞逆向如呼吸般顺畅
不会偷懒(让我写一个简单版本…)也不用去想怎么破限制,1m上下文和缓存也能使劲造,真是太爽了 2 个帖子 - 2 位参与者 阅读完整话题
1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 99 篇相关文章 · 第 2 / 5 页
不会偷懒(让我写一个简单版本…)也不用去想怎么破限制,1m上下文和缓存也能使劲造,真是太爽了 2 个帖子 - 2 位参与者 阅读完整话题
如题,如何把claude code订阅的模型换成opus4.6[1m] 4.7现在天天不说人话,太难受了 3 个帖子 - 3 位参与者 阅读完整话题
原来5.4 1M上下文习惯了 真干活, 很容易搞倒800k了, 我手动压缩一次 200多k要不停压缩怕质量不行 还是等1M 5.5再用把 8 个帖子 - 8 位参与者 阅读完整话题
默认我记得是272k 需要指明的是窗口肯定不是越大越好 gpt5.5在不同窗口下的准确性的下降曲线可以看看 在考虑弄成400k 7 个帖子 - 5 位参与者 阅读完整话题
如题 目前用的cc-switch 管理模型,但是通过全局的代理话 不知道怎么设置成1M上下文 5 个帖子 - 2 位参与者 阅读完整话题
我现在在使用 ollama 的 deepseek-v4-pro, 我尝试在 CCS 中的模型名称后面加上 [1m], 但是显示调用失败, 有佬知道怎么开启吗? 3 个帖子 - 2 位参与者 阅读完整话题
今天申请到了小米一个月的pro体验 在claude中添加了1M上下文的设置 然后重新启动了claude 然后重新/context 还是200K 这是模型本身不支持1M上下文吗 还是我设置的有问题 另外我看官方的更新信息是支持1M上下文的 1 个帖子 - 1 位参与者 阅读完整话题
Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题
目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着) 我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。) 然而我觉得400k虽然
gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号) 2 个帖子 - 2 位参与者 阅读完整话题
「日常焦虑帝」爆料称,Kimi K3 计划在 Q3 发布,参数规模超过 2.5 万亿;内部实验已测试远超 100 万 token 的上下文长度,但最终是否向用户开放 1M 上下文仍不确定。爆料还称,当前限制 Kimi 推出 1M 上下文的主要瓶颈不是技术,而是算力资源。 这条传闻
因为cc 默认1m 上下文,5.5 到了 256 k 就不可用了,codex plus 用户的话 好像有两种办法,CLAUDE_CODE_DISABLE_1M_CONTEXT 会让别的也变成200k? "model": "opus[1m]"
写代码时应该开启还是不开启,1m的提升大吗?其他模型500左右就开始失忆和胡言乱语的情况会出现吗 1 个帖子 - 1 位参与者 阅读完整话题
DeepSeek V4对AI coding最大的价值就是真正可用的1M上下文,抹平了和御三家的差距。咱们平时AI coding,多追问几句,上下文就会很长,DeepSeek V4的价值就发挥出来了。 但现在看来,DeepSeek V4还有一些兼容性问题,例如: github.co
需要在模型后面添加[1m] 以下是对比图 2 个帖子 - 2 位参与者 阅读完整话题
原来还要配置模型名的后缀[1m]和max的CLAUDE_CODE_EFFORT_LEVEL 2 个帖子 - 2 位参与者 阅读完整话题
这就是moe吗?我问他现在v4支持1m,我上次有个任务是把1000行的app.tsx拆成几个文件,主文件只保留api和路由,让subagent干活,结果第一个agent干了一半10分钟爆了,第二个agent接了第一个agent的活,2分钟就爆了,我就问deepseek现在v4支持
地址: cloud.tencent.com 登录 - 腾讯云 腾讯云为数百万的企业和开发者提供安全、稳定的云服务器、云主机、CDN、对象存储、域名注册、云存储、云数据库等云服务,帮助用户解决游戏、视频、移动、微信、互联网+等行业的架构难题,是全球领先的云计算服务商。 cloud.
曾经在1月份发过类似的贴着,当时佬们的回答貌似还在吐槽上下文,智能指针。 如今opus4.6[1M] opus4.7 gpt5.4 gpt5.5 以及普惠1M的deepseekV4pro,AI发展一日千里。 嵌入式的佬们现在对于AI的应用感受如何?尤其是做应用层的嵌入式呢? 还有
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文