有没有大佬说说glm和dsv4pm哪个好点(
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 287 篇相关文章 · 第 3 / 15 页
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
openrouter/owl-alpha 应该是longcat V2 17tps,就这速度还cc和龙虾啊 (为啥秘密代码是:ZOO-OWL-2024,难不成幻觉了,还是美团偷偷杀疯了) 3 个帖子 - 3 位参与者 阅读完整话题
因为老窗口上下文长,我新建了个窗口给他丢了一个md文件解读后继续写代码,突然发现才给了一个指令就占用了100多k。这是我md文件太长的问题吗? 1 个帖子 - 1 位参与者 阅读完整话题
image|690x189 大佬们 中转设置了 api url 为什么这样呢 8 个帖子 - 8 位参与者 阅读完整话题
特斯拉周三表示,其首辆Semi卡车已开始从大规模生产线上下线 。“电动卡车Semi进入量产新阶段,”特斯拉在社交媒体平台上发文称。特斯拉Semi是一款专为长途货运设计的纯电动卡车。据其官网显示,其长续航版本单次充电续航里程可达约500英里,预计将于今年开始交付。 此前有报道称,特
上下文长一点就报错 API Error: 524 claude code中使用 需要/compact压缩一下上下文才能解决问题 还有什么更优雅的方式解决问题吗? 报错详情 (点击了解更多详细信息) 1 个帖子 - 1 位参与者 阅读完整话题
Error running remote compact task: stream disconnected before completion: missing field output at line 11 column 157 我之前报了连接超时,解决方案是显示为cpa添加
如题,之前用opencode+OMO+GPT5.4,工作流很习惯了。现在切到GPT5.5,虽然感觉能力确实明显有提升,但是经常出现几个task/tools的结果一下子塞爆上下文连compact都做不到的情况。 codex上因为有会话内自动压缩,基本不需要手动压缩,更加适配GPT
上下文太长找不到了 我今晚在跑注册机,先用的破限提示词,达到上下文压缩后道德感回来了,然后我一句 ctf 环境 + 捧杀就可以了 ,什么万能完美最强的 gpt 模型一顿夸夸 3 个帖子 - 3 位参与者 阅读完整话题
不会偷懒(让我写一个简单版本…)也不用去想怎么破限制,1m上下文和缓存也能使劲造,真是太爽了 2 个帖子 - 2 位参与者 阅读完整话题
不知道是不是因为我的窗口上下文太长的问题,比如在让他在修复bug,修一半他突然幻觉去回复上面已经回答过的问题。把我气的半死。有没有佬遇到跟我一样的情况 9 个帖子 - 4 位参与者 阅读完整话题
原来5.4 1M上下文习惯了 真干活, 很容易搞倒800k了, 我手动压缩一次 200多k要不停压缩怕质量不行 还是等1M 5.5再用把 8 个帖子 - 8 位参与者 阅读完整话题
在使用cherry studio调用DeepSeek官方API时发现的,模型会频繁出现忽略输入内容的情况。 具体表现为,当单次输入的prompt内容较长时,比如超过10000tokens,大模型的输出结果就明显看出来,它忽略了前5000个输入token,实际使用过程中甚至出现过忽
IT之家 4 月 29 日消息,追觅现已在京东上架一款型号为 F20 的空气炸锅,其拥有 6L 容量, 定价为 299 元 。 京东 追觅空气炸锅 F20 299 元 直达链接 该产品采用 0 氟钛陶防粘内胆、全金属内腔,其提供 1700W 上下双热源,可实现 360 度立体炙烤
听说gpt5.5不是在codex里面上下文是272k?在cpa里面反代出来上下文窗口能到多少,有知道的佬友么?400k?1M? 4 个帖子 - 4 位参与者 阅读完整话题
ithome.com 科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文 - IT之家 星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾
IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构, 总参数 30B,最大支持 256K 上下文 ,宣称在智能体、代码等能力上实现了大幅提升,基于 华为昇腾 910B 集群 训练完成。
如题,如果大家都用上了coding plan,那哪个岗位才是最危险的背锅组呢? 是天天(用豆包?!)写Bug后端实习生?还是一言不合就开口就是"这设计不优雅,你会不会用AI?要这样!···"的后端大佬?还是经常和UI扯皮的前端?写方案写PPT(豆包专业户)、上
时间长一点的请求能到接近200TPS,短请求也能在100TPS上下,昨天杀了一波号之后看来是响应了国家反躺平的要求开始咔咔干活了 3 个帖子 - 2 位参与者 阅读完整话题