有没有大佬说说glm和dsv4pm哪个好点(
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
GLM5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 216 篇相关文章 · 第 2 / 11 页
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
还是非常不错的样子 终于修复了我手机的dpi会影响到画面尺寸的问题(会变成电脑比例 按钮&文字变得很小) 关键是终于能用5.1了 只支持网页版 应用没有 7 个帖子 - 6 位参与者 阅读完整话题
除了Claude跟GPT,感觉就GLM好用一点了 这个是开源的 应该很多平台都部署了 但是好像也挺贵使用的,压根不怎么够用,有没有一百左右能解决管饱的GLM5.1呢 10 个帖子 - 8 位参与者 阅读完整话题
近期使用opencode go套餐模型更新挺快的,glm5.1 、ds v4 pro第一时间就上了,且kimi 2.6还有三倍额度。但之前都是直接在opencode中直接用的。 昨天想通过opencode go的模型接入claude code,也按照站内一些教程在cc-switc
deepseek v4 pro ≈ GLM5.1 > MiMO-2.5Pro > DeepSeek V4 FLASH 。 一个真实的中型项目,处于开发阶段,心血来潮使用四个官方来源的API接口使用同一套提示词进行review, 然后将其检查报告发给gpt 5.5 打分
如题,最近没有gpt用了,没招了,想换到公益站的glm或ds 2 个帖子 - 2 位参与者 阅读完整话题
猛蹬一天只花了一块多(我是flash和pro混用),编程能力个人感觉接近GLM5.1,最主要的优点就是特别省token,同样的任务消耗的token数量几乎是其他模型的80%左右,再加上1M的长上下文,真感觉特别适合CC,CX这些智能体。 然后今天看了一眼API价格, 官方直接把
这俩二选一选哪个好?代码需求比较大,不行的话拿来处理文档的话是否合适?比如银行文档啥的。glm5.1 vs deepseek v4哪个好?貌似都是非多模态模型吧 22 个帖子 - 19 位参与者 阅读完整话题
我主要考虑性价比,稳定(输出快),编程能力 大概 价格0.4 编程0.4 稳定0.2 这样的占比 11 个帖子 - 9 位参与者 阅读完整话题
想问一下各位佬,你们的api,比如glm5.1 claude等的api都是在claude code上面集成吗,可以跟codex一样直接对代码库进行更改吗 1 个帖子 - 1 位参与者 阅读完整话题
Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
我在cpa里添加了nvidia后将glm5.1映射成立5.4,结果我把nvidia删了以后cc里这个nvidia的分组就删不掉了,有没有佬知道怎么办啊 1 个帖子 - 1 位参与者 阅读完整话题