glm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第24页 - 钛刻科技 | TCTI.cn

glm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第24页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 622 篇相关文章 · 第 24 / 32 页

最近出的 Kimi 2.6 和 glm 5.1 对比,各位佬的体验怎么样?

说一下心中哪个最好 以及自己在使用上的一些差异,或者是说区别 听听各位佬的看法 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-21 23:23:12+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 23:16:58+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 23:14:58+08:00

公益 glm5 和千问 注册送160刀免费蹬,每天签到大概30吧

http://82.157.186.24:3000/ 你们薅一波就走 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-21 21:58:37+08:00

GLM Coding Plan 体验卡 *5张

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 21:22:17+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 21:12:48+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 20:32:39+08:00

kiro free账号怎么提取GLM给openclaw用?

怎么提取glm或者sonnet?想给openclaw用 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-21 20:01:01+08:00

智谱现在申请退款都退不了吗?

本月10号看到有人说提前充值余额方便抢GLM,就试了一下,结果依然没用,想着就算了申请退款,结果过了7天工作日还是没有退,这就有点好笑了,套餐抢不到,也不给退。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 19:59:39+08:00

阿里云 Token Plan 来了

文本生成:qwen3.6-plus、glm-5、MiniMax-M2.5、deepseek-v3.2 图像生成:qwen-image-2.0、qwen-image-2.0-pro、wan2.7-image、wan2.7-image-pro 19 个帖子 - 12 位参与者 阅读完

tech linux.do 2026-04-21 19:38:33+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 19:37:34+08:00

kimi glm qwen minimax 选哪个

日常开发兜底使用,不接小龙虾。极限4选1。 大致讲讲为什么吧。顺便也给后面的人一些意见。 8 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-21 18:12:52+08:00

不用担心阿里的coding plan上不上glm5.1了

这下好了,他都快没了,笑死,赶快手动续费一下 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 17:08:08+08:00

智谱 GLM Coding Plan 体验卡 有需要的拿去用吧

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: https://bigmodel.cn/activity/trial-card/7FQ8GWYREL 5 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 16:57:00+08:00

国产模型与opus 4.5是否目前已经处于同一水准?

最近看了很多佬友和网络上对glm 5.1以及kimi 2.6的评测,我个人由于生产环境原因不太敢直接在我的代码中使用这些模型,包括gpt和opus我也是多次审查使用。 请问各位使用较多的佬友,这些模型是否基本已经达到了opus4.5满血的水准?还是尚有差距呢。这里的评判标准不仅仅

tech linux.do 2026-04-21 16:25:15+08:00

GLM-5.1 Kimi-K2.6 Claude Opus4.7横评对比

一、环境及提示词 订阅情况: GLM-5.1 : 智谱国内站 新Max套餐(460元)。 Kimi-k2.6: kimi 199元档位套餐。 Claude Opus-4.7: Max满血中转(经测试未降智且支持1M上下文)。 本次测试中CC均设置为200K上下文窗口。毕竟这个小项

tech linux.do 2026-04-21 16:12:47+08:00

KIMI开始频繁429,跟GLM坐一桌了

k2.5的时候就一直在用kimi code的plan,就图他快,结果今天k2.6一发布,429就框框的来了,你跟智谱坐一桌去吧,真没一个靠得住的厂商,亏我开的还是199的套餐 附上周的速度,是真的爽啊 6 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 16:00:02+08:00

智谱是完全不会搞QoS吗?

max年费用户都没办法单线程使用glm5.1,这到底再给谁提供服务? 下面两个请求全失败了。首token的延迟也惨的离谱。 从中午开始一直在发继续,发到现在。四个小时了,还在超时。 15:59更新 14次了 16:01更新 429?我连重试都能触发429? 6 个帖子 - 1 位

tech linux.do 2026-04-21 15:48:58+08:00

现在还有哪一个国产 Coding Plan 能买到吗?

关注了一周的 GLM 和 阿里云的 Coding Plan 了,根本抢不到。

tech www.v2ex.com 2026-04-21 15:41:40+08:00

glm速率限制这么厉害,真的没法用,擦汗

太影响心情了,花钱买罪受,佬友们有无正常可用的。 6 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 15:40:24+08:00