lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第36页 - 钛刻科技 | TCTI.cn

lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第36页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 929 篇相关文章 · 第 36 / 47 页

字节爆发了,拉完了的字节 Coding Plan 突然更新了 GLM 5.1、MinMax m2.7 和 Kimi k2.6

如题,之前只有 glm 4.7,全是老模型,这波直接一个大更新。 拉完了直接变夯爆了,而且还不限购。 管他有没有隐藏倍率,就模型来讲所有国内 Coding Plan 第一了吧,先买个 lite 占坑。 9 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-22 02:58:16+08:00

对于AI编程的疑问

国外的ClaudeCode Codex,国内的GLM minimax Kimi等AI编程工具发展至今,都在说什么能替代程序员,但是网络上看的测评全都是什么贪吃蛇、扫雷、做个简单的网页、3D模型等demo性质的测评,都是一些很简单的东西。有没有资深用户讲一下,到底能不能完全靠AI开

tech linux.do 2026-04-22 01:49:12+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-22 00:37:27+08:00

最近出的 Kimi 2.6 和 glm 5.1 对比,各位佬的体验怎么样?

说一下心中哪个最好 以及自己在使用上的一些差异,或者是说区别 听听各位佬的看法 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-21 23:23:12+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 23:16:58+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 23:14:58+08:00

Rust Token Killer 还行?

今天看到一个小工具 rtk: GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero

tech linux.do 2026-04-21 22:48:25+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 22:39:31+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 22:09:53+08:00

公益 glm5 和千问 注册送160刀免费蹬,每天签到大概30吧

http://82.157.186.24:3000/ 你们薅一波就走 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-21 21:58:37+08:00

GLM Coding Plan 体验卡 *5张

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 21:22:17+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 21:12:48+08:00

LMCC京爷体验卡

原文发布在 here 。现在L站放文章。一些话只会在这里补充。 本游记正经介绍活动的内容由 ai 总结。总共 112 字为 ai 生成。 没学过 lmcc,前两天恶补了一下就来 bj 了。 神秘日程表 D0 和 Hankwu 坐火车到北京 车上吃的汤达人、鸭脖 玩了一会皇室战争后

tech linux.do 2026-04-21 20:36:08+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 20:32:39+08:00

kiro free账号怎么提取GLM给openclaw用?

怎么提取glm或者sonnet?想给openclaw用 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-21 20:01:01+08:00

智谱现在申请退款都退不了吗?

本月10号看到有人说提前充值余额方便抢GLM,就试了一下,结果依然没用,想着就算了申请退款,结果过了7天工作日还是没有退,这就有点好笑了,套餐抢不到,也不给退。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 19:59:39+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:59:13+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:45:06+08:00

阿里云 Token Plan 来了

文本生成:qwen3.6-plus、glm-5、MiniMax-M2.5、deepseek-v3.2 图像生成:qwen-image-2.0、qwen-image-2.0-pro、wan2.7-image、wan2.7-image-pro 19 个帖子 - 12 位参与者 阅读完

tech linux.do 2026-04-21 19:38:33+08:00

[问与答] 新人提问,像 GLM/z.ai 这些开源大模型企业是怎么和专业云计算大厂竞争的?

我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?

tech v2ex.com 2026-04-21 19:37:34+08:00