字节爆发了,拉完了的字节 Coding Plan 突然更新了 GLM 5.1、MinMax m2.7 和 Kimi k2.6
如题,之前只有 glm 4.7,全是老模型,这波直接一个大更新。 拉完了直接变夯爆了,而且还不限购。 管他有没有隐藏倍率,就模型来讲所有国内 Coding Plan 第一了吧,先买个 lite 占坑。 9 个帖子 - 7 位参与者 阅读完整话题
lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第36页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 929 篇相关文章 · 第 36 / 47 页
如题,之前只有 glm 4.7,全是老模型,这波直接一个大更新。 拉完了直接变夯爆了,而且还不限购。 管他有没有隐藏倍率,就模型来讲所有国内 Coding Plan 第一了吧,先买个 lite 占坑。 9 个帖子 - 7 位参与者 阅读完整话题
国外的ClaudeCode Codex,国内的GLM minimax Kimi等AI编程工具发展至今,都在说什么能替代程序员,但是网络上看的测评全都是什么贪吃蛇、扫雷、做个简单的网页、3D模型等demo性质的测评,都是一些很简单的东西。有没有资深用户讲一下,到底能不能完全靠AI开
我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?
说一下心中哪个最好 以及自己在使用上的一些差异,或者是说区别 听听各位佬的看法 4 个帖子 - 4 位参与者 阅读完整话题
我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?
我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?
今天看到一个小工具 rtk: GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
http://82.157.186.24:3000/ 你们薅一波就走 7 个帖子 - 6 位参与者 阅读完整话题
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 1 个帖子 - 1 位参与者 阅读完整话题
我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?
原文发布在 here 。现在L站放文章。一些话只会在这里补充。 本游记正经介绍活动的内容由 ai 总结。总共 112 字为 ai 生成。 没学过 lmcc,前两天恶补了一下就来 bj 了。 神秘日程表 D0 和 Hankwu 坐火车到北京 车上吃的汤达人、鸭脖 玩了一会皇室战争后
我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?
怎么提取glm或者sonnet?想给openclaw用 5 个帖子 - 4 位参与者 阅读完整话题
本月10号看到有人说提前充值余额方便抢GLM,就试了一下,结果依然没用,想着就算了申请退款,结果过了7天工作日还是没有退,这就有点好笑了,套餐抢不到,也不给退。 1 个帖子 - 1 位参与者 阅读完整话题
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
文本生成:qwen3.6-plus、glm-5、MiniMax-M2.5、deepseek-v3.2 图像生成:qwen-image-2.0、qwen-image-2.0-pro、wan2.7-image、wan2.7-image-pro 19 个帖子 - 12 位参与者 阅读完
我看到有很多人在抢 GLM 等的 coding plan,也有人抱怨断流的,我之前也没买过,很好奇: 如果模型是完全开源的,那么云计算的大厂大可以在模型开源后很快就部署好,然后开始竞争(卖)。论卡、稳定性,这些大模型企业应该不是这些云中心的对手,那么这些大模型企业到底怎么竞争呢?