[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上
真的脸都不要了啊,都是用户还能这样歧视的啊
Coding - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第49页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1433 篇相关文章 · 第 49 / 72 页
真的脸都不要了啊,都是用户还能这样歧视的啊
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
通过AI写项目节奏确实很快,但是经常写成半成品,心力交瘁进行不下去,逐渐没有当初开始项目的那种激情,越做越复杂,时间越久越不知道具体实现了什么,怎么实现的。最近想要换一种思路,能否用skills来做项目管理,比如先生成项目控制层所需的文档作为唯一溯源,想摸索一条适合自己的,补充自
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
Kimi 订阅详细体验,前排要点总结 Kimi 订阅不是单独的 coding plan,网页、Agent、Kimi Code、Kimi Claw 全部共享 同一个总额度池 。 高强度写代码建议直接上 199;99 档容易见底,699 档同价位不如买三份 199。 按月逐级升级最划
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊