腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上
真的脸都不要了啊,都是用户还能这样歧视的啊
ing - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第82页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2374 篇相关文章 · 第 82 / 119 页
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
今天看火山的 plan 升级到 glm5.1 和 minimax m2.7 了,有人测了速度如何咩?有长进吗? 之前用了一个季度的火山的lite,还凑合,下午有点慢。 现在该用京东的了,不过也就 glm5 能用,其他的也挤。 8 个帖子 - 4 位参与者 阅读完整话题
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
真的脸都不要了啊,都是用户还能这样歧视的啊
链接在这里: https://claude.com/pricing
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
这是原图 a lazy girl sitting by a desk in the afternoon, one hand gently resting on the tabletop, slightly leaning forward, warm sunlight stream
此时此刻 16:08 ,codex plus 各种 reconnection This isn't a rate limiting message — that is, it's not specific to your account. This messa
此时此刻 16:08 ,codex plus 各种 reconnection This isn't a rate limiting message — that is, it's not specific to your account. This messa
此时此刻 16:08 ,codex plus 各种 reconnection This isn't a rate limiting message — that is, it's not specific to your account. This messa
最近Hermes养着感觉光用订阅的openAI plus已经完全不够用了,想知道大家还有什么推荐的coding plan 吗 1 个帖子 - 1 位参与者 阅读完整话题
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
coding plan:京东,腾讯,阿里百炼,火山,智普 等等 ide:Trae、GitHub Copilot、Cursor、qoder 等等 各位佬友有什么建议和看法吗? 6 个帖子 - 5 位参与者 阅读完整话题
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
真的脸都不要了啊,都是用户还能这样歧视的啊
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
真的脸都不要了啊,都是用户还能这样歧视的啊