中国的算力缺口这么大嘛?看到 2025 华为昇腾出货 81 万块,又看到各家 coding plan 不是停售就是限流
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
Coding - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第48页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1433 篇相关文章 · 第 48 / 72 页
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
真的脸都不要了啊,都是用户还能这样歧视的啊
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
最近Hermes养着感觉光用订阅的openAI plus已经完全不够用了,想知道大家还有什么推荐的coding plan 吗 1 个帖子 - 1 位参与者 阅读完整话题
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
coding plan:京东,腾讯,阿里百炼,火山,智普 等等 ide:Trae、GitHub Copilot、Cursor、qoder 等等 各位佬友有什么建议和看法吗? 6 个帖子 - 5 位参与者 阅读完整话题
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
真的脸都不要了啊,都是用户还能这样歧视的啊
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
真的脸都不要了啊,都是用户还能这样歧视的啊
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
情况是:试过WSL中运行Codex,idea直接打开WSL中的项目微调测试,相关软件都是装Ubuntu(maven、jdk。。。)各种问题。 项目是老项目,功能是新功能。代码风格要保持一致,所以要review AI写的代码,感觉我是在给AI打工,它写完我就看半天 。 为什么弄成这
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊