火山 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn

火山 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 135 篇相关文章 · 第 5 / 7 页

[程序员] 火山方舟 Coding Plan 慎买

火山方舟 Coding Plan 慎买啊,群里全是要退款的,又卡又慢,额度消耗的还特别快

tech v2ex.com 2026-04-23 11:43:25+08:00

这几天最后悔的事。。。。

没有听佬友们的劝,买了火山 coding plan,那简直是灾难级别。。。。只要买了,你得到的体验就是: No response from provider for 180s (model: glm-5.1, context: ~38,181 tokens). Reconnect

tech linux.do 2026-04-23 09:55:28+08:00

火山方舟Coding Plan Lite使用体验

因为想测试glm5.1购买了Coding Plan Lite套餐,跑了两三个功能5小时限额就用完了。上午还能用,下午一直429,本来想着项目里简单功能可以用国产替代,真的很拉,下午glm5.1用不了的时候,我切换DeepSeek-V3.2,跑了十来分钟,一个vue文件的中文乱码才

tech linux.do 2026-04-23 08:59:31+08:00

买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech www.v2ex.com 2026-04-23 01:38:59+08:00

火山 coding plan 率先支持 glm-5.1 + Minimax M2.7 了,希望其他厂商赶紧跟进

今天看火山的 plan 升级到 glm5.1 和 minimax m2.7 了,有人测了速度如何咩?有长进吗? 之前用了一个季度的火山的lite,还凑合,下午有点慢。 现在该用京东的了,不过也就 glm5 能用,其他的也挤。 8 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-23 01:38:58+08:00

买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech www.v2ex.com 2026-04-23 00:38:59+08:00

国内哪家的coding plan 比较好,还有ai编程工具用哪个?

coding plan:京东,腾讯,阿里百炼,火山,智普 等等 ide:Trae、GitHub Copilot、Cursor、qoder 等等 各位佬友有什么建议和看法吗? 6 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-22 23:47:51+08:00

请问有可以调用火山方舟的 seedance api 的工具吗?

我想用 SeeDance 生成森林防火安全科普视频,但直接在火山方舟上使用会带有无法去除的水印。有大佬告诉我,通过视频生成 API 调用的方式就不会有水印; 所以想请教下:有没有可以直接对接 SeeDance API、开箱即用的工具? 5 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-22 23:43:40+08:00

买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech www.v2ex.com 2026-04-22 23:38:59+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:38:59+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:38:59+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:11:51+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 21:52:38+08:00

我在用国产模型,但是cc中无法使用联网如何解决?

我使用的是火山打模型的api;但是在cc中是无法调用联网功能的,这让我相当的困惑求解决 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-22 21:50:36+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

火山 coding 套餐怎么退款?

火山 coding lite 套餐怎么退款,用在CC一下午都写不了一个能跑的小游戏,找不到退款的地方 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 18:10:14+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:51:07+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:42:58+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 16:26:12+08:00