用量 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn

用量 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 140 篇相关文章 · 第 5 / 7 页

[推广] GPT-5.5 上线 0.2x 倍率 Codex Plus/Pro 高缓存号池 持续稳定一个月 5.4 典型用量 8 元一亿 Token

上一次在 v 站发的贴子在这里 https://v2ex.com/t/1203644 大部分用户给的评价还是比较正面的,同样的倍率我们的确实更耐用一些 一个月运行下来,可用率在 99%左右(包括前几天 openai 自己崩了导致的差不多半小时的不可用) GPT-5.3-Codex

tech v2ex.com 2026-04-24 05:50:29+08:00

[推广] GPT-5.5 上线 0.2x 倍率 Codex Plus/Pro 高缓存号池 持续稳定一个月 5.4 典型用量 8 元一亿 Token

上一次在 v 站发的贴子在这里 https://v2ex.com/t/1203644 大部分用户给的评价还是比较正面的,同样的倍率我们的确实更耐用一些 一个月运行下来,可用率在 99%左右(包括前几天 openai 自己崩了导致的差不多半小时的不可用) GPT-5.3-Codex

tech v2ex.com 2026-04-24 05:50:29+08:00

[推广] GPT-5.5 上线 0.2x 倍率 Codex Plus/Pro 高缓存号池 持续稳定一个月 5.4 典型用量 8 元一亿 Token

上一次在 v 站发的贴子在这里 https://v2ex.com/t/1203644 大部分用户给的评价还是比较正面的,同样的倍率我们的确实更耐用一些 一个月运行下来,可用率在 99%左右(包括前几天 openai 自己崩了导致的差不多半小时的不可用) GPT-5.3-Codex

tech v2ex.com 2026-04-24 05:50:29+08:00

claude 重置周限了吗?

claude是重置周限了吗? max 5x刚刚把5小时蹬满了,查看用量 5小时和7天都重置了,把我吓尿了,我以为才开的max 5x就被封了,A/ 是要改邪归正了吗 14 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-04-24 01:15:45+08:00

cc oauth如何管理?

之前以前拼车的佬友下车了,如何把他的oauth 失效呢?另外找一位佬友,20x拼二人车(用量少更优惠) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-23 22:15:51+08:00

本地大模型折腾 M1 MBP vs Windows 性能实测与困惑

各位佬友,最近各家云端 API 用量都在收紧,逼得我不得不把重心转回本地模型。折腾了一圈下来,发现里面的坑确实不少,发个帖跟大家交流下经验。 1. 我的设备现状与实测 目前手里主要有两台本子,但表现差异很大: 本子1:MacBook Pro M1 (32GB 统一内存) 方案:

tech linux.do 2026-04-23 18:20:26+08:00

实测一车team应该能满足不少佬友的用量需求了,但是fast加速不明显?

如题,一车team,个人非重度开发,拿来蹬codex是绰绰有余的,出错率也很低,图中很多报错是因为动态流量过期,cpa连续刷了很多次。每个车位的5h限额在80-120次调用居多。我这里开了fast,不过感觉和前几天直接授权pro号自带的fast相比还是慢。pro被清算了又转回了t

tech linux.do 2026-04-23 12:11:28+08:00

cc-switch 怎么显示 codex 官方用量

cc-switch 作者说最新版支持显示 Codex官方订阅的用量展示,为什么我的升级后看不见,是需要配置什么吗,各位老友 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-23 10:35:51+08:00

codex pro 5 小时限制已经严重缩水

1 个小时不到用了 50% 。 这是偷偷改了用量

tech www.v2ex.com 2026-04-23 06:44:11+08:00

codex pro 5 小时限制已经严重缩水

1 个小时不到用了 50% 。 这是偷偷改了用量

tech www.v2ex.com 2026-04-23 06:44:11+08:00

grok 这两天怎么了

这两天用 grok 总是触发“高需求。Grok 当前使用量过高”,马斯克逼着用户开会员吗? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-23 06:38:05+08:00

买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech www.v2ex.com 2026-04-23 01:38:59+08:00

买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech www.v2ex.com 2026-04-23 00:38:59+08:00

小米发布了新模型,而且给plan重置了用量

小米新上了v2.5系列,而且学sam大善人,给老用户的plan限额全重置了 今晚狠狠的试一下新模型能力如何 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-23 00:18:34+08:00

买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech www.v2ex.com 2026-04-22 23:38:59+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:38:59+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:38:59+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:11:51+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 21:52:38+08:00

Claude Max 5x降低使用量啦?

今天感觉额度烧得太别快,这几天都是正常工作,前几天5小时窗口都跑满,平均每天花费200刀,今天也是像往常正常使用,使用ccusage查看,才52刀,这正常吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 18:51:55+08:00