用量 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

用量 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 140 篇相关文章 · 第 3 / 7 页

[程序员] 求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech v2ex.com 2026-04-27 15:24:02+08:00

大家大概一天要花费多少token?附上我的计算规则和每天所需

首先,我列一下计算用量的五大要素,模拟一个假的gpt5.4计算规则 计费参数: 输入价格:$2.5000 / 1M tokens 输出价格:$15.0000 / 1M tokens 缓存读取价格:$0.2500 / 1M tokens 缓存命中率:86% 输出比例:1.1%,即

tech linux.do 2026-04-27 02:32:18+08:00

这deepseek在claude desktop的用量真的正常么

今天我就在claude desktop的code里发了一句hello,它就回了我一句话。结果刚才发现它居然向deepseek的api发了120多次请求,输入花了52万token???这是claude的问题吗?? 20 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-26 21:34:29+08:00

Codex 上下文和token用量的关系

昨晚用codex改个项目,一共弄了十几轮,今天一看token炸了啊,一下子空了10个free号,花了80M的token,从sub2api的统计看,每次请求缓存都400多K。codex 默认启用的是1M上下文。今天新开了对话,token用量一下就降了。想请教下佬们,是不是codex

tech linux.do 2026-04-26 16:24:47+08:00

新加坡 Claude 用量世界第一

新加坡 Claude 用量世界第一 24 个帖子 - 24 位参与者 阅读完整话题

tech linux.do 2026-04-26 12:00:55+08:00

关于sub2api的401,小弟有一事不明

关于这个401问题,和这个账号一直不被调用是否有关系?自己手搓的账号,因为用量不大,有些账号一直没被调用,等调用的时候报401了 ,我发现几个401的都有这个现象,故有此一问。 另外就是假设真是这个原因,那有啥办法让它保活呢?定期测试? 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 08:57:49+08:00

现在还有那个中转站有 openai 包月啊

用量比较大,已经被 glm 封了,我刷过几次帖子了。 本来有个包月的 gpt 用着,但是前些天的号池内斗都废了。我现在还在找包月,能用 gpt5.4 就行。 kimi 199 冲了,三天就跑了一个星期的量。早晚要把我封了。 deepseek 跑不起。 minimax 傻,不想和他

tech www.v2ex.com 2026-04-26 00:42:02+08:00

现在还有那个中转站有 openai 包月啊

用量比较大,已经被 glm 封了,我刷过几次帖子了。 本来有个包月的 gpt 用着,但是前些天的号池内斗都废了。我现在还在找包月,能用 gpt5.4 就行。 kimi 199 冲了,三天就跑了一个星期的量。早晚要把我封了。 deepseek 跑不起。 minimax 傻,不想和他

tech www.v2ex.com 2026-04-25 23:42:02+08:00

火山的Coding Plan,为什么指定了glm-5.1,可是用量里排前面的都是其他模型?

不理解,明明制定了模型为 glm-5.1,怎么大量消耗都是其他模型的?排第一的是它自家的豆包。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 23:21:15+08:00

[程序员] 现在还有那个中转站有 openai 包月啊

用量比较大,已经被 glm 封了,我刷过几次帖子了。 本来有个包月的 gpt 用着,但是前些天的号池内斗都废了。我现在还在找包月,能用 gpt5.4 就行。 kimi 199 冲了,三天就跑了一个星期的量。早晚要把我封了。 deepseek 跑不起。 minimax 傻,不想和他

tech v2ex.com 2026-04-25 22:28:26+08:00

[程序员] 现在还有那个中转站有 openai 包月啊

用量比较大,已经被 glm 封了,我刷过几次帖子了。 本来有个包月的 gpt 用着,但是前些天的号池内斗都废了。我现在还在找包月,能用 gpt5.4 就行。 kimi 199 冲了,三天就跑了一个星期的量。早晚要把我封了。 deepseek 跑不起。 minimax 傻,不想和他

tech v2ex.com 2026-04-25 22:05:01+08:00

[程序员] 现在还有那个中转站有 openai 包月啊

用量比较大,已经被 glm 封了,我刷过几次帖子了。 本来有个包月的 gpt 用着,但是前些天的号池内斗都废了。我现在还在找包月,能用 gpt5.4 就行。 kimi 199 冲了,三天就跑了一个星期的量。早晚要把我封了。 deepseek 跑不起。 minimax 傻,不想和他

tech v2ex.com 2026-04-25 21:38:12+08:00

[程序员] 现在还有那个中转站有 openai 包月啊

用量比较大,已经被 glm 封了,我刷过几次帖子了。 本来有个包月的 gpt 用着,但是前些天的号池内斗都废了。我现在还在找包月,能用 gpt5.4 就行。 kimi 199 冲了,三天就跑了一个星期的量。早晚要把我封了。 deepseek 跑不起。 minimax 傻,不想和他

tech v2ex.com 2026-04-25 21:34:51+08:00

对 Token 用量感受的几个阶段

大善人时代(反重力、Kiro): 常常进控制台看自己用了多少 Token,花了多少刀,生怕免费的渠道蹬少了 大善人 2.0 时代(GPT Free): 心有余悸,不怎么看用量了,只希望快点把任务完成 大封号时代: 渠道已经不需要聚合了,添加得还没有封得快,直接改配置抓紧用 1 个

tech linux.do 2026-04-25 21:21:08+08:00

GPT各种订阅用量限制

大家实际用Openai的订阅,有没有感觉到用量限制啊? 我调研了一下,数据很少: Reddit 有 $100 Pro 用户说,用 5.5 Pro extended thinking 问了大概 5-10 个问题就触顶。但评论里他补充:这周之前已经一直在用 Pro extended

tech linux.do 2026-04-25 21:13:38+08:00

[程序员] 现在还有那个中转站有 openai 包月啊

用量比较大,已经被 glm 封了,我刷过几次帖子了。 本来有个包月的 gpt 用着,但是前些天的号池内斗都废了。我现在还在找包月,能用 gpt5.4 就行。 kimi 199 冲了,三天就跑了一个星期的量。早晚要把我封了。 deepseek 跑不起。 minimax 傻,不想和他

tech v2ex.com 2026-04-25 21:08:13+08:00

字节的方舟Coding Plan Lite用量, 我用中转测了一下, 给各位佬友做个参考.

拿sub2api做中转测了一下, 额度小的离谱。图里面是五小时额度消耗完的用量。 一共就请求了42次, 算下来大概4M tokens? 五小时的额度占一个月额度的7%, 一个月也就是大概56M的额度. 五小时额度20分钟不到就消耗完了 。 之前体感就觉得很低, 现在测了一下发现居

tech linux.do 2026-04-25 20:41:46+08:00

【低价宽带】本地帮派太有礼貌了

父母家装宽带,其实用量不大的,能刷视频就行。高强度网上冲浪了一下午,电商咸鱼xhs都问了一圈,机构最少都480一年300m。 受站内一个帖子启发,直接找安装师傅问价,果然本地师傅就是有路子。360包一年500m家宽和一张流量卡整年月租,免押光猫和WiFi6路由器,还免了安装费,服

tech linux.do 2026-04-25 19:05:45+08:00

kimi code的用量计算问题

我使用factory droid调用了三次接口,五小时限制直接涨了16%,一个接口5%,那5小时之内调用20次接口?有人遇到相同的问题吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 17:20:11+08:00

mimo的token plan怀疑存在bug,Credits多算额度

昨天记录了一下用量,今天使用来生成看看用量,但是按照官网的说法 1token = 1 Credits ,不应该会用那么多Credits ,还是说有其他算法? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:47:45+08:00