0计费bug,使用newapi和sub2api的注意了
这是原帖,我昨天试了下newapi是可以的,让写了几千字的小说内容,用时153s/首字0.4s,计费0,还没修复。 https://linux.do/t/topic/2069034 然后今天又试了一下sub2api的,貌似比newapi还不易察觉。因为0计费貌似不写入日使用记录里
首字 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 11 篇相关文章
这是原帖,我昨天试了下newapi是可以的,让写了几千字的小说内容,用时153s/首字0.4s,计费0,还没修复。 https://linux.do/t/topic/2069034 然后今天又试了一下sub2api的,貌似比newapi还不易察觉。因为0计费貌似不写入日使用记录里
真的, Cherry Studio怎么这么臃肿,居然还影响到了首字时间 15 个帖子 - 14 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
早上试了一下,竟然有回复了,但是首字很慢,大概30S左右,前几句话吞吞吐吐的,后面的速度明显提升 5 个帖子 - 3 位参与者 阅读完整话题
比如GPT模型,可以通知首字响应判断是免费账号,还是收费账号吗 1 个帖子 - 1 位参与者 阅读完整话题
拉闸两天之后再次能用!而且首字很快啊,不像之前4.7首字要十几秒了 8 个帖子 - 6 位参与者 阅读完整话题
codex使用我看了下后台tps不算首字也就45token/s左右,用了半天为啥感觉好快啊!!我都怕他不够聪明,你们也是吗? 体感比5.4fast模式都快了30%,我之前一直用的fast 我开发都有点心虚,这么快会不会哪里有坑,review代码都要切回5.4去 网页使用5.5pr
deepseek.spinsnow.fun API 性能监控 从 简单做了个视奸deepseek官api模型速率变动的网页 说起 除了上面的数字,还统计了曲线,方便直观对比(刚开始,数据还很少) 目前是10分钟一次调用,受限于并发限制,glm只能测一次,其他模型都是测3次然后取平
字节的coding plan支持glm5.1了。 我是企业版的codingplan,试了一下,首字波动超级大,吐字速度也很慢只有4-5token/s,而且经常429。对比kimi 2.6和阿里的glm5,真的用起来太难受了。 kimi: 1 个帖子 - 1 位参与者 阅读完整话题
如图: 上游是cpa,用的是gpt-pro订阅,服务器是dmit洛杉矶pro,cpa和sub2api都装在dmit里,本地用dmit的reality节点去访问的,问题出在哪呢? 我在纠结需不需要cpa和客户端之间加一层sub2api,不加的话用量看起来不详细,还是说cpa+NEW
如下图,首字偷啃已经拉完了!我没招了。 这个可以从哪些方面进行优化呀,各位佬们。 服务器是北京联通家里云,我人也在北京,从客户端到sub2api应该没啥延迟。 然后用sub2api自带的ip管理功能上传了一个机场的订阅节点,反代的chatgpt号池。 难道是机场的节点太拉了? 1