gpt5.5快的我怕他不够聪明[破案了应该中转站的问题]
codex使用我看了下后台tps不算首字也就45token/s左右,用了半天为啥感觉好快啊!!我都怕他不够聪明,你们也是吗? 体感比5.4fast模式都快了30%,我之前一直用的fast 我开发都有点心虚,这么快会不会哪里有坑,review代码都要切回5.4去 网页使用5.5pr
token - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第41页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1262 篇相关文章 · 第 41 / 64 页
codex使用我看了下后台tps不算首字也就45token/s左右,用了半天为啥感觉好快啊!!我都怕他不够聪明,你们也是吗? 体感比5.4fast模式都快了30%,我之前一直用的fast 我开发都有点心虚,这么快会不会哪里有坑,review代码都要切回5.4去 网页使用5.5pr
十几个任务,能一次性完成。 就是目前上下文只有258k,基本每一两次对话就自动压缩。 8 个帖子 - 8 位参与者 阅读完整话题
现在既有次数限制又有用量限制,没法像以前那样爽登了..现在应该是同时有次数限制+5小时用量限制+周用量限制了.. 8 个帖子 - 6 位参与者 阅读完整话题
使用deepseek-v4 pro的总结,配合gpt-image-2的出图 1 个帖子 - 1 位参与者 阅读完整话题
ds的后台还是很简单明了的,能看到命中和非命中的token。 我让他过了一下我的项目,提了一些建议。 从这个算的话,总的命中率大概在80-90%左右。 所以不能直接看到12元就按照这个走(除非你在申报部门预算) 1 个帖子 - 1 位参与者 阅读完整话题
最期待的模型之一,希望能把 token 价格打下来
最近在重度使用 codex app ,被官方价格 + 限制搞得有点烦… 干脆自己弄了个中转站,原本只是自己用的,刚好自己有一些上游渠道可以搞到一些相对低价的 pro 账号来轮询。 现在顺手放出来,有需要的可以试试。 支持的东西不多,目前就主打 codex ,支持最新的 GPT-5
有没有 V 友感觉最近 cc 看了五个小时 session 的 token usage 啊?这两天问不几轮对话就把五个小时的 usage 干满了,沟槽的 A/
有没有 V 友感觉最近 cc 看了五个小时 session 的 token usage 啊?这两天问不几轮对话就把五个小时的 usage 干满了,沟槽的 A/
有没有 V 友感觉最近 cc 看了五个小时 session 的 token usage 啊?这两天问不几轮对话就把五个小时的 usage 干满了,沟槽的 A/
看看CPA统计中,3.8M中3.3M是缓存token 看起来还不错,相比5.4 10 个帖子 - 7 位参与者 阅读完整话题
有没有 V 友感觉最近 cc 看了五个小时 session 的 token usage 啊?这两天问不几轮对话就把五个小时的 usage 干满了,沟槽的 A/
DeepSeek V4 这波性能更新可以啊。 参数量上来了,不过价格也上来了。 Pro 还是有点小贵的。 项目 deepseek-v4-flash* deepseek-v4-pro BASE URL(OpenAI 格式) https://api.deepseek.com http
最近在重度使用 codex app ,被官方价格 + 限制搞得有点烦… 干脆自己弄了个中转站,原本只是自己用的,刚好自己有一些上游渠道可以搞到一些相对低价的 pro 账号来轮询。 现在顺手放出来,有需要的可以试试。 支持的东西不多,目前就主打 codex ,支持最新的 GPT-5
从100M token,输出占比20%,缓存命中占比80%计算,deepseek v4和kimi 2.6,glm5.1,qwen3.6的收费没有明显差距了。API价格各大模型官方可查 6 个帖子 - 6 位参与者 阅读完整话题
openclaw 培养了我们使用 agent 的习惯后,我觉得 V4 的 flash 版本将会是绝杀,输入百万 token才 1 块,命中缓存才 0.2,输出才 2 块。 openclaw 那些查询 memory,查询 skills 的操作将变得毫无负担,这可能又一次革了那些 t
最期待的模型之一,希望能把 token 价格打下来
最近在重度使用 codex app ,被官方价格 + 限制搞得有点烦… 干脆自己弄了个中转站,原本只是自己用的,刚好自己有一些上游渠道可以搞到一些相对低价的 pro 账号来轮询。 现在顺手放出来,有需要的可以试试。 支持的东西不多,目前就主打 codex ,支持最新的 GPT-5
真比矿泉水便宜了,各大公司又可以降本增效了 1 个帖子 - 1 位参与者 阅读完整话题
DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求 1 个帖子 - 1 位参与者 阅读完整话