codex free xhigh状态下 一个hi 用了百分之40的额度 这准确吗
如果准确 就真的废了 虽然是超高 但就一个hi 4 个帖子 - 4 位参与者 阅读完整话题
High - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 114 篇相关文章 · 第 6 / 6 页
如果准确 就真的废了 虽然是超高 但就一个hi 4 个帖子 - 4 位参与者 阅读完整话题
提问:在cliproxyapi中用codex认证得到GPT-5.4,给Claude code用时,如何把effort调成xhigh?好像没法把codex的xhigh映射成Claude的max? 5 个帖子 - 5 位参与者 阅读完整话题
用cpa反代中转站或者公益站的api就行了 不一定非要对gpt5.4设置4.7的别名 1 个帖子 - 1 位参与者 阅读完整话题
TL;DR:omo = 国产模型 + GPT 成本 = GLM 5.1($30) + GPT($20) + MINMAX($4) tokens根本用不完 职业码农,市面上主流的 vibe coding 工具基本都摸过一遍:Copilot → Cursor → Claude Cod
弱智垃圾模型,佬们速蹬,highspeed模型可用 sk-cp-B2fu5eCs0F_jfr5-4ePtk5U5OusQ7uaHvzMPdiRy6nfNNgjcUpfeT7G22PhMACLx1UO3GGtiKnmT60SAW8sSFMvBhgSG6EBKFLx60mdS0q7C
为什么GPT 5.4 Pro变得这么快????这还是 Pro xhigh吗? 以前的问题怎么也得思考 10 分钟以上啊,稍微难一些的都 40 分钟。怎么今天这这么快就回复了,昨天晚上还没这样呢,是我账号被封控了吗?还是什么新模型灰度了 16 个帖子 - 10 位参与者 阅读完整话
所有模型都用不了:Our servers are experiencing high traffic right now, please try again in a minute. 参考 https://antigravity.codes/zh/blog/uninstall-a
如题,大家有感觉吗,非严格统计,用的opus4.7xhigh,个人感觉不管5小时还是周额度都变得耐用很多,这÷了那么久突然搞这一下有点意外 3 个帖子 - 3 位参与者 阅读完整话题
不知道要不要上公益站。 10 个帖子 - 10 位参与者 阅读完整话题
好多佬友都反馈感觉opus4-7越更新越差劲呢,现在各位佬都一般用xhigh还是max effort的opus4-7呢?我感觉用xhigh快是快了,但是质量不太行呀 7 个帖子 - 5 位参与者 阅读完整话题
GPT-5.4 xhigh fast 模式 2个问题直接无了70% 7 个帖子 - 4 位参与者 阅读完整话题
各位佬!我是在codex cli 里用的 gpt-5.4模型 然后开了xhigh模式 但是实在太慢了!慢的我都想咬手有没有什么办法啊 求指导! 还有就是 我想整个中转 搞台服务器给自己和几个朋友一起用 佬友们有啥推荐的服务器没 我本地cpa sub2api也搭好了 从0跟这位佬学
写了个benchmark想看看实际的速率区别。 测试-1 (点击了解更多详细信息) bench代码 (点击了解更多详细信息) config.json (点击了解更多详细信息) 2.7-highspeed在代码生成类别速度比文字快一点,而且如果涉及到中文tps就会变低。在设定max
好多人讨论free能不能用fast 小白表示从用codex 一直在用xhigh 感觉输出快的质量差 我这样理解对吗? 11 个帖子 - 8 位参与者 阅读完整话题