请问大家用 codex 的 5.5 选 medium 还是 high 呀
如题,好像默认是 medium 了,high 消耗 token 会很快吗 8 个帖子 - 8 位参与者 阅读完整话题
token - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第40页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1262 篇相关文章 · 第 40 / 64 页
如题,好像默认是 medium 了,high 消耗 token 会很快吗 8 个帖子 - 8 位参与者 阅读完整话题
帮你们论证了,GPT-5.5 节省token是真的,同样的plan, 19.43%,叠加cursor的50%优惠,冲咯[机智] 10 个帖子 - 7 位参与者 阅读完整话题
如图在sub2api授权的账号token过期了,请问佬友怎么保证授权不过期,最近几天每天都有账号授权过期,要重新授权,感觉好烦 有佬友说401是号没了,并不是,重新授权下就能用,不是账号被封了 1 个帖子 - 1 位参与者 阅读完整话题
前段时间小米不是搞了送 token 的那个活动吗。我因为订阅了小米的 token plan ,发现群里但凡还咋订阅的,送的都是赠金。然后这个增加不能购买套餐,只能直接使用 API 消耗。等于说是 300 多的定金实际上的 token 跟 39 块钱的套餐差不多。 付费订阅用户被大
如题 openclaw火我就安装了,Hermes的star飙升我也部署了,现在进入天才陨落纪,token匮乏,就浅度使用,两个换着用,openclaw用的多,主要让它写和总结东西,Hermes用的少,主要让它操作浏览器完成一些自动化操作的事情,对了, 它们都是在VPS主机里直接部
从 「OneToken.sh」本站正式支持GPT-5.5,人民币2元100万Token,抽10位送500万Token【已听劝】 继续讨论: 官网: OneToken.sh 1M=100万Token 输入价格: 3元/M Token 输出价格: 12元/M Token 缓存输入:
第一大原因是上下文256k,我会经常性新建会话 效率提升,很少问用户问题,让任务流畅执行 今天调用2000多次也只用了140M 7 个帖子 - 5 位参与者 阅读完整话题
今天写了一天代码,腰酸背痛的,一看cpa,今天竟然用了1.2亿token,买的日抛team回本了哈哈哈 14 个帖子 - 13 位参与者 阅读完整话题
不是很多但速度是真的快啊! flash|每秒175 tokens pro|每秒81 tokens 我觉得等大家都完善配置了速度还能起飞 12 个帖子 - 9 位参与者 阅读完整话题
今天看到deepseek v4的价格, 又想到原来看到的一个讨论: 普通人的翻身机会 = “token出海”. 感觉说的就是deepseek吧. 价格屠夫, 而且又不会被卡脖子. 锋哥牛逼!!! 1 个帖子 - 1 位参与者 阅读完整话题
以前在OpenCode中使用Claude和GPT的时候就发现. 同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token. 现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100kto
萌新求问 目前还有没有便宜的相对稳定邀请送token,硅基流动用完了新的太贵 七牛云被封了一个不敢用了 1 个帖子 - 1 位参与者 阅读完整话题
今年是AI的变现之年 再叠加全球硬件供需失衡,导致硬件价格步步高升 token的价格基本和硬件的价格高度绑定 要想token的价格回落 就要看这几年的“AGI”是否实现了 各位可以回想一下 当年的流量套餐是花了多长时间才变成如今这样 2 个帖子 - 2 位参与者 阅读完整话题
是怎么回事?IP不好使?用的2925邮箱 5 个帖子 - 4 位参与者 阅读完整话题
兄弟们,太难了… 还是得 codex 和 Claude code一起用。 之前从来没考虑过token消耗,昨天是开了它的 fast 模式,但是感觉这也太快了。今天只能抠抠搜搜,这感觉,差劲极了。。 16 个帖子 - 9 位参与者 阅读完整话题
这是 claude 用 opus 4.7 xhigh: 这是 codex 用 gpt 5.5 high: 同一个代码库,正常的需求分析和实现。。。 5 个帖子 - 3 位参与者 阅读完整话题
关于Plus用户使用gpt-5.5的5h和7d限额,是按token量还是使用金额? 4 个帖子 - 3 位参与者 阅读完整话题
之前的30M是流量,什么时候能到5元30M token 时代呢 12 个帖子 - 12 位参与者 阅读完整话题
IT之家 4 月 24 日消息,备受关注的 DeepSeek-V4 预览版今日正式上线并同步开源。 随后,华为云官方宣布为 DeepSeek-V4 提供首发适配,华为云 MaaS 模型即服务平台已为开发者提供免部署、一键调用 DeepSeek-V4-Flash API 的 Tok
gpt的标准系列(gpt-5.4,gpt-5.5之类的)和claude的opus/sonnet都是大约40-60token/s,好慢啊,受不了了,gpt-5.3-codex-spark我又没资格用 ,只能被迫使用gpt-5.4-mini了 大家都用的什么模型啊,多少速度啊,有没有