img2d额度怎么算?
用sub2api反代的plus可以生图,就是不知道这个额度是怎么算的,和codex额度一起算吗 1 个帖子 - 1 位参与者 阅读完整话题
Pi - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第78页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2715 篇相关文章 · 第 78 / 136 页
用sub2api反代的plus可以生图,就是不知道这个额度是怎么算的,和codex额度一起算吗 1 个帖子 - 1 位参与者 阅读完整话题
问个问题,free模型好像是没有5.5模型的 然后我sub2api分配账号的时候因为free比较多,大部分都是命中free 导致实际使用5.5模型的用户大部分是命中5.4,但是我看了下实际上付费号池还是有空闲的 大佬们都是怎么处理了。 我考虑单独搭个分组,但是如果全去使用付费号池
sub2api 接管给CC用的,缓存看到都是 5m 的,官方就是如此吗,依稀记得不是有 1h 换粗难道吗?MAX5 已经90%了,token消耗的太快了 1 个帖子 - 1 位参与者 阅读完整话题
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
最近想去小黄鱼购入二手 pixel 7a,不知道啥价格比较划算,佬们有建议吗? 1 个帖子 - 1 位参与者 阅读完整话题
我没有改配置文件,直接改模型ID(请确认中转站已经提供了) 然后重启codex终端读取配置文件就好了 打开后模型显示的是自定义 没有ccswitch也可以手动修改C盘/用户/.codex文件夹下的配置文件,Codex在Vscode上的插件也是同理。 1 个帖子 - 1 位参与者
万众期待中,DeepSeek V4,终于发布了!就在刚刚,被期待已久的 DeepSeek V4 预览版正式登场。两个版本—— V4-Pro 和 V4-Flash,全系标配 1M(百万字)超长上下文,同步开源模型权重和技术报告 。 五一前的这两天,大模型又进入新一轮发布潮。 4 月
trae添加模型支持自定义api请求地址了,终于可以使用公益站api了 2 个帖子 - 2 位参与者 阅读完整话题
https://linux.do/t/topic/1696123?u=ytfl 具体题目见之前的帖子,之前评论区有DeepSeek网页版做对的,现在专家模式+深度思考反而做不对了 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 24 日消息,备受关注的 DeepSeek-V4 预览版今日正式上线并同步开源。 随后,华为云官方宣布为 DeepSeek-V4 提供首发适配,华为云 MaaS 模型即服务平台已为开发者提供免部署、一键调用 DeepSeek-V4-Flash API 的 Tok
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan
GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan
https://maas-coding-api.cn-huabei-1.xf-yun.com/v2 像这种api地址怎么添加到newapi里? 1 个帖子 - 1 位参与者 阅读完整话题
如题,想问一下各位有经验的佬友可以在codex中使用5.4pro和5.5pro吗 2 个帖子 - 2 位参与者 阅读完整话题
GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan
GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan
更新了最新的codexcli,使用compact命令的时候会报错。 求佬解答,如何解决 1 个帖子 - 1 位参与者 阅读完整话题
GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan
大家好,最近我们团队又开源了一个新项目,和大家分享一下 我们平时读长篇技术书、学术著作、小说,或者海量文档的时候, 最抓狂的痛点就是“怎么才能高效抓住精髓” 。直接扔给大模型总结? 要么上下文窗口一炸,丢三落四; 要么总结得“四平八稳”,但完全没按你的阅读意图来; 更别提结构、人