[程序员] codex 遇到了灵异事件。
一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。 今天升级了一下 codex 。 功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽 然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit
code - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第177页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 5375 篇相关文章 · 第 177 / 269 页
一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。 今天升级了一下 codex 。 功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽 然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit
5 刀( 24h )额度,仅限 codex 模型,有国内 cdn 线路 帖子下留邮箱就送! 官网: https://www.krill-ai.com ps:仅限个人合理使用,分发会封号 ------------活动日期截至 4 月 26 日 只要留了的,都送 后续看情况继续---
Roo code 宣布 5 月中旬结束官方的支持。官方转向做 Roomote ,后续的 Roo code 可能交由社区维护或者直接关停。有啥平替推荐吗?
想用来codex写代码,官网的200刀用不起,看下有没有稍微稳定点的,当然,也没办法追求绝对稳定啦,稳定点就行,不是专门写代码的程序员,不懂很多环境之类的,所以想要稍微稳定点的话可以少操点心 4 个帖子 - 4 位参与者 阅读完整话题
5 刀( 24h )额度,仅限 codex 模型,有国内 cdn 线路 帖子下留邮箱就送! 官网: https://www.krill-ai.com ps:仅限个人合理使用,分发会封号 ------------活动日期截至 4 月 26 日 只要留了的,都送 后续看情况继续---
兄弟们,太难了… 还是得 codex 和 Claude code一起用。 之前从来没考虑过token消耗,昨天是开了它的 fast 模式,但是感觉这也太快了。今天只能抠抠搜搜,这感觉,差劲极了。。 16 个帖子 - 9 位参与者 阅读完整话题
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
用的是codex cli,今天莫名其妙一直卡,疯狂找我要权限,因为我开了自动审批,又弹不出来,跟签保证书似的在命令行输入我授权xxx,然后让codex拉了一下具体的报错,说是自动审批的模型503了,现在只能先回到手动审批了TAT。 This action was rejected
请问下cpa显示gpt5.5 codex回答5.4 这个到底调用的是5.4还是5.5 我是在config里面配置的gpt5.5 用的vsc插件 1 个帖子 - 1 位参与者 阅读完整话题
一位名叫Hailey的开发者在Codeberg上发布了一款名为 WSL9x 的工具,实现了在Windows 95及更早版本的Windows系统中运行现代Linux内核。 她将其称为“Windows 9x Subsystem for Linux”,并在社交平台上表示,这可能是她有史
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
首先我用的是 kilo code vscode 扩展,不过由于deepseek-v4 才出来,kilo code还不支持 deepseek-v4的 reasoning_content 会报下面这个错误: The reasoning_content in the thinking
各位佬,最近Hermes很火,这个适合用来做开发吗,相比于Claude code ,codex,有优势吗? 他能自动读取 claude.md/agents.md 这样的规范吗? 6 个帖子 - 4 位参与者 阅读完整话题
这是 claude 用 opus 4.7 xhigh: 这是 codex 用 gpt 5.5 high: 同一个代码库,正常的需求分析和实现。。。 5 个帖子 - 3 位参与者 阅读完整话题
今天用 codex gpt5.4 感觉像降智了,写代码一股异味,前几天一次性就能写好了,今天写个代码我要反复给他提示几次,消耗还比之前增加了
用sub2api反代的plus可以生图,就是不知道这个额度是怎么算的,和codex额度一起算吗 1 个帖子 - 1 位参与者 阅读完整话题