Jetbrains Gateway怎么方便使用cc/cx
昨天试了一下Jetbrains Gateway,好像只能通过terminal启动claude code / codex, 但是延迟很高,打字都一卡一卡的, Jetbrains Gateway有类似vscode的claude code插件吗? 5 个帖子 - 4 位参与者 阅读完整
Codex - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第95页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 3207 篇相关文章 · 第 95 / 161 页
昨天试了一下Jetbrains Gateway,好像只能通过terminal启动claude code / codex, 但是延迟很高,打字都一卡一卡的, Jetbrains Gateway有类似vscode的claude code插件吗? 5 个帖子 - 4 位参与者 阅读完整
请教一下佬友们:使用 CPA 反代 Gemini CLI 还有 Codex,有封号风险吗? 我使用个人的账号。 5 个帖子 - 5 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
codex里,team,一个任务还没完成,十几分钟,5小时限制就只有48了,还是用的high 15 个帖子 - 12 位参与者 阅读完整话题
x 来源: OPENAI : GPT-CODEX-5.5 HAS BEEN SPOTTED IN THE WILD. 注 : 消息真实性并无验证。 5 个帖子 - 5 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
最近各种中转站由于 plus 、pro 渠道死了,codex 包月都转流量了,苦苦寻觅了一个新大佬开的中转站,特来分享给有缘人。 openai gpt5.5,gpt-image-2 开通上线 base64:aHR0cHM6Ly9jbi5jaHJvdXRlci5jb206ODQ0M
最近各种中转站由于 plus 、pro 渠道死了,codex 包月都转流量了,苦苦寻觅了一个新大佬开的中转站,特来分享给有缘人。 openai gpt5.5,gpt-image-2 开通上线 base64:aHR0cHM6Ly9jbi5jaHJvdXRlci5jb206ODQ0M
macbook air m4,刚刚半小时前点了codex升级版本,然后不到5min cpu飙到了85度,没见过这种场景,立马把电脑关了(将近半年没关过机了索性就顺带让它休息个半个小时);开机之后打开codex也是飙到50多度,关键还打不开 ,你们又出现吗? 出去点了个烟,前几天四
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
并非完全原创,原始脚本忘记是站内的还是Github Issue里贴的了,总之感谢大佬的工作让我可以站在巨人肩膀上给OpenAI擦屁股。 效果:能消除部分控制台中的warning刷屏情况,以及这些刷屏造成的高CPU占用问题。 注意:这是powershell脚本,下载后请自行把文件后
用的是 CPA 最新版,gpt img2 的模型号 在 codex 里面可以直接生图吗?不理解怎么做。 要自己写个插件 或者 skill? 2 个帖子 - 2 位参与者 阅读完整话题
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
如题,好像默认是 medium 了,high 消耗 token 会很快吗 8 个帖子 - 8 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
卸载重装也是一样,大佬有知道怎么办的吗 9 个帖子 - 6 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex