[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
code - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第162页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 5224 篇相关文章 · 第 162 / 262 页
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
也可能是昨天我的codex没推送,今天加班一打开就让更新,更新完就有辣,爽蹬 10 个帖子 - 8 位参与者 阅读完整话题
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题
类似的含有deepseek v4 pro的编码套餐。 2 个帖子 - 2 位参与者 阅读完整话题
是不是效果不好?因为几乎看不到这样作。 有没有大哥这样用的,特别是最新的gpt5.5,效果如何。 然后,想用是不是只能反代出来? 9 个帖子 - 6 位参与者 阅读完整话题
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
最近用一个 OSS 项目申请了 Codex 那个开发者项目然后奖励了一个 ChatGPT Pro 20X 6 个月抵扣码,我自己有 cc 了用不上这个 8 折出了 200USD * 6 * 0.8 = 960USD = 6,562 RMB 感觉金额有点大。。有人想要吗 其实我同时
意义:搭建跟自身项目有关的垂直环境。常用的codex,cc等其实本身有通用harness 内核,但我们仍需根据自己的工作场景在此基础上搭建垂直场景的harness 框架,以便于agent能更好完成目标(其实就相当于给一个公司制定工作流程和员工守则)。(4.25 01:38 兴致勃
这种如何避免啊,已经出现好多次,不知道如何约束。。。
这种如何避免啊,已经出现好多次,不知道如何约束。。。
大家用codex有没有遇到过status_code=400, The encrypted content QVhO…og== could not be verified. Reason: Encrypted content could not be decrypted or pa
不知道为什么这几天发现,开启 TUN 模式之后还要打开全局模式,Codex才能够比较稳定使用。使用绕过大陆模式的时候 Codex 经常会不太稳定,有各位佬友们知道怎么解决吗? 11 个帖子 - 11 位参与者 阅读完整话题
通过cc-switch 3.14.1 把gpt模型放进Claude Code 2.1.119的缓存全部丢失,每轮对话都只有系统提示词在缓存里(约16k~20k) 导致我一小时被烧掉两百刀gpt。太离谱了。 回退到2.1.100版本的claude code则恢复缓存。 该版本ccs
我是在wsl里用codex,之前一直没问题,今天更新到125.0,就出现 Error: Missing optional dependency @openai /codex-linux-x64. Reinstall Codex: npm install -g @openai /c
以下内容在未说明的情况下,均为claude code 桌面版中测试 主要为了测试用AI去AI味的可行性 目前看来开源方案都不太可靠 自写的skills检测很准,但如果改写,还是过不了朱雀 以下为humanize测试效果 glm5.1改写 gpt5.5+codex kimi-k2.
求助:deepseekv4接入axonhub后似乎无法在Claudecode中调用 1 个帖子 - 1 位参与者 阅读完整话题
兄弟们,太难了...难道我需要开两个账号了? 你们现在都是什么配置
接入了claude code写代码 怎么一会儿就花一块 7 个帖子 - 7 位参与者 阅读完整话题