codex 深度用户请进

小弟此前一只用cursor, 最近很长一段时间都在用 gpt-5.4 xhigh觉得非常好用,看到codex 有windows app了就去用(还特地订阅了pro因为plus的额度俩个问题就耗光5小时窗口了),最近发现一个很要命的问题,就是codex的自动总结上下文基本十次有九次都失败停掉,约等于是...
codex 深度用户请进
codex 深度用户请进

小弟此前一只用cursor, 最近很长一段时间都在用 gpt-5.4 xhigh觉得非常好用,看到codex 有windows app了就去用(还特地订阅了pro因为plus的额度俩个问题就耗光5小时窗口了),最近发现一个很要命的问题,就是codex的自动总结上下文基本十次有九次都失败停掉,约等于是不能用了。我不是太能相信这是产品本身的问题,想请教一下深度用户是不是有哪些设置(toml或者agent.md)可以规避这个上下文窗口总结失败的问题。我的情况是 pro+gpt 5.4 xhigh fast+plan mode,每次差不多只能10%上下文时codex才会自动开始总结,我在toml里设置了model_auto_compact_token_limit = 64000但是好像也不怎么有用,sad

22 个帖子 - 12 位参与者

阅读完整话题

来源: linux.do查看原文