使用claudecode外接codex模型/GLM模型可以开启1M上下文吗?

如题。如果在cc中体验开启: oh-my-claude-code Everything Claude Code GetStuffDone(GSD) OpenSpec … 这会导致上下文很快爆炸…在一个项目里开了个 /init 直接跑了45%的 ConText… 针对这些烧token的工具,在上下文处...
使用claudecode外接codex模型/GLM模型可以开启1M上下文吗?
使用claudecode外接codex模型/GLM模型可以开启1M上下文吗?

如题。如果在cc中体验开启:

  • oh-my-claude-code
  • Everything Claude Code
  • GetStuffDone(GSD)
  • OpenSpec

这会导致上下文很快爆炸…在一个项目里开了个/init直接跑了45%的 ConText… 针对这些烧token的工具,在上下文处理方面是否有好的方案,例如开启cc的1M上下文之类的(我似乎没找到开关) :innocent:

6 个帖子 - 4 位参与者

阅读完整话题

来源: linux.do查看原文