Codex 飞起,OpenCode 龟爬,同样是 GPT 5.5 差距这么大

最近同时试了 Codex CLI 和 OpenCode,模型都是 GPT 5.5 Xhigh,提示词一模一样,结果 Codex 秒出,OpenCode 要等半天,有时候还卡在那里转圈圈。 我观察到的几个点: Codex 是 OpenAI 亲儿子,原生优化,感觉跟模型是"直通"的 OpenCode 是...
Codex 飞起,OpenCode 龟爬,同样是 GPT 5.5 差距这么大
Codex 飞起,OpenCode 龟爬,同样是 GPT 5.5 差距这么大

最近同时试了 Codex CLI 和 OpenCode,模型都是 GPT 5.5 Xhigh,提示词一模一样,结果 Codex 秒出,OpenCode 要等半天,有时候还卡在那里转圈圈。

我观察到的几个点:

  • Codex 是 OpenAI 亲儿子,原生优化,感觉跟模型是"直通"的
  • OpenCode 是通用框架,要适配各种模型和 API,中间多了一层,慢是意料之中,但没想到差距这么明显

另外发现 OpenCode 里的 GPT 5.5 虽然标了 1M 上下文,但实际跑起来 91k tokens 就显示占了 23%,感觉有效窗口被压缩得厉害。Codex 在这方面就顺滑很多。

价格倒是反过来——OpenCode 开源免费,模型随便换;Codex 要绑 ChatGPT 订阅。但速度这关,OpenCode 确实输了一截。

想问问佬友们:

  • 有没有优化 OpenCode 速度的经验?比如换 endpoint、调并发、或者关掉某些功能?
  • 还是说这差距根本没法追,只能认了?

11 个帖子 - 9 位参与者

阅读完整话题

来源: LinuxDo 最新话题查看原文