三秒钟解决GPT/Codex"Selected model is at capacity."问题

相信不少佬都遇到过如下图所示问题: Selected model is at capacity. Please try a different model. 我在站内检索了一下,发现这个问题似乎从 5 月 6 日起开始较大范围出现。一般情况下,手动发一句“继续”之后,模型又能继续正常工作。 所以想发...
三秒钟解决GPT/Codex"Selected model is at capacity."问题
三秒钟解决GPT/Codex"Selected model is at capacity."问题

相信不少佬都遇到过如下图所示问题:

86327e1a1ef9ea81221265b3f1241b38

Selected model is at capacity. Please try a different model.

我在站内检索了一下,发现这个问题似乎从 5 月 6 日起开始较大范围出现。一般情况下,手动发一句“继续”之后,模型又能继续正常工作。

所以想发帖和各位佬友们讨论一下,有没有更好的解决方案,或者至少能降低被频繁打断的影响。

目前观察下来,这个错误对应的上游返回大概是:

upstream response failed
Our servers are currently overloaded

问题在于,客户端收到这个错误后通常不会自动重试,导致 vibe coding 过程中经常被中断。

我尝试在 sub2api 里配置错误透传规则,把这个错误改成 upstream failed。这样客户端就会触发自动重试机制,最多重试 5 次。实际体验下来,被频繁中断的情况确实明显减少了。

配置如下图:

image

而 newapi 似乎只有状态码覆写,暂时不知道如何解决。

旧标题:GPT/Codex中“Selected model is at capacity”导致频繁中断的缓解方案讨论(以sub2api为例)
然后被同学锐评:“标题改成《三秒钟解决Selected model is at capacity.问题》,你这标题一眼就没有点进来的欲望。”

7 个帖子 - 7 位参与者

阅读完整话题

来源: LinuxDo 最新话题查看原文