sub2api为什么5.5用responses会报错503啊?
gpt5.4用responses正常,但是5.5走responses就报503,但是5.5走chat completions又可以,不知道哪里的问题。 1 个帖子 - 1 位参与者 阅读完整话题
Response - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 23 篇相关文章 · 第 1 / 2 页
gpt5.4用responses正常,但是5.5走responses就报503,但是5.5走chat completions又可以,不知道哪里的问题。 1 个帖子 - 1 位参与者 阅读完整话题
之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。 # litellm_config.yaml model_list: - mode
image2调用方式有两种:一种是调用 /f/conversation 网页对话api,一种是调用 /codex/responses codex对话api。 gpt free账号具有网页生图额度,但是不具有codex生成图片额度: 非gpt free账号同时具有网页生图额度和co
各位佬,中转站的openai 接口之前一直是/v1/responses,一直能看到推理强度是XHIGH,昨天突然变成了/v1/chat/completions,而且看不到推理强度了,这说明了什么问题 1 个帖子 - 1 位参与者 阅读完整话题
为什么国内都没有出openai-responses接口来支持codex;codex也已经把openai-chat协议下线很久了;是技术原因还是没公开的原因;openai-responses → anthropic协议这些互转似乎都不是很完善 3 个帖子 - 3 位参与者 阅读完整
newapi可以实现ChatCompletions转Responses吗 想把自己买的glm coding plan还有各位大佬提供的公益导入newapi 实现聚合渠道以及ChatCompletions转Responses 然后给codex用,现在卡在ChatCompletion
昨天还会出现,“stream disconnected before completion: stream closed before response.completed”这种的报错。我昨天把codex根目录下的AGENTS.md文件瘦身了,然后就好了,结果用了不到 1小时,又
opencode 1.14.26 兼容了response_content参数的版本 deepseek v4 flash,默认参数 在opencode里面, 一个简单问题也可能让deepseek flash反复思考10分钟,甚至出现修改了一轮后,在下一轮重复思考的时候把上一个修改重
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
只支持Responses请求的中转站如何在kilo code这种只支持completions 请求的插件中使用 1 个帖子 - 1 位参与者 阅读完整话题
最近在使用codex客户端时总是报错:stream disconnected before completion: Transport error: network error: error decoding response body,不知道是怎么回事,之前一直没有出现过的,没
最近在折腾openclaw,注意到completions接口和responses接口好像都可以调用,想问问各位佬有这俩个的区别是什么,会不会对模型的智商和能力造成影响? 3 个帖子 - 3 位参与者 阅读完整话题
有很多国产大模型不支持放在codex中,因为他们基本都不支持responses接口,我想知道怎么在高版本的codex中加一个中间键来实现互转呢? 1 个帖子 - 1 位参与者 阅读完整话题
为什么会这样呀?负载的不是Free号 都是/responses/*subpath报错 5 个帖子 - 3 位参与者 阅读完整话题
=== REQUEST BODY === {“model”:“gpt-5.4”,“instructions”:"You are Codex, === RESPONSE === Status: 404 Access-Control-Allow-Headers: * Acc
如题 长会话会间歇性提示 stream disconnected before completion: stream closed before response.completed 要么就是会直接断会话 然后不断的陷入循环,无法在此会话继续 ■ Conversation int
没有听佬友们的劝,买了火山 coding plan,那简直是灾难级别。。。。只要买了,你得到的体验就是: No response from provider for 180s (model: glm-5.1, context: ~38,181 tokens). Reconnect
报错: Post "https://chatgpt.com/backend-api/codex/responses": Gateway Timeout 佬们这问题怎么解决? 1 个帖子 - 1 位参与者 阅读完整话题
我这边是直接让codex生图然后用的本地cpa的url和apikey走response格式就行了 3 个帖子 - 2 位参与者 阅读完整话题
curl --location 'https://chatgpt.com/backend-api/codex/responses' \ --header 'Authorization: Bearer' \ --header 'ch