sub2api为什么5.5用responses会报错503啊?
gpt5.4用responses正常,但是5.5走responses就报503,但是5.5走chat completions又可以,不知道哪里的问题。 1 个帖子 - 1 位参与者 阅读完整话题
responses - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 15 篇相关文章
gpt5.4用responses正常,但是5.5走responses就报503,但是5.5走chat completions又可以,不知道哪里的问题。 1 个帖子 - 1 位参与者 阅读完整话题
之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。 # litellm_config.yaml model_list: - mode
image2调用方式有两种:一种是调用 /f/conversation 网页对话api,一种是调用 /codex/responses codex对话api。 gpt free账号具有网页生图额度,但是不具有codex生成图片额度: 非gpt free账号同时具有网页生图额度和co
各位佬,中转站的openai 接口之前一直是/v1/responses,一直能看到推理强度是XHIGH,昨天突然变成了/v1/chat/completions,而且看不到推理强度了,这说明了什么问题 1 个帖子 - 1 位参与者 阅读完整话题
为什么国内都没有出openai-responses接口来支持codex;codex也已经把openai-chat协议下线很久了;是技术原因还是没公开的原因;openai-responses → anthropic协议这些互转似乎都不是很完善 3 个帖子 - 3 位参与者 阅读完整
newapi可以实现ChatCompletions转Responses吗 想把自己买的glm coding plan还有各位大佬提供的公益导入newapi 实现聚合渠道以及ChatCompletions转Responses 然后给codex用,现在卡在ChatCompletion
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
只支持Responses请求的中转站如何在kilo code这种只支持completions 请求的插件中使用 1 个帖子 - 1 位参与者 阅读完整话题
最近在折腾openclaw,注意到completions接口和responses接口好像都可以调用,想问问各位佬有这俩个的区别是什么,会不会对模型的智商和能力造成影响? 3 个帖子 - 3 位参与者 阅读完整话题
有很多国产大模型不支持放在codex中,因为他们基本都不支持responses接口,我想知道怎么在高版本的codex中加一个中间键来实现互转呢? 1 个帖子 - 1 位参与者 阅读完整话题
为什么会这样呀?负载的不是Free号 都是/responses/*subpath报错 5 个帖子 - 3 位参与者 阅读完整话题
=== REQUEST BODY === {“model”:“gpt-5.4”,“instructions”:"You are Codex, === RESPONSE === Status: 404 Access-Control-Allow-Headers: * Acc
报错: Post "https://chatgpt.com/backend-api/codex/responses": Gateway Timeout 佬们这问题怎么解决? 1 个帖子 - 1 位参与者 阅读完整话题
curl --location 'https://chatgpt.com/backend-api/codex/responses' \ --header 'Authorization: Bearer' \ --header 'ch
想整个kimi套餐,加到cc和codex中,加入到cc可以命中缓存吗?codex只支持responses不支持chat了,怎么接入codex? 2 个帖子 - 2 位参与者 阅读完整话题