openclaw中的completions接口与responses接口
最近在折腾openclaw,注意到completions接口和responses接口好像都可以调用,想问问各位佬有这俩个的区别是什么,会不会对模型的智商和能力造成影响? 3 个帖子 - 3 位参与者 阅读完整话题
response - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 52 篇相关文章 · 第 3 / 3 页
最近在折腾openclaw,注意到completions接口和responses接口好像都可以调用,想问问各位佬有这俩个的区别是什么,会不会对模型的智商和能力造成影响? 3 个帖子 - 3 位参与者 阅读完整话题
有很多国产大模型不支持放在codex中,因为他们基本都不支持responses接口,我想知道怎么在高版本的codex中加一个中间键来实现互转呢? 1 个帖子 - 1 位参与者 阅读完整话题
为什么会这样呀?负载的不是Free号 都是/responses/*subpath报错 5 个帖子 - 3 位参与者 阅读完整话题
=== REQUEST BODY === {“model”:“gpt-5.4”,“instructions”:"You are Codex, === RESPONSE === Status: 404 Access-Control-Allow-Headers: * Acc
如题 长会话会间歇性提示 stream disconnected before completion: stream closed before response.completed 要么就是会直接断会话 然后不断的陷入循环,无法在此会话继续 ■ Conversation int
没有听佬友们的劝,买了火山 coding plan,那简直是灾难级别。。。。只要买了,你得到的体验就是: No response from provider for 180s (model: glm-5.1, context: ~38,181 tokens). Reconnect
报错: Post "https://chatgpt.com/backend-api/codex/responses": Gateway Timeout 佬们这问题怎么解决? 1 个帖子 - 1 位参与者 阅读完整话题
我这边是直接让codex生图然后用的本地cpa的url和apikey走response格式就行了 3 个帖子 - 2 位参与者 阅读完整话题
curl --location 'https://chatgpt.com/backend-api/codex/responses' \ --header 'Authorization: Bearer' \ --header 'ch
经过我的一些调研,OpenAI Response 接口可以使用 prompt_cache_key 的字段来路由启用缓存,提供命中率。 目前 OpenCode 中已经可以通过 setCacheKey 的字段来设置了,然后 codex cli 是默认带这个功能的,并且不知道什么原因
想整个kimi套餐,加到cc和codex中,加入到cc可以命中缓存吗?codex只支持responses不支持chat了,怎么接入codex? 2 个帖子 - 2 位参与者 阅读完整话题
这是我网络问题,还是Claude 抽风了啊 一开始看到吓一跳,以为被封号了 1 个帖子 - 1 位参与者 阅读完整话题