本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek
最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin
response - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 52 篇相关文章 · 第 2 / 3 页
最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin
最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin
最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin
各位佬友,openai的responses请求调用tools插件web_search是如何扣费的?官方的价格是10$/1k次,但是一次请求中会调用多次插件是按照一次扣费还是按照实际调用的次数扣费? 请求如下: { "model": "gpt-5.5&
最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin
最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin
最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin
请问各位大佬: openai之前的Completions支持stop,新版本的responses没有stop参数了, 想问一下,在新版本的responses如何使用stop参数,或者实现同样效果。 感觉prefill和stop sequences在openai api上不怎么样呢
stream disconnected before completion: stream closed before response.completed 如图所示 我在用codex建立宠物 然后正常使用都没问题一走他的hatch pet的skill就会出现该问题有佬知道是怎么
gpt5.4用responses正常,但是5.5走responses就报503,但是5.5走chat completions又可以,不知道哪里的问题。 1 个帖子 - 1 位参与者 阅读完整话题
之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。 # litellm_config.yaml model_list: - mode
image2调用方式有两种:一种是调用 /f/conversation 网页对话api,一种是调用 /codex/responses codex对话api。 gpt free账号具有网页生图额度,但是不具有codex生成图片额度: 非gpt free账号同时具有网页生图额度和co
各位佬,中转站的openai 接口之前一直是/v1/responses,一直能看到推理强度是XHIGH,昨天突然变成了/v1/chat/completions,而且看不到推理强度了,这说明了什么问题 1 个帖子 - 1 位参与者 阅读完整话题
为什么国内都没有出openai-responses接口来支持codex;codex也已经把openai-chat协议下线很久了;是技术原因还是没公开的原因;openai-responses → anthropic协议这些互转似乎都不是很完善 3 个帖子 - 3 位参与者 阅读完整
newapi可以实现ChatCompletions转Responses吗 想把自己买的glm coding plan还有各位大佬提供的公益导入newapi 实现聚合渠道以及ChatCompletions转Responses 然后给codex用,现在卡在ChatCompletion
昨天还会出现,“stream disconnected before completion: stream closed before response.completed”这种的报错。我昨天把codex根目录下的AGENTS.md文件瘦身了,然后就好了,结果用了不到 1小时,又
opencode 1.14.26 兼容了response_content参数的版本 deepseek v4 flash,默认参数 在opencode里面, 一个简单问题也可能让deepseek flash反复思考10分钟,甚至出现修改了一轮后,在下一轮重复思考的时候把上一个修改重
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
只支持Responses请求的中转站如何在kilo code这种只支持completions 请求的插件中使用 1 个帖子 - 1 位参与者 阅读完整话题
最近在使用codex客户端时总是报错:stream disconnected before completion: Transport error: network error: error decoding response body,不知道是怎么回事,之前一直没有出现过的,没