response - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

response - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 52 篇相关文章 · 第 2 / 3 页

本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech www.v2ex.com 2026-05-06 02:28:54+08:00

本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech www.v2ex.com 2026-05-06 01:28:54+08:00

[程序员] 本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech v2ex.com 2026-05-05 23:47:52+08:00

对于OpenAI的web_search插件调用扣费的疑问?

各位佬友,openai的responses请求调用tools插件web_search是如何扣费的?官方的价格是10$/1k次,但是一次请求中会调用多次插件是按照一次扣费还是按照实际调用的次数扣费? 请求如下: { "model": "gpt-5.5&

tech linux.do 2026-05-05 22:09:59+08:00

[程序员] 本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech v2ex.com 2026-05-05 21:56:09+08:00

[程序员] 本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech v2ex.com 2026-05-05 21:56:09+08:00

[程序员] 本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech v2ex.com 2026-05-05 21:16:08+08:00

openai api的responses如何使用stop sequences

请问各位大佬: openai之前的Completions支持stop,新版本的responses没有stop参数了, 想问一下,在新版本的responses如何使用stop参数,或者实现同样效果。 感觉prefill和stop sequences在openai api上不怎么样呢

tech linux.do 2026-05-05 20:52:21+08:00

codex中转站使用过程中出现reconnecting

stream disconnected before completion: stream closed before response.completed 如图所示 我在用codex建立宠物 然后正常使用都没问题一走他的hatch pet的skill就会出现该问题有佬知道是怎么

tech linux.do 2026-05-05 13:13:51+08:00

sub2api为什么5.5用responses会报错503啊?

gpt5.4用responses正常,但是5.5走responses就报503,但是5.5走chat completions又可以,不知道哪里的问题。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-02 16:39:31+08:00

litellm 支持responses api请求转换至后端 /chat/completions

之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。 # litellm_config.yaml model_list: - mode

tech linux.do 2026-05-02 12:53:48+08:00

关于gpt账号的image2额度

image2调用方式有两种:一种是调用 /f/conversation 网页对话api,一种是调用 /codex/responses codex对话api。 gpt free账号具有网页生图额度,但是不具有codex生成图片额度: 非gpt free账号同时具有网页生图额度和co

tech linux.do 2026-04-29 21:59:03+08:00

中转站的API类型说明了啥问题

各位佬,中转站的openai 接口之前一直是/v1/responses,一直能看到推理强度是XHIGH,昨天突然变成了/v1/chat/completions,而且看不到推理强度了,这说明了什么问题 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 14:05:40+08:00

关于openai-responses协议问题

为什么国内都没有出openai-responses接口来支持codex;codex也已经把openai-chat协议下线很久了;是技术原因还是没公开的原因;openai-responses → anthropic协议这些互转似乎都不是很完善 3 个帖子 - 3 位参与者 阅读完整

tech linux.do 2026-04-29 11:38:31+08:00

newapi可以实现ChatCompletions转Responses吗

newapi可以实现ChatCompletions转Responses吗 想把自己买的glm coding plan还有各位大佬提供的公益导入newapi 实现聚合渠道以及ChatCompletions转Responses 然后给codex用,现在卡在ChatCompletion

tech linux.do 2026-04-28 11:00:45+08:00

codex cli问一句回一句

昨天还会出现,“stream disconnected before completion: stream closed before response.completed”这种的报错。我昨天把codex根目录下的AGENTS.md文件瘦身了,然后就好了,结果用了不到 1小时,又

tech linux.do 2026-04-28 09:54:25+08:00

Deepseek v4配合opencode使用体验非常差,配合Claude code很流畅

opencode 1.14.26 兼容了response_content参数的版本 deepseek v4 flash,默认参数 在opencode里面, 一个简单问题也可能让deepseek flash反复思考10分钟,甚至出现修改了一轮后,在下一轮重复思考的时候把上一个修改重

tech linux.do 2026-04-27 11:16:22+08:00

AstrBot GPT Image2生图插件 使用 Responses SSE 协议实现文生图、图生图、多图输入与队列控制

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-04-27 00:57:16+08:00

Responses的中转站如何在kilo code这种只支持completions 请求的插件中使用

只支持Responses请求的中转站如何在kilo code这种只支持completions 请求的插件中使用 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 14:09:14+08:00

最近在使用codex客户端时总是报错:network error: error decoding response body

最近在使用codex客户端时总是报错:stream disconnected before completion: Transport error: network error: error decoding response body,不知道是怎么回事,之前一直没有出现过的,没

tech linux.do 2026-04-26 00:01:22+08:00