response - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

response - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 52 篇相关文章 · 第 1 / 3 页

本地起的cpa一直报错unexpected status 502 Bad Gateway: Unknown error, url: http:127.0.0.1:8317/v1/ responses

报错信息如下 cap的网络代理配置 代理用的clash端口是7897 clash里配置了规则代理 ccswitch的配置如下 9 个帖子 - 6 位参与者 阅读完整话题

tech LinuxDo 最新话题 2026-05-09 16:53:11+08:00

GPT PRO模型被限制?

You’re out of messages with the Pro model. Responses will use a less powerful model until your usage resets May 12, 2026.今天使用的时候突然提升这句话,这是怎么

tech LinuxDo 最新话题 2026-05-09 16:41:58+08:00

DeepSeek官方API炸啦。直接建议我换别的AI供应商

bad response status code 503, message: Service is too busy. We advise users to temporarily switch to alternative LLM API service providers.,

tech LinuxDo 最新话题 2026-05-08 17:21:38+08:00

为啥 responses api 格式就没几个模型支持?

如题,感觉挺奇怪的,我从网上看对比介绍 responses api 比之前 chat completions 要好很多,什么原生支持上下文记忆和追踪,内置工具啥的。不过现在好像是只有 openai 家的模型支持。 对于模型训练厂商来说,训练大模型适应另外一种格式难度很大吗? 10

tech LinuxDo 最新话题 2026-05-07 13:45:23+08:00

opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech V2EX - 技术 2026-05-06 15:31:48+08:00

为什么v1/responses会将gpt-5.3-codex变成gpt 5.4吗?

我最近使用无论sub2api或cpa,通过v1/responses调用gpt-5.3-codex,返回的model全是gpt 5.4,几个号都这样。有人知道是为什么 一个测试,发的是gpt-5.3-codex。 { "id": "resp_0df26

tech linux.do 2026-05-06 15:11:13+08:00

opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech www.v2ex.com 2026-05-06 15:09:16+08:00

[程序员] opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech v2ex.com 2026-05-06 14:08:03+08:00

opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech www.v2ex.com 2026-05-06 14:02:59+08:00

[程序员] opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech v2ex.com 2026-05-06 13:56:13+08:00

[程序员] opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech v2ex.com 2026-05-06 13:44:32+08:00

[程序员] opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech v2ex.com 2026-05-06 13:16:39+08:00

[程序员] opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech v2ex.com 2026-05-06 12:28:07+08:00

[程序员] opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech v2ex.com 2026-05-06 12:10:01+08:00

[程序员] opencode go 的 deepseek v4 flash 也开始 429 了?

,今天调用报 bad response status code 429, message: Error from provider (DeepSeek): Too many requests. Please pace your requests reasonably. Your

tech v2ex.com 2026-05-06 11:58:16+08:00

为什么codex里面一直报错stream disconnected before completion: stream closed before response.completed

一般来说baseurl加/v1可解决,但是我加了/v1 ccswitch那边测试又不通过 有没有大佬指点一下呢? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-06 10:27:03+08:00

本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech www.v2ex.com 2026-05-06 04:28:54+08:00

本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech www.v2ex.com 2026-05-06 04:28:54+08:00

本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech www.v2ex.com 2026-05-06 03:28:54+08:00

本地 API Proxy: Anthropic / OpenAI Chat / Responses 互转,支持 DeepSeek

最近在深度试用几家国产大模型,但几乎清一色都还是 OpenAI Chat Completions 接口,导致在较新的 Codex CLI 里没法直接用。 于是在开源工具 VibeAround 的命令行一键启动功能上,加了一个 local API proxy ,主要解决 codin

tech www.v2ex.com 2026-05-06 02:28:54+08:00