[问与答] 哪些 AI 网关适配 DeepSeek V4 的 reasoning_content 回传?
目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/
reasoning - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 17 篇相关文章
目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/
目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/
目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
The reasoning_content in the thinking mode must be passed back to the API. 我用的opencode的/connect链接的但是运行一半报错了请问有啥解决方法吗? 4 个帖子 - 4 位参与者 阅读完整话题
ollama cloud 的 deepseek v4 openai-compat api 接受什么 reasoning_effort 值?ds 官方使用 max,ollama 使用 high/xhigh/max 中的哪一个? 2 个帖子 - 1 位参与者 阅读完整话题
nvidia/nemotron-3-nano-omni-30b-a3b-reasoning:free poolside是下面公司出的 laguna-m.1 应该这个效果会好点 Poolside Introducing Laguna XS.2 and Laguna M.1 We’r
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
cherry 昨天有一个 commit 做了 DeepSeek V4 的 reasoning_effort 的适配。但还没发新的 release。 但我很急,我现在就要测 V4 pro max!!!!!所以有没有佬知道 cherry 怎么手动往请求体里塞一个 reasoning_
完整提示词如下: Reasoning Effort: Absolute maximum with no shortcuts permitted. You MUST be very thorough in your thinking and comprehensively deco
Juice 是什么? Juice 值仅仅指示模型思考深度 。一般来说,在很多推理问题下,推理(reasoning)深度越高,推理消耗的 Token 越多,效果越好,但是: 模型智力中,思考深度仅仅是很小的一部分 不同模型的Juice不可直接比较 ,其绝对值也没有意义,Juice
deepseek v4 pro thinking=enabled reasoning_effort=max prompt_chars 8405 一次请求10分钟才响应这真的正常吗? 8 个帖子 - 6 位参与者 阅读完整话题
API Error: 400 {“error”:{“type”:“invalid_request_error”,“message”:“The reasoning_content in the thinking mode must be passed back to the API
今天刚把v4pro接入OpenWebUI发现出现了The reasoning_content in the thinking mode must be passed back to the API.的问题 然后查看了文档发现貌似是因为思维链必须要返回,但是OWU貌似还没有适配。
大家都是在哪用的dsv4编码呀 trae和cursor都没适配吧?“error”:{“message”:"The reasoning_content in the thinking mode must be passed back to the API. } 3 个帖子
这是我的 “ANTHROPIC_MODEL”: “gpt-5.4(xhigh)”, “ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)”, “ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)”, “
codex config.toml 直接指定gpt5.5即可 model = “gpt-5.5” model_reasoning_effort = “xhigh” 7 个帖子 - 5 位参与者 阅读完整话题