reasoning - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

reasoning - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 17 篇相关文章

[问与答] 哪些 AI 网关适配 DeepSeek V4 的 reasoning_content 回传?

目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/

tech v2ex.com 2026-05-02 12:26:51+08:00

[问与答] 哪些 AI 网关适配 DeepSeek V4 的 reasoning_content 回传?

目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/

tech v2ex.com 2026-05-02 12:26:51+08:00

哪些 AI 网关适配 DeepSeek V4 的 reasoning_content 回传?

目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/

tech linux.do 2026-05-02 11:57:38+08:00

DeepSeek API 空 reasoning_content 导致异常快速修复中间件!

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-05-02 01:45:53+08:00

opencode接入deepseek报错

The reasoning_content in the thinking mode must be passed back to the API. 我用的opencode的/connect链接的但是运行一半报错了请问有啥解决方法吗? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-05-01 15:55:16+08:00

ollama deepseek v4 reasoning effort 如何取值

ollama cloud 的 deepseek v4 openai-compat api 接受什么 reasoning_effort 值?ds 官方使用 max,ollama 使用 high/xhigh/max 中的哪一个? 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:45:42+08:00

openrouter 新增3个模型 一个nvidia的多模态 两个poolside

nvidia/nemotron-3-nano-omni-30b-a3b-reasoning:free poolside是下面公司出的 laguna-m.1 应该这个效果会好点 Poolside Introducing Laguna XS.2 and Laguna M.1 We’r

tech linux.do 2026-04-29 16:03:31+08:00

DEEPSEEK V4一直出错400 the reasoning content XXX,崩溃了

(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 23:52:45+08:00

关于 cherry studio

cherry 昨天有一个 commit 做了 DeepSeek V4 的 reasoning_effort 的适配。但还没发新的 release。 但我很急,我现在就要测 V4 pro max!!!!!所以有没有佬知道 cherry 怎么手动往请求体里塞一个 reasoning_

tech linux.do 2026-04-26 20:41:26+08:00

看到一个能让deepseek v4更厉害的提示词!

完整提示词如下: Reasoning Effort: Absolute maximum with no shortcuts permitted. You MUST be very thorough in your thinking and comprehensively deco

tech linux.do 2026-04-25 20:33:59+08:00

GPT-5.5 Juice 总结

Juice 是什么? Juice 值仅仅指示模型思考深度 。一般来说,在很多推理问题下,推理(reasoning)深度越高,推理消耗的 Token 越多,效果越好,但是: 模型智力中,思考深度仅仅是很小的一部分 不同模型的Juice不可直接比较 ,其绝对值也没有意义,Juice

tech linux.do 2026-04-25 12:23:39+08:00

deepseek v4 pro 太慢了吧

deepseek v4 pro thinking=enabled reasoning_effort=max prompt_chars 8405 一次请求10分钟才响应这真的正常吗? 8 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-24 21:18:20+08:00

deepseek v4 在cc中400错误如何解决?

API Error: 400 {“error”:{“type”:“invalid_request_error”,“message”:“The reasoning_content in the thinking mode must be passed back to the API

tech linux.do 2026-04-24 18:34:50+08:00

解决DeepSeekV4pro在OpenWebUI接入无法正常输出的问题

今天刚把v4pro接入OpenWebUI发现出现了The reasoning_content in the thinking mode must be passed back to the API.的问题 然后查看了文档发现貌似是因为思维链必须要返回,但是OWU貌似还没有适配。

tech linux.do 2026-04-24 17:04:20+08:00

deepseekv4编码

大家都是在哪用的dsv4编码呀 trae和cursor都没适配吧?“error”:{“message”:"The reasoning_content in the thinking mode must be passed back to the API. } 3 个帖子

tech linux.do 2026-04-24 13:24:54+08:00

各位佬CC配置的Opus、Sonnet、Haiku映射GPT的哪个模型?

这是我的 “ANTHROPIC_MODEL”: “gpt-5.4(xhigh)”, “ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)”, “ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)”, “

tech linux.do 2026-04-23 17:06:16+08:00

gpt5.5已出

codex config.toml 直接指定gpt5.5即可 model = “gpt-5.5” model_reasoning_effort = “xhigh” 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-22 12:01:50+08:00