deepseek-v4-pro error: 400,有人遇到这情况吗?
如图,本来用的好好的,突然不行了。实测,v4-flash 还能用 3 个帖子 - 2 位参与者 阅读完整话题
DEEPSEEK - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第40页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1323 篇相关文章 · 第 40 / 67 页
如图,本来用的好好的,突然不行了。实测,v4-flash 还能用 3 个帖子 - 2 位参与者 阅读完整话题
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
加粗 为该行最高分。 类别 基准测试 指标 测什么 DS-V4-Pro Max DS-V4-Flash Max Kimi K2.6 GLM-5.1 Opus 4.6 Max GPT-5.4 xHigh Gemini 3.1 Pro High 知识与推理 MMLU-Pro EM 5
模型卡片: deepseek-v4-flash 1 个帖子 - 1 位参与者 阅读完整话题
用了一个 kimi 官网的 Agent 的示例 Prompt: 「 Meridian Architecture 」高端建筑设计事务所官网,展示项目作品、设计理念、团队、获奖、联系表单、留言簿。中英双语、极简主义建筑美学、深色系(黑/深灰)+ 金铜色点缀。区块:Hero (全屏摩天
官网 DS4 专家模式,问题:如何只用一刀把四个一模一样的橘子:平均分给四个小朋友 看有人发小红书,我还以为 P 的,没想到自己上去试一下居然是真的 猜测用了贴吧的数据没处理好: https://tieba.baidu.com/p/8116300941
调用官方的deepseek-chat api 接口跑agent实验,跑了一上午发现怎么调用了一千多次deepseek-v4 flash,原来直接把deepseek-v3.2替换了 官网貌似已经不支持deepseek-v3.2了。。。。。。 神操作,代码调用的模型没改,模型提供商偷
从docx转markdown的长文本提炼数据, 数据txt形式100多k,测试是通过各家网页.. 对比千问max3(3.6),小米mimo 2.5pro,要求保留格式 ds是唯一把多个\n保留的,使用flash快速效果比带思考的好一些(带思考的会过度思考多出来超出预期的) qwe
Deepseek V4今天发布并 同步开源 了。第三方的API厂商更近速度如何?谁家Coding-Plan会上?该不会是华为吧。 3 个帖子 - 3 位参与者 阅读完整话题
官网 DS4 专家模式,问题:如何只用一刀把四个一模一样的橘子:平均分给四个小朋友 看有人发小红书,我还以为 P 的,没想到自己上去试一下居然是真的 猜测用了贴吧的数据没处理好: https://tieba.baidu.com/p/8116300941
8 个帖子 - 4 位参与者 阅读完整话题
首先我用的是 kilo code vscode 扩展,不过由于deepseek-v4 才出来,kilo code还不支持 deepseek-v4的 reasoning_content 会报下面这个错误: The reasoning_content in the thinking
官网 DS4 专家模式,问题:如何只用一刀把四个一模一样的橘子:平均分给四个小朋友 看有人发小红书,我还以为 P 的,没想到自己上去试一下居然是真的 猜测用了贴吧的数据没处理好: https://tieba.baidu.com/p/8116300941
去年DeepSeek R1出的时候,还出了好几个蒸馏小模型,基座是qwen2.5和llama3,现在v4也有思维链,大概不会有R2了,正好前端时间qwen3.5和qwen3.6出了,不知道会不会继续搞蒸馏小模型,当然最好是直接拿v4 pro做个小模型 1 个帖子 - 1 位参与者
deepseek的热度是真的高呀,站里站外都是讨论的声音,感觉帖子一下子都看不过了 4 个帖子 - 3 位参与者 阅读完整话题
看了Lmarena天塌了,比GLM5.1和Kimi 2.6甚至Qwen 3.6 Plus都差(图片由ChatGPT Image 2生成) 6 个帖子 - 6 位参与者 阅读完整话题