[问与答] deepseek v4,实际写代码,跟 opus4.6 和 gpt5.4 相比怎么样
成本,效果
v4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1013 篇相关文章 · 第 1 / 51 页
成本,效果
成本,效果
成本,效果
成本,效果
成本,效果
成本,效果
成本,效果
因为白墨上初三,工作日完全不用 Codex,无论是正价订阅还是组建号池都很浪费, 原来论坛上有一位超好心的佬友看白墨平时用的不算很多,把自己的号池借白墨共用了一段时间(超感谢的喵 星星眼) 但是因为最近风控之类的原因,佬友好几个号都没了,还是决定自己独用了(白墨当然很理解的啦~)
成本,效果
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
原来这才是Deepseekv4.0大放水降价背后的真相 应该是DeepSeek发现为V4做了over-prepared,准备过度,结果V4的KV Cache命中率比预想的还要高,不得不(注意是不得不)加大流量,让batch size更大。 几天前,曾经的Google TPU架构师
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
请问各位佬,deepseek 的快速模式和专家模式是背后对应的模型不同吗?快速是 v4flash,专家是 v4pro? 5 个帖子 - 5 位参与者 阅读完整话题
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
claude跑Hermes token用的太快了,所以想用试试看用国模来代替 听佬们说deepseek在代码方面还可以,我本身也只是拿Hermes去维护一些中小型的项目。 请问各位佬们,deepseek v4 pro能胜任吗?另外,有比官渠更便宜的选择吗? v4 Pro可以胜任吗
前两天看有佬跑了5个小时花了2块 果断氪金,在opencode里面蹬了一下,让v4 pro在项目里面过了一遍,没写代码… 啥情况 10 个帖子 - 7 位参与者 阅读完整话题
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
首先,说一下本人用ai的情况: Gemini的学生Pro DeepseekV4的api 自己本地部署的Qwen 27B & 35BA3B q4km 破甲版本 以前用的是GPT GROK提供“情趣”价值(普通账户 主用4.2 fast) Gemini 网页版 网页版的Gem