[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
V4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1022 篇相关文章 · 第 2 / 52 页
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
请问各位佬,deepseek 的快速模式和专家模式是背后对应的模型不同吗?快速是 v4flash,专家是 v4pro? 5 个帖子 - 5 位参与者 阅读完整话题
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
claude跑Hermes token用的太快了,所以想用试试看用国模来代替 听佬们说deepseek在代码方面还可以,我本身也只是拿Hermes去维护一些中小型的项目。 请问各位佬们,deepseek v4 pro能胜任吗?另外,有比官渠更便宜的选择吗? v4 Pro可以胜任吗
前两天看有佬跑了5个小时花了2块 果断氪金,在opencode里面蹬了一下,让v4 pro在项目里面过了一遍,没写代码… 啥情况 10 个帖子 - 7 位参与者 阅读完整话题
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
首先,说一下本人用ai的情况: Gemini的学生Pro DeepseekV4的api 自己本地部署的Qwen 27B & 35BA3B q4km 破甲版本 以前用的是GPT GROK提供“情趣”价值(普通账户 主用4.2 fast) Gemini 网页版 网页版的Gem
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
快科技5月3日消息,4月24日DeepSeek V4系列大模型正式发布,距离去年的DeepSeek R1更新过去了15个月了,V4的性能到底如何也引发了国内外的讨论,美国人也非常关心。 评估DeepSeek V4的能力已经有很多测试了, 美国外交关系委员会组织了3个高级研究员之前
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
用了ds官api几天下来,用的都是pro(max)评价应该是国产性价比最高且兼顾能力的模型了而且能 1.按量购买 2.响应速度快 3.可在中国大陆直接使用,国产目前编码能力能与他争一争的也就只有GLM5.1,但GLM的sla极差,常常响应速度慢,而且ds基本没有道德感,这也是我使
当前最火的是下面几个: GLM-5.1 、 DeepSeek-V4 、 Kimi K2.6 、 MiniMax M2.7 、 通义千问 Qwen3 、 豆包 Seed 2.0 和 小米 MiMo V2.5 。 GLM-5.1 DeepSeek-V4 Kimi K2.6 MiniM
从 【picpi 皮皮工艺站】小店开门啦!工艺codex 100$/周 30天订阅兑换码开卖! 继续 工艺站主贴: 【picpi 皮皮公益站】主要自用 小规模开放 主力模型:OpenAI Codex 工艺站注册方式更新 前几天修改了发放规则,将基于用户数量的限制改为基于订阅数量的
v4p会有多模态吗?感觉智力上v4比较一般,但是注意力很不错。不过这个多模态是什么情况? 2 个帖子 - 2 位参与者 阅读完整话题
人工智能标准与创新中心(CAISI)近日完成了对开源人工智能模型 DeepSeek V4 Pro的全面评估。报告指出,尽管DeepSeek V4展示了卓越的性能,并在多项指标上大幅领先于国内同类模型,但其综合能力相较于美国最前沿技术仍有约8个月的代差。 CAISI的IRT(项目反
CC+DeepSeek-V4 Pro分别用了frontend-design、ui-ux-pro-max、impeccable 以及这三个 skill 同时构建的一个静态前端页面,佬友们评价一下。 入口页是 gpt5.5 实现的,gpt 的前端在让人失望这方面从来不让人失望。 提示