用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了
https://github.com/antirez/llama.cpp-deepseek-v4-flash
Flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 194 篇相关文章 · 第 4 / 10 页
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
手机端刷到的,排版不方便截图见谅 省流:Deepseek V4 Pro 总分73.58,大致相当于GPT 5.3 Codex High,Deepseek V4 Flash 67.25分,大致相当于Claude 4.5 Sonnet Thinking livebench.ai Li
https://github.com/antirez/llama.cpp-deepseek-v4-flash
最近高强度使用 deepseek v4 flash / pro 总体效果还是很棒的。 但是小鲸鱼总是喜欢英文思考,或者代码注释也参杂英文,即使修改系统提示词也无济于事。 后来发现 deepseek 的用户提示词权重要高于系统提示词(奇奇怪怪,利好 RP)。 于是便尝试在开始第一句
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
视觉能力不输3 Flash 欢迎使用我的webui all-model-chat.pages.dev AMC WebUI 6 个帖子 - 3 位参与者 阅读完整话题
快16万次的4flash感觉很变态啊 9 个帖子 - 8 位参与者 阅读完整话题
话说,Gemini的文章编写能力也太差了吧?我还是第一次发现flash针对这种文本写作的能力居然这么低,连Cohere的command-a都能把他秒杀。 以下是一个文章编写示例,内容大致是一篇语法填空的指导指南,我给出了大致思维导图与前几轮flash的文章的编辑建议。 我会把人工
高强度使用了两天,感觉如下,flash真的大惊喜,小任务小代码不含糊,而且非常快,适合龙虾之类。pro用1m上下文的模型,很能打,但是记得开max推理,开不开max推理感受差很多。但是不大建议去写代码,在skill跟工具调用上总有点不听指挥,适合场景就是出plan跟代码审查,能抓
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
如题。目前我有两个站,一个是公益站,公益站的模型目前最厉害的是deepseek V4pro ,然后还有 deepseek V4 flash、MINImax2.7,GLM 5。这些模型哪个最好用呢? 我是在Hermes里用,我用收费站的gpt5.5真的很好用,甚至mimo2.5pr
现在可以训练任何模型的DFlash权重了,就是资源消耗极大 1 个帖子 - 1 位参与者 阅读完整话题
据说一个910B2服务器能稳定服务20路,这个什么水平,明天去问问价格看看 1 个帖子 - 1 位参与者 阅读完整话题
苦苦用了两天flash体验 你告诉我pro打2.5折 20 个帖子 - 10 位参与者 阅读完整话题
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
、来源 2 个帖子 - 2 位参与者 阅读完整话题
硅基流动已上线了deepseekv4flash并且没有pro的字样 实验了一下可以使用之前的赠金 4 个帖子 - 4 位参与者 阅读完整话题