DeepSeek-V4-Flash的编码能力如何?
Pro现在的API价格太贵了,想问flash模型在实际任务的表现能超过Claude Sonnet 4.5吗 1 个帖子 - 1 位参与者 阅读完整话题
flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 196 篇相关文章 · 第 8 / 10 页
Pro现在的API价格太贵了,想问flash模型在实际任务的表现能超过Claude Sonnet 4.5吗 1 个帖子 - 1 位参与者 阅读完整话题
1 个帖子 - 1 位参与者 阅读完整话题
Chat 体感上慢,事实上貌似也慢 看 Nao 佬的报告 ,Flash 的平均耗时甚至都超过大多数模型了 Tokens 消耗是别家的两倍甚至三倍,不过看见那么长的思考输出好像就释然了 可能是纯算力的原因吗(thinking 1 个帖子 - 1 位参与者 阅读完整话题
flash版本也很能打 llm2014.github.io LLM Benchmark Dashboard 18 个帖子 - 16 位参与者 阅读完整话题
老登们下班了,现在可以霍霍服务器了 vllm-ascend部署文档: DeepSeek-V4 — vllm-ascend 模型: DeepSeek-V4-Flash-w8a8-mtp · 模型库 启动成功: 先问一下洗车问题: 逻辑OK 跑一下文档中的数据集(GSM8K,数学推理
感觉 deepseek v4 flash 比 minimax m2.7 聪明还更便宜,要是有 coding plan 上了ds这 minimax 真要成啥了 12 个帖子 - 12 位参与者 阅读完整话题
大家快去看看 deepseek-v4-flash 模型 1 个帖子 - 1 位参与者 阅读完整话题
前言 备受期待的DeepSeek V4终于发布了,相信很多人都想要看到这个模型在Coding任务中的实际表现。按传统来说,我们应该跑一个天气卡片,但是我一直觉得只有天气卡片完全反映不出来模型真正的能力,于是我决定来点创新的实战测试。 为保证本测试接近实际使用场景,测试全程使用Cl
佬友们好,刚刚把ds的api填到ccswitch,但是我官网耗费的为啥是flash的额度,配置如图 2 个帖子 - 1 位参与者 阅读完整话题
flash不开思考也能做到,我扔进去的时候一秒就出答案了我还在愣神呢,结果全对。看来这个上下文很不错,用flash做个知识库检索应该是非常好的选择, 2 个帖子 - 2 位参与者 阅读完整话题
如图,本来用的好好的,突然不行了。实测,v4-flash 还能用 3 个帖子 - 2 位参与者 阅读完整话题
模型卡片: deepseek-v4-flash 1 个帖子 - 1 位参与者 阅读完整话题
调用官方的deepseek-chat api 接口跑agent实验,跑了一上午发现怎么调用了一千多次deepseek-v4 flash,原来直接把deepseek-v3.2替换了 官网貌似已经不支持deepseek-v3.2了。。。。。。 神操作,代码调用的模型没改,模型提供商偷
首先我用的是 kilo code vscode 扩展,不过由于deepseek-v4 才出来,kilo code还不支持 deepseek-v4的 reasoning_content 会报下面这个错误: The reasoning_content in the thinking
v4一出,马上就来试试,但是感觉pro虽然智商和知识量很不错,但是注意力貌似有问题,关注的点容易飘,在我目前考公复习的场景并没有和v4 flash拉开特别大的差距,但是falsh就让人比较舒服,就是刚刚好那种感觉,只是知识量不够。 当然只是我个人场景的感受,仅仅只是考公问答复习这
万众期待中,DeepSeek V4,终于发布了!就在刚刚,被期待已久的 DeepSeek V4 预览版正式登场。两个版本—— V4-Pro 和 V4-Flash,全系标配 1M(百万字)超长上下文,同步开源模型权重和技术报告 。 五一前的这两天,大模型又进入新一轮发布潮。 4 月
等一会看看Pro的成绩,不过我感觉应该不会很惊艳 15 个帖子 - 11 位参与者 阅读完整话题
ollama cloud 上线了 deepseek v4 flash pro 模型还没有上 5 个帖子 - 5 位参与者 阅读完整话题
如题哈哈哈 在opencode使用过程中它的思考一直会出现Excellent! 1 个帖子 - 1 位参与者 阅读完整话题
我这个 d 吹感觉超级舒服