七牛的 deepseek-v4-flash 快的吓人
七牛的 deepseek-v4-flash 快的吓人,有 200 的吐字速度了 刚才测了下 ds 官方的大概在 80 左右 8 个帖子 - 5 位参与者 阅读完整话题
v4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第24页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1024 篇相关文章 · 第 24 / 52 页
七牛的 deepseek-v4-flash 快的吓人,有 200 的吐字速度了 刚才测了下 ds 官方的大概在 80 左右 8 个帖子 - 5 位参与者 阅读完整话题
主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题
“IT早报”时间,大家好,现在是 2026 年 4 月 25 日星期六,今天的重要科技资讯有: 1、提升 50%,消息称苹果 iPhone 18 标准版配 12GB 内存 半导体产业分析师 Dan Nystedt 4 月 24 日在 X 平台发布推文,指出苹果 iPhone 18
flash版本已经可用 pro不知道是太挤还是怎么回事,暂时还用不了 build.nvidia.com Try NVIDIA NIM APIs Experience the leading models to build enterprise generative AI apps
求助:deepseekv4接入axonhub后似乎无法在Claudecode中调用 1 个帖子 - 1 位参与者 阅读完整话题
接入了claude code写代码 怎么一会儿就花一块 7 个帖子 - 7 位参与者 阅读完整话题
这把幽默了DeepSeek V4 Pro解决了一个GPT-5.5循环无法解决的问题 - 搞七捻三 / 搞七捻三, Lv1 - LINUX DO 刚刚看到这个贴子 回个评论越打越长,最后决定还是发个帖子 感觉这次dsv4 很多人只看到了1m 注意力惊人这一个亮点 他很明显的展现出了
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
v4的中文表达能力个人觉得确实强了很多。之前我一直用kimi辅助完成中文写作和润色,现在我觉得v4的写作比k2.6要强。 v4的1M上下文是真1M啊,太舒服了。我没测试那么多但是两三百K上下文的时候也很强很舒服。 我一开始是接在claude code里用的(官方最新版),但是后来
看到 V4 Pro 的 SimpleQA 比 GPT 和 Claude 强很多,又看到 Gemini 的 SimpleQA 比 V4 强很多。 正好最近看到一个比较抽象的梗,就问了一下这几个 AI,都没开联网 prompt (点击了解更多详细信息) 最后只有 Gemini 能答出
我直接nanobot使用newapi遇到这样的问题了,问了几个AI没解决: Error: {‘message’: ‘The reasoning_content in the thinking mode must be passed back to the API.’, ‘type
Pro和Flash均已支持调用,可能是因为晚上没人用,吐字还是挺快的。 模型ID分别是 deepseek-ai/DeepSeek-V4-Pro deepseek-ai/DeepSeek-V4-Flash 看来魔搭还不够出名 啊: 魔搭提供日均2000次免费调用,单模型限制日均50
【长期贴】开个帖子,分享一下我自己是如何做harness【已更新完成,等待交作业,后续再有新想法再补充】 开发调优 据网上传,目前Anthropic的所有产品均为harness模式,不过最近他们推了一个harness产品,原本把我吓了一跳,但实质一看,并不是干货,多少有点恶心人了
应该是目前最便宜的deepseek v4渠道了吧 3 个帖子 - 3 位参与者 阅读完整话题
不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。 15 个帖子 - 7 位参与者 阅读完整话题
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
大家好, 我准备尝试 DeepSeek V4 模型。请问我应该把它和 Claude Code 一起使用,还是和 Codex 一起使用?哪一个会更好?为什么? 感谢大家的时间。 English: Hi everyone, I am going to try the DeepSeek
dsv4出了之后,b站上又出现了一批关于v4的讨论视频,其实视频本身质量也称不上多好,毕竟也就半天,各种测试啥的也是见仁见智,说白了大家也就蹭个热度。但是评论区就有些让人感到烦了。 首先是一部分没有什么热度的初创up/搬运up,这类视频播放量不高,评论区少有活人,那种AI总结唉,