DeepSeek V4 Flash是最强小模型吗??
主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题
deepseek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第33页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1312 篇相关文章 · 第 33 / 66 页
主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题
如标题 现在Deepseek 4 Pro可以在NV平台上用了 当然可能稳定性上不能算第一梯队就是了 2 个帖子 - 2 位参与者 阅读完整话题
“IT早报”时间,大家好,现在是 2026 年 4 月 25 日星期六,今天的重要科技资讯有: 1、提升 50%,消息称苹果 iPhone 18 标准版配 12GB 内存 半导体产业分析师 Dan Nystedt 4 月 24 日在 X 平台发布推文,指出苹果 iPhone 18
flash版本已经可用 pro不知道是太挤还是怎么回事,暂时还用不了 build.nvidia.com Try NVIDIA NIM APIs Experience the leading models to build enterprise generative AI apps
用户上传、拖拽图片: 用户上传图片/拖拽图片到指定位置(通过 或JavaScript 事件(如 ondrop)捕获文件),然后生成唯一的一个upload_id。前端将图片封装为multipart/form-data 格式,并且附加 upload_id 作为查询参数 Request
求助:deepseekv4接入axonhub后似乎无法在Claudecode中调用 1 个帖子 - 1 位参与者 阅读完整话题
这把幽默了DeepSeek V4 Pro解决了一个GPT-5.5循环无法解决的问题 - 搞七捻三 / 搞七捻三, Lv1 - LINUX DO 刚刚看到这个贴子 回个评论越打越长,最后决定还是发个帖子 感觉这次dsv4 很多人只看到了1m 注意力惊人这一个亮点 他很明显的展现出了
思维链没官网那么长 捞针不循环 起码开玩笑还会标明 13 个帖子 - 9 位参与者 阅读完整话题
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
opus给了6.5分 gpt给了7分 1 个帖子 - 1 位参与者 阅读完整话题
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
v4的中文表达能力个人觉得确实强了很多。之前我一直用kimi辅助完成中文写作和润色,现在我觉得v4的写作比k2.6要强。 v4的1M上下文是真1M啊,太舒服了。我没测试那么多但是两三百K上下文的时候也很强很舒服。 我一开始是接在claude code里用的(官方最新版),但是后来
我直接nanobot使用newapi遇到这样的问题了,问了几个AI没解决: Error: {‘message’: ‘The reasoning_content in the thinking mode must be passed back to the API.’, ‘type
Pro和Flash均已支持调用,可能是因为晚上没人用,吐字还是挺快的。 模型ID分别是 deepseek-ai/DeepSeek-V4-Pro deepseek-ai/DeepSeek-V4-Flash 看来魔搭还不够出名 啊: 魔搭提供日均2000次免费调用,单模型限制日均50
【长期贴】开个帖子,分享一下我自己是如何做harness【已更新完成,等待交作业,后续再有新想法再补充】 开发调优 据网上传,目前Anthropic的所有产品均为harness模式,不过最近他们推了一个harness产品,原本把我吓了一跳,但实质一看,并不是干货,多少有点恶心人了
应该是目前最便宜的deepseek v4渠道了吧 3 个帖子 - 3 位参与者 阅读完整话题
不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。 15 个帖子 - 7 位参与者 阅读完整话题
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
大家好, 我准备尝试 DeepSeek V4 模型。请问我应该把它和 Claude Code 一起使用,还是和 Codex 一起使用?哪一个会更好?为什么? 感谢大家的时间。 English: Hi everyone, I am going to try the DeepSeek