拿几个墨子佬的wiki题简单测试了deepseekV4pro 做出了之前做错的逻辑题
逻辑题都做出来了 我之前没关注测试过这个wiki 这应该算进步了?至少逻辑能力提升了 下面是转盘的前端 1 个帖子 - 1 位参与者 阅读完整话题
DeepSeekv4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 110 篇相关文章 · 第 5 / 6 页
逻辑题都做出来了 我之前没关注测试过这个wiki 这应该算进步了?至少逻辑能力提升了 下面是转盘的前端 1 个帖子 - 1 位参与者 阅读完整话题
都是差不多时间出的,目前也没看到两个对比的信息,有没有都体验过的佬细说一下,开源模型后续的价格应该能降下来吧。个人感觉DeepSeek是不是藏的太久了,马速拉不过OAI和A\了。 12 个帖子 - 10 位参与者 阅读完整话题
现在新出的模型 deepseekv4 pro 862B参数,GLM5.1 754B参数,kimi 2.6 1.1T的参数。像千问这种397B的是不是以后就不会有了。 想在公司八卡L20上部署一下新模型,算了一下量化后都不够部署上去。部署成本太高了,qwen3.6的满参数迟迟不发布
还是说只支持昇腾,要是只支持昇腾,感觉短期算力问题很大啊 7 个帖子 - 7 位参与者 阅读完整话题
“input”: 210100299 “output”: 4082460 “cacheRead”: 986467554 “cacheWrite”: 2078702 如果全部使用deepeek-v4 pro的话, 花费大概: 210 * 12 + 4 * 24 + 986 + 2
来自知乎toyama佬 网站: LLM Benchmark Dashboard 附:其他未测完的国模 1 个帖子 - 1 位参与者 阅读完整话题
论坛上有佬友公益站上线deepseekv4-pro,用base64压缩cdk发放链接,我就试着用deepseek新模型解下码,结果一般,最终还是暂停掉了 这是gpt5.5-thinking的,很快就出来了 2 个帖子 - 2 位参与者 阅读完整话题
从100M token,输出占比20%,缓存命中占比80%计算,deepseek v4和kimi 2.6,glm5.1,qwen3.6的收费没有明显差距了。API价格各大模型官方可查 6 个帖子 - 6 位参与者 阅读完整话题
天下苦gpt/claude/gemini久矣。deepseekV4,千呼万唤始出来。 1 个帖子 - 1 位参与者 阅读完整话题
各位有用上的吗?使用感觉怎么样?我看参数量1.6T 1 个帖子 - 1 位参与者 阅读完整话题
下午四点开始直播 1 个帖子 - 1 位参与者 阅读完整话题
https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg
前期可能又会用不上,因为算力挤兑,可用性太低,导致ds关闭充值 所以建议大家今天能充值就充值 4 个帖子 - 4 位参与者 阅读完整话题
DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求 1 个帖子 - 1 位参与者 阅读完整话
还真是因为华为啊真不容易deepseek 4 个帖子 - 3 位参与者 阅读完整话题
1m 上下文 1 个帖子 - 1 位参与者 阅读完整话题
deepseekV4让我先来试试,后面给大家更新效果如何,我是前后端都得搞 1 个帖子 - 1 位参与者 阅读完整话题
deepseek.ai DeepSeek AI 2026: R1, V3 & Local AI Hub Access DeepSeek AI for free. Independent guides for Mixture-of-Experts (MoE) archite
更新了更新了,跳票跳到现在啊 1 个帖子 - 1 位参与者 阅读完整话题
模型细节 模型 deepseek-v4-flash* deepseek-v4-pro BASE URL (OpenAI 格式) https://api.deepseek.com BASE URL (Anthropic 格式) https://api.deepseek.com/an