[程序员] DeepSeek V4 预览版已发布
官方公众号: DeepSeek-V4 预览版:迈入百万上下文普惠时代 https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg 官网和 API 已经同步更新,有想要尝鲜的可以用起来了
Deep - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第49页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1370 篇相关文章 · 第 49 / 69 页
官方公众号: DeepSeek-V4 预览版:迈入百万上下文普惠时代 https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg 官网和 API 已经同步更新,有想要尝鲜的可以用起来了
每天捏着鼻子用 A\的 Opus 真是恶心 DS 4 发布了,计划同步订阅,哪怕不用, 也支持下. 希望越做越好,把 A\,奥特曼的价格打一打!
每天捏着鼻子用 A\的 Opus 真是恶心 DS 4 发布了,计划同步订阅,哪怕不用, 也支持下. 希望越做越好,把 A\,奥特曼的价格打一打!
刚刚站里有开公益站的佬新上线了ds v4。并发布了cdk,但是加密的所以我就丢到官方渠道的ds v4pro上,思考了足足900秒才给出结果。。。。 是因为用的人太多导致的吗? gpt-5.4倒是很快 grok-4.3 beta 思考了22s 8 个帖子 - 7 位参与者 阅读完整
一个hi+一个分析系统的命令 花了11m41s 消耗4.13rmb 14 个帖子 - 14 位参与者 阅读完整话题
还记得上次部署deepseek还是在上次 4 个帖子 - 3 位参与者 阅读完整话题
在 Kimi-K2.6技术报告 中和 DeepSeek-v4技术报告 中,Terminal Bench 2.0测试结果引用的GPT-5.4 xHigh跑分不同(Gemini和Calude是相同的),引用值分别为65.4和75.1,这是有什么讲究吗? Kimi-K2.6技术报告截图
逻辑题都做出来了 我之前没关注测试过这个wiki 这应该算进步了?至少逻辑能力提升了 下面是转盘的前端 1 个帖子 - 1 位参与者 阅读完整话题
4月24日,DeepSeek全新系列模型DeepSeek-V4的预览版本正式上线并同步开源。据介绍,DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。 即日起登录官网 chat.deepseek.com 或官方App,即
4月24日,据《金融时报》报道,AI创业公司DeepSeek正在进行首次外部融资,目的是为了留住那些以股票期权作为薪酬的员工,防止他们被竞争对手挖走。 图注:DeepSeek 据两位知情人士透露,DeepSeek正与一小群战略投资者洽谈融资事宜,这轮融资对其估值可能超过200亿美
疑似: 训练使用的还是NVIDIA的显卡,推理使用的是华为的 这也是一个很大的进步了,但是大家不要混淆)刚还看到ds4暴打英伟达的帖子 5 个帖子 - 5 位参与者 阅读完整话题
DeepSeek V4 终于发布了,带来了 1M 上下文,代码能力明显提升,推理进入第一梯队,但知识类能力仍落后于头部闭源模型。 最重要的是:「DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Spars
都是差不多时间出的,目前也没看到两个对比的信息,有没有都体验过的佬细说一下,开源模型后续的价格应该能降下来吧。个人感觉DeepSeek是不是藏的太久了,马速拉不过OAI和A\了。 12 个帖子 - 10 位参与者 阅读完整话题
现在新出的模型 deepseekv4 pro 862B参数,GLM5.1 754B参数,kimi 2.6 1.1T的参数。像千问这种397B的是不是以后就不会有了。 想在公司八卡L20上部署一下新模型,算了一下量化后都不够部署上去。部署成本太高了,qwen3.6的满参数迟迟不发布
提示词 (点击了解更多详细信息) Pro3.7s完成任务 而Flash一直在猜测,思考了100多s,我就懒得继续了,直接终止对话 其实是怕本来不多的余额没了 GPT那边的回答见 GPT 5.5 / Pro 你这让我怎么相信你?16+2=24 你怎么敢说的?做这个题你还不如阉割版o
看到网上的图,分数似乎跟GLM相同 价格还是可以的 有没有兄弟实际使用过,感受如何呢 或是体验有没有办法跟claude gpt扳一扳手脚 10 个帖子 - 9 位参与者 阅读完整话题