比较出名的国内外模型基本都个人掏腰包购买使用过(除了claude,那个一直风控只蹭过一点朋友的),但是不得不说deepseek v4(以下简称v4)这波给我的仍然是王炸级的震撼,尤其是连续降价以后。下面讲讲我觉得震撼在哪:
- 某种程度上,v4算是树立了一个“新的标杆”。在以前,我们为ai付费之前会问问自己,这个价格我为什么不买claude/gpt?有什么优势?这个优势我真的用得上吗?在v4出来以后,国产小参数模型要先问一问:这个真的比v4 flash强吗?大参数模型同理。因为我在中型小型项目和文字写作里又测试了几天,v4真的不弱的。虽然和专门的coding模型比仍然有差距,但是至少可以试下是否满足自己的需求。
- 狠狠地打了某些特别爱营销,尤其是饥饿营销的厂商的脸。搞大模型研发和推理成本都不低,这我理解;过了赔本赚吆喝阶段开始涨价我也理解,但是部分厂家直接开始浑水摸鱼,疯狂涨价整活,脸都不要了,总有孝子说什么啊成本太高了,太难了,不赚钱呀。v4出来以后发现,或许成本根本就没那么高,也没那么不赚钱,很多都是浑水摸鱼罢了。
- 首发就开源,这自信,这气魄,这含金量,伟大。原生1M超长上下文,各家要赶紧学习跟进了。
- 适配国产卡可能部分人会不理解,但长期来看这是好事,且必须做的事,哪怕实际上最后并没怎么用上,也和没有是不一样的。这点不展开说了。
除此之外还想聊一下最近论坛里很常见的一种说法:deepseek能力上还是有差距,不如opus/xhigh,时间很值钱。客观地来说确实,尤其是coding能力,肯定综合来看还是有差距的。但是啊但是,首先并不是每个需求都要上opus/xhigh不可,适当的古法编程也是本就应该掌握的能力;其次成本在那放着,opus不烧电费的吗?考虑成本的前提下opus真的很贵。最后也是让我比较难绷的一点,很多佬友在那说时间非常值钱,不值得买,不如claude之类的,一看回复全是公益站和抽奖。。我说这个不是为了挂谁,只是想说,参考下l站公益站和福利羊毛额度的消耗速度,或许时间能值回token价的人没有那么多。
最后也稍微聊点缺陷吧,首先v4不打折的话还是略贵(25折取消的话,不过输入缓存永久降价很舒服了),重度使用确实还是要考虑下成本。看起来老梁一时半会也不会出coding plan,但是我测试opencode go的v4应该是量化的,还是有差距,想保满血还得是官网的。其次,客观承认v4的差距,尤其是coding agent这方面。不过我相信随着v4铺开,大家多用,这个问题会改善很多。最后啊,v4是没有多模态能力的,这是我仍然用kimi的一个重要动力。
大家也没必要看到夸就无脑上v4,可以先充个一二十看下是否适合自己,其实大模型的使用我觉得还是挺小马过河的事,别人说好用不好用和你自己的实际体验可能完全没关系。说得更不客气一点,一个在那说这个模型哪个模型不如claude的人,可能既没有用过正价官方claude,也没用过正价官方国产模型,也不会写代码,听他的意见干什么呢?
2 个帖子 - 1 位参与者