deepseek v4 使用体验

简单说一下体验: 配置: 用官方配置方案,接入claude,特别的:CLAUDE_CODE_EFFORT_LEVEL=max token消耗: 用了70M token,费用¥6.91 。对比:(之前表格统计有问题,更新数据) token 调用次数 真实费用 计价费用(官方) 备注 deepseek ...
deepseek v4 使用体验
deepseek v4 使用体验

简单说一下体验:

配置:

用官方配置方案,接入claude,特别的:CLAUDE_CODE_EFFORT_LEVEL=max

token消耗:

截屏2026-04-27 01.33.44

用了70M token,费用¥6.91 。对比:(之前表格统计有问题,更新数据)

token 调用次数 真实费用 计价费用(官方) 备注 deepseek 70M 652 ¥6.91 ¥6.91 claude中flash和pro混用 right 61M 548 ¥8.92 $44.58 codex调用gpt-5.5

不管从调用次数还是token消耗来看,deepseek的pro打折后甚至比中转站还便宜。

下面是cc插件统计的,实际花费70M,与统计是对得上的,如果是直接用claude官方模型,预计费用是$22.93:
截屏2026-04-27 01.36.53

使用体验:

总体而言,能满足我的使用需要。具体来说,对于需求的理解处于可用状态,少数情况需要纠偏。代码方面,前端代码一次过,不需要多废话;后端代码必须要求它做测试,才能处于可用状态。数据分析方面,有点小问题,逻辑思考不够完备,需要纠偏。还有,1M上下文真的爽,完全自由放飞,我目前最高占用0.3M,还没出现降智的情况。

结论:

现在打折阶段,我是直接替代掉gpt-5.5,成为主力工具。不是gpt-5.5不好用,而是中转的太不稳定了,时不时断线,而官方肯定用不起。打折结束后,不知道会不会有coding plan,pro不打折还是挺贵的。

22 个帖子 - 8 位参与者

阅读完整话题

来源: linux.do查看原文