简单说一下体验:
配置:用官方配置方案,接入claude,特别的:CLAUDE_CODE_EFFORT_LEVEL=max
token消耗:
用了70M token,费用¥6.91 。对比:(之前表格统计有问题,更新数据)
token 调用次数 真实费用 计价费用(官方) 备注 deepseek 70M 652 ¥6.91 ¥6.91 claude中flash和pro混用 right 61M 548 ¥8.92 $44.58 codex调用gpt-5.5不管从调用次数还是token消耗来看,deepseek的pro打折后甚至比中转站还便宜。
下面是cc插件统计的,实际花费70M,与统计是对得上的,如果是直接用claude官方模型,预计费用是$22.93:
![]()
总体而言,能满足我的使用需要。具体来说,对于需求的理解处于可用状态,少数情况需要纠偏。代码方面,前端代码一次过,不需要多废话;后端代码必须要求它做测试,才能处于可用状态。数据分析方面,有点小问题,逻辑思考不够完备,需要纠偏。还有,1M上下文真的爽,完全自由放飞,我目前最高占用0.3M,还没出现降智的情况。
结论:现在打折阶段,我是直接替代掉gpt-5.5,成为主力工具。不是gpt-5.5不好用,而是中转的太不稳定了,时不时断线,而官方肯定用不起。打折结束后,不知道会不会有coding plan,pro不打折还是挺贵的。
22 个帖子 - 8 位参与者