一样的上下文, Claude占用Token是其他模型的1.5倍

以前在OpenCode中使用Claude和GPT的时候就发现. 同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token. 现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100ktoken. 好家伙, ...
一样的上下文, Claude占用Token是其他模型的1.5倍
一样的上下文, Claude占用Token是其他模型的1.5倍

以前在OpenCode中使用Claude和GPT的时候就发现.

同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token.


现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100ktoken.

好家伙, 怪不得Claude动不动就要压缩, 用起来价格跑那么快.


image
image
(图片只是说一下我看的位置, 无视数字, 并不是复现过程)

2 个帖子 - 2 位参与者

阅读完整话题

来源: linux.do查看原文