喜大普奔,字节coding plan支持Glm5.1了,实测首字速度和吐字速度都难以接受啊
字节的coding plan支持glm5.1了。 我是企业版的codingplan,试了一下,首字波动超级大,吐字速度也很慢只有4-5token/s,而且经常429。对比kimi 2.6和阿里的glm5,真的用起来太难受了。 kimi: 1 个帖子 - 1 位参与者 阅读完整话题
codingPlan - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 35 篇相关文章 · 第 2 / 2 页
字节的coding plan支持glm5.1了。 我是企业版的codingplan,试了一下,首字波动超级大,吐字速度也很慢只有4-5token/s,而且经常429。对比kimi 2.6和阿里的glm5,真的用起来太难受了。 kimi: 1 个帖子 - 1 位参与者 阅读完整话题
限两百个,先到先得,q 群 1328662
限两百个,先到先得,q 群 1328662
限两百个,先到先得,q 群 1328662
限两百个,先到先得,q 群 1328662
限两百个,先到先得,q 群 1328662
限两百个,先到先得,q 群 1328662
想过迟早的事,但是没想到这么快 1 个帖子 - 1 位参与者 阅读完整话题
国内现在很多厂都从codingplan 变成tokenplan,都不是按次收费,变成按token收费了,那不就是妥妥的不够用了嘛 如果当前非得选一个国内的按此调用的coding plan 兜底备用的话,性价比,稳定性,速度上怎么选呢? 好像当前 火山、百度、联通支持多个模型的,可
闭源模型存在降智,这个是肯定的…但是我好奇如果国产开源模型部署在各个服务器上,售卖出的codingplan,可能出现降智么?比如说FP16阉割成int8,或者满血直接搞成小参数模型70B,我感觉极有可能啊,而且和中转站一个问题,condingplan也能掺水啊…一这样想,感觉太难
手里的codex plus 燃尽了正准备抢个阿里的 发现只有TokenPlan了 话说这个25000额度大概能调几次 9 个帖子 - 8 位参与者 阅读完整话题
现在写的是 TokenPlan 团队版,最低 198/月 25000 积分,然后我卡住的时候看到一个基础规格是每月 100 积分,估计是试用或者免费。 不知道会不会有个人版,现在好像也没开始推广。
想接cc,百炼没有lite了,现在只知道一个方舟40一个月,智谱抢不到,没有很高强度开发的需要 6 个帖子 - 6 位参与者 阅读完整话题
目前coding plan的计划很多。但是不同渠道商、不同plan计划的使用体验、收费、调用模型都不同。现在有佬做了数据评测,但是主观体验感受大家分享的比较乱,佬们在这分享一下,给后续的佬做个参考。毕竟国外的渠道越来越少,国产算力上来,可能国产模型使用会越来越多。 7 个帖子 -
现在写的是 TokenPlan 团队版,最低 198/月 25000 积分,然后我卡住的时候看到一个基础规格是每月 100 积分,估计是试用或者免费。 不知道会不会有个人版,现在好像也没开始推广。