[程序员] 中国的算力缺口这么大嘛?看到 2025 华为昇腾出货 81 万块,又看到各家 coding plan 不是停售就是限流
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
plan - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第36页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1004 篇相关文章 · 第 36 / 51 页
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
最近因为项目需要需要大的Coding Plan; 智谱的Max套餐暂时还没有买到,刚买了一个Kimi的199套餐。 直接用实际项目进行了一个简单的上手对比,让Kimi和GLM同时分析我的项目中的内容提取出一个特定范围的任务清单,并确认需求覆盖度;然后将两者的分析报告交叉比对。 从
5 个帖子 - 4 位参与者 阅读完整话题
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
https://docs.bigmodel.cn/cn/coding-plan/transition 现有老套餐将在结束后停止续订,补偿两个月同等级新套餐,老套餐结束后不用抢购新套餐可直接转 各家都在缩紧套餐,再过段时间智谱会改成 Token Plan 吗?
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
华为和国内各家显卡厂商感觉扩产意愿也不是很积极啊
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
阿里云 Coding Plan Pro 频繁遇到 429 usage allocated quota exceeded 报错。 套餐里已有“5 小时”和“周用量”的限制,现在又增加动态限流(具体规则模糊不清),一旦触发 直接暂停服务 1 小时 。这两天多次被限流暂停,代码根本没法
阿里云 Coding Plan Pro 频繁遇到 429 usage allocated quota exceeded 报错。 套餐里已有“5 小时”和“周用量”的限制,现在又增加动态限流(具体规则模糊不清),一旦触发 直接暂停服务 1 小时 。这两天多次被限流暂停,代码根本没法
阿里云 Coding Plan Pro 频繁遇到 429 usage allocated quota exceeded 报错。 套餐里已有“5 小时”和“周用量”的限制,现在又增加动态限流(具体规则模糊不清),一旦触发 直接暂停服务 1 小时 。这两天多次被限流暂停,代码根本没法
阿里云 Coding Plan Pro 频繁遇到 429 usage allocated quota exceeded 报错。 套餐里已有“5 小时”和“周用量”的限制,现在又增加动态限流(具体规则模糊不清),一旦触发 直接暂停服务 1 小时 。这两天多次被限流暂停,代码根本没法
阿里云 Coding Plan Pro 频繁遇到 429 usage allocated quota exceeded 报错。 套餐里已有“5 小时”和“周用量”的限制,现在又增加动态限流(具体规则模糊不清),一旦触发 直接暂停服务 1 小时 。这两天多次被限流暂停,代码根本没法
字节的方舟虽然还叫Coding Plan,但是基本就是挂羊头卖狗肉了; 智谱也开始降低额度背刺老用户; 阿里全面转向Token Plan策略,那点量根本不够用了; kimi还叫Coding Plan,但是只有自家模型可用,但是不确定量够不够。 全面转向Token显然已经成了一个势
以火山举例(大部分国模coding plan也有类似的描述) 我想着roocode、kilocode这种不也算是api调用吗 搞不懂 求解惑 3 个帖子 - 2 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
现在正在用Claude code Pro的plan,但是现在两三天就能用完周限额 准备试试codex,看了最近站内的咨询,感觉只有尼区苹果充值卡比较划算了 求求佬友指条明路, 是用包月划算还是直接买token更好 补充:我还有一年的Gemini会员,但是感觉降智了,最近用的很少
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),