【kimi】Kimi 2.6有佬用过吗,前端效果怎么样?
想入手个Kimi2.6,前端效果有佬友测试过吗?GLM5.1比那个更好? 5 个帖子 - 3 位参与者 阅读完整话题
2.6 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 255 篇相关文章 · 第 8 / 13 页
想入手个Kimi2.6,前端效果有佬友测试过吗?GLM5.1比那个更好? 5 个帖子 - 3 位参与者 阅读完整话题
一下上了好几道硬菜: 简单的体验了下,无论是写作还是编程提升很大: 写作可读性也很强了: 编程试了下魔方打乱还原非常完美: Mimo写的自我介绍(很小米): 下午再接入API试试效果,其他佬有做实际项目测试的吗。 这个credit 是不是就是token,如何换算的。这两亿toke
https://www.volcengine.com/activity/codingplan 1 个帖子 - 1 位参与者 阅读完整话题
请问各位佬友有没有同时双开这两个模型的组合?求一个真实的反馈,我体验下来kimi在cc中表现就会非常不稳定,但在kimi code中就有一种很聪明的感觉,不知道是不是我的个人偏差导致的。我是kimi 和 GLM双持,但是接下来还是需要选择其中一家,kimi额度少且cc中我感觉有降
没用过 这两模型听说还可以 12 个帖子 - 6 位参与者 阅读完整话题
从北京时间5:30am开始免费24h调用KimiK2.6 1 个帖子 - 1 位参与者 阅读完整话题
佬友们,我之前一直在用国外的那几个模型,最近也是闲来无事,听身边人说国模也渐渐崛起了,所以有了想体验一下的冲动,询问一下大家的看法。 首先说说我对国内几个大模型的了解吧。 第一就是智谱的glm5.1,我身边朋友说这是国模的no.1,可惜智谱是超兽战士,导致他们买了套餐的根本用不起
这也是非常顶级了,工具都调用不明白 我说怎么烧了40k的token,一直写入失败 5 个帖子 - 4 位参与者 阅读完整话题
最早信息 让kimi2.6和qwen3.6 max写个梯子蛇,你们觉得哪个好 qwen3.6 max上线, 从此句开始,我不再是一个AI() 目测的话,一个标点符号我都没看见 1 个帖子 - 1 位参与者 阅读完整话题
据我所知K2.6这次没有任何合作的免费活动吧? 和以往那些模型依靠着限时免费活动打榜不同,这次Kimi K2.6完全真金白银打到总榜第三,编程榜第一啊 看来这波真的成了 国模加油!!! 15 个帖子 - 14 位参与者 阅读完整话题
IT之家 4 月 22 日消息,4 月 22 日(今天)晚间,@月之暗面Kimi 发文称,“我们知道最近 Kimi 的使用体验让大家感觉‘打折扣’了。在新模型 Kimi K2.6 上线期间,大家的热情远超我们的预期。由于访问量瞬间激增,导致部分用户遇到了会员排队、功能短暂不可用的
这么在意美丑吗 3 个帖子 - 2 位参与者 阅读完整话题
昨天看了 @smallmain 佬的k2.6真实项目评测,发现语言选择可能会造成结果不太一样,正好最近要开一个新项目,想着用不同模型来初始化一下对比看看。 我在的公司是个极其小众行业的公司,北美个位数的同行,全球不超20家同行,技术栈很杂乱,上古项目有delphi,foxpro,
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
k2.6 glm5.1 点击以查看投票。 1 个帖子 - 1 位参与者 阅读完整话题
好像没人讨论,这个就是之前说的 Elephant Alpha 模型吗 想试一下效果怎么就 limit 了 1 个帖子 - 1 位参与者 阅读完整话题