Kimi - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn

Kimi - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 350 篇相关文章 · 第 13 / 18 页

想换个国产模型长期配合着用

有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8

tech linux.do 2026-04-22 18:00:05+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:51:07+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:42:58+08:00

kimi k2.6和glm5.1 哪个更胜一筹,更接近opus的水平

k2.6 glm5.1 点击以查看投票。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:30:07+08:00

copilot是不是凉了?kimi额度如何?

今天用一直报错啊,跟反重力一样,用个OO kimi这个额度怎么计算的,跟copilot一样耐用吗? 另外咨询一下使用kimi便宜的渠道有吗? 8 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:03:34+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 16:26:12+08:00

佬友们,有没有国产模型的这些公益站啊?最近codex的和Claude的公益站已经坠落了。

RT,有没有专门提供GLM和Kimi这些模型的公益站 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 16:02:03+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:59:09+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:39:22+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:35:47+08:00

Kimi 2.6是不是有点想的太多了

我看他的思考过程有时候有用,大部分只需要执行的时候都容易跑偏,这点连gpt 5.2都比不上,以前5.2虽然想很多,但是基本不会出错,kimi 2.6是想了,但是想出了一坨屎 我用的ollama的plan,不知道官网的是不是也是这个水平 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 15:16:22+08:00

刚刚买了Kimi 199套餐,感觉还不错

最近因为项目需要需要大的Coding Plan; 智谱的Max套餐暂时还没有买到,刚买了一个Kimi的199套餐。 直接用实际项目进行了一个简单的上手对比,让Kimi和GLM同时分析我的项目中的内容提取出一个特定范围的任务清单,并确认需求覆盖度;然后将两者的分析报告交叉比对。 从

tech linux.do 2026-04-22 15:13:53+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 14:39:33+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:52:50+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:41:59+08:00

KIMI我服了,一个PPT我11%额度就没有了

我买的的KIMI的199的套餐 之前做PPT用的额度都是不到1%,这次突然11.57%,为啥啊,我都服了 内容和提示词都是差不多的,我不知道为什么浪费我这么多,这指定不正常 8 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-22 13:33:06+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:21:02+08:00

徕卡与长光辰芯共研M12 CMOS

使用Kimi整理 徕卡与长光辰芯共研M12 CMOS.pdf (411.8 KB) 第一次尝试整理信息,如有不妥还请不吝指教。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 13:20:09+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:03:43+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 13:03:43+08:00