2.6 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn

2.6 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 255 篇相关文章 · 第 8 / 13 页

【kimi】Kimi 2.6有佬用过吗,前端效果怎么样?

想入手个Kimi2.6,前端效果有佬友测试过吗?GLM5.1比那个更好? 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-23 13:02:56+08:00

小米的Mimo-V2.5感觉能和Kimi K2.6\GLM 5.1做一桌了

一下上了好几道硬菜: 简单的体验了下,无论是写作还是编程提升很大: 写作可读性也很强了: 编程试了下魔方打乱还原非常完美: Mimo写的自我介绍(很小米): 下午再接入API试试效果,其他佬有做实际项目测试的吗。 这个credit 是不是就是token,如何换算的。这两亿toke

tech linux.do 2026-04-23 11:13:55+08:00

方舟现在支持GLM5.1和k2.6了

https://www.volcengine.com/activity/codingplan 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-23 11:02:59+08:00

cc+GLM5.1 与kimi code+kimi k2.6哪一个综合体验好?

请问各位佬友有没有同时双开这两个模型的组合?求一个真实的反馈,我体验下来kimi在cc中表现就会非常不稳定,但在kimi code中就有一种很聪明的感觉,不知道是不是我的个人偏差导致的。我是kimi 和 GLM双持,但是接下来还是需要选择其中一家,kimi额度少且cc中我感觉有降

tech linux.do 2026-04-23 10:59:51+08:00

IDEA 通义灵码 插件现在有MinMax-M2.7 /Kimi-K2.6

没用过 这两模型听说还可以 12 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-23 09:50:11+08:00

hermes 免费调用 kimi k2.6

从北京时间5:30am开始免费24h调用KimiK2.6 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-23 07:57:00+08:00

佬友们kimi2.6怎么样啊?有点想尝试的冲动了

佬友们,我之前一直在用国外的那几个模型,最近也是闲来无事,听身边人说国模也渐渐崛起了,所以有了想体验一下的冲动,询问一下大家的看法。 首先说说我对国内几个大模型的了解吧。 第一就是智谱的glm5.1,我身边朋友说这是国模的no.1,可惜智谱是超兽战士,导致他们买了套餐的根本用不起

tech linux.do 2026-04-23 01:43:07+08:00

kimi2.6在claude code中开发的表现有点痴呆

这也是非常顶级了,工具都调用不明白 我说怎么烧了40k的token,一直写入失败 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-23 00:25:00+08:00

qwen3.6max预览版上线qwen.chat,依旧超绝情感

最早信息 让kimi2.6和qwen3.6 max写个梯子蛇,你们觉得哪个好 qwen3.6 max上线, 从此句开始,我不再是一个AI() 目测的话,一个标点符号我都没看见 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 23:36:25+08:00

Kimi K2.6真波真的成了啊,靠自己真实实力打到OpenRouter编程榜一,总榜第三

据我所知K2.6这次没有任何合作的免费活动吧? 和以往那些模型依靠着限时免费活动打榜不同,这次Kimi K2.6完全真金白银打到总榜第三,编程榜第一啊 看来这波真的成了 国模加油!!! 15 个帖子 - 14 位参与者 阅读完整话题

tech linux.do 2026-04-22 22:09:31+08:00

新模型 Kimi K2.6 上线期间功能异常,月之暗面宣布全员额度重置作为补偿

IT之家 4 月 22 日消息,4 月 22 日(今天)晚间,@月之暗面Kimi 发文称,“我们知道最近 Kimi 的使用体验让大家感觉‘打折扣’了。在新模型 Kimi K2.6 上线期间,大家的热情远超我们的预期。由于访问量瞬间激增,导致部分用户遇到了会员排队、功能短暂不可用的

tech www.ithome.com 2026-04-22 21:37:52+08:00

kimi 2.6怎么这样啊,刚发现

这么在意美丑吗 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-22 19:42:57+08:00

我也分享一下kimi-k2.6,glm-5.1,gpt-5.4和sonnet-4-6的python小项目对比

昨天看了 @smallmain 佬的k2.6真实项目评测,发现语言选择可能会造成结果不太一样,正好最近要开一个新项目,想着用不同模型来初始化一下对比看看。 我在的公司是个极其小众行业的公司,北美个位数的同行,全球不超20家同行,技术栈很杂乱,上古项目有delphi,foxpro,

tech linux.do 2026-04-22 18:45:57+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

想换个国产模型长期配合着用

有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8

tech linux.do 2026-04-22 18:00:05+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:51:07+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:42:58+08:00

kimi k2.6和glm5.1 哪个更胜一筹,更接近opus的水平

k2.6 glm5.1 点击以查看投票。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:30:07+08:00

OpenCode 新的免费模型 Ling 2.6 Flash

好像没人讨论,这个就是之前说的 Elephant Alpha 模型吗 想试一下效果怎么就 limit 了 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 16:31:31+08:00