k2.6 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

k2.6 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 96 篇相关文章 · 第 3 / 5 页

在文档里面,kimi和glm被ds吐槽了

我们为K2.6和GLM-5.1留下了一些空白条目,因为它们的API太忙了,无法返回 回答我们的问题。 Z畜还好意思回复 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 14:36:21+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 14:19:22+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:57:21+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:53:00+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:36:01+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:22:28+08:00

deepseek 测评【转发】

内测群发的: DeepSeek-V4测试报告 model1: 优势: 该模型纯编程能力远强于Kimi-k2.6和GLM-5.1 模型上下文超长,利于大量文档阅读 劣势: 该模型未经过Agent使用环境优化 特征一:“亲历亲为”:模型极少使用SubAgent,导致上下文迅速膨胀 特

tech linux.do 2026-04-24 12:29:05+08:00

GPT-5.4跑分在K2.6和DeepSeek-v4技术报告中不同

在 Kimi-K2.6技术报告 中和 DeepSeek-v4技术报告 中,Terminal Bench 2.0测试结果引用的GPT-5.4 xHigh跑分不同(Gemini和Calude是相同的),引用值分别为65.4和75.1,这是有什么讲究吗? Kimi-K2.6技术报告截图

tech linux.do 2026-04-24 12:09:04+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 12:01:21+08:00

[程序员] 轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech v2ex.com 2026-04-24 11:56:19+08:00

[程序员] 轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech v2ex.com 2026-04-24 11:17:44+08:00

[程序员] 轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech v2ex.com 2026-04-24 11:03:15+08:00

[程序员] 轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech v2ex.com 2026-04-24 11:03:15+08:00

[程序员] 轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech v2ex.com 2026-04-24 10:53:56+08:00

突然在想 理论上如果人数足够 是不是可以租B200啥的来跑Kimi-K2.6

如题,看到了站里富可敌国的想法 突发奇想 四张卡15刀每小时 不过冷启动也要不少时间 VS 6.25刀每小时 不过可以轻松scale up/down 温启动十几分钟 16 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-04-23 20:50:51+08:00

kimi-k2.6 这个模型真不错,我打算做到价格三折,同时双倍输出速度

k2.6 最近深度体验了下,虽然说肯定不如 opus,但是体感上能达到 85% 左右,价格大概只有 opus 五分之一 最近听说官方算力告急,特别是白天挺难用的,去 Openrouter 看了下速度只能说非常感人,大部分都是 20-30/tps 我测了下我们这边的渠道,基本能稳定

tech linux.do 2026-04-23 17:40:56+08:00

方舟coding plan的GLM5.1,亲测巨慢,没法用

开了火山方舟coding plan pro,试了一下GLM5.1,响应巨慢,基本用不了 用了kimi k2.6感觉还不错 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-23 14:28:07+08:00

Kimi k2.6 在arena.ai coding排名第六,于glm-5.1水平相当

真没必要抢glm-5.1了 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-23 13:50:51+08:00

打算买 Kimi K2.6 了,来问一下用过的佬

GLM 抢不上,算了。。。。 想问一下用过的,或者目前正在用的佬,Kimi 白天会限速吗?有无周限额之类什么的吗? 顺便问一下如果每天 8 小时,断断续续都在编程,改 bug,写文档的情况下,哪个套餐更加合适? 20 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-23 13:31:46+08:00

小米的Mimo-V2.5感觉能和Kimi K2.6\GLM 5.1做一桌了

一下上了好几道硬菜: 简单的体验了下,无论是写作还是编程提升很大: 写作可读性也很强了: 编程试了下魔方打乱还原非常完美: Mimo写的自我介绍(很小米): 下午再接入API试试效果,其他佬有做实际项目测试的吗。 这个credit 是不是就是token,如何换算的。这两亿toke

tech linux.do 2026-04-23 11:13:55+08:00