今天 QClaw 更新后免费使用国产大模型 Kimi/GLM
今天更新了一下 QClaw,结果发现直接内置了多款国内热门大模型,而且居然可以免费用(按积分算但门槛很低)。 像 Kimi、GLM、MiniMax 都能直接切换,对日常写代码、写文档、做分析来说已经很够用了。 1 个帖子 - 1 位参与者 阅读完整话题
kimi - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 350 篇相关文章 · 第 11 / 18 页
今天更新了一下 QClaw,结果发现直接内置了多款国内热门大模型,而且居然可以免费用(按积分算但门槛很低)。 像 Kimi、GLM、MiniMax 都能直接切换,对日常写代码、写文档、做分析来说已经很够用了。 1 个帖子 - 1 位参与者 阅读完整话题
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
最近开发用kimi2.6 我发现这玩意跟精神分裂一样,思考时间长了很多 老是再等等! 这种自己否定自己的说法 但是用GLM思考过程又全是英文的 1 个帖子 - 1 位参与者 阅读完整话题
下周复下周。 到目前为止,这周有好多消息要传递。 现在我们有 Qwen 3.6 Max、Kimi K2.6、MiMo V2.5、HY 3.0 和 GPT-5.5。 V4-Lite 已在应用程序和 API 上部署。 V4 现在就可以正式发布,也可能因为这条推文而变成「下周发布 V4
有佬友使用 kimi 插件吗?添加 mcp 时一直报: \u2717 Connection failed: UnicodeEncodeError: 'gbk' codec can't encode character '\u2713
deepseek你就继续陪太子读书吧,就算GPT出5.5,Claude出mythos,kimi出2.6,qwen出3.6,glm出5.1我也不在乎,我只爱你v4 9 个帖子 - 9 位参与者 阅读完整话题
7 个帖子 - 4 位参与者 阅读完整话题
如题,看到了站里富可敌国的想法 突发奇想 四张卡15刀每小时 不过冷启动也要不少时间 VS 6.25刀每小时 不过可以轻松scale up/down 温启动十几分钟 16 个帖子 - 12 位参与者 阅读完整话题
智谱 coding plan 背刺,首先排除 模型能力上 看好 kimi 2.6 和 MiMo-V2.5-Pro (按照 artificialanalaysis 的排名 ,其他排名不信) 找到一个 类似的贴 但是没有提到 小米 coding plan 所以有什么坑吗?类似于发几句
k2.6 最近深度体验了下,虽然说肯定不如 opus,但是体感上能达到 85% 左右,价格大概只有 opus 五分之一 最近听说官方算力告急,特别是白天挺难用的,去 Openrouter 看了下速度只能说非常感人,大部分都是 20-30/tps 我测了下我们这边的渠道,基本能稳定
请教各位大佬,kimi的code plan 默认貌似只支持claude code,鼓捣了半天都没有办法在codex中使用,大佬们有啥办法吗? 1 个帖子 - 1 位参与者 阅读完整话题
Kimi code 49 的 plan 5 小时不到 100 次请求,一下就用工光了,根本没法支撑使用,MiniMax 更恶心, 说是 1500 次 5 小时,结果成天 429 529 错误,想用的时候根本用不了,也根本没法发送 1500 次请求,这些看着划算的 code pla
开了火山方舟coding plan pro,试了一下GLM5.1,响应巨慢,基本用不了 用了kimi k2.6感觉还不错 2 个帖子 - 2 位参与者 阅读完整话题
kimi2.5 这么牛批吗 有没有佬友评论一下 6 个帖子 - 4 位参与者 阅读完整话题
真没必要抢glm-5.1了 5 个帖子 - 5 位参与者 阅读完整话题
GLM 抢不上,算了。。。。 想问一下用过的,或者目前正在用的佬,Kimi 白天会限速吗?有无周限额之类什么的吗? 顺便问一下如果每天 8 小时,断断续续都在编程,改 bug,写文档的情况下,哪个套餐更加合适? 20 个帖子 - 13 位参与者 阅读完整话题
如题,这是 OpenCode Go 当前最新的支持模型列表: GLM-5 GLM-5.1 Kimi K2.5 Kimi K2.6 MiMo-V2-Pro MiMo-V2-Omni MiMo-V2.5-Pro MiMo-V2.5 MiniMax M2.5 Qwen3.5 Plus
想入手个Kimi2.6,前端效果有佬友测试过吗?GLM5.1比那个更好? 5 个帖子 - 3 位参与者 阅读完整话题