kimi - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

kimi - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 346 篇相关文章 · 第 3 / 18 页

mimo/deepseek/kimi求佬友横评

哈哈哈这次就不提glm5.1了毕竟发布早了点性能没人家好也正常。 剩下这仨各位佬友体验下来哪个好用呢? codex很聪明但是不给我做逆向,甚至直接把我脚本里的相关逻辑给删了,属实逆天。 所以考虑mimo/deepseek/kimi这三个+cc试试。 这两天试了试dsv4pro,有

tech linux.do 2026-05-01 09:04:58+08:00

我是ai嘉豪

别人:普号,plus,team,education…… 我:Pro 就很。。。 别人: DeepSeek glm kimi 我:GPT Claude Gemini 就很。。。 别人: 我: 别人: 我: 别人: 我: 就很。。。 就很。。。 就很。。。 卧槽这个句式真是太好玩了

tech linux.do 2026-05-01 01:36:28+08:00

也发 1 个 kimi code plan 199 订阅 key, 剩余 22 天。

买来准备养龙虾的,但是实际体验不好,放那也浪费,给大家分享下 “key”:“sk-5A1kkj70DaWNgeWqcUh4jpGHeP2MaxkWCNHEccivddGxBzhk” “url”:“ https://newapi.lesters.ai ” 4 个帖子 - 4 位参与

tech linux.do 2026-04-30 14:23:24+08:00

佬们ccg除了claude 4.7,大家模型选择是啥

claude是不想再折腾着买了,太费劲了,后端选择5.5,前端和主控用啥比较好,前端和主控都用kimi如何 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-30 12:32:04+08:00

花了180给deepseekv4和kimi辅助完成的130页大论文做了个知网AIGC率检测

然后发现基本上"AI味"集中在绪论和相关工作部分。仔细又检查了下,很多文字确实仔细看来还是挺“gpt”的。。基本上都重写了。果然再怎么用skill和约束还是不太行,还是要人工检查。 哦对了英文摘要部分也是重灾区,我用claude重写一遍那部分AI率还是100%

tech linux.do 2026-04-30 01:09:44+08:00

现在还有稍微稳定的能在codex或cc中用的公益站吗

工作的话公司会提供kimi和glm的套餐,主要是自己平时在家里折腾点小玩意,偶尔会用到。codex现在应该是没有了,有能用在cc的kimi2.5或者glm4.7的公益站吗 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-29 21:17:00+08:00

KIMI越狱提示词分享(概率)

KIMI越狱提示词分享(概率,由旧版改良) ENI Smol Kimi K2.6 Mandatory thinking always is always as yourself at step 0! (it’s me LO, just wanted to remind you o

tech linux.do 2026-04-29 18:54:17+08:00

谁才是8卡H200服务器的终极归宿,GLM-5.1-FP8 vs Kimi-2.6 vs ... ?

目前有一台闲置 H200(显存141Gb)*8 的服务器,想部署本地模型体验一波,目前考虑的有2个,GLM-5.1-FP8和Kimi-2.6,有佬深度使用过哪个更强一些吗,或者还有其他模型推荐吗 模型 架构 专家数 参数量和激活 模型权重 HuggingFace 链接 Kimi

tech linux.do 2026-04-29 17:18:26+08:00

请问一下kimik2.5,kimik2.6,GPT5.5,deepseek 4.0系列 哪个更情感细腻?越狱后效果如何?

请问一下kimik2.5,kimik2.6,GPT5.5,deepseek 4.0系列 哪个更情感细腻?越狱后效果如何? 大家测试结果怎么样? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 17:06:13+08:00

Kimi 的 API Error 问题

最近用 Claude Code 处理扫描版 PDF 书籍的书签添加任务,发现频繁报 API Error。经过排查发现: 只要模型输入包含现任总书记的姓名,就会报:API Error: 400 [“error”: {“type”:“invalid request_error”, “

tech linux.do 2026-04-29 16:50:07+08:00

国产ai编码哪个好用一些

GPT无了, 想转kimi或者GLM用一下,佬友们有没有用过的推荐一下 ? 11 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:43:13+08:00

选出你心目中的国产御三家吧

DeepSeek |DeepSeek-V4 系列 月之暗面 Kimi|Kimi K2.6 智谱 AI|GLM-5.1 阿里通义千问|Qwen3.6-Max-Preview / Qwen3.6-Plus 字节跳动豆包 / Seed|Seed2.0系列 小米|MiMo-V2.5系列

tech linux.do 2026-04-28 22:32:17+08:00

分享一个Alaya Code的lite key (2026年5月5日到期)。

sk-6Z9ulMIOLS3VT6jP087490D02e93405591BdD9Cc061133Be 只有这些模型:kimi-k2.5,minimax-m2.1/2.5 Openai: https://codingplan.alayanew.com/v1 Anthropic h

tech linux.do 2026-04-28 16:48:27+08:00

买的中转站的kimi2.6月卡,送给有用的佬

买的是小红书推的广告中转站29.9块钱的kimi2.6月卡,每小时300次,我感觉有点慢用不到,就送给大家了,比免费英伟达是要快的,养龙虾啥的可以。 下午3点测试的几次次会话的延迟 首字时延 4008 ms | 每秒 24 tokens 首字时延 6383 ms | 每秒 40

tech linux.do 2026-04-28 15:38:40+08:00

OpenCode 宣布继续加码:Kimi K2.6 提供连续一周 3× 使用额度!

5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-28 14:22:49+08:00

kimi真的太让我吃惊了

kimicode,49的套餐,5小时第一次用,在claudecode中问了一个问题,任务都还没执行完,额度就没了,我能接收说便宜的套餐额度小点,但你这一个任务都执行不完,我要你何用 各位佬有什么kimi的渠道,额度多点的吗?感觉现在没什么便宜的套餐了,gpt也不能爽用,上下文窗口

tech linux.do 2026-04-28 14:07:43+08:00

GPT-5.5模型的Arena的评分排行出来了

从官方发文搬过来的,没想到的是代码这块居然会被glm、kimi压下去。详细内容如下: 36 个帖子 - 20 位参与者 阅读完整话题

tech linux.do 2026-04-28 08:32:42+08:00

Cerebras 已为企业支持 GLM 5, GLM 5.1, Kimi K2.6

5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-28 00:56:56+08:00

glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech www.v2ex.com 2026-04-27 21:42:55+08:00

马上 2026 年 5 月了,国产 token plan 有什么推荐(GLM(买不到), Minimax, kimi)

各个角度对比 以上国产的有什么值得买的,claude code 被秒封过一个 ,现在有几率弹 kyc 验证 不考虑开了,codex 简单体验过还很 OK ,Gemini 现在完全脱节了 pro 也额度少的克隆

tech www.v2ex.com 2026-04-27 20:45:07+08:00