请问一下kimik2.5,kimik2.6,GPT5.5,deepseek 4.0系列 哪个更情感细腻?越狱后效果如何?
请问一下kimik2.5,kimik2.6,GPT5.5,deepseek 4.0系列 哪个更情感细腻?越狱后效果如何? 大家测试结果怎么样? 1 个帖子 - 1 位参与者 阅读完整话题
K2.5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 9 篇相关文章
请问一下kimik2.5,kimik2.6,GPT5.5,deepseek 4.0系列 哪个更情感细腻?越狱后效果如何? 大家测试结果怎么样? 1 个帖子 - 1 位参与者 阅读完整话题
sk-6Z9ulMIOLS3VT6jP087490D02e93405591BdD9Cc061133Be 只有这些模型:kimi-k2.5,minimax-m2.1/2.5 Openai: https://codingplan.alayanew.com/v1 Anthropic h
k2.5的时候就一直在用kimi code的plan,就图他快,结果今天k2.6一发布,429就框框的来了,你跟智谱坐一桌去吧,真没一个靠得住的厂商,亏我开的还是199的套餐 附上周的速度,是真的爽啊 6 个帖子 - 1 位参与者 阅读完整话题
据说49的套餐1个对话还没跑完 5小时额度就没了,这大模型天天涨价,搞黑盒,把用户当猴耍啊,吐槽吐槽。 官方的套餐目前不划算,拼的中转,现在套餐基本都是按prompt计费,我打开Claude code 还没开始对话,看后台已经调用6次了,泪奔。 4 个帖子 - 4 位参与者 阅读
做了个多模型中转网关:统一接入 GPT-5.4 / GLM-5 / Kimi-K2.5 。 特性: 多 Key 池化与自动切换 重试 / fallback / 超时控制 基础限流与负载分发 OpenAI 协议兼容(低成本接入) 支持按需扩展模型 定位是作为统一模型入口,偏生产环境
正在看kimi的订阅,主要用于coding、claw这类通用agent场景,没看懂 kimi-code 是不是就是 kimi-k2.5?有没有懂的佬友求解答 1 个帖子 - 1 位参与者 阅读完整话题
RT, 使用 OpenCode+kimi-k2.5 做一个网页工具, 输出这么一段东西, 最后强行打断才停下, 有没有知道是什么原因
登陆图镇楼 整体感受 快,轻/中任务适合,文笔不错(无对比,自我感觉) 快 首先 Kimi K2.5 给我的第一印象就是:太快了 从 lobehub 看 TPS 可以达到百几 token/s (表头:模型 类型 输入Token 输出 Token TPS TTFT 花费 时间) 可
比如说年初发布的 kimi-k2.5,目前我聚合了不少渠道都能用,但是跑 agent 的话感觉能力又不够,拿来翻译的话又有点大材小用 1 个帖子 - 1 位参与者 阅读完整话题