有opencode go套餐的可以看下kimi2.6限时三倍用量
虽然opencode go本身kimi2.6数量少,但翻三倍之后和之前的qwen3.6plus已经是一个档次的周限额,还是可以用的。活动持续到27日。所以原本有套餐的,运气好说不定能用到两次周限额翻三倍。 2 个帖子 - 2 位参与者 阅读完整话题
Qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 197 篇相关文章 · 第 8 / 10 页
虽然opencode go本身kimi2.6数量少,但翻三倍之后和之前的qwen3.6plus已经是一个档次的周限额,还是可以用的。活动持续到27日。所以原本有套餐的,运气好说不定能用到两次周限额翻三倍。 2 个帖子 - 2 位参与者 阅读完整话题
日常开发兜底使用,不接小龙虾。极限4选1。 大致讲讲为什么吧。顺便也给后面的人一些意见。 8 个帖子 - 7 位参与者 阅读完整话题
llama.cpp 支持的APEX量化效果挺好的, https://huggingface.co/mudler/Qwen3.6-35B-A3B-APEX-GGUF 根据该量化库的作者的表述 , 消费级显卡可用的 Qwen3.6-35B-A3B-APEX-I-Compact.ggu
背景 老板让分析下本地小模型和使用gpt-5在同样的龙虾里的对特定任务的表现的不同之处。 比如对图片的识别:分析下这个图片中的有什么东西。 遇见的问题 在qwen3-vl:8b下表现: 1、我写了一个skill,它回复时候并没有去调用skill 2、给它指定文件夹下的图片,路径已
有人把AI装进U盘了,还是无审查版的! 这个开源项目USB-Uncensored-LLM直接把Gemma、Qwen等大模型塞进U盘,插哪台电脑就在哪跑,Win/Mac/Linux全兼容,完全离线,零联网,聊天记录还能持久保存。 最骚的是:模型只需下载一次,多平台共用,不重复占空间
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
各位佬 Qwen3-VL-Plus、与Qwen3.6-Plus哪个目标检测效果好 3 个帖子 - 1 位参与者 阅读完整话题
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
IT之家 4 月 21 日消息,英伟达昨日(4 月 20 日)发布博文,针对当前边缘设备内存受限情况,通过架构优化 NVIDIA Jetson 平台,最高可释放约 12 GB 内存,帮助开发者优化 AI 模型部署。 在基础软件层,英伟达表示禁用图形桌面界面,最高可以释放 865
qwen3-max-preview 发布于 2025.9.5。同日,kimi k2 更新 0905 版本。 qwen3-max-thinking,2026.1.26 发布。次日,kimi k2.5 发布。 昨天刚发布的 qwen3.6-max-preview,又被 kimi k2
这周又是模型大混战,昨天千问刚发布 Qwen3.6-Max-Preview,今天 Moonshot 连夜开源 Kimi 2.6,推特上看到有说混元这周很可能也要发布新模型。 接下来就看 DeepSeek v4 的了,总不能比 GLM、Kimi 和 Qwen 的新模型差吧。 希望能
先叠甲因为我的pro被封了,现在的key是lite,是我莽撞了里面写的很清楚lite没有 图都没来得及改,为了卖token plan真是魔怔了 10 个帖子 - 7 位参与者 阅读完整话题
前情提要 很好啊,这 Kimi 和 Qwen 最新旗舰模型也是在同一天发布了,后来自己看 Kimi 官网上的 Blog 时发现了这样一个 Bench 测试: 好家伙,比 Gemini3.1Pro 的前端设计更好?这看的我一下就精神了啊,来 不科学不严谨 地来个测试对比吧 说明 本
今天好像kimi2.6和qwen3.6 max上线,然后用同一个提示词给他们写一个梯子蛇游戏: 你们觉得哪个更好呢? 提示词: Create Snakes and Ladders with dice rolling, token movement, ladder climbing
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题