Qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn

Qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 197 篇相关文章 · 第 8 / 10 页

有opencode go套餐的可以看下kimi2.6限时三倍用量

虽然opencode go本身kimi2.6数量少,但翻三倍之后和之前的qwen3.6plus已经是一个档次的周限额,还是可以用的。活动持续到27日。所以原本有套餐的,运气好说不定能用到两次周限额翻三倍。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-21 18:55:28+08:00

kimi glm qwen minimax 选哪个

日常开发兜底使用,不接小龙虾。极限4选1。 大致讲讲为什么吧。顺便也给后面的人一些意见。 8 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-21 18:12:52+08:00

20G显存可用的 Qwen3.6-35B-A3B-APEX-I-Compact 本地部署简易快餐

llama.cpp 支持的APEX量化效果挺好的, https://huggingface.co/mudler/Qwen3.6-35B-A3B-APEX-GGUF 根据该量化库的作者的表述 , 消费级显卡可用的 Qwen3.6-35B-A3B-APEX-I-Compact.ggu

tech linux.do 2026-04-21 17:58:31+08:00

【求助】openclaw连接本地的qwen3-vl:8b的大模型

背景 老板让分析下本地小模型和使用gpt-5在同样的龙虾里的对特定任务的表现的不同之处。 比如对图片的识别:分析下这个图片中的有什么东西。 遇见的问题 在qwen3-vl:8b下表现: 1、我写了一个skill,它回复时候并没有去调用skill 2、给它指定文件夹下的图片,路径已

tech linux.do 2026-04-21 17:01:49+08:00

有人把AI装进U盘了,还是无审查版的!

有人把AI装进U盘了,还是无审查版的! 这个开源项目USB-Uncensored-LLM直接把Gemma、Qwen等大模型塞进U盘,插哪台电脑就在哪跑,Win/Mac/Linux全兼容,完全离线,零联网,聊天记录还能持久保存。 最骚的是:模型只需下载一次,多平台共用,不重复占空间

tech linux.do 2026-04-21 16:39:47+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 16:17:12+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 15:56:02+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:43:31+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:33:27+08:00

佬 阿里视觉大模型怎么样

各位佬 Qwen3-VL-Plus、与Qwen3.6-Plus哪个目标检测效果好 3 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 15:29:43+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 14:34:19+08:00

英伟达发布 Jetson 内存优化指南:量化 Qwen3 8B AI 模型可节省约 10GB 内存

IT之家 4 月 21 日消息,英伟达昨日(4 月 20 日)发布博文,针对当前边缘设备内存受限情况,通过架构优化 NVIDIA Jetson 平台,最高可释放约 12 GB 内存,帮助开发者优化 AI 模型部署。 在基础软件层,英伟达表示禁用图形桌面界面,最高可以释放 865

tech www.ithome.com 2026-04-21 14:29:28+08:00

qwen,你家 max 又被 kimi 狙啦!

qwen3-max-preview 发布于 2025.9.5。同日,kimi k2 更新 0905 版本。 qwen3-max-thinking,2026.1.26 发布。次日,kimi k2.5 发布。 昨天刚发布的 qwen3.6-max-preview,又被 kimi k2

tech linux.do 2026-04-21 13:07:10+08:00

都在狙击DeepSeek啊,DeepSeek 压力满满

这周又是模型大混战,昨天千问刚发布 Qwen3.6-Max-Preview,今天 Moonshot 连夜开源 Kimi 2.6,推特上看到有说混元这周很可能也要发布新模型。 接下来就看 DeepSeek v4 的了,总不能比 GLM、Kimi 和 Qwen 的新模型差吧。 希望能

tech linux.do 2026-04-21 12:59:12+08:00

百炼code plan偷偷把qwen3.6-plus下掉了

先叠甲因为我的pro被封了,现在的key是lite,是我莽撞了里面写的很清楚lite没有 图都没来得及改,为了卖token plan真是魔怔了 10 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-21 10:05:29+08:00

【测评】Kimi K2.6 、Qwen3.6-Max 的前端开发审美水平

前情提要 很好啊,这 Kimi 和 Qwen 最新旗舰模型也是在同一天发布了,后来自己看 Kimi 官网上的 Blog 时发现了这样一个 Bench 测试: 好家伙,比 Gemini3.1Pro 的前端设计更好?这看的我一下就精神了啊,来 不科学不严谨 地来个测试对比吧 说明 本

tech linux.do 2026-04-21 09:16:24+08:00

让kimi2.6和qwen3.6 max写个梯子蛇,你们觉得哪个好

今天好像kimi2.6和qwen3.6 max上线,然后用同一个提示词给他们写一个梯子蛇游戏: 你们觉得哪个更好呢? 提示词: Create Snakes and Ladders with dice rolling, token movement, ladder climbing

tech linux.do 2026-04-21 00:15:25+08:00

【求助】qwen studio 反代出来的 qwen3.6max 在 cc 中无法正常使用

(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 23:55:07+08:00