qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 196 篇相关文章 · 第 2 / 10 页

百炼 Lite 订阅也可以用 qwen3.6-plus 了

之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~

tech www.v2ex.com 2026-05-01 11:13:21+08:00

Qwen-3.6-27B 天气卡片

新获得一块4090D,终于可以跑27B dense了 鸸鹋骑单车一般般,但是天气卡片绝了,除了太阳歪了一点,这个细节实现的很棒,之后接入pi试试 8 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-01 09:46:58+08:00

百炼 Lite 订阅也可以用 qwen3.6-plus 了

之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~

tech www.v2ex.com 2026-05-01 01:33:23+08:00

百炼 Lite 订阅也可以用 qwen3.6-plus 了

之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~

tech www.v2ex.com 2026-04-30 19:15:34+08:00

百炼 Lite 订阅也可以用 qwen3.6-plus 了

之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~

tech www.v2ex.com 2026-04-30 18:15:34+08:00

[程序员] 百炼 Lite 订阅也可以用 qwen3.6-plus 了

之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~

tech v2ex.com 2026-04-30 18:04:33+08:00

[程序员] 百炼 Lite 订阅也可以用 qwen3.6-plus 了

之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~

tech v2ex.com 2026-04-30 17:55:01+08:00

[程序员] 百炼 Lite 订阅也可以用 qwen3.6-plus 了

之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~

tech v2ex.com 2026-04-30 17:48:38+08:00

看穿大模型的“小心思”:阿里千问开源可解释性模块 Qwen-Scope

IT之家 4 月 30 日消息,今日,阿里千问宣布推出 Qwen-Scope—— 基于 Qwen3 系列和 Qwen3.5 系列模型训练所得的可解释性模块。 据介绍,阿里千问在 Qwen 隐藏层插入稀疏自编码器(SAE)并加以训练,通过施加稀疏性约束,自动提取出高度解耦、低冗余且

tech www.ithome.com 2026-04-30 17:21:02+08:00

【Vibe】想要一个聚合式代理/中转解决方案

题主现在vibe主要在用GLM、Mimo、Qwen基座下的Claude Code。三者优先级依次递减,根据前一个的coding plan有没有击穿决定是否启用后一个。 这种情况下问题就很显然了,每次都要重配环境变量。 (因为三个模型base url就不一样,因此不能通过配sonn

tech linux.do 2026-04-30 16:18:01+08:00

【DGX Spark教程系列-LLM部署】从0部署Qwen3.6-27B-NVFP4

导师搞了台DGX Spark,说要部署一个大模型进去,关于DGX的中文部署教程目前并不算多,和各位佬友分享一下这次部署过程完整,顺手写一篇教程。 这里计划部署的模型是 AEON-7/Qwen3.6-27B-AEON-Ultimate-Uncensored-NVFP4 · Hugg

tech linux.do 2026-04-30 15:31:12+08:00

[程序员] 百炼 Lite 订阅也可以用 qwen3.6-plus 了

之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~

tech v2ex.com 2026-04-30 15:01:58+08:00

在开源大模型迭代那么快的今天,DeepSeek R1-0528-Qwen3-8B还能打吗?

受限于显卡的显存,只能寄希望于能打的小体量模型,在网络安全和编程这一块儿,DeepSeek R1-0528-Qwen3-8B这样一个去年的模型还能打吗 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 20:10:31+08:00

关于双卡nvlink交火,部署qwen3.6 27b有问!

目前我有两张2080ti22g,不知道能不能nvlink双卡交火 如果可以的话就有44g的显存了,配合vllm,应该可以部署一个量化后的模型,并且可以拥有较高的上下文 有没有哪位佬试过两张2080ti22g双卡交火的佬,可以来说一下经验 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:29:23+08:00

VS Code ACP Client 扩展:连上 Claude, Gemini, Codex, OpenCode, Qwen Code 等 AI Agent

前段时间,我用 Tauri 写了个跨平台的 ACP UI ,支持 Windows ,macOS (ARM/Intel) 和 Linux (x64/ARM64): https://github.com/formulahendry/acp-ui 根据 ACP 的协议,推荐 ACP C

tech www.v2ex.com 2026-04-29 10:49:39+08:00

VS Code ACP Client 扩展:连上 Claude, Gemini, Codex, OpenCode, Qwen Code 等 AI Agent

前段时间,我用 Tauri 写了个跨平台的 ACP UI ,支持 Windows ,macOS (ARM/Intel) 和 Linux (x64/ARM64): https://github.com/formulahendry/acp-ui 根据 ACP 的协议,推荐 ACP C

tech www.v2ex.com 2026-04-29 09:49:39+08:00

VS Code ACP Client 扩展:连上 Claude, Gemini, Codex, OpenCode, Qwen Code 等 AI Agent

前段时间,我用 Tauri 写了个跨平台的 ACP UI ,支持 Windows ,macOS (ARM/Intel) 和 Linux (x64/ARM64): https://github.com/formulahendry/acp-ui 根据 ACP 的协议,推荐 ACP C

tech www.v2ex.com 2026-04-29 09:49:39+08:00

VS Code ACP Client 扩展:连上 Claude, Gemini, Codex, OpenCode, Qwen Code 等 AI Agent

前段时间,我用 Tauri 写了个跨平台的 ACP UI ,支持 Windows ,macOS (ARM/Intel) 和 Linux (x64/ARM64): https://github.com/formulahendry/acp-ui 根据 ACP 的协议,推荐 ACP C

tech www.v2ex.com 2026-04-29 09:49:09+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-28 17:17:39+08:00

想问下佬友们 qwen3.6 glm5.1 ds4pro 哪个综合最好

我主要考虑性价比,稳定(输出快),编程能力 大概 价格0.4 编程0.4 稳定0.2 这样的占比 11 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-28 16:42:14+08:00