百炼 Lite 订阅也可以用 qwen3.6-plus 了
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 196 篇相关文章 · 第 2 / 10 页
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
新获得一块4090D,终于可以跑27B dense了 鸸鹋骑单车一般般,但是天气卡片绝了,除了太阳歪了一点,这个细节实现的很棒,之后接入pi试试 8 个帖子 - 5 位参与者 阅读完整话题
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
IT之家 4 月 30 日消息,今日,阿里千问宣布推出 Qwen-Scope—— 基于 Qwen3 系列和 Qwen3.5 系列模型训练所得的可解释性模块。 据介绍,阿里千问在 Qwen 隐藏层插入稀疏自编码器(SAE)并加以训练,通过施加稀疏性约束,自动提取出高度解耦、低冗余且
题主现在vibe主要在用GLM、Mimo、Qwen基座下的Claude Code。三者优先级依次递减,根据前一个的coding plan有没有击穿决定是否启用后一个。 这种情况下问题就很显然了,每次都要重配环境变量。 (因为三个模型base url就不一样,因此不能通过配sonn
导师搞了台DGX Spark,说要部署一个大模型进去,关于DGX的中文部署教程目前并不算多,和各位佬友分享一下这次部署过程完整,顺手写一篇教程。 这里计划部署的模型是 AEON-7/Qwen3.6-27B-AEON-Ultimate-Uncensored-NVFP4 · Hugg
之前是 Lite 不能使用 qwen3.6 ,现在发现可以用了,但也绝版了~
受限于显卡的显存,只能寄希望于能打的小体量模型,在网络安全和编程这一块儿,DeepSeek R1-0528-Qwen3-8B这样一个去年的模型还能打吗 3 个帖子 - 2 位参与者 阅读完整话题
目前我有两张2080ti22g,不知道能不能nvlink双卡交火 如果可以的话就有44g的显存了,配合vllm,应该可以部署一个量化后的模型,并且可以拥有较高的上下文 有没有哪位佬试过两张2080ti22g双卡交火的佬,可以来说一下经验 1 个帖子 - 1 位参与者 阅读完整话题
前段时间,我用 Tauri 写了个跨平台的 ACP UI ,支持 Windows ,macOS (ARM/Intel) 和 Linux (x64/ARM64): https://github.com/formulahendry/acp-ui 根据 ACP 的协议,推荐 ACP C
前段时间,我用 Tauri 写了个跨平台的 ACP UI ,支持 Windows ,macOS (ARM/Intel) 和 Linux (x64/ARM64): https://github.com/formulahendry/acp-ui 根据 ACP 的协议,推荐 ACP C
前段时间,我用 Tauri 写了个跨平台的 ACP UI ,支持 Windows ,macOS (ARM/Intel) 和 Linux (x64/ARM64): https://github.com/formulahendry/acp-ui 根据 ACP 的协议,推荐 ACP C
前段时间,我用 Tauri 写了个跨平台的 ACP UI ,支持 Windows ,macOS (ARM/Intel) 和 Linux (x64/ARM64): https://github.com/formulahendry/acp-ui 根据 ACP 的协议,推荐 ACP C
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
我主要考虑性价比,稳定(输出快),编程能力 大概 价格0.4 编程0.4 稳定0.2 这样的占比 11 个帖子 - 9 位参与者 阅读完整话题