a3b - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

a3b - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 27 篇相关文章 · 第 1 / 2 页

网易云黑胶会员天数随机26年4月

4月份的网易云会员赠送还有余额,可以来领取 [1http:/$MRFRJ32a3bfb3c$【復淛整段文案并咑閞「网易云音乐」,领免费会员】 黑胶邀请官 w***i 送你网易云音乐4月黑胶会员卡,领取享20+会员权益。] https://163cn.tv/6ayfePy 五月的明

tech linux.do 2026-04-30 20:09:42+08:00

openrouter 新增3个模型 一个nvidia的多模态 两个poolside

nvidia/nemotron-3-nano-omni-30b-a3b-reasoning:free poolside是下面公司出的 laguna-m.1 应该这个效果会好点 Poolside Introducing Laguna XS.2 and Laguna M.1 We’r

tech linux.do 2026-04-29 16:03:31+08:00

英伟达推出 Nemotron 3 Nano Omni 模型:采用 30B‑A3B 混合 MoE 架构,吞吐量最高提升 9.2 倍

IT之家 4 月 29 日消息,当地时间 4 月 28 日,英伟达宣布推出名为 Nemotron 3 Nano Omni 的开源全模态推理模型,旨在为企业级 AI Agent 提供一体化基础模型底座。 据介绍,这是一款将视频、音频、图像和文本的统一多模态推理集成于单个高效开放模型

tech www.ithome.com 2026-04-29 07:35:02+08:00

qwen3.6-35b-a3b-apex 天气卡片测试

是在hermes中生成的,提示词如下: 你是 Apple Inc 的顶级 UI 设计师,以 iOS 18 的设计风格(毛玻璃效果、高斯模糊、动态渐变、细腻阴影)创建一个单个HTML文件(包含完整CSS和JavaScript)。实现横板天气页面,包含4个并排的动画天气卡片: 晴天(

tech linux.do 2026-04-27 11:00:08+08:00

[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自

tech v2ex.com 2026-04-27 09:30:50+08:00

[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自

tech v2ex.com 2026-04-27 09:30:50+08:00

[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自

tech v2ex.com 2026-04-27 09:14:03+08:00

[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自

tech v2ex.com 2026-04-27 07:47:44+08:00

[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自

tech v2ex.com 2026-04-27 07:47:44+08:00

2080ti 11g本地部署qwen 3.6 35b a3b,128k 上下文,67tps

我是windows上llama.cpp部署的,先看效果图。 这里面,我用的模型是 unsloth 量化的 Qwen3.6-35B-A3B-UD-IQ1_M 模型。 得益于其超强的量化,整个模型可以完美装在 2080ti 11g 显存里面,用 q4 量化上下文可以跑到128k 的上

tech linux.do 2026-04-26 16:52:57+08:00

Qwen3.6-27B和Qwen3.6-35B-A3B的nvfp4量化在dgxspark下面的速度表现

模型来源 RedHatAI/Qwen3.6-35B-A3B-NVFP4 · Hugging Face sakamakismile/Qwen3.6-27B-NVFP4 · Hugging Face Qwen3.6-35B-A3B速度 单用户串行测试 : num_prompts=20

tech linux.do 2026-04-24 17:03:05+08:00

deepseekpro激活参数激进的策略从671b/31b到1600b/49b

哇牛的,上次看见还是qwen3的80b-A3B如此小规模的激活参数呢 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 14:44:33+08:00

到底怎么才能降低Qwen3.5-35B-A3B的think啊

大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1

tech linux.do 2026-04-24 12:47:47+08:00

Qwen3.6-35B-A3B 对比 Qwen3.6-27B

先说配置: CPU: E5-2680 v4 * 2 内存: 220G GPU: 3090 24G *2 系统:Ubuntu20 工具: LM Studio 0.4.11 Qwen3.6-27B Qwen3.6-35B-A3B 默认专家数量为8,这里佬友自行设置为了9, 问题是:“

tech linux.do 2026-04-23 14:18:57+08:00

qwen3.6 35B-A3B这价格是怎么敢的

对比deepseek的价格 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-23 10:09:58+08:00

20G显存可用的 Qwen3.6-35B-A3B-APEX-I-Compact 本地部署简易快餐

llama.cpp 支持的APEX量化效果挺好的, https://huggingface.co/mudler/Qwen3.6-35B-A3B-APEX-GGUF 根据该量化库的作者的表述 , 消费级显卡可用的 Qwen3.6-35B-A3B-APEX-I-Compact.ggu

tech linux.do 2026-04-21 17:58:31+08:00

阿里开源 Qwen3.6-35B-A3B 模型:主打高效轻量,支持多模态思考

IT之家 4 月 20 日消息,4 月 19 日(昨天)晚间,千问 3.6 系列中等尺寸模型 Qwen3.6-35B-A3B 模型正式开源,仅激活 3B。 根据介绍,该模型不但轻量高效,而且在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwe

tech www.ithome.com 2026-04-20 14:46:49+08:00

Qwen 3.6 35B-A3B 智商测试,感觉还可以

Qwen 3.6 35B-A3B 智商测试 之前没考虑过本地部署 LLM——一是没卡没好设备,二是感觉小模型智商不会高到哪里去。 但最近对 Claude Opus 的降智略感失望,本地部署个不错的 LLM 至少不会降智。看佬儿友分享最近发布的 Qwen 3.6 ,看起来不错,手痒

tech linux.do 2026-04-19 02:58:49+08:00

阿里qwen3.6-flash上架百炼并涨价了,输入涨价6倍,输出涨价3倍

前几天阿里开源了qwen3.6-35b-a3b,这个模型是qwen3.5-35b-a3b的升级版 和qwen3.6-plus一样,qwen3.6-flash也进行了涨价,一般来说都是按模型参数定价的,阿里这一波感觉飘了,把训练成本加给用户api(备注plus和flash是开源模型

tech linux.do 2026-04-19 01:03:42+08:00

单卡16G 5060Ti 部署 Qwen3.6 35B A3B Apex量化测试(大核显亦可

概述 感谢各位上次发帖很多佬的交流, 上次是豪华配置,这次测了弱一点的配置 首先期望不要太高,其实这个水平的模型OpenCode还有厉害一点的Minimax M2.5免费用( 虽然刚才出现的Bug Minimax也没修好 能玩,但是上下文看自己的操作,如果有核显则可以拉到100K

tech linux.do 2026-04-18 20:35:22+08:00