[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
3B - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 54 篇相关文章 · 第 2 / 3 页
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
我是windows上llama.cpp部署的,先看效果图。 这里面,我用的模型是 unsloth 量化的 Qwen3.6-35B-A3B-UD-IQ1_M 模型。 得益于其超强的量化,整个模型可以完美装在 2080ti 11g 显存里面,用 q4 量化上下文可以跑到128k 的上
看别人都能拿甲骨文来当做机场用了 然后我也心里痒痒 自己部署了一个233boy/sing-box 现在部署成功了 有个最大的问题就是为什么网速这么慢呀 11 个帖子 - 9 位参与者 阅读完整话题
模型来源 RedHatAI/Qwen3.6-35B-A3B-NVFP4 · Hugging Face sakamakismile/Qwen3.6-27B-NVFP4 · Hugging Face Qwen3.6-35B-A3B速度 单用户串行测试 : num_prompts=20
哇牛的,上次看见还是qwen3的80b-A3B如此小规模的激活参数呢 2 个帖子 - 2 位参与者 阅读完整话题
大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1
token.zhilu.online Coder Token - AI API Gateway sk-0b6812a03376e20a711b8bb701b83b68a334e5669ee3b2467acd0ab8eb0e4248 350刀,0.7倍消耗,差不多就是500刀额度咯
IT之家 4 月 23 日消息,据龙芯中科官方公众号,在今天的软通华方品牌焕新暨春季新品发布会中,软通华方发布基于国产龙芯 3B6000M 处理器的超锐 T40-L60B 系列笔记本,同步推出搭载龙芯 3A6000 处理器的天曜 W600 系列台式计算机。 超锐 T40-L60B
DeepSeek API模型发生变化 前沿快讯 [841eaecdcbf43b0a] API模型已切换为1M上下文,25.5知识库的版本的版本 TPS很高,目测为v4lite,与官网一致 昨天API异常后回滚了 今天API已重新部署为v4 lite 5 个帖子 - 5 位参与者
先说配置: CPU: E5-2680 v4 * 2 内存: 220G GPU: 3090 24G *2 系统:Ubuntu20 工具: LM Studio 0.4.11 Qwen3.6-27B Qwen3.6-35B-A3B 默认专家数量为8,这里佬友自行设置为了9, 问题是:“
对比deepseek的价格 3 个帖子 - 2 位参与者 阅读完整话题
因为是个体验卡,能选的模型不多,需要的佬自取吧 API key:9a5e7bb73e2b4b53bb0419b4960ec4bd.tZVQRCEMBmhBDS3z 请求地址: https://open.bigmodel.cn/api/anthropic 2 个帖子 - 2 位参与
一元的机场订阅 https://sub2.smallstrawberry.com/api/v1/client/subscribe?token=2a0714c793073bebbcc5661d666739f8 500G, 2026/06/15 到期 1 个帖子 - 1 位参与者 阅
llama.cpp 支持的APEX量化效果挺好的, https://huggingface.co/mudler/Qwen3.6-35B-A3B-APEX-GGUF 根据该量化库的作者的表述 , 消费级显卡可用的 Qwen3.6-35B-A3B-APEX-I-Compact.ggu
IT之家 4 月 20 日消息,4 月 19 日(昨天)晚间,千问 3.6 系列中等尺寸模型 Qwen3.6-35B-A3B 模型正式开源,仅激活 3B。 根据介绍,该模型不但轻量高效,而且在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwe
抽奖主题: 抽supergrok账号,上回注册的时候剩下的一个月的,5.3到期,现在用不上了,给需要的佬友 奖品详情: supergrok账号 活动时间: 开始时间:[发帖时间] 截止时间:[4月21号 12:00] 参与方式: 在本帖下回复任意内容 抽奖规则: 每位用户仅允许参
grok4.3现在spuer可以用了,不知道free能不能用,有无佬测测实力如何,或者你们来说,我来测一下 天气卡片(点击右上角的刷新会切换效果) 4 个帖子 - 4 位参与者 阅读完整话题