qwen3 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn

qwen3 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 150 篇相关文章 · 第 5 / 8 页

opencode go上deepseek V4 pro和flash了

不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。 15 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:39:40+08:00

Qwen3.6-27B和Qwen3.6-35B-A3B的nvfp4量化在dgxspark下面的速度表现

模型来源 RedHatAI/Qwen3.6-35B-A3B-NVFP4 · Hugging Face sakamakismile/Qwen3.6-27B-NVFP4 · Hugging Face Qwen3.6-35B-A3B速度 单用户串行测试 : num_prompts=20

tech linux.do 2026-04-24 17:03:05+08:00

deepseekpro激活参数激进的策略从671b/31b到1600b/49b

哇牛的,上次看见还是qwen3的80b-A3B如此小规模的激活参数呢 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 14:44:33+08:00

有没有对比dsv4p和mimo2.5p,不想用qwen3max了

目前在使用qwen3max内部测试用,打算换了,一个是上下文长度不够,另一个应该是有些情况理解能力还是不够. 想选一个,1m上下文,暂时没有多模态需求,目前看dsv4p和mimo2.5p, 但是没有对比测试. 或者挖个坑,有对比大家 发一下 3 个帖子 - 2 位参与者 阅读完整

tech linux.do 2026-04-24 13:11:18+08:00

到底怎么才能降低Qwen3.5-35B-A3B的think啊

大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1

tech linux.do 2026-04-24 12:47:47+08:00

[Qwen3.6]27B-FP8 VLLM本地部署主观个人测评

硬件配置 组件 规格 CPU Intel i5-13600K GPU RTX 4090 48G + RTX 4070Ti 12G 内存 DDR4-3600 128G (4x32G) 主板 华硕 Z690-P D4 系统 Windows 11 LTSC WSL Ubuntu 22.

tech linux.do 2026-04-24 00:28:36+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 18:32:52+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 18:03:03+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 16:56:58+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 16:28:43+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 16:28:43+08:00

Qwen3.6-35B-A3B 对比 Qwen3.6-27B

先说配置: CPU: E5-2680 v4 * 2 内存: 220G GPU: 3090 24G *2 系统:Ubuntu20 工具: LM Studio 0.4.11 Qwen3.6-27B Qwen3.6-35B-A3B 默认专家数量为8,这里佬友自行设置为了9, 问题是:“

tech linux.do 2026-04-23 14:18:57+08:00

Qwen 3.6_27B Dense 单卡部署5090 60+toks/s质量可以,够用了~

使用的是Unsloth家的动态,选的Qwen3.6-27B-UD-Q5_K_XL.gguf量化版本,用的是5090单卡,32G vram,大家可以根据这个表格,快速选配下 目前输出感觉是 qwen 3.6 27B ≈ Jackrong/Qwen3.5-27B-GLM5.1 &gt

tech linux.do 2026-04-23 13:17:26+08:00

qwen3.6小模型做高数题还是太吃力了

最近Qwen3.6的模型发布之后,又满心希望的测试了一次大学水平的数学题。 是否存在一个6个节点的树,可以将其每条边赋予一个正整数权重作为长度,使得任意两点间的距离(即路径上所有边的长度之和)互不重复且恰好组成集合{1, 2, 3…15}? 历经30分钟思考还是给出了错误的答案。

tech linux.do 2026-04-23 11:20:40+08:00

qwen3.6 35B-A3B这价格是怎么敢的

对比deepseek的价格 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-23 10:09:58+08:00

测试Qwen3.6 27B中发现的Qwen Code的问题,对比OpenCode

新发布了Qwen3.6 27B,我超开心的 刚好手头有个小游戏一个小Bug,不过这个bug需要读取不少文件联动来解决的 过程 一开始用的Qwen Code来解决,但是一直弄了好久都没解决,还有调用失败的精力,20分钟都还没处理完,我关掉了 后来我换成了OpenCode,用Qwen

tech linux.do 2026-04-23 00:04:21+08:00

qwen3.6max预览版上线qwen.chat,依旧超绝情感

最早信息 让kimi2.6和qwen3.6 max写个梯子蛇,你们觉得哪个好 qwen3.6 max上线, 从此句开始,我不再是一个AI() 目测的话,一个标点符号我都没看见 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 23:36:25+08:00

Qwen3.6-27B-GGUF可以下载了

4070 12G挑战一下 huggingface.co unsloth/Qwen3.6-27B-GGUF at main We’re on a journey to advance and democratize artificial intelligence through o

tech linux.do 2026-04-22 23:25:54+08:00

Qwen3.6-27B出了

Qwen3.6-27B出了。。。。 GitHub GitHub - QwenLM/Qwen3.6: Qwen3.6 is the large language model series developed... Qwen3.6 is the large language mode

tech linux.do 2026-04-22 21:32:14+08:00

通义千问 Qwen3.6-27B 宣布开源:270 亿参数稠密模型,编程能力超越 15 倍规模 MoE 模型

IT之家 4 月 22 日消息,阿里云通义千问团队今日宣布,开源模型家族迎来新成员 ——Qwen3.6-27B。这是一款拥有 270 亿参数的稠密多模态模型,也是社区呼声最高的模型规格。 此前,通义千问已陆续发布了 Qwen3.6-Plus 和 Qwen3.6-35B-A3B,而

tech www.ithome.com 2026-04-22 21:23:21+08:00