qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn

qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 197 篇相关文章 · 第 7 / 10 页

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 16:56:58+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 16:28:43+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 16:28:43+08:00

Qwen3.6-35B-A3B 对比 Qwen3.6-27B

先说配置: CPU: E5-2680 v4 * 2 内存: 220G GPU: 3090 24G *2 系统:Ubuntu20 工具: LM Studio 0.4.11 Qwen3.6-27B Qwen3.6-35B-A3B 默认专家数量为8,这里佬友自行设置为了9, 问题是:“

tech linux.do 2026-04-23 14:18:57+08:00

Qwen 3.6_27B Dense 单卡部署5090 60+toks/s质量可以,够用了~

使用的是Unsloth家的动态,选的Qwen3.6-27B-UD-Q5_K_XL.gguf量化版本,用的是5090单卡,32G vram,大家可以根据这个表格,快速选配下 目前输出感觉是 qwen 3.6 27B ≈ Jackrong/Qwen3.5-27B-GLM5.1 &gt

tech linux.do 2026-04-23 13:17:26+08:00

qwen3.6小模型做高数题还是太吃力了

最近Qwen3.6的模型发布之后,又满心希望的测试了一次大学水平的数学题。 是否存在一个6个节点的树,可以将其每条边赋予一个正整数权重作为长度,使得任意两点间的距离(即路径上所有边的长度之和)互不重复且恰好组成集合{1, 2, 3…15}? 历经30分钟思考还是给出了错误的答案。

tech linux.do 2026-04-23 11:20:40+08:00

2api 可以做到一键切换模型吗?我就定义一个[auto]模型,自由控制auto到任意模型

比如我现在用qwen-coder,不稳定了我去后台切成gpt,gemini等等,因为现在都是用的各种白嫖,openclaw、openviking、或者各种编辑器里设置的模型坏了我得去换模型还要重启,自己搭了newapi也搭了cpa,想找个能够统一路由的,各种使用自定义渠道的 我就

tech linux.do 2026-04-23 10:17:19+08:00

qwen3.6 35B-A3B这价格是怎么敢的

对比deepseek的价格 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-23 10:09:58+08:00

测试Qwen3.6 27B中发现的Qwen Code的问题,对比OpenCode

新发布了Qwen3.6 27B,我超开心的 刚好手头有个小游戏一个小Bug,不过这个bug需要读取不少文件联动来解决的 过程 一开始用的Qwen Code来解决,但是一直弄了好久都没解决,还有调用失败的精力,20分钟都还没处理完,我关掉了 后来我换成了OpenCode,用Qwen

tech linux.do 2026-04-23 00:04:21+08:00

qwen3.6max预览版上线qwen.chat,依旧超绝情感

最早信息 让kimi2.6和qwen3.6 max写个梯子蛇,你们觉得哪个好 qwen3.6 max上线, 从此句开始,我不再是一个AI() 目测的话,一个标点符号我都没看见 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 23:36:25+08:00

Qwen3.6-27B-GGUF可以下载了

4070 12G挑战一下 huggingface.co unsloth/Qwen3.6-27B-GGUF at main We’re on a journey to advance and democratize artificial intelligence through o

tech linux.do 2026-04-22 23:25:54+08:00

Qwen3.6-27B出了

Qwen3.6-27B出了。。。。 GitHub GitHub - QwenLM/Qwen3.6: Qwen3.6 is the large language model series developed... Qwen3.6 is the large language mode

tech linux.do 2026-04-22 21:32:14+08:00

通义千问 Qwen3.6-27B 宣布开源:270 亿参数稠密模型,编程能力超越 15 倍规模 MoE 模型

IT之家 4 月 22 日消息,阿里云通义千问团队今日宣布,开源模型家族迎来新成员 ——Qwen3.6-27B。这是一款拥有 270 亿参数的稠密多模态模型,也是社区呼声最高的模型规格。 此前,通义千问已陆续发布了 Qwen3.6-Plus 和 Qwen3.6-35B-A3B,而

tech www.ithome.com 2026-04-22 21:23:21+08:00

qwen3.6-27B来咯

qwen.ai Qwen Studio Qwen Studio offers comprehensive functionality spanning chatbot, image and video understanding, image generation, docume

tech linux.do 2026-04-22 21:23:07+08:00

qwen3.6-max回答还有俄文

我的网页对话是一直在qwen的官网使用各个模型的,之前qwen3 3.5都一直这么用过来了,包括前段时间qwen-3.6 plus都用的好好的。今天想到qwen3.6-max早就发布了,就切换到max问了一个问题。结果它的回答里还参杂着俄文,我是真的第一次见,这是用什么语料训练,

tech linux.do 2026-04-22 20:56:50+08:00

Qwen3.6 疑似将要公开新的权重

huggingface.co Qwen3.6 - a Qwen Collection We’re on a journey to advance and democratize artificial intelligence through open source and ope

tech linux.do 2026-04-22 20:23:50+08:00

Ollama + Chroma + Qwen 这套组合在128g内存 MacBook上面可行么

流程:输入问题 → 自动检索我的文档 → Qwen总结答案,这套方案可行么,模型使用qwen3.5-32b,会不会超级慢使用起来? 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-22 09:54:31+08:00

qwen国产模型都用在哪里?

用ccs能转化给claude或者codex吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 09:43:28+08:00

TeslaT4显卡跑模型真的不中用吗,主要用来沉浸式翻译

我现在8卡的T4显卡,单卡16G,跑Qwen3.5-9B-Q4_K_M.gguf cli下测试的结果如下,速度都还行 8卡结果:[ Prompt: 71.2 t/s | Generation: 23.7 t/s ] 单卡结果:[ Prompt: 78.2 t/s | Genera

tech linux.do 2026-04-22 09:35:53+08:00

阿里云 Token Plan 来了

文本生成:qwen3.6-plus、glm-5、MiniMax-M2.5、deepseek-v3.2 图像生成:qwen-image-2.0、qwen-image-2.0-pro、wan2.7-image、wan2.7-image-pro 19 个帖子 - 12 位参与者 阅读完

tech linux.do 2026-04-21 19:38:33+08:00