Qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

Qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 196 篇相关文章 · 第 1 / 10 页

[Qwen3.6]27B-FP8 SGLang本地部署-venv dev经验分享。

上集回顾 [Qwen3.6]27B-FP8 VLLM本地部署主观个人测评 环境: WLS2 Ubuntu22.04 硬件: 4090 48G SGLang太佛系了,快一个月了还不更新正式版,需要好好挖掘pr。目前已经找到4090 48G本地部署的版本。 我测试了两个模型。以及DF

tech linux.do 2026-05-04 10:21:26+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 19:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 18:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:24:52+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:10:34+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:32:55+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:17:40+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:47:07+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:36:38+08:00

deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech www.v2ex.com 2026-05-03 14:16:24+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:16:24+08:00

【开源推广】支持Vercel、Netlify、Docker的Qwen Studio 2api,支持tool call

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-05-02 15:08:40+08:00

gemma4 vs qwen3.6 哪个更适合本地部署,哪个好啊?

佬友们,最近刷到这俩模型说是很强,强的可怕? 618想买块显卡 本地部署 模型跑着玩玩的,这俩模型哪个好?都是多模态的 怎么比较 还有618买显卡 我想买 5060TI 16G的 能跑吗?有啥建议? 20 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-05-02 13:40:19+08:00

【Leaf】 关于qwen公益站第三批

本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的项目是免费使用的,无收费(变相收费、赞助)部分: 是 我的帖子已经打上 公益推广 标签: 是 我的项目属于个人项目,与公司或商业机构无关: 是 我的项目不存在QQ、TG等群组引流: 是 我的项目不存在非运营

tech linux.do 2026-05-02 11:22:38+08:00

有没有什么渠道能用到低价的Qwen3.5?

最近觉得Qwen3.5 122b挺好用的(397b应该不会有便宜的渠道)所以问下佬友们有没有什么办法能用到低价且稳定的Qwen3.5,尽量比官网便宜50% 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-02 11:17:04+08:00

请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以?

tech www.v2ex.com 2026-05-02 10:11:07+08:00

请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以?

tech www.v2ex.com 2026-05-02 00:42:17+08:00

请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以?

tech www.v2ex.com 2026-05-01 22:42:17+08:00

[程序员] 请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以?

tech v2ex.com 2026-05-01 22:42:17+08:00

[程序员] 请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以?

tech v2ex.com 2026-05-01 22:28:22+08:00