qwen3 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn

qwen3 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 150 篇相关文章 · 第 7 / 8 页

【测评】Kimi K2.6 、Qwen3.6-Max 的前端开发审美水平

前情提要 很好啊,这 Kimi 和 Qwen 最新旗舰模型也是在同一天发布了,后来自己看 Kimi 官网上的 Blog 时发现了这样一个 Bench 测试: 好家伙,比 Gemini3.1Pro 的前端设计更好?这看的我一下就精神了啊,来 不科学不严谨 地来个测试对比吧 说明 本

tech linux.do 2026-04-21 09:16:24+08:00

让kimi2.6和qwen3.6 max写个梯子蛇,你们觉得哪个好

今天好像kimi2.6和qwen3.6 max上线,然后用同一个提示词给他们写一个梯子蛇游戏: 你们觉得哪个更好呢? 提示词: Create Snakes and Ladders with dice rolling, token movement, ladder climbing

tech linux.do 2026-04-21 00:15:25+08:00

【求助】qwen studio 反代出来的 qwen3.6max 在 cc 中无法正常使用

(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 23:55:07+08:00

亲测多模态大模型GLM-5V-TURBO,遥遥领先

我测试了 GPT5.4pro、CLAUDE-OUPS-4-7、GLM-5V-TURBO、豆包2.0、qwen3.6、qwen3-VL-PLUS、 Qwen-omni 、Gemini-3.1-pro 最强还是GLM-5V-TURBO。 20分钟的课程视频,逐帧分析、ppt位置、pp

tech linux.do 2026-04-20 23:08:13+08:00

macbook m5 128G 到底怎么配置本地模型啊

我用omlx 安装qwen3.5-122b-4bit 好慢 一秒一个token 感觉不太对,有大佬知道怎么配置吗? 8 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-20 22:37:28+08:00

qwen3.6-max 发布,已经可以体验了

https://qwen.ai/blog?id=qwen3.6-max-preview 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-20 22:22:03+08:00

阿里发布新模型 Qwen3.6-Max-Preview,这迭代速度也太快了吧

相比 Qwen3.6-Plus,预览版在智能体编程方面取得显著提升(如 SkillsBench +9.9、SciCode +6.3、NL2Repo +5.0、Terminal-Bench 2.0 +3.8),世界知识更强(SuperGPQA +2.3、QwenChineseBen

tech linux.do 2026-04-20 20:30:38+08:00

Qwen3.6 Max要来了吗

https://mp.weixin.qq.com/s/DKxrFnBwisNjjOnFQRqsqA 在权威三方评测Artificial Analysis刚刚更新的大模型榜单中,Qwen3.6-Max-Preview性能表现超过GLM5.1、MiniMax-M2.7等模型,登顶最佳

tech linux.do 2026-04-20 17:28:49+08:00

Qwen3.6-Max-Preview 新模型让我陷入沉思

甚至他还搜索了阿里的网站 还是说没有 谷歌回复是正确的 是巧合么 我们再问阿里一次 其他能力不说 网络搜索肯定有点问题 第三次尝试 恭喜他终于知道自己是哪天出生的了 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 16:21:42+08:00

Qwen3.6-max-preview发布了

chat.qwen.ai Qwen Studio Qwen Studio is an official platform from Qwen that empowers both everyday users and developers with unified access

tech linux.do 2026-04-20 16:09:22+08:00

快讯:Qwen3.6-Max模型发布,在六项主要编程基准上取得最高分

ithome.com 新一代“家族旗舰”:阿里 Qwen 3.6-Max 预览版发布 - IT之家 据介绍,该模型是新一代千问旗舰模型的早期预览版,用户可以在 Qwen Studio 进行交互对话,并且即将通过阿里云百炼 API 以 qwen3.6-max-preview 的名称

tech linux.do 2026-04-20 15:58:09+08:00

Qwen3.6-Max-Preview发布

今天,我们发布下一代旗舰模型的早期预览版:Qwen3.6-Max-Preview。 相比 Qwen3.6-Plus,本次模型带来了多项关键能力的显著提升: 在六项主要编程基准上取得最高分 更强的世界知识和指令遵循 更优的真实场景智能体与知识可靠性表现 本次发布支持 preserv

tech linux.do 2026-04-20 15:48:04+08:00

阿里云coding plan lite版不支持qwen3.6了?

我靠… 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-20 15:43:43+08:00

阿里开源 Qwen3.6-35B-A3B 模型:主打高效轻量,支持多模态思考

IT之家 4 月 20 日消息,4 月 19 日(昨天)晚间,千问 3.6 系列中等尺寸模型 Qwen3.6-35B-A3B 模型正式开源,仅激活 3B。 根据介绍,该模型不但轻量高效,而且在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwe

tech www.ithome.com 2026-04-20 14:46:49+08:00

用了一个亿token的qwen3.6plus评价

本人纯新手,991K的上下文确实很强但是费用是阶梯付费的越用越贵,我自己也用这个写了几个小工具,如果只是要求能用就行的只能说凑合,要好用的话难评,而且如果后续要更新写的工具bug是越写越多甚至是写了新的旧的完全崩了得全部重来 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-20 09:59:49+08:00

阿里qwen3.6-flash上架百炼并涨价了,输入涨价6倍,输出涨价3倍

前几天阿里开源了qwen3.6-35b-a3b,这个模型是qwen3.5-35b-a3b的升级版 和qwen3.6-plus一样,qwen3.6-flash也进行了涨价,一般来说都是按模型参数定价的,阿里这一波感觉飘了,把训练成本加给用户api(备注plus和flash是开源模型

tech linux.do 2026-04-19 01:03:42+08:00

qwen3.6plus和glm5.1对比怎么样

各位实际coding的时候3.6plus的效果和5.1对比怎么样? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-18 20:52:40+08:00

单卡16G 5060Ti 部署 Qwen3.6 35B A3B Apex量化测试(大核显亦可

概述 感谢各位上次发帖很多佬的交流, 上次是豪华配置,这次测了弱一点的配置 首先期望不要太高,其实这个水平的模型OpenCode还有厉害一点的Minimax M2.5免费用( 虽然刚才出现的Bug Minimax也没修好 能玩,但是上下文看自己的操作,如果有核显则可以拉到100K

tech linux.do 2026-04-18 20:35:22+08:00

阿里百炼coding plan用哪个模型,Qwen3.6-Plus感觉不太行

百炼Qwen3.6-Plus用了下,改代码越改越乱,不知道是不是错觉。glm5指令遵循有点差,经常不按在CLAUDE.md或ANGENTS.md中写的测试方法来执行,各位有遇到过吗。kimi2.5用着还行,但百炼上非常不稳定,经常报错,不知道是不是接的claude code的原因

tech linux.do 2026-04-18 20:18:14+08:00

Prompt复述?

佬友们有个困惑求解,自部署Qwen3.5 27B,做一套偏知识类的Agent 现在的情况就是如果走Native Reasoning输出,会暴露系统约束、工具Key啥的,模型跑去复述系统提示词,如果不开而是通过提示词约束模型输出类思维链,又感觉不是很稳定。 就是感觉模型的思维过程还

tech linux.do 2026-04-18 16:21:51+08:00