亲测多模态大模型GLM-5V-TURBO,遥遥领先
我测试了 GPT5.4pro、CLAUDE-OUPS-4-7、GLM-5V-TURBO、豆包2.0、qwen3.6、qwen3-VL-PLUS、 Qwen-omni 、Gemini-3.1-pro 最强还是GLM-5V-TURBO。 20分钟的课程视频,逐帧分析、ppt位置、pp
qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 197 篇相关文章 · 第 9 / 10 页
我测试了 GPT5.4pro、CLAUDE-OUPS-4-7、GLM-5V-TURBO、豆包2.0、qwen3.6、qwen3-VL-PLUS、 Qwen-omni 、Gemini-3.1-pro 最强还是GLM-5V-TURBO。 20分钟的课程视频,逐帧分析、ppt位置、pp
我用omlx 安装qwen3.5-122b-4bit 好慢 一秒一个token 感觉不太对,有大佬知道怎么配置吗? 8 个帖子 - 4 位参与者 阅读完整话题
https://qwen.ai/blog?id=qwen3.6-max-preview 7 个帖子 - 6 位参与者 阅读完整话题
之前 Qwen 3.6 Plus 测试的时候,好像一开始也是不支持多模态输入,应该不至于是模型本身不支持吧。 3 个帖子 - 2 位参与者 阅读完整话题
相比 Qwen3.6-Plus,预览版在智能体编程方面取得显著提升(如 SkillsBench +9.9、SciCode +6.3、NL2Repo +5.0、Terminal-Bench 2.0 +3.8),世界知识更强(SuperGPQA +2.3、QwenChineseBen
https://mp.weixin.qq.com/s/DKxrFnBwisNjjOnFQRqsqA 在权威三方评测Artificial Analysis刚刚更新的大模型榜单中,Qwen3.6-Max-Preview性能表现超过GLM5.1、MiniMax-M2.7等模型,登顶最佳
甚至他还搜索了阿里的网站 还是说没有 谷歌回复是正确的 是巧合么 我们再问阿里一次 其他能力不说 网络搜索肯定有点问题 第三次尝试 恭喜他终于知道自己是哪天出生的了 1 个帖子 - 1 位参与者 阅读完整话题
chat.qwen.ai Qwen Studio Qwen Studio is an official platform from Qwen that empowers both everyday users and developers with unified access
ithome.com 新一代“家族旗舰”:阿里 Qwen 3.6-Max 预览版发布 - IT之家 据介绍,该模型是新一代千问旗舰模型的早期预览版,用户可以在 Qwen Studio 进行交互对话,并且即将通过阿里云百炼 API 以 qwen3.6-max-preview 的名称
IT之家 4 月 20 日消息,4 月 20 日(今天)下午,阿里宣布 Qwen3.6-Max-Preview 正式发布。据介绍,该模型是 Qwen 系列新一代旗舰模型的早期预览版,用户可以在 Qwen Studio 进行交互对话,并且即将通过阿里云百炼 API 以 qwen3.
今天,我们发布下一代旗舰模型的早期预览版:Qwen3.6-Max-Preview。 相比 Qwen3.6-Plus,本次模型带来了多项关键能力的显著提升: 在六项主要编程基准上取得最高分 更强的世界知识和指令遵循 更优的真实场景智能体与知识可靠性表现 本次发布支持 preserv
我靠… 3 个帖子 - 3 位参与者 阅读完整话题
IT之家 4 月 20 日消息,4 月 19 日(昨天)晚间,千问 3.6 系列中等尺寸模型 Qwen3.6-35B-A3B 模型正式开源,仅激活 3B。 根据介绍,该模型不但轻量高效,而且在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwe
本人纯新手,991K的上下文确实很强但是费用是阶梯付费的越用越贵,我自己也用这个写了几个小工具,如果只是要求能用就行的只能说凑合,要好用的话难评,而且如果后续要更新写的工具bug是越写越多甚至是写了新的旧的完全崩了得全部重来 5 个帖子 - 5 位参与者 阅读完整话题
鄙人使用学校的8xa40-Pcle服务器,使用vllm部署全精qwen27b,首发延迟高,约10s,速度慢,90-100tokens/s,看到很多人用3090部署速度都没这么慢,这是为什么?有没有推荐部署的模型,27b对显存浪费有点大,不过pcle带宽比较低 12 个帖子 - 5
Qwen 3.6 35B-A3B 智商测试 之前没考虑过本地部署 LLM——一是没卡没好设备,二是感觉小模型智商不会高到哪里去。 但最近对 Claude Opus 的降智略感失望,本地部署个不错的 LLM 至少不会降智。看佬儿友分享最近发布的 Qwen 3.6 ,看起来不错,手痒
前几天阿里开源了qwen3.6-35b-a3b,这个模型是qwen3.5-35b-a3b的升级版 和qwen3.6-plus一样,qwen3.6-flash也进行了涨价,一般来说都是按模型参数定价的,阿里这一波感觉飘了,把训练成本加给用户api(备注plus和flash是开源模型
各位实际coding的时候3.6plus的效果和5.1对比怎么样? 1 个帖子 - 1 位参与者 阅读完整话题
概述 感谢各位上次发帖很多佬的交流, 上次是豪华配置,这次测了弱一点的配置 首先期望不要太高,其实这个水平的模型OpenCode还有厉害一点的Minimax M2.5免费用( 虽然刚才出现的Bug Minimax也没修好 能玩,但是上下文看自己的操作,如果有核显则可以拉到100K
百炼Qwen3.6-Plus用了下,改代码越改越乱,不知道是不是错觉。glm5指令遵循有点差,经常不按在CLAUDE.md或ANGENTS.md中写的测试方法来执行,各位有遇到过吗。kimi2.5用着还行,但百炼上非常不稳定,经常报错,不知道是不是接的claude code的原因