[问与答] 目前国产哪个模型 chat 最强?
免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次
qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 197 篇相关文章 · 第 7 / 10 页
免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次
免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次
免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次
先说配置: CPU: E5-2680 v4 * 2 内存: 220G GPU: 3090 24G *2 系统:Ubuntu20 工具: LM Studio 0.4.11 Qwen3.6-27B Qwen3.6-35B-A3B 默认专家数量为8,这里佬友自行设置为了9, 问题是:“
使用的是Unsloth家的动态,选的Qwen3.6-27B-UD-Q5_K_XL.gguf量化版本,用的是5090单卡,32G vram,大家可以根据这个表格,快速选配下 目前输出感觉是 qwen 3.6 27B ≈ Jackrong/Qwen3.5-27B-GLM5.1 >
最近Qwen3.6的模型发布之后,又满心希望的测试了一次大学水平的数学题。 是否存在一个6个节点的树,可以将其每条边赋予一个正整数权重作为长度,使得任意两点间的距离(即路径上所有边的长度之和)互不重复且恰好组成集合{1, 2, 3…15}? 历经30分钟思考还是给出了错误的答案。
比如我现在用qwen-coder,不稳定了我去后台切成gpt,gemini等等,因为现在都是用的各种白嫖,openclaw、openviking、或者各种编辑器里设置的模型坏了我得去换模型还要重启,自己搭了newapi也搭了cpa,想找个能够统一路由的,各种使用自定义渠道的 我就
对比deepseek的价格 3 个帖子 - 2 位参与者 阅读完整话题
新发布了Qwen3.6 27B,我超开心的 刚好手头有个小游戏一个小Bug,不过这个bug需要读取不少文件联动来解决的 过程 一开始用的Qwen Code来解决,但是一直弄了好久都没解决,还有调用失败的精力,20分钟都还没处理完,我关掉了 后来我换成了OpenCode,用Qwen
最早信息 让kimi2.6和qwen3.6 max写个梯子蛇,你们觉得哪个好 qwen3.6 max上线, 从此句开始,我不再是一个AI() 目测的话,一个标点符号我都没看见 1 个帖子 - 1 位参与者 阅读完整话题
4070 12G挑战一下 huggingface.co unsloth/Qwen3.6-27B-GGUF at main We’re on a journey to advance and democratize artificial intelligence through o
Qwen3.6-27B出了。。。。 GitHub GitHub - QwenLM/Qwen3.6: Qwen3.6 is the large language model series developed... Qwen3.6 is the large language mode
IT之家 4 月 22 日消息,阿里云通义千问团队今日宣布,开源模型家族迎来新成员 ——Qwen3.6-27B。这是一款拥有 270 亿参数的稠密多模态模型,也是社区呼声最高的模型规格。 此前,通义千问已陆续发布了 Qwen3.6-Plus 和 Qwen3.6-35B-A3B,而
qwen.ai Qwen Studio Qwen Studio offers comprehensive functionality spanning chatbot, image and video understanding, image generation, docume
我的网页对话是一直在qwen的官网使用各个模型的,之前qwen3 3.5都一直这么用过来了,包括前段时间qwen-3.6 plus都用的好好的。今天想到qwen3.6-max早就发布了,就切换到max问了一个问题。结果它的回答里还参杂着俄文,我是真的第一次见,这是用什么语料训练,
huggingface.co Qwen3.6 - a Qwen Collection We’re on a journey to advance and democratize artificial intelligence through open source and ope
流程:输入问题 → 自动检索我的文档 → Qwen总结答案,这套方案可行么,模型使用qwen3.5-32b,会不会超级慢使用起来? 3 个帖子 - 2 位参与者 阅读完整话题
用ccs能转化给claude或者codex吗? 1 个帖子 - 1 位参与者 阅读完整话题
我现在8卡的T4显卡,单卡16G,跑Qwen3.5-9B-Q4_K_M.gguf cli下测试的结果如下,速度都还行 8卡结果:[ Prompt: 71.2 t/s | Generation: 23.7 t/s ] 单卡结果:[ Prompt: 78.2 t/s | Genera
文本生成:qwen3.6-plus、glm-5、MiniMax-M2.5、deepseek-v3.2 图像生成:qwen-image-2.0、qwen-image-2.0-pro、wan2.7-image、wan2.7-image-pro 19 个帖子 - 12 位参与者 阅读完