qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn

qwen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 197 篇相关文章 · 第 6 / 10 页

[程序员] 百炼 Lite Plan 加入了 qwen3.6

百炼 Lite Plan 加入了 qwen3.6 ,虽然已经不卖了,但算是还给留存百炼几个月的小伙伴一点福利 千问 qwen3.6-plus 文本生成、深度思考、视觉理解 qwen3.5-plus 文本生成、深度思考、视觉理解 qwen3-max-2026-01-23 文本生成、

tech v2ex.com 2026-04-25 12:49:40+08:00

说真的,深夜后再看到Gemini语录真的非常难绷

写到一半真的绷不住,模型是qwen 3.5 plus(这就是为啥标的是qwen,白嫖的佬友的lite),看来是哈基米蒸多了 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 01:53:25+08:00

opencode go上deepseek V4 pro和flash了

不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。 15 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:39:40+08:00

Qwen3.6-27B和Qwen3.6-35B-A3B的nvfp4量化在dgxspark下面的速度表现

模型来源 RedHatAI/Qwen3.6-35B-A3B-NVFP4 · Hugging Face sakamakismile/Qwen3.6-27B-NVFP4 · Hugging Face Qwen3.6-35B-A3B速度 单用户串行测试 : num_prompts=20

tech linux.do 2026-04-24 17:03:05+08:00

你们说,DeepSeek V4会搞蒸馏小模型吗

去年DeepSeek R1出的时候,还出了好几个蒸馏小模型,基座是qwen2.5和llama3,现在v4也有思维链,大概不会有R2了,正好前端时间qwen3.5和qwen3.6出了,不知道会不会继续搞蒸馏小模型,当然最好是直接拿v4 pro做个小模型 1 个帖子 - 1 位参与者

tech linux.do 2026-04-24 16:31:31+08:00

Deepseek V4 雷声大雨点小?Arena排行榜表现极度不佳

看了Lmarena天塌了,比GLM5.1和Kimi 2.6甚至Qwen 3.6 Plus都差(图片由ChatGPT Image 2生成) 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:22:34+08:00

[人工智能] 我有个疑问:为什么现在豆包 / qwen 之类的面向大众的 AI 工具,免费且快速,而这些国内的这些 coding plan,收费、限购,不稳定,高峰期还不可用?

tech v2ex.com 2026-04-24 14:58:25+08:00

[人工智能] 我有个疑问:为什么现在豆包 / qwen 之类的面向大众的 AI 工具,免费且快速,而这些国内的这些 coding plan,收费、限购,不稳定,高峰期还不可用?

tech v2ex.com 2026-04-24 14:45:59+08:00

deepseekpro激活参数激进的策略从671b/31b到1600b/49b

哇牛的,上次看见还是qwen3的80b-A3B如此小规模的激活参数呢 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 14:44:33+08:00

[人工智能] 我有个疑问:为什么现在豆包 / qwen 之类的面向大众的 AI 工具,免费且快速,而这些国内的这些 coding plan,收费、限购,不稳定,高峰期还不可用?

tech v2ex.com 2026-04-24 14:32:16+08:00

[人工智能] 我有个疑问:为什么现在豆包 / qwen 之类的面向大众的 AI 工具,免费且快速,而这些国内的这些 coding plan,收费、限购,不稳定,高峰期还不可用?

tech v2ex.com 2026-04-24 13:52:24+08:00

有没有对比dsv4p和mimo2.5p,不想用qwen3max了

目前在使用qwen3max内部测试用,打算换了,一个是上下文长度不够,另一个应该是有些情况理解能力还是不够. 想选一个,1m上下文,暂时没有多模态需求,目前看dsv4p和mimo2.5p, 但是没有对比测试. 或者挖个坑,有对比大家 发一下 3 个帖子 - 2 位参与者 阅读完整

tech linux.do 2026-04-24 13:11:18+08:00

到底怎么才能降低Qwen3.5-35B-A3B的think啊

大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1

tech linux.do 2026-04-24 12:47:47+08:00

DeepSeek v4 在 Arena Leaderboard 排名出来了

Text Arena 目前评分貌似不如 Qwen 3.5 Max,不过新模型后续排名变动应该会比较大,不排除会大幅上涨的可能性。 Code Arena 天气卡片实测: DeepSeek v4 pro 天气卡片测试来了,结果有点意外 开发调优 [PixPin2026-04-2411

tech linux.do 2026-04-24 12:44:03+08:00

DeepSeek V4 Next Week

下周复下周。 到目前为止,这周有好多消息要传递。 现在我们有 Qwen 3.6 Max、Kimi K2.6、MiMo V2.5、HY 3.0 和 GPT-5.5。 V4-Lite 已在应用程序和 API 上部署。 V4 现在就可以正式发布,也可能因为这条推文而变成「下周发布 V4

tech linux.do 2026-04-24 10:18:58+08:00

[Qwen3.6]27B-FP8 VLLM本地部署主观个人测评

硬件配置 组件 规格 CPU Intel i5-13600K GPU RTX 4090 48G + RTX 4070Ti 12G 内存 DDR4-3600 128G (4x32G) 主板 华硕 Z690-P D4 系统 Windows 11 LTSC WSL Ubuntu 22.

tech linux.do 2026-04-24 00:28:36+08:00

v4何时出😭

deepseek你就继续陪太子读书吧,就算GPT出5.5,Claude出mythos,kimi出2.6,qwen出3.6,glm出5.1我也不在乎,我只爱你v4​ 9 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-23 23:07:31+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 18:32:52+08:00

[问与答] 目前国产哪个模型 chat 最强?

免费的前提 Qwen3.6-Plus mimo-v2.5-pro deepseek-r1 其他的好像都不怎么样,kimi 不说了,顶级用不了几次

tech v2ex.com 2026-04-23 18:03:03+08:00

阿里云 qwen真是个草台班子

从这里继续 真是服了,这就是qwen的多模态功能吗 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-23 17:36:58+08:00