到底怎么才能降低Qwen3.5-35B-A3B的think啊
大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1
Hi - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 440 篇相关文章 · 第 13 / 22 页
大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1
各位佬友,我安卓手机平时使用GKD来跳广告,但是在这之前需要在开发者选项里面无线调试配对shizuku启动shizuku了,GKD才能完成授权。 平时我只需要重启开机,启动一下shizuku就行了,后面无论WiFi是开还是关,shizuku都是启动状态,GKD也不会出现授权这些消
一个hi+一个分析系统的命令 花了11m41s 消耗4.13rmb 14 个帖子 - 14 位参与者 阅读完整话题
在 Kimi-K2.6技术报告 中和 DeepSeek-v4技术报告 中,Terminal Bench 2.0测试结果引用的GPT-5.4 xHigh跑分不同(Gemini和Calude是相同的),引用值分别为65.4和75.1,这是有什么讲究吗? Kimi-K2.6技术报告截图
打算 618 左右购入 不要 thinkbook 预算 1W 左右
打算 618 左右购入 不要 thinkbook 预算 1W 左右
打算 618 左右购入 不要 thinkbook 预算 1W 左右
今天打开论坛都是5.5用量很大,xhigh fast更是费的离谱,想问问大家的使用感受 1 个帖子 - 1 位参与者 阅读完整话题
gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题
打算 618 左右购入 不要 thinkbook 预算 1W 左右
虽然一个问题说明不了啥,但是还是很好玩 6 个帖子 - 6 位参与者 阅读完整话题
打算 618 左右购入 不要 thinkbook 预算 1W 左右
打算 618 左右购入 不要 thinkbook 预算 1W 左右
打算 618 左右购入 不要 thinkbook 预算 1W 左右
打算 618 左右购入 不要 thinkbook 预算 1W 左右
pro 20x 走了一遍测试环境的后端部署流程就这样了 有点夸张,20x感觉都不会够蹬 11 个帖子 - 6 位参与者 阅读完整话题
打算 618 左右购入 不要 thinkbook 预算 1W 左右
IT之家 4 月 24 日消息,科技媒体 9to5Mac 昨日(4 月 23 日)发布博文,报道称 MacWhisper 推出 13.20 版本更新, 新增命令行工具 mw,支持用户在 Terminal(终端)中运行 AI 转录工作流。 IT之家注:MacWhisper 是 Ma
4 个帖子 - 4 位参与者 阅读完整话题
不考虑价格的话,gpt默认xhigh,我目前的感受是 GPT5.5>OPUS4.6>OPUS4.7>GPT5.4 GPT5.5的速度、性能相较于5.4都有了明显提升,就是codex里5.5的上下文注意力不如5.4。 不知道5.5pro用于coding是个什么水平