gemma4 vs qwen3.6 哪个更适合本地部署,哪个好啊?
佬友们,最近刷到这俩模型说是很强,强的可怕? 618想买块显卡 本地部署 模型跑着玩玩的,这俩模型哪个好?都是多模态的 怎么比较 还有618买显卡 我想买 5060TI 16G的 能跑吗?有啥建议? 20 个帖子 - 10 位参与者 阅读完整话题
Gemma - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 24 篇相关文章 · 第 1 / 2 页
佬友们,最近刷到这俩模型说是很强,强的可怕? 618想买块显卡 本地部署 模型跑着玩玩的,这俩模型哪个好?都是多模态的 怎么比较 还有618买显卡 我想买 5060TI 16G的 能跑吗?有啥建议? 20 个帖子 - 10 位参与者 阅读完整话题
万众期待的 Gemma 4 越狱破解版 终于发布了! Gemma-4-31B 现已 彻底破解并完成对齐抹除 版本名:Gemma-4-31B-JANG_4M-CRACK HarmBench 安全基准规避率 93.7%(149/159) 原生基础模型,纯净无杂质 适配苹果自研芯片,提
很懵逼,还特意下载vmlx去跑,结果很拉,是我下错了吗?我 hugging face 上下载的 1 个帖子 - 1 位参与者 阅读完整话题
使用网页版gemini pro 问了一个Gemma4 模型部署问题,没想到直接拉一个大的 17 个帖子 - 7 位参与者 阅读完整话题
最近在尝试本地部署 Qwen3.6-27B 和 Gemma4-31B,发现因为是 Dense 模型,两者的生成速度都挺慢(相比 200多 B 的 MoE 模型而言,速率还低了一半,只有约 25-30 token/s)。但是我发现 Qwen3.6 支持 Multi-Token Pr
手机上能跑 Gemma 4 大模型已经不新鲜了(iPhone、安卓现在就能跑 Gemma 4 了),现在浏览器也可以了。@Appinn 有开发者利用 Google 新提出的 TurboQuant 算法,把 Gemma 4 放进浏览器里运行。 直接打开网页,就能在 Excalidr
有人把AI装进U盘了,还是无审查版的! 这个开源项目USB-Uncensored-LLM直接把Gemma、Qwen等大模型塞进U盘,插哪台电脑就在哪跑,Win/Mac/Linux全兼容,完全离线,零联网,聊天记录还能持久保存。 最骚的是:模型只需下载一次,多平台共用,不重复占空间
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
是否我哪里配置错误了? E4B 的 gemma 会用 websearch 或者 curl 去查,但26B 的几竟然不会! 部署方式:OLLMA + gemma 26B Q5-K-M (量化版本),显存12GB,4070TI + 64G 内存。 2 个帖子 - 2 位参与者 阅读完
m4 16g 丐中丐了属于是 2 个帖子 - 2 位参与者 阅读完整话题
1 个帖子 - 1 位参与者 阅读完整话题
今天用 hermes 体验 google ai studio 的 Gemini API 的 gemma4 模型。结果用 hermes 发送了一句“你好”,就触发了 TPM 限制。 研究后发现,Gemini API 的结算层级的政策是这样的: 第一层级, gemma4 模型每分钟只