Gemma - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

Gemma - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 24 篇相关文章 · 第 1 / 2 页

gemma4 vs qwen3.6 哪个更适合本地部署,哪个好啊?

佬友们,最近刷到这俩模型说是很强,强的可怕? 618想买块显卡 本地部署 模型跑着玩玩的,这俩模型哪个好?都是多模态的 怎么比较 还有618买显卡 我想买 5060TI 16G的 能跑吗?有啥建议? 20 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-05-02 13:40:19+08:00

Gemma-4-31B 越狱版,无限制,直接下载

万众期待的 Gemma 4 越狱破解版 终于发布了! Gemma-4-31B 现已 彻底破解并完成对齐抹除 版本名:Gemma-4-31B-JANG_4M-CRACK HarmBench 安全基准规避率 93.7%(149/159) 原生基础模型,纯净无杂质 适配苹果自研芯片,提

tech linux.do 2026-05-02 11:49:57+08:00

为什么我安装的 gemma 31b JANG_4M 没有破甲效果

很懵逼,还特意下载vmlx去跑,结果很拉,是我下错了吗?我 hugging face 上下载的 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-30 02:33:55+08:00

这网页版本gemini pro这么拉?

使用网页版gemini pro 问了一个Gemma4 模型部署问题,没想到直接拉一个大的 17 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-29 10:59:34+08:00

MTP 太强了!为什么 Gemma4 不支持 MTP...

最近在尝试本地部署 Qwen3.6-27B 和 Gemma4-31B,发现因为是 Dense 模型,两者的生成速度都挺慢(相比 200多 B 的 MoE 模型而言,速率还低了一半,只有约 25-30 token/s)。但是我发现 Qwen3.6 支持 Multi-Token Pr

tech linux.do 2026-04-27 18:50:11+08:00

浏览器里跑 Gemma 4:不用 API、不花钱,无限量生成 Excalidraw 流程图

手机上能跑 Gemma 4 大模型已经不新鲜了(iPhone、安卓现在就能跑 Gemma 4 了),现在浏览器也可以了。@Appinn 有开发者利用 Google 新提出的 TurboQuant 算法,把 Gemma 4 放进浏览器里运行。 直接打开网页,就能在 Excalidr

tech feeds.appinn.com 2026-04-26 13:54:46+08:00

有人把AI装进U盘了,还是无审查版的!

有人把AI装进U盘了,还是无审查版的! 这个开源项目USB-Uncensored-LLM直接把Gemma、Qwen等大模型塞进U盘,插哪台电脑就在哪跑,Win/Mac/Linux全兼容,完全离线,零联网,聊天记录还能持久保存。 最骚的是:模型只需下载一次,多平台共用,不重复占空间

tech linux.do 2026-04-21 16:39:47+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 16:17:12+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 15:56:02+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:43:31+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:33:27+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 14:34:19+08:00

部署本地模型 token 输出万能公式

比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s

tech www.v2ex.com 2026-04-20 18:54:39+08:00

部署本地模型 token 输出万能公式

比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s

tech www.v2ex.com 2026-04-20 17:54:39+08:00

我本地部署了 gemma 26B Q5-K-M,显卡12G,我发现它竟然不会用工具。

是否我哪里配置错误了? E4B 的 gemma 会用 websearch 或者 curl 去查,但26B 的几竟然不会! 部署方式:OLLMA + gemma 26B Q5-K-M (量化版本),显存12GB,4070TI + 64G 内存。 2 个帖子 - 2 位参与者 阅读完

tech linux.do 2026-04-20 16:11:11+08:00

mac mini部署龙虾配本地无限制Gemma4模型 优化完成

m4 16g 丐中丐了属于是 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-20 11:47:45+08:00

gemma 4模型很神奇 32K的时候输出日语泰语

1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 01:55:36+08:00

使用 Gemini API 体验 gemma4 模型需注意

今天用 hermes 体验 google ai studio 的 Gemini API 的 gemma4 模型。结果用 hermes 发送了一句“你好”,就触发了 TPM 限制。 研究后发现,Gemini API 的结算层级的政策是这样的: 第一层级, gemma4 模型每分钟只

tech linux.do 2026-04-19 23:19:44+08:00