Gemma4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

Gemma4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 13 篇相关文章

gemma4 vs qwen3.6 哪个更适合本地部署,哪个好啊?

佬友们,最近刷到这俩模型说是很强,强的可怕? 618想买块显卡 本地部署 模型跑着玩玩的,这俩模型哪个好?都是多模态的 怎么比较 还有618买显卡 我想买 5060TI 16G的 能跑吗?有啥建议? 20 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-05-02 13:40:19+08:00

这网页版本gemini pro这么拉?

使用网页版gemini pro 问了一个Gemma4 模型部署问题,没想到直接拉一个大的 17 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-29 10:59:34+08:00

MTP 太强了!为什么 Gemma4 不支持 MTP...

最近在尝试本地部署 Qwen3.6-27B 和 Gemma4-31B,发现因为是 Dense 模型,两者的生成速度都挺慢(相比 200多 B 的 MoE 模型而言,速率还低了一半,只有约 25-30 token/s)。但是我发现 Qwen3.6 支持 Multi-Token Pr

tech linux.do 2026-04-27 18:50:11+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 16:17:12+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 15:56:02+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:43:31+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:33:27+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 14:34:19+08:00

mac mini部署龙虾配本地无限制Gemma4模型 优化完成

m4 16g 丐中丐了属于是 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-20 11:47:45+08:00

使用 Gemini API 体验 gemma4 模型需注意

今天用 hermes 体验 google ai studio 的 Gemini API 的 gemma4 模型。结果用 hermes 发送了一句“你好”,就触发了 TPM 限制。 研究后发现,Gemini API 的结算层级的政策是这样的: 第一层级, gemma4 模型每分钟只

tech linux.do 2026-04-19 23:19:44+08:00

大家手机端试过 Gemma4 没有?

旧闻了 iPhone 用户现在也可以在手机上运行 Google 新发布的 Gemma 4 模型了——是真的在手机上运行,断网也能用的那种。 App Store 直接搜 “Google AI Edge Gallery”。打开 APP 后可以选择下载 E2B 或者 E4B。官方显然推

tech linux.do 2026-04-18 21:51:34+08:00