[OpenAI] 关于“AI 思考”长度
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
emm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 36 篇相关文章 · 第 2 / 2 页
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
是否我哪里配置错误了? E4B 的 gemma 会用 websearch 或者 curl 去查,但26B 的几竟然不会! 部署方式:OLLMA + gemma 26B Q5-K-M (量化版本),显存12GB,4070TI + 64G 内存。 2 个帖子 - 2 位参与者 阅读完
m4 16g 丐中丐了属于是 2 个帖子 - 2 位参与者 阅读完整话题
1 个帖子 - 1 位参与者 阅读完整话题
今天用 hermes 体验 google ai studio 的 Gemini API 的 gemma4 模型。结果用 hermes 发送了一句“你好”,就触发了 TPM 限制。 研究后发现,Gemini API 的结算层级的政策是这样的: 第一层级, gemma4 模型每分钟只
没关站。。。。只是那天服务器网络故障而已 9 个帖子 - 6 位参与者 阅读完整话题
自己用不到,诸位随缘用吧。 sk-cp-C9fsZobN8iRDYQ3QrYEREA5l2EFpbUPzAjQrVWjorXEMMJjWWd46Bk3gsaeWTNjdJkwpM97kDR2MpCxS6HHKpJfcCZNFQ7T0w0ymxliCPg3Gvpj0NpXXPZ8
旧闻了 iPhone 用户现在也可以在手机上运行 Google 新发布的 Gemma 4 模型了——是真的在手机上运行,断网也能用的那种。 App Store 直接搜 “Google AI Edge Gallery”。打开 APP 后可以选择下载 E2B 或者 E4B。官方显然推
小菜菜来凑热闹了 1 个帖子 - 1 位参与者 阅读完整话题
emmm, 是不是发完这帖就够了噢 3 个帖子 - 2 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
现在,通过 Google 的开源应用 Google AI Edge Gallery,已经可以直接在 iPhone 和安卓手机上运行 Gemma 4 E2B、E4B 两个模型了,不消耗任何 Token,能离线使用。而且不只是对话,还支持图片、语音,甚至加入了 Skills。 不用等
Rio Ngumoha looked experienced beyond his years in Liverpool's win over Fulham.