[问与答] 选哪种模型?
macmini m4pro 64g ollama oMLX nvfp 、mxfp 或者其他格式的模型? 到底怎么选?我用 omlx 测试 mxfp 貌似比 nvfp 慢,还是直接选不带后缀的 mlx ?
Ollama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 28 篇相关文章 · 第 2 / 2 页
macmini m4pro 64g ollama oMLX nvfp 、mxfp 或者其他格式的模型? 到底怎么选?我用 omlx 测试 mxfp 貌似比 nvfp 慢,还是直接选不带后缀的 mlx ?
如题,前几天glm5.1调用显示需要订阅用户才能用,然后我就换成了glm5,今天发现glm5也需要订阅用户才能用了 5 个帖子 - 4 位参与者 阅读完整话题
智谱官方的根本抢不到,所以买了个 opencode go 写代码,但用着体感里面的 glm 5.1 是量化过的 下个月想换 ollama pro,有用过的佬说一下 ollama pro 上的 glm 5.1 有没有这个问题 1 个帖子 - 1 位参与者 阅读完整话题
流程:输入问题 → 自动检索我的文档 → Qwen总结答案,这套方案可行么,模型使用qwen3.5-32b,会不会超级慢使用起来? 3 个帖子 - 2 位参与者 阅读完整话题
ollama.com kimi-k2.6 Kimi K2.6 is an open-source, native multimodal agentic model that advances practical capabilities in long-horizon codin
ollama不就是一个逃课的llama.cpp嘛 为啥跑起来那么慢 在我机器下原生llama.cpp能比ollama快大概20-50%的样子 1 个帖子 - 1 位参与者 阅读完整话题
其实一直有点犹豫,一开始入门用的就是ollama,简单也便捷,后面发现ollama的资源调度机制其实挺让人纳闷的,就想着能不能通过自己优化一下,问了下大模型,大模型说不如用llama.cpp 5 个帖子 - 4 位参与者 阅读完整话题
最近想开ollama pro,看别人说爽玩,有glm5.1的调用,不知道额度有多少 4 个帖子 - 4 位参与者 阅读完整话题