Llama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

Llama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 54 篇相关文章 · 第 3 / 3 页

ollama cloud 上线了 deepseek v4 flash

ollama cloud 上线了 deepseek v4 flash pro 模型还没有上 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-24 15:38:37+08:00

Ollama Cloud正在适配DeepSeek-V4-Pro

1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 14:14:48+08:00

ollama 大概也许 …… DSV4还没上cloud就发预告了

鱼鱼煎熬中 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:11:56+08:00

怎么感觉Ollama Cloud的GLM也卡的不行了

今天下午用的时候发现好卡啊,经常好几分钟没反应,没有任何token输出的那种,人都等麻了 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-23 17:49:18+08:00

[问与答] 选哪种模型?

macmini m4pro 64g ollama oMLX nvfp 、mxfp 或者其他格式的模型? 到底怎么选?我用 omlx 测试 mxfp 貌似比 nvfp 慢,还是直接选不带后缀的 mlx ?

tech v2ex.com 2026-04-23 15:39:42+08:00

ollama cloud的glm5似乎也需要订阅才能用了

如题,前几天glm5.1调用显示需要订阅用户才能用,然后我就换成了glm5,今天发现glm5也需要订阅用户才能用了 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-22 12:07:48+08:00

有没有用过 ollama pro 的佬

智谱官方的根本抢不到,所以买了个 opencode go 写代码,但用着体感里面的 glm 5.1 是量化过的 下个月想换 ollama pro,有用过的佬说一下 ollama pro 上的 glm 5.1 有没有这个问题 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 10:32:15+08:00

Ollama + Chroma + Qwen 这套组合在128g内存 MacBook上面可行么

流程:输入问题 → 自动检索我的文档 → Qwen总结答案,这套方案可行么,模型使用qwen3.5-32b,会不会超级慢使用起来? 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-22 09:54:31+08:00

20G显存可用的 Qwen3.6-35B-A3B-APEX-I-Compact 本地部署简易快餐

llama.cpp 支持的APEX量化效果挺好的, https://huggingface.co/mudler/Qwen3.6-35B-A3B-APEX-GGUF 根据该量化库的作者的表述 , 消费级显卡可用的 Qwen3.6-35B-A3B-APEX-I-Compact.ggu

tech linux.do 2026-04-21 17:58:31+08:00

ollama cloud 上线 kimi-k2.6 了

ollama.com kimi-k2.6 Kimi K2.6 is an open-source, native multimodal agentic model that advances practical capabilities in long-horizon codin

tech linux.do 2026-04-21 15:55:28+08:00

ollama推理怎么那么慢

ollama不就是一个逃课的llama.cpp嘛 为啥跑起来那么慢 在我机器下原生llama.cpp能比ollama快大概20-50%的样子 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-19 14:37:27+08:00

llama.cpp编译问题

刚开始接触,在本地尝试自己编译,一直报asm缺失,可是我的visual studio2026也没问题啊 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-19 13:56:47+08:00

大家觉得ollama现在好用吗

其实一直有点犹豫,一开始入门用的就是ollama,简单也便捷,后面发现ollama的资源调度机制其实挺让人纳闷的,就想着能不能通过自己优化一下,问了下大模型,大模型说不如用llama.cpp 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-17 23:21:43+08:00

ollama pro额度有多少?

最近想开ollama pro,看别人说爽玩,有glm5.1的调用,不知道额度有多少 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-17 19:55:43+08:00