[Local LLM] 用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了
https://github.com/antirez/llama.cpp-deepseek-v4-flash
llama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 54 篇相关文章 · 第 2 / 3 页
https://github.com/antirez/llama.cpp-deepseek-v4-flash
官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账
官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账
官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账
官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账
官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账
官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账
官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账
9 个帖子 - 6 位参与者 阅读完整话题
刚去刷新ollama 发现也出来这个deepseek v4 pro 可以使用了 1 个帖子 - 1 位参与者 阅读完整话题
官方api昨天花了100 如果考虑大量用 这个是最优解吗? 12 个帖子 - 9 位参与者 阅读完整话题
貌似是因为有bug所以迟迟不上 13 个帖子 - 7 位参与者 阅读完整话题
如下图所示是我在做的一个ios游戏逆向,我使用的是论坛里佬友的ccgui项目( https://linux.do/t/topic/1959236/463)ollama cloud pro订阅(20刀每月)+glm5.1,也使用过kimi k2.6 目前进行逆向来说没有任何反驳没有
我是windows上llama.cpp部署的,先看效果图。 这里面,我用的模型是 unsloth 量化的 Qwen3.6-35B-A3B-UD-IQ1_M 模型。 得益于其超强的量化,整个模型可以完美装在 2080ti 11g 显存里面,用 q4 量化上下文可以跑到128k 的上
以前用命令行为每个模型启动一个 llama-server ,管理起来挺麻烦的,尤其是切换模型看日志的时候。 最近写了个 Web 管理工具,核心功能: 多实例管理 - 同时运行多个 llama-server ,通过卡片管理 实时日志 - SSE 推送,启动/停止自动切换到对应实例
早上起来拉取了一下ollama cloud的模型列表,惊喜的发现v4pro已经上了,连忙测试了一下,发现速度也快的惊人,让人很是喜悦啊! 但很快我就发现不对劲,不管是太阳系模拟还是魔方居然都无法好好完成,跟我用deepseek官方测试的简直是天壤之别 然后我意识到了,不会是压根没
大家快去看看 deepseek-v4-flash 模型 1 个帖子 - 1 位参与者 阅读完整话题
ollama cloud的GLM 5.1能够接入vscode copilot使用吗?我用了cloud模型,聊天框有输出,不能够直接修改项目代码。 2 个帖子 - 2 位参与者 阅读完整话题
模型卡片: deepseek-v4-flash 1 个帖子 - 1 位参与者 阅读完整话题
去年DeepSeek R1出的时候,还出了好几个蒸馏小模型,基座是qwen2.5和llama3,现在v4也有思维链,大概不会有R2了,正好前端时间qwen3.5和qwen3.6出了,不知道会不会继续搞蒸馏小模型,当然最好是直接拿v4 pro做个小模型 1 个帖子 - 1 位参与者