用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了
https://github.com/antirez/llama.cpp-deepseek-v4-flash
本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 618 篇相关文章 · 第 10 / 31 页
https://github.com/antirez/llama.cpp-deepseek-v4-flash
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
这也是我的主力终端工具 ssh好用到爆炸,本地agent可以在ssh里直接使用不用在远程机器上安装 github.com GitHub - warpdotdev/warp: Warp is an agentic development environment, born... W
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
功能亮点 完全本地推理与存储,不依赖网络 不依赖 GPU ,CPU 速度飞快 功能介绍 CPU 飞快 i5-11400H:30min 的音频 1min 就能处理完(五年前的 CPU ) i5-4210m:30min 的音频 3min 就能处理完(十年前的 CPU ) 实时识别 支
功能亮点 完全本地推理与存储,不依赖网络 不依赖 GPU ,CPU 速度飞快 功能介绍 CPU 飞快 i5-11400H:30min 的音频 1min 就能处理完(五年前的 CPU ) i5-4210m:30min 的音频 3min 就能处理完(十年前的 CPU ) 实时识别 支
https://github.com/antirez/llama.cpp-deepseek-v4-flash
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
功能亮点 完全本地推理与存储,不依赖网络 不依赖 GPU ,CPU 速度飞快 功能介绍 CPU 飞快 i5-11400H:30min 的音频 1min 就能处理完(五年前的 CPU ) i5-4210m:30min 的音频 3min 就能处理完(十年前的 CPU ) 实时识别 支
各位佬,本人两年经验Java全栈程序员,现在已经3年没做过代码了有点脱节,想咨询一下关于本地部署大模型 目前deepseek v4 和qwan 3.6 还有gemini 的蒸馏版本 那个更强一点呢 5 个帖子 - 5 位参与者 阅读完整话题
https://github.com/antirez/llama.cpp-deepseek-v4-flash
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
https://github.com/antirez/llama.cpp-deepseek-v4-flash
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单: