本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn

本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 618 篇相关文章 · 第 10 / 31 页

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 11:14:08+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 11:04:53+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 10:50:11+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 10:49:25+08:00

warp开源了,3个小时快3w star

这也是我的主力终端工具 ssh好用到爆炸,本地agent可以在ssh里直接使用不用在远程机器上安装 github.com GitHub - warpdotdev/warp: Warp is an agentic development environment, born... W

tech linux.do 2026-04-29 10:17:59+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 10:15:02+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 10:15:02+08:00

[推广] windows 离线语音转文本、语音转文本、实时字幕工具

功能亮点 完全本地推理与存储,不依赖网络 不依赖 GPU ,CPU 速度飞快 功能介绍 CPU 飞快 i5-11400H:30min 的音频 1min 就能处理完(五年前的 CPU ) i5-4210m:30min 的音频 3min 就能处理完(十年前的 CPU ) 实时识别 支

tech v2ex.com 2026-04-29 10:07:23+08:00

[推广] windows 离线语音转文本、语音转文本、实时字幕工具

功能亮点 完全本地推理与存储,不依赖网络 不依赖 GPU ,CPU 速度飞快 功能介绍 CPU 飞快 i5-11400H:30min 的音频 1min 就能处理完(五年前的 CPU ) i5-4210m:30min 的音频 3min 就能处理完(十年前的 CPU ) 实时识别 支

tech v2ex.com 2026-04-29 10:07:23+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 10:02:42+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 09:55:10+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 09:51:37+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 09:31:12+08:00

[推广] windows 离线语音转文本、语音转文本、实时字幕工具

功能亮点 完全本地推理与存储,不依赖网络 不依赖 GPU ,CPU 速度飞快 功能介绍 CPU 飞快 i5-11400H:30min 的音频 1min 就能处理完(五年前的 CPU ) i5-4210m:30min 的音频 3min 就能处理完(十年前的 CPU ) 实时识别 支

tech v2ex.com 2026-04-29 09:22:46+08:00

关于本地部署大模型求助

各位佬,本人两年经验Java全栈程序员,现在已经3年没做过代码了有点脱节,想咨询一下关于本地部署大模型 目前deepseek v4 和qwan 3.6 还有gemini 的蒸馏版本 那个更强一点呢 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-29 08:47:47+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 07:02:07+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 05:57:02+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 04:57:02+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 03:57:42+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 03:57:02+08:00