CA - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第20页 - 钛刻科技 | TCTI.cn

CA - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第20页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 838 篇相关文章 · 第 20 / 42 页

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 23:33:52+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 23:33:52+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 23:33:52+08:00

在 Claude Code 中使用 GLM 5.1,怎么才能触发 prompt caching?

(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 23:25:28+08:00

[分享创造] 做了一个 local-first 的求职 AI Kanban,把求职过程中与 AI 协作的公司调研、套磁策略、面试复盘等信息都收进一张看板

最近自己也在找工作,发现一个很具体的问题:岗位来源、JD 、简历修改点、AI 对话、面试复盘经常散在浏览器标签页、文档、聊天记录和备忘录里。看起来都有记录,但真正要推进某个机会时,还是得重新翻一遍。 所以做了一个小工具:Job Kanban Live Demo: https://

tech v2ex.com 2026-04-28 23:10:40+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:54:06+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:54:06+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:54:06+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:54:06+08:00

反重力报[unknown] Failed to fetch User cancelled agent execution.

佬友们,反重力报这个是什么回事 重试好几次,换节点都没用 看了还有credit 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 22:38:16+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:37:29+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:28:45+08:00

[VPS] Scaleway 要涨价了,包含 STARDUST1-S

STARDUST1-S 从 €0,00015/hour 涨到 €0,0006/hour ,相当于每年翻 4 倍 160 元左右 https://www.scaleway.com/en/blog/a-transparent-update-on-scaleway-pricing/ B

tech v2ex.com 2026-04-28 22:16:23+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:14:29+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:10:04+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:03:09+08:00

[VPS] Scaleway 要涨价了,包含 STARDUST1-S

STARDUST1-S 从 €0,00015/hour 涨到 €0,0006/hour ,相当于每年翻 4 倍 160 元左右 https://www.scaleway.com/en/blog/a-transparent-update-on-scaleway-pricing/ B

tech v2ex.com 2026-04-28 21:47:19+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 21:37:32+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 21:21:51+08:00

有没有快速部署 Codex2Calude Code 方法?

有没有快速部署 Codex2Calude Code 方法? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 21:05:46+08:00