本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn

本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 617 篇相关文章 · 第 9 / 31 页

Elysiver站在cc-switch中如何配置codex

我看又2cx模型,之前用其他的本地代理是做了映射的如果名字是非官方的话,但是这里如果修改为5.4-2cx如何映射,直接改以下模型就行了吗还是怎么弄啊,佬友们 model_provider = “custom” model = “gpt-5.4” disable_response_

tech linux.do 2026-04-29 15:30:01+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 15:12:35+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 15:12:35+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 15:00:32+08:00

大家现在怎么把 ChatGPT / Claude / Gemini / 本地模型接进日常工作?

最近用 AI 工具越来越多,但有个感觉越来越明显: AI 本身已经够强了,真正拉开差距的可能不是"你用哪个模型",而是你有没有一套稳定的工作流。 一开始我也是把 ChatGPT / Claude / Gemini 当成高级搜索和问答工具来用: 问技术问题 写点

tech linux.do 2026-04-29 14:50:17+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 14:42:30+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 14:34:54+08:00

有佬友帮忙解释一下CPA吗?

我平常在本地开发使用ccswitch 免费蹬好多中转站刚开始的额度,包括openrouter之类的,平常开发使用claudecode,codex opencode 有vscode插件,有在终端直接使用的。最近看论坛涉及daoAI都在讨论CPA,不知道自己能不能用到,优点是什么?

tech linux.do 2026-04-29 14:17:53+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 14:09:54+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 14:09:54+08:00

本地部署模型,想开发一个自用的llm对话界面,有哪些现成的代码仓可以参考使用吗

其实就是本地化LLM模型+自定义的web,需要一个llmweb对话的前端,因为有自定义的需求,找一个满足base功能的llm对话界面做二次开发。目前用的多且简单的有哪些吗 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 12:36:33+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 12:34:37+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 12:34:37+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 12:13:52+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 12:04:14+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 12:00:23+08:00

求助: CPA 反代 codex 无法使用

我本地部署了 CPA 最新版:6.9.40,oauth 反代 codex,但是使用时失败,报错信息如上: 请问这个原因是因为啥啊佬们 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:57:50+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 11:35:38+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-29 11:35:38+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 11:14:08+08:00