[Local LLM] 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 25 篇相关文章 · 第 2 / 2 页
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
发现Fcitx5中自带了各种双拼: 查了查才知道这么好用。So,推荐去学吗? 16 个帖子 - 15 位参与者 阅读完整话题