能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
ing - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第22页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2199 篇相关文章 · 第 22 / 110 页
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
Copilot 将全面转向按量计费(Usage-Based Billing)。生效日期:6月1日。 天塌了 2 个帖子 - 2 位参与者 阅读完整话题
一直用 codex ,但黑车坐不上了,plus 套餐马上也到期。 昨天评测了下 mimo 2.5 pro 和 deepseek v4 ,基本也都满足需要。 付费了 opencode go 套餐,量非常大。 但问题来了: 1.opencode 不支持接入现在的 codex 工具,协
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
错误提示:请求失败: 上游 HTTP 400: {“error”:{“code”:“1213”,“message”:“未正常接收到prompt参数。”}} 客服回答: 您好,如您当前情况您看是否可以辛苦您尝试将您的工具的Thinking mode模块如有您暂时关闭一下呢,从您的入
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
上线一个自己做的 vibe coding 小网站: 神马图鉴 。 它是一个面向 AI 生图的个人灵感图鉴,主要用来收藏、整理和复用我喜欢的图片与 prompt。 首页是瀑布流图鉴,可以快速浏览不同风格的作品;每张图点开后,可以看到原图、提示词、模型信息、比例、标签和复制入口。对我
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
我在vibe coding 过程中使用到了gpt,glm等各种模型,每次切换模型时都要去codex配置文件中去更改对应的模型地址和key非常麻烦,更改完之后在 vscode codex插件中上次使用的对话上下文也无法正常使用,必须重新开一个才能解决,使用起来很不爽,然后也无法统计
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
早上看了一下cc出了 v2.1.122 版本,简单说下比较有用的更新 修复了 settings.json 中格式错误的 hooks 条目不再导致整个文件失效的问题 优化了 /mcp 在 MCP 服务器经过浏览器登录流程后仍未授权时显示的消息说明 这次更新针对Bedrock做了多个
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
IT之家 4 月 29 日消息,蚂蚁集团旗下的百灵大模型今日宣布, Ling-2.6-flash 正式开源 。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。 Ling-2.6-flash 是一款总参数量 104B、激活参
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
由于前边已经在flutter实现了 easytier的集成 ,现在想着基于已有的效果再试试局域网内的手机远程控制,顺便看看雷总的mimo 2.5 pro 咋个样 如果真的能实现的话,可能很多不是特别困难的任务,以后就都可以交给国内模型了 5 个帖子 - 2 位参与者 阅读完整话题
参考 bolt.new / v0 做的浏览器版 Coding Agent 。 没用任何 Agent 框架,ReAct 循环、E2B 沙箱、中间件、MCP 全自己写。 体验: https://code-artisan-production.up.railway.app/ 代码: h