Podman Quadlet 配置分享:AxonHub
AxonHub 是论坛佬友开源的 AI Gateway。 配置 # axonhub.pod [Pod] PublishPort=8090:8090 UserNS=keep-id [Install] WantedBy=default.target # axonhub.contain
开源 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1054 篇相关文章 · 第 19 / 53 页
AxonHub 是论坛佬友开源的 AI Gateway。 配置 # axonhub.pod [Pod] PublishPort=8090:8090 UserNS=keep-id [Install] WantedBy=default.target # axonhub.contain
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 100%由 AI 生成。 我试了下,真不好用,纯 AI 生成的工具真垃。
因为可能有人问,所以我提前回答:相比 cc-switch 没有任何优势,只是又一个自娱自乐罢了。 https://github.com/sha2kyou/ClaudePilot
https://www.warp.dev/blog/warp-is-now-open-source
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
rt,昨天晚上吃完晚饭水群突然发现老学长把模型开源还送福利了,想着不薅白不薅的道理就火速申请了。现在都快第二天中午了还没看到动静,邮箱空空如也,是小米觉得我提交的东西太少嫌我太菜了吗,我看好多佬友一两个小时甚至几十分钟就收到了 10 个帖子 - 7 位参与者 阅读完整话题
https://www.warp.dev/blog/warp-is-now-open-source
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
这也是我的主力终端工具 ssh好用到爆炸,本地agent可以在ssh里直接使用不用在远程机器上安装 github.com GitHub - warpdotdev/warp: Warp is an agentic development environment, born... W
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
github.com GitHub - warpdotdev/warp: Warp is an agentic development environment, born... Warp is an agentic development environment, born ou
我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:
各位 V2EXer ,最近在 Claude Code 的加成下,生产率有点爆棚,和大家分享一下自己折腾的东西: 起因 最近一年 CLI agent 火起来了,Claude Code 、OpenClaw 、Hermes 这一类,本质上都是个人助理形态: memory 是 markd
如题求个能调用第三方接口的视频工作台我要做的是多个参考图片生成视频类似景区宣传视频那种不需要人物 即梦老是说我违规其他找到的不太好用 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 29 日消息,蚂蚁集团旗下的百灵大模型今日宣布, Ling-2.6-flash 正式开源 。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。 Ling-2.6-flash 是一款总参数量 104B、激活参
地址: https://crontab.cv/zh 仓库: https://github.com/chenz24/crontab.cv ( MIT ) AI 写 cron 表达式已经不是问题,但一串符号摆在那里总归不直观。 可视化的界面让人看一眼就懂,体验也更顺,于是 vibe
IT之家 4 月 29 日消息,在第九届数字中国建设峰会召开前夕,鸿蒙生态峰会(以下简称“峰会”)在福州海峡国际会展中心成功举办。 开放原子开源基金会理事长谢少锋在致辞中分享了一组数据:开源鸿蒙自华为捐赠至开放原子开源基金会以来实现快速发展, 社区代码量已突破 1.3 亿行,贡献