LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn

LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 896 篇相关文章 · 第 10 / 45 页

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:52:54+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:21:08+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:11:43+08:00

[分享创造] AnyChat-在任何文本框中和 LLM 进行交流

可能是最无感的 LLM 客户端,使用快捷键可以在 macOS 上的任何输入框中使用 AI 立即重写,润色或转换文本,而无需切换应用程序。 核心用法演示见视频: https://update.hx-std.com/anychat/iterm2.mp4 软件下载地址: https:/

tech v2ex.com 2026-04-29 01:02:59+08:00

[分享创造] AnyChat-在任何文本框中和 LLM 进行交流

可能是最无感的 LLM 客户端,使用快捷键可以在 macOS 上的任何输入框中使用 AI 立即重写,润色或转换文本,而无需切换应用程序。 核心用法演示见视频: https://update.hx-std.com/anychat/iterm2.mp4 软件下载地址: https:/

tech v2ex.com 2026-04-29 00:02:59+08:00

样子一点点变好看了

NotebookLM 给的PPT样式,看完心凉半截 xiaomi MiMo-V2.5-Pro 给的html文件 workbuddy(UI设计师)美化版: 平平无奇的提示词:这个页面怎么优化更好看 NotebookLM给的那一版都没改的动力,现在越改越兴奋 1 个帖子 - 1 位参

tech linux.do 2026-04-28 23:57:32+08:00

[分享创造] AnyChat-在任何文本框中和 LLM 进行交流

可能是最无感的 LLM 客户端,使用快捷键可以在 macOS 上的任何输入框中使用 AI 立即重写,润色或转换文本,而无需切换应用程序。 核心用法演示见视频: https://update.hx-std.com/anychat/iterm2.mp4 软件下载地址: https:/

tech v2ex.com 2026-04-28 23:51:47+08:00

[分享创造] AnyChat-在任何文本框中和 LLM 进行交流

可能是最无感的 LLM 客户端,使用快捷键可以在 macOS 上的任何输入框中使用 AI 立即重写,润色或转换文本,而无需切换应用程序。 核心用法演示见视频: https://update.hx-std.com/anychat/iterm2.mp4 软件下载地址: https:/

tech v2ex.com 2026-04-28 23:42:48+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 23:33:52+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 23:33:52+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 23:33:52+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 23:33:52+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 23:33:52+08:00

在 Claude Code 中使用 GLM 5.1,怎么才能触发 prompt caching?

(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 23:25:28+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:54:06+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:54:06+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:54:06+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:54:06+08:00

LiteLLM 存在 SQL 注入漏洞,无需凭证即可读取 API 密钥

LiteLLM 存在 SQL 注入漏洞,无需凭证即可读取 API 密钥 LiteLLM 是一个大模型统一接口库,其 Proxy 组件被发现存在 SQL 注入漏洞(CVE-2026-42208)。攻击者无需任何有效凭证,通过构造 Bearer token 即可在认证失败的错误日志中

tech linux.do 2026-04-28 22:48:55+08:00

LiteLLM 存在 SQL 注入漏洞,无需凭证即可读取 API 密钥(影响版本:>= 1.81.16, < 1.83.7)

废话少说:litellm又爆了 https://mp.weixin.qq.com/s/ytNWdqGECo0fmWwPQGqy8A 摘要 (点击了解更多详细信息) LiteLLM has SQL Injection in Proxy API key verification ·

tech linux.do 2026-04-28 22:45:56+08:00