lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn

lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 890 篇相关文章 · 第 11 / 45 页

今天为我的π2量化模型增加了openai兼容的API接口,可以以LLM对话的方式进行操作了

嘿嘿 昨天涨停预测第一名是利通电子 我看聊天室里 有几个佬友昨天入场了 今天是不是爽吃了 讲个笑话 4月胜率这么高 用户都在吃 我TM居然亏了 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-28 21:44:01+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 21:37:32+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 21:21:51+08:00

把郊狼接入任意LLM客户端,针对vibe coding用户

书接上回: 郊狼和codex能结合一下吗 大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本 基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而

tech linux.do 2026-04-28 21:04:53+08:00

【开源】lens | 目标是打造最强的个人LLM聚合网关系统

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-04-28 21:01:44+08:00

deepseek v4, glm5.1 哪个在cc用好

这俩二选一选哪个好?代码需求比较大,不行的话拿来处理文档的话是否合适?比如银行文档啥的。glm5.1 vs deepseek v4哪个好?貌似都是非多模态模型吧 22 个帖子 - 19 位参与者 阅读完整话题

tech linux.do 2026-04-28 18:30:30+08:00

类似litellm、newapi平台求推荐

公司主要接入bedrock,openai,Anthropic,Openrouter,火山方舟,deepseek,google vertex,都是通过官渠接入 主要需求: 通过key或者认证文件接入后可以在通过自定义key分发 控制key可以使用的模型 调用方式统一 可以看到自定义

tech linux.do 2026-04-28 17:35:10+08:00

[分享创造] 之前发了个 Conductor 开源替代品的预告,小火了一下,现在正式开源了!

大家好,我是 Helmor 的 作者 。 我们做了一个新的开源项目,叫 Helmor 。 一句话讲: Helmor 是一个开源、本地优先的 GUI coding agent 编排工具。 它的起点有点像 Conductor: 让多个 coding agent 在独立 workspa

tech v2ex.com 2026-04-28 17:15:11+08:00

[分享创造] 之前发了个 Conductor 开源替代品的预告,小火了一下,现在正式开源了!

大家好,我是 Helmor 的 作者 。 我们做了一个新的开源项目,叫 Helmor 。 一句话讲: Helmor 是一个开源、本地优先的 GUI coding agent 编排工具。 它的起点有点像 Conductor: 让多个 coding agent 在独立 workspa

tech v2ex.com 2026-04-28 17:15:11+08:00

分享一个Alaya Code的lite key (2026年5月5日到期)。

sk-6Z9ulMIOLS3VT6jP087490D02e93405591BdD9Cc061133Be 只有这些模型:kimi-k2.5,minimax-m2.1/2.5 Openai: https://codingplan.alayanew.com/v1 Anthropic h

tech linux.do 2026-04-28 16:48:27+08:00

想问下佬友们 qwen3.6 glm5.1 ds4pro 哪个综合最好

我主要考虑性价比,稳定(输出快),编程能力 大概 价格0.4 编程0.4 稳定0.2 这样的占比 11 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-28 16:42:14+08:00

想问一下各位佬,你们的api都是在claude code上面集成吗

想问一下各位佬,你们的api,比如glm5.1 claude等的api都是在claude code上面集成吗,可以跟codex一样直接对代码库进行更改吗 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 15:56:02+08:00

Claude Code 现在强制要1M上下文吗?

Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-28 13:49:57+08:00

deepseek、grok、gemini、glm

有没有佬 测试过deepseek、grok、gemini、glm这几个模型,哪个编程能力强一点,对于复杂的业务问题,我感觉gemini好像强一点,写的完整一点 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-28 13:37:28+08:00

GLM又偷偷改文档5.1限时一倍到六月底

前沿慢讯,dp4上了以后GLM感受到压力了是吧 我记得之前这个图显示是活动持续到四月底,这会到六月底了 所以根本不缺算力,只不过是特色文化 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-28 13:33:38+08:00

openclaw按次计费的站点分享

大佬们,GLM本地大模型专用于跑openclaw的模型限时体验, https://api.qwe7.cn/v1 兑换码27dde83089764b47b1efc935f79e2061 兑换码04a2b3276382499f8a3afeb151dc1cef 兑换码ed394ae82

tech linux.do 2026-04-28 12:52:53+08:00

咨询一下各位老 GLM 老 lite 续费的问题

上个月续费了一个 glm 的老 lite 套餐,今天结束到期了,但是老的 lite 是不是月底才有续费优惠?如果我今天不续费买新套餐,是不是就得跟着大家去抢了? 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-28 12:37:13+08:00

newapi可以实现ChatCompletions转Responses吗

newapi可以实现ChatCompletions转Responses吗 想把自己买的glm coding plan还有各位大佬提供的公益导入newapi 实现聚合渠道以及ChatCompletions转Responses 然后给codex用,现在卡在ChatCompletion

tech linux.do 2026-04-28 11:00:45+08:00

火山方舟的coding plan lite额度消耗太不清晰了

用GLM-5.1给编排个任务,让它输出成md,额度直接给干掉80%。 本来它的5小时额度就不合理,别家都是采用的滑窗,它的是固定窗口,再加上调用次数不透明,太难受了。 我提工单去询问,直接给回复这是内部统计,不方便提供倍率数据 smiling_face_with_tear: 3

tech linux.do 2026-04-28 10:45:56+08:00

求一个可以用GLM4.7的公益站或者api途径

公司内网部署的glm4.7,只能基于glm4.7去测试一些skill,但是内网测试不太方便,求一个外部可用渠道,感谢 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-28 10:26:00+08:00