glm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn

glm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 612 篇相关文章 · 第 4 / 31 页

公司有内网部署的 glm 但是只提供 codebuddy 插件

如何接到 vscode 里面 没有权限安装其他软件

tech www.v2ex.com 2026-04-30 15:22:36+08:00

[问与答] 公司有内网部署的 glm 但是只提供 codebuddy 插件

如何接到 vscode 里面 没有权限安装其他软件

tech v2ex.com 2026-04-30 15:00:54+08:00

[GLM PLAN] 7天体验卡,五张抽了。没别的点个赞吧。

用官方抽奖助手, 下面评论就好了,抽五张。 2026年4月30日 18点截止 18 个帖子 - 17 位参与者 阅读完整话题

tech linux.do 2026-04-30 14:29:23+08:00

万能的L友.谁家平台的GLM5.1比较便宜一点呢?

除了Claude跟GPT,感觉就GLM好用一点了 这个是开源的 应该很多平台都部署了 但是好像也挺贵使用的,压根不怎么够用,有没有一百左右能解决管饱的GLM5.1呢 10 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-30 13:56:17+08:00

关于opencode go订阅的模型接入claude code报错解决

近期使用opencode go套餐模型更新挺快的,glm5.1 、ds v4 pro第一时间就上了,且kimi 2.6还有三倍额度。但之前都是直接在opencode中直接用的。 昨天想通过opencode go的模型接入claude code,也按照站内一些教程在cc-switc

tech linux.do 2026-04-30 10:50:34+08:00

[问与答] 智谱 GLM Coding Plan 抢不到啊!有什么姿势吗

智谱 GLM Coding Plan 天天陪跑! 请问大家有什么方式吗?

tech v2ex.com 2026-04-30 10:12:21+08:00

发一个GLM的体验卡,拼手速啦~

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-30 09:59:09+08:00

拼尽全力白嫖APIclaude半个月后,我发现,我还是回到了GLM(送116刀全顶级模型)

失去竞技场claude4.6opus-think让人再没有希望 公益API很少见思考 哪怕是付费站 大部分是反代渠道 反重力什么的 通通是代码agent 自带提示词 严重问题 在chatbox中大概率会导致自己的system提示词失效 AI无法接收 只能放到user信息里 有时不

tech linux.do 2026-04-30 03:53:38+08:00

【4个国产模型比拼 dp-pro ≈ GLM5.1】真实项目,由gpt 5.5 xh 检查判断

deepseek v4 pro ≈ GLM5.1 > MiMO-2.5Pro > DeepSeek V4 FLASH 。 一个真实的中型项目,处于开发阶段,心血来潮使用四个官方来源的API接口使用同一套提示词进行review, 然后将其检查报告发给gpt 5.5 打分

tech linux.do 2026-04-30 02:43:16+08:00

拿小米、deepseek、glm同时review gpt-5.5写的代码,小米的表现也太夸张了吧

这是gpt-5.5@xhigh一批8次提交写的爬虫-解析-落库流水线代码,流程和功能都不复杂。 因为各家模型的思考强度映射不一样,统一开了max effort。 小米耗时4分钟 全程在说对对对干得好,最后挑了点无关痛痒的代码风格小毛病。 DSV4耗时12分钟 找到了一些非关键问题

tech linux.do 2026-04-30 01:06:53+08:00

魔搭社区模型的并发是多少

最近免费的glm用的都不稳,然后突然想到国产模型还有个好地方就是魔搭社区,每天每个模型500次调用,够完成我部分的需求了。于是我就把魔搭社区作为渠道接入我的New API 里,然后在 cc 里测下能力。用是能用,但是经常 429,好像大概30秒一次,一分钟 2 次的并发这样?50

tech linux.do 2026-04-29 23:43:03+08:00

现在还有稍微稳定的能在codex或cc中用的公益站吗

工作的话公司会提供kimi和glm的套餐,主要是自己平时在家里折腾点小玩意,偶尔会用到。codex现在应该是没有了,有能用在cc的kimi2.5或者glm4.7的公益站吗 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-29 21:17:00+08:00

多人分享glm coding plan是否可以使用cloudflare的ai gateway规避检测

或者有其他的可以用的代理吗?暂时不想买服务器了 5 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 20:18:29+08:00

简单的测试了deepseek v4 pro、glm-5.1、glm-5.0、gpt-5.5 修改bug,我也是懵了

项目是一个比较大的项目,因为一个函数调用顺序导致出现的bug,使用相同的提示词描述bug和现象,gpt-5.5,4分48秒成功确认问题并修复,deepseek v4 pro 也不知道在墨迹思考啥,46分钟成功确认问题并修复,glm-5.1和glm-5.0就是瞎分析一通,说的头头是

tech linux.do 2026-04-29 18:29:35+08:00

送5张免费体验GLM 7天体验卡【已领完】

新人报道,送点体验卡吧 bigmodel.cn 智谱AI开放平台 智谱大模型开放平台-新一代国产自主通用AI大模型开放平台,是国内大模型排名前列的大模型网站,研发了多款LLM模型,多模态视觉模型产品,致力于将AI产品技术与行业场景双轮驱动的中国先进的认知智能技术和千行百业应用相结

tech linux.do 2026-04-29 17:26:17+08:00

谁才是8卡H200服务器的终极归宿,GLM-5.1-FP8 vs Kimi-2.6 vs ... ?

目前有一台闲置 H200(显存141Gb)*8 的服务器,想部署本地模型体验一波,目前考虑的有2个,GLM-5.1-FP8和Kimi-2.6,有佬深度使用过哪个更强一些吗,或者还有其他模型推荐吗 模型 架构 专家数 参数量和激活 模型权重 HuggingFace 链接 Kimi

tech linux.do 2026-04-29 17:18:26+08:00

glm 搭配 opencode 好用还是 claude code 好用!

暂时不考虑各种插件和 skill,只考虑开箱即用 glm 5.1 搭配这两个 agent,谁的效果更好? 有没有熟悉的佬友出来说说 9 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:47:21+08:00

国产ai编码哪个好用一些

GPT无了, 想转kimi或者GLM用一下,佬友们有没有用过的推荐一下 ? 11 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:43:13+08:00

买的 codex 中转陨落了,只能蹬 glm

之前买的站内某富可敌国 codex 月卡,用着很舒服,结果也逃不过最近的封号潮,陨落了 最近只能去蹬我的 glm 了,还好我是没周限的 max 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-29 15:54:30+08:00

glm怎么变🐶了,居然限制这么死,还没有国产第一呢

昨天看有佬友发帖吐槽,我作为去年入手的老用户,正常的续费起用。因为我还有copilt 和中转,所以glm是在我觉得问题不大的时候用的,没想到我挂在那里,下午就限制了,实际我没有用到5小时,而且本身glm也比较慢 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 15:44:56+08:00