lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第44页 - 钛刻科技 | TCTI.cn

lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第44页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 934 篇相关文章 · 第 44 / 47 页

优化LLM的prompt(实际上是skill)好折磨啊?佬友们有没有什么技巧或者好法子?

如题,每次优化一手,然后先等agent跑个20-1小时,看看结果,然后花10分钟优化一下,然后再跑,折磨。各位有没有什么好法子吗? 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-20 02:08:42+08:00

无敌了智谱,偷偷给我路由到 glm-4.7

先声明一下,我是 max 老用户 就不说上周一直 429 的事了。 这周简单用了一下,发现速度和之前比不是一般的快,还以为改性了。 心血来潮上传 https://token.poco-ai.com 看一下 token 用量。 结果如图,这是这周的 token 用量,glm-5.1

tech linux.do 2026-04-20 02:03:54+08:00

[推广] [抽奖] MuskAI 抽 2 个 Codex 周套餐, GLM & Kimi & Codex & Claude

明天中午 13:30 开奖 评论参与,中奖私信我领 Muskai - GLM5 & Claude & Codex 套餐按量中转 https://muskpay.top/ https://muskapi.com/ 限量邀请 Claude MAX 支付卡,可 U 充值

tech v2ex.com 2026-04-20 01:20:55+08:00

智谱到底在搞什么啊

今天晚上开开心心装了hermes,想着前几天帐号解禁了,用glm5.1试试看效果。没想到又给我封了,还是30天。搞什么啊,想禁就禁。我将16号解禁的时候发了hi测试一下,其他后面都没有用,这也禁 10 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-20 01:05:27+08:00

[推广] [抽奖] MuskAI 抽 2 个 Codex 周套餐, GLM & Kimi & Codex & Claude

明天中午 13:30 开奖 评论参与,中奖私信我领 Muskai - GLM5 & Claude & Codex 套餐按量中转 https://muskpay.top/ https://muskapi.com/ 限量邀请 Claude MAX 支付卡,可 U 充值

tech v2ex.com 2026-04-20 00:20:55+08:00

求解答:LLM 量化后与原模型对比的区别

GLM 5.1 根本抢不到,这里有一个渠道是量化的,但是我不知道量化精度带来的影响。 求解答,谢谢! 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-19 23:45:48+08:00

个人使用的全局AGENTS.md分享

我的环境:主要使用GPT和GLM系列模型,在Windows通过Codex、OpenCode和CodeBuddy CLI编码 说明内容注释在文档内 仅供参考,请根据实际情况调整 # AGENTS 文档 ## 原则优先级 安全性 = 正确性 > 最小变更 > 可读性 &g

tech linux.do 2026-04-19 23:22:01+08:00

大佬们,怎么样可以用wong佬公益站的GLM之类的模型啊,孩子CC和gpt都用不了

想先用用其他的国模,但是不知道怎么用,然后找到了CCR这样的一个项目,但是我上个月安装测试是还可以,现在不知道为什么,直接打不开了, 13 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-19 22:52:55+08:00

不懂就问,在newapi里面接入glm coding plan,调用模型遇到报错1210如何解决

如图所示,部署了newapi站点之后,添加渠道在这里使用了Anthropic Claude的类型,使用的URL是 https://open.bigmodel.cn/api/anthropic ,实际使用过程中发现glm-5-turbo可以使用,但glm-5v-turbo偶尔会报错

tech linux.do 2026-04-19 21:57:36+08:00

[Local LLM] 本地部署靠不靠谱?

在 mac studio 、395 Max 和 DGX Spark 这几种设备考虑 本地部署的 coding 能力和效果,能接近 gpt-5.3-codex 吗? 如果本地部署的 coding 能力可以,我感觉可以让牛逼的模型 API 来创建分解任务,然后让本地执行。

tech v2ex.com 2026-04-19 19:34:42+08:00

AGI应当具有“电路可塑性”,类似生物大脑的神经可塑性,才能比现在的LLM廉价、节能

写科幻小说时突然领悟:现有LLM可在软件层面更新权重参数;但计算机出厂后,硬件物理结构就固定不变;电子只能流动在预制的固定电路,大量能量浪费在存储器与运算器之间传输数据。 生物大脑节能高效,原因之一是神经细胞可以自行生长、消退,传输神经信号时同步调整突触连接强度、神经回路。 因此

tech linux.do 2026-04-19 19:22:47+08:00

GLM Coding Plan 7天体验卡 * 7 张

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-19 19:06:37+08:00

ollmam pro体验

看到能用国产的开源模型 主要冲着glm-5.1去的,开了个pro套餐 体感咋说呢,错峰避开太平洋对面的高峰期吧 这个是这里的晚上,对面白天的使用速率 简直简直慢到令人离谱 随便一个自动探测,一个hi, 6个token,动不动一分多两分钟 白天体验,只能说还行吧 ps: 额度说明:

tech linux.do 2026-04-19 17:58:51+08:00

glm5.1可以画图?

不知道是GLM5.1的能力还是华为的Code arts的能力 今天依旧是Linux Do收藏夹爆满的一天 用ai搓了个Chrome插件,发现自己画了LOGO 7 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-19 17:27:48+08:00

请问购买GLM、Claude的方式有哪些

有使用过公益站感觉很不稳定,想要付费的,然后性价比高一点的,可以少花点时间折腾 (一直以来都是用公司的claude,自己家里也想搞一搞,发现自己对这块不是很了解,希望各位佬不吝赐教 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-19 17:14:34+08:00

GLM最近怎么样

低价codex几乎似完了,现在某鱼都是改倍率/改价格/限制并发着卖,非常难受,买了10刀的claude五分钟就用完了 现在国内的ai咋样,像kimi或者glm,之前用glm5.1一天下午发几个请求就限速,智商还低的不得了,只有早上能用说是。想咨询一下佬友现在glm情况咋样了,还有

tech linux.do 2026-04-19 16:50:08+08:00

z.ai agent报错 直接给我拒之门外了

glm5.1 逆天 我就发了一个40字搜索请求(纯文字) 重试了5次,全报错(都是图一的那种) 刷新一下就不给玩了 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-19 15:26:54+08:00

有没有比较好的逆向国产coding plan的方案和渠道

比如逆哪个平台等等。我觉得GLM5.1真的挺不错的,但是奈何太贵了。 哪怕不coding,只是接到我们团队自己内部用的小产品内部,一天都能花200多 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-19 14:44:34+08:00

【CPA】初来乍到~分享个反代的GLM5.1吧~嘻嘻~

"env": { "ANTHROPIC_AUTH_TOKEN": "sk-linuxdo-free-meow~meow~", "ANTHROPIC_BASE_URL": "https://c

tech linux.do 2026-04-19 14:13:38+08:00

GLM七日体验卡,3张【已无】

话不多说,直接上链接 智谱AI开放平台 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-19 11:13:24+08:00