lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn

lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 874 篇相关文章 · 第 5 / 44 页

关于国产CodingPlan选择替代和避雷。

L油优先选择有GLM5.1或者Kimi-K2.6的,但需要要避雷字节的ARK方舟Plan,我买了一个季度结果踩坑了。第一个是限额,说是按次数实际上是Token,然后不同模型还要乘上高倍率系数,这些在我买之前都是没有说明的(现在加上了),经常跑一个任务还没跑完就到限额了。 第二个是

tech linux.do 2026-05-01 17:04:00+08:00

旧金山初创公司 Goodfire 和他们用于调试 LLM的 Silico 工具

MIT Technology Review This startup’s new mechanistic interpretability tool lets you debug LLMs Goodfire wants to make training AI models mor

tech linux.do 2026-05-01 16:52:36+08:00

like father like son,人类是不是要退化成早期llm了

越来越少的human in the loop 越来越弱的human gateway 功能 口齿渐渐地不清,吞噬了过多llm的语料 甚至质量参差不齐,就像重蹈自己生成自己学的灾难性结果( ) 更别提伤害身体导致的计算能力下降说是 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-01 16:06:42+08:00

[分享创造] 上线了一个 LLM wiki 网站,基于 Karpathy 的理念,让 AI 帮你维护私人知识库

前阵子 Karpathy 写了一篇 关于 LLM Wiki 的文章 ,当时看了感觉挺有启发。 不过 AI 领域真实一天一个样子,变化太大了……可能有人没看到就被埋了,我再简单整理一下。 它讲的不是传统 RAG 那种“上传一堆文档,然后每次提问时临时检索几段内容”的方式。 他的核心

tech v2ex.com 2026-05-01 14:53:49+08:00

xiaomi的这个模型太溜了,答非所问

Code from langchain_openai import OpenAI llm = OpenAI( model="mimo-v2.5-pro", api_key=XIAOMI_API_KEY, base_url=XIAOMI_API_URL, tem

tech linux.do 2026-05-01 14:09:20+08:00

GLM新政第一天,我怎么没用就不动了呢?

GLM新政第一天,我怎么没用就不动了呢? 一直不动30m 13s · ↓ 2 tokens) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-01 13:51:01+08:00

基于DS4proTokenizer和GLM5.1Tokenizer的单次性能测试

3月入了L站后接触到了codex后,觉得以前使用古法chat模式做开发真的是太惨了,同时内心中压抑的很久的想法终于压制不住了,于是在4月19,创建了一个llm工程。工程的作用是什么呢,对,就是妄图在gpt的帮助下手搓一个llm。因为当时最强的开源国模,就是glm5.1,而且还是m

tech linux.do 2026-05-01 13:31:33+08:00

[问与答] 哪里有第三方部署的 GLM5.1 卖编程套餐吗?

官方的微信群里天天说卡顿报错,买也买不到,想试试看效果怎么样

tech v2ex.com 2026-05-01 11:11:48+08:00

mimo/deepseek/kimi求佬友横评

哈哈哈这次就不提glm5.1了毕竟发布早了点性能没人家好也正常。 剩下这仨各位佬友体验下来哪个好用呢? codex很聪明但是不给我做逆向,甚至直接把我脚本里的相关逻辑给删了,属实逆天。 所以考虑mimo/deepseek/kimi这三个+cc试试。 这两天试了试dsv4pro,有

tech linux.do 2026-05-01 09:04:58+08:00

终于让我碰到删文件惨案了.

火山的coding plan. 用GLM5(巨慢), SubAgent用的doubao-seed-2.0-code. 跑了一天的活, 最后咔嚓一下给删除了. 今天白干了. 还真是不能随便给accept edits on. 吸取教训吧… 脑壳疼. 3 个帖子 - 3 位参与者 阅读

tech linux.do 2026-05-01 03:08:53+08:00

有没有大佬说说glm和dsv4pm哪个好点(

现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-05-01 01:38:49+08:00

我是ai嘉豪

别人:普号,plus,team,education…… 我:Pro 就很。。。 别人: DeepSeek glm kimi 我:GPT Claude Gemini 就很。。。 别人: 我: 别人: 我: 别人: 我: 就很。。。 就很。。。 就很。。。 卧槽这个句式真是太好玩了

tech linux.do 2026-05-01 01:36:28+08:00

这个grillme还真有点东西

我把grillme的机制融入到了我的cs-brainstorm里了,然后我发现了一个很好用的用法。 情景就是:我确实很有想法,想法多到我自己都记不住,这样的话我很难完整地交代给AI。grillme就能让AI一直问,然后我一直输出,太爽了太爽了。 爽到最后AI都说要不要停一停去开干

tech linux.do 2026-04-30 23:25:50+08:00

VLM判断物体朝向居然是一个有点困难的问题?

有两个角度的图片 有一个答对概率高一点 这个答对概率比较高 这个答对概率很低 实测qwen的全家桶都全军覆没 谷歌的开源模型,3flash也无法解决 问题是:椅子是否朝向桌子 qwen和gemini的失败 gemini3.1pro也不行 chatgpt免费版也不行 出乎意料的是豆

tech linux.do 2026-04-30 20:24:33+08:00

glm一到下午就429,太影响体验了

目前主力是claude 20x 搭配一个gpt20x ,glm用来做循环任务,还是有点不够,佬们有推荐的吗 12 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-30 19:40:12+08:00

glm5.1终于向免费用户开放|智谱清言上线全新简洁风格首页|Agentmore模式限免上线

还是非常不错的样子 终于修复了我手机的dpi会影响到画面尺寸的问题(会变成电脑比例 按钮&文字变得很小) 关键是终于能用5.1了 只支持网页版 应用没有 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-30 17:34:14+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:29:02+08:00

【Vibe】想要一个聚合式代理/中转解决方案

题主现在vibe主要在用GLM、Mimo、Qwen基座下的Claude Code。三者优先级依次递减,根据前一个的coding plan有没有击穿决定是否启用后一个。 这种情况下问题就很显然了,每次都要重配环境变量。 (因为三个模型base url就不一样,因此不能通过配sonn

tech linux.do 2026-04-30 16:18:01+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:01:10+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 15:54:30+08:00