lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第20页 - 钛刻科技 | TCTI.cn

lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第20页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 898 篇相关文章 · 第 20 / 45 页

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 16:28:27+08:00

我的爱马仕调教的太好了,一个指令咣咣干掉1/3 的 team 5 hour 额度

之前用GLM 5.1 一个指令动不动就能跑30分钟!换team,一个指令也干了十几分钟,但是token也干的太快了。吃不消。 image|654x285 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 15:28:34+08:00

codex的前端小技巧

新人加入L站,分享个前端开发小技巧: 鉴于gpt短期的前端能力相较于gemini等llm相对不足,在当前可以提供一个曲线救国的思路: 利用google当前的较高的stitch调用次数(无论是否pro账号),可以白嫖高质量的特调gemini的前端开发能力,配合目前高质量的aweso

tech linux.do 2026-04-26 15:21:58+08:00

还得是 Claude

我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多

tech www.v2ex.com 2026-04-26 14:29:56+08:00

[程序员] 还得是 Claude

我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多

tech v2ex.com 2026-04-26 14:29:56+08:00

[程序员] 还得是 Claude

我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多

tech v2ex.com 2026-04-26 13:23:50+08:00

还得是 Claude

我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多

tech www.v2ex.com 2026-04-26 13:23:50+08:00

[程序员] 还得是 Claude

我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多

tech v2ex.com 2026-04-26 13:23:50+08:00

[程序员] 还得是 Claude

我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多

tech v2ex.com 2026-04-26 13:23:50+08:00

论文中的ER图

使用的 draw.io 的官方 skill,只有 gemini 和其他 使用 deepseek,glm,kimi,qwen,opus,都是下面这个样,布局杂乱重叠 (点击了解更多详细信息) gemini 重绘一次效果 (点击了解更多详细信息) 7 个帖子 - 6 位参与者 阅读完

tech linux.do 2026-04-26 13:22:49+08:00

火山方舟coding plan的GLM-5.1疑似掺水,更像GLM-4.7

听说火山的Coding Plan有GLM-5.1,我又一直都是GLM-5.1的重度用户,果断就去购买了200的月套餐,但是从切换成火山的glm-5.1后,感觉明显降智,沟通一个问题,根本不去读代码也不分析,就是一顿乱改,感觉像是之前用glm-4.7的感觉。我刚开始觉得可能只是错觉

tech linux.do 2026-04-26 13:12:49+08:00

[程序员] 还得是 Claude

我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多

tech v2ex.com 2026-04-26 12:49:10+08:00

本科生科研提问:导师让我想一下后续做什么方向,想请教一下各位

导师让我想一想接下来自己想做什么方向的内容。 导师是做graph+llm的。我对这个大的研究方向也不太好拿捏,不知道怎样才能选一个研究方向 导师大概给了两个: Agent Memory GFM:Graph Foundation Model(Graph + LLM也算) 导师主要是

tech linux.do 2026-04-26 12:48:40+08:00

OMO中是否可以加入deepseekv4 为西西弗斯

各位佬友,我现在手上有GLM5.1,kimik2.6,gpt5.5 请问哪一个更适合当西西弗斯,或者指挥者?我想看deepseekv4的世界知识好像不错,不知道如何发挥他的长处,有没有佬友尝试过了,可以交流一下吗? 我现在刚上手omo 3天,发现omo整体流程很重,模型不太愿意开

tech linux.do 2026-04-26 12:33:21+08:00

[程序员] 还得是 Claude

我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多

tech v2ex.com 2026-04-26 12:25:28+08:00

[程序员] glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech v2ex.com 2026-04-26 12:25:08+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 11:33:27+08:00

glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech www.v2ex.com 2026-04-26 11:25:08+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 10:57:35+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 10:38:59+08:00