lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第31页 - 钛刻科技 | TCTI.cn

lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第31页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 925 篇相关文章 · 第 31 / 47 页

腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech www.v2ex.com 2026-04-22 21:35:04+08:00

Qwen3.6-27B出了

Qwen3.6-27B出了。。。。 GitHub GitHub - QwenLM/Qwen3.6: Qwen3.6 is the large language model series developed... Qwen3.6 is the large language mode

tech linux.do 2026-04-22 21:32:14+08:00

为什么感觉hello2cc+glm5.1的文笔要比codex gpt5.4好不止一点

有佬友有同样的感觉吗?为啥在同一套全局提示词+用户提示词的情况下,用codex上的gpt5.4写出来的东西内容更加空洞、不连贯且ai味重呢(不是,而是 … 11 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-22 21:08:14+08:00

智谱(GLM)果然学习了阿里, 强制关闭了老用户套餐的自动续费

上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了

tech www.v2ex.com 2026-04-22 20:47:31+08:00

智谱(GLM)果然学习了阿里, 强制关闭了老用户套餐的自动续费

上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了

tech www.v2ex.com 2026-04-22 20:47:31+08:00

智谱(GLM)果然学习了阿里, 强制关闭了老用户套餐的自动续费

上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了

tech www.v2ex.com 2026-04-22 20:34:49+08:00

国内大模型,写代码优先推荐哪几个?glm5用着用着就超时了

国内大模型,写代码有推荐的吗,glm5用着用着就超时了,不知道哪些用着比较舒服 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 20:24:47+08:00

有什么适合用来文生图和改图的本地LLM聊天客户端吗?

这不是各种中转站开始陆续上gpt-image-2了嘛,最近想玩玩文生图了,然后我就又要面对本地LLM客户端的一堆问题了。 CherryStudio我早就不用了,臃肿到离谱,但是你别说,它的文生图功能确实强大,不是说多好用,而是至少能用; Kelivo的UI太…朴素了,我感觉作者今

tech linux.do 2026-04-22 20:16:51+08:00

GLM现在一个token都吐不出来了

你们官方的GLM能用吗,我MAX版本,现在token都吐不出来了,高峰卡成这样,不给个说法吗? 18 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-22 19:59:25+08:00

[Local LLM] 用 DGX Spark 做这些事情,是否能力合适/足够,有佬能解答吗?(估算也行)

这东西我都没见过实物,在 USA 的同学有一台,但是他上线后应用的事情都快拉爆了,暂时没空测我的想法,只能想象着来问一下这里各位佬了: C++,Python 的代码 review; 根据提示词,处理 MySQL 返回来 8k~13k 条已成 JSON 的数据提取;(字段和内容不多

tech v2ex.com 2026-04-22 19:28:26+08:00

[Local LLM] 用 DGX Spark 做这些事情,是否能力合适/足够,有佬能解答吗?(估算也行)

这东西我都没见过实物,在 USA 的同学有一台,但是他上线后应用的事情都快拉爆了,暂时没空测我的想法,只能想象着来问一下这里各位佬了: C++,Python 的代码 review; 根据提示词,处理 MySQL 返回来 8k~13k 条已成 JSON 的数据提取;(字段和内容不多

tech v2ex.com 2026-04-22 19:28:26+08:00

我也分享一下kimi-k2.6,glm-5.1,gpt-5.4和sonnet-4-6的python小项目对比

昨天看了 @smallmain 佬的k2.6真实项目评测,发现语言选择可能会造成结果不太一样,正好最近要开一个新项目,想着用不同模型来初始化一下对比看看。 我在的公司是个极其小众行业的公司,北美个位数的同行,全球不超20家同行,技术栈很杂乱,上古项目有delphi,foxpro,

tech linux.do 2026-04-22 18:45:57+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

运用claude+skills和notebook lm,自动化搜索热门视频并生成本地蓝图或者文档。

第一步 pip install notebooklm-py# 这是一个github的项目 不知道是不是L站大佬谁写的,直接克隆下来运用太复杂了,不如都交给ai处理 pip install “notebooklm-py[browser]” playwright install ch

tech linux.do 2026-04-22 18:14:10+08:00

不是为资本说话. 但是GLM5.1全量部署一个至少要几十万成本吧

rt, 首先声明我不懂行, 都是在站内看到的 根据我看到的信息, 我认为几十万成本估计全天不间断蹬估计也就够十几个人最高档套餐同时用, 哪怕是原价最贵一个人也只是469, 10个4690,20个都不到一万, 回本都要几十个月了 说白了几十万的设备一个月顶天估计也就能挣一两万还不是

tech linux.do 2026-04-22 18:03:25+08:00

想换个国产模型长期配合着用

有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8

tech linux.do 2026-04-22 18:00:05+08:00

【抽奖】给大家抽5张GLM Coding Plan 7天体验卡

抽奖主题:GLM Coding Plan 7天体验卡 * 5 奖品详情: [奖品]:GLM Coding Plan 7天体验卡 * 5 活动时间: 开始时间:[2026年4月22日下午6点00分] 截止时间:[2026年4月22日晚上12点00分] 参与方式: 在本帖下回复任意内

tech linux.do 2026-04-22 17:58:01+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:51:07+08:00

智谱(GLM)果然学习了阿里, 强制关闭了老用户套餐的自动续费

上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了

tech www.v2ex.com 2026-04-22 17:43:55+08:00