lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第23页 - 钛刻科技 | TCTI.cn

lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第23页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 905 篇相关文章 · 第 23 / 46 页

【已无】送GLM Coding Plan 7天体验卡 * 3 - 先到先得

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 15:14:33+08:00

realme真我商城自今日起停止运营 全面回归OPPO

根据realme(真我)官方通知,真我商城将于4月25日开始正式停止运营,自有App、网页端及小程序同步下线,品牌全面回归OPPO体系。停服后商城将终止购物、商品浏览、活动参与、积分兑换、直播观看等全部核心功能,仅保留历史订单查询入口,有效期至2027年4月25日。 用户可通过O

tech plink.anyfeeder.com 2026-04-25 15:05:47+08:00

deepseek-V4-pro大屏展示效果

这篇帖子展示的是其他模型的编码情况 claude、gpt、gemini、glm做前端“大屏展示”的区别-已经全部更新 开发调优 昨天发了一个glm5.1和opus4.6的对比,做的是后端管理系统的全栈开发,本来想让他们去做一个agent的,但是感觉麻烦,就做一个最基本的后端管理系

tech linux.do 2026-04-25 13:19:55+08:00

免费送 5 张GLM Coding Plan 体验卡 - 先到先得[已被领取完]

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:27:50+08:00

【抽奖】抽3张 GLM Coding Plan 7天体验卡

抽奖主题:GLM Coding Plan 7天体验卡 * 3 奖品详情: [奖品]:GLM Coding Plan 7天体验卡 * 3 活动时间: 开始时间:[2026年4月25日上午午11点20分] 截止时间:[2026年4月25日下午14点20分] 参与方式: 在本帖下回复任

tech linux.do 2026-04-25 11:12:09+08:00

GLM Coding Plan 体验卡 * 3 先到先得

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: https://bigmodel.cn/activity/trial-card/FFJBKSFRXJ 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 10:42:23+08:00

还有啥免费的翻译通道没

佬们 还有啥免费的沉浸式翻译的提供商 智普最近把glm4flash 200并发掉20去了( 最新前沿快讯话题 - LINUX DO ) cerebras也要把两个模型下线了 longcat速度感觉又太慢了 以及这个并发在沉浸式翻译上什么数值才算合适 我给longcat现在设置的是

tech linux.do 2026-04-25 10:12:00+08:00

有需要拼车的吗?coding plan订阅太多了 要到期了这个

用着还行,GLM5写中等代码配合skills能用,占了个位置,后续可能也是会下架和阿里云一样。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:54:14+08:00

[分享创造] 给自用的 LLM Wiki 加了个维基百科风格的网页

之前根据 Karpathy 那个 LLM Wiki 的 idea 自己搭了一个用了段时间,最近抽空加了个纯静态的维基百科风格的网页。 其实我长期以来是没有记笔记的习惯的,手写太麻烦了,只是会有一些保存的习惯,看到不错的文章会加个书签,但过了很久之后很多书签都会失效, 尤其个人博客

tech v2ex.com 2026-04-25 08:42:26+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 02:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 02:18:07+08:00

【深夜福利】免费送 GLM Coding Plan 体验卡 - 自取

剩余 3/3 张 https://bigmodel.cn/activity/trial-card/1BMR381KZD 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 02:08:51+08:00

Glm4flash免费用户并发调整成20

如题 之前是200来着 现在改成20了 沉浸式翻译现在我已经转longcat flash了 并发20好像也没问题 不过我也不确定这是不是快讯 我是今天才发现的 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 01:50:50+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 01:40:43+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00