我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
发现 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第56页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2140 篇相关文章 · 第 56 / 107 页
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
新服务器装好后,我发现我挺在意机箱里的硬件温度以及风扇转速信息的,于是花了点时间在 NginxPulse 上扩展了下。
我自己使用 目前发现zfb授权成功后会跳转回stripe帐单页面 提示 处理您的付款时发生了错误。请稍后再试或使用另一支付方式。 换了几个号还是不成功 有没有懂得佬解释下 是啥问题 1 个帖子 - 1 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
新服务器装好后,我发现我挺在意机箱里的硬件温度以及风扇转速信息的,于是花了点时间在 NginxPulse 上扩展了下。 3 个帖子 - 3 位参与者 阅读完整话题
新服务器装好后,我发现我挺在意机箱里的硬件温度以及风扇转速信息的,于是花了点时间在 NginxPulse 上扩展了下。
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
在GitHub上发现了一个仓库:talk-normal,用途在readme里也写了——让任何 LLM 说人话: hexiecs/talk-normal 仓库作者着重使用了gpt模型作为例子,实测把它的提示词放到AGENTS.md也确实能约束一下GPT5.4的语气 有兴趣的佬友可以
我发现抖音和小红书上有很多人分享 AI 写真指令,就是一群爱美女士通过豆包生成写真,不得不承认确实非常漂亮、养眼。评论区里有很多人求指令。 我以为这是一个机会,说明很多爱美女士也想拍写真,但又不掌握复杂的提示词,那么如果把这个过程简化一下呢?做一个提示词大全或者写真大全的网站,是
我发现抖音和小红书上有很多人分享 AI 写真指令,就是一群爱美女士通过豆包生成写真,不得不承认确实非常漂亮、养眼。评论区里有很多人求指令。 我以为这是一个机会,说明很多爱美女士也想拍写真,但又不掌握复杂的提示词,那么如果把这个过程简化一下呢?做一个提示词大全或者写真大全的网站,是
我发现抖音和小红书上有很多人分享 AI 写真指令,就是一群爱美女士通过豆包生成写真,不得不承认确实非常漂亮、养眼。评论区里有很多人求指令。 我以为这是一个机会,说明很多爱美女士也想拍写真,但又不掌握复杂的提示词,那么如果把这个过程简化一下呢?做一个提示词大全或者写真大全的网站,是
我在 aistudio 发现了一个很奇怪的事情,就是 gemini-flash-latest 是 gemini-3-flash-preview 的 alias ,但两者定价不同,前者输入、输出分别是 0.3 、2.5 ,后者是 0.5 、3.0 ,不知各位是否留意到这个,应该放心
突然发现好像还没有摸索出快速有效区分方法… 8 个帖子 - 6 位参与者 阅读完整话题
阿里coding plan lite现在可以用qwen3.6-plus了。 今天刚发现的,可是过几天lite套餐就下行就没法用了。 4 个帖子 - 4 位参与者 阅读完整话题
最新评测结果: https://github.com/gaboolic/rime-schema-compare/blob/main/report/latest.md 根据最新评测结果(生成时间: 2026-04-25 16:49:02 +08:00 ),白霜拼音在不使用模型和使用
3月27号开的试用team,今天突然发现为什么4月到5月的预计账单也是0刀,大伙们都是这样吗 3 个帖子 - 2 位参与者 阅读完整话题
Claude4.6o总结: 管你这那的 还是让我红温 目前仍然没看出来豆包在成为可对话AI方面有什么前途 3 个帖子 - 3 位参与者 阅读完整话题