To - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第75页 - 钛刻科技 | TCTI.cn

To - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第75页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2455 篇相关文章 · 第 75 / 123 页

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 02:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 02:18:07+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 01:40:43+08:00

「听劝的富可敌国」OneToken.sh GPT-5.5,人民币2元100万Token,23-24充值的用户百分百补偿,抽10名500万平台Token

从 「OneToken.sh」本站正式支持GPT-5.5,人民币2元100万Token,抽10位送500万Token【已听劝】 继续讨论: 官网: OneToken.sh 1M=100万Token 输入价格: 3元/M Token 输出价格: 12元/M Token 缓存输入:

tech linux.do 2026-04-25 00:34:09+08:00

被标记为网络安全风险有啥影响不 好怕被封号

此聊天已被标记为可能存在网络安全风险 背景 :我想codex帮我分析 GitHub - TheMythologist/GenP: Automatically builds GenP executables from source · GitHub 这个项目结果直接报错让我加入什么

tech linux.do 2026-04-25 00:29:31+08:00

发现用GPT 5.5以后TOKEN额度消耗反而更慢了

第一大原因是上下文256k,我会经常性新建会话 效率提升,很少问用户问题,让任务流畅执行 今天调用2000多次也只用了140M 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:22:49+08:00

gpt-5.5 PreToolUse hook (failed) 如何解决 ?

PreToolUse hook (failed) error: hook exited with code 1 Windows 官方codex cli 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:17:30+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:47:32+08:00

“大 F”键盘终结:FILCO(斐尔可)母公司 Diatech 宣布停业

IT之家 4 月 24 日消息,俗称“大 F”的 FILCO(斐尔可)以其 Majestouch“圣手”系列机械键盘闻名,是键盘行业早期的代表性品牌之一,已有 34 年历史。 不过就在本周三,FILCO 母公司 Diatech 宣布停业,这也意味着 “大 F”键盘已正式退出历史舞

tech www.ithome.com 2026-04-24 23:40:48+08:00

从早上九点到现在,用了1.2亿token

今天写了一天代码,腰酸背痛的,一看cpa,今天竟然用了1.2亿token,买的日抛team回本了哈哈哈 14 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-24 23:39:27+08:00

有用axonhub的佬吗,目前能转发gpt image 2吗?

我配上去后拿cherry studio测试报错:failed to transform request: invalid request: image is not supported 不知道是我配置问题,还是暂时还不支持 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 23:33:36+08:00

速登!免费!阿里云百炼上下deepseek4,速度快到飞起!

不是很多但速度是真的快啊! flash|每秒175 tokens pro|每秒81 tokens 我觉得等大家都完善配置了速度还能起飞 12 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-24 23:24:54+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:03:46+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:03:46+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 22:48:43+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-24 22:48:43+08:00