To - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第74页 - 钛刻科技 | TCTI.cn

To - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第74页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2454 篇相关文章 · 第 74 / 123 页

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 09:33:11+08:00

[Apple] 苹果 App Store 国区充值可获额外 10% 奖励

tech v2ex.com 2026-04-25 09:30:21+08:00

[优惠信息] App Store 充值额外送 10%,折合 91 折

App Store 直接充值,充 5-1000 的话额外送 10%。 1000/1100=0.90909091 。 国区已验证

tech v2ex.com 2026-04-25 09:24:04+08:00

苹果 App Store 国区充值可获额外 10% 奖励:最高回赠 100 元,数量有限

IT之家 4 月 25 日消息,苹果 App Store 国区今天上线了充值加赠优惠活动,可获得额外 10% 奖励,数量有限,领完即止。 IT之家从活动页面获悉,充值金额介于 5 元-1000 元之间可以享受本次优惠,充 100 元可额外赠送 10 元,充 300 元可额外获赠

tech www.ithome.com 2026-04-25 09:21:27+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 09:15:09+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 08:55:58+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 08:39:55+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 08:14:21+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 08:14:21+08:00

我的PR被Google合并了!!!

github.com/googleapis/python-genai docs: Add instruction for custom endpoint (#2335) main ← copybara/904525557 已合并 06:49PM - 23 Apr 26 UTC c

tech linux.do 2026-04-25 07:46:59+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 06:39:55+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 06:39:55+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 06:39:55+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 06:39:55+08:00

【求助】有佬友把openclaw和Hermes同时部署的吗

如题 openclaw火我就安装了,Hermes的star飙升我也部署了,现在进入天才陨落纪,token匮乏,就浅度使用,两个换着用,openclaw用的多,主要让它写和总结东西,Hermes用的少,主要让它操作浏览器完成一些自动化操作的事情,对了, 它们都是在VPS主机里直接部

tech linux.do 2026-04-25 06:32:03+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 05:39:55+08:00

[慢讯] Codex Desktop 0.125.0 已支持 GPT-5.5

CPA + Codex 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 03:45:06+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00