CA - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第29页 - 钛刻科技 | TCTI.cn

CA - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第29页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 868 篇相关文章 · 第 29 / 44 页

longcat新羊毛

今天登录longcat发现内测新模型了,LongCat-2.0-Preview。据说为claude code等agent优化的,送1000万token,似乎两个小时刷新一次。随便申请了很快就给了,但据说限量的,看运气。干点小活当个haiku用应该可以的吧。 方法: 去longca

tech linux.do 2026-04-24 22:16:35+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 21:41:54+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 21:41:54+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 21:41:54+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:35:40+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:26:48+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:11:08+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:06:39+08:00

美团万亿级大模型 LongCat-2.0-Preview 开放测试,全程基于国产算力集群训练

美团万亿级大模型 LongCat-2.0-Preview 开放测试,全程基于国产算力集群训练 - IT之家 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-24 19:45:09+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 19:41:32+08:00

Hermes使用Caddy反代

用Caddy 自带的 basic auth,一直跳401,谈认证框;应该是子目录的资源都需要认证一次。有大佬有好的优秀实践吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 19:08:07+08:00

消息称北京地区大疆门店将全面下架无人机产品,DJI Care 邮寄新机需市外收货地址

IT之家 4 月 24 日消息,据“财闻”报道,受北京市无人机新规影响,北京地区的大疆门店将于近期全面下架无人机产品,多位门店店员称“下架行动会在 5 月 1 日前完成”, 届时北京消费者将无法购买无人机产品(这种禁售也包括电商渠道) 。 面对此项新规,许多消费者感到不知所措,多

tech www.ithome.com 2026-04-24 19:01:25+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 18:48:29+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 18:48:29+08:00

在无人在意的角落,Ubuntu 26.04 LTS正式发布了。。。

官方新闻稿: Canonical Canonical releases Ubuntu 26.04 LTS Resolute Raccoon | Canonical The 11th long-term supported release of Ubuntu delivers de

tech linux.do 2026-04-24 18:48:09+08:00

美团万亿级大模型 LongCat-2.0-Preview 开放测试,全程基于国产算力集群训练

IT之家 4 月 24 日消息,据《科创板日报》今日报道,美团新一代基础大模型 LongCat-2.0-Preview 已经开放邀请测试,该模型总参数规模突破万亿,量级跻身全球顶尖大模型行列。 这款尚未公布正式命名的大模型参数量级达到万亿级别,采用了混合专家(MoE)的先进架构,

tech www.ithome.com 2026-04-24 18:38:14+08:00

反重力的You can prompt the model to try again or start a new conversation if the error persists.适合账号有关

我有两个google账号是能正常用的 不会出现You can prompt the model to try again or start a new conversation if the error persists. 但是而且都是原本的pro账号 但是我发现 家庭组和免费的

tech linux.do 2026-04-24 16:41:10+08:00

特斯拉 Cybercab 在北美投产 主打无方向盘自动驾驶

特斯拉 Cybercab 在北美投产 主打无方向盘自动驾驶 Tesla 宣布其无人驾驶电动车 Cybercab 已在北美启动量产。这款车型取消方向盘、踏板和后视镜,完全围绕自动驾驶系统设计,由车载 AI 直接接管行驶控制。 Cybercab 定位为专用自动驾驶车辆,整车架构和交互

tech linux.do 2026-04-24 16:34:20+08:00

[酷工作] [全英文 or 全日文-远程工作-亚太时区] 可 relocate 日本优先 Growth Engineer / 前端 / UI/UX(AI × 二次元方向)

东京一家 AI 公司, 我们在做一款偏 AI × 内容 / 二次元文化方向的产品, 目前在找几类工程师 & 设计师加入团队(远程可,亚太时区)。 但先说清楚一件事: 👉 我们不是在找“只写代码 / 只画 UI”的人 👉 更希望你对「产品效果」本身感兴趣 🧠 我们在找什么人

tech v2ex.com 2026-04-24 16:04:11+08:00

昇腾CANN B站直播开始咯

1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 15:55:21+08:00