提到 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

提到 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 126 篇相关文章 · 第 1 / 7 页

前阵子搞得微软365 ppt里有opus4.7 和image2可以选

今天看到有佬友提到ppt里的copilot,今天进入看了下还都是最先进模型,虽然效果不是多惊艳,但是opus自动生成ppt文稿都是基于真实搜索的,还真不是瞎编乱造,贵在免费5年,就是不知道word里怎么选择模型,感觉word里的copilot还很弱。 新建 Microsoft P

tech linux.do 2026-05-02 22:09:58+08:00

连公司wifi会被监控?

上午项目经理和我无意提到他之前连公司wifi手机淘宝买东西,被公司领导谈话…突然我开始害怕自己最近高强度逛l站会不会被发现,我是自带的笔记本,上班一般都会开clash,豆包说挂梯子后不会查到具体逛了什么(如果只是这样就没关系),有懂的佬友可以看一下我这 clash选rule是不是

tech linux.do 2026-04-30 12:57:44+08:00

Xiaomi mimo 申请成功了

好像也没有像论坛里提到的要github多少星之类的,我只把一些中转站的消费记录贴上去,然后用hermes写了一段小作文就通过了。然后现在准备拿mimo替代hermes里的minimax 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-29 09:40:21+08:00

trae国际版自定义模型请求IP需要注意

好像没看到人提到,trae国际版 接入自定义请求模型的时候,模型请求会走一层trae自己的代理,所以到中转站的IP会是trae的国外ip。 如果各位佬有用的话,且中转站有IP数限制或者国外IP限制的话,需要注意下这个问题哈。 一开始还以为是自己的代理问题,结果加了白名单之后还是国

tech linux.do 2026-04-27 13:56:23+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 20:09:18+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 20:09:18+08:00

Windows 11新版本可每次暂停更新35天和无限次暂停更新

此前微软在博客中已经提到将不再强迫用户 Windows 11 安装更新,因为自动下载和安装更新在事实上确实给不少用户造成麻烦,尽管及时安装更新可以提升系统安全性但前提是不能影响用户的正常使用。 所以微软后续将继续默认采用自动更新,但如果用户需要的话可以暂停更新并且还是无限期暂停更

tech plink.anyfeeder.com 2026-04-26 14:35:10+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

现在看一两年前的硬件讨论真是恍如隔世

想买个迷你主机,发现24/25年的帖子里提到的配置,到今天基本都翻倍不止了,之前900能买的机器,现在要2000+ AI不但要剥夺大家的工作,让大家多掏订阅费,还要让大家买不起东西 钱全都流向天价年薪研究员和硬件厂商的口袋了 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 12:57:09+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 12:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 11:41:17+08:00

假如ai给脑子里突然出现的超智慧系统起名,它会起什么名字呢

经常看小说,小说里面总是提到男主角莫名获得超智慧系统。但是起的名字差强人意。所以我就将这个这个问题问了下ai,ai的回答有点出乎我的意料。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 10:47:26+08:00

大项目中大家真的会用 Spec-Driven Development 吗?

https://openai.com/zh-Hans-CN/index/harness-engineering/ 中提到要把 Spec & Planning & Tasks 进度放进 git 仓库中,大家实践中真的会这么做吗?但是我看 codex 仓库内根本没这些

tech www.v2ex.com 2026-04-26 06:20:08+08:00

大项目中大家真的会用 Spec-Driven Development 吗?

https://openai.com/zh-Hans-CN/index/harness-engineering/ 中提到要把 Spec & Planning & Tasks 进度放进 git 仓库中,大家实践中真的会这么做吗?但是我看 codex 仓库内根本没这些

tech www.v2ex.com 2026-04-26 05:20:08+08:00

大项目中大家真的会用 Spec-Driven Development 吗?

https://openai.com/zh-Hans-CN/index/harness-engineering/ 中提到要把 Spec & Planning & Tasks 进度放进 git 仓库中,大家实践中真的会这么做吗?但是我看 codex 仓库内根本没这些

tech www.v2ex.com 2026-04-26 04:20:08+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 04:07:34+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 04:07:34+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 04:07:34+08:00