一个 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第298页 - 钛刻科技 | TCTI.cn

一个 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第298页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 8887 篇相关文章 · 第 298 / 445 页

[问与答] 有两种永生的方式,我该选择哪一个

1 ,从当前状态起,不生病,不衰老,不死亡。但是遇到天灾人祸会死。 2 ,从当前状态起,活 3 年后带着记忆回到当前状态,如果死了就直接回到当前状态,如此循环。

tech v2ex.com 2026-04-26 02:09:02+08:00

[问与答] 公司普通网管遇到一个问题打开淘宝链接 400 报错的问题

公司网管一名,最近公司电脑打开淘宝,点击搜索后的链接会出现下面的报错 400 Bad Request Your browser sent a request that this server could not understand. Powered by Tengine 刚开始

tech v2ex.com 2026-04-26 02:08:53+08:00

[问与答] 公司普通网管遇到一个问题打开淘宝链接 400 报错的问题

公司网管一名,最近公司电脑打开淘宝,点击搜索后的链接会出现下面的报错 400 Bad Request Your browser sent a request that this server could not understand. Powered by Tengine 刚开始

tech v2ex.com 2026-04-26 02:08:53+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 02:07:34+08:00

请教codex里5.5超高模型显示训练截止日期为2024年6月, 这有办法解决吗

codex是pro号, cpa里就这一个号, 反代出来接的codex, 落地家宽ip, 今晚用的时候明显觉得不对劲, 问了一下,结果果然被换模型. 各位佬, 这个问题有办法解决么? 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-26 02:06:49+08:00

给 NginxPulse 扩展了一个服务器状态卡片

新服务器装好后,我发现我挺在意机箱里的硬件温度以及风扇转速信息的,于是花了点时间在 NginxPulse 上扩展了下。

tech www.v2ex.com 2026-04-26 02:01:47+08:00

[问与答] 有两种永生的方式,我该选择哪一个

1 ,从当前状态起,不生病,不衰老,不死亡。但是遇到天灾人祸会死。 2 ,从当前状态起,活 3 年后带着记忆回到当前状态,如果死了就直接回到当前状态,如此循环。

tech v2ex.com 2026-04-26 02:00:26+08:00

codex一致卡在正在思考

这个session一直这样,更换另外一个session就可以了,请问是什么原因呢?有解决办法嘛? 因为这个上下文有我需要的东西,需要做成一个模板,所以需要保留聊天记录。有什么办法嘛。 8 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-26 01:47:51+08:00

力竭了兄弟们,这个 CC 的 Permission 就没有个通用点的写法吗?

写了 allow 你又给我换写法,一个标点符号不对都要写一条。 我真没招了佬友们,救救孩子~有没有个通用点的写法,不想开 bypass 碎碎念:还看过 git xxx status xxx && git add xxx 的,这让人怎么写啊 5 个帖子 - 2 位参

tech linux.do 2026-04-26 01:39:15+08:00

当帖子标记为关闭后,boost仍然可以使用。 这属于一个设计漏洞吗?

当帖子标记为 关闭 后,boost仍然可以使用。 我不清楚这属于一个设计漏洞还是原本就是这么设计的。 复现方式: 任何一个被标记为关闭的帖子 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 01:22:32+08:00

[Local LLM] 请教一个关于模型训练主机配置的问题

主要是用来部署 YOLO26 做数据集训练和目标检测或追踪的,图片数据暂定 5000 张(其实数据有很多,但是暂定用于训练的数据上限是 5000 张)。 目前有一台 RX6600xt ,但是 directML 好像也不能使这张卡参与训练计算,上网查了一下好像是对 7000 系列以

tech v2ex.com 2026-04-26 01:14:45+08:00

[Local LLM] 请教一个关于模型训练主机配置的问题

主要是用来部署 YOLO26 做数据集训练和目标检测或追踪的,图片数据暂定 5000 张(其实数据有很多,但是暂定用于训练的数据上限是 5000 张)。 目前有一台 RX6600xt ,但是 directML 好像也不能使这张卡参与训练计算,上网查了一下好像是对 7000 系列以

tech v2ex.com 2026-04-26 01:14:45+08:00

[Local LLM] 请教一个关于模型训练主机配置的问题

主要是用来部署 YOLO26 做数据集训练和目标检测或追踪的,图片数据暂定 5000 张(其实数据有很多,但是暂定用于训练的数据上限是 5000 张)。 目前有一台 RX6600xt ,但是 directML 好像也不能使这张卡参与训练计算,上网查了一下好像是对 7000 系列以

tech v2ex.com 2026-04-26 01:14:45+08:00

[Local LLM] 请教一个关于模型训练主机配置的问题

主要是用来部署 YOLO26 做数据集训练和目标检测或追踪的,图片数据暂定 5000 张(其实数据有很多,但是暂定用于训练的数据上限是 5000 张)。 目前有一台 RX6600xt ,但是 directML 好像也不能使这张卡参与训练计算,上网查了一下好像是对 7000 系列以

tech v2ex.com 2026-04-26 01:14:45+08:00

请教一个关于模型训练主机配置的问题

主要是用来部署 YOLO26 做数据集训练和目标检测或追踪的,图片数据暂定 5000 张(其实数据有很多,但是暂定用于训练的数据上限是 5000 张)。 目前有一台 RX6600xt ,但是 directML 好像也不能使这张卡参与训练计算,上网查了一下好像是对 7000 系列以

tech www.v2ex.com 2026-04-26 01:10:41+08:00

[问与答] 公司普通网管遇到一个问题打开淘宝链接 400 报错的问题

公司网管一名,最近公司电脑打开淘宝,点击搜索后的链接会出现下面的报错 400 Bad Request Your browser sent a request that this server could not understand. Powered by Tengine 刚开始

tech v2ex.com 2026-04-26 01:08:53+08:00

[问与答] 公司普通网管遇到一个问题打开淘宝链接 400 报错的问题

公司网管一名,最近公司电脑打开淘宝,点击搜索后的链接会出现下面的报错 400 Bad Request Your browser sent a request that this server could not understand. Powered by Tengine 刚开始

tech v2ex.com 2026-04-26 01:08:53+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 01:07:34+08:00

[Local LLM] 请教一个关于模型训练主机配置的问题

主要是用来部署 YOLO26 做数据集训练和目标检测或追踪的,图片数据暂定 5000 张(其实数据有很多,但是暂定用于训练的数据上限是 5000 张)。 目前有一台 RX6600xt ,但是 directML 好像也不能使这张卡参与训练计算,上网查了一下好像是对 7000 系列以

tech v2ex.com 2026-04-26 01:03:28+08:00

给 NginxPulse 扩展了一个服务器状态卡片

新服务器装好后,我发现我挺在意机箱里的硬件温度以及风扇转速信息的,于是花了点时间在 NginxPulse 上扩展了下。 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 01:03:03+08:00