OC - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn

OC - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 687 篇相关文章 · 第 13 / 35 页

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-26 18:38:57+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-26 17:38:57+08:00

[Local LLM] 自己做了一款在线 GPU 推理速度计算器 · TPS Calculator

TPS Calculator · GPU 推理速度计算器 买不起机子,所以做了这个。 在线地址: tps.bunai.cc 突发奇想赶紧记录下来,直接 vibe code ,说敲就写 一个 vibe code 出来的 GPU 推理性能估算工具。 起因很简单——显卡太贵,买不起,想

tech v2ex.com 2026-04-26 17:34:17+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-26 16:38:57+08:00

海韵发布 Focus GX-1000 ATX 3.1 樱花版电源:升级 PCIe 5.1,配原生 12V-2×6 接口

IT之家 4 月 26 日消息,海韵(Seasonic)推出了 2026 款 Focus GX-1000 ATX 3.1 Sakura Edition(樱花版)限量版电源,附赠 12V-2×6 粉白双拼色编织线。 它属于是 2024 年发布的 Vertex Sakura GX-1

tech www.ithome.com 2026-04-26 16:31:58+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 16:28:27+08:00

MOREFINE 魔方推出 G2 外置显卡:雷电 5/OCuLink 4.0x4 接口、内置 RTX 5060 Ti 16GB 桌面端

IT之家 4 月 26 日消息,MOREFINE 魔方现已在其海外官网上架 G2 外置显卡,内置 RTX 5060 Ti 桌面端显卡,配备 16GB GDDR7 显存,定价 1099 美元(IT之家注:现汇率约合 7530 元人民币),5 月 20 日起出货。 据介绍,这款外置显

tech www.ithome.com 2026-04-26 16:10:52+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-26 15:38:57+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-26 14:38:57+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-26 13:38:57+08:00

龙虾 VS Hermes 个人深度使用对比

我同时装了oc和Hermes,一样的模型(minimax 2.7),一样的soul.md,一样的skill。 场景一:一样的问题(关于skill中知识库的),oc的反馈往往很准,甚至还考虑到了边界问题,还有举例,而Hermes幻觉严重,经常回答内容完全不是根据skill中的内容。

tech linux.do 2026-04-26 11:43:06+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 11:33:27+08:00

Oracle再开一个坡西,放水了吗

bochk万事达扣账卡+cthk流量,就是为什么开不出机,我记得之前可以手开来着( 6 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-26 11:25:54+08:00

各位大佬,请问中转站claude都有什么渠道

我知道的有,请问还有其他的渠道么? aws bedrock kiro 反代 cursor反代 官方max逆向 反重力逆向 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 11:22:25+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 10:57:35+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 10:38:59+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 10:23:40+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 09:57:43+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 09:46:29+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 08:56:08+08:00