oc - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn

oc - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 735 篇相关文章 · 第 19 / 37 页

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-25 12:55:44+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-25 12:05:17+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-25 11:48:07+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-25 11:16:48+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-25 11:05:26+08:00

RooCode团队早期测试Roomote

在Roomote的网页加入愿望单中填写邮箱后有概率会收到两封信,早期测试可以白嫖,但需要参加线上会议 calendly 进行反馈交流,我是I人把机会留给佬们了 Hey there, Sounds like it could be a good fit! Do you want t

tech linux.do 2026-04-25 11:02:42+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-25 09:32:12+08:00

:innocent: 不……oai你怎能阻挡创作的热情

oai上版权检测了说是 就像之前sora一样说是……并且失败也算quota​ 世界你毁灭了吗,我的眼睛啊 光头强你牛大了 作者已经彻底沉浸在自己的艺术里面了 商家已经… 坏了…这是灵感流啊 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:26:36+08:00

2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech www.v2ex.com 2026-04-25 08:56:01+08:00

[云计算] 2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech v2ex.com 2026-04-25 08:27:34+08:00

我的PR被Google合并了!!!

github.com/googleapis/python-genai docs: Add instruction for custom endpoint (#2335) main ← copybara/904525557 已合并 06:49PM - 23 Apr 26 UTC c

tech linux.do 2026-04-25 07:46:59+08:00

DeepSeek OCR调研

用户上传、拖拽图片: 用户上传图片/拖拽图片到指定位置(通过 或JavaScript 事件(如 ondrop)捕获文件),然后生成唯一的一个upload_id。前端将图片封装为multipart/form-data 格式,并且附加 upload_id 作为查询参数 Request

tech linux.do 2026-04-25 06:51:15+08:00

[云计算] 2026 年,选择 Podman 还是 Docker

Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。

tech v2ex.com 2026-04-25 04:46:06+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 02:39:55+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-25 02:38:46+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 02:18:07+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 01:40:43+08:00