程序员 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第96页 - 钛刻科技 | TCTI.cn

程序员 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第96页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2432 篇相关文章 · 第 96 / 122 页

[程序员] codex 今天真的是不稳定呀。

此时此刻 16:08 ,codex plus 各种 reconnection This isn't a rate limiting message — that is, it's not specific to your account. This messa

tech v2ex.com 2026-04-23 00:08:55+08:00

[程序员] codex 今天真的是不稳定呀。

此时此刻 16:08 ,codex plus 各种 reconnection This isn't a rate limiting message — that is, it's not specific to your account. This messa

tech v2ex.com 2026-04-23 00:08:55+08:00

[程序员] Jenkins, SCM 轮询完全不工作是啥问题啊

我写的规则是 H/6 * * * * 但是看轮询日志都是至少 30 分钟之前的轮询结果了 Started on Apr 22, 2026 11:00:56 PM 不是某一个 job 是所有的 job 都这样,之前都好好的

tech v2ex.com 2026-04-22 23:50:22+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 23:36:14+08:00

[程序员] # 我对比了 8 个 Claude API 中转站,踩了不少坑,总结给你

本人:个人开发者,Claude Code 重度使用者,Token 重度成瘾患者,下面测评耗时 1 周 长期重度使用 Claude API ,期间换过好几个中转站,有被坑过的,也有用得很顺的。 抽空系统整理了一下,把市面上主流的 8 个平台都拉出来横向对比了一遍。写这篇文章的原因很

tech v2ex.com 2026-04-22 23:34:26+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 23:31:55+08:00

[程序员] 赛博斗蛐蛐, AI 模型的简单对比(白嫖版)

目前对于各 AI 应用的需求没有太深入,只是当作日常生活自动化的补充,更像是个人助手,并且 Gemini 3 flash preview 和 Grok 足够用,所以也没到订阅的程度,就一直在免费的几家里面来回切换,之前还一直用 Grok ,但是晚上用老是提示繁忙,就换成 Gemi

tech v2ex.com 2026-04-22 22:58:30+08:00

[程序员] # 我对比了 8 个 Claude API 中转站,踩了不少坑,总结给你

本人:个人开发者,Claude Code 重度使用者,Token 重度成瘾患者,下面测评耗时 1 周 长期重度使用 Claude API ,期间换过好几个中转站,有被坑过的,也有用得很顺的。 抽空系统整理了一下,把市面上主流的 8 个平台都拉出来横向对比了一遍。写这篇文章的原因很

tech v2ex.com 2026-04-22 22:53:33+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:45:00+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:45:00+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:38:59+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:38:59+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:31:23+08:00

[程序员] 刚发现 WSL2 可以通过 virtiofs 访问 NTFS 分区, IO 速度明显提升

虽然任何文档里都没有相关说明,但是根据 changelog 和代码提交记录,可以得知这个功能以及具体的开关。开启方法: 1. 升级到 Pre Release 版本: wsl --update --pre-release 2. 改 .wslconfig: [wsl2] virtio

tech v2ex.com 2026-04-22 22:15:52+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 22:11:51+08:00

[程序员] 刚发现 WSL2 可以通过 virtiofs 访问 NTFS 分区, IO 速度明显提升

虽然任何文档里都没有相关说明,但是根据 changelog 和代码提交记录,可以得知这个功能以及具体的开关。开启方法: 1. 升级到 Pre Release 版本: wsl --update --pre-release 2. 改 .wslconfig: [wsl2] virtio

tech v2ex.com 2026-04-22 21:59:50+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:59:47+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:53:39+08:00

[程序员] 买了火山的 Coding Plan 测试得出计费模式

用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,

tech v2ex.com 2026-04-22 21:52:38+08:00

写在天才程序员纷纷陨落之后...

大概是去年deepseek一战成名之后吧,公司就开始慢慢推广使用AI辅助工作,我们软开这部分的同事是最早接触并且体会最深的一批人。我们从web chat开始,一路用到vibecoding,见证了ai从一路瞎编然后手动复制粘贴进ide人肉验证到几句话的输入就自主完成一块功能的蜕变。

tech linux.do 2026-04-22 21:41:51+08:00