速度 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn

速度 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 284 篇相关文章 · 第 7 / 15 页

如何在项目里落地ai自动化线上报错分析和排查?

各位佬,引入ai开发后开发速度提升明显,但也伴随着代码质量的下降。目前想让ai能接入线上的日志,这样能在用户反馈前快速定位并解决问题。但是不太确定有没有比较好的实践,接claw有点重,自己写agent似乎也比较麻烦,有没有比较好的框架推荐呢? 另外各位佬组里遇到代码质量下降的情况

tech linux.do 2026-04-28 18:44:18+08:00

求问 pro 的image2额度

有佬知道pro 20x 的image2 额度吗,还有速度咋样,想搞个玩玩生图。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 17:05:53+08:00

感谢雷总,感恩雷总

不说其他的,速度无敌,目前还在体验中 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-28 13:12:54+08:00

CN: 有人在 Claude Code 中使用 GPT-5.4 吗?速度通常都这么慢吗? EN: Anyone using GPT-5.4 with Claude Code? Is it normally slow?

CN: 我最近在 Claude Code 中测试 gpt-5.4 ,但它的响应和完成任务速度非常慢。 我想请教一下已经使用过它的朋友: gpt-5.4 在 Claude Code 中通常会比 Claude 模型更慢吗? 这个延迟是由模型本身、API 服务商,还是 Claude C

tech linux.do 2026-04-28 04:58:05+08:00

GLM-5.1在非高峰期1倍活动 延长到6月底!

我很清楚的记得之前是4月30日~ 好多佬友们还在在高峰期体验过3倍的消耗速度极其恐怖,担心非高峰期调用也翻倍可咋办,现在延长到6月底了! 13 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-28 02:30:49+08:00

gemini-robotics-er-1.6模型和3 Flash类似,主打视觉和速度,且有免费额度

视觉能力不输3 Flash 欢迎使用我的webui all-model-chat.pages.dev AMC WebUI 6 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-27 22:07:57+08:00

金士顿 DC3000ME 系列 U.2 NVMe 固态硬盘新增 30.72TB 版本,顺序读取速度可达 14GB/s

IT之家 4 月 27 日消息,金士顿 DC3000ME 系列 U.2 NVMe 固态硬盘现已新增 30.72TB 版本,该产品主要为企业市场设计,满足数据中心存储需求。 据介绍,这款固态硬盘采用 PCIe 5.0 NVMe 接口, 顺序读取速度最高可达 14GB/s ,随机读取

tech www.ithome.com 2026-04-27 21:55:32+08:00

佬友们自己肩膀上自带的模型调用频率还高吗

近几年ai发展的速度很快啊,我感觉最近我肩膀上那个从出生到现在一直自己在训练的那个本地模型,不是在调用可以在电脑上运行的模型,就是在思考怎么更好调用电脑上的模型。 以后要是脑机接口成熟了大家会不会给肩膀上那玩意加一个某家训练的模型,在肩膀上进行多模型协作呢 28 个帖子 - 18

tech linux.do 2026-04-27 20:20:21+08:00

网页版的GPT5.5降智了?

Plus会员,即使是 extended 的 think 模式,5.5的思考速度也很快,通常都在 1 分钟以内。非 think 内容的生成速度极快,类似于此前 mini 模型的水准。询问其模型型号时,回答是 5.5 thinking。佬们有遇到这种情况吗? 11 个帖子 - 9 位

tech linux.do 2026-04-27 18:22:34+08:00

求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech www.v2ex.com 2026-04-27 17:58:16+08:00

求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech www.v2ex.com 2026-04-27 16:58:16+08:00

求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech www.v2ex.com 2026-04-27 15:58:16+08:00

⚠️重要提醒

有营业执照的佬,2025年年度报告记得填写呦,没填写的速度了 年报提交地址: https://shiming.gsxt.gov.cn/annual-login.html 9 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-27 15:55:39+08:00

[程序员] 求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech v2ex.com 2026-04-27 15:35:13+08:00

[程序员] 求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech v2ex.com 2026-04-27 15:24:02+08:00

求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech www.v2ex.com 2026-04-27 15:24:02+08:00

codex的额度突然开始自己掉,然后也没有进程在跑

codex的额度突然开始自己掉,然后也没有进程在跑,掉了30%自己停下来了,难道泄漏了?还是bug,掉的速度非常快 11 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-27 12:37:51+08:00

【送个Claude Key】 先到先得佬友们 速度蹬 晚了就失效

周限又要重置啦 20x max这周又是没有用完 这次用力使用也就用了36% 还有半天左右,所以分享给大伙用了 根据之前教训,公开API Key和链接马上就被滥用蹬烂了 所以Key部分请删除最后1个字母(相当于我最后多写了一个字母)防止被机器人扫走或者不看文字的 然后我会在使用人数

tech linux.do 2026-04-27 12:16:24+08:00

感觉今天的gpt5.5速度快的逆天效果还好

常见测试题都能思考几秒光速答对并且考虑很全面 拍照发题目也是几秒就思考完了然后开始给答案并且还没啥问题 体感上输出速度和Gemini开快速都差不多了 这些问题换成5.4得推理半天还不一定对 8 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-27 12:13:59+08:00

在实际项目使用opencode测试了下DeepSeek v4 pro,不错但有点慢啊

平时一直用codex,这次使用opencode测试了下,看输出速度应该还行,最后的质量也不错,就是耗时比codex多太多,codex app我也没有使用多agent。 DeepSeek v4 pro - high: 16分钟 codex GPT5.5 - high: 3+2=5分

tech linux.do 2026-04-27 11:17:07+08:00