虽然 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第12页 - 钛刻科技 | TCTI.cn

虽然 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第12页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 273 篇相关文章 · 第 12 / 14 页

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:21:02+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:03:43+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 13:03:43+08:00

智谱 我cnm 不仅仅是背刺,还tm骗出来杀是吧

上个月还专门开老套餐自动续订 然后虽然有赠金200,但是实打实的又多掏了800多,就为了能够在后面自动续费老套餐 那合着就是专门来骗我们一波,让我们开自动续订,多掏800多,然后不到一个月,再把自动续订强制关掉? 你当时的自动续费可不是说让我们按个按钮就开了,你是让我们补差价补到

tech linux.do 2026-04-22 12:52:14+08:00

虽然还有一个多星期才能放假 但是现在好期盼五一呀

最近加班了一段时间 感觉身体都废了 现在就盼着五一能够赶紧放假休息休息 感觉以后还是得转行 要不然身体真的吃不消 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-22 12:40:58+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 12:24:02+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 11:57:16+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 11:57:16+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 11:42:18+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 11:28:38+08:00

image2画原型 虽然画的不对,但是够用了,不知道能不能用于生产

7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-22 10:48:21+08:00

Codex内已支持GPT Image 2生图

https://x.com/thsottiaux/status/2046678531695104187 虽然但是,不知为什么测出来不可用( 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-22 10:48:18+08:00

[推广] Claude Pro 不能用 Claude Code?

昨晚有人发现 pro plan 不包括 CC 了,虽然后来公关又出来澄清说这是针对 2%新用户的 AB 测试(这是要测这 2%用户有多愤怒吗) 不过在我看来,20 美元的 coding plan ,注定是不可持续的。往大了说,SaaS 模式在烧 token 的新时代是走不通的,往

tech v2ex.com 2026-04-22 08:47:54+08:00

这不对吧?怎么 claude 渠道比 codex 还多了?

都是收集的站内公益站,虽然可用性都很差 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 21:14:00+08:00

虽然假3级,但不懂要问

佬友们,第一次用LD士多啊(因为刚来L站没多久积分就下了),该怎么发起争议退款呢,有点懵,找不到入口啊 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-21 20:06:19+08:00

有opencode go套餐的可以看下kimi2.6限时三倍用量

虽然opencode go本身kimi2.6数量少,但翻三倍之后和之前的qwen3.6plus已经是一个档次的周限额,还是可以用的。活动持续到27日。所以原本有套餐的,运气好说不定能用到两次周限额翻三倍。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-21 18:55:28+08:00

Claude Code防封号终极指南(转载)

虽然要实名认证了,但是还是给大家分享一些好的经验吧。 去年年末,我被封了无数个Claude Code号,封了又买,买了又封。虽然使用没有中断过,但是老是折腾还是非常不爽的。 久病成医,结合Claude Code最近泄露的代码、以及我个人的经验,我可能已经找到了防止Claude C

tech linux.do 2026-04-21 14:46:48+08:00

gpt的pro模式和codex差距讨论

我发现gpt的pro模式虽然要思考很久,但是效果是真的好呀。同样的任务,codex居然做不成我要的效果。 任务要求是,实现一个html,让用户上传的pdf可以直接编辑,编辑之后支持保存导出。 pro和codex都在第一版就完成了这个功能,它们的实现方式是差不多的。然后都存在修改的

tech linux.do 2026-04-21 14:42:11+08:00

[经历分享] AI 是怎么帮助我的日常生活的

虽然平时经常骂 A\,但是模型和 cli 都是真的挺好用的,下面分享我的一个经历,也许可以给大家一些解决生活问题的新思路 我的 macbook 之前续航经常很差,而且有时候有网络问题(关闭 surge 后 上不了网),关于省电问题我在网上找了大量讨论,依然解决不了我抱着试试得了的

tech linux.do 2026-04-21 13:00:38+08:00

分享一篇好文,虽然视觉领域的,但对agent harness 可能有启发

这篇论文大概讲ViT 在很多情况下会偷懒地利用背景/上下文 patch 作为分类捷径,导致全局表示对前景对象的聚合不充分 里面提到一个很有意思的现象:lazy aggregation。 我觉得这对 agent harness 很有启发: 如果把视觉里的"背景 patch

tech linux.do 2026-04-21 12:19:01+08:00