[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第12页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 273 篇相关文章 · 第 12 / 14 页
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
上个月还专门开老套餐自动续订 然后虽然有赠金200,但是实打实的又多掏了800多,就为了能够在后面自动续费老套餐 那合着就是专门来骗我们一波,让我们开自动续订,多掏800多,然后不到一个月,再把自动续订强制关掉? 你当时的自动续费可不是说让我们按个按钮就开了,你是让我们补差价补到
最近加班了一段时间 感觉身体都废了 现在就盼着五一能够赶紧放假休息休息 感觉以后还是得转行 要不然身体真的吃不消 4 个帖子 - 4 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
7 个帖子 - 5 位参与者 阅读完整话题
https://x.com/thsottiaux/status/2046678531695104187 虽然但是,不知为什么测出来不可用( 2 个帖子 - 2 位参与者 阅读完整话题
昨晚有人发现 pro plan 不包括 CC 了,虽然后来公关又出来澄清说这是针对 2%新用户的 AB 测试(这是要测这 2%用户有多愤怒吗) 不过在我看来,20 美元的 coding plan ,注定是不可持续的。往大了说,SaaS 模式在烧 token 的新时代是走不通的,往
都是收集的站内公益站,虽然可用性都很差 1 个帖子 - 1 位参与者 阅读完整话题
佬友们,第一次用LD士多啊(因为刚来L站没多久积分就下了),该怎么发起争议退款呢,有点懵,找不到入口啊 3 个帖子 - 2 位参与者 阅读完整话题
虽然opencode go本身kimi2.6数量少,但翻三倍之后和之前的qwen3.6plus已经是一个档次的周限额,还是可以用的。活动持续到27日。所以原本有套餐的,运气好说不定能用到两次周限额翻三倍。 2 个帖子 - 2 位参与者 阅读完整话题
虽然要实名认证了,但是还是给大家分享一些好的经验吧。 去年年末,我被封了无数个Claude Code号,封了又买,买了又封。虽然使用没有中断过,但是老是折腾还是非常不爽的。 久病成医,结合Claude Code最近泄露的代码、以及我个人的经验,我可能已经找到了防止Claude C
我发现gpt的pro模式虽然要思考很久,但是效果是真的好呀。同样的任务,codex居然做不成我要的效果。 任务要求是,实现一个html,让用户上传的pdf可以直接编辑,编辑之后支持保存导出。 pro和codex都在第一版就完成了这个功能,它们的实现方式是差不多的。然后都存在修改的
虽然平时经常骂 A\,但是模型和 cli 都是真的挺好用的,下面分享我的一个经历,也许可以给大家一些解决生活问题的新思路 我的 macbook 之前续航经常很差,而且有时候有网络问题(关闭 surge 后 上不了网),关于省电问题我在网上找了大量讨论,依然解决不了我抱着试试得了的
这篇论文大概讲ViT 在很多情况下会偷懒地利用背景/上下文 patch 作为分类捷径,导致全局表示对前景对象的聚合不充分 里面提到一个很有意思的现象:lazy aggregation。 我觉得这对 agent harness 很有启发: 如果把视觉里的"背景 patch