[Token] 送 MiniMax2.7 codingplan [推广]
限两百个,先到先得,q 群 1328662
Odin - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第46页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1437 篇相关文章 · 第 46 / 72 页
限两百个,先到先得,q 群 1328662
原来 10 刀一个月,定了小半年了, 现在涨价回到了 20 刀每月,大家会继续续订吗?
最近搬砖遇到的一些问题,抛砖引玉,欢迎大家讨论 困境 分布式异步系统在用 vibe coding 下最大的困境主要是两个,第一个就是环境搭建,需要多个相互隔离的 linux/windows 环境,每个环境甚至需要有自己的网络栈和 docker socket 。第二个就是测试断言非
在Hermes中只要过了10点就提示 429 当前模型访问了过大 请稍后再试 ;龙虾中就没有问题 这两天才出现的这个问题 有没有知道是什么原因的 2 个帖子 - 2 位参与者 阅读完整话题
国产是 coding plan 和 api 便宜,但是产品级订阅贵得要死,gpt 20 刀几乎畅用,国产你跑几个复杂点的任务就限额了,堪比 claude 20 刀的感觉(如果是入门套餐还不如 claude 20 刀)。你让它给你根据几份文件,做个 ppt 之类,它都能很快撞限额,
自建的 Coding Plan ,gpt-5.3-codex 和 gpt 5.4 模型 coding 时候的正常首 token 返回,响应基本不超过 1 秒( 5W input token 左右的情况) 这个 plan 是面向 coding 用户的,现在计划在下面两种定价方式里选
字节的coding plan支持glm5.1了。 我是企业版的codingplan,试了一下,首字波动超级大,吐字速度也很慢只有4-5token/s,而且经常429。对比kimi 2.6和阿里的glm5,真的用起来太难受了。 kimi: 1 个帖子 - 1 位参与者 阅读完整话题
限两百个,先到先得,q 群 1328662
限两百个,先到先得,q 群 1328662
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
没有听佬友们的劝,买了火山 coding plan,那简直是灾难级别。。。。只要买了,你得到的体验就是: No response from provider for 180s (model: glm-5.1, context: ~38,181 tokens). Reconnect
别再追查批发站了行吗,我 vibe coding 了三年,20 刀每月的 plus 我用了三年,房子用没了,家人被我用垮了,现在好不容易有了批发站,你们非说它是割韭菜,它割不割韭菜我们能不知道吗,那 plus 才 7 元/月,站长根本没赚钱,谁家能不遇上个程序员,你就能保证你这一
限两百个,先到先得,q 群 1328662
突然想起来自己好久之前订阅了Lite,还没怎么用,把体验卡先抽给佬友吧。 各位有好的用法也可以提提,感觉5小时额度有点太少啦 抽奖主题:GLM Coding Plan体验卡x3 奖品详情: [奖品]:GLM Coding Plan体验卡 活动时间: 开始时间:现在 截止时间:明天
来 L 站也有一些时日,深感本站的分享精神,特送出 GLM 的体验卡。 我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 () 2 个帖子 - 2 位参与者 阅读完整话题
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊
限两百个,先到先得,q 群 1328662
限两百个,先到先得,q 群 1328662