分享给老友们,订阅流量还有很多(20260425)
https://psee.io/8z2fk5 1 个帖子 - 1 位参与者 阅读完整话题
订阅 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第31页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1051 篇相关文章 · 第 31 / 53 页
https://psee.io/8z2fk5 1 个帖子 - 1 位参与者 阅读完整话题
之前claude尼区封了一次号,退款也成功了,再订阅要等多久?有限制吗? 1 个帖子 - 1 位参与者 阅读完整话题
佬友们好,如果官网订阅20xpro的话,我看菲律宾地区便宜,佬友们有什么订阅方案吗,或者友其他地区和官方订阅 菲律宾的话怎么去订阅会稳 4 个帖子 - 3 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
hermes agent 稳定运行了一周,今天突然登录不上了,订阅渠道 Google play ,发现被取消订阅了,邮箱也没收到任何提醒,就这么水灵灵的给我取消了?还能救一下吗?中间有两次限速了 是不是觉得我薅的太狠了。
hermes agent 稳定运行了一周,今天突然登录不上了,订阅渠道 Google play ,发现被取消订阅了,邮箱也没收到任何提醒,就这么水灵灵的给我取消了?还能救一下吗?中间有两次限速了 是不是觉得我薅的太狠了。
hermes agent 稳定运行了一周,今天突然登录不上了,订阅渠道 Google play ,发现被取消订阅了,邮箱也没收到任何提醒,就这么水灵灵的给我取消了?还能救一下吗?中间有两次限速了 是不是觉得我薅的太狠了。
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
佬们,有没有订阅的知道这个具体限制是多少,官方写的有些含糊,比如MiniMax有5小时4500,这个是多少呀? 2 个帖子 - 2 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
用着还行,GLM5写中等代码配合skills能用,占了个位置,后续可能也是会下架和阿里云一样。 2 个帖子 - 2 位参与者 阅读完整话题
前段时间小米不是搞了送 token 的那个活动吗。我因为订阅了小米的 token plan ,发现群里但凡还咋订阅的,送的都是赠金。然后这个增加不能购买套餐,只能直接使用 API 消耗。等于说是 300 多的定金实际上的 token 跟 39 块钱的套餐差不多。 付费订阅用户被大
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题
今天收到邮件,Claude被封了,记录一下… –关于账号,看了下记录,是2025-06申请的账号,用的是接近20年的老gmail。 –关于订阅,4个月之前用美区apple store开了pro订阅,这一期还没结束 –关于ip,一直用的飞鸟机场,4月初机场出事后开始dmit拼车,然
gpt plus / claude pro 订阅用户 TLDR 个人感觉 有gpt plus的基本不用考虑V4 有claude pro平时只用sonnet的可以考虑替换 据说V4 pro后训练还没有完成 等待正式版 V4 接 opencode感觉效果一般 接cc很好 同一个复杂的