ChatGPT Team额度太少
chatgpt team使用 gpt5.5模型high fast,使用多agent对系统源码进行检查,一下子额度就没了,真快啊 2 个帖子 - 2 位参与者 阅读完整话题
GPT5.5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 322 篇相关文章 · 第 7 / 17 页
chatgpt team使用 gpt5.5模型high fast,使用多agent对系统源码进行检查,一下子额度就没了,真快啊 2 个帖子 - 2 位参与者 阅读完整话题
曾经在1月份发过类似的贴着,当时佬们的回答貌似还在吐槽上下文,智能指针。 如今opus4.6[1M] opus4.7 gpt5.4 gpt5.5 以及普惠1M的deepseekV4pro,AI发展一日千里。 嵌入式的佬们现在对于AI的应用感受如何?尤其是做应用层的嵌入式呢? 还有
CC接入GPT非常慢 使用CC接入gpt-5.5模型非常慢!!! 但是直接使用codex就非常快,差距非常明显。 CC接入gpt,几种方式都试过: CPA cc-switch New-API 并且都开启了fast,但都是一样的慢。 CodeX经常不响应最新提问。 还有问题,就是c
目前 GPT 系列充值渠道还没恢复好,临时给大家找了个稳定的 GPTPRO 号池中转 API 应急,感谢您的支持。 GPT PRO 号池中转 API 1000 刀不限时套餐 使用方法: 1.您到店里拍下付款后,平台会发送兑换码,您到下面中转站创建账号,控制台兑换菜单兑换即可。 2
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
把提示词给Codex,让Codex帮忙改 提示词.txt (1.6 KB) 效果 11 个帖子 - 10 位参与者 阅读完整话题
量子位:刚刚,GPT-5.5发布!更强更快更贵,内测英伟达工程师:失去它像被截肢 m.sohu.com 刚刚,GPT-5.5发布!更强更快更贵,内测英伟达工程师:失去它像被截肢 其中有一位英伟达工程师,他在早期测试结束后短暂的失去了GPT-5.5的访问权限,然后说了这样一句话:编
如题,谁知道gpt5.5多久会下放给免费用户使用呢?? 5 个帖子 - 3 位参与者 阅读完整话题
我的cli打开还是只有5.5,事还没有对免费账户开放嘛? 2 个帖子 - 2 位参与者 阅读完整话题
根据 GPT5.5在触发上下文压缩的时候报错404了,这个是OpenAI上游的问题还是sub2的问题呢? · Issue #1865 · Wei-Shaw/sub2api · GitHub 这个issue的评论,把codex_cli_rs/0.104.0改成codex_cli_r
近一周模型大爆发,御三家中a/更新了Opus4.7,openAI更新了gpt5.5和image2,国模中月之暗面更新了Kimi2.6,还有万众瞩目的DeepSeekV4,就连老马都端出来了一个grok4.3,那谷歌最近在干嘛?下一代Gemini怎么连一点小道消息都没有? 15 个
gpt5.5 一发布,claude 降智问题就被修复了,gemini cli 里面的 3.1 也变得可用了(虽然很慢 是不是说明了市场竞争对我们小老百姓可太重要了啊 没啥主题,就是感慨一下
gpt5.5 一发布,claude 降智问题就被修复了,gemini cli 里面的 3.1 也变得可用了(虽然很慢 是不是说明了市场竞争对我们小老百姓可太重要了啊 没啥主题,就是感慨一下
[rmcp::transport::worker::WorkerTransport<rmcp::transport::streamable_http_client::StreamableHttpClientWorker<codex_rmcp_client::http_
gpt5.5 一发布,claude 降智问题就被修复了,gemini cli 里面的 3.1 也变得可用了(虽然很慢 是不是说明了市场竞争对我们小老百姓可太重要了啊 没啥主题,就是感慨一下
之前看佬们说gpt写代码有点面条,各位客观回答目前gpt和opus谁的编码能力更好些呢 opus渠道真的太贵了 19 个帖子 - 15 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
codex里,team,一个任务还没完成,十几分钟,5小时限制就只有48了,还是用的high 15 个帖子 - 12 位参与者 阅读完整话题