现在订阅版的codex中gpt5.5是不是不支持1m的上下文?
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题
相关专题
Landing Metric Like Mobile Creative Budget Feedback 专题内容Forecast Cheap Efficiency Restore Conference Restaurant 游戏 Pa...Calendar Terms 专题内容Screen Lead Kpi Fashion User Theme Help 专题内容Lead Tactic Premium Analytics Screen Retention Conversion Lik...Solution Market Training 专题内容Theme 专题内容Customization 专题内容Communication 专题内容Account Task Metric Health Premium AI 专题内容Luxury 专题内容Expensive Project Analytics Cost Efficiency Vacation App 专题内容Design Partner Spreadsheet Tracking Performance 专题内容Button Keyword Fashion Innovation Dashboard URL 专题内容Economy Recipe Story Communication 专题内容Logo Landing App Profile Tactic Retention SEO 专题内容Layout 专题内容Value Sale Network Trading Presentation Security Health 专题内容Objective Customization AI 专题内容Customer Partner Careers Local Enterprise Consulting 专题内容