codex 中GPT5.5 现在怎么配置 1M 上下文
[已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三 解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?
Gpt5.5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 322 篇相关文章 · 第 11 / 17 页
[已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三 解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?
我用的cpa反代,然后ccswitch 配置的。听说fast很快。但是我不知道怎么配置。有佬给说明一下吗? 4 个帖子 - 3 位参与者 阅读完整话题
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
这个是咋回事呢?而且是买的100刀的套餐。我看很多人都可以用了,但是是还是在灰度中? 7 个帖子 - 5 位参与者 阅读完整话题
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
主站 ai.centos.hk New API 统一的 AI 模型聚合与分发网关,支持将各类大语言模型跨格式转换为 OpenAI、Claude、Gemini 兼容接口,为个人与企业提供集中式模型管理与网关服务。 Q群 介绍 充值比例为1:1 Claude 特惠渠道降至0.3元一刀
我的是mac系统,codexcli是可以正常使用gpt5.5的,但是打开codexapp里面只显示5.4没有5.5怎么办 6 个帖子 - 4 位参与者 阅读完整话题
GPT5.5和opus4.7/4.6比怎么样,整个站全被ds刷屏了,讨论GPT5.5好少啊 ds都比中转站的opus贵了,还是等价格下来吧 我好像记得有谁发了个大模型排行榜,5.5超过opus了? 9 个帖子 - 6 位参与者 阅读完整话题
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
也加了这个了:model_catalog_json = ‘.\model-catalog.gpt-5.5.json’ codex app和codex cli也都更新过了。本来cli也没有的,也是更新+添加json可以。微软商店的codex app 26.422.2437.0不是最
今天gpt5.5和deepseekV4都出来了! 正好又是周五下午(周五下午包摸鱼的~) 用经典洗车问题去测试他们一下包括其他模型 codex gpt5.5 没啥毛病 deepseekV4 不错 gemini 3.1 pro 可以的 就是话有点多,还搞了个模拟器。。(本人是觉得话
codex使用我看了下后台tps不算首字也就45token/s左右,用了半天为啥感觉好快啊!!我都怕他不够聪明,你们也是吗? 体感比5.4fast模式都快了30%,我之前一直用的fast 我开发都有点心虚,这么快会不会哪里有坑,review代码都要切回5.4去 网页使用5.5pr
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
claude-desktop-zh-cn.zip (360.9 KB) 让gpt5.5汉化的全程没怎么操作,大佬们可以试试 1 个帖子 - 1 位参与者 阅读完整话题
前端时间为了避免codex的powershell老报错,我把powershell5换成了powershell7 但是今天gpt5.5出来之后,我使用中又发现了powershell报错,于是排查了一下发现好像gpt5.5会默认使用powershell5? 3 个帖子 - 3 位参与
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62