有佬友用过codex-sec吗
有佬友用过codex-sec吗,x上看到有人用来做js逆向。 搜了一下只面向企业和教育用户开放,我只有plus账号有没有什么方法试用 https://openai.com/zh-Hans-CN/index/codex-security-now-in-research-previe
只有 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 299 篇相关文章 · 第 7 / 15 页
有佬友用过codex-sec吗,x上看到有人用来做js逆向。 搜了一下只面向企业和教育用户开放,我只有plus账号有没有什么方法试用 https://openai.com/zh-Hans-CN/index/codex-security-now-in-research-previe
佬友们,晚上八九点开始突然输出速度好慢呀,只有几token? 白天的时候不开Fast都很快呀 是俺的问题吗 12 个帖子 - 5 位参与者 阅读完整话题
看起来只有Plus啊 难道是先定个Plus?再升级给??? 2 个帖子 - 2 位参与者 阅读完整话题
手上只有 iPhone 且官方客户端只能给 app 发验证码没触发发短信。 用模拟器装的 tgx + herosms 的美国手机号注册,登了一下网页版然后就被封了,找 bot 申诉失败。 这个时用模拟器的问题还是不应该登网页版?官方客户端发不了短信是不是只能用 tgx 7 个帖子
我回答的是B,然后他说是D. 上下文只有15%. 1 个帖子 - 1 位参与者 阅读完整话题
因为我一个人在办公 所以摸鱼的时候我就在想 我跟豆宝打电话聊会儿天 然后我又在想别人的语音模型怎么样了,我记得 gpt 以前搞过,后来就没有什么后续 我记得 kimi 以前也研究过 我又问问豆包儿,豆包说它的模型是四月份更新的语音的那个模型,感觉别人的语言模型都很久很久没有更新过
之前一直想生成一张《蜘蛛侠:平行宇宙》的图,但是反复504,随便让他生成一个东西又是可以的。 上了官方的web端生成,提示违反了政策。 但是生成了几张日漫,一点问题都没有。 所以估计是仅保护美国动漫的版权???PS:赛博朋克是日本公司TRIGGER制作 成果: 7 个帖子 - 5
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我的cli打开还是只有5.5,事还没有对免费账户开放嘛? 2 个帖子 - 2 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
codex里,team,一个任务还没完成,十几分钟,5小时限制就只有48了,还是用的high 15 个帖子 - 12 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我看了好像没什么简单配置法子把 要么都自动 要么经常需要review 6 个帖子 - 6 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
几个meta账号全被送中了,facebook、Instagram、meat ai里的AI全用不了,只有whatsapp里的能用。虽然是废物AI,但狠是真的狠啊。claude只要不充钱,至少网页和app是能用的。 18 个帖子 - 14 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文