codex 如何使用 API 生图?
用的是 CPA 最新版,gpt img2 的模型号 在 codex 里面可以直接生图吗?不理解怎么做。 要自己写个插件 或者 skill? 2 个帖子 - 2 位参与者 阅读完整话题
GPT - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第145页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 4775 篇相关文章 · 第 145 / 239 页
用的是 CPA 最新版,gpt img2 的模型号 在 codex 里面可以直接生图吗?不理解怎么做。 要自己写个插件 或者 skill? 2 个帖子 - 2 位参与者 阅读完整话题
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
个人使用,最近玩image2较多,非常感谢 非常需要! 3 个帖子 - 3 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
感觉 gpt5.5 比 5.4 前端审美、代码重构能力强了不少啊, 处理前端屎山的能力也强了,项目真实场景使用后的个人感受,不是用那些测试 case. 1 个帖子 - 1 位参与者 阅读完整话题
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
Ai coding 这么久以来心里总有个疑问,Claude 使用gpt的模型对比使用自家oups的模型是会有工具对模型适配或者模型对工具的适配吗?反之也是一样的问题,L站得佬辛苦答疑一波 2 个帖子 - 2 位参与者 阅读完整话题
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
因为codex cli每次启动都会先加载mcp,然后 Starting MCP servers (1/5),我就想让他帮我解决,结果好像我没表述清楚被教育了吗 2 个帖子 - 2 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
帮你们论证了,GPT-5.5 节省token是真的,同样的plan, 19.43%,叠加cursor的50%优惠,冲咯[机智] 10 个帖子 - 7 位参与者 阅读完整话题
人类比ai而言,多的是想象力。 发挥你的想象力,一切皆有可能。 奥特曼逛大观园: 4 个帖子 - 3 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
也可能是昨天我的codex没推送,今天加班一打开就让更新,更新完就有辣,爽蹬 10 个帖子 - 8 位参与者 阅读完整话题
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题