free账号的codex 调用开始报server_error 错? 奥特曼也顶不住了么
详细错误信息如下 {"type":"error","sequence_number":2,"error":{"type":"server_error",&quo
调用 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第15页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 357 篇相关文章 · 第 15 / 18 页
详细错误信息如下 {"type":"error","sequence_number":2,"error":{"type":"server_error",&quo
平时会使用claude code开发(主工具),claude code调用codex审计代码,但是如果放在后台执行codex,超过一段时间好像就会被杀死,请教各位佬,这个有什么办法解决吗,比如修改Claude code的配置文件信息? 1 个帖子 - 1 位参与者 阅读完整话题
1.我先让gork 搜一下 image 2 怎么用 2.返回2中用法,其中方法二说可以调5.4,走response, 3.我说我现在就在response协议呀,也是5.4 4.它说它不能生成,因为我没有openaikey,除非我也走现在的兼容网关形式(就是中转站的key) 5.我
把硅基流动的glm5.1模型,接到了claude code,然后叫他去browser-use的github仓库浏览一下安装说明,我懒得动手,原本以为没多少消耗的,结果也就一两秒时间,甚至可以说一瞬间弹出提示余额没了 他大概是想把整个仓库的文件通读一遍?要不要这么实诚 原本账户余额
佬们,想请教一下GPTPro20× web端pro的调用次数 每天都用二三十条不知道能不能坚持一周 3 个帖子 - 2 位参与者 阅读完整话题
我的codex在升级v0.122版本之前使用codex的Auto-review的时候模型调用记录看后台都是与主线程模型一致的,都是GPT5.4 前两天升级到122版本之后今天使用中转站发现后台模型使用记录多了很多GPT5.4mini的调用,我的对话暂时没有用subagent,思来
账号都挂在CPA上,然后额外写了个check auth脚本测活,但没有调用CPA的API,导致rt被刷新了,尴尬。应该用了两个月的老号 1 个帖子 - 1 位参与者 阅读完整话题
我看很多中转站有thinking模型,比如Claude sonnet 4.6 thinking模型,claude code调用时会自动调用这个thinking模型吗 4 个帖子 - 4 位参与者 阅读完整话题
以火山举例(大部分国模coding plan也有类似的描述) 我想着roocode、kilocode这种不也算是api调用吗 搞不懂 求解惑 3 个帖子 - 2 位参与者 阅读完整话题
前言 : 我搭建了一个小中转站(3-5人使用),采用按量付费模式 当前环境 :new-api+CPA反代 希望解决的问题: 在 Claude Code 中使用 Codex 模型时,既能正常调用工具(文件读写),又能保持清晰的按 token计费。 已尝试的方案及结果 : 方案一:关
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
Codex中的image调用是GPT模型通过调用工具来生成的 所以无需特殊适配 只需要在config.yaml里加 oauth-model-alias: codex: - name: gpt-5.4-mini alias: gpt-draw-1024x1024 fork: tru
这是啥问题啊。 1 个帖子 - 1 位参与者 阅读完整话题
如题,前几天glm5.1调用显示需要订阅用户才能用,然后我就换成了glm5,今天发现glm5也需要订阅用户才能用了 5 个帖子 - 4 位参与者 阅读完整话题
curl --location 'https://chatgpt.com/backend-api/codex/responses' \ --header 'Authorization: Bearer' \ --header 'ch
cpa的codex要怎么看,为什么额度是满的但是警告limit,调用的时候也没用上。 是被封号了吗? 4 个帖子 - 2 位参与者 阅读完整话题
IT之家 4 月 22 日消息,蚂蚁集团旗下的百灵大模型今日宣布,推出一款 总参数量 104B 、 激活参数 7.4B 的 Instruct 模型 Ling-2.6-flash 。 一周前,代号为 Elephant Alpha 的匿名模型登陆 OpenRouter。上线以来,其调
大佬们,我是新人,如果词不达意,描述不准确的话,大家别见笑。 CC配合CCS使用一些GLM和其他一些OPEN AI规范的模型时,需要打开CCS的代理开关,要不然会报错无法使用。 但是打开这个代理开关后,发现CC工作时就调用本地写的一些工作流了,甚至连检索文件也不行。 大佬们,这个
最近发现一个奇怪的现象,openclaw接三个不同公益站glm5.1、gemini、grok等模型都无法调用工具,其中glm5.1和gemini直接发类似这样的文本 <tool_call>exec](command=“cd ~/openclaw &&
不能工具调用?而且还有很多问题 是我的方法不对吗? 3 个帖子 - 2 位参与者 阅读完整话题