grok2api已在VPS部署,配置到opencode报错403
grok2api已在VPS部署,配置到opencode报错403,让chatgpt帮忙排查了下,给出一下结论,各位大神都是怎么处理的? 4 个帖子 - 3 位参与者 阅读完整话题
报错 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第14页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 289 篇相关文章 · 第 14 / 15 页
grok2api已在VPS部署,配置到opencode报错403,让chatgpt帮忙排查了下,给出一下结论,各位大神都是怎么处理的? 4 个帖子 - 3 位参与者 阅读完整话题
如标题所示,我在实验项目里使用 Codex。项目里的文件不少,但肯定比不上那种商业级大型工程。 一旦我给 Codex 提供较长的 prompt,比如让它帮我写一段论文实验部分,就经常会报"信息流错误"。而且一报这个错,这个对话基本就废了,只能重新开新对话。 我
我9点点进去的时候基本完全没反应,总是报错,我都要放弃了,但是就是9点02分,突然有了一个短暂的空窗期,直接注册成功,太不容易了,我从今天开始,一定每天争取把额度用空,不负淇淇的努力 4 个帖子 - 3 位参与者 阅读完整话题
如图所示,部署了newapi站点之后,添加渠道在这里使用了Anthropic Claude的类型,使用的URL是 https://open.bigmodel.cn/api/anthropic ,实际使用过程中发现glm-5-turbo可以使用,但glm-5v-turbo偶尔会报错
佬友有没有遇到cc连接Ark报错503的?是配置的问题嘛,谢谢了 5 个帖子 - 4 位参与者 阅读完整话题
今天Claude Code CLI自动更新到2.1.113+之后,Windows上直接崩了。 原更新命令: npm install -g @anthropic-ai/claude-code@latest 运行claude命令就报错:「该版本的 claude.exe 与你运行的 W
会话失败:{“error”:{“message”:“The requested model is not supported.”,“code”:“model_not_supported”,“param”:“model”,“type”:“invalid_request_error”
glm5.1 逆天 我就发了一个40字搜索请求(纯文字) 重试了5次,全报错(都是图一的那种) 刷新一下就不给玩了 3 个帖子 - 3 位参与者 阅读完整话题
anyouter 5 个帖子 - 5 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
佬们,any的这个调用子代理的bug不知道怎么修复呀,用了哈雷佬的脚本,不知道怎么的还是报错 5 个帖子 - 3 位参与者 阅读完整话题
求助各位佬,我的windows端app的codex无法使用,wodecli和vscode插件都是可以用的,我用的cc switch,配置是 ,然后codex app显示 ,然后模型和推理等级也无法选择 2 个帖子 - 2 位参与者 阅读完整话题
claude code 经常用着用着就出来报错Request too large (max 32MB),然后只能打开新对话才能继续,有什么办法解决吗 2 个帖子 - 2 位参与者 阅读完整话题
我这么大一个 不支持codex,只支持/v1/chat/completions请求 没人看见吗? 后台全是报错。。。。。。 (刚好当鉴别机器人了。。。。。。) 22 个帖子 - 16 位参与者 阅读完整话题
如题,我用的是中转,就是输出一个命令下一个就报这个错误了。一直解决不了,有人知道是怎么解决吗 1 个帖子 - 1 位参与者 阅读完整话题
每次都会显示这个,但我之前好像都是这么配的,ccs上也没变什么,求助佬友 6 个帖子 - 3 位参与者 阅读完整话题
报错如下: ERROR conda.core.link:_execute(1031): An error occurred while installing package 'defaults::anaconda_powershell_prompt-1.1.0-haa9
专门办了一张招行信用卡 来注册甲骨文账号,上次注册了一般绑卡失败了,这次重新用原来的邮箱继续创建,绑卡成功了,但是账户创建失败了,怎么破,如果我重试的话 可以用原来的邮箱和用户信息吗 各位佬,求解答 4 个帖子 - 4 位参与者 阅读完整话题
为什么切换任何模型都报错503呢?佬们救救我 没有AI就不会敲代码了 { “error”: { “code”: 503, “details”: [ { “ @type ”: “ type.googleapis.com/google.rpc.ErrorInfo ”, “domain
先说说使用环境:自己的单个GPT PRO账号------CPA转接(这里主要是为了统一代理,不用每个机器装一个代理)------Axonhub(因为还有其他模型,一起管理)------opencode+OMO 在两台开发机上都发现同样的问题(不同的OC版本,一个1.3.17,一个