grok最近是又收紧了吗?
自己在服务器上搭建的grok2api各种429,以为是服务器ip被老马拉黑了,结果自己的x账号问grok也老出问题,自己平时用的代理是dmit的,和服务器ip也不一致啊,你们的grok用起来都还正常不 10 个帖子 - 8 位参与者 阅读完整话题
api - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第62页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1601 篇相关文章 · 第 62 / 81 页
自己在服务器上搭建的grok2api各种429,以为是服务器ip被老马拉黑了,结果自己的x账号问grok也老出问题,自己平时用的代理是dmit的,和服务器ip也不一致啊,你们的grok用起来都还正常不 10 个帖子 - 8 位参与者 阅读完整话题
标题是开玩笑。 诶嘿。 之前那个模型有点指哪打哪的感觉。 因为是改自己的作品集和简历所以就不发了。 刚才崩溃之后用Kimi 2.6都没有这种感觉。 新模型确实有不会的,但是说一次就好,不需要说第二次。 这种能力……非常重要。 1 个帖子 - 1 位参与者 阅读完整话题
这两天在搬onedrive,发现速度突然慢了很多,一开始以为是api限速了,后来看到有人说是甲骨文ARM也被限速了,好多地区的都已经限速,还有少部分可能暂时没有,大家可以看看,然后分享一下~ 5 个帖子 - 4 位参与者 阅读完整话题
要用claude design 但是每个星期限额 根本不够用,我看可以绑卡 按照api 美金付费 但是我看咸鱼全都是 礼品卡兑换 没有绑卡的,有没有办法绑卡呢?或者能解决 额度问题? 3 个帖子 - 2 位参与者 阅读完整话题
官方平台调用,但是官网还是显示v3.2为现有版本,大的终于来了吗 3 个帖子 - 2 位参与者 阅读完整话题
如题,昨天刚搞定Flow2API,惊闻GPT新图片生成model逆天,想说也能2API一下,不懂是否有类似Flow2api 这种普天同庆的项目~ 感谢各位推荐~! 5 个帖子 - 5 位参与者 阅读完整话题
有佬友知道CPA弄出来的image2,三个模型怎么做newapi里给合成一个gpt-image-2吗? CPA弄出来是下面三个模型: gpt-draw-1024x1536 gpt-draw-1024x1024 gpt-draw-1536x1024 应该用什么方法在newapi里合
用的是gpt 5.3 codex,写写md文档,有时候就报at capacity警告,然后用/model重新点一遍gpt 5.3 codex medium就又可以用了,但是之后有概率又报警,为什么呢??? 1 个帖子 - 1 位参与者 阅读完整话题
用的时候发现回答风格变了,一问,果然是新模型。
用的时候发现回答风格变了,一问,果然是新模型。
主要是拿国外某些大模型的接口,不碰国内的。 主要职责: 提取并维护 API 号池维护 最好是比较空闲的,后续可能长期合作,在职的可能不太方便。 联系:atob('dng6cHl5Ym95')
买了好多中转站,怎么统一管理?用sub2api还是cpa比较好呢? 1 个帖子 - 1 位参与者 阅读完整话题
报错: Post "https://chatgpt.com/backend-api/codex/responses": Gateway Timeout 佬们这问题怎么解决? 1 个帖子 - 1 位参与者 阅读完整话题
用的时候发现回答风格变了,一问,果然是新模型。
我这边是直接让codex生图然后用的本地cpa的url和apikey走response格式就行了 3 个帖子 - 2 位参与者 阅读完整话题
api换成app的模型了,大的可能真的要来力,今天用api时候发现的提示词已经改了 11 个帖子 - 6 位参与者 阅读完整话题
DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。 但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。 超时报错:{“error”:{“message”:“We were unable to s
用的时候发现回答风格变了,一问,果然是新模型。
简简单单的2api项目,预告一下。 注意需要结合GenericAgent的能力哦。 我有点不太记得我有没有发布2api的焚绝了: 补一个极小极小极小的焚绝: llm-api-adapter.zip (16.7 KB) 喜欢就支持一下GA吧 如果GA真的给你带来了便利,不不不,一定
IT之家 4 月 22 日消息,今日有大量用户反馈称,DeepSeek 官方 API 已经更新到了与客户端及网页版相同的 1M tokens 上下文版本(似乎是此前曝光的 DeepSeek V4 Lite),比之前的 128k 上下文更长。 与此同时,最新 DeepSeek 的知