求教:GPT Pro账号可以用NewApi等转接吗?
这样做的话最近有被封号吗? 目前同时在用好几台服务器做开发,美日德都有,怕同时oauth登录风险太大。不知道能不能从us的机器开服务,然后给其他几个地区的机器使用。 总用量不大,在50%配额以内。 1 个帖子 - 1 位参与者 阅读完整话题
Api - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1517 篇相关文章 · 第 9 / 76 页
这样做的话最近有被封号吗? 目前同时在用好几台服务器做开发,美日德都有,怕同时oauth登录风险太大。不知道能不能从us的机器开服务,然后给其他几个地区的机器使用。 总用量不大,在50%配额以内。 1 个帖子 - 1 位参与者 阅读完整话题
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能? 另外,DeepSeek-V4-Flash 模型的 Thinking 功能如果不显式关闭的话,是否会默认启用,从而导致在进行翻译时多消耗 Token
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
万能的佬友们有无稳定的gpt-image-2 api渠道呀 3 个帖子 - 3 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
用的公益站的,想在rikkahub和cherry用,怎么添加参数能出2k/4k之类的 1 个帖子 - 1 位参与者 阅读完整话题
我们团队正在做 AI 基础设施方向的工作,日常需要系统性评测各类中转站的可靠性,帮助内部项目做选型决策。 市面上的评测大多是"能不能连上"、"速度怎么样",但对我们来说更关键的问题是:这个接口背后到底在跑什么?有没有在请求或响应上动手脚?
我们团队正在做 AI 基础设施方向的工作,日常需要系统性评测各类中转站的可靠性,帮助内部项目做选型决策。 市面上的评测大多是"能不能连上"、"速度怎么样",但对我们来说更关键的问题是:这个接口背后到底在跑什么?有没有在请求或响应上动手脚?
中转站和公益站里的各种模型,标的什么模型就是什么模型吗? 我接到我的sub2api里,再问它是什么模型,问不出来是什么模型。 怎么能看是什么模型呢? 11 个帖子 - 10 位参与者 阅读完整话题
各位佬友,请教个问题: 我是自建的 new-api,已经是最新版,我在使用 codex cli,上下文较长的时候,就会触发错误: ■ Error running remote compact task: unexpected status 503 Service Unavaila
根据这位佬的教程开了gemini cli 手把手带你用上AI神器 - CLIProxyAPI(贰:Gemini CLI+Codex实战) 想请教一下 请问为什么我加到CPA中去 每日请求大概只有150次左右 我看官方的配额里写的不是1500次吗 我是gemini学生pro 3 个
我们团队正在做 AI 基础设施方向的工作,日常需要系统性评测各类中转站的可靠性,帮助内部项目做选型决策。 市面上的评测大多是"能不能连上"、"速度怎么样",但对我们来说更关键的问题是:这个接口背后到底在跑什么?有没有在请求或响应上动手脚?
我们团队正在做 AI 基础设施方向的工作,日常需要系统性评测各类中转站的可靠性,帮助内部项目做选型决策。 市面上的评测大多是"能不能连上"、"速度怎么样",但对我们来说更关键的问题是:这个接口背后到底在跑什么?有没有在请求或响应上动手脚?
codex客户端有些好用的插件例如cloudflare,但是如果用第三方api不是直接登录的话就会不让你用,想问一下佬有啥解决方案吗? 1 个帖子 - 1 位参与者 阅读完整话题
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
各位佬,我目前刚刚接触Claude code,然后试着在Claude中接入codex官方api,在Claude code里面用gtp-5.4,这样子会不会有降智啊? 3 个帖子 - 2 位参与者 阅读完整话题
最近小鸡挂了,又重新部署了下newAPI,发现设置里面可以换界面了,各位感觉怎么样,我觉得还不错 2 个帖子 - 2 位参与者 阅读完整话题