[分享创造] [cpa 删除使用统计] 不用慌,来用我的二开!
欢迎使用 daishuge/CLIProxyAPI ~~ 链接在这,欢迎点点 star: 开源链接: https://github.com/daishuge/CLIProxyAPI 官方有新功能会尽快跟上的,有什么想优化的也可以提 issues~ 这不是一个简单的二开,而是一个稳
API - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1484 篇相关文章 · 第 5 / 75 页
欢迎使用 daishuge/CLIProxyAPI ~~ 链接在这,欢迎点点 star: 开源链接: https://github.com/daishuge/CLIProxyAPI 官方有新功能会尽快跟上的,有什么想优化的也可以提 issues~ 这不是一个简单的二开,而是一个稳
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
我记得网友说,必须先买 plus 再升级刀 pro5x 。所以 100 刀够不够? 举例:订阅完 20 刀的 plus 后,只剩 80 刀, 是不是不够买 pro 5x 了? 难道要准备 120 刀?
我记得网友说,必须先买 plus 再升级刀 pro5x 。所以 100 刀够不够? 举例:订阅完 20 刀的 plus 后,只剩 80 刀, 是不是不够买 pro 5x 了? 难道要准备 120 刀?
我记得网友说,必须先买 plus 再升级刀 pro5x 。所以 100 刀够不够? 举例:订阅完 20 刀的 plus 后,只剩 80 刀, 是不是不够买 pro 5x 了? 难道要准备 120 刀?
我记得网友说,必须先买 plus 再升级刀 pro5x 。所以 100 刀够不够? 举例:订阅完 20 刀的 plus 后,只剩 80 刀, 是不是不够买 pro 5x 了? 难道要准备 120 刀?
我的newapi套了CDN,CDN缓存已经清理,但是无法正常打开网站,白屏,求助各位大佬 8 个帖子 - 3 位参与者 阅读完整话题
我记得网友说,必须先买 plus 再升级刀 pro5x 。所以 100 刀够不够? 举例:订阅完 20 刀的 plus 后,只剩 80 刀, 是不是不够买 pro 5x 了? 难道要准备 120 刀?
RT,个人技术栈 Java / Python 都能写,Spring Boot、FastAPI、LangChain 都摸过,前后端简单页面也能糊。想认真做一个 AI Agent 项目,开源或商用都行,关键是要 真有用 ,别最后成了玩具。 目前想到的方向(但不确定哪个靠谱) AI 视
有没有那种比较好的图片生成管理工具的开源,我想对接一下,后续作为公益站使用.自带的功能有点太少了. 1 个帖子 - 1 位参与者 阅读完整话题
最近把不少常规 API 都换成了 DeepSeek v4 pro,虽然还没深度重构工作流,但总体体验还算不错,网上风评看起来也好像挺好的,很多人已经接入了CC了。 越用越觉得,DeepSeek 简直就是大模型界的小米:你可以不用它,但你必须感谢它。 现在的行业定价逻辑挺简单的:D
api key:sk-I4OefiOzqPvKeZ4tCsN5DzeK9EIxNZGiuPPuZv5ESrZBM 接入地址: https://maas.gd.chinamobile.com:36007/ai/uifm/open/v1 接入协议:openai-completions
手上公益站额度屯的有点多了,加上中奖了CHY公益站的一个亿的额度现在感觉必须要花掉了,想问问大家都用API干什么呢,我平时也就写写东西改改错什么的,花的额度也比较少,现在还在写项目阶段觉得还是得古法手敲,所以一般都用来查错询问,觉得委屈了我的API了哈哈哈哈,想借鉴一下佬们的使用
标价max渠道的opus4.6是8r输入,40r输出/1m,但是我让它回个ok就花了一块多,读了一个文档和xlsx就花了10r,是不是额度异常了,这个用量也太夸张了吧,输入直接用了10wtoken 7 个帖子 - 4 位参与者 阅读完整话题
用grok搜了一下,说如果oauth的号子多了的话ip可能会被openai风控,建议走代理池。后续想古法注册一些free号来用,请问是不是需要代理池? 3 个帖子 - 2 位参与者 阅读完整话题
之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。 # litellm_config.yaml model_list: - mode
目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/
目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/
下面是御三家当前旗舰模型的 API 标称价格 模型 API 模型名 标称输入价 $/MTok 标称输出价 $/MTok Gemini 3.1 Pro Preview gemini-3.1-pro-preview 2.00 12.00 GPT-5.5 gpt-5.5 5.00 30
目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/