自动化古法注册+HeroSMS接码,结合github源码和佬友的项目优化了一下163和接码。
从 自动化古法注册 + HeroSMS 接码 (4.17 可用) 继续讨论: 源码来自: QLHazyCoder/codex-oauth-automation-extension: Chrome 扩展:支持 OpenAI OAuth 注册、验证码获取、CPA 回调验证与自动恢复
一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第55页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2116 篇相关文章 · 第 55 / 106 页
从 自动化古法注册 + HeroSMS 接码 (4.17 可用) 继续讨论: 源码来自: QLHazyCoder/codex-oauth-automation-extension: Chrome 扩展:支持 OpenAI OAuth 注册、验证码获取、CPA 回调验证与自动恢复
之前换换IP还能接着用,点一下retry有时候也能用。今天早上似乎完全不行了。你们的都正常吗。上去官网看了下也没有什么更新。 9 个帖子 - 5 位参与者 阅读完整话题
分享一个100刀的额度的api密钥,支持gpt-image-2生图模型,如果佬们有好看的图可以返一下,一起欣赏欣赏 API_KEY=sk-e3JbBJVDQerHu9c9l001fNMDNpENjPRwQGNeaBXenN8S0IKJ curl https://api.rustj
目前是使用了sub2api进行gemini的反代,但是不成功,报错为以下内容: API returned 403: { “error”: { “code”: 403, “message”: “The caller does not have permission”, “statu
本人想重配一副眼镜,蔡司泽锐1.6铂金膜+镜框774元,佬友们问下这个价格正常吗?我看其他店不含镜框才700多,镜框需要自己单独买。 8 个帖子 - 7 位参与者 阅读完整话题
早上试了一下,竟然有回复了,但是首字很慢,大概30S左右,前几句话吞吞吐吐的,后面的速度明显提升 5 个帖子 - 3 位参与者 阅读完整话题
如题,小问题team一下干没了,plus还能顶一会 9 个帖子 - 9 位参与者 阅读完整话题
产品派( chanpinpai.com )正好上线一周了,分享一下周榜吧。也欢迎大家前往产品派发布分享产品。 本周榜单看点不少,感觉大家对「效率提升」和「 AI 赋能」的需求是越来越明确了。 榜单总览 2026 年 4 月 13 日 至 2026 年 4 月 19 日 的上榜产品
今天看到好多佬友都在用 xxx.indevs.in 这类的二级域名,出于好奇,我就问一下大家,顺便问问能否托管到CF 17 个帖子 - 11 位参与者 阅读完整话题
想着把一下站内公益的api用到trae solo上,但是api一直请求失败,有搞过的热老么? 4 个帖子 - 2 位参与者 阅读完整话题
呃,我很久都没有用这个gemini cli 但是我想用的时候它就直接错误403 这个是被风控了吗, 我问了一下Google one客服, 他们说联系Google Cloud 客服,但是那玩意儿要付费100多刀, 然后我就卡这边了,这个是每个人都有这个问题还是只有我一个人有? 9
自己搞了3个team帐户,从Mac mini里面装docker部署subapi,方便使用,但是不知道封不封帐号 3 个帖子 - 3 位参与者 阅读完整话题
已经成功开了,详细说一下: Timon是有美元银行账户和奈拉银行账户的,但是因为你的这个是小黑认证的,而开美元银行账户对小黑来说是国际账户,所以需要小黑的护照,但是小黑一般都是没有护照的,所以默认美元银行账户都是开不了的。因此只能通过crypto入金,推荐是USDC,像是Base
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我只想问,骚不骚 补一张配置图,cpu和内存都还没超频,待会弄一下 11 个帖子 - 5 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
有佬友用过codex-sec吗,x上看到有人用来做js逆向。 搜了一下只面向企业和教育用户开放,我只有plus账号有没有什么方法试用 https://openai.com/zh-Hans-CN/index/codex-security-now-in-research-previe