ChatGPT Team额度太少
chatgpt team使用 gpt5.5模型high fast,使用多agent对系统源码进行检查,一下子额度就没了,真快啊 2 个帖子 - 2 位参与者 阅读完整话题
一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第61页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2156 篇相关文章 · 第 61 / 108 页
chatgpt team使用 gpt5.5模型high fast,使用多agent对系统源码进行检查,一下子额度就没了,真快啊 2 个帖子 - 2 位参与者 阅读完整话题
最近突发奇想,弄 ai 音乐,然后申请抖音音乐人 但是他那个好像需要点赞超过 100 才能申请,想问一下各位大佬,有没有什么快速的方法 1 个帖子 - 1 位参与者 阅读完整话题
目前查看cpa接口返回限额账号都是标记为不可用这个会命中warden的401逻辑,这样账号就没了 1 个帖子 - 1 位参与者 阅读完整话题
个人发票可以抽奖大家都知道吧?最近听朋友说中奖概率还可以,朋友抽了 10 次左右就中了一次 800 ,其他大部分都是 10 块。我自己试了几次,目前 100% 中 10 块。目前发现美团小象超市开出的发票就可以,大家没事的可以去试试
web试了一下咋都是1k的,codex让他查了参数返回的还是1k的,佬们都是这么生的4k啊 5 个帖子 - 4 位参与者 阅读完整话题
有什么网站或者github仓库可以推荐一下吗,总觉得了解的太散了 10 个帖子 - 10 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
gitpub copilot pro+包年有必要退费么?我看坛子里codex pro价格挺便宜的。有大佬指点一下么 16 个帖子 - 8 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
plus额度真的太少了,佬友能不能私信分享一下价格合适的中转站呀 感谢感谢 2 个帖子 - 2 位参与者 阅读完整话题
测试了一下,让我配置 OPENAI_API_KEY,配置了也无效~ 是不支持么 8 个帖子 - 6 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版 是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是 模型上下文 ,也就是 输入+输出 模型最大能
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
有点慢,我用codex调用,叫他帮我查一下codex的配置文件,调用了5次工具都断线了TT 7 个帖子 - 3 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
3 个帖子 - 2 位参与者 阅读完整话题