字节的方舟Coding Plan Lite用量, 我用中转测了一下, 给各位佬友做个参考.
拿sub2api做中转测了一下, 额度小的离谱。图里面是五小时额度消耗完的用量。 一共就请求了42次, 算下来大概4M tokens? 五小时的额度占一个月额度的7%, 一个月也就是大概56M的额度. 五小时额度20分钟不到就消耗完了 。 之前体感就觉得很低, 现在测了一下发现居
一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第59页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2139 篇相关文章 · 第 59 / 107 页
拿sub2api做中转测了一下, 额度小的离谱。图里面是五小时额度消耗完的用量。 一共就请求了42次, 算下来大概4M tokens? 五小时的额度占一个月额度的7%, 一个月也就是大概56M的额度. 五小时额度20分钟不到就消耗完了 。 之前体感就觉得很低, 现在测了一下发现居
近期开了几个中转站把我绕昏了. 写的是 5.5 到价格做对比 输入价格: 2 元/M Token 输出价格: 8 元/M Token 缓存输入: 0.1 倍率 缓存写入: 1.25 倍率 1 rmb = 17 刀? 也有佬友买了 3 元/100 刀 我试了一下x鱼上的3元 100
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最新出来这么多新模型,大家都用过了吗?都如何呀有佬说一下不? 7 个帖子 - 5 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
刚刚吵架了,嗓子吼得好疼 慢性咽炎的药好久没吃了,要继续吃吗? 除此以外怎么修复一下嗓子 9 个帖子 - 8 位参与者 阅读完整话题
最新评测结果: https://github.com/gaboolic/rime-schema-compare/blob/main/report/latest.md 根据最新评测结果(生成时间: 2026-04-25 16:49:02 +08:00 ),白霜拼音在不使用模型和使用
最新评测结果: https://github.com/gaboolic/rime-schema-compare/blob/main/report/latest.md 根据最新评测结果(生成时间: 2026-04-25 16:49:02 +08:00 ),白霜拼音在不使用模型和使用
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
测试了一下Claude code,配合hello2cc,工具调用有点拉胯,经常不成功,然后自己就退出任务了,也不尝试。 大家有何妙招?opencode体验咋样呀~ 7 个帖子 - 7 位参与者 阅读完整话题
api.xiaoxin.cfd XINX - AI API Gateway 大佬们用完提提意见,别蹬太狠了 4 个帖子 - 4 位参与者 阅读完整话题
不过重试了一下,还是正确了 3 个帖子 - 3 位参与者 阅读完整话题
请问佬友CPA中Codex Free账号的Oauth授权文件如何自动登陆刷新啊,我目前是在配额管理中,刷新一下配额,如果有提示要重新登录的账号,我就手动通过Oauth授权重新登录更新认证文件,但是看到有佬说程序中写死了认证文件过期5日之前系统会自动更新,但是我发现并没有更新啊,我
佬们我是大学生,我就是想问一下,现在工作还会手敲代码吗,现在这个vibe也太厉害了吧,没感觉到手敲可以代替什么,还是架构思维方面比ai强点吧 11 个帖子 - 11 位参与者 阅读完整话题
今天用 Windsurf 的 GPT-5.5 XHigh Thinking 玩了一下,就给了一句话: 写一个 web,写个天气预报,包括省内,山东威海乳山市,我要查乳山市天气预报,web 然后它直接给我生成了三个文件,一个 html 一个 css 一个 js,打开就是个天气预报页
先故意弄些黑话污染一下,再刷一下跑分,等着Claude蒸馏,等opus被污染后发布优化版的5.5 11 个帖子 - 9 位参与者 阅读完整话题
最新评测结果: https://github.com/gaboolic/rime-schema-compare/blob/main/report/latest.md 根据最新评测结果(生成时间: 2026-04-25 16:49:02 +08:00 ),白霜拼音在不使用模型和使用
【我们能从锁着的苹果手机里偷走一万刀吗?】 https://www.bilibili.com/video/BV1sRogB1EVy 看了一下 还是有一点点吓人的 虽然热评说不用担心 1 个帖子 - 1 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一