[Claude] 每天 800 美金 token 搓了几个小产品
20x 套餐这样蹬会不会用太猛了…… 搓了几个小产品: 1 、加密/美股,组合+跟单+API ,不敢上线,自己玩 2 、A 股,量化实验室( ai 写的介绍:Copilot"四合一研究终端:用 AkShare 延迟数据 + 私有 JupyterLab 沙盒写策略,跑参数
OK - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第94页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2931 篇相关文章 · 第 94 / 147 页
20x 套餐这样蹬会不会用太猛了…… 搓了几个小产品: 1 、加密/美股,组合+跟单+API ,不敢上线,自己玩 2 、A 股,量化实验室( ai 写的介绍:Copilot"四合一研究终端:用 AkShare 延迟数据 + 私有 JupyterLab 沙盒写策略,跑参数
20x 套餐这样蹬会不会用太猛了…… 搓了几个小产品: 1 、加密/美股,组合+跟单+API ,不敢上线,自己玩 2 、A 股,量化实验室( ai 写的介绍:Copilot"四合一研究终端:用 AkShare 延迟数据 + 私有 JupyterLab 沙盒写策略,跑参数
URL: https://api.hahahajimi.de5.net/v1/chat/completions key:sk-iokp9ctjWgglQmlrYGP3OYgPKA3iZks5tsmNfewciWrQRLjr 模型ID:grok-4.20-0309-reasonin
各位佬,有稳定好用的Grok API渠道吗,我一直都是使用站内的公益站Grok API,不过这些公益站都十分不稳定,基本上只能用几天,过了几天又要找新的公益站,这太麻烦了 愿意付费!!!只要不是官方价格那么贵($2/M input tokens $6/M output token
我是部署在render上的,每次重启,token的使用统计数据就没了。有没有佬友知道,有啥免费的解决方法? 8 个帖子 - 7 位参与者 阅读完整话题
从 测了一下grok4think 史上最逆天的题目 全网页图解 继续讨论: 首先说上面那个话题里面的成果网站目前已经访问不了了,因为我账号没了 结果就是grok极致的冷酷无情,见题秒题(只是最终回答很简单,思考过程突破天际w),正确率很高 再回顾一下题目 **【问题背景】** 在
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
npm i -g @anthropic-ai/claude-code@2.1.116 具体使用如上命令更新即可 完整消息来源见官方博客: https://www.anthropic.com/engineering/april-23-postmortem 3 个帖子 - 3 位参与
各位佬帮忙看看,渠道又在跑token,但是没有结算,是周期结算吗?还是流量太小了哇? 5 个帖子 - 3 位参与者 阅读完整话题
鱼上的有推荐吗?买过一些,但他们算Token方法有点怪,用得很快 3 个帖子 - 3 位参与者 阅读完整话题
sk-cp-zAhhrL76V16K0ae6w3dY76VZVAP62Tlh_-S_xb3UNt3m9yeoKhlvBrumIxowUZCzI_NySjgH9IrIYT8cueci1unqDKMt0Cweu13wUw9QuJyEcBRQfI-rm6o 2026.5.21到期,主要
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
是不是grok的普号太多了,就限制了grok普号用不了expert,但x还可以用expert 5 个帖子 - 5 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.