各位佬帮忙看下hub.linux.do是怎么结算的哇?
各位佬帮忙看看,渠道又在跑token,但是没有结算,是周期结算吗?还是流量太小了哇? 5 个帖子 - 3 位参与者 阅读完整话题
ok - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第50页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2032 篇相关文章 · 第 50 / 102 页
各位佬帮忙看看,渠道又在跑token,但是没有结算,是周期结算吗?还是流量太小了哇? 5 个帖子 - 3 位参与者 阅读完整话题
鱼上的有推荐吗?买过一些,但他们算Token方法有点怪,用得很快 3 个帖子 - 3 位参与者 阅读完整话题
sk-cp-zAhhrL76V16K0ae6w3dY76VZVAP62Tlh_-S_xb3UNt3m9yeoKhlvBrumIxowUZCzI_NySjgH9IrIYT8cueci1unqDKMt0Cweu13wUw9QuJyEcBRQfI-rm6o 2026.5.21到期,主要
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
是不是grok的普号太多了,就限制了grok普号用不了expert,但x还可以用expert 5 个帖子 - 5 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
为什么我的heavy看不到订阅日期了。怎么看还有多久。 2 个帖子 - 2 位参与者 阅读完整话题
最近刚订购了一个minimax的token plan,把apikey填上去发现,点击获取模型会出现不支持模型列表,就算手动填了MiniMax-M2.7还是会提醒提示404,这是ccswitch的问题还是minimax的问题,这minimax不还是他们家赞助商吗,怎么这个支持都有问
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
https://modelscope-resouces.oss-cn-zhangjiakou.aliyuncs.com/avatar%2F4162c45f-9a45-4740-9941-ade7047ab0cd.mp4 现在说绕口令都很溜了,马斯克确实更新勤快 5 个帖子 - 4
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几
** 登录就送 2 千万 Token ,可用 gpt-5.5 ** https://wgkai.top/