【有偿】寻求稳定的Grok API
各位佬,有稳定好用的Grok API渠道吗,我一直都是使用站内的公益站Grok API,不过这些公益站都十分不稳定,基本上只能用几天,过了几天又要找新的公益站,这太麻烦了 愿意付费!!!只要不是官方价格那么贵($2/M input tokens $6/M output token
各位 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第35页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1418 篇相关文章 · 第 35 / 71 页
各位佬,有稳定好用的Grok API渠道吗,我一直都是使用站内的公益站Grok API,不过这些公益站都十分不稳定,基本上只能用几天,过了几天又要找新的公益站,这太麻烦了 愿意付费!!!只要不是官方价格那么贵($2/M input tokens $6/M output token
导师让我想一想接下来自己想做什么方向的内容。 导师是做graph+llm的。我对这个大的研究方向也不太好拿捏,不知道怎样才能选一个研究方向 导师大概给了两个: Agent Memory GFM:Graph Foundation Model(Graph + LLM也算) 导师主要是
各位佬友,我现在手上有GLM5.1,kimik2.6,gpt5.5 请问哪一个更适合当西西弗斯,或者指挥者?我想看deepseekv4的世界知识好像不错,不知道如何发挥他的长处,有没有佬友尝试过了,可以交流一下吗? 我现在刚上手omo 3天,发现omo整体流程很重,模型不太愿意开
目前我在开发win,mac和ios的软件,纯vibe coding,工作流是: claude cowork+obsdian,Claude出计划,审核,前端claude code执行,后端方面全给codex执行 我在其中就是个传话筒的作用,我是想把可以自动化的流程自动化,但和ai讨
各位佬帮忙看看,渠道又在跑token,但是没有结算,是周期结算吗?还是流量太小了哇? 5 个帖子 - 3 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
我知道的有,请问还有其他的渠道么? aws bedrock kiro 反代 cursor反代 官方max逆向 反重力逆向 4 个帖子 - 3 位参与者 阅读完整话题
请问各位佬,我vscode连接服务器,用codex的插件版,在模型列表里面为什么没有5.5啊。 但是我在本地的codex应用里面是可以访问5.5的,同一个账号。 本人plus用户,顺便问问现在plus大概是个什么价位,有无渠道,问了几个人都说风控,价钱快要和原价开差不多了。 5
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
各位佬友,我是买的天翼云盘,无法通过短信登录,不知道这种方式还有没有可能进行挂载。谢谢! 3 个帖子 - 3 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
各位大佬,最近想分析机场是直连中转还是专线的,看一些常见的方法是使用tracerout跟踪路由跳转。我使用结果全是(* * *)。 想请教各位大佬,有什么好的方法判断是直连还是中转还是专线的? 3 个帖子 - 3 位参与者 阅读完整话题
pk-19c1b3a3-9431-4f1a-8bf1-5f556b7ae2be 买了没咋用,五月二号到期,各位佬友拿去登吧,刚升级的萌新没啥分享的,望各位佬不要嫌弃 3 个帖子 - 2 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
各位大佬,平常在使用ai的时候是如何避免ai幻觉的,比如在处理数据中会编造数据,撰写文本时会主动添加一些ai主观的一些内容 10 个帖子 - 5 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.