突然发现x的grok expert模型还能用
是不是grok的普号太多了,就限制了grok普号用不了expert,但x还可以用expert 5 个帖子 - 5 位参与者 阅读完整话题
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第53页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2573 篇相关文章 · 第 53 / 129 页
是不是grok的普号太多了,就限制了grok普号用不了expert,但x还可以用expert 5 个帖子 - 5 位参与者 阅读完整话题
佬友们,目前研0空窗期,想搞多模态大模型方向,有什么推荐教程或者路线帖子推荐吗,目前在艰难学习CS336中 8 个帖子 - 6 位参与者 阅读完整话题
请问各位佬,我vscode连接服务器,用codex的插件版,在模型列表里面为什么没有5.5啊。 但是我在本地的codex应用里面是可以访问5.5的,同一个账号。 本人plus用户,顺便问问现在plus大概是个什么价位,有无渠道,问了几个人都说风控,价钱快要和原价开差不多了。 5
我想使用公益站中的国产模型,这是 CC Switch 中的配置 这是 Codex 中的警告 该如何解决这个警告呢? 4 个帖子 - 2 位参与者 阅读完整话题
分享一个100刀的额度的api密钥,支持gpt-image-2生图模型,如果佬们有好看的图可以返一下,一起欣赏欣赏 API_KEY=sk-e3JbBJVDQerHu9c9l001fNMDNpENjPRwQGNeaBXenN8S0IKJ curl https://api.rustj
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
这是题目原文 获得补签卡有两种方式 - 600 记忆币兑换 1 张 - 6*0.91 元购买 1 张 获得会员有几种方式 - 10800 记忆币兑换 372 天 - 4000 记忆币兑换 93 天 - 2000 记忆币兑换 31 天 - 168*0.91 元购买 372 天(赠送
无聊的时候对一些新出的模型提了一个很久之前困扰我网络折腾上的难题。 题目如下: 我有一个需求,就是通过有公网IPv4的服务器+wireguard VPN将NAT里面服务器的端口暴露出去,并且能够让NAT服务器的服务能看得到请求客户端原始的IP,并且没有Proxy Protocol
IT之家 4 月 26 日消息,4 月 25 日,Momenta 于北京国际车展举办“ Momenta R7 ,物理 AI 序章”主题分享会,正式宣布 Momenta R7 强化学习世界模型实现量产首发。 分享会上,Momenta 合伙人、CEO 曹旭东深度拆解了物理 AI 的底
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
首先说Gpt-5.5是真的强 ,与Codex App真的是绝配。 使用环境:Windows + Codex-App + 【哈基米API公益站】(感谢哈基米 ) 之前用其它公益站的gpt-5.4 使用 /imagegen 命令不能生图,会卡在调用生图技能后不动了,今早刚好看到哈基米
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
https://modelscope-resouces.oss-cn-zhangjiakou.aliyuncs.com/avatar%2F4162c45f-9a45-4740-9941-ade7047ab0cd.mp4 现在说绕口令都很溜了,马斯克确实更新勤快 5 个帖子 - 4
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4