[程序员] 小米邀请码互助,互相填写邀请码
我在用 MiMo 开放平台体验 小米顶尖模型 MiMo V2.5 等 ,通过我的邀请码注册为新用户,即得 ¥10 API 体验金。邀请码:ASV93E 。注册: https://platform.xiaomimimo.com?ref=ASV93E (注册后点控制台左下方入口填入,
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2506 篇相关文章 · 第 19 / 126 页
我在用 MiMo 开放平台体验 小米顶尖模型 MiMo V2.5 等 ,通过我的邀请码注册为新用户,即得 ¥10 API 体验金。邀请码:ASV93E 。注册: https://platform.xiaomimimo.com?ref=ASV93E (注册后点控制台左下方入口填入,
IT之家 4 月 30 日消息,今日,阿里千问宣布推出 Qwen-Scope—— 基于 Qwen3 系列和 Qwen3.5 系列模型训练所得的可解释性模块。 据介绍,阿里千问在 Qwen 隐藏层插入稀疏自编码器(SAE)并加以训练,通过施加稀疏性约束,自动提取出高度解耦、低冗余且
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
我受不了了,没有claude的日子真难搞,让其他模型改了半天,还是不能用,让cc改一版直接上线可用,怀念有cc的日子,现在在咸鱼买的cc中转,号称是满血,实际上改了半天,还是垃圾。唉。是不是纯的,我用我的项目一测试就知道,纯的cc瞬间改好,垃圾的cc,改半天摸不着头脑。 3 个帖
claude code 开发者模式接入deepseek v4 list/model 可以拿到模型,但对话报错,有大佬知道为什么? 1 个帖子 - 1 位参与者 阅读完整话题
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
最近这几天大家Antigravity中的 Gemini 3模型还能用吗?怎么一直报错呀,倒是Claude的模型还是可以使用的,账号是pro 5 个帖子 - 5 位参与者 阅读完整话题
大佬们,我用cpa反代出codex模型之后,突然发现模型不会调用工具改代码了,思考完之后直接输出计划干啥,然后让他继续,又重复输出下一步计划,就是不修改,我选择的是build模式,前几天还好好的呢,大佬们有碰到过吗,求助 1 个帖子 - 1 位参与者 阅读完整话题
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
Linux 社区对于大语言模型与生成式人工智能的到来一直反应不一,但 Ubuntu 方面近日已通过一则关于“Ubuntu 中 AI 未来发展方向”的项目讨论帖,较为明确地表明了自身立场:从 2026 年 10 月发布的 Ubuntu 26.10“Stonking Stingray
各位佬,我现在遇到一个状况,我将deepseek接入codex,我问它是什么模型,它回复我是gpt5.4,项目是之前gpt做过的项目,完全不知道原因,反正deepseek是理直气壮地说自己是gpt 5.4 9 个帖子 - 8 位参与者 阅读完整话题
导师搞了台DGX Spark,说要部署一个大模型进去,关于DGX的中文部署教程目前并不算多,和各位佬友分享一下这次部署过程完整,顺手写一篇教程。 这里计划部署的模型是 AEON-7/Qwen3.6-27B-AEON-Ultimate-Uncensored-NVFP4 · Hugg
上个帖子被举报不当言论了,我重新整理一下言词:mimo是不错的模型,他会最大化贴合用户意图 2 个帖子 - 2 位参与者 阅读完整话题
为什么一直失败嘞,里面的模型名字我都是小写的 12 个帖子 - 7 位参与者 阅读完整话题
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
我是一个爱折腾的人,最早使用大模型的时候是22年年底,当时偶然听到有ai可以写代码迫不及待试了试,那个时候还在实习很多活已经让他给我参考和试一试了。 我记得最早的时候还能让gpt直接吐自己的源码,然后紧急被修复。 我还保存了一张让gpt ai写一段小yellow文的截图,现在好像