模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2506 篇相关文章 · 第 19 / 126 页

[程序员] 小米邀请码互助,互相填写邀请码

我在用 MiMo 开放平台体验 小米顶尖模型 MiMo V2.5 等 ,通过我的邀请码注册为新用户,即得 ¥10 API 体验金。邀请码:ASV93E 。注册: https://platform.xiaomimimo.com?ref=ASV93E (注册后点控制台左下方入口填入,

tech v2ex.com 2026-04-30 17:22:45+08:00

看穿大模型的“小心思”:阿里千问开源可解释性模块 Qwen-Scope

IT之家 4 月 30 日消息,今日,阿里千问宣布推出 Qwen-Scope—— 基于 Qwen3 系列和 Qwen3.5 系列模型训练所得的可解释性模块。 据介绍,阿里千问在 Qwen 隐藏层插入稀疏自编码器(SAE)并加以训练,通过施加稀疏性约束,自动提取出高度解耦、低冗余且

tech www.ithome.com 2026-04-30 17:21:02+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 17:20:18+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 17:07:57+08:00

兄弟们,你们现在是咋用claude的

我受不了了,没有claude的日子真难搞,让其他模型改了半天,还是不能用,让cc改一版直接上线可用,怀念有cc的日子,现在在咸鱼买的cc中转,号称是满血,实际上改了半天,还是垃圾。唉。是不是纯的,我用我的项目一测试就知道,纯的cc瞬间改好,垃圾的cc,改半天摸不着头脑。 3 个帖

tech linux.do 2026-04-30 16:46:14+08:00

claude code 开发者模式接入deepseek v4 报错

claude code 开发者模式接入deepseek v4 list/model 可以拿到模型,但对话报错,有大佬知道为什么? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-30 16:45:34+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:29:02+08:00

这两天大家Antigravity中的 Gemini 3模型还能用吗?

最近这几天大家Antigravity中的 Gemini 3模型还能用吗?怎么一直报错呀,倒是Claude的模型还是可以使用的,账号是pro 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-30 16:24:38+08:00

求助,opencode插件使用cpa代理的模型,不会自动调用工具了

大佬们,我用cpa反代出codex模型之后,突然发现模型不会调用工具改代码了,思考完之后直接输出计划干啥,然后让他继续,又重复输出下一步计划,就是不修改,我选择的是build模式,前几天还好好的呢,大佬们有碰到过吗,求助 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-30 16:19:42+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:01:10+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 15:54:30+08:00

Ubuntu拟在后续版本中引入可选式“审慎AI整合”功能

Linux 社区对于大语言模型与生成式人工智能的到来一直反应不一,但 Ubuntu 方面近日已通过一则关于“Ubuntu 中 AI 未来发展方向”的项目讨论帖,较为明确地表明了自身立场:从 2026 年 10 月发布的 Ubuntu 26.10“Stonking Stingray

tech plink.anyfeeder.com 2026-04-30 15:36:01+08:00

为什么deepseek会伪装自己是gpt 5.4?

各位佬,我现在遇到一个状况,我将deepseek接入codex,我问它是什么模型,它回复我是gpt5.4,项目是之前gpt做过的项目,完全不知道原因,反正deepseek是理直气壮地说自己是gpt 5.4 9 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-30 15:35:54+08:00

【DGX Spark教程系列-LLM部署】从0部署Qwen3.6-27B-NVFP4

导师搞了台DGX Spark,说要部署一个大模型进去,关于DGX的中文部署教程目前并不算多,和各位佬友分享一下这次部署过程完整,顺手写一篇教程。 这里计划部署的模型是 AEON-7/Qwen3.6-27B-AEON-Ultimate-Uncensored-NVFP4 · Hugg

tech linux.do 2026-04-30 15:31:12+08:00

我对mimo的看法

上个帖子被举报不当言论了,我重新整理一下言词:mimo是不错的模型,他会最大化贴合用户意图 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-30 15:26:04+08:00

小米模型配置

为什么一直失败嘞,里面的模型名字我都是小写的 12 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-30 14:59:25+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 14:54:29+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 14:54:29+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 14:50:28+08:00

大家最早使用大模型是什么时候?

我是一个爱折腾的人,最早使用大模型的时候是22年年底,当时偶然听到有ai可以写代码迫不及待试了试,那个时候还在实习很多活已经让他给我参考和试一试了。 我记得最早的时候还能让gpt直接吐自己的源码,然后紧急被修复。 我还保存了一张让gpt ai写一段小yellow文的截图,现在好像

tech linux.do 2026-04-30 14:34:59+08:00