"冷门事实记忆"反推闭源大模型参数量, 估算 GPT-5.5 约 9T、Claude Opus 4.7 约 4T
很有意思的研究~ https://arxiv.org/pdf/2604.24827 原贴内容 (点击了解更多详细信息) 13 个帖子 - 12 位参与者 阅读完整话题
闭源 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 8 篇相关文章
很有意思的研究~ https://arxiv.org/pdf/2604.24827 原贴内容 (点击了解更多详细信息) 13 个帖子 - 12 位参与者 阅读完整话题
根据Pine AI研究者发布的论文,估算了闭源大模型参数 论文地址 8 个帖子 - 7 位参与者 阅读完整话题
国外那些闭源大模型,国内的大模型厂商想蒸馏还有点麻烦,会被各种限制.而国内开源的大模型,对方闭源大模型厂商下载回去自己搭建,就可以最低成本开始蒸馏了..主动一个你开源送我数据,我闭源不送数据.. 这种好像无解. 2 个帖子 - 2 位参与者 阅读完整话题
我关注的几个二线机场都开始玩自研客户端了 这玩意闭源感到安全是个问题 虽然我一直是自建 但偶尔也会使用订阅 但觉自研客户端是趋势了 19 个帖子 - 15 位参与者 阅读完整话题
官方宣传性能达到顶级闭源模型水平,佬友们去测测看,不多说了,我先试试 1 个帖子 - 1 位参与者 阅读完整话题
目前牢李的这句话还在应验中,期待下一个开源模型能够打破这一格局 4 个帖子 - 3 位参与者 阅读完整话题
我在给一个20年前的闭源游戏引擎(官方只提供32位bin)做图形升级,目前的进度是用现代渲染方法重写了整个渲染管线,从OpenGL 1.1升级到了OpenGL 4.4 Core Profile,并且在逆向出来的引擎中接入了RHI用D3D12/VK复刻了OpenGL 4.4 Cor
闭源模型存在降智,这个是肯定的…但是我好奇如果国产开源模型部署在各个服务器上,售卖出的codingplan,可能出现降智么?比如说FP16阉割成int8,或者满血直接搞成小参数模型70B,我感觉极有可能啊,而且和中转站一个问题,condingplan也能掺水啊…一这样想,感觉太难