AI未来的发展,是硬件革新,还是软件优化?

(做个梦)2年后可能能在本地跑Opus4.6了 2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂大量开产线,内存价格...
AI未来的发展,是硬件革新,还是软件优化?
AI未来的发展,是硬件革新,还是软件优化?
(做个梦)2年后可能能在本地跑Opus4.6了

2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂大量开产线,内存价格并不高,机器售价官网 15 万,闲鱼二手大约 12 万),运行速度 50tokens 每秒,每天生产 300 万输出 token,每天写一部 opus4.6 级别的小说,全自动生产代码…… 不行,口水要流出来了

观此帖有感,在不远的未来AI 的更新方向会是靠硬件持续革新来提升参数量、推理速度和广度、降低部署成本,还是靠软件、算法、原理的优化来提升智能呢?
个人觉得在摩尔定律行将就木的现在,硬件的临界点似乎近在咫尺,不知道老黄还能挤出多少东西来。而在大模型本身的优化上似乎还大有可为?:exploding_head:

10 个帖子 - 6 位参与者

阅读完整话题

来源: linux.do查看原文