万亿级综合旗舰模型:蚂蚁集团百灵大模型开源 Ling-2.6-1T
IT之家 4 月 30 日消息,蚂蚁集团旗下的百灵大模型今日宣布,今天将 Ling-2.6-1T 正式开源。 官方表示,Ling-2.6-1T 并不是为了单纯追求更长的思考链,或制造更强的“参数规模体感”,而是面向真实复杂任务,系统性优化模型的智效比、指令执行、工具适配、长上下文
百灵 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 8 篇相关文章
IT之家 4 月 30 日消息,蚂蚁集团旗下的百灵大模型今日宣布,今天将 Ling-2.6-1T 正式开源。 官方表示,Ling-2.6-1T 并不是为了单纯追求更长的思考链,或制造更强的“参数规模体感”,而是面向真实复杂任务,系统性优化模型的智效比、指令执行、工具适配、长上下文
IT之家 4 月 29 日消息,蚂蚁集团旗下的百灵大模型今日宣布, Ling-2.6-flash 正式开源 。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。 Ling-2.6-flash 是一款总参数量 104B、激活参
Zen | OpenCode 分别是蚂蚁的百灵2.6flash和腾讯的混元3 2 个帖子 - 2 位参与者 阅读完整话题
蚂蚁百灵万亿旗舰模型 Ling-2.6-1T 发布:主打“快思考”,对标 GPT-5.4 非推理版 - IT之家 5 个帖子 - 5 位参与者 阅读完整话题
IT之家 4 月 24 日消息,蚂蚁集团旗下百灵大模型团队正式发布面向即时任务执行的万亿级综合旗舰模型 ——Ling-2.6-1T。 Ling-2.6-1T 采用了 MLA(Multi-head Latent Attention)与 LinearAttention 的混合架构设计
今日,蚂蚁百灵正式推出 Ling-2.6-flash —— 一款总参数量 104B、激活参数 7.4B 的 Instruct 模型。 该模型主打“Token 效率(Token Efficiency)”,在保持竞争力智能水平的同时,更快、更省以及更适合大规模真实应用。 据权威三方评
IT之家 4 月 22 日消息,蚂蚁集团旗下的百灵大模型今日宣布,推出一款 总参数量 104B 、 激活参数 7.4B 的 Instruct 模型 Ling-2.6-flash 。 一周前,代号为 Elephant Alpha 的匿名模型登陆 OpenRouter。上线以来,其调
4月22日,蚂蚁百灵正式推出Ling-2.6-flash——一款总参数量104B、激活参数7.4B的Instruct模型。该模型在BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench等Agent相关基准上达到同尺寸S