科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文
IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构, 总参数 30B,最大支持 256K 上下文 ,宣称在智能体、代码等能力上实现了大幅提升,基于 华为昇腾 910B 集群 训练完成。
256 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 76 篇相关文章 · 第 3 / 4 页
IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构, 总参数 30B,最大支持 256K 上下文 ,宣称在智能体、代码等能力上实现了大幅提升,基于 华为昇腾 910B 集群 训练完成。
佬们问问看mac mini m4 16g+256g 万兆网口 现在能卖多少钱呀,去年7月底买的,轻度使用 7 个帖子 - 6 位参与者 阅读完整话题
选择1: mac mini m4 16g+256g 万兆网口 选择2: macbook air 16g+512g 13英寸(10+8核) 不考虑价格,如果只能选择一个,佬们会怎么选 持续选择困难中 21 个帖子 - 6 位参与者 阅读完整话题
<!DOCTYPE html> <html lang="zh-CN"> <head> <meta charset="UTF-8"> <meta name="viewport&q
全新未拆封, 因为买错了, dji action6 好像用不了这个卡, 有意者联系 VX:SGVybWl0aXN0
全新未拆封, 因为买错了, dji action6 好像用不了这个卡, 有意者联系 VX:SGVybWl0aXN0
全新未拆封, 因为买错了, dji action6 好像用不了这个卡, 有意者联系 VX:SGVybWl0aXN0
全新未拆封, 因为买错了, dji action6 好像用不了这个卡, 有意者联系 VX:SGVybWl0aXN0
因为cc 默认1m 上下文,5.5 到了 256 k 就不可用了,codex plus 用户的话 好像有两种办法,CLAUDE_CODE_DISABLE_1M_CONTEXT 会让别的也变成200k? "model": "opus[1m]"
大概规格如上,橙色特别好,电池 75 纯原装,用着啥问题都没有,就是卡贴机 没用过 iPhone ,买来当备用机的,主力机是安卓,就是用来翻墙,搞 Ai 那些 这个价值不值?不值我就换了去
大概规格如上,橙色特别好,电池 75 纯原装,用着啥问题都没有,就是卡贴机 没用过 iPhone ,买来当备用机的,主力机是安卓,就是用来翻墙,搞 Ai 那些 这个价值不值?不值我就换了去
大概规格如上,橙色特别好,电池 75 纯原装,用着啥问题都没有,就是卡贴机 没用过 iPhone ,买来当备用机的,主力机是安卓,就是用来翻墙,搞 Ai 那些 这个价值不值?不值我就换了去
大概规格如上,橙色特别好,电池 75 纯原装,用着啥问题都没有,就是卡贴机 没用过 iPhone ,买来当备用机的,主力机是安卓,就是用来翻墙,搞 Ai 那些 这个价值不值?不值我就换了去
大概规格如上,橙色特别好,电池 75 纯原装,用着啥问题都没有,就是卡贴机 没用过 iPhone ,买来当备用机的,主力机是安卓,就是用来翻墙,搞 Ai 那些 这个价值不值?不值我就换了去
大概规格如上,橙色特别好,电池 75 纯原装,用着啥问题都没有,就是卡贴机 没用过 iPhone ,买来当备用机的,主力机是安卓,就是用来翻墙,搞 Ai 那些 这个价值不值?不值我就换了去
大概规格如上,橙色特别好,电池 75 纯原装,用着啥问题都没有,就是卡贴机 没用过 iPhone ,买来当备用机的,主力机是安卓,就是用来翻墙,搞 Ai 那些 这个价值不值?不值我就换了去
我开的窗口是多,但我256g的RAM是摆设感觉。就是处处卡,意想不到的地方卡。蓝牙鼠标延迟偶尔巨高不可用,点窗口偶尔没反应慢100拍,就这么垃圾吗,是我的问题还是电脑的问题还是windows的问题 12 个帖子 - 11 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文