钛媒体 App 1 月 6 日消息,科大讯飞在互动平台表示,科大讯飞过去几年在受限的有限算力资源条件下,关于星火大模型训练和推理成本效率的持续优化做了大量投入,和直接使用英伟达卡上开展的各种工程优化不同,科大讯飞选择了更难的全国产算力路线。从 2023 年 5 月起,科大讯飞就联合华为先后攻克了万卡高速互联组网、计算通信隐藏、训练推理强交互、高吞吐推理优化以及国产算子优化等一系列难题,将通用大模型、类 o1 的深度推理模型等的训练效率对标 A100 均从最初的 30%-50% 优化达到了 85%-95% 以上;2025 年以来,科大讯飞再次攻克国产算力训练的两座大山,一是攻克长思维链强化学习训练效率,深度推理训练效率从对标 A800 的 30% 提升至 84% 以上,二是攻克 MoE 模型全链路训练效率,MoE 模型的训练效率从今年 3 月对标 A800 的 30% 提高到 93%,实现国产算力平台上在该领域从 0 到 1 的重大突破。随着国产算力在底层能力上进一步提升,讯飞星火的训练成本还有较大的下降空间。(广角观察)


登录后才可以发布评论哦
打开小程序可以发布评论哦