驱动之家 前天
摩尔线程完成智谱GLM-5.1极速适配,高效支撑长程任务与代码生成
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

今日,摩尔线程在其旗舰级 AI 训推一体全功能 GPU MTT S5000 上,成功实现了对智谱新一代旗舰模型 GLM-5.1 的 Day-0 极速适配,提供推理部署和训练复现全流程支持。

依托 MUSA 软件栈强大的生态兼容性,摩尔线程技术团队基于高性能 SGLang-MUSA 推理引擎及 TileLang-MUSA 算子编程语言,采用 PD 分离架构完成深度调优,在 MTT S5000 上实现 GLM-5.1 的高效、高精度推理。这一成果彰显了国产算力基础设施对前沿 SOTA 模型的快速响应能力,也为行业树立了软硬协同应对复杂 AI 推理场景的新标杆。

GLM-5.1 是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1 大大提高了代码能力,在最接近真实软件开发的 SWE-bench Pro 基准测试中超过 GPT-5.4、Claude Opus 4.6,刷新全球最佳成绩。值得一提的是,在模型整体性能大幅提升外,GLM-5.1 还在长程任务(Long Horizon Task)处理能力上实现了显著突破。和当前分钟级交互的模型不同,GLM-5.1 能够在一次任务中独立、持续工作超过 8 小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。

针对 GLM-5.1 的长程任务与代码生成特性,摩尔线程基于自研 MUSA 架构与 SGLang-MUSA、TileLang-MUSA 等关键技术,完成了系统性的算子适配与推理性能调优。MTT S5000 单卡 AI 算力(稠密)可达 1000 TFLOPS,支持 FP8 到 FP64 全精度计算,其原生 FP8 加速显著提升推理效率;结合高效 KV Cache 管理,有效支撑极长上下文的显存需求;同时,PD 分离架构进一步解耦 Prefill 与 Decode 阶段,降低长序列生成中的干扰,保障持续任务的高吞吐与低延迟。此外,MTT S5000 提供 784GB/s 的卡间互联带宽,为大规模部署带来弹性扩展能力。通过软硬协同优化,MTT S5000 能够稳定承接 GLM-5.1 的长程任务吞吐与工程级代码推理表现。

从 GLM-4.7 到 GLM-5.1,摩尔线程已连续实现发布当日极速适配。这既体现了 MUSA 架构对主流 AI 生态的深度兼容,更标志着国产全功能 GPU 已具备大模型 " 从适配到部署 " 的全链路支撑能力。摩尔线程将持续夯实算力底座,助力开发者快速应用前沿模型,共建更成熟的国产 AI 生态。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

摩尔 ai 基础设施 编程 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论