科技快讯网 10-25
讯飞星火与华为数据存储强强联手,“以存强算” 助力AI集群算力利用率飙升30%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

在风云变幻的 AI 大模型时代,科大讯飞与华为的联合拓展令人印象深刻。过去几年来,双方协同创新突破重重障碍,一次次证明国产算力基础设施可以支撑国产 AI 大模型良性发展,在关键性能和体验上不输世界领先玩家,同时具备更佳的成本效益。

10 月 24 日,以 " 万物智联 生生不息 " 为主题的科大讯飞全球 1024 开发者节隆重举行。下午的央国企论坛上,科大讯飞与华为再度强强联手,共同发布讯飞星火 & 华为数据存储 AI 解决方案,将 AI 集群算力利用率提升 30%,助力国产大模型创新突围,在业内树立起 " 以存强算 " 的又一标杆。

该 AI 存储解决方案通过华为 OceanStor A 系列全新硬件、讯飞星火基础大模型软硬协同,深度优化,可支持万亿参数大模型,大规模算力集群的训推任务,实现训推全流程加速,助力大模型算力利用率大幅提升,为业界输出了一份凝结双方技术与经验的标准方案。

极致性能 " 以存强算 ",AI 集群算力利用率提升超 30%

根据规模定律(Scaling Law),更强的算力加上更多的有效训练数据,可以得到更好的 AI 大模型。这意味着,大模型的训练和推理不仅需要强大的算力支持,还需要高效的存储系统来保证数据的快速读写和处理,存储系统的性能直接影响到大模型的训练效率和效果 ‌。

为了解决大模型训练中的存储挑战,需要采用高性能的存储方案。例如,使用高性能 NAS 存储系统可以显著提高数据读写速度,减少训练过程中的等待时间 ‌。此外,优化存储架构和采用更适合大模型训练的存储解决方案,也可以提高训练效率 ‌。

此番发布的讯飞星火 & 华为数据存储 AI 解决方案,正采用了华为新一代 OceanStor A 系列 AI 存储,通过创新数控分离架构,高性能并行客户端,实现了百 TB 级带宽,百亿级 IOPS,将训练集加载效率提升 8 倍,断点续训速度提升 4 倍,最终使得 AI 集群算力的利用率提升了超过 30%。

资料显示,随着大模型集群规模增长,集群的算力利用率并未同步提升,千卡以上大模型算力利用率不足 50%。而科大讯飞联合华为搭建的大规模 AI 集群,算力利用率常年保持在 60% 以上的高位,大幅领先于业内水平,背后的支撑之一正是华为数据存储提供的高性能存力底座。

超大规模调度,AI 数据湖让大模型数据全局可管可用

在追求存储性能的同时,存储容量也是大模型存力底座的关键。随着 AI 技术快速发展,AI 大模型从单模态发展到多模态,短短数年时间大模型训练的数据量已呈现 1000 倍的增长,亟需为 AI 算力集群建设 AI 数据湖,规模扩展并打破数据烟囱,实现全局流动可管可用。

大模型训练需要处理的数据通常以图片、文档等小文件的形式存在,传统的存储系统面对这些小文件存在加载速度慢的问题,影响训练效率 ‌。企业拥抱大模型首当其冲便是要对这些海量多源异构数据进行高效管理,做好数据归集、预处理等准备工作,才能保障大模型训练的效率及效果。

在这个维度,华为新一代 OceanStor A 系列 AI 存储具备无损多协议互通、冷热数据智能分级专业存储能力,支持 512 控横向大规模扩展能力,支持 EB 级存储空间;通过使用统一的 AI 数据湖存储大模型数据,可实现冷热数据分级存储,跨越数据孤岛,打破数据界限,确保了模型内数据的高效流动,为大模型训练做好充分的数据准备。

伴随着讯飞星火 & 华为数据存储 AI 解决方案的发布,讯飞星火训推平台的 AI 数据湖成功经验也浮出水面。据介绍,经过多轮技术迭代演进,讯飞建设 AI 数据湖底座,有效支撑了十万亿参数级别的通用多模态大模型训练,并大幅提升了集群算力利用率。

技术与经验深度耦合,构建 AI Ready 的数据基础设施

值得注意的是,此次发布的讯飞星火 & 华为数据存储 AI 解决方案并非双方的 " 即兴之作 ",此前双方便在存算分离、统一存储平台等方面展开了合作。随着大模型持续演进,两家又于去年 7 月正式启动 AI 存力底座的联合创新项目,旨在共同打造面向 AI 大模型场景的最佳数据存储解决方案。

实际上,在驱动 AI 发展的三驾马车中,随着算力逐渐趋同、算法加速收敛,蓬勃发展的数据成了影响大模型效果的核心要素。业界也逐渐意识到,数据规模和质量决定 AI 智能的高度,为了提升从数据获取、数据预处理、模型训练、推理应用的 AI 全流程效率,消除数据孤岛带来的海量数据搬迁,一个高性能、稳定可靠的统一存力底座是必不可少的基石。

为此,科大讯飞在依托全国产化算力平台打造讯飞星火认知基础大模型时,也基于大模型数据和训练闭环全流程设计、训练和推理一体化设计的思路,自研超大规模大模型训练平台,迭代升级自家的大模型,先行先试趟出了一条探索 Storage for AI、构建 AI Ready 的数据基础设施的 " 讯飞之道 "。

资料显示,在讯飞大模型训练平台的加持下,讯飞星火大模型历经数个版本的升级,目前已在文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模交互 7 大核心能力维度实现全国领先,通过中国信通院 AIGC 大模型基础能力评测并获得 4+ 级的高评分,部分能力更是全面超过 OpenAI 的最新模型 GPT-4 Turbo。

实践出真知,相信这种源自讯飞星火与华为数据存储双方的技术与经验,深度耦合而 " 孵化 " 出来的 AI 存储解决方案,必将能够加速 AI Ready 的数据基础设施建设,为客户带来高性能、高扩展和更智能的 AI 训推体验,推动 AI 产业发展,将 AI 大模型的算力真正转化为企业组织的新质生产力!

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

ai 华为 nas 讯飞星火 科大讯飞
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论