36氪 8小时前
华为发布开源AI容器技术Flex:ai:让闲置算力“动起来”,把一张卡切给多任务使用
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文|富充

编辑|苏建勋

当前," 算力不够用 " 和 " 算力被浪费 " 正在同时发生。

36 氪获悉,近日举行的 2025AI 容器应用落地与发展论坛上,华为公司正式发布 AI 容器技术—— Flex:ai,通过三项技术创新提升算力资源利用率。同时,华为联合上海交通大学、西安交通大学与厦门大学共同宣布,共同开源此项产学合作成果。

本次发布并开源的 XPU 池化与调度软件 Flex:ai,是基于 Kubernetes(一个广泛使用的容器管理平台)构建。简单理解,它通过对 GPU、NPU 等智能算力资源的精细化管理与智能调度,一边把零散的算力统一成 " 资源池 ",一边把不同规模的 AI 任务智能分配进去。

具体而言,Flex:ai 主要有三项核心能力:

在解决小模型训练推理场景资源浪费方面,华为与上海交通大学联合研发的 XPU 池化框架,将单张 GPU 或 NPU 算力卡按 10% 的精度切分为多个虚拟算力单元,实现 " 用多少,切多少 ",使此类场景下的整体算力平均利用率提升 30%;

为了将集群里不同机器上的空闲算力聚合起来,华为与厦门大学研发的跨节点拉远虚拟化技术,把集群内各节点的空闲 XPU 算力聚合形成 " 共享算力池 ",让不具备智能计算能力的通用服务器也能通过网络调用远端 GPU/NPU 资源参与 AI 计算;

面对算力集群中多品牌、多规格异构算力资源统一调度的挑战,华为与西安交通大学共同推出的 Hi Scheduler 智能调度器,能够感知集群里多品牌、多规格算力资源的状态,根据任务优先级、算力需求等参数,自动选择合适的本地或远端资源,实现分时复用和全局最优调度,让系统决策 " 哪块卡该干哪份活 "。

华为表示,此次 Flex:ai 的全面开源,将向产学研各界开发者开放所有核心技术能力,共同推动异构算力虚拟化与 AI 应用平台对接的标准构建,形成算力高效利用的标准化解决方案。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 华为 flex 开源 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论