《科创板日报》10 月 18 日讯(编辑 宋子乔) 近日,阿里云提出的计算池化解决方案 "Aegaeon" 成功入选顶级学术会议 SOSP 2025,该方案可解决 AI 模型服务中普遍存在的 GPU 资源浪费问题,大幅提升 GPU 资源利用率,目前其核心技术已应用在阿里云百炼平台。
SOSP(操作系统原理研讨会)由 ACM SIGOPS 主办,是计算机系统领域顶级学术会议,平均每年收录的论文数量仅有数十篇,被誉为计算机操作系统界的 " 奥斯卡 ",入选论文代表了操作系统和软件领域最具代表的研究成果。本届 SOSP 大会上,系统软件与 AI 大模型技术的融合成为新的趋势。
数据显示,在阿里云模型市场为期超三个月的 Beta 测试中,Aegaeon 系统在服务数十个参数量高达 720 亿的大模型时,所需的英伟达 H20 GPU 数量从 1192 个减至 213 个,削减比例高达 82%(见下图)。GPU 用量削减 82% 意味着公司硬件采购成本将显著降低,这对于动辄使用成千上万张 GPU 的大型模型服务商至关重要。
在真实的模型服务场景中,少数热门模型(如阿里的 Qwen)承载了绝大多数用户请求,而大量不常被调用的 " 长尾 " 模型却各自独占着 GPU 资源。数据显示,在阿里云模型市场中,曾有 17.7% 的 GPU 算力仅用于处理 1.35% 的请求,资源闲置严重。
而 Aegaeon 系统通过 GPU 资源池化,打破了 " 一个模型绑定一个 GPU" 的低效模式。
Token 级调度是该系统的核心创新点,Aegaeon 多模型混合服务系统在每次生成下一个 token 后动态决定是否切换模型,实现精细化管理,同时,通过组件复用、显存精细化管理和 KV 缓存同步优化等全栈技术,Aegaeon 将模型切换开销降低 97%,确保了 token 级调度的实时性,可支持亚秒级的模型切换响应。
据介绍,Aegaeon 系统支持单 GPU 同时服务多达 7 个不同模型,相比现有主流方案提升 1.5-9 倍的有效吞吐量,实现 2-2.5 倍的请求处理能力。
如何从底层系统软件层面优化,以更好地支撑和赋能上层 AI 应用,已成为全球学术界和工业界关注的焦点。未来 AI 的发展将不仅依赖于硬件算力的单纯增长,更需要通过系统级的软件创新来深度挖掘现有硬件的潜力。
登录后才可以发布评论哦
打开小程序可以发布评论哦