IT之家 昨天
华为开源 SINQ AI 量化技术:显存占用最高削减 70%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 10 月 6 日消息,华为苏黎世计算系统实验室于 9 月 26 日发布全新开源量化(Quantization)技术 SINQ(Sinkhorn 归一化量化),旨在大幅降低大语言模型(LLM)的显存需求与运行成本。

这项技术无需复杂的校准过程,可直接集成至现有工作流,并且其代码已通过 Apache 2.0 许可证在 GitHub 和 Hugging Face 上开放,允许任何组织免费使用、修改和商业化部署。

SINQ 的核心优势在于其卓越的压缩性能。根据测试,该技术能将不同规模模型的显存占用普遍削减 60% 至 70%。这意味着,过去需要超过 60GB 显存才能运行的大型模型,现在仅需约 20GB 的环境即可部署。

此前需要企业级 GPU(如英伟达 A100 80GB 或 H100)计算的任务,现在仅用一张售价约 1600 美元的消费级显卡(如英伟达 RTX 4090)便可胜任。对于云端用户而言,每小时的算力成本也随之锐减。

该技术通过两大创新实现了性能突破。首先,SINQ 采用 " 双轴采样 " 策略,替代了传统的单尺度因子量化,通过分别为矩阵的行和列设置独立的缩放向量,更灵活地分散量化误差,有效抑制了异常值的影响。

其次,SINQ 引入了一种受 Sinkhorn 迭代启发的快速归一化算法,用于平衡矩阵行列的标准差,从而最小化 " 矩阵不平衡 " 现象,提升了量化后的模型精度。

在性能评估中,SINQ 的表现全面超越了多种主流的免校准量化方法(如 RTN、HQQ)。在处理 Qwen3、LLaMA 等多种主流模型时,SINQ 在 WikiText2 等标准测试集上显著降低了模型的困惑度(Perplexity),其性能表现接近甚至达到了需要数据校准的方案水平。

此外,SINQ 的量化速度极快,比 HQQ 快约 2 倍,更是比 AWQ 快 30 倍以上,充分满足了研究与生产环境中对效率的严苛要求。

IT 之家注:量化一种模型压缩技术,通过降低模型内部数据的精度来减小其体积和显存占用。好比将一张高精度的照片(如浮点数)转换为一张文件更小、但肉眼看差别不大的普通照片(如整数),从而让模型运行得更快、更省资源。

困惑度(Perplexity)示评估语言模型性能的常用指标。它衡量的是模型对于一段新文本的 " 惊讶 " 或 " 不确定 " 程度。困惑度越低,表示模型对文本的预测越准确,语言能力越强。

参考

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

华为 英伟达 it之家 开源 准确
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论