如今我们正处于 AI 时代,AI 模型越来越成为大家的好帮手,而对于一些企业来说,AI 的本地化运行与推理十分地重要,可以确保敏感数据不会上传到云上导致泄露的风险,当然想要实现 AI 模型本地化推理,没有一台强大的计算机显然是不行的,就在中国国际工业博览会上,华硕推出了 GX10 AI 超算,可以支持最高 2000 亿参数的语言模型的推理。
作为华硕旗下最新的 AI 超算,GX10 采用了目前最为先进的图形架构,搭载了 NVIDIA GB10 Grace Blackwell 芯片,拥有 20 核 Arm CPU,AI 算力可以达到 1PFLOP,此外官方还为这款 AI 超算提供了 128GB 的内存,从而使得开发人员可以实现 2000 亿参数语言模型的微调。除此之外如果你觉得一台 GX10 还不够给力的话,借助 NVIDIA ConnectX-7 可以实现两台 GX10 AI 超算的互联,进而处理更大规模的语言模型,例如拥有 4050 亿参数的 Llama 3.1 模型。
除此之外,想要让 AI 模型运行地更加高效,软件优化也同样重要,对此华硕准备了 NVIDIA DGX OS 系统,对 AI 环境进行了特别的优化,直接开箱就能进入到 AI 模型的开发与微调中去,此外得益于 NVIDIA GB10 Grace Blackwell 芯片,这台 AI 超算可以实现 NVIDIA AI 软件堆栈,官方也对其进行了预载框架、SDK 以及相关的工具,可以实现模型的快速部署。并且 NVIDIA 也借助 CUDA、PyTorch、TensorFlow、Jupyter 这些开发工具对 AI 进行特别的优化,从而快速地实现大语言模型的微调。华硕官方也表示 DeepSeek R1、Llama 3.1 以及 Meta、Google 模型都可以得到很好地支持。
如果你觉得 AI 模型还需要加载到云上,官方也表示不用费太大的力气,只需微调程序代码,即可将模型从桌面环境转移至 DGX Cloud 上,实现模型的快速训练以及更快的推理,进而释放宝贵的算力资源,更为重要的是这台 AI 超算的体积也十分地迷你,并不会占用太大的空间,从而满足开发者随时随地携带。除了华硕 GX10 之外,现场华硕也展示了其他的 AI 超算以及各种 NUC,能够帮助企业更好地实现数字化转型。
可以说 AI 的发展超乎寻常,各种迷你 AI 超算的出现也给了开发者更多的选择,华硕 GX10 AI 超算也凭借着强大的 AI 算力支持更高参数的模型,来为中小型企业提供高效的算力平台,助力企业 AI 模型的快速落地。
登录后才可以发布评论哦
打开小程序可以发布评论哦