经济观察网 记者 钱玉娟 北京时间 7 月 30 日,在美国丹佛举行的 SiGGRAPH2024(2024 年国际计算机图形与交互技术顶会)上,美国科技公司 Meta 的 CEO 扎克伯格与芯片巨头英伟达 CEO 黄仁勋交流后,交换了外套。
扎克伯格为黄仁勋定制了一件黑色皮衣外套,黄仁勋则将对话前才穿上身的标志皮夹克脱下来送给了扎克伯格。
这不是两人第一次互换外套,今年 3 月,扎克伯格曾在社交媒体上分享了他与黄仁勋的合影,照片中的他们就互换了外套,微笑着站在一起。
扎克伯格此番参加 SiGGRAPH2024,是受黄仁勋邀请。此前一周,美国当地时间 7 月 23 日,Meta 发布了新版语言大模型 Llama3.1,分别有 8B(80 亿)、70B(700 亿)、405B(4050 亿)三个参数版本,其中 " 顶配 " 的性能被 Meta 称为可与 OpenAI 的 ChatGPT-4o、谷歌的 Gemini 1.5 Pro 以及亚马逊投资的 Anthropic 推出的 Claude3.5 Sonnet 等头部的闭源大模型媲美。
公开资料显示,Llama3.1 使用了超 16000 个英伟达的 H100 GPU 芯片进行训练。
就在这一开源大模型发布当天,英伟达也推出了 AI Foundry 服务器和 NIM 推理微服务,并宣布与 Meta 的 Llama3.1 一起服务支持全球企业的生成式 AI。
在两家企业的合作进一步深入之余,作为掌舵人的黄仁勋和扎克伯格也在 SiGGRAPH2024 上展开对话,他们共同讨论了开源大模型以及 AI 应用的未来发展方向等话题。
一直在海外投资人工智能等科技项目的陈沛分析,微软、谷歌、亚马逊这三家具有云计算业务的厂商,在购买大量英伟达 GPU 芯片的同时,都在积极推进云端算力和芯片自研,以降低对英伟达的依赖,这些大客户与英伟达是边合作边竞争的关系。相较而言,Meta 的自研算力进度要比上述几家慢很多。
陈沛看到,近期 Meta 公开释放消息称,要搭建更大规模的算力基础,要再购买 35 万个 H100。英伟达会与这一大客户保持紧密互动并不让人意外。
黄仁勋不仅对 Meta 的开源大模型策略予以称赞,他也同意扎克伯格所呼吁的大模型应开源化发展的路线," 就像我身上穿的皮衣,我不愿意自己去制作,而是希望有人为我制作,那么这些皮革材料就需要开源,大家都能来使用它 "。
在 Llama3.1 发布后,扎克伯格曾在社交媒体发文称,这一大模型有望成为采用开源 AI 的转折点。如今在与黄仁勋的对话中,他表示,开源 AI 模型技术将成为 AI 时代下打败闭源模型的重要动力。他梦想有一天,Facebook 或 Instagram 整个平台就像一个单一的 AI 模型,能将所有不同的内容类型和系统整合在一起。
对话中,扎克伯格还提及了苹果 iOS 生态系统对自家软件 Facebook 的限制,他指出 Llama 大模型正是打破封闭,基于开源技术的系统架构,制造不同的硬件设备,进而将生态系统打造成开放的水平,以迎接下一代计算竞赛。
为表明开源在推动 AI 发展中的重要性,扎克伯格还强调,要在未来 10 年或 15 年里,确保 Meta 能够建立开源 AI 的基础技术。
黄仁勋提到了 Meta 在计算机视觉、语言模型和实时翻译等多方面的进展,称 " 我们都在使用 Meta 开发的 PyTorch(Facebook2016 年发布的一个开源深度学习框架)"。
不过在 Meta 押注 VR(虚拟现实技术)应用,英伟达与之合作的同时,黄仁勋觉得 AI 下一波浪潮的应用方向会是机器人,尤其是人形机器人,并且正在推进整个英伟达机器人堆栈的发展,面向全球人形机器人开发者和公司开放访问。
英伟达还在 SiGGRAPH2024 上推出了包括用于机器人仿真和学习的 NIM 微服务和框架以及支持 AI 和仿真的远程操作工作流等一整套产品,目的便是为全球的机器人制造商、AI 模型开发者和软件制造商提供服务、模型和计算平台,让他们开发、训练和构建下一代人形机器人。
登录后才可以发布评论哦
打开小程序可以发布评论哦