36氪 昨天
光联芯科CEO 陈超:光互连是通往AGI的必由之路
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

11 月 27-28 日,被誉为 " 年度科技与商业风向标 " 的 36 氪 WISE2025 商业之王大会,在北京 798 艺术区传导空间落地。

今年的 WISE 不再是一场传统意义上的行业峰会,而是一次以 " 科技爽文短剧 " 为载体的沉浸式体验。从 AI 重塑硬件边界,到具身智能叩响真实世界的大门;从出海浪潮中的品牌全球化,到传统行业装上 " 赛博义肢 " ——我们还原的不仅是趋势,更是在捕捉在无数次商业实践中磨炼出的真知。

我们将在接下来的内容中,逐帧拆解这些 " 爽剧 " 背后的真实逻辑,一起看尽 2025 年商业的 " 风景独好 "。

光联芯科 CEO 陈超

以下是真知创投合伙人、光联芯科 CEO 陈超先生的演讲实录,经 36 氪编辑:

大家下午好!我是来自光联芯科的陈超。非常高兴有机会跟大家分享 , 我的演讲主题是 " 算力 · 无界 光互连是通往 AGI 的必由之路 "。

在正式开始之前,我想邀请大家来先看一组图片,这三张图由 Open AI Sora 多模态大模型生成的,算力规模不同,从左到右别用到了 300 张 GPU、1250 张 GPU 和 10000 张 GPU,从左到右也是图片质量越来越好。那么,我们是否可以做一个基本假设:所用算力的多少能决定一个 AI 智能的高低。

2012 年,AlexNet 横空出世,代表着深度学习在计算机视觉领域的重大突破。2015 年,DeepMind 在《Nature》上发表了一篇文章,它将深度学习和强化学习相结合,第一次让人工智能有了自主学习复杂任务的能力。2016 年,AlphaGo 出现,AI 第一次在围棋领域战胜了人类的顶尖选手。2022 年,ChatGPT 出现,AI 第一次从专业领域走入大众视野。再到今年 GPT-5 的出现,距离 ChatGPT 有 3 年的时间,我相信在座的各位或线上的朋友,或多或少都会用各种 AI 工具提效。

回顾整个 AI 的发展历程,如果把 1956 年第一次达特茅斯会议看成 AI 的开始,到现在也有将近 70 年的时间。为什么过去 10 年 AI 有了突飞猛进的进展,而不是在前 60 年?因为 AI 的进化是算力驱动的,过去十年间算力的增长超过 10 亿倍,就是 10 的 9 次方,可以说是年对年的算力增长是将近 10 倍。

训练一个 AlexNet 模型,只用到两张英伟达的 GTX580,AlphaGo 则用了 1920 个 CPU+280 个 GPU,GPT-3 使用了 1 万个英伟达的 G100,达到万张的级别。GPT-5 用到了约 20-30 万张英伟达的 H100,这个数量级已经很大。如果我们走向通用人工智能 AGI,未来 GPT-6、GPT-7 需要多少算力才能达到 AGI?

根据硅谷前沿科技分析师的预测,达到 AGI 需要大约 10 的 41 次方 FLOPs 的等效算力。我们现在目前的算力水平在 10 的 25 次方左右,也就是说我们还有大概 10 的 16 次方的差距。如果我们假设在软件算法层面能跨越 10 的 8 次方的差距,那么剩下的 10 的 8 次方,一定要在硬件芯片的算力层面去提升。也就是说,实现 AGI 需要现在的算力规模提升 1 亿倍,这是一个非常大的数字。

按照现在算力行业的进行轨迹,我们能否达到 AGI?

不能。为什么?因为算力行业面临了两大挑战,有带宽的瓶颈、也有能耗的问题。

先来看带宽。互连带宽严重限制了算力的发展,互连带宽的增速显著低于算力增速。过去 20 年间,单芯片算力的提升倍数是 6 万倍。存储带宽只提升了 100 倍,与前者相差 600 倍。互连带宽只提升了 30 倍,更小,只有算力提升的两千分之一。整个计算集群的性能,被带宽严重限制,而不是被算力所限制。

我们来看一个具体的案例,马斯克的 Grok3 大模型由 Colossus 算力集群训练,一共用到约 20 万块英伟达 H100 芯片。这样大规模的集群,几个层级的互连带宽分别表现如何?可以看到,芯片最里面,显存带宽是 4TB 每秒。往外走,两张 GPU 之间的连接是 NVLink,带宽是 0.9TB 每秒,对比前面已经小了 5 倍左右。再往外走,服务器和服务器之间需要用 IB 网络互连,带宽是 0.05TB 每秒,对比 NVLink 带宽,又小了将近 20 倍。

从芯片内往外走到服务器,层层受限。互连带宽已经成了层层卡点,限制了整个算力集群的性能,这就是为什么很多算力集群的利用率、芯片的利用率只有 20%-30%,而达不到 80%-90% 满转的状态。

再来看能耗。我们来看两个对比,右边是三峡水电站和大亚湾核电站的总装机容量,分别是 22.5GW 和 6GW,吉瓦是一个很大的数字。

左边是全球在建的数据中心的规划量级。Stargate 由 Open AI 和微软共同打造、耗资 1000 亿美元的超级算力中心,规划总容量 5GW,几乎相当于一个大亚湾核电站的总装机容量。xAI 是马斯克旗下,和沙特人工智能公司、英伟达合作筹建的一个超级算力中心,规模是 6.6GW,甚至超过大亚湾核电站总装机容量,约是三峡的三分之一。一个算力中心相当于一个核电站的发电量,未来我们要实现 AGI,算力需扩张到 1 亿倍,全球的电力用来做运算都是不够的。这条路走不通,问题出在哪里?

这是英伟达 NVL72 超节点正面跟反面的照片,如果我们把反面的背板放大,会看到很多铜做的铜缆,这些铜缆加起来超过两英里。铜这种介质有一个问题:随着传输速率的不断提升,会受到趋肤效应的影响。即铜只有表面去做信号的传导,铜里面没有任何电流经过。这意味着铜所代表的电互连在带宽和功耗上已经走到了物理极限,两英里长的铜缆,算力中心 90% 的能耗都用在搬运数据而非计算上,是一个巨大的浪费。

铜做不到的事情,怎么办?我们用光。

光互连是突破算力瓶颈的最优解。从 1998 年全球第一条服务于互连网的海底光缆铺设成功,我们就解决了从千公里到万公里的光的通信、光的连接能力。过去十年到二十年,数据中心蓬勃发展,我们有了相干光模块、数通光模块等,解决了从一公里到数百公里的光的连接能力。一公里以内,几百米到几厘米之间,我们可不可以用光去解决连接问题?答案是可以。我们可以用芯片出光,去解决几百米内到几厘米之间光的连接问题。用电做计算,用光做互连,因为我们相信,光互连本质上是光通信在数据通信领域的进一步延伸跟下沉。

光联芯科就是打造下一代 AI 计算集群光互连解决方案的提供商,可以做到芯片直接出光,为算力公司提供大带宽、低功耗、低延时的下一代光互连的解决方案。

未来的数据中心都是由绿色能源的光纤来互连,一排排地复制,能耗非常低,但带宽非常大。我们希望将带宽能效积能够提升 4 个数量级以上,也就是 1 万倍以上。

这是我们的产品展示。右边是我们用国产的晶圆厂制造的硅光晶圆,展示的是晶圆级的系统测试平台。左边是我们发布的第一代高速收发的 OIO 高速光引擎评估板。可以看到,左边的光纤拉出来可以连到 GPU 里面,做到 GPU 之间的光互连。

光联芯科的企业愿景是助力国产算力行业走出中国自己的半导体平行生态。我经常会想到一个类比:在燃油车领域,我们很难去直线追赶 BBA,但是我们另辟蹊径,用电动车,现在已经完全弯道超车。在半导体领域,是否可以同样另辟蹊径?如果把英伟达跟台积电等高端设计公司比作燃油车赛道,我们可否换条赛道弯道超车?用国产的算力、国产的互连和国产的晶圆制造厂,虽然单颗芯片的算力距离国外有一定差距,但是我们完全可以在整体算力集群的性能和功耗上超越国外,我们可以走出一条中国独有的半导体突围之路。

展望 2030 年,未来的算力中心会是什么样的?未来的算力世界又会是什么样?我相信,那时很多人都用上了低轨卫星互连网,跟地面用激光通信,用光做连接。骨干网会用光纤做连接,数据中心会有光模块、光互连、光交换等去连接,我们期待一个全光互连的新时代。

谢谢大家!这是今天我的分享。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

联芯 ai ceo gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论