半导体行业观察 1小时前
这条芯片赛道,大火
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

在AI算力需求持续爆发的背景下,一个曾经相对小众的芯片领域正在成为半导体行业的新风口——ASIC(Application Specific Integrated Circuit,专用集成电路)。

与英伟达GPU在AI市场的一枝独秀不同,越来越多的云服务巨头选择定制专属的AI芯片,而为这些巨头提供设计服务的ASIC厂商们,正在迎来前所未有的黄金时代。

为什么是ASIC?

要理解ASIC如今的爆火,需要将时钟拨回到20世纪80年代初。彼时,半导体技术正经历一场深刻变革——单芯片所能承载的晶体管数量大幅提升,电子设备制造商不再满足于使用千篇一律的通用芯片,他们渴望拥有能够精准适配自身产品需求、与竞争对手形成差异化的定制芯片。

这种来自市场的强烈呼声,催生了ASIC这一全新的芯片品类,也开启了半导体产业的一次重大革命。

在ASIC出现之前,半导体行业长期遵循着一种相对单一的商业模式:芯片公司预判市场需求,自主研发通用型芯片,批量制造后通过公开市场销售给众多客户。这种模式在集成度较低的年代尚能运转,但随着电子产品日益精密复杂,矛盾逐渐显现。

传统半导体企业虽然精通芯片技术,却缺乏深入理解各个细分应用场景的系统级知识,难以为每个特定市场设计专属芯片;而系统厂商——那些生产计算机、通信设备的企业——虽然清楚知道自己想要什么样的产品,却既缺乏半导体设计能力,更没有芯片制造的资源。

正是在这样的产业断层中,VLSI Technology和LSI Logic等企业敏锐捕捉到了机遇。它们开创了一种全新的协作模式:系统厂商负责芯片功能的定义和前端设计,明确芯片需要实现什么功能;而ASIC企业则承担物理设计(即后端设计)和制造环节的责任,将概念转化为真实的硅片。

这种分工打破了原有的产业边界,让专业的人做专业的事。尽管最初这一模式被业界质疑为"工程成本高、客户数量少"的小众生意,但市场很快用真金白银证明了其价值——到2000年时,LSI Logic的营收已达到27.5亿美元。

但传统ASIC模式也存在一个关键局限:其光刻掩模归ASIC企业所有,这意味着某一设计只能由对应的ASIC企业制造。即便其他厂商提出更优惠的方案,系统厂商也无法轻易更换供应商——这需要重新启动完整的设计流程,成本极其高昂。这种锁定效应在高批量生产场景下尤其让客户不满。

1990年代初,两大变革打破了这一僵局:一是台积电(TSMC)等专业代工厂的出现,二是物理设计知识的普及和EDA工具的成熟。这些变化为系统厂商提供了一条全新路径——客户自有工具(COT)模式:系统厂商可以自主完成从概念到掩模的全流程设计,然后选择任意代工厂进行制造,掩模的所有权掌握在客户手中,这意味着真正的供应链灵活性。

不过COT模式也并非十全十美,其很快就暴露出新的问题:芯片物理设计的难度远超许多系统厂商的想象。那些曾经认为ASIC企业收费过高的公司,在自己动手后才意识到,从网表到可制造版图的过程中,布局布线、时序收敛、功耗优化、可制造性设计等每一个环节都充满挑战。在这样的背景下,"设计服务企业"应运而生。

这类企业与传统ASIC公司角色相似,为客户提供专业的设计支持,但关键区别在于:它们没有自己的晶圆厂,主要依托台积电等代工厂,并且客户保留掩模所有权。中国台湾的世芯、智原和创意等企业成为这一模式的代表。这种更加开放、灵活的生态,为后来AI时代百花齐放的ASIC创新奠定了产业基础。

到了2010年代,AI的出现,让ASIC真正得以一展身手。这一时期,深度学习技术取得突破性进展,ImageNet图像识别竞赛上的惊艳表现让业界意识到,神经网络正在开启一个新时代。与此同时,训练这些模型所需的算力呈指数级增长——从2012年AlexNet的数天训练时间,到2018年BERT模型的数周甚至数月,再到GPT-3等大模型需要数千块GPU协同工作数月之久。

通用GPU虽然可以胜任AI训练,但其本质上仍是为图形渲染设计的硬件,在面对神经网络的特定计算模式时,存在大量的效率损失。正是在这样的背景下,谷歌在2016年首次公开了其TPU芯片。这款ASIC专门针对TensorFlow框架下的神经网络推理优化,在谷歌的数据中心中大规模部署,为搜索、翻译、照片识别等服务提供算力支撑。

TPU的成功引发了连锁反应。如果说在ASIC发展的前几十年,市场主要由电信设备、消费电子等传统应用主导,那么2010年代后半段,AI迅速成为ASIC最重要、增长最快的应用领域。特斯拉为自动驾驶研发FSD芯片,苹果在iPhone中集成Neural Engine,华为推出昇腾系列AI处理器,亚马逊为AWS云服务开发Inferentia推理芯片——几乎所有科技巨头都意识到,AI时代的算力竞争,必须依靠定制化的ASIC来实现效率和成本的最优平衡。

ASIC,迅速繁荣

我们不难发现,与GPU这样的通用处理器不同,ASIC从诞生之初就带有鲜明的"专才"特质——它只为一个特定的应用场景或功能而生,但会把这件事做到极致。

ASIC的第一大优势是性能的极致优化。在20世纪80年代,ASIC主要采用两种制造技术:门阵列(gate-array)和基于单元(cell-based)设计。门阵列技术在晶圆上预先制造好门电路,掩模仅需对互连部分进行图案化,速度更快、成本更低;而基于单元的设计则需要对空白晶圆的所有层进行图案化,虽然制造周期更长,但灵活性更强,能够实现更高的电路密度和性能。

这种对特定任务的深度定制,到了AI时代展现出更加惊人的效果。通用处理器如CPU需要兼顾各种可能的计算需求——从文字处理到图形渲染,从数据库查询到科学计算——因此必须在架构上做出妥协,配置复杂的指令调度系统、多级缓存结构、分支预测单元等。而AI专用ASIC则可以删繁就简,将所有的晶体管资源都聚焦于神经网络计算的核心操作:矩阵乘法、卷积运算、激活函数等。

以谷歌的TPU(Tensor Processing Unit)为例,这款在2010年代推出的AI专用ASIC,其核心就是一个256×256的脉动阵列(systolic array),专门针对张量运算优化。这种设计使得TPU在执行机器学习推理任务时,性能可以达到同时期通用GPU的15-30倍,同时能效比提升30-80倍。这种性能飞跃,正是ASIC专用化理念在AI时代的最佳诠释。

ASIC的第二大优势是功耗的极致控制,回顾ASIC的发展历史,能效优势一直是其核心卖点之一。在1990年代,ASIC被广泛应用于移动电话、数码相机等便携设备,原因正是其出色的能效表现能够延长电池续航时间。进入2000年代,随着多媒体设备的爆发式增长,ASIC在图像处理、视频编解码、电源管理等领域大展身手,让设备变得更小巧、更节能。

到了AI时代,功耗问题已经从锦上添花的优势升级为生死攸关的刚需。现代大型AI模型动辄需要数千甚至上万块GPU进行训练,单个数据中心的功耗可达数十兆瓦——相当于一个小型城镇的用电量。冷却系统的成本和环境影响也成为不可忽视的问题。在这样的背景下,ASIC的能效优势具有了战略意义。

ASIC之所以能效卓越,根本原因在于其可以精确控制每个计算单元的功耗特性。通用芯片为了保持灵活性,必须配置大量可能永远不会被AI应用使用的功能模块——这些"闲置"的电路依然会消耗静态功耗。而ASIC则可以只保留必需的电路,去除一切冗余。更进一步,ASIC还可以针对特定的计算模式优化数据流动路径,减少数据在芯片内部的搬移距离,而数据搬移往往是能耗的主要来源之一。

在边缘AI场景中,ASIC的能效优势更加凸显。智能手机、智能音箱、监控摄像头、自动驾驶汽车——这些设备要么受限于电池容量,要么对散热有严格限制,根本无法承载高功耗的通用芯片。例如,苹果在iPhone中集成的神经网络引擎(Neural Engine)本质上就是一款AI专用ASIC,能够在极低功耗下实现实时的人脸识别、照片场景分析等功能。在汽车领域,特斯拉自研的FSD(Full Self-Driving)芯片同样是ASIC架构,专门针对自动驾驶的视觉感知和决策任务优化,在功耗仅为72瓦的情况下,实现了每秒2300帧的图像处理能力。

ASIC的第三大优势是物理尺寸的优化,早在1970年代,ASIC的前身——定制化集成电路就被应用于计算器和数字手表中,原因之一就是其紧凑的设计。到了1980年代,随着视频游戏主机和家用电脑的兴起,ASIC帮助这些设备在保持小巧外形的同时,实现了图形渲染、声音合成等复杂功能。这种"在有限空间内集成强大功能"的能力,正是ASIC设计哲学的体现。

在AI时代,空间优化的重要性达到了新高度。现代智能手机需要在厚度不到10毫米的机身内,集成处理器、内存、电池、摄像头、天线等数十个组件。如果AI计算依赖独立的通用芯片,不仅会占据宝贵的电路板空间,还会因为芯片间的数据传输增加延迟和功耗。而将AI能力集成为ASIC形式的协处理器,可以与主处理器封装在同一芯片内,甚至直接集成在同一块硅片上,极大节省了空间。

事实上,如今的ASIC早已经成为AI基础设施中不可或缺的一环,从谷歌到微软,从亚马逊到Meta,几乎所有云服务巨头都已经涉足定制芯片即ASIC芯片,在英伟达赚的盆满钵满之际,ASIC也与之一同崛起,成为了新的摇钱树。

博通与Marvell:ASIC市场的最大赢家

时间来到2025年,ASIC早已让博通和Marvell赚的盆满钵满。

博通FY25Q2财报显示,其AI业务收入超44亿美元,同比增长46%,定制AI加速器实现两位数增长;Marvell FY26Q1数据中心营收达14.41亿美元,占总营收76%,同比暴增76%,主要驱动力正是AI定制芯片的大规模出货。

从市场份额来看,博通与Marvell已经形成了近乎垄断的双寡头格局。根据行业分析,这两家公司合计占据ASIC市场超过60%的份额,其中博通一家就拿下了55-60%的市占率,堪称绝对霸主;Marvell则占据13-15%,稳居第二。更关键的是,它们服务的客户清一色都是全球最顶级的云服务提供商(CSP)——这些才是真正大规模部署AI基础设施、愿意为定制芯片投入数十亿美元的金主。

博通与谷歌的合作堪称ASIC领域最成功的产业联盟之一。两家公司的合作历史超过10年,从第一代TPU开始,博通就深度参与了谷歌AI芯片的设计与制造。迄今为止,双方已经共同发布了六代TPU产品,而最新的TPUv7p正在研发之中。这种长期稳定的合作关系,不仅为博通带来了稳定的营收,更重要的是,在与谷歌这样的顶尖AI公司共同迭代的过程中,博通积累了大量关于AI工作负载特性、芯片架构优化、系统集成的第一手经验——这些know-how成为其最宝贵的竞争壁垒。

Marvell则将重心放在亚马逊AWS身上。AWS是全球最大的云服务提供商,也是最早开始自研AI芯片的云厂商之一。Marvell主要负责为AWS开发Trainium系列训练芯片和Inferentia系列推理芯片。特别值得一提的是,Marvell已经锁定了亚马逊Trainium2项目的大部分产能,并且双方正在合作开发下一代产品。这种深度绑定的合作模式,为Marvell提供了稳定的订单预期和现金流,也让其能够在产能紧张的市场环境下获得晶圆厂的优先支持。

有意思的是,Marvell在其最新的投资者沟通会上给出了一组惊人的预测数字:到2028年,全球数据中心资本开支将突破1万亿美元大关。在这1万亿美元的总盘子中,与AI加速算力相关的开支规模将达到3490亿美元——占比超过三分之一。而在AI加速算力这个细分领域内,ASIC市场的规模预计将达到554亿美元,从2023年到2028年的复合年增长率(CAGR)高达53%。

更细致地拆解这个市场,可以看到两大核心增长引擎。第一是定制XPU(包括各类AI加速器芯片)本身的业务,预计到2028年规模将达到408亿美元,五年复合增长率为47%。这部分业务是博通和Marvell的传统强项,也是它们营收的主要来源。第二是XPU附件业务,包括网络接口卡(NIC)、电源管理IC、高带宽内存(HBM)控制器等周边芯片,预计规模将达到146亿美元,而复合增长率更是高达90%——几乎是主芯片业务增速的两倍。

这种附件业务的爆发式增长,反映了AI芯片系统复杂度的快速提升。早期的AI加速器相对独立,但随着模型规模膨胀到数千亿甚至数万亿参数,单芯片算力已经远远不够,必须通过高速互连将成百上千颗芯片组成集群协同工作。这就对网络带宽、内存带宽、电源管理提出了极高要求。例如,一个包含数千颗AI芯片的训练集群,其内部网络带宽需求可能达到数百Tbps(太比特每秒);而为了避免木桶效应,HBM内存的带宽也需要同步提升;同时,数千颗芯片的功耗管理、散热控制更是系统工程。这些需求催生了巨大的附件市场,而博通和Marvell凭借在高速接口、网络芯片、存储控制器等领域的深厚积累,自然成为这一市场的主要受益者。

值得注意的是,这些预测数字还在不断上调。仅在过去一年,多家分析机构就数次提高了对ASIC市场的预期,原因无他——AI的发展速度超出了所有人的想象。从ChatGPT引爆生成式AI浪潮,到Sora展示视频生成能力,再到各种多模态大模型的涌现,每一次技术突破都意味着更大的算力需求,而这些需求最终都会转化为对定制AI芯片的订单。

博通与Marvell能够在ASIC市场建立如此稳固的领先地位,绝非偶然。表面上看,它们是在为客户定制芯片,但实际上,这背后需要的是极其深厚的技术积累和系统级整合能力。在这个领域,IP设计和SoC整合这两大核心能力构成了难以逾越的护城河。

传统的定制芯片主要包含四大类IP(Intellectual Property,知识产权核):计算单元、存储子系统、网络I/O接口,以及先进封装技术。这四者缺一不可,但分工明确。在这个产业链条中,ASIC服务提供商通常不涉及计算单元的架构设计,而是提供相应的设计流程支持和性能优化建议,帮助客户的架构设计能够高效地转化为物理实现。

但在存储、网络I/O和封装这三大领域,ASIC服务商需要提供完整的IP解决方案——这才是它们的核心价值所在,也是技术壁垒最高的部分。

在所有IP中,SerDes(Serializer/Deserializer,串行器-解串器)可以说是最关键、门槛最高的技术。

现代AI训练任务往往需要成百上千颗芯片协同工作。例如,训练一个千亿参数级别的大模型,可能需要一个包含1024颗甚至更多AI芯片的集群。这些芯片需要不断交换梯度信息、同步参数更新,对互连带宽的需求极其惊人。如果芯片间通信速度跟不上计算速度,整个集群就会陷入"等待"状态,算力浪费严重——这就是业界常说的"通信墙"问题。

SerDes技术的核心挑战在于:如何在极高的数据速率下保证信号完整性?这需要在模拟电路设计、信号处理算法、均衡技术等多个层面进行精密优化。更具挑战性的是,随着工艺节点推进到5nm、3nm甚至更先进,晶体管特性的变异性增大,功耗密度提升,这都给SerDes设计带来了新的难题。

博通在SerDes领域的领先地位毋庸置疑。其自研拥有200G PAM4(四电平脉冲幅度调制)SerDes技术,并且已经在量产产品中大规模应用。PAM4是一种先进的调制技术,相比传统的NRZ(非归零码),可以在相同的波特率下传输两倍的数据量,这对于提升带宽密度至关重要。博通的200G SerDes不仅速率领先,更重要的是其成熟度和可靠性——在数据中心这种7×24小时不间断运行的环境中,稳定性往往比峰值性能更重要。

而Marvell在SerDes技术上的进展同样令人瞩目。在2025年的OFC(光纤通信大会)上,Marvell展示了其最新的SerDes技术成果:光SerDes速率已经达到400G PAM4,而电SerDes速率更是突破了224G大关。这意味着单通道(single lane)就能提供224Gbps的带宽,如果一颗芯片集成数十个甚至上百个SerDes通道,总带宽可以达到惊人的数十Tbps。这种带宽能力,是支撑下一代AI超级集群的基础。

对于两大巨头而言,除了SerDes这一技术外,它们还构建了完整的ASIC设计IP体系,除了传统的CPU/DSP(数字信号处理器)IP外,它们还拥有网络交换IP、存储接口IP、安全IP、封装技术支持等。

庞大而丰富的IP库,意味着博通和Marvell可以为客户提供菜单式的定制服务,客户只需要专注于最核心的AI加速器架构设计,其他所有子系统都可以从供应商的IP库中选择成熟的方案进行组合,也让这两大巨头在AI时代到来之际,牢牢抓住了ASIC这棵摇钱树。

群雄逐鹿:传统芯片巨头的战略转型

在博通和Marvell疯狂赚钱之际,也有越来越多的传统芯片厂商开始战略转型,试图在这个新兴市场中占据一席之地。

英特尔:困境中的突围之路

多年来,英特尔一直难以跟上台积电等竞争对手的芯片制造能力,其在AI市场上更是缺乏竞争力的产品线。英伟达的AI芯片大卖特卖,AMD也有自己的AI芯片组合,而英特尔的下一个"重磅炸弹"Jaguar Shores还要等到2027年首次亮相。

身处困境的英特尔,选择了差异化道路。英特尔最近成立了中央工程集团(CEG),将公司内所有工程人才整合到一个部门,由前Cadence Systems高管斯里尼·艾扬格领导。这位在2024年7月从Cadence加入的高管,在推动定制芯片商业模式方面有着深厚的经验。

英特尔首席执行官在第三季度财报电话会议上明确表示,CEG集团将带头拓展新的ASIC和设计服务业务,为广泛的外部客户提供专用芯片。

英特尔的最大优势在于其完整产业链。作为老牌IDM企业,英特尔拥有芯片专业知识、x86 IP以及提供制造服务的内部代工厂,寻求定制AI芯片的客户可以获得满足所有需求的一站式服务。这是市场上任何其他ASIC设计公司都无法提供的优势,即使是博通和Marvell也难以企及。

然而,挑战同样巨大。英伟达最近宣布斥资50亿美元收购英特尔约4%的股份,两家公司将共同开发多代定制数据中心和PC产品。这一合作为英特尔带来了机遇,但也带来了复杂的竞合关系。在制造方面,英伟达采用英特尔的18A制程或其他制程来生产部分芯片的概率其实并不高。

高通:收购Alphawave强化SerDes能力

与许多巨头不同,高通在过去三年并未从数据中心的蓬勃发展中获益。高通的业务传统上以智能手机处理器和调制解调器的销售为主,鉴于数据中心市场预计将在未来五年成为半导体行业增长最快的领域,进军这一市场如今已成为高通业务多元化战略的重要组成部分,也是高通不容错过的机遇。

高通的选择,就是以24亿美元的价格收购Alphawave。

Alphawave的核心价值在于其领先的串行器-解串器(SerDes)技术,这项技术能够实现对人工智能应用至关重要的高速数据传输。与传统的模拟SerDes架构不同,Alphawave基于DSP的SerDes构建方法能够将数据速率扩展到更高速度,并将制造工艺扩展到更小的几何尺寸。

这家英国初创公司成立于2017年,是数据中心、人工智能、网络、5G、自动驾驶汽车和存储等领域高速连接和计算芯片的领先供应商。其核心优势在于为数据中心和其他应用提供高速连接IP,包括:用于服务器和存储的PCIe Gen 6/CXL 3.0;用于网络交换机、路由器、DPU和网卡的400G、800G和1.6T以太网IP;用于GPU、CPU、FPGA和DPU的HBM和DRAM内存IP,以及用于芯片设计的芯片互连IP,例如UCIe、BOW和Open-HBI。尤其值得一提的是,该公司在尖端工艺节点的高速SerDes方面拥有深厚的积累。

值得一提的是,Alphawave不只是一家IP公司,它还涉足芯片组和定制ASIC领域。在2022年,Alphawave以2.1亿美元收购了SiFive的ASIC业务,伴随着随着收购Alphawave,高通也将加入这一行列。

目前,凭借在SerDes领域的专业技术,Alphawave已成功拓展至定制芯片和芯片组的设计与制造领域。其作为一家垂直整合型公司,能够掌控其供应链的关键环节,包括芯片IP、芯片组、定制芯片和连接产品。其技术解决方案通过强大的代工厂和组件行业合作伙伴生态系统得以实施,其中包括台积电、三星、英特尔和格罗方德等所有主要代工厂。

值得一提的是,Alphawave还与ARM紧密合作,基于ARM的Neoverse计算子系统(CSS)开发适用于人工智能/机器学习应用、高性能计算(HPC)、数据中心和5G/6G网络基础设施应用的高级计算、I/O和内存芯片组。Alphawave也是ARM Total Design的成员,该生态系统致力于构建基于ARM Neoverse CSS的定制芯片解决方案。

这次交易对高通来说也具有多重战略意义。首先,高通缺乏关键的数据中心连接IP,尤其是SerDes。自主研发需要大量投资,而且可能需要数年时间。因此,高通对Alphawave的兴趣源于其战略扩张,即从移动领域向人工智能计算、数据中心加速、汽车和定制芯片等高增长领域拓展——所有这些领域都需要SerDes、PCIe、CXL和UCIe等先进的连接IP。

其次,与Alphawave达成协议不仅将加强高通的IP组合,还将使其在定制芯片和ASIC市场站稳脚跟,从而能够更有效地与AMD、英伟达、AWS和其他超大规模数据中心运营商等参与者竞争,构建下一代计算基础设施。

事实上,Alphawave几乎是唯一一家能够跨多个晶圆代工厂提供高性能互连IP且可供收购的小型公司。Alphawave的估值相对较低,这为高通提供了一个独特的机会,可以以相当大的折扣收购一家具有强大长期增长潜力的战略重要公司,从而大大提高高通在未来几年内打入数据中心市场的机会。

联发科:从手机芯片到云端ASIC

联发科这家传统的手机芯片厂商,也正在成为云端ASIC设计服务的重要玩家,与博通这样的ASIC市场领导者展开直面竞争,并且已经拿下了谷歌、Meta等科技巨头的订单。

在今年的英伟达GTC大会上,联发科介绍了其Premium ASIC设计服务,显示联发科与英伟达的合作扩展至IP领域,能提供各式客制化芯片/HBM4E等,并具有丰富的Cell Library,以及先进制程、先进封装经验。

联发科的核心竞争力在于其SerDes技术。联发科指出,其SerDes技术为ASIC核心优势,涵盖芯片互连、高速I/O、先进封装与内存整合。其中,112Gb/s DSP基于PAM-4接收器,于4奈米FinFET制程打造,实现超过52dB损耗补偿,意谓更低信号衰减、更强之抗干扰特性。现在联发科更推出专为数据中心使用的224G Serdes,并已经完成硅验证。

近日,联发科正式宣布与英伟达合作设计GB10 Grace Blackwell超级芯片,该芯片将为新推出的NVIDIA DGX Spark提供动力。GB10采用了联发科在设计节能、高性能CPU、内存子系统和高速接口方面的专业知识。

在云服务商市场,联发科也取得突破。根据调研机构指出,部分CSP已在评价英伟达及联发科之IP组合的定制化设计芯片。尽管谷歌TPU进度稍微递延,第七代TPU预计会在明年第三季投入量产,但采用3nm打造仍有望为联发科增加超过20亿美元的贡献。谷歌进阶到第八代的TPU,将会开始采用台积电2nm制程。

联发科的另一个重大突破来自Meta。最近的报道表明,联发科即将获得Meta即将推出的一款2nm工艺ASIC的大额订单,该芯片代号为"Arke",专注于后训练和推理功能,可能在2027年上半年实现量产。

联发科转向ASIC的原因与其独特的市场定位有关。作为一家中国台湾芯片设计公司,联发科在手机芯片市场面临激烈竞争,利润率受到挤压。ASIC设计服务为联发科提供了更高的利润率和更稳定的客户关系。

中国台湾Fabless的异军突起

除了巨头外,中国台湾的设计服务公司正在成为全球AI芯片定制化趋势中的核心受惠者。除了世芯、创意、智原这三雄凭借与代工厂的合作关系、深厚的技术积累以及灵活的商业模式崛起外,做驱动IC的联咏也有意涉足这一利润颇丰的市场。

先来说最成功的世芯,作为一家提供NRE(委托设计)和Turn-key(一站式量产)业务的IC设计服务公司,其专门负责替客户代为设计IC,不生产自有品牌的IC。若客户不擅与中下游的晶圆代工厂、封测厂往来,又想争取较佳的投片价格及技术服务,世芯也提供代为投片量产的一站式服务。

世芯的成长历程堪称传奇。2004年,成立仅一年的世芯取得索尼PSP游戏机芯片大单;2009年,IBM携手东京大学推出当时全球最快的超级电脑,也是找世芯合作设计量产,逐渐打响世芯在业界名号。比特币自2008年发明后,兴起一波挖矿热潮,更让世芯2014年度营收大幅成长。

近年来的AI风潮,使HPC芯片需求激增,自2018年起,世芯营收连续六年成长,2023年度营收新台币304.8亿元,税后净利33.2亿元,营收及获利均创下历史新高。综观2024年前11个月,世芯累计营收达474.93亿元,年增高达76.07%,创下历史同期新高。

由世芯2023年各终端应用类型贡献的营收来看,人工智能的HPC应用占84%,其次为利基和通讯网络应用(9%)、消费性电子应用(6%)。至于从区域营收观察,北美区域占比从2021年的14%,显著成长至2023年的63%,由云巨头贡献的业绩可见一斑。

目前世芯在全球ASIC供应链中的地位极为稳固,其核心成长动能仍来自于极高单价的先进制程(如5纳米及以下)AI加速器量产订单,特别是来自美国大型客户(如英特尔5纳米加速器订单)的订单,预期将是2026年营收的最大贡献者。其业务结构中,委托设计(NRE)比重预计将提高,显示新世代AI芯片设计委托案仍不断涌入。

而创意电子作为台积电的策略合作伙伴,在ASIC设计服务领域具有得天独厚的优势。2025年10月,创意电子合并营收约37.16亿元,较去年同期大幅成长150.6%,创下单月历史新高。这一强劲表现主要就是受惠于云巨头的AI相关HPC项目进入大规模量产阶段。

据了解,创意电子的主要营收来源有三:一是本身自有IP的权利金(royalty);二是帮其他企业设计芯片的一次性工程费用,称之为NRE;第三,若客户不擅长与晶圆及封测厂往来,但又想享有价格或技术优势,就会请创意协助向台厂投片量产,称之为Turn-Key。

有意思的是,虽然当前创意电子与世芯都拥有台积电CoWoS的Turn-Key服务,但一名美系IC设计高层表示,台积电到底是创意的大股东,但在技术上,创意会比世芯来得更加具有优势,其最大的优势,就是能最早接触台积电最新制程以及封测。

此外,由于AI要用到的几乎都是先进制程,研调分析师指出:"全世界的先进制程几乎都掌握在台积电手中,创意和台积电技术关系紧密,权利金抽取会有优势。"

智原作为联电集团旗下的IC设计服务公司,在ASIC领域同样扮演着重要角色。2025年10月,智原合并营收约8.34亿元,营收涵盖了IP授权、NRE服务与ASIC量产。虽然短期营收受到总体半导体景气修正的压力,但其在HPC与5G网络等领域的IP授权和NRE业务持续获得大案,其在财报中指出,公司正积极转向更高阶的ASIC设计,以迎接下一波AI复苏。

台湾ASIC设计服务三雄的崛起,有其独特的竞争优势:

1. 与台积电的紧密合作关系:无论是创意电子作为台积电子公司的"嫡系"身份,还是世芯与台积电长期合作建立的信任关系,都使得它们能够优先获得先进制程和CoWoS等关键封装产能。在当前CoWoS产能紧张的情况下,这一优势尤为重要。

2. 完整的Turn-Key服务能力:从设计到投片量产的一站式服务,使得云端巨头可以专注于核心芯片的设计,而将配套芯片和制造环节外包给台湾的设计服务公司。这种模式既降低了云端巨头的资源投入,又能获得台积电先进制程的技术支持。

3. 灵活的商业模式:相比博通、Marvell等美国厂商主要聚焦于最高端的XPU设计,台湾厂商的业务范围更加灵活,既可以承接高端AI加速器项目,也能服务消费电子、网通等多元领域,这种多元化布局提高了抗风险能力。

4. 深厚的技术积累:世芯从创业初期至今超过20年的市场深耕,创意电子作为最早接触台积电最新制程的先驱,智原在IP授权领域的长期布局,都为它们在ASIC领域的竞争奠定了坚实基础。

最后是联咏,其因在面板驱动IC与影像处理器等消费性电子领域深耕多年,被视为典型的"中游系统IC厂"。然而,随着AI浪潮推动算力基础设施高速扩张,联咏逐步将技术触角延伸至HPC与ASIC领域,并开始在更具战略高度的服务器与AI芯片供应链中占据一席之地。

据台媒报道,联咏近期成功完成以 Arm Neoverse CSS N2 为基础架构的高效能运算系统单芯片(SoC),并在台积电 N4P 先进制程节点顺利流片。该项目源自 Arm 推出的"Total Design(ATD)"协作计划,旨在透过生态整合加速Arm架构在资料中心与AI加速领域的布局。联咏此次芯片预计将于 2025年9月完成首批晶圆验证,这也标志着其正式跨入以数据中心与AI推理为核心的运算芯片赛道。

从技术规格来看,这颗SoC采用 Chiplet 异质整合架构,将 Neoverse N2 计算核心、DDR5 / HBM3e 内存控制器、PCIe 6.0 / CXL 2.0 接口,以及 224G SerDes 高速传输模组进行模块化整合,形成可灵活扩展、可复用的运算芯粒平台。同时,芯片采用台积电的 N4P 制程与 CoWoS 先进封装方案——前者为5nm家族中优化功耗比和效能的版本,后者则为AI服务器运算单元与HBM堆叠的主流封装路径,凸显联咏在高阶算力芯片上已具备从架构设计、系统整合到封装协同的全链路能力。

这不仅意味着联咏具备 AI ASIC 与 Chiplet 设计服务 的技术条件,更显示其已从"消费电子IC厂"迈向"AI基础设施芯片提供者"的角色转型。随着AI服务器、边缘运算、智能座舱与大模型推理持续扩大,联咏将有机会在原本的驱动IC与ISP业务之外,培育出第二成长曲线。

值得关注的是,联咏此次的 Neoverse CSS N2 SoC 采用高度模块化架构设计,可与生态体系内超过 60 家合作伙伴的 I/O、加速器与专用逻辑芯粒搭配,形成可依客户需求"自由拼接"的HPC与AI平台。这种架构不仅顺应 Chiplet + IP复用 的主流方向,也使联咏在未来车载、边缘AI、资料中心ASIC等高定制场景中具备可规模化交付能力。

中国大陆厂商的突围

在ASIC领域,国内厂商也在积极布局,试图在这个快速增长的市场中占据一席之地。

芯原股份作为我国IP授权领域龙头企业,主要提供各类处理器IP(GPU、NPU、VPU、DSP、ISP等)、数模混合IP及射频IP,其一站式定制芯片业务是根据客户需求,使用自有IP或购买其他IP通过设计、实现、验证,转换为可以制造的芯片版图。

据了解,芯原已有核心客户的AI Chiplet投片在即,多合一封装形式打造强劲算力,AI、智驾、机器人、端侧多元领域需求有望爆发,公司商业模式进一步向Chiplet供应商演进。

另一家SoC企业翱捷科技,则积累了大量自有芯片产品的设计和流片经验。这种平台化的能力和经验可以高效复用于ASIC定制服务中,不仅能为客户显著缩短研发周期、提升开发效率,更能确保项目的成功率。

据了解,目前翱捷ASIC 在手订单充足,已承接多项一线头部客户项目。自 2H24 开始,ASIC 定制市场空间显著扩大,公司快速响应需求,在智能穿戴/眼镜、端侧 AI 及 RISC-V 芯片等领域积极布局,目前在手订单充足。同时,针对海外算力限制新规,公司通过技术创新与新型架构设计,在合规基础上为系统厂商提供 ASIC 服务,并已承接多项头部客户订单。

同样值得关注的还有专注于ASIC的灿芯股份,其依托与中芯国际的战略合作,持续巩固其在ASIC定制服务领域的领先地位。据了解,灿芯2025年上半年研发投入超过9,000万元,重点聚焦高速接口IP与高性能模拟IP的自主研发,涵盖DDR、SerDes、PCIe、MIPI、PSRAM、TCAM、ADC、PLL、PMU等多个方向。其基于22nm工艺的DDR5 IP已完成架构验证,凭借高带宽、低功耗与创新控制器架构,正成为AI计算、数据中心与工业控制等高性能场景的重要支撑模块。

在新兴应用领域,灿芯股份积极布局AI算力芯片,其在半年报中指出,公司正结合3D封装技术优化IP互连效率,推出适配Chiplet架构的高速接口IP,以满足高带宽、低延迟的系统需求,助力客户实现异构集成设计。

对于国产ASIC厂商而言,AI的爆火带来了更多机遇,尽管在IP积累上弱于国际巨头,但在国产替代的浪潮与国产芯片崛起的当下,它们有望在ASIC市场中分得更大的蛋糕。

产业展望:ASIC时代的机遇与挑战

随着AI算力需求的持续增长,ASIC市场正在经历前所未有的繁荣,根据博通的预计,到2027年其三家大客户的数据中心相关XPU与网络市场总规模达600-900亿美元,且客户将部署百万卡集群。

与此同时,这个市场也面临诸多挑战。随着更多厂商加入AI定制芯片竞争,定制业务毛利率或将承压,一方面,ASIC服务商众多,竞争逐渐激烈;另一方面,云巨头议价能力更强,偏向压低定制芯片价格。

但大势不可阻挡,ASIC的全面崛起,不仅是技术演进的必然结果,更是产业分工深化的体现。从博通、Marvell的持续领先,到英特尔、高通、联发科的战略转型,再到国产力量的奋起直追,这个市场正在演绎一场精彩的产业变革。

我们相信,在AI浪潮的推动下,定制芯片的黄金时代才刚刚开始。

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

芯片 半导体 ai 黄金时代 tsmc
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论