颠覆GPU:定制芯片双雄寻求重塑AI硬件格局
过去两年,如果要用一个词来形容全球科技产业,那就是“算力焦虑”。随着生成式AI爆发,全球互联网公司和云计算巨头几乎同时开始疯狂建设AI基础设施。超大规模数据中心、数十万颗加速器、数百亿美元资本开支——AI算力成为决定未来竞争格局的关键资源。
在这场竞赛中,几乎所有讨论最终都会指向同一个名字:NVIDIA。这家GPU巨头的芯片成为大模型训练的核心硬件。从OpenAI的GPT系列模型,到Microsoft Azure AI平台,再到Meta Platforms的大规模训练集群,几乎所有AI系统都依赖NVIDIA的GPU。不过即便英伟达GPU价格逐渐攀升,系统厂商能够选择的GPU替代品可能也只有AMD一家可用。当2026年全球AI应用的重点从早期的模型训练向推理和大规模部署转变,AI算力的成本变得越来越重要,为了提升AI算力体系的经济效益,在GPU统治的算力世界之外,一条新的技术路线正在悄然崛起。
越来越多科技公司开始尝试摆脱对GPU的依赖,转而开发自己的AI芯片。这些芯片并不是通用GPU,而是为特定任务设计的定制ASIC。从某个角度上,GPU应该算是非常接近ASIC的一种架构,但相比于定制化ASIC,GPU在效率和灵活性方面之间存在妥协。AI定制芯片(ASIC)是为特定AI场景、特定客户需求量身设计的芯片,相比通用AI芯片(如GPU),具有性能更优、功耗更低、成本更具针对性的核心优势,尤其适配生成式AI大模型训练、推理、边缘计算等细分场景的个性化需求。随着AI大模型参数量突破万亿级,算力需求每3.4个月翻一番,远超摩尔定律演进速度,通用芯片的“一刀切”模式已难以满足高端客户的定制化算力需求,定制芯片市场迎来爆发式增长。
但AI定制芯片赛道并非低门槛赛道,其极高的技术壁垒、资金壁垒和客户壁垒,成为众多企业难以逾越的鸿沟。当顶级算力企业真正开始寻求定制芯片提升效率时,很快发现一个现实:全球真正有能力帮助他们完成先进AI ASIC设计并实现量产的公司屈指可数。
在半导体行业,ASIC并不是一个新概念,甚至可以说半导体发展的前四十年都是ASIC的天下。几十年来,各种专用芯片已经广泛存在于通信、消费电子和汽车领域。但AI ASIC的复杂度远远超过传统ASIC。
一颗先进AI芯片往往需要整合多个关键技术模块:
HBM高带宽内存
高速SerDes接口
PCIe或CXL互联
Chiplet封装架构
高速网络接口
更重要的是,AI芯片并不是单独运行的设备。它必须运行在超大规模计算集群中。
一个大型AI训练系统通常包含:
数万颗加速器
数千台服务器
数百个交换机
在这种规模下,算力瓶颈往往不是计算,而是数据传输。AI训练需要不断在服务器之间交换数据,例如梯度同步和模型参数更新。如果网络带宽不足,GPU或ASIC就会被迫等待数据。这意味着算力被浪费。因此,AI ASIC设计实际上是一项系统工程。芯片必须与网络架构、内存系统以及数据中心拓扑结构协同设计。正是在这一点上,Broadcom(博通)和Marvell建立了巨大优势。据东吴证券研究报告显示,博通与Marvell合计占据AI ASIC市场份额超70%,其中博通市占率达55%-60%,Marvell为13%-15%。据Marvell预测,2028年全球AI定制芯片(ASIC)市场规模将达554亿美元,2023-2028年复合增长率高达53%,其中定制XPU市场规模408亿美元,相关周边市场146亿美元,增长潜力巨大。而在这条高增长赛道上,博通与Marvell的脱颖而出,并非偶然,而是技术、资金、客户、战略四大维度长期积累的必然结果。
(一)技术壁垒:全栈IP布局与工程化能力的双重碾压
AI定制芯片的核心技术壁垒体现在IP设计、SoC集成、先进制程适配三大方面,而博通与Marvell在这三大领域均具备行业顶尖的实力,形成了难以复制的技术护城河。
从IP设计能力来看,定制芯片主要包含计算、存储、网络I/O及封装四大类IP,服务商虽不涉及计算部分架构设计,但需提供完整的设计流程及性能优化方案。博通与Marvell针对这四部分均有较全面的布局,均能提供存储、网络I/O、封装的完整IP解决方案,尤其在关键的SerDes IP领域,两家企业均已实现224G速率及以上的技术突破,而国内多数厂商仅能达到112G技术水平,差距显著。SerDes IP作为大规模芯片互连的核心,直接决定了AI集群的通信效率与延迟,博通的SerDes IP凭借低功耗、高带宽的优势,占据全球高端市场主导地位;Marvell则在高速SerDes领域持续迭代,2026财年实现112Gbps PAM4 SerDes的大规模量产,同时完成224Gbps PAM4 SerDes的验证与客户送样,技术水平跻身行业第一梯队。
在SoC设计能力方面,博通与Marvell均具备完整的整芯片集成能力,能够将多个IP模块高效集成,满足客户的个性化算力需求。博通长期与谷歌、Meta合作,参与其定制芯片的全流程设计,积累了丰富的大规模SoC集成经验;Marvell则联手亚马逊,凭借3nm设计技术及先进封装能力,持续开发亚马逊Trainium系列定制芯片,已锁定Trainium2产能,并计划推进Trainium3研发。相比之下,其他竞争者要么缺乏完整的IP布局,需依赖外部授权,导致定制化灵活性不足;要么缺乏大规模SoC集成经验,难以满足高端客户的复杂需求。
此外,先进制程适配能力也是核心竞争力之一。AI定制芯片对制程要求极高,7nm及以下先进制程能够显著提升芯片性能、降低功耗,而博通与Marvell均与台积电、三星等顶尖代工厂建立了深度合作关系,能够优先获得先进制程产能,保障定制芯片的量产交付。例如,博通的2nm 3.5D封装AI XPU已按计划流片,两家意向客户锁定百万片级部署目标;Marvell的7nm制程相干DSP芯片也已实现量产,功耗较上一代产品降低40%。而众多中小厂商由于订单规模小、合作深度不足,难以获得先进制程产能,无法满足高端客户的量产需求。
(二)资金壁垒:巨额研发投入与规模效应的双重保障
AI定制芯片的研发投入巨大,且研发周期长(通常18-24个月),需要企业具备强大的资金实力支撑。博通与Marvell作为全球半导体行业的龙头企业,长期维持高额研发投入,形成了显著的规模效应,进一步拉高了行业准入门槛。
博通2025财年第四季度营收达180.15亿美元,同比增长28%,其中AI半导体业务收入同比增长74%;2025财年调整后EBITDA达430亿美元,同比增长35%,强大的盈利能力为研发投入提供了坚实保障。公司长期将营收的15%左右投入研发,重点布局AI定制芯片、高速互连芯片等领域,2025财年研发投入超100亿美元,累计申请AI相关专利超5000项,形成了庞大的专利矩阵。
Marvell同样维持高额研发投入,2026财年营收达81.95亿美元,同比增长42%,创历史新高;公司将大量资金投入AI定制芯片、硅光技术等核心领域,2026财年研发投入占比超14%,同时通过战略收购补强技术短板——以32.5亿美元全现金收购Celestial AI,补强芯片级光子互联技术,突破AI算力的“互联墙”与“内存墙”瓶颈,这一收购也是公司成立以来规模最大的战略收购之一。
相比之下,中小芯片企业由于营收规模有限,难以承担巨额研发投入,往往只能聚焦于中低端定制芯片市场,无法与博通、Marvell竞争高端市场;而互联网巨头(如谷歌、亚马逊)虽有资金实力,但自研芯片主要满足自身需求,不对外提供定制服务,无法形成规模化竞争优势。此外,博通与Marvell凭借庞大的订单规模,能够与代工厂、供应链企业谈判获得更低的采购成本,形成规模效应,进一步降低定制芯片的研发与生产成本,巩固竞争优势。

(三)客户壁垒:深度绑定头部客户与长期合作的双重优势
AI定制芯片的客户主要是全球头部互联网企业、云服务商和AI创业公司,这些客户对芯片性能、功耗、安全性要求极高,且一旦确定合作,会形成长期绑定关系(通常3-5年),更换供应商的成本极高。博通与Marvell凭借早期布局,深度绑定了全球多数头部客户,形成了坚实的客户壁垒。
博通早期聚焦于网络芯片领域,与谷歌、Meta、字节跳动等头部互联网企业建立了长期合作关系,随着AI技术爆发,逐步将业务延伸至AI定制芯片领域,凭借成熟的技术与服务,成为这些客户的核心定制芯片供应商。例如,博通是谷歌TPU芯片的核心合作伙伴,支撑谷歌Gemini大模型的研发与部署;同时为Meta的MTIA定制加速器提供核心技术支持,该芯片已开始出货,并计划在2027年及以后扩展至数吉瓦规模。
Marvell则长期深耕存储芯片与网络芯片领域,与亚马逊、微软、阿里云等头部云服务商合作密切,在AI定制芯片领域,凭借中立的市场定位,成为众多云服务商的首选合作伙伴。例如,Marvell是亚马逊Trainium系列定制芯片的核心供应商,锁定Trainium2产能,并参与Trainium3的研发;同时为微软Azure提供定制化的AI芯片解决方案,支撑其云算力基础设施建设。
此外,博通与Marvell均能为客户提供全生命周期的服务,从需求调研、芯片设计、样品测试到量产交付、后期维护,形成一站式解决方案,进一步提升客户粘性。而其他竞争者要么缺乏服务能力,要么无法满足客户的长期合作需求,难以突破头部客户的合作壁垒。
(四)战略壁垒:精准定位与生态协同的双重布局
在战略布局上,博通与Marvell均避开了与英伟达在通用GPU领域的直接竞争,精准定位AI定制芯片赛道,同时通过生态协同,构建了差异化的竞争优势。
博通采用“AI定制芯片+基础设施软件”的双轮驱动战略,在布局定制芯片的同时,通过收购VMware,强化基础设施软件业务,形成“硬件+软件”的协同优势。VMware整合完成后,60%客户转为订阅制,软件业务毛利率达93%,成为利润稳定器,同时与半导体业务形成协同,推出“硬件+软件”混合云解决方案,提升客户粘性。这种战略布局使得博通不仅能够为客户提供定制芯片,还能提供配套的软件服务,满足客户的全链路需求,形成独特的竞争优势。
Marvell则采用“全栈技术+中立生态”的战略,聚焦于数据中心AI算力基础设施,打造覆盖以太网交换、高速SerDes、相干DSP、硅光集成、DPU卸载、存储控制的全栈技术矩阵,可为云厂商、AI芯片企业提供一站式算力互联解决方案。同时,Marvell不涉足通用GPU/AI加速芯片研发,保持中立的市场定位,可与英伟达、AMD、英特尔、华为昇腾等全球主流AI芯片厂商实现全生态合作,最大化分享AI行业增长红利。
相比之下,其他竞争者要么战略定位模糊,既布局通用芯片,又涉足定制芯片,导致资源分散;要么缺乏生态协同能力,仅能提供单一的芯片产品,无法满足客户的多元化需求,难以在激烈的竞争中立足。
未来:雄厚财务扩大双雄市场优势
财务业绩是企业竞争力的直接体现,结合最新一季度博通与Marvell最新的财务报告(博通2025财年第四季度及全年财报、Marvell 2026财年第四季度及全年财报),能够清晰看出两家企业的增长态势、盈利能力与未来发展潜力。两家在最近一个季度报表中,均给出了强有力的财务表现,同时对未来业务的展望也大幅超过之前的预期,这意味着至少未来一两年内,两家企业在AI定制芯片领域的领先优势还将继续扩大。
博通发布的2025财年第四季度及全年财报显示,公司业绩表现强劲,AI业务成为核心增长引擎,营收、利润均实现大幅增长,同时给出了乐观的2026财年第一季度业绩指引,彰显了公司对未来增长的信心。2025财年第四季度,博通营收达180.15亿美元,同比增长28%,环比增长5%,创历史新高;其中,AI半导体业务收入同比增长74%,成为带动营收增长的核心动力,定制AI加速器与以太网AI交换机业务实现两位数增长,表现亮眼。2025财年全年,博通AI业务收入同比激增65%至200亿美元,占总营收的比例超过30%,成为公司第一大营收来源。公司手握730亿美元AI相关积压订单(18个月内交付),其中AI交换机订单积压超100亿美元,覆盖交换机、DSP、光组件等全链条产品,为未来营收增长提供了坚实保障。从业务结构来看,AI定制芯片、高速互连芯片是公司的核心增长板块,Tomahawk 6交换机芯片量产并获Arista、Juniper采用,全球唯一具备102.4 Tbps交换容量的产品,订单量持续增长;定制XPU产品斩获Anthropic累计210亿美元订单(2026年底交付)、OpenAI 10GW框架订单(潜在1000-1500亿美元增量),增长潜力巨大。
博通给出的2026财年第一季度业绩指引显示,公司预计营收约191亿美元,同比增长28%;调整后EBITDA预计占营收的67%;AI半导体业务预计同比翻倍至82亿美元,增长确定性高。此外,公司CEO Hock Tan在电话会上给出了更长期的业绩指引:2027年,仅芯片(XPU+交换芯片+DSP)AI收入将超过1000亿美元,预计接近10吉瓦装机容量,按照行业单吉瓦价值推算,10吉瓦约对应2000亿美元潜在规模,博通将占据其中一半以上的份额,增长潜力巨大。

Marvell最新发布的2026财年第四季度及全年财报显示,公司业绩表现亮眼,营收、利润均创历史新高,AI相关业务(数据中心业务)成为核心增长引擎,同时给出了乐观的2027财年第一季度业绩指引,显示出公司强劲的增长势头。2026财年第四季度,Marvell营收达22.19亿美元,同比增长22%,环比增长8%,创历史新高;其中,数据中心业务营收达16.5亿美元,同比增长21%,占总营收的比例达76%,主要系AI定制芯片、高速互连芯片、硅光芯片放量驱动。2026财年全年,Marvell营收达81.95亿美元,同比增长42%,创历史新高;数据中心业务营收占比超60%,成为公司第一大营收来源。公司在2026财年设计订单创历史记录,拿下18个定制芯片项目,并有50多项交易在洽谈中,其中12个项目来自亚马逊、微软等头部云服务商,未来营收生命周期可达数十亿美元,为未来营收增长提供了坚实保障。从业务结构来看,AI定制芯片、硅光芯片、高速互连芯片是公司的核心增长板块。Teralynx 10系列高端交换机芯片支持800G/1.6T以太网端口,单芯片交换容量最高达51.2Tbps,获得头部云服务商的大量订单;7nm制程相干DSP芯片实现量产,功耗较上一代产品降低40%,受到光模块厂商的青睐;通过收购Celestial AI,公司补强了光子互联技术,进一步提升了在AI算力互联领域的竞争力。
加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码