3月的加州圣何塞,黄仁勋几乎是一个人主导了一场行业性的大会。
在刚刚过去的GTC大会上,黄仁勋讲了整整两个小时的内容,和往年一样,没有客套,全是硬核。
但今年又有些不同。
开场仅2分钟,匆匆带过DLSS 5的游戏演示后,老黄就切入了正题——AI。
过去,行业总把英伟达理解为AI时代的卖铲人,但这次发布会,老黄却搬出了一座座的矿山,从Vera Rubin GPU、Groq 3 LPU推理芯片,到NemoClaw企业级代理平台、Isaac GR00T机器人模型,英伟达的触角已经不是卖铲子那么简单,而是要“一统天下”。
暴露其野心的,是会后的一场媒体访谈,当被问及全球芯片供应链紧张问题时,黄仁勋笑着说了句让所有合作伙伴后背发凉的话:
“我喜欢限制……因为在限制的世界里,你别无选择,只能选择最佳方案。”
这句话不仅仅是在秀肌肉,更是在“挟天子以令诸侯”,在AI算力短缺的当下,英伟达就是那个“最佳方案”,而“别无选择”的,除了广大的AI客户,还有那些曾经与英伟达并肩作战的合作伙伴们。
技嘉、华硕、戴尔、美光……这些曾在消费级显卡时代与英伟达共同做大PC市场的蛋糕。
但现在,在AI的黄金浪潮中,越来越多的英伟达伙伴们正陷入了一种尴尬的繁荣——订单接到手软,利润却越来越薄。
这不禁让人想起汽车行业的巨头:比亚迪。中国乃至世界唯一一家从电池、电机、电控到整车全链条自研自产的车企。
而现在,英伟达也正在上演一场硅基世界的“比亚迪化”。
从卖显卡的“算力军火商”,到掌控AI全产业链的“总承包商”。
01 英伟达要建“AI”工厂
老黄在GTC 2026提出的最核心关键词,是“AI工厂”。
所谓AI工厂,就是英伟达目前正在搭建的实体——从芯片、服务器、网络、存储到软件平台的全套解决方案。
老黄在台上花了大量时间描述这个蓝图:
未来的客户不用再分别采购GPU、CPU、液冷系统、网络设备,英伟达可以提供一整套的“交钥匙”服务,连施工图纸和模拟调试都给包了。
作为展示,英伟达拿出了Vera Rubin平台的演示。
一个机柜里,72颗Rubin GPU配36颗Vera CPU,用英伟达的NVLink 72互联,泡在英伟达设计的液冷系统里,跑在英伟达的CUDA生态上。
想要换掉其中任何一个部件?技术上行不通,商业上更不划算——因为英伟达的优化是全局的。
打个比方,很多汽车企业造车,都是采购各家零件,比如宁德时代的电池,比亚迪的电控,华为的智驾。
现在告诉你,不行,要买只能买一家的——英伟达。
老黄也很自信,买我的,价格贵是贵了,但能给你最好的体验……“你别无选择,只能选择最佳方案”。
在今年的MWC 2026会展上,无相君就听到一位不愿具名的台系服务器厂商高管抱怨,现在AI很火,订单多是多,但钱都被英伟达赚去了。
“以前做显卡,还能搞点超频版、散热、灯效,有点溢价空间。现在做AI服务器,主机怎么设计、接口怎么定、散热怎么搞,全部都要按英伟达的标准来。”
这不单单是一句抱怨。
随着英伟达对AI服务器设计标准的收紧,上下游大量合作企业自主权正在快速收缩。不同品牌的服务器,里面的布局、走线、散热方案大同小异。
现场还有另一位业内人士对无相商业趋势透露:
“做英伟达的方案,毛利很低,推AMD的方案会好很多。但问题是,客户不认……”
当然,拿下这样的垄断地位,英伟达也花了不少心思,收购Groq就是一个典型的案例。
2025年,这家初创公司的LPU(语言处理器)在推理任务上展现出威胁GPU的潜力时,英伟达果断斥资200亿美元拿下其核心资产。
不到一年,GTC 2026上,Groq 3 LPU就被集成进Vera Rubin平台,成了英伟达补齐推理短板的“王牌”。
这不是英伟达第一次这么做。
几年前,英伟达收购了Mellanox,以此掌握了高性能计算网络;而后投资Lumentum/Coherent,锁定了CPO(共封装光学)关键部件。
每次出手,要么是补生态缺口,要么就是干掉潜在威胁。
就连看似开放的软件生态,也在收紧。现在市面上几乎所有的主流大模型都是基于英伟达的编程模型CUDA开发,这意味着任何想要挑战英伟达的硬件公司,都必须先重建整个软件生态。
02 觉醒的大客户们
没有人愿意把命脉完全交到别人手里,尤其是当这个“别人”越来越强势的时候。
当英伟达的触角不断压榨上下游企业,一些大客户也正在想办法摆脱英伟达的控制。
像微软、谷歌、亚马逊、Meta这些占英伟达收入超过40%的巨头,目前都正在加速自研AI芯片。
Meta一边宣布将部署数百万颗英伟达Blackwell/Rubin GPU,一边推进自研芯片项目;
谷歌的TPU已迭代到第五代;亚马逊的Trainium和Inferentia芯片在其云服务中占比持续提升。
而这种“叛逃”在汽车行业其实早已上演:特斯拉曾是英伟达自动驾驶芯片的大客户,但后面也开始转向自研FSD芯片。
不是大家都想造芯,而是被老黄卡脖子卡的不行。
尽管自研芯片一开始可能效率不如英伟达,但长期看,不仅能解决成本问题,更能解决自主权问题。
这一点,中国的科技企业更有紧迫感。
2026年1月,阿里首次公开证实了自研AI芯片“真武810E”(内部代号PPU)的存在。
这款由平头哥研发的芯片,采用与英伟达GPU相似的GPGPU技术路线,内存96G HBM2e,片间互联带宽700GB/s,性能对标英伟达H20。
目前,它已在阿里云实现多个万卡集群部署,服务了国家电网、中科院、小鹏汽车、新浪微博等400多家客户。
根据阿里云CEO吴泳铭的财报电话会,过去四个季度,阿里在AI基础设施上的投入超过1000亿元,未来三年还将追加3800亿元。这些钱,很大一部分流向了自研芯片。
同样是2026年1月,百度也宣布分拆旗下AI芯片企业昆仑芯赴港独立上市。这家前身为百度芯片及架构部的公司,估值已达210亿元,2024年出货量6.9万片,是寒武纪的2.65倍。
业内测试显示,昆仑芯P800在跑小模型推理时,性价比超过英伟达1.5倍。
在汽车领域,蔚来更早的就开始宣布造芯片,并公布了全球首颗量产5纳米智能驾驶芯片“神玑NX9031”,这颗芯片的研发历时四年,单颗算力水平与英伟达Thor-X满血版相当,是英伟达Orin-X的四倍。
蔚来CEO李斌算了一笔账:2024年蔚来光买英伟达芯片就花了几十亿元,自研芯片一颗抵四颗,可以帮助整车成本降低至少1万元。
有消息称,部分台系服务器厂商已经开始悄悄增加AMD MI300系列和英特尔Gaudi芯片的研发投入。
“不能把所有鸡蛋放在一个篮子里”,成为越来越多合作伙伴的共识。
03 合纵连横
当然,英伟达也意识到了这个问题,所以黄仁勋的新刀法,就是捆绑销售。
你想用我的芯片,就必须要搭载我的全部。
此外,黄仁勋也是化身究极推销员,四处投资AI企业,并说服他们用自己的芯片方案,以提前锁定未来的订单。
去年,英伟达的财报出炉后,位于华尔街的Seaport Global证券公司分析师杰伊·戈德堡就提到一点担忧:
他说,英伟达为了鼓励客户多多购买自己的产品,用到了“卖方融资”的手法,简单说,就是借钱给客户,让他们来买自己的产品。
比如2025年9月,英伟达与OpenAI达成的协议:英伟达将投资高达1000亿美元,帮助OpenAI建设总成本约5000亿美元的数据中心。
根据协议,每阶段英伟达提供100亿美元融资,OpenAI自筹400亿美元,其中约300亿用于采购——英伟达的芯片(只能采购英伟达)。
但魔鬼也藏在细节里。OpenAI本身的财务状况就很糟糕:2025年上半年,营收43亿美元,亏损却高达135亿美元。有预测称,到2028年其运营亏损可能累计达740亿美元。
这意味着,OpenAI很可能需要举债近4000亿美元,来兑现它对英伟达和整个AI商业生态的落地。
万一,AI不是未来呢?OpenAI又难以变现呢?
“英伟达在人为制造需求。”戈德堡直言不讳。
短期来看,英伟达在业内的统治地位依然难以撼动。
CUDA生态、MGX架构、从训练到推理的完整产品线、与台积电等供应商的深度绑定……只要AI需求持续增长,英伟达就能继续享受垄断红利。
但历史告诉我们,没有任何企业能够永远掌控一切。
IBM曾经主宰大型机时代,微软曾经统治PC时代,它们的护城河都曾被视作不可逾越。
但新的计算模式、新的商业模式、新的挑战者也终将会出现。
而当英伟达试图控制从芯片到应用的全链条,它也就承担了整个产业链的风险,以及所有环节伙伴的敌意。
老黄说,他喜欢“限制”。
但现在,英伟达就是最大的那个“限制”。