输入电子,输出 Token,中间是英伟达。

编辑|赵卫卫

英伟达 CEO 黄仁勋接受播客主持人 Dwarkesh Patel 的深度访谈,一小时四十分钟的内容涵盖了行业竞争格局、AI 商业化和中国市场等诸多问题。

谈到英伟达的定位时,他认为英伟达的业务本质是「将电子转化为 Token」,其核心竞争力在于这一转化过程的效率与工程艺术,而非单一软件层面的商品化风险。

黄仁勋认为,英伟达的职责是,「必要之事尽力而为,力所能免之事绝不多做」,以此支撑这种转化以极致的性能实现。他认为的「绝不多做」意味着,凡是英伟达无需亲自完成的环节,都会与合作伙伴共建生态,交由生态伙伴落地。

此外,黄仁勋还提到,电力、内存、封装等上游瓶颈都能在 2–3 年内被行业集群式突破,唯一真正棘手的搭建、安装超大规模 AI 数据中心所必需的设施。英伟达的重要价值在于向整个供应链布道未来,促使上游 CEO 敢于下注大规模资本开支。

而对于竞争对手谷歌的 TPU,黄仁勋认为谷歌 TPU 和亚马逊的 Trainium 增长 100% 来自 Anthropic 这一个客户,这是孤例,而非行业趋势。

事实上,谷歌和亚马逊 AWS 早期向 Anthropic 投入了数十亿美元,芯片使用是投资条款的一部分,这与其他 AI 公司的采购逻辑不同,而英伟达是通用加速计算平台,可运行分子动力学、量子色动力学、数据处理、流体力学等全领域工作负载。

本质上,这是英伟达对行业的一种明确表态:英伟达的真正护城河不是 GPU 性能本身,而是四重叠加,包括 CUDA 生态、装机基数、协同设计能力、供应链上下游塑造力,而任何只针对芯片性能的挑战都低估了系统。

更重要的是,黄仁勋明确反对当前的芯片对华管制政策,中国拥有全球 50% 的 AI 研究人员、60% 的主流芯片制造、充沛的能源和大量空置数据中心,因而即使只使用 7nm 芯片,通过堆量也可弥补制程差距。

以下为经过编辑访谈核心要点:

AI 不会使英伟达商品化甚至同质化

问:我们已经看到许多软件公司估值崩塌,原因是市场预期 AI 将使软件商品化。本质上,英伟达制造的是软件,由其他人来做物理制造。如果软件被商品化了,英伟达是否也会被商品化?

黄仁勋:归根结底,某种东西必须将电子转化为 Token。将电子转化为 Token、并使 Token 随着时间推移变得更有价值——这一过程很难被彻底商品化。

从电子到 Token 的转化是一段令人惊叹的旅程。制造一个 Token,就像让一个分子比另一个分子更有价值、一个 Token 比另一个 Token 更有价值。其中所蕴含的艺术性、工程、科学与创造,我们正在实时见证它的发生。这一转化、这一制造过程、以及其中涉及的科学,远未被深入理解,这段旅程也远未结束。我不认为英伟达会被商品化,当然,我们会让它变得更高效。

我对公司业务的心智模型是,输入是电子,输出是 Token,中间是英伟达。我们的职责是「必要之事尽力而为,力所能免之事绝不多做」,凡是不必自己做的,就与合作伙伴共建生态。

我也不认为企业软件公司、工具类公司会被商品化。今天大多数软件公司本质上是工具制造商,Excel 是工具,PowerPoint 是工具,Cadence、Synopsys 都是工具。

Agent 的数量将指数级增长,工具使用者的数量也将指数级增长。新思科技的设计工具的实例数量将暴涨,因为会有大量 Agent 在使用布图规划器、布局工具、设计规则检查器。今天我们受限于工程师数量,明天这些工程师将被大量 Agent 支撑,我们将以前所未有的方式探索设计空间。

供应链和护城河

问:据最新披露,英伟达对晶圆厂、存储、封装的采购承诺接近 1000 亿美元,实际规模将达 2500 亿美元。一种解读是英伟达真正的护城河,是锁定了未来数年稀缺组件的产能,即使有人做出了竞品,他们是否能拿到内存和逻辑产能,这是否是英伟达未来几年的关键护城河?

黄仁勋:这是我们能做、而别人难以复制的事情之一。我们在上游做出了巨大的承诺,有些是显性的,有些是隐性的——我们的供应链自己投入了大量资本,因为我告诉这些 CEO:「让我告诉你这个行业会有多大、为什么会这样、让我与你一起推演、让我给你看我看到的。」

正因为这一「告知、启发、对齐」的过程,上游不同行业的 CEO 们才愿意投资。为什么他们愿意为我投、而不是为别人投?因为他们知道我有能力消化他们的产能,并通过下游销售出去。英伟达的下游供应链与下游需求如此庞大,他们才愿意在上游投入。

在 GTC 大会上,所有人都为规模与参与者所惊叹。这是全 360 度的 AI 宇宙,所有人齐聚一堂。他们需要彼此见面,我把他们聚到一起,让下游看到上游,上游看到下游,所有人一起看到 AI 的进展:更重要的是,让他们亲眼见到 AI 原住民、所有 AI 初创公司以及正在发生的所有精彩。我花大量时间,直接或间接地向我们的供应链、合作伙伴、生态系统传达我们面前的机会。

有人常说:Jensen,大多数主题演讲都是一个接一个的发布。但我们的 Keynote 总有一部分近乎教育。事实上这正是我的意图:我必须确保上游与下游整条供应链、整个生态都理解即将到来的一切:为什么来、何时来、规模多大,并能像我一样系统地推理。

关于你所说的护城河——我们有能力为未来而建。如果未来几年我们的业务规模是 1 万亿美元,我们有供应链去支撑它。没有我们的触达能力、没有我们业务的 velocity,就没有今天的一切。有现金流、就有供应链流(churns)。如果供应链流转效率低,没人会为一个架构去建供应链。我们能维持这种规模,只因为下游需求如此巨大。

行业竞争格局变化

问:若看谷歌 TPU,全球前三大模型中可能有 Claude、Gemini 两个是在 TPU 上训练的。这对英伟达意味着什么?TPU 专为矩阵乘法的大型脉动阵列优化,没有为线程调度、分支、内存切换而浪费芯片面积。对于当前主要由矩阵乘组成的 AI 负载,这是否比 GPU 更有针对性?

黄仁勋:我们做的是完全不同的东西。英伟达做的是加速计算,不是张量处理单元。加速计算用于分子动力学、量子色动力学、数据处理、结构化与非结构化数据、流体力学、粒子物理——此外才用于 AI。英伟达重塑了计算方式,从通用计算转向加速计算。

我们的业务覆盖范围,是任何 TPU 或专用 ASIC 都比不了的。我们的 GPU 系统从设计之初就考虑了通用性,不管是谁,只要想做算力业务,都能直接用我们的设备,但很多公司自研的专用芯片系统,只能自己内部用,从一开始就没设计成能给别人用的灵活架构。

正因为通用性强,现在所有主流云厂商的平台上都有我们的 GPU,不管是 Google、AWS、Azure 还是 OCI,都能买到。不管是像 xAI 那样自己搭集群跑模型的客户,还是礼来(Eli Lilly)这样要建超算做药物研发的药企,我们都能支持。

矩阵乘法是 AI 里很核心的运算,但它绝对不是 AI 的全部。要是你想搞出新的注意力机制,采用新的算力解耦方案,或者干脆发明全新的模型架构,比如把状态空间模型(SSM)和其他技术结合的混合方案,就必须用能灵活编程的通用架构。哪怕你想把扩散模型和自回归模型的技术结合起来,也得靠这种通用能力才能实现。

市面上任何你能想到的 AI 计算任务,我们的 GPU 都能跑通 ,这就是我们的核心优势,能让研究者轻轻松松搞出新算法。而 TPU 这类专用芯片,和其他硬件一样,只能靠摩尔定律每年挤 25% 左右的性能;要想实现 10 倍、100 倍的性能飞跃,必须靠算法和计算方式的底层革新,这才是英伟达真正的护城河。

我第一次宣布 Blackwell 架构的能效比 Hopper 高 35 倍的时候,没人信。后来行业人士证实,我实际留有余量 ,实际能效提升能到 50 倍,光靠摩尔定律根本做不到这种级别的提升。

我们靠的是多方面的创新:MoE(混合专家模型)这类新模型、并行计算、算力解耦和分布式架构,靠 CUDA 编写新的核心计算函数,再加上软硬件极致协同设计,把部分计算任务放到 NVLink 高速互联和 Spectrum-X 网络里处理,才拿到了这种性能飞跃。

英伟达的边界和错失

问:报道说英伟达投资 OpenAI 300 亿美元,Anthropic 投入约 100 亿美元,为什么不早投资,你早已经看清了方向。英伟达为什么不做AI 智算云( Neocloud)?

黄仁勋:只要我们有能力做,就立刻去做,要是能更早,我肯定会更早行动。当年 Anthropic 找我们投资的时候,我们既没那个能力,也根本没往这方面想。一方面是投资规模的问题,我们那时候从来没做过对外投资,压根没意识到还需要做这件事。我当时还以为,他们跟其他公司一样,找风投就能解决资金问题。

但他们要做的事,根本不是风投能扛得住的。没有哪家风投会往一个前途未卜的 AI 实验室投 50 到 100 亿美元,除非他们后来做成了 Anthropic 这样的规模。

他们早就看清了这一点,这就是他们的厉害之处。我当时没看到这一层,但现在绝对不会再犯同样的错。我很庆幸能投资 OpenAI,还支持它扩大规模,这一步非常关键;后来 Anthropic 再找我们的时候,我也很乐意成为他们的投资人。

「必要的事尽力做,非必要的事绝不做」(do as much as needed, as little as possible),这也是我们公司的哲学。

我们之所以要搭建计算平台,是因为这件事要是我们不做,就没人会去做—— 不管是 NVLink、全栈技术,还是 20 年来持续亏损投入的 CUDA,还有 CUDA-X 旗下的各类领域专用工具库(比如 cuLitho、光线追踪、图像生成、向量 / 结构化数据处理等等),这些事换别人,根本不会去做。

但云业务不一样,世界上有那么多云厂商,我们不做,总会有人做。

要是没有 CoreWeave,这些新兴云厂商(Neocloud)也不会出现;Nscale、Nebius 这些厂商,也是一样的道理。我们从不挑选行业赢家 ,30 年前,有 60 家做 3D 图形的公司,当时看这份名单,没人会觉得英伟达能活下来。我们最早的图形架构完全走错了方向, 我一直记着这一点,也始终保持谦卑。

GPU 分配和台积电的关系问:在 GPU 长期缺货的情况下,英伟达是怎么分配稀缺算力的?是不是谁出价高就给谁?

黄仁勋:我们从来不会这么做。我们定好价格,客户自己决定买还是不买。芯片行业里有些公司会在需求高涨时涨价,但我们不会。你可以完全信赖我们 —— 我更愿意做整个行业稳定可靠的基石。我报给你的价格,就是最终价格。

我们的分配原则就是先到先得,依据是采购订单(PO)以及客户的数据中心是否就绪。如果你不下单,说再多都没用。如果你的数据中心还没建好、关键部件没到位,无法立刻上架使用,我们可能会先把产能交给其他就绪的客户,这样做只是为了最大化工厂的出货效率。

顺便澄清一件事—— 网上传拉里・佩奇、埃隆・马斯克和我共进晚餐恳求 GPU 的故事,完全没有发生过。晚餐确实有,气氛也很好,但他们从来没有求我给 GPU,他们只需要正常下采购订单就行。

英伟达和台积电合作已近 30 年,我们之间甚至没有正式的法律合同,靠的就是一种大致的公平与默契。有时候我占优,有时候他们占优;有时候我拿到更好的条件,有时候则相反,但整体合作关系极好,彼此完全信任、完全依赖。

你可以完全信赖英伟达每年的产品节奏:今年是 AI 超级芯片平台 Vera Rubin,明年是 Vera Rubin Ultra,再下一年是 Feynman,之后还有尚未公布名称的新品。你可以像相信钟表一样笃定 ,每年你的Token成本都会实现数量级的下降。

我刚才也说到台积电,历史上没有任何一家晶圆代工厂,能让你给出这样的评价。你可以来找我们买 10 亿美元、1 亿美元、1000 万美元的 AI 工厂算力,也可以只买一个机架、一张显卡;你甚至可以下 1000 亿美元的超级订单。当今全球只有我们两家公司能做到这一点。

台积电我也可以给出同样的评价,想买一套设备,或是 10 亿美元的产能,都没问题,我们只需要走规划流程,用成熟行业的方式推进就好。

中美 AI 研究应该对话

问:为什么不应该对中国进行芯片出口管制?

黄仁勋:中国承担了全球 60% 以上的主流芯片制造,他们拥有全球一些最优秀的计算机科学家,所有 AI 实验室里大部分 AI 研究人员都是中国人,全球 50% 的 AI 研究人员来自中国。

我认为开展对话,尤其是研究对话可能才是最安全的做法。正因为目前的竞争状态,这一领域的缺失格外明显。AI 研究人员之间必须对话,必须共同界定「AI 不应用于什么」。

有一点一直被低估:围绕网络安全、AI 网络安全、AI 安全、AI 隐私与 AI 安全治理的生态体系。有一大批 AI 初创企业正在共同构建这样的未来:一个核心超级智能体的周围,会有成千上万个 AI 智能体为其保驾护航,保障它的安全与可控。这样的未来必然会到来。

如果放任一个 AI 智能体不受任何监管地运行,这种想法本身就很不理智。因此我们必须确保开源生态保持活力,这一点绝不能忽视。而大量开源创新都来自中国,我们不应该扼杀这种活力。

AI 是一套五层架构,最底层就是能源。能源充沛,就可以弥补芯片性能的不足;芯片数量充足,也能弥补能源的短缺。

举个例子,美国的能源供应相对紧缺,这也是为什么英伟达必须持续升级架构、进行极致的软硬件协同设计,即便我们出货的芯片数量有限,受制于能源规模,也能实现极致的每瓦算力。

但如果能源供应极度充沛、成本几乎为零,谁还会在意每瓦算力的高低?即便用老旧芯片也足够实现目标。7nm 芯片的能力已能对标 Hopper,完全满足训练需求。今天主流大模型大多基于 Hopper 架构训练。因此 7 纳米芯片完全够用,充沛的能源就是他们的核心优势。

但随之而来的问题是,他们真的能生产出足够多的芯片吗?答案是可以。证据是什么?华为刚刚创下史上最佳年度业绩,其芯片出货量达数百万颗,远超 Anthropic 所使用的芯片总规模。