|
美东时间周三盘后, 在财报电话会上,华尔街分析师们就 他还着重指出了 完整文字实录——英伟达公司(NVDA)2026财年第二季度会议 会议主持人萨拉(Sarah):下午好。我是萨拉,今天由我担任本次会议的主持人。此刻,欢迎各位参加英伟达2026财年第二季度财务业绩电话会议。为避免背景噪音干扰,所有线路已设置为静音状态。在发言嘉宾陈述完毕后,将进入问答环节。 英伟达主持人/投资者关系部托希亚·哈里(ToshiyaHari):谢谢。各位下午好,欢迎参加英伟达2026财年(相关会议)的电话会议。今天与我一同出席会议的英伟达高管包括:公司总裁兼首席执行官黄仁勋(JensenHuang),以及执行副总裁兼首席财务官科莱特·克雷斯(ColetteKress)。在此提醒大家,本次会议正在英伟达投资者关系官网进行同步网络直播。直播回放将持续开放,直至我们召开讨论2026财年财务业绩的后续会议。 本次会议内容的 我们所有陈述均基于今日(2025年8月27日)及目前可获取的信息作出。除法律要求外,我们不承担更新任何此类陈述的义务。在本次会议中,我们将讨论非公认会计原则(non-GAAP)财务指标。有关非公认会计原则财务指标与公认会计原则(GAAP)财务指标的调节表,可在我们发布于官网的首席财务官评论中查阅。接下来,我将会议主持权交给科莱特(Colette)。 英伟达执行副总裁兼首席财务官科莱特·克雷斯(ColetteKress):谢谢你,托希亚。尽管仍需应对持续变化的外部环境,我们依旧交出了又一个创纪录的季度业绩。总营收达467亿美元,超出我们此前的预期——所有市场平台的营收均实现环比增长。 英伟达Blackwell平台营收创下纪录,环比增长17%。我们已于第二季度启动GB300的量产交付。我们为云服务提供商、新兴云厂商、企业及主权实体打造的全栈式AI解决方案,均为营收增长作出了贡献。我们正处于一场将改变所有行业的工业革命开端,预计到本十年末,全球AI基础设施支出规模将达到3万亿至4万亿美元。 这类基础设施建设的规模与范围,为英伟达带来了重大的长期增长机遇。GB200NBL系统获得广泛采用,已在云服务提供商(CSPs)和消费互联网企业部署;包括OpenAI、Meta、Mastral在内的“灯塔级”模型研发机构,正以 得益于GB300与GB200在架构、软件及物理规格上的共享设计,主流云服务提供商向GB300的过渡过程十分顺畅,可轻松搭建并部署GB300机架;此次向GB300机架式架构的升级实现了无缝衔接。7月末至8月初,我们已顺利完成工厂生产线改造,以支持GB300的产能提升;目前,GB300已全面进入量产阶段,当前产能已恢复至全速水平,每周约生产1000个机架。随着新增产能逐步投产,预计第三季度产能将进一步提升。今年下半年,GB300有望实现广泛的市场供应——云服务提供商CoreWeave正准备将其GV300实例推向市场,该实例在推理模型上的性能已达到H100的10倍。 相较于上一代Hopper平台(前代AI计算平台),GV300与DL72AI工厂在“每瓦令牌数”能效上实现了10倍提升——这一优势将直接转化为营收,因为数据中心的算力部署往往受电力容量限制。Rubin平台(下一代AI计算平台)的各类芯片已进入晶圆制造阶段,包括VeraCPU(中央处理器)、RubinGPU(图形处理器)、CX9SuperNIC(超级网卡)、NVLink144横向扩展交换机、SpectrumX横向与跨域扩展交换机,以及硅光子处理器。Rubin平台的量产计划仍按原时间表推进,将于明年实现批量生产;该平台将成为我们的第三代NVLink机架式AI超级计算机,配套供应链已成熟且具备规模化能力。 这一进展使我们能够保持“每年一款新产品”的迭代节奏,并在计算、网络、系统及软件领域持续创新。 在竞争激烈的市场中,我们希望赢得每一位开发者的支持。若美国能积极参与全球竞争,其AI技术体系完全有潜力成为全球标准。本季度值得关注的亮点是,Hopper平台(前代AI计算平台)及H200(产品型号)的出货量实现增长。此外,第二季度我们还向中国境外不受限的客户销售了约6.5亿美元的H20产品。Hopper平台需求的环比增长,既体现出加速计算所支撑的数据中心工作负载覆盖范围之广,也彰显了CUDA库(英伟达核心计算库)与全栈式优化技术的强大实力——这些技术正持续提升平台的性能表现与经济价值。 目前我们仍在同时交付Hopper与Blackwell系列GPU,重点聚焦于满足全球激增的市场需求。云厂商与企业的资本支出是推动这一增长的核心动力:仅今年一年,全球在数据中心基础设施与计算领域的投资规模预计就将达到6000亿美元,这一数字在两年内几乎实现翻倍。我们预计,受多重因素驱动,AI基础设施的年度投资将持续增长,这些因素包括:推理型智能体AI(reasoningagenticAI)对训练与推理算力提出数量级提升的需求、全球各国主权AI基础设施建设、企业对AI技术的广泛采用,以及物理AI与 Blackwell平台的机架式NVLink(高速互联技术)与CUDA全栈架构通过重新定义推理经济性,成功应对了市场需求变化。GB300平台(产品型号)搭载的全新NVFP44位精度技术与NVLink72技术,相较Hopper平台实现了每令牌能效50倍的提升,助力企业以前所未有的规模实现算力商业化变现。例如,对GV200(产品型号)基础设施投入300万美元,可产生3000万美元的令牌营收,投资回报率达10倍。自Blackwell平台发布以来,英伟达的软件创新成果结合开发者生态系统的强大支撑,已使其性能提升超过2倍。CUDA、TensorRTLLM(大语言模型推理优化工具)与Dynamo(动态编译工具)等技术的持续升级,正不断释放平台的最大效率。 开源社区为CUDA库贡献的技术成果,与英伟达的开源库及框架已深度集成到数百万个工作流中。这种英伟达与全球社区协作创新的强大良性循环,进一步巩固了英伟达在性能领域的领先地位。英伟达是OpenAI模型、数据与软件领域的主要贡献者之一。Blackwell平台采用了突破性的数值计算方法用于大语言模型预训练:借助NVFP4技术,GB300平台的计算速度相较采用FP8技术的H100提升7倍,同时兼具16位精度的准确性与4位精度的速度及效率优势,为AI算力效率与扩展性树立了全新标准。 AI行业正迅速采用这一革命性技术,包括AWS( 已有近90家企业(包括多家全球龙头企业)采用RTXPro服务器:日立(Hitachi)将其用于实时仿真与 主权AI正处于快速发展阶段:各国凭借本土基础设施、数据与人才自主研发AI的能力,为英伟达创造了重大机遇。英伟达在英国与欧洲的多项标志性项目中均处于核心地位。欧盟计划投资200亿欧元,在法国、德国、意大利与西班牙建立20个AI工厂,其中包括5个超级工厂,目标是将其AI计算基础设施规模提升10倍。在英国,搭载英伟达技术的UmbardAI超级计算机已正式亮相,作为该国性能最强的AI系统,其AI算力达21艾字节浮点运算(exaflops),将加速药物研发、气候建模等领域的突破性进展。预计今年我们在主权AI领域的营收将超过20亿美元,较去年增长逾一倍。 网络业务营收创下73亿美元的纪录。AI计算集群需求的不断攀升,对网络的高效性与低延迟提出了更高要求。在SpectrumX以太网、InfiniBand(高性能互联技术)与NVLink等产品需求强劲的推动下,网络业务营收环比增长46%,同比增长98%。我们的SpectrumX增强型以太网解决方案,为以太网AI工作负载提供了最高吞吐量与最低延迟的网络支持。SpectrumX以太网业务营收环比与同比均实现两位数增长,年化营收超100亿美元。在Hotchips( 在XDR技术(新一代互联技术)广泛应用的推动下,InfiniBand业务营收环比增长近一倍。相较于前代技术,XDR技术的带宽提升一倍,对模型研发机构而言尤其具有价值。作为全球速度最快的交换机,NVLink的带宽是PCIe5代的14倍,随着客户部署BlackwellNVLink机架式系统,其业务实现强劲增长。NVLinkFusion技术(可支持半定制化AI基础设施)获得市场广泛认可:日本即将推出的FugakuNext超级计算机,将通过NVLinkFusion技术把富士通(Fujitsu)的CPU与我们的架构整合,可运行AI、超级计算、量子计算等多种工作负载。目前,已有越来越多顶尖量子超级计算与研究中心采用英伟达CUDAQ量子计算平台,FugakuNext便是其中之一,其他还包括ULEC、AIST、NNF、NERSC等机构;该平台得到300多家生态合作伙伴的支持,包括AWS、GoogleQuantumAI、Quantinuum、QEra、SciQuantum等。 此外,我们全新的 各行业的领军企业均已采用THOR,包括敏捷机器人(AgilityRobotics)、 英伟达Omniverse( 接下来快速概述各地区营收情况:中国市场在数据中心营收中的占比环比下降至低个位数(注:我们的第三季度业绩展望未包含向中国客户交付H20产品的相关营收)。新加坡地区营收占第二季度开票营收的22%,这是因为部分客户将开票业务集中在了新加坡;而新加坡地区数据中心计算业务开票营收中,超99%来自美国本土客户。 Blackwell技术将于9月登陆GeForceNOW(云 对于AI爱好者而言,端侧AI在RTX系列GPU上的运行效果最佳。我们与OpenAI合作,对其开源GPT模型进行优化,使其能在数百万台支持RTX技术的Windows设备上实现高质量、高速且高效的推理。借助RTX平台体系,Windows开发者可开发面向全球最大规模AIPC用户群体的AI应用。 专业可视化业务营收达6.01亿美元,同比增长32%。增长动力来自高端RTX工作站GPU的广泛采用,以及设计、仿真、原型制作等AI驱动型工作负载的需求提升。核心客户正借助我们的解决方案提升运营效率:动视暴雪采用RTX工作站优化创意工作流,而机器人创新企业FigureAI则通过RTX嵌入式GPU为其 汽车业务营收(仅包含车载计算业务营收)达5.86亿美元,同比增长69%,增长主要由自动驾驶解决方案驱动。我们已开始交付NVIDIAThorSoC(系统级芯片),该产品是Orin(前代车载计算芯片)的继任者。Thor的推出恰逢行业加速向视觉、语言、模型架构、生成式AI以及更高阶自动驾驶技术转型的关键节点,它是我们迄今为止研发的最成功的机器人与自动驾驶计算产品。 Thor将为我们的全栈式自动驾驶软件平台提供算力支持,该平台目前已进入量产阶段——这不仅为英伟达开辟了数十亿美元的新营收机遇,也将提升车辆的安全性与自动驾驶水平。 现在简要介绍利润表其他项目情况:公认会计原则(GAAP)毛利率为72.4%,非公认会计原则(non-GAAP)毛利率为72.7%。上述数据包含一笔1.8亿美元(或40个基点)的收益,该收益来自此前为H20产品库存计提的准备金释放。若剔除这一收益,非公认会计原则毛利率仍达72.3%,依旧超出我们此前的预期。GAAP运营费用环比增长8%,非公认会计原则运营费用环比增长6%,费用增长主要源于计算与基础设施成本上升,以及薪酬福利支出增加。 为支持Blackwell平台与BlackwellUltra平台(均为新一代AI计算平台)的产能提升,第二季度库存从110亿美元环比增至150亿美元。尽管我们优先为业务增长及战略举措提供资金支持,但在第二季度,我们仍通过股票回购与现金分红向股东返还了100亿美元。董事会近期批准了一项600亿美元的股票回购授权,该授权将与第二季度末剩余的147亿美元回购授权合并生效。接下来,由我介绍第三季度的业绩展望。 第三季度总营收预计为540亿美元,误差幅度±2%,这意味着环比增长将超70亿美元。需再次说明的是,我们的业绩展望未包含任何向中国客户交付H20产品(产品型号)的相关营收。公认会计原则(GAAP)毛利率与非公认会计原则(non-GAAP)毛利率预计分别为73.3%与73.5%,误差幅度均为±50个基点。我们仍预计,年末非公认会计原则毛利率将达到75%左右(注:“midseventies”指75%上下的区间)。 GAAP运营费用与非公认会计原则运营费用预计分别约为59亿美元与42亿美元。全年来看,运营费用同比增长率预计将达到35%以上(原文为“highthirtiesrange”),高于我们此前预期的30%-35%区间(原文为“midthirties”)。我们正加快业务投资步伐,以把握未来巨大的增长机遇。若剔除非流通股与公开持股权益 更多财务数据详见首席财务官(CFO)评论及官网发布的其他信息。最后,我想向金融界人士重点介绍即将举行的活动:9月8日,我们将出席在旧金山举办的 我们期待在这些活动中与各位会面。我们计划于11月19日召开电话会议,讨论2026财年(相关季度)的业绩。现在会议进入提问环节,主持人,请开启提问征集。 会议主持人萨拉(Sarah):谢谢。第一个问题来自坎托·菲茨杰拉德公司(CantorFitzgerald)的C·J·穆斯(C.J.Muse),您的线路已接通。 坎托·菲茨杰拉德公司分析师C·J·穆斯(C.J.Muse):您好,下午好。感谢您接受我的提问。据悉,从晶圆投入到机架成品的交付周期为12个月,您今天在会议中已确认Rubin平台(下一代AI计算平台)将按计划在下半年提升产能。显然,这类投资多为多年期项目,还需依赖电力、冷却等配套条件。我希望您能从宏观视角出发,谈谈对2026年增长的展望;若能同时说明网络业务与数据中心业务的增长规划,将对我们极有帮助。谢谢。 英伟达总裁兼首席执行官黄仁勋(JensenHuang):好的,感谢C·J的提问。从最核心层面来看,增长 相较于“单次触发”模式,推理型智能体AI模型所需的算力可能达到100倍、1000倍,若涉及更复杂的研究任务(如大量文献阅读与理解),算力需求甚至可能更高。因此,智能体AI的出现使得算力需求大幅增长,其效用也随之显著提升。得益于智能体AI,AI“幻觉”(指AI生成虚假或错误信息的现象)问题的发生率大幅下降;如今,AI不仅能调用工具,还能执行具体任务,这为企业应用打开了全新空间。 借助智能体AI与视觉语言模型,我们在物理AI、机器人技术及自主系统领域也实现了突破性进展。过去一年,AI技术取得了巨大进步,而智能体系统与推理系统的出现更是具有革命性意义。为抓住这一机遇,我们研发了BlackwellNVLink72系统——一款机架式计算系统,这项研发工作已持续数年。 去年,我们完成了从NVLink8(节点级计算,每个节点即为一台计算机)到NVLink72(机架级计算,每个机架即为一台计算机)的技术跃迁。将NVLink72拆解为机架级系统的技术难度极高,但成果也十分显著:凭借NVLink72,我们实现了算力数量级的提升,进而大幅优化了能效与令牌生成的成本效益。 关于你提到的长期展望——未来几年(更具体地说,未来五年),我们将依托Blackwell、Rubin及后续平台持续扩大规模,最终把握全球3万亿至4万亿美元的AI基础设施市场机遇。过去几年,仅四大云服务提供商(CSPs)的资本支出就实现了翻倍,总额已达约6000亿美元。由此可见,我们正处于AI基础设施建设的起步阶段,而AI技术的进步也切实推动其在各行业的落地应用,助力解决各类实际问题。 会议主持人萨拉(Sarah):下一个问题来自 另外,黄仁勋先生,关于竞争格局:您的多家大型客户已启动或计划启动专用集成电路(ASIC)项目。据悉,您的ASIC竞争对手之一 英伟达执行副总裁兼首席财务官科莱特·克雷斯(ColetteKress):感谢维韦克的提问**。当前情况仍存在不确定性,我们尚无法确定本季度H20的最终营收规模。但可以肯定的是,若市场需求进一步增加、销售许可进一步获批,我们仍可扩大H20的产能并增加交付量。 英伟达总裁兼首席执行官黄仁勋(JensenHuang):英伟达的产品与ASIC存在本质区别,我们先从ASIC谈起。目前确实有很多ASIC项目启动,也涌现出不少相关初创企业,但最终能实现量产的产品寥寥无几,核心原因在于ASIC研发难度极高。加速计算与通用计算不同:在通用计算中,你编写软件后只需将其编译到处理器即可运行;而加速计算是一个“全栈协同设计”问题。 过去几年,AI工厂的复杂度大幅提升,因为其需解决的问题规模呈指数级增长——显然,这是全球迄今为止面临的最复杂的计算机科学难题,因此整个技术栈的设计难度极大。AI模型的迭代速度也异常迅猛:从基于自回归的生成模型,到基于扩散的生成模型,再到混合模型与多模态模型;各类模型层出不穷,有的是Transformer架构的衍生版本,有的则是Transformer架构的升级版本,数量之多令人却步。 英伟达的优势之一在于,我们的产品覆盖所有云平台,与所有计算机厂商均有合作;从云数据中心到本地部署、从边缘设备到机器人,我们均采用统一的编程模型。因此,全球所有框架支持英伟达产品是顺理成章的事——当你研发新的模型架构时,选择在英伟达平台上发布无疑是最合理的决策。 我们的平台具备三大优势:一是能够适配任意模型架构的演进需求;二是应用场景全覆盖;三是能加速AI全流程——从数据处理、模型预训练,到基于强化学习的模型微调,再到最终的推理部署。因此,搭载英伟达平台的数据中心不仅效用最高,使用寿命也远长于其他平台。 此外,我还想补充一点:如今的AI系统已成为极其复杂的综合性问题。人们往往只关注芯片本身——比如大家常讨论的“某款ASIC芯片”,但要研发Blackwell与Rubin这样的完整平台,我们需要构建一整套技术体系:包括能连接高速内存的CPU(智能体AI需要大容量KB缓存,因此内存需具备极高能效)、GPU、超级网卡(SuperNIC)、横向扩展交换机(即我们的NVLink)、横向扩展交换机(无论是量子计算场景的交换机,还是SpectrumX以太网交换机),以及最新推出的跨域扩展交换机(SpectrumXGS)——通过这类交换机,我们可搭建多吉瓦级算力互联的AI超级工厂。我们本周已在Hotchips( 由此可见,我们所做的每一项工作都具有极高的复杂度,且均需在超大规模层面实现。最后我再强调一点:我们的产品之所以能覆盖所有云平台,是有充分理由的——不仅因为我们的能效是所有计算平台中最高的,更因为在数据中心受电力限制的当下,能效直接决定了营收规模。 正如我此前所说,从诸多层面来看,“采购量越大,增长空间越大”。由于我们的“每美元性能比”(perfperdollar)极具竞争力,客户也能获得极高的利润率。因此,无论是从增长机遇还是毛利率潜力来看,英伟达架构都是最优选择。 正是基于这些原因,全球所有云厂商、初创企业与计算机厂商均选择英伟达——我们为AI工厂提供的是真正全面的全栈式解决方案。 会议主持人萨拉(Sarah):下一个问题来自梅利厄斯公司(Melius)的本·赖茨斯(BenReitzes),您的线路已接通。 梅利厄斯公司分析师本·赖茨斯(BenReitzes):黄仁勋先生,我想就您提到的“本十年末全球数据中心基础设施支出将达3万亿至4万亿美元”这一预测向您提问。此前您曾提及一个约10亿美元规模的数字,我记得那似乎仅针对2028年的计算领域支出。结合您以往的表述来看,3万亿至4万亿美元的总支出规模,似乎意味着计算领域的支出可能会超过20亿美元。我想确认这一理解是否正确,以及这是否是您对本十年末市场情况的判断。 另外,我还想了解:您认为英伟达在这一市场规模中能占据多大份额?目前,英伟达在整个基础设施计算领域的份额已经非常高,所以想听听您的看法。同时,要实现3万亿至4万亿美元的支出目标,您是否担心存在某些瓶颈问题,比如电力供应方面的限制?非常感谢。 英伟达总裁兼首席执行官黄仁勋(JensenHuang):好的,谢谢。如你所知,仅全球四大超大规模云厂商(hyperscalers)的资本支出,就在两年内实现了翻倍。随着AI革命全面推进、AI竞赛正式打响,这类资本支出已增至每年6000亿美元。从现在到本十年末还有五年时间,而这6000亿美元还仅仅是四大超大规模云厂商的支出规模。 除此之外,其他企业也在建设本地部署(onprem)的数据中心,全球各地的云服务提供商也在持续投入建设。目前,美国的计算资源约占全球总量的60%。长期来看,人工智能的发展规模与增长速度理应与GDP相匹配,当然,AI本身也将推动GDP加速增长。因此,英伟达在AI基础设施领域的贡献占据着重要地位。 以一座1吉瓦(gigawatt)规模的AI工厂为例,其建设成本通常在500亿至600亿美元之间(误差幅度±10%),而英伟达在其中的贡献占比约为35%(误差幅度±5%)——也就是说,在一座耗资500亿至600亿美元的1吉瓦数据中心中,英伟达相关产品与服务的价值占比约为35%。 当然,需要说明的是,我们提供的并非仅仅是GPU。大家都知道,英伟达以研发并发明GPU而闻名,但在过去十年间,我们已成功转型为一家AI基础设施企业。仅打造一套RubinAI超级计算机,就需要六种不同类型的芯片;若要将其扩展到1吉瓦规模,则需要数十万个GPU计算节点以及大量机架设备。 因此,英伟达本质上已是一家AI基础设施企业。我们希望能持续为行业发展贡献力量,让AI的应用价值更加广泛;同时,提高“每瓦性能比”(performanceperwatt)也至关重要——正如你所提及的,未来全球AI基础设施建设或AI工厂建设,很可能始终面临电力供应的限制。所以,我们需要尽可能挖掘AI工厂的能效潜力。 英伟达产品的单位能耗性能,直接决定了AI工厂的营收增长——两者存在直接关联。以一座100兆瓦(megawatt)的工厂为例,其100兆瓦电力对应的性能水平,决定了工厂的营收规模,本质上就是“工厂每100兆瓦电力产出的令牌数量”。此外,我们产品的“每美元性能比”也极具竞争力,这使得客户能获得极高的毛利率。 不过无论如何,这些(电力、成本等)都是未来行业发展需要应对的限制因素。总体而言,未来五年全球AI基础设施支出达到3万亿至4万亿美元的规模,是一个相当合理的预测。 会议主持人萨拉(Sarah):下一个问题来自 英伟达总裁兼首席执行官黄仁勋(JensenHuang):据我估算,今年中国市场为我们带来的机遇规模约为500亿美元。若我们能凭借具备竞争力的产品充分把握这一机遇,且鉴于全球AI市场整体均在增长,预计中国市场规模每年有望实现50%左右的增长。中国是全球第二大计算市场,同时也是AI研究人员的聚集地——全球约50%的AI研究人员来自中国,绝大多数领先的开源模型也诞生于中国。因此,我认为美国科技企业能否进入这一市场,具有十分重要的意义。 众所周知,开源技术虽诞生于某一个国家,却能服务于全球。中国涌现的开源模型质量极高:例如DeepSeek已获得全球关注,Q1、Kimi、豆包等模型的表现也十分出色;此外,还有大量全新的多模态模型、优秀的语言模型不断推出。这些开源模型极大地推动了全球企业对AI的采用——因为企业希望构建属于自己的定制化专有软件栈,而开源模型对企业而言至关重要;对于同样希望搭建专有系统的SaaS(软件即服务)企业,开源模型也具有重要价值,同时它还为全球机器人技术的发展提供了强大助力。 由此可见,开源技术意义重大,而美国企业能否参与其中也同样关键。中国市场的规模未来将十分庞大,我们正与美国政府相关部门沟通,强调美国企业进入中国市场的重要性。因此,我认为英伟达将Blackwell架构引入中国市场的可能性是切实存在的。接下来,我们会继续倡导这一举措的合理性与重要性——毕竟,这有助于美国科技企业在AI竞赛中保持领先、赢得竞争,并推动美国技术体系成为全球标准。 会议主持人萨拉(Sarah):下一个问题来自 英伟达总裁兼首席执行官黄仁勋(JensenHuang):目前我们提供三类网络技术,分别对应“横向扩展”“纵向扩展”与“跨域扩展”三种场景: 第一类是“纵向扩展”技术,用于构建规模最大的虚拟GPU(图形处理器)与虚拟计算节点。NVLink(高速互联技术)在这一领域具有革命性意义——正是凭借NVLink72,Blackwell架构才能实现相较于Hopper架构NVLink8的跨越式性能提升。当前,AI模型正朝着“深度思考”(longthinking)、智能体推理系统(agenticAIreasoningsystems)方向发展,而NVLink技术能显著提升内存带宽,这对推理系统而言至关重要,因此NVLink72的价值极为突出。 第二类是“横向扩展”技术,我们提供两种解决方案:一是InfiniBand(高性能互联技术),它无疑是延迟最低、抖动最小、横向扩展能力最强的网络技术,但对网络管理专业能力要求较高。对于超级计算场景及顶尖模型研发机构而言,量子InfiniBand是无可争议的首选——若对AI工厂进行性能基准测试,采用InfiniBand的工厂将展现出最佳性能;二是针对“数据中心已采用以太网架构”的客户,我们推出了全新的Spectrum以太网技术。该技术并非通用型产品,而是集成了多项专为低延迟、低抖动及拥塞控制设计的新技术,其性能能无限接近InfiniBand,远超市场上其他以太网解决方案,我们将其命名为SpectrumX以太网。 第三类是“跨域扩展”技术,即SpectrumXGS——这项千兆级技术可将多个数据中心、多个AI工厂连接成一个“超级工厂”(巨型系统)。显然,网络技术在AI工厂中具有核心地位:选择合适的网络技术,能将AI工厂的吞吐量效率从65%提升至85%甚至90%,这种性能飞跃几乎能让“网络成本的投入产生‘零成本’般的回报”。 实际上,选择合适的网络技术所带来的回报将远超预期——正如我此前所说,一座1吉瓦规模的AI工厂建设成本可能高达500亿美元,而若能将工厂效率提升十几个百分点,就能产生价值1020亿美元的实际收益。因此,网络技术是AI工厂的关键组成部分,这也是英伟达在网络领域投入大量资源的原因,同样也是我们五年半前收购Mellanox(迈络思,网络设备厂商)的核心考量。 正如我们此前提及的,SpectrumX以太网业务目前已形成相当规模,而该业务推出至今仅一年半时间,堪称“爆款”产品。未来,NVLink(纵向扩展)、SpectrumX与InfiniBand(横向扩展)、SpectrumXGS(跨域扩展)这三类技术都将拥有广阔前景。 会议主持人萨拉(Sarah):下一个问题来自伯恩斯坦研究公司(BernsteinResearch)的史黛西·拉斯金(StacyRaskin),您的线路已接通。 伯恩斯坦研究公司分析师史黛西·拉斯金(StacyRaskin):您好,感谢您接受我的提问。我有一个更偏向具体业务的问题想请教科莱特(Colette)。从业绩展望来看,贵公司下季度营收预计环比增长超70亿美元,其中绝大部分增长预计来自数据中心业务。我想了解,这70亿美元的增长应如何在Blackwell平台、Hopper平台与网络业务三者之间分配? 我的初步判断是,本季度Blackwell平台营收可能达到270亿美元,较上季度的230亿美元有所增长;而在H20产品(型号)贡献后,Hopper平台营收仍能维持在60亿至70亿美元。请问Hopper平台的强劲表现是否会持续?对于如何拆分这70亿美元增长在上述三项业务中的占比,您能否提供一些思路? 英伟达执行副总裁兼首席财务官科莱特·克雷斯(ColetteKress):史黛西,感谢你的提问。首先,关于第二季度到第三季度的增长构成,Blackwell平台仍将占据数据中心业务增长的绝大部分。但需注意的是,这一增长不仅会带动计算业务,也将推动网络业务——因为我们销售的大型系统中,均集成了黄仁勋先生刚才提到的NVLink(高速互联技术)。 Hopper平台目前仍在持续出货,包括H100、H200等产品(型号),不过这些产品均属于HCX系统(英伟达数据中心计算系统)。总体而言,Blackwell平台仍将是数据中心业务的核心增长 会议主持人萨拉(Sarah):下一个问题来自 英伟达主持人/投资者关系部托希亚·哈里(ToshiyaHari):下午好,感谢您接受提问。您此前已清晰阐述了推理型模型(reasoningmodel)的市场机遇,也较为详细地介绍了Rubin平台(下一代AI计算平台)的技术参数。不过,能否请您进一步说明对Rubin平台后续产品迭代的看法?该平台能为客户带来哪些新增能力? 此外,从性能与功能提升的角度来看,相较于Blackwell平台的升级幅度,Rubin平台的提升幅度会更大、更小,还是基本相当?谢谢。 英伟达总裁兼首席执行官黄仁勋(JensenHuang):好的,谢谢提问。关于Rubin平台,我们目前保持着每年一次的产品迭代周期。选择这一周期的核心原因是,我们希望通过持续迭代帮助客户降低成本、最大化营收。 当我们提升“每瓦性能比”(即单位能耗的令牌生成量)时,本质上是在直接推动客户的营收增长。对于推理型系统而言,Blackwell平台的“每瓦性能比”相较于Hopper平台实现了数量级的提升。由于所有数据中心本质上都受电力容量限制,因此,采用Blackwell平台的数据中心,无论是相较于我们过往的产品,还是当前市场上的其他解决方案,都能实现营收最大化。 此外,Blackwell平台的“每美元性能比”(即单位资本投入的性能)也极具优势,这能帮助客户提升毛利率。只要我们能为每一代产品注入创新理念,就能通过推出新架构,持续提升客户的营收能力、AI功能水平与毛利率。 因此,我们建议合作伙伴与客户按年度节奏规划数据中心建设。Rubin平台将包含多项创新,刚才我稍作停顿,是因为从现在到明年发布前,我还有足够时间向大家详细介绍Rubin平台的各项突破性进展——目前它已储备了诸多出色的技术理念,我很期待分享,但现在还不能透露更多,后续会在GTC大会(英伟达全球开发者大会)上详细说明。 不过,在接下来的一年里,我们将全力推进当前产品的产能提升,包括GraceBlackwell平台、GB200(产品型号),以及最新的BlackwellUltra平台、B300(产品型号),并加速数据中心部署。显然,今年已是创纪录的一年,我预计明年也将是创纪录的一年。 一方面,我们将持续提升AI性能,朝着人工超级智能(artificialsuperintelligence)的方向迈进;另一方面,我们也将不断增强超大规模云厂商(hyperscalers)的营收生成能力。 会议主持人萨拉(Sarah):最后一个问题来自 英伟达总裁兼首席执行官黄仁勋(JensenHuang):嗯,我认为看待这个问题的最佳方式是,我们已从大型客户那里获得了关于明年的合理预测,这些预测规模相当可观。此外,我们仍在不断赢得新业务,市场上也持续涌现大量初创企业。别忘了,去年专注于AI原生业务的初创企业获得的融资额就达1000亿美元;而今年尚未结束,这一融资额已升至1800亿美元。 若聚焦“AI原生”领域——那些已产生营收的头部AI原生初创企业,去年营收总额为20亿美元,今年则达到200亿美元。明年营收较今年再增长10倍,并非不可能。同时,开源模型的发展正吸引大型企业、SaaS(软件即服务)公司、工业企业及机器人企业加入AI革命,这将成为另一大增长来源。 无论是AI原生企业、企业级SaaS厂商、工业AI领域,还是初创企业,我们都能看到市场对AI的兴趣与需求极为旺盛。想必各位都有所耳闻,当前市场的热门话题是“所有产品都已售罄”——H100售罄,H200也售罄。大型云服务提供商(CSPs)甚至开始从其他云厂商那里租赁算力,而AI原生初创企业更是在争相获取算力,以训练其推理型模型。可见,当前市场需求确实非常强劲。 从长期展望来看,过去两年,仅大型超大规模云厂商(hyperscalers)的资本支出就实现了翻倍,目前每年资本支出规模约为6000亿美元。对我们而言,在这6000亿美元的年资本支出中占据可观份额,并非不切实际。因此,我认为在未来数年,乃至整个本十年期间,我们都将面临增速迅猛、规模庞大的增长机遇。 最后我总结一下:Blackwell平台是全球期待已久的下一代AI平台,它实现了跨时代的性能飞跃。英伟达的NVLink72机架式计算技术具有革命性意义,其推出恰逢其时——因为推理型AI模型正推动训练与推理性能需求实现数量级增长。BlackwellUltra平台正全速提升产能,市场需求异常旺盛。 我们的下一代平台Rubin已进入晶圆制造阶段,该平台包含六款全新芯片,且所有芯片均已在 在本十年末之前,随着全球AI工厂建设规模达到3万亿至4万亿美元,Blackwell与Rubin这两大AI工厂平台将持续扩大部署规模。客户正在建设规模越来越大的AI工厂:从“数十兆瓦数据中心搭载数千块Hopper系列GPU”,发展到“100兆瓦设施搭载数十万块Blackwell系列GPU”;不久之后,我们还将看到“数百万块Rubin系列GPU为多吉瓦、多站点的AI超级工厂提供算力支持”。每一代平台的推出,都只会进一步推动需求增长。 从“单次交互聊天机器人”,到能够自主研究、制定方案并调用工具的“推理型智能体AI”,技术演进推动训练与推理算力需求实现了数量级跃升。如今,智能体AI已日趋成熟,并为企业市场打开了新空间——企业可围绕业务流程、产品与服务,构建特定领域或企业专属的AI智能体。 物理AI时代已然来临,这为机器人、工业自动化等领域开辟了全新市场。未来,每个行业、每家工业企业都需要建设两类工厂:一类用于制造实体机器,另一类用于构建其机器人AI系统。本季度,英伟达不仅实现了营收破纪录,也在发展历程中达成了一个非凡的里程碑。 未来机遇巨大,一场新的工业革命已然开启,AI竞赛已然打响。感谢各位今日参与会议,期待在下一次财报电话会议与大家再会。谢谢。 (本文由人工智能辅助完成) (文章来源:财联社) |