中文简体
返回
下载
下载遇见问题?
登录后咨询在线客服
回到顶部
英伟达绑定新思科技,EDA行业垄断加剧?
浏览 231万 内容 1651

英伟达2026财年第三季度业绩电话会议

关键要点(AI生成)
财务表现:
- 英伟达在2026年第三季度报告了创纪录的570亿美元收入,同比增长62%。
- 数据中心收入达到创纪录的512亿美元,同比增长66%,主要受到GB300产品线和网络业务强劲增长的推动。
- 游戏收入同比增长30%,达到43亿美元,终端市场销售强劲。
- 专业可视化业务收入同比增长56%,达到7.6亿美元。
- 汽车业务收入同比增长32%,达到5.92亿美元,主要受自动驾驶解决方案需求的推动。
- 通用会计准则(GAAP)毛利率为73.4%,非通用会计准则(non-GAAP)毛利率略高,为73.6%。
业务进展:
- 推出了Spectrum-XGS技术,增强了AI基础设施的能力。
- 英伟达宣布与富士通和英特尔达成NVLink Fusion战略合作,旨在连接大型生态系统。
-Jenkins庆祝了关键合作伙伴关系以及英伟达架构在加速各行业AI部署中发挥的作用。
- 英伟达正在推动对AI基础设施的重大投资,这促进了企业的大规模采用。
- Blackwell架构继续保持强劲表现,在向GB300系列过渡的过程中势头良好。
机会:
- 英伟达的架构支持AI的每个阶段(预训练、后训练、推理),使其在多个应用和行业中具有多功能性。
- 全球向加速计算和AI驱动计算的转型开启了巨大的市场机会,尤其是在超大规模环境和以指数级速度发展的AI基础设施领域。
- 企业AI应用在医疗、汽车和金融服务等不同领域的强劲增长,为英伟达开辟了广阔的全新市场领域。
下一季度展望:
- 预计第四季度收入将达到约650亿美元,环比增长14%。
- 第四季度的GAAP和非GAAP毛利率预计分别约为74.8%和75%。
- 对于2027财年,尽管投入成本不断上升,英伟达的目标是将毛利率保持在70%中段。
风险:
-Colette Kress强调了当前影响产品运输的地缘政治问题以及在中国面临的竞争挑战。
- 可能影响增长的潜在瓶颈包括AI数据中心电力供应有限、全球供应链约束以及对大规模基础设施投资的外部融资依赖。
完整记录(AI生成)
操作员
下午好。我叫Sarah,今天我将担任本次电话会议的操作员。此时,我谨代表英伟达欢迎各位参加公司2026财年第三季度的财报电话会议。[操作员指示]。
Toshiya Hari,您可以开始您的会议了。
Toshiya Hari
谢谢。大家下午好,欢迎参加英伟达2026财年第三季度的电话会议。今天和我一起参加会议的有来自英伟达的黄仁勋,公司总裁兼首席执行官;以及Colette Kress,执行副总裁兼首席财务官。
我想提醒您,我们的电话会议正在英伟达投资者关系网站上进行实时网络直播。此次网络广播将一直保留到我们讨论2026财年第四季度财务业绩的电话会议为止。
今天电话会议的内容属于英伟达所有,未经我们事先书面同意不得复制或转录。在本次电话会议中,我们可能会根据当前预期做出前瞻性陈述。这些陈述受多种重大风险和不确定性的影响,我们的实际结果可能与其存在重大差异。
有关可能影响我们未来财务业绩和业务的因素的讨论,请参阅今天发布的收益公告、我们最近提交的10-K表和10-Q表,以及我们可能向证券交易委员会提交的8-K表报告。我们所有的声明均基于截至2025年11月19日当天可获得的信息作出。除非法律另有要求,我们不承担更新任何此类声明的义务。在本次电话会议中,我们将讨论非GAAP财务指标。您可以在我们首席财务官评论中找到这些非GAAP指标与GAAP财务指标的对账,该评论已发布在我们的网站上。现在,让我把电话交给Colette。
Colette Kress
谢谢,Toshiya。我们又迎来了一个卓越的季度,收入达到570亿美元,同比增长62%,并且创下了100亿美元或22%的连续收入增长纪录。我们的客户继续推进三大平台转变,加速计算、强大的AI模型和智能应用的指数级增长,然而我们仍处于这些转型的早期阶段,它们将对我们各个行业的业务产生深远影响。
目前我们可以展望从今年年初至2026年日历年结束期间,Blackwell和Rubin相关收入将达到5000亿美元。通过执行我们的年度产品节奏并凭借全栈设计扩大性能领先地位,我们相信到本十年末,在每年预计价值3万亿至4万亿美元的AI基础设施建设中,英伟达将成为首选供应商。
对人工智能基础设施的需求持续超出我们的预期。云服务已售罄,我们安装的GPU基础(包括新一代和上一代的Blackwell、Hopper和Ampere)也已全面投入使用。第三季度数据中心收入达512亿美元,同比增长66%,在我们这样的规模下,这是一个显著的成就。计算业务同比增长56%,主要得益于GB300的推出;而网络业务则翻了一倍多,这得益于NVLink规模化应用以及Spectrum-X以太网和Quantum-X InfiniBand强劲的两位数增长。
全球超大规模云计算行业,一个万亿美元的产业,正在从传统的机器学习向生成式人工智能转变。英伟达CUDA在这两方面都表现出色,是这一转型的理想平台,推动了数千亿美元的基础设施投资。
在Meta公司,AI推荐系统提供了更高质量和更相关的内容,使用户在诸如Facebook和Threads等应用上的停留时间增加。预计到2026年,顶级CSP和超大规模企业的总体资本支出将继续增长,目前已达到约6000亿美元,较年初增加了超过2000亿美元。
我们看到,在当前的超大规模工作负载中,生成式人工智能加速计算的转型正在推进,这也为我们长期机会贡献了大约一半的增长。另一个增长支柱是基础模型构建者(如Anthropic、Mistral、OpenAI、Reflection、Safe Superintelligence、Thinking Machines Lab 和 xAI)所推动的计算支出增长,这些公司都在积极扩展计算能力,以提升智能水平。
三大扩展定律——预训练、后训练和推理——依然有效。事实上,我们看到了一种良性循环的出现:三大扩展定律和计算资源的获取正在产生更好的智能,从而进一步推动采纳率和利润的增长。
OpenAI最近表示,其每周用户群已经增长到8亿。企业客户增至100万,且其毛利率保持健康。同时,Anthropic最近报告称,截至上个月,其年度经常性收入已达到70亿美元,较今年初的10亿美元大幅增长。
我们也见证了代理型AI在各行各业和任务中的激增。像Cursor、Anthropic、OpenEvidence、Epic和Abridge这样的公司正经历用户增长的激增,他们通过增强现有劳动力的能力,为程序员和医疗保健专业人员提供无可争议的投资回报率。
世界上最重要的企业软件平台,如ServiceNow、CrowdStrike和SAP,正在集成英伟达加速计算和AI技术栈。我们的新合作伙伴Palantir首次通过NVIDIA CUDA-X库和AI模型来增强广受欢迎的肿瘤学平台性能。
此前,像大多数企业软件平台一样,Anthology仅能在CPU上运行。Lowe's正在利用该平台构建供应链敏捷性,降低成本并提高客户满意度。
企业普遍利用AI来提高生产率、提升效率并降低成本。RBC正利用代理AI大幅提高分析师生产力,将报告生成时间从小时缩短至分钟级别。AI和数字孪生技术正帮助联合利华加速内容创作2倍,并削减成本50%。
赛富时的工程团队在采用Cursor后,新共同开发项目的生产力至少提升了30%。上个季度,我们宣布了AI工厂和基础设施项目,总计涉及500万块GPU。这一需求覆盖每个市场,包括通信服务提供商、主权国家、现代建设者、企业和超级计算中心,并包括多个具有里程碑意义的建设项目。xAI的Colossus 2是全球首个千兆瓦级规模的数据中心,Lilly的AI工厂用于药物发现,是制药行业最强大的数据中心。
就在今天,AWS与HUMAIN扩大了他们的合作伙伴关系,包括部署多达15万台AI加速器,其中包括我们的GB300。xAI和HUMAIN还宣布了一项合作,双方将共同开发一个由旗舰级500兆瓦设施作为核心的世界级GPU数据中心网络。
Blackwell在第三季度获得了进一步的发展动力,GB300超越了GB200,贡献了大约三分之二的Blackwell总收入。向GB300的过渡非常顺利,已经向大多数主要的云服务提供商、超大规模数据中心以及GP云交付生产产品,并且正在推动它们的增长。
Hopper平台从推出至今的第13个季度,在第三季度创下了约20亿美元的收入。H20销售额约为5000万美元,由于地缘政治问题和中国市场竞争日益激烈,本季度并未出现可观的大额采购订单。虽然我们对目前无法向中国出口更具竞争力的数据中心计算产品感到失望,但我们仍致力于继续与美国和中国政府保持接触,并将继续倡导美国在全球竞争中保持竞争力的能力。
为了在AI计算领域建立可持续的领导地位,美国必须赢得每一位开发者的支持,并成为所有商业企业的首选平台,包括中国的公司。Rubin平台有望在2026年下半年开始大规模量产。由7个芯片驱动,Vera Rubin平台将再次相对于Blackwell提供一项性能上的突破性提升。
我们已从供应链合作伙伴处获得硅片样品,并很高兴地报告,英伟达团队在全球各地正以卓越的表现推进进展。Rubin是我们第三代机架级系统,大大重新定义了制造能力,同时仍然兼容Grace Blackwell。我们的供应链、数据中心生态系统及云合作伙伴现已掌握了英伟达机架架构的安装到构建过程。我们的生态系统将为快速推进Rubin做好准备。
我们每年实现X因子性能飞跃,在提高每美元性能的同时降低了客户的计算成本。英伟达CUDA GPU的长使用寿命相较于其他加速器提供了显著的总拥有成本(TCO)优势。CUDA在我们庞大的已安装基础中的兼容性延长了英伟达系统的寿命,远超其最初预计的使用年限。
在过去的二十多年里,我们不断优化CUDA生态系统,改进现有工作负载,加速新工作负载,并通过每次软件发布提高吞吐量。大多数没有CUDA和英伟达久经考验且多功能架构的加速器在几年内因模型技术发展而变得过时。得益于CUDA,我们在6年前出货的A100 GPU如今依然满负荷运行,由大幅改进的软件栈驱动。
过去25年,我们从一家游戏GPU公司发展成为一家AI数据中心基础设施公司。我们在CPU、GPU、网络和软件领域的创新能力,最终降低每token成本,这在整个行业中无与伦比。我们的网络业务专为AI打造,现已成为全球最大,收入达82亿美元,同比增长162%,NVLink、InfiniBand和Spectrum-X以太网均促进了增长。
我们在数据中心网络领域占据优势,因为大多数AI部署现在包括我们的交换机,以太网GPU连接率与InfiniBand大致相当。Meta、微软、甲骨文和xAI正在使用Spectrum-X以太网交换机构建千兆瓦级的AI工厂,每家公司将运行其选择的操作系统,突显了我们平台的灵活性和开放性。
我们最近推出了Spectrum-XGS,这是一种跨技术扩展,能够支持千兆规模的AI工厂。英伟达是唯一一家在AI扩展、横向扩展和跨平台扩展方面都具备能力的公司,巩固了我们在市场中作为AI基础设施提供商的独特地位。
客户对NVLink Fusion的兴趣持续增长。我们于十月宣布与富士通达成战略协作,将通过NVLink Fusion集成富士通的CPU与英伟达GPU,连接我们的大型生态系统。我们还宣布与英特尔合作开发多代定制数据中心和PC产品,利用NVLink连接英伟达和英特尔的生态系统。
本周在超级计算大会'25上,Arm宣布将整合NVLink IP,以供客户构建能够与英伟达当前第五代产品连接的CPU SoC。NVLink是目前市场上唯一的可扩展技术。在最新的MLPerf训练结果中,Blackwell Ultra比Hopper快5倍的训练时间,英伟达横扫所有基准测试。特别值得注意的是,英伟达是唯一能够在满足MLPerf严格准确度标准的同时使用FP4的训练平台。在半分析InferenceMAX基准测试中,Blackwell在每个模型和用例中都实现了最高性能和最低总拥有成本。特别重要的是Blackwell的NVLink在混合专家模型上的表现,这是世界上最受欢迎的推理模型架构。
在DeepSeek-R1上,Blackwell每瓦性能高出10倍,而每token成本比H200低10倍,这一巨大的代际飞跃得益于我们的极致协同设计方法。英伟达Dynamo是一个开源、低延迟模块化推理框架,现已被所有主要云服务提供商采用,借助Dynamo的支持和解耦推理,复杂AI模型(如MoE模型)的性能得到了提升,AWS、Google Cloud、Microsoft Azure和OCI为企业的云客户提升了AI推理性能。
我们正在与OpenAI进行战略合作,重点帮助他们建设和部署至少10吉瓦的AI数据中心。此外,我们还有机会投资该公司。我们通过他们的云合作伙伴微软Azure、OCI和CoreWeave为OpenAI提供服务,并将在可预见的未来继续这样做。随着他们不断扩展,我们很高兴能支持该公司增加自建基础设施,并正在努力达成最终协议,期待支持OpenAI的增长。
昨天,我们与Anthropic共同庆祝了一项公告。首次,Anthropic采用英伟达,并且我们正在建立深度技术合作伙伴关系以支持Anthropic的快速发展。我们将合作优化Anthropic模型以适应CUDA,并提供最佳的性能、效率和总拥有成本。我们还将针对Anthropic的工作负载优化未来的英伟达架构。
Anthropic的计算承诺最初包括高达1吉瓦的计算能力,配备Grace Blackwell和Vera Rubin系统。我们对Anthropic、Mistral、OpenAI、Reflection、Thinking Machines等公司的战略投资代表了促进NVIDIA CUDA AI生态系统的合作伙伴关系,并使每个模型都能在NVIDIA平台上最优运行。我们将继续进行战略性投资,同时保持严格的现金流管理。
物理AI已经是一个价值数十亿美元的业务,面对着数万亿美元的机会,成为NVIDIA下一阶段增长的动力。美国领先的制造商和机器人创新者正在利用NVIDIA的三重计算机架构,在NVIDIA上进行训练,在Omniverse计算机上进行测试,并在实际机器人计算机上部署现实世界的AI。
PTC和西门子推出了新服务,将Omniverse驱动的数字孪生工作流带给其庞大的客户安装基础。包括百通、卡特彼勒、富士康、Lucid Motors、丰田、台积电和纬创在内的公司正在建设Omniverse数字孪生工厂,以加速AI驱动的制造和自动化。
Agility Robotics、亚马逊机器人、Figure和Skild at AI正在构建我们的平台,利用诸如英伟达Cosmos、World Foundation Models进行开发,Omniverse用于模拟和验证,Jetson为下一代智能机器人提供动力。
我们仍然专注于在全球供应链中建立弹性和冗余。上个月,我们与台积电合作,庆祝了在美国本土生产的首片Blackwell晶圆。未来四年,我们将继续与富士康、纬创、艾克尔、矽品等公司合作,扩大我们在美国的业务布局。
游戏收入为43亿美元,同比增长30%,主要得益于Blackwell架构的持续强劲需求。终端市场的销售依然强劲,渠道库存处于正常水平,为假日季做好准备。Steam最近打破了其同时在线用户记录,达到4200万玩家,与此同时,成千上万名粉丝聚集在韩国参加GeForce Gamer Festival,庆祝GeForce诞生25周年。
英伟达的专业可视化业务已经演变为面向工程师和开发者的计算机平台,无论是用于图形处理还是人工智能。专业可视化收入达到7.6亿美元,同比增长56%,再创纪录。增长的核心驱动力是DGX Spark——一款基于小型配置Grace Blackwell架构打造的全球最小AI超级计算机。
汽车业务收入为5.92亿美元,同比增长32%,主要由自动驾驶解决方案推动。我们正在与优步合作,构建基于全新英伟达Hyperion L4机器人出租车参考架构的世界最大规模L4级自动驾驶车队。
转向损益表其他部分。GAAP毛利率为73.4%,非GAAP毛利率为73.6%,超出我们的预期。由于数据中心产品组合优化、生产周期改善及成本结构优化,毛利率环比有所上升。GAAP运营费用环比增长8%,非GAAP基础上增长11%。增长主要受基础设施计算支出增加以及薪酬福利和工程开发成本上涨驱动。
第三季度非GAAP有效税率为17%,略高于我们16.5%的指引,主要原因是美国市场收入强劲。在资产负债表方面,库存环比增长32%,而供应承诺环比增加了63%。我们正为未来的显著增长做准备,并对执行能力充满信心。
好的,让我来谈谈第四季度的展望。总收入预计为650亿美元,上下浮动2%。以中位数计算,我们的展望意味着环比增长14%,主要得益于Blackwell架构的持续动能。与上一季度一致,我们并未假设来自中国的任何数据中心计算收入。GAAP和非GAAP毛利率预计分别为74.8%和75%,上下浮动50个基点。
展望2027财年,虽然投入成本正在上升,但我们正在努力将毛利率维持在70%中段。GAAP和非GAAP运营费用预计分别约为67亿美元和50亿美元。GAAP和非GAAP其他收入和支出预计约为5亿美元的收入,不包括非流通股和公开持有的股权证券的收益或损失。GAAP和非GAAP税率预计为17%,上下浮动1%,不考虑任何一次性项目。
在这个时候,让我把电话交给Jensen,让他发表一些讲话。
Jen-Hsun Huang
谢谢,Colette。有很多关于人工智能泡沫的讨论。从我们的角度来看,我们看到了非常不同的东西。提醒一下,英伟达不同于任何其他加速器。我们在人工智能的每个阶段,从预训练、后训练到推理都表现出色。通过我们在CUDA-X加速库上长达二十年的投资,我们在科学和工程模拟、计算机图形学、结构化数据处理以及经典机器学习方面也非常出色。
世界正在经历三场巨大的平台转变,这是自Moore定律问世以来的第一次。英伟达正在独特地应对这三种转型。第一个转变是从通用CPU计算转向GPU加速计算,而随着Moore定律的放缓,世界在非AI软件上有着巨大的投资,从数据处理到科学和工程模拟,代表着每年数千亿美元的云计算支出。
许多曾经只运行在CPU上的应用程序现在正迅速转向CUDA GPU。加速计算已经达到了一个临界点。其次,人工智能也已达到临界点,正在改变现有应用并实现全新的应用。对于现有应用,生成式人工智能正在取代搜索排名、推荐系统、广告定位、点击率预测到内容审核等领域的经典机器学习模型,这些正是超大规模基础设施的基础。
Meta的GEM是一个基于大规模GPU集群训练的广告推荐基础模型,它很好地体现了这一转变。在第二季度,Meta报告称,得益于基于生成式人工智能的GEM,Instagram上的广告转化率增长了5%以上,而Facebook动态消息则增长了3%。向生成式人工智能的过渡为超大规模企业带来了可观的收入增长。
现在,一股新的浪潮正在兴起——具备推理、规划和使用工具能力的智能代理型人工智能系统,从编程辅助工具如Cursor和Claude Code,到放射学工具如Aidoc,法律助理如Harvey,再到自动驾驶助手如特斯拉FSD和Waymo。这些系统标志着计算的下一个前沿领域,是当今世界上增长最快的公司:OpenAI、Anthropic、xAI、谷歌、Cursor、Lovable、Replit、Cognition AI、OpenEvidence、Abridge、特斯拉正在引领智能代理型人工智能的发展。
因此,这里有三大平台转变。向加速计算的过渡是在后摩尔定律时代中基础且必要的;向生成式人工智能的过渡是变革性的并且必不可少的,它极大地提升了现有应用和商业模式;而向智能代理型和物理人工智能的过渡将是革命性的,将催生新的应用、公司、产品和服务。
在您考虑基础设施投资时,请考虑这三种基本动力,每一种都将在未来几年推动基础设施的增长。选择英伟达是因为我们单一的架构能够支持所有三种转型。因此,无论是任何形式或模态的人工智能,无论是在各个行业、在人工智能的各个阶段、还是在云中的各种多样化计算需求,甚至从云到企业再到机器人,我们都能用同一种架构做到这一切。
Toshiya,交回给你。
Toshiya Hari
我们现在开始接受提问。操作员,请您开始轮询问题好吗?
操作员
[操作员指示] 您的第一个问题来自摩根士丹利的Joseph Moore。
约瑟夫·摩尔
我想知道您能否给我们更新一下,您在GTC上谈到2025年和2026年Blackwell加上Rubin的5000亿美元收入。当时您提到其中已经有1500亿美元已经发货。因此,在本季度结束时,这些是否仍然是大致的参数,即在未来大约14个月内还有3500亿美元的收入。并且我认为在此期间,您还没有看到所有需求,随着我们向前推进,这些数字有可能会有上升空间吗?
Colette Kress
是的,谢谢Joe。我先来回答这个问题。没错,我们正在朝着5000亿美元的预测努力,并且我们正按计划进行,因为我们已经完成了几个季度的工作,现在我们面前还有几个季度的时间,将带我们一直到2026年日历年结束。这个数字还会增长,并且我相信我们肯定会满足更多在2026财年之前可以交付的计算需求。所以本季度我们交付了500亿美元,但如果不说我们可能会接到更多订单的话,我们的工作就不算完成。
例如,就在今天,我们与KSA的公告。仅这一协议本身就意味着未来三年将增加40万到60万个GPU。Anthropic也是一个全新的客户。因此,我们绝对有机会在已经公布的5000亿美元的基础上获得更多业务。
操作员
CJ Muse来自Cantor Fitzgerald的下一个问题。
克里斯托弗·缪斯
显然,围绕AI基础设施建设规模及其资金支持和投资回报率存在很多担忧,但与此同时,你提到所有已建立的GP都被占用。AI世界尚未从B300中获得巨大的收益,更不用说Rubin了,而且Gemini 3刚刚宣布Grok 5即将推出。因此问题是,在这种背景下,你是否认为在接下来的12到18个月内供应能够赶上需求?还是你认为这可能超出该时间范围?
Jen-Hsun Huang
正如你所知,我们在供应链规划方面做得非常出色。英伟达的供应链基本上包括世界上每一家技术公司。台积电及其封装厂、我们的存储供应商——存储合作伙伴以及我们所有的系统ODM都与我们一起做了非常好的规划工作。我们为一个大年做好了准备。一段时间以来,我已经提到了三种加速计算从通用计算转型的趋势。重要的是要认识到,AI不仅仅是代理型AI,生成式AI正在改变超大规模数据中心过去在CPU上执行任务的方式。
生成式AI使得他们能够将搜索、推荐系统、广告推荐和定向等功能迁移到生成式AI,并仍在过渡当中。无论你是安装英伟达GPU用于数据处理,还是为了你的推荐系统使用生成式AI,或是构建代理聊天机器人以及人们通常所想到的AI类型,所有这些应用都由英伟达加速。因此,当你审视整体支出时,思考每一层非常重要。它们都在增长,相互关联但又不完全相同,而美好的事情是它们都可以运行在英伟达的GPU上。
同时,由于AI模型的质量正在显著提高,它在各种用例中的采用也在增加,无论是代码辅助——英伟达在这方面广泛使用,而我们不是唯一的一家。我是说历史上增长最快的应用程序,Cursor和Claude Code的结合,以及代码——OpenAI的Codex和GitHub CoPilot。这些应用程序是历史上增长最快的。它们不仅仅被软件工程师使用,还因为广泛的编码需求,被各个公司的工程师、市场营销人员、供应链规划师等大量使用。
所以我认为这只是其中一个例子,还有更多,无论是OpenEvidence在医疗保健领域所做的工作,还是在数字视频编辑方面的进展,比如Runway这样的——许多真正令人兴奋的初创公司正在利用生成式AI和代理型AI并迅速发展。更不用说我们现在对它的使用越来越频繁了。
所以所有这些指数级增长,更不用说我今天刚收到Denis的一条短信。他说预训练和后训练依然完好无损,Gemini 3利用了规模法则,获得了性能质量的巨大提升——模型性能大幅提升。所以我们看到所有这些指数级的增长同时发生。总是回到第一性原理,思考我之前提到的每一个动态变化:从通用计算到加速计算,生成式AI取代经典机器学习,当然还有代理型AI,这是一个全新的类别。
操作员
下一个问题来自Vivek Arya与美国银行证券公司。
Vivek Arya
我想知道,在这5000亿美元的数字中,你们对英伟达每千兆瓦内容的假设是什么?因为我们听到过每千兆瓦内容低至250亿美元,高达300亿或400亿美元的说法。因此,我很好奇在这个5000亿美元的数字中,你们在功率和每千兆瓦美元的假设是什么。
从长远来看,Jensen,到2030年数据中心将达到3万亿到4万亿美元。你认为其中有多少需要供应商融资?又有多少可以由大客户、政府或企业的现金流来支持?
Jen-Hsun Huang
在每一代产品中,从安培到霍珀,从霍珀到布莱克威尔,布莱克威尔到鲁宾,我们在数据中心的份额不断增加。霍珀一代可能大约是二十多,20到25左右。布莱克威尔一代,特别是格雷斯·布莱克威尔可能是30到30多一点,比如30加减,然后鲁宾可能比那个更高。
在每一代这些产品中,加速倍数都是X倍因子。因此,他们的总拥有成本(TCO),即客户的TCO,提高了X倍因子,最重要的是,最终你仍然只有1千兆瓦的电力。1千兆瓦的数据中心,1千兆瓦的电力。因此,每瓦性能,架构的效率至关重要。架构的效率不能靠蛮力。这里没有任何蛮力可言。
那1千兆瓦直接转换。你的每瓦性能直接绝对地转化为你的收入,这就是为什么选择正确的架构现在如此重要的原因。世界没有任何多余的东西可以浪费。所以我们必须非常非常——我们使用这个叫做全栈协同设计的概念,贯穿我们的整个堆栈,框架和模型,整个数据中心,甚至电源和冷却,优化整个供应链或生态系统。
因此,每一代产品,我们的经济贡献都会更大。我们交付的价值会更大,但最重要的是,我们每瓦的能效将会非凡,每一代产品都是如此。关于继续增长的问题——我们客户的融资取决于他们自己。我们看到未来一段时间内都有增长的机会。记住,今天大部分的关注点都集中在超大规模企业上。
关于超大规模企业的一个常常被误解的领域是,投资于英伟达GPU不仅提高了他们的一般用途计算的规模、速度和成本。这是第一点,因为摩尔定律的扩展已经大大放缓了。摩尔定律关乎降低成本。它是关于通缩成本,计算成本随着时间的推移显著下降。但这一点已经放缓了。因此,他们需要一种新方法来继续降低成本。转向英伟达GPU计算是最好的方法。
第二点是他们现有商业模式中的收入增长,推荐系统驱动着全球的超大规模企业。每一个——无论是观看短视频、推荐书籍、推荐购物车中的下一件商品、推荐广告、推荐新闻等等——一切都与推荐有关。互联网有数万亿的内容片段,他们怎么可能知道在你面前的小屏幕上应该显示什么,除非他们有非常复杂的推荐系统来做这件事。
好吧,这已经进入了生成式AI,所以刚才我说的前两点,数百亿美元的资本支出需要投资,完全可以由现金流资助。在此之上的是智能体AI。这是收入——这是全新的、全新的消费模式,但也是全新的应用,其中一些我之前提到过的应用,但是这些新的应用也是历史上增长最快的应用,好吗?所以我认为一旦人们开始意识到在表面之下实际发生的事情,如果可以这样理解的话,从对资本支出投资的简单化观点转向认识到存在这三个动态,你就会看到不同的景象。
最后,记住,我们刚刚谈到了美国的CSP。每个国家将资助自己的基础设施。你有多个国家,多个行业。世界上大多数行业还没有真正参与到代理人工智能中,但他们即将参与。所有你知道的我们正在合作的公司名称,无论是自动驾驶汽车公司还是用于工厂的物理AI数字孪生,以及世界各地正在建造的大量工厂和仓库,还有许多获得资金支持的数字生物学初创公司,这些都将加速药物发现。所有这些不同的行业现在都开始参与进来,并且他们将进行自己的融资。因此,不要只看超大规模企业作为未来建设的方式。你必须放眼世界,关注所有不同的行业,而企业计算将为他们自己的行业提供资金。
操作员
下一个问题来自Ben Reitzes,Melius公司的代表。
本杰明·雷茨斯
Jensen,我想问一下关于现金的问题。说到5000亿美元,未来几年你可能会产生大约5000亿美元的自由现金流。你们对这笔现金有什么计划?多少钱用于回购,多少钱用于投资生态系统?你们如何考虑投资生态系统?我认为外界对于这些交易的运作方式以及你们进行这些交易的标准,比如与Anthropic、OpenAI等的合作,存在很多困惑。
Jen-Hsun Huang
是的,我非常感谢这个问题。当然,利用现金来资助我们的增长,没有哪家公司能够像我们在谈论的这种规模上增长,并拥有英伟达这样广泛深入的供应链。之所以我们的整个客户群可以依赖我们,是因为我们已经建立了一个真正具有弹性的供应链,并且我们有资产负债表来支持他们。
当我们进行采购时,我们的供应商可以立即将其兑现。当我们做出预测并与他们一起规划时,他们会认真对待我们,因为我们的资产负债表非常稳健。我们不是在凭空捏造需求量。我们知道我们的需求量是多少,并且由于他们多年来一直在与我们一起规划,我们的声誉和可信度非常出色。因此,这需要一个非常强大的资产负债表来支持这种规模和增长率以及相关的巨大体量。所以这是第一点。
其次,当然我们会继续进行股票回购。我们会持续这样做。但是对于投资来说,这是我们做的非常重要的一项工作。到目前为止,我们所有的投资期都与扩大CUDA的覆盖范围、扩展生态系统有关。如果你看看我们与OpenAI所做的投资——当然,自从2016年以来我们就有了这种关系,我向OpenAI交付了第一台AI超级计算机。因此从那时起,我们与OpenAI建立了密切而美好的合作关系。如今,OpenAI的所有工作都在英伟达上运行。所以无论他们在哪个云端部署,无论是训练还是推理,都在使用英伟达,我们非常喜欢与他们合作。
我们与他们的合作关系使得我们可以从技术角度更深入地合作,从而支持他们的加速成长。这是一家增长极其迅速的公司。不要只看媒体报道的内容,要看所有与OpenAI相连的生态系统合作伙伴和所有的开发者,他们都在推动对其的消费。并且自一年前以来,生产的AI质量大幅提升。因此,响应的质量也非同寻常。
因此,我们投资了OpenAI,与其建立深度合作伙伴关系,共同开发以扩展我们的生态系统并支持他们的成长。当然,我们没有放弃公司的股份,而是获得了他们公司的股份。我们投资了他们,这是一家具有划时代意义的公司,我们拥有其一部分股份。我完全预期这项投资将带来非凡的回报。
现在,在Anthropic的情况下,这是Anthropic首次运行在英伟达架构上。Anthropic首次运行在英伟达架构上,成为全球用户总数排名第二成功的人工智能。但在企业领域,他们表现得非常出色。Claude Code在全球企业中表现得极为优异。现在我们有机会与他们建立深度合作关系,并将Claude引入英伟达平台。
那么我们现在拥有什么?英伟达架构,退一步看,英伟达架构、英伟达平台是世界上唯一能够运行所有人工智能模型的平台。我们运行OpenAI,我们运行Anthropic,我们运行xAI,因为我们与Elon和xAI的深度合作,我们得以将这一机会带到沙特阿拉伯(KSA),使HUMAIN也能成为xAI的托管方。我们运行xAI,我们运行Gemini,我们运行Thinking Machines,还有什么?我们全都运行。不仅如此,我们还运行科学模型、生物学模型、DNA模型、基因模型、化学模型以及世界各领域的不同模型。不仅是认知型人工智能被广泛应用,人工智能正在影响每一个行业。
因此,我们有能力通过生态系统投资,与一些最优秀、最聪明的公司建立深度技术合作伙伴关系,扩大生态系统的覆盖范围,并在这些公司将取得巨大成功的公司中获得股份,通常是划时代的公司。这就是我们的基本投资理念。
操作员
下一个问题来自高盛的Jim Schneider。
詹姆斯·施奈德
过去您提到大约40%的出货量与人工智能推理相关。我想知道,您展望明年时,您预计这个百分比在一年后会达到多少?另外,能否谈谈您预计明年推出的Rubin CPX产品或对其加以说明,它能占据总体市场规模的多大份额?或许您可以谈一下该特定产品的目标客户应用场景。
Jen-Hsun Huang
CPX专为长上下文类型的工作负载生成而设计。所谓长上下文,基本上就是在生成答案之前,你需要阅读大量内容来吸收背景信息,例如大量的PDF文件、观看一系列视频、研究3D图像等等。你必须吸收这些上下文信息。因此CPX专为长上下文类型的工作负载设计,其每美元性能表现卓越,每瓦性能同样非常出色。至于问题的第一部分,也许可以先忽略……
Colette Kress
推理中...
Jen-Hsun Huang
哦推断,是的,有 3 个缩放定律同时缩放。第一个称为预训练的缩放定律仍然非常有效。第二个是训练后。训练后基本上已经找到了令人难以置信的算法,可以提高人工智能分解问题和逐步解决问题的能力。训练后的规模呈指数级增长,基本上,你应用于模型的计算越多,它越聪明,它就越智能。然后第三个是推理。推理是因为思想链,由于推理能力,人工智能本质上是在阅读、思考然后再回答。而且,由于这三种情况,所需的计算量已完全呈指数级增长。我认为很难确切知道在任何给定时间点占多少百分比以及是谁。
但当然,我们的希望是推理在市场中占据非常大的份额,因为如果推理很大,那么这表明人们在更多的应用中使用它,并且使用得更加频繁。这就是——我们都应该希望推理能够非常庞大。而在这一点上,Grace Blackwell 的先进程度比世界上任何东西都要高出一个数量级。
第二好的平台是 H200,现在很明显 GB300、GB200 和 GB300 是因为 NVLink 72,我们实现了向上扩展的网络。你在半分析基准测试中看到了和Colette的内容。这是有史以来最大的单一推理基准测试,GB200、NVLink 72 的性能提高了 10 到 15 倍。因此,这是一个很大的进步。需要很长时间才能有人接受。而且我们在那里的领导层肯定是多年。因此,我想我希望这种推断能成为一件大事。我们在推理方面的领导能力非同寻常。
操作员
下一个问题来自Timothy Arcuri与UBS。
蒂莫西·阿库里
Jensen,许多您的客户正在追求表后电力,但您最担心的、可能会限制您增长的最大瓶颈是什么?是电力吗?还是融资,或者是其他像内存甚至铸造之类的东西?
Jen-Hsun Huang
嗯,这些都是问题,也都是限制。原因在于,当我们以我们目前的速度和规模增长时,怎么可能有什么事情是容易的呢?英伟达正在做的事情显然是前所未有的。而且我们还创造了一个全新的行业。
一方面,我们正在将计算从通用计算、经典或传统计算转变为加速计算和人工智能。另一方面,我们创造了一个全新的行业,称为AI工厂。这种理念认为,软件运行需要通过这些工厂生成每个单独的标记,而不是检索预先创建的信息。因此,我认为整个转型需要超大规模的支持。当然,供应链方面,我们有更清晰的可见性和更强的控制力,因为我们显然非常擅长管理我们的供应链。我们拥有合作了33年的优秀合作伙伴。
所以我们对供应链的部分非常有信心。现在沿着我们的供应链看下去,我们已经与土地、电力、壳牌以及金融方面的众多参与者建立了合作关系。这些事情——没有一件是容易的,但它们都是可以应对并解决的问题。而我们要做的最重要的事情就是做好规划,无论是上游还是下游供应链。我们已经建立了一大批合作伙伴关系,因此我们有许多进入市场的渠道。更重要的是,我们的架构必须为客户提供最佳的价值。
所以在这个时间点上,我非常有信心英伟达的架构在总拥有成本(TCO)上提供最佳性能,也是每瓦特性能的最佳表现。因此,对于输入的任何能量,我们的架构将带来最多的收益。我认为我们成功的速度正在加快,我认为我们在今年此时比去年此时更加成功。前来与我们合作的客户数量,以及在探索其他选项后选择我们的平台数量正在增加,而非减少。因此,我认为所有这些表明,多年来我告诉你们的一切正在逐步实现并变得显而易见。
操作员
下一个问题来自Stacy Rasgon,伯恩斯坦研究公司。
Stacy Rasgon
Colette,我有一些关于利润率的问题。您提到明年您希望将其保持在70年代中期。那么我想首先问一下,最大的成本增长是什么?仅仅是内存还是别的东西?您正在采取哪些措施来应对这个问题?这是否涉及成本优化、预先采购还是定价?另外,考虑到收入似乎可能从目前水平大幅增长,我们应该如何考虑明年的运营支出增长?
Colette Kress
谢谢,Stacy。让我先回顾一下我们目前财政年度的情况。今年早些时候,我们提到过通过成本改进和产品组合优化,我们的毛利率将在年中达到70%的中段水平。我们已经实现了这一目标,并准备在第四季度继续执行。所以现在是时候告诉大家我们在为明年的计划做哪些工作了。
明年,行业内众所周知的一些投入成本需要我们解决。而且我们的系统并不是那么容易操作的,其中包含了大量的组件分布在各个部分。因此,我们正在全面考虑这些因素,但我们相信通过继续努力改善成本、缩短周期时间以及优化产品组合,我们将争取保持毛利率在70%的中段水平。这就是我们整体的毛利计划。
您的第二个问题是关于运营支出(OpEx)。目前,我们在运营支出方面的目标是确保我们所有的工程团队和业务团队不断创新,为这个市场开发越来越多的系统。如您所知,我们即将推出新的架构,这意味着他们正忙于实现这些目标。因此,我们将继续看到在软件、系统以及勤奋工作上的投资不断增加。我就说到这里,如果Jensen有任何补充意见的话,请他发言。
Jen-Hsun Huang
没错。我想补充的一点是,请记住我们提前规划、预测并同供应链进行协商。我们的供应链早就知道我们的需求,也早就了解我们的预期需求,我们与他们进行了很长时间的协商和合作。所以我认为最近的价格上涨显然相当显著。
但请记住,我们的供应链已经与我们合作了很长时间。所以在很多情况下,我们已经为自己争取到了充足的供应,因为毕竟他们是跟全球最大的公司合作。我们同时也在财务方面与他们密切合作,确保预测和计划等事项顺利进行。所以我认为所有这些对我们来说都运作得不错。
操作员
您的最后一个问题来自Aaron Rakers,来自富国银行的提问。
Aaron Rakers
Jensen,接下来的问题是给您的。当您想到刚刚宣布的Anthropic交易以及客户群体的广泛性时,我想知道您是否对AI ASIC或者专用XPU在架构搭建中的作用有新的看法?我记得您过去一直坚持认为一些项目从未真正进入部署阶段。但我想知道,我们现在是否已经到达了一个更倾向于GPU架构的转折点?
Jen-Hsun Huang
是的。非常感谢,我非常欣赏这个问题。首先,你们不是在和公司竞争——抱歉,是在和团队竞争。世界上能够构建这些极其复杂事物的优秀团队并不多。
回到Hopper时代和安培(Ampere)时代,我们只做了一个GPU。这就是加速AI系统的定义。但如今,我们必须建造整个机架、三种不同类型的交换机,还要进行扩展、横向扩展和跨交换机扩展。现在构建一个计算节点需要的远不止一颗芯片。由于人工智能需要内存,而过去AI完全不需要内存,因此现在的内存架构影响巨大。从混合专家模型到密集模型,再到基于物理定律的激进扩散模型与生物学模型,这几年来各类模型的数量呈爆炸性增长。
因此,挑战在于问题的复杂性大大提高。AI模型的多样性也极大增加。所以我想说的是,有五件事让我们与众不同。第一件是我们加速了每一个过渡阶段。这是第一个优势。CUDA使我们拥有CUDA-X,可以从通用计算转向加速计算。我们在生成式AI方面非常出色,在代理式AI方面也非常优秀。所以我们精通每个阶段、每个层次的转换。您可以投资一种架构并在各个场景下使用它。无需担心这三大阶段中工作负载的变化。这是第一点。
第二点是,我们在AI的每个阶段都非常出色。大家都知道我们在预训练方面非常出色。显然,我们在后训练方面也很强,并且正如事实所证明的,我们在推理方面表现得非常优秀,因为推理实际上是非常困难的。思考怎么可能简单?人们以为推理是一次性的,因此很容易,任何人都能以这种方式进入市场。但事实证明,推理是最难的,因为思考本身就是一件很难的事情。我们在AI的每个阶段都表现出色,这是第二点。
第三点是,我们现在是世界上唯一可以运行每个AI模型、每个前沿AI模型的架构。我们能很好地运行开源AI模型,也能很好地运行科学模型、生物模型、机器人模型。我们运行所有的模型。我们是世界上唯一可以这样声称的架构。无论你是自回归还是基于扩散的模型,我们都支持一切,并为所有主要平台提供支持,正如我刚才提到的。所以我们运行所有的模型。
第四点是我们在每朵云中都有布局。开发者喜欢我们的原因是因为我们无处不在。我们在每朵云中,甚至可以为您搭建一个名为DGX Spark的小型云。因此,我们几乎存在于各种计算设备中,无论是云端、本地部署、机器人系统、边缘设备还是PC,无所不包。一个架构就能让设备无缝运行,令人难以置信。
最后一点,可能也是最重要的一点,第五点是:如果您是云服务提供商,比如像HUMAIN这样的新公司,或是CoreWeave、Nscale、Nebius或OCI这类公司,英伟达之所以是您的最佳平台,是因为我们提供的需求承接能力极其多样化。我们可以帮助您实现需求承接。这不仅仅是将某个随机ASIC放入数据中心那么简单。需求从何而来?多样性从何而来?韧性从何而来?这种架构的多功能性和能力的多样性来源于哪里?正是因为英伟达的生态系统极为庞大,所以我们拥有极好的需求承接能力。这五点总结起来就是:加速与过渡的每个阶段、AI的每个阶段、每个模型、每朵云到本地部署,最终都汇聚到需求承接这一点上。
操作员
谢谢。我现在将电话转交给Toshiya Hari进行闭幕致辞。
Toshiya Hari
最后,请注意,我们将于12月2日参加UBS全球技术与人工智能大会,而我们讨论2026财年第四季度业绩的电话会议定于2月25日举行。感谢您今天加入我们的会议。操作员,请继续结束本次电话会议。
操作员
谢谢。今天的电话会议到此结束。您现在可以断开连接。
提示:本摘要由AI语言模型基于公开信息生成,包括自动生成的字幕和来自第三方来源的公开音频。尽管已尽力确保准确性,但AI生成的内容可能包含错误或遗漏。请参考各上市公司发布的官方材料以获取最准确和最新的信息。 本内容仅供参考,不构成投资建议或购买或出售任何投资产品的推荐。所呈现的观点和总结不代表moomoo的官方立场。Moomoo不对本内容的准确性、及时性或完整性作出任何明示或暗示的保证,并且对因使用本内容而造成的任何损失概不负责。原始电话会议内容的版权归各上市公司所有。
免责声明:此内容由Moomoo Technologies Inc.提供,仅用于信息交流和教育目的。 更多信息
359
431
88
57
6
21
7
+0
943
原文
举报
浏览 151万
热门市场机会
了解更多
本周开局:银行财报、CPI数据以及可能对伊朗采取的行动
本周市场面临三重威胁:大型银行财报、可能改变美联储政策的关键通胀数据,以及随着对伊朗的潜在行动成为焦点而上升的地缘政治风险。
了解更多
了解更多