OD体育官网- OD体育APP下载- 世界杯指定投注平台英伟达无惧AI恐慌:2026财年营收2159亿美元!附Q4电话会议全文
栏目:OD体育APP 发布时间:2026-02-28

  od体育官方网站,od体育app下载,od体育最新登录网址,od体育平台,od体育app,od体育靠谱吗,od体育,od体育官网,od体育买球,od体育世界杯,od体育注册,od体育登录,od体育入口

OD体育官网- OD体育APP下载- 世界杯指定投注平台英伟达无惧AI恐慌:2026财年营收2159亿美元!附Q4电话会议全文

  今天---2026年2月26日,英伟达发布2026财年第四季度及全年财报,Q4营收达到680亿美元,同比增长73%,环比增速创下新纪录。数据中心业务单季增加110亿美元,成为主要增长引擎。整个2026财年营收2159亿美元,同比增长68%,自ChatGPT问世以来英伟达数据中心业务规模扩大近13倍。自由现金流单季350亿美元,全年970亿美元,年内通过回购和股息向股东返还410亿美元。

  第四季度数据中心收入620亿美元,同比增长75%,环比增长22%。Blackwell架构持续放量,Hopper及更早的Ampere架构产品在云端均已售罄。自Grace Blackwell NVL72发布以来,主要云服务商、超大规模企业已部署消耗近9吉瓦基于Blackwell的基础设施。

  黄仁勋在问答环节多次强调,智能体AI已到达关键拐点。Claude Code、OpenAI Codex等工具展现出实用智能,采用率飙升,代币具有盈利性。“计算能力直接转化为收入”成为核心逻辑。每个数据中心受电力限制,每瓦性能最优的架构意味着每瓦产生最多代币,进而转化为最多收入。

  英伟达宣布与Anthropic达成合作伙伴关系,投资100亿美元。Anthropic将在Grace Blackwell和Vera Rubin系统上训练推理,其Claude Cowork智能体平台需求飙升。与Meta合作继续深化,Meta正在部署数百万个Blackwell和Rubin GPU。近期与Grok达成非排他性许可协议,获取低延迟推理技术,相关团队加入英伟达。

  第四季度GAAP毛利率75%,非GAAP毛利率75.2%。展望第一季度,预计毛利率74.9%至75%,全年维持在70%中段。毛利率的核心杠杆是向客户交付代际领先性能,每年交付整套AI基础设施的策略持续带来每瓦性能和每美元性能的数倍提升。

  游戏收入37亿美元,同比增长47%,Blackwell架构需求强劲。但供应限制将成为第一季度及以后的阻力。专业可视化收入首次突破10亿美元,达到13亿美元,同比增长159%。汽车业务收入6.04亿美元,同比增长6%,物理AI在2026财年已贡献超60亿美元收入。

  未来的下一个财年预计第一季度营收780亿美元,上下浮动2%,主要由数据中心驱动。全年营收将持续环比增长,覆盖此前分享的5000亿美元Blackwell和Rubin营收机会。黄仁勋重申对2030年数据中心资本支出达3万亿至4万亿美元的乐观判断,智能体AI之后的下一个拐点将是物理AI,应用于制造业和机器人技术。

  在本次电话会议中,我们可能会根据当前预期做出前瞻性陈述。这些陈述受到许多重大风险和不确定性的影响,我们的实际结果可能存在重大差异。有关可能影响我们未来财务业绩和业务的因素的讨论,请参阅今日财报新闻稿、我们最近的10-K和10-Q表格以及我们可能向美国证券交易委员会提交的8-K表格报告中的披露。我们所有的陈述均基于我们目前可获得的信息,截至2026年2月25日。除非法律要求,否则我们没有义务更新任何此类陈述。

  感谢,Toshiya。我们再次交付了一个出色的季度,实现了创纪录的营收、运营收入和自由现金流。总收入达到680亿美元,同比增长73%,增速较第三季度有所加快。环比增长也创下纪录,我们的数据中心业务收入增加了110亿美元,客户群体多样且不断扩大,包括云服务提供商、超大规模企业、AI模型制造商、企业和主权国家。随着推理部署与训练一同增长,市场对我们Blackwell架构以及数据中心规模极致协同设计的需求持续增强。向加速计算的转型以及AI在现有超大规模工作负载中的渗透,继续推动我们的增长。

  基于日益智能和多模态模型构建的智能体和物理AI应用,正开始驱动我们的财务表现。按全年计算,数据中心业务创造了1940亿美元的收入,同比增长68%。自2023财年ChatGPT出现以来,我们的数据中心业务规模已扩大了近13倍。展望未来,我们预计在整个2026日历年内营收将持续环比增长,将超过去年我们分享的5000亿美元Blackwell和Rubin营收机会中所包含的预期。我们相信,我们已经有了库存和供应承诺来应对未来的需求,包括延续到2027日历年的出货。每个数据中心都受到电力限制。鉴于

  这些约束条件以及最大化AI工厂收入的需求。SemiAnalysis将NVIDIA称为“推理之王”,因为InferenceX近期的结果强化了我们在推理领域的领导地位,GB300 NVL72相比[Hopper]实现了高达50倍的每瓦性能提升和35倍的每令牌成本降低,并且CUDA软件的持续优化帮助GB200 NVL72在短短4个月内实现了高达5倍的性能提升。NVIDIA提供了最低的每令牌成本,运行在NVIDIA上的数据中心产生了最高的收入。

  基础设施服务业务本季度表现突出,营收达110亿美元,同比增长超过3.5倍。由于NVLink、Spectrum-X以太网和InfiniBand的强劲采用,我们纵向扩展和横向扩展技术的需求均创下历史新高,环比均实现两位数增长。从同比来看,增长主要由NVLink 72纵向扩展交换机驱动,因为Grace Blackwell系统在本季度数据中心营收中约占三分之二。NVLink纵向扩展架构已经彻底改变了计算方式,并展示了超级计算机所有芯片及全栈深度协同设计的强大威力。在第四季度,我们宣布将支持AWS的NVLink与其定制芯片集成。随着客户努力将分布式数据中心统一为集成化的千兆级AI工厂,我们的Spectrum-X以太网纵向扩展和网络横向扩展业务势头强劲。全年来看,我们的网络业务营收超过310亿美元,与2021财年(即我们收购Mellanox的那一年)相比增长了超过10倍。

  其GEM模型的进步推动了Facebook广告点击量增长3.5%,Instagram对线%,转化为有意义的收入增长。借助相同的NVIDIA基础设施,Meta Superintelligence Labs可以训练和部署其前沿的智能体AI系统。前沿智能体系统已到达一个拐点。Claude Code、Claude Cowork和OpenAI的编解码器已实现实用智能。采用率正在飙升,代币具有盈利性,这推动了对扩大计算规模的极端紧迫性。计算能力直接转化为智能和收入增长。

  各国在人工智能上的投入与其国内生产总值成正比。虽然美国政府批准了少量面向中国客户的H200产品,但我们尚未产生任何收入。我们也不知道是否会有任何进口产品被允许进入中国。我们的中国竞争对手凭借近期的首次公开募股取得了进展,并有可能在长期内颠覆全球人工智能行业的格局。为了维持其在人工智能计算领域的领导地位,美国必须吸引每一位开发者,并成为包括中国企业在内的所有商业实体的首选平台。我们将继续与美国和中国政府沟通,并倡导美国在全球范围内的竞争能力。

  我们上个月在CES上发布了Rubin平台,该平台包含6款新芯片:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换机。该平台将用相当于Blackwell 1/4数量的GPU来训练混合专家模型,并将推理令牌成本降低高达10倍。我们已于本周早些时候向客户交付了首批Vera Rubin样品,并仍按计划在今年下半年开始量产发货。基于其模块化、无缆线托盘设计,Rubin将提供比Blackwell更高的可靠性和可维护性。我们预计每个云模型构建者都将部署Vera Rubin。

  接下来是游戏业务。游戏业务收入达到37亿美元,同比增长47%,这主要得益于Blackwell架构的强劲需求以及供应链的改善。GeForce RTX是面向PC游戏玩家、创作者和开发者的领先平台。在第四季度,我们推出了多项新技术和进步,包括利用AI将游戏视觉效果提升至新高度的DLSS 4.5、即使在动态画面中也能带来难以置信的清晰图像的G-SYNC Pulsar,以及在领先的AIPC框架上实现快35%的大语言模型推理。

  汽车业务收入为6.04亿美元,同比增长6%,这主要得益于自动驾驶解决方案的强劲需求。在CES上,我们推出了Alpamayo,这是世界上首个开放的推理视觉-语言-动作模型组合、仿真蓝图和数据集,旨在打造能够思考的汽车。首款搭载基于NVIDIA DRIVE平台构建的Alpamayo的乘用车——新款梅赛德斯-奔驰CLA,即将上路。物理AI时代已经到来,在2026财年已为NVIDIA贡献了超过60亿美元的收入。Robotaxi

  自动驾驶业务正随着Waymo、特斯拉、Uber、文远知行和Zoox等公司的商业车队而呈指数级增长。预计许多其他公司将从2025年的数千辆汽车扩展到未来十年的数百万辆,从而创造一个有望产生数千亿美元收入的市场。这一扩张将需要数量级更多的计算能力,每家主要的原始设备制造商和服务提供商都在NVIDIA的平台上进行开发。

  我们在第四季度产生了350亿美元的自由现金流,在2026财年全年产生了970亿美元的自由现金流。在整个财年,我们以股票回购和股息的形式向股东返还了410亿美元,占自由现金流的43%。我们将继续投资于技术和我们的生态系统,以培育市场发展,推动长期增长,并最终实现优于市场或同行的股东总回报。

  GAAP和非GAAP运营费用预计分别约为77亿美元和75亿美元,其中包括19亿美元的股权激励费用。对于全年,由于我们持续投资于不断扩大的市场机遇,我们预计非GAAP运营费用将同比增长百分之四十出头。对于2027财年全年,我们预计GAAP和非GAAP税率将在7%至19%之间,不包括任何离散项目及税务环境的重大变化。

  本季度,我们与领先的前沿模型制造商显著深化并拓展了合作伙伴关系。我们近期庆祝了OpenAI发布GPT-5.3-Codex,该模型在Grace Blackwell NVLink 72系统上进行训练和推理。GPT-5.3-Codex能够处理涉及研究、工具使用和复杂执行的长期运行任务。5.3-Codex已在NVIDIA内部广泛部署,我们的工程师非常喜欢它。我们继续与OpenAI合作,致力于达成一项合作伙伴协议,并相信我们已接近完成。我们对与OpenAI的持续合作感到兴奋,这是一家千载难逢的公司,我们很荣幸自其成立之初就与之合作。

  最后,我们最近与Grok达成了一项非排他性许可协议,以获取其低延迟推理技术,并欢迎这支才华横溢的工程师团队加入NVIDIA。正如我们与Mellanox所做的那样,我们将利用Grok的创新来扩展NVIDIA的架构,以实现新水平的AI基础设施性能和价值。我们期待在下个月的GTC上分享更多信息。好的,交还给你。

  我想您提到,您现在对2027日历年也有了增长可见性,我认为您的采购承诺也反映了这种信心。但是Jensen,我很好奇,当您审视您的顶级云客户时,今年云资本支出接近7000亿美元,许多投资者担心这个水平明年将更难增长。对于其中几家客户来说,它们的现金流生成能力也正在受到挤压。我知道您对您的路线图、您的采购承诺等等非常有信心,但您对客户继续增加其资本支出的能力有多大的信心?

  我对他们的现金流增长充满信心。原因很简单。我们现在已经看到了智能体AI的拐点,以及智能体在全球各地和企业中的实用性。正因如此,你们看到了惊人的计算需求。在这个AI新世界里,计算能力就是收入。没有计算能力,就无法生成代币。没有代币,就无法增加收入。所以,在这个AI新世界里,计算能力等于收入。我确信,在目前这个节点,随着Codex和Claude Code的生产性应用,以及围绕Claude Cowork的兴奋,还有对OpenClaw及其企业版本令人难以置信的热情,所有企业独立软件供应商现在都在其工具平台上开发智能体系统。我确信,我们已经到达了拐点,我们正在生成对客户有生产力、对云服务提供商有利润的代币。

  正如你所知,从根本上说,英伟达一切的核心是我们的生态系统。这正是大家喜爱我们业务的原因。我们生态系统的丰富性。世界上几乎每一个初创公司都在英伟达的平台上工作。我们存在于每一个云中。我们存在于每一个本地数据中心。我们遍布全球的边缘和机器人系统。成千上万的AI原生公司建立在英伟达之上。我们希望抓住这个绝佳的机会,因为我们正处于这个新计算时代、新计算平台转型的开端,让每个人都使用英伟达。一切都已建立在CUDA之上,所以我们从一个非常棒的起点开始。但随着我们构建整个AI生态系统,无论是用于语言的AI、物理AI、AI物理、生物学还是用于制造的机器人技术,我们希望所有……

  在这些生态系统之上构建。这对我们来说是一个绝佳的机会,可以投资于整个技术栈的生态系统。我们今天的生态系统也比过去更加丰富。我们过去主要是一个基于GPU的计算平台,但现在我们是一家计算AI基础设施公司,我们在各个方面都有计算平台。从计算到AI模型,再到网络和我们的DPU,所有这些之上都有计算栈。正如我之前提到的,无论是在企业、制造业、工业、科学还是机器人领域,每个生态系统都有不同的技术栈。我们希望确保我们继续投资于我们的生态系统。因此,我们的投资非常明确地、战略性地集中在扩大和深化我们的生态系统覆盖范围上。

  网络业务在你们整体数据中心业务中的占比持续上升,对吗?在整个2026财年,你们的网络收入每个季度都实现了同比增长,正如你们提到的,第四季度同比增长了3.6倍。显然,这得益于你们纵向扩展和横向扩展的网络产品组合。我似乎记得去年上半年,你们的Spectrum-X以太网交换平台的年化运行率大约在100亿美元左右。看起来这可能已经

  是的。如您所知,我们将自己视为一家AI基础设施公司,而AI计算基础设施包括CPU、GPU。我们发明了NVLink,以将单个计算节点扩展成一个庞大的计算机架。我们提出了机架级计算机的概念。我们不交付单个计算机节点,我们交付的是整机架的计算机。这些通过NVLink交换机实现的纵向扩展系统,随后会使用Spectrum-X和InfiniBand进行横向扩展。我们两者都支持。更进一步,我们还使用Spectrum X实现跨数据中心的扩展。

  因此,我们看待网络的方式,实际上是平台的一个延伸——我们开放地提供所有组件,以便客户可以根据自身需求,在不同规模下混合、管理,并将其集成到他们定制化的数据中心中。但归根结底,这都是我们平台的重要组成部分。NVLink的发明极大地推动了我们的网络业务。每个机架都配备9个交换机节点,每个节点包含2个芯片,未来还会更多。因此,我们每个机架所集成的交换能力是相当惊人的。我们现在也是最大的网络公司。

  因此,Spectrum-X 以太网对我们来说是一次巨大的成功。但我们乐于支持客户选择的任何网络方式。有些人非常钟爱 InfiniBand 的低延迟和纵向扩展能力,我们当然会继续支持。而另一些人则希望在数据中心内基于以太网整合其网络,为此我们创造了一种以太网能力,通过人工智能扩展了以太网,这是一种在数据中心内的处理方式,我们在这方面做得非常出色。我们的 Spectrum-X 性能充分证明了这一点。当你建造一个价值 100 亿或 200 亿美元的 AI 工厂时,网络效率与利用率 10% 的差异,甚至可能轻松达到 20% 的差异,这直接转化为实实在在的金钱。因此,NVIDIA 的网络业务确实在快速增长。我认为,这仅仅是因为我们如此高效地构建了 AI 基础设施,而 AI 基础设施业务正以惊人的速度增长。

  我们并非不使用dilate——我们希望,每个人都应该希望尽可能延长、扩展dilate。原因在于,每次跨越一个dilate,你都需要跨越一个接口。每次跨越接口,都会不必要地增加延迟和功耗。我们并不排斥dilate。我们已经在使用dilate,但我们只在绝对别无选择时才使用。因此,如果你观察Grace Blackwell架构和Rubin架构,我们使用了2个巨大的光罩限制芯片,并将它们[听不清],这减少了架构跨越的次数。竞争对手的架构效率中显现了dilate[听不清]。如果你观察NVIDIA,人们称之为我们的软件优势。但软件始于何处,架构始于何处又止于何处,这很难界定。我们的软件之所以有效,是因为我们的架构非常出色。因此,CUDA架构无疑比其他任何计算架构都更有效、更高效,在每FLOP、每瓦特上都能提供更高的性能。

  关于我们如何看待Grok和低延迟解码器,我有很多好想法,希望在GTC上与大家分享。但简单的想法是,由于CUDA,我们的基础设施极其灵活,我们将继续这样做。我们所有的GPU在架构上都是兼容的,这意味着当我今天为Blackwell优化模型时,所有这些工作以及对优化软件栈和新模型的投入,同样会使Hopper和Ampere受益。这就是为什么A100在部署多年后,仍然感觉新鲜且性能持续强劲。

  架构兼容性使我们能够做到这一点。它让我们能够大力投资软件工程和优化,因为我们知道,我们在云端、本地以及各处的整个安装基础,包括多代架构和GPU,都将从中受益。因此,我们将继续这样做,这使我们能够延长产品的使用寿命,实现创新、灵活性和速度,从而为客户带来性能,更重要的是,每美元性能和每瓦性能的提升。至于我们将如何利用Grok,请来参加GTC,但我们的做法是,将Grok作为加速器来扩展我们的架构,就像我们当年用Mellanox扩展NVIDIA架构的方式一样。

  Colette,我想深入探讨一下关于全年连续增长的预期。本季度数据中心业务环比增长超过100亿美元,而业绩指引似乎也暗示了数据中心业务将实现约100亿美元的环比增长。随着我们进入下半年,特别是Rubin平台开始上量,您如何看待这一增长轨迹?Blackwell架构已为连续增长带来了显著的加速。当Rubin平台推出时,我们是否应期待类似的增长势头?

  谢谢,Stacy。我先谈谈未来的营收。我们仍在逐季度审视营收情况。就全年而言,我们绝对会继续销售和供应Blackwell产品,同时很可能也会看到Vera Rubin平台进入市场。这是一个非常出色的架构,能帮助客户快速部署,并且我们已经计划根据众多不同客户的需求提供该产品。目前确定Vera Rubin平台在下半年的初始上量规模还为时过早,我们将持续跟进。

  没有CUDA,我们将不知道如何处理推理。从我们几年前推出的TensorRT LLM开始,整个软件栈至今仍是全球性能最高的推理栈,要针对NVLink对其进行优化,需要我们探索和发明新的并行化算法,这些算法建立在CUDA之上,用于分发工作负载和推理任务,以充分利用NVLink 72的聚合带宽。NVLink 72使我们能够实现每瓦性能代际提升50倍。这这真是一个惊人的飞跃,而且合乎情理。NVLink 72 是一项伟大的发明,实现起来非常困难。交换技术的创造、交换机的解耦、系统机架的构建,所有这些,我们都是在众目睽睽之下完成的,每个人都知道这对我们来说有多难。但是,结果令人难以置信。因此,每瓦性能提升了 50 倍,每美元性能提升了 35 倍。推理性能的飞跃是惊人的。

  认识到推理现在等于我们客户的收入,这一点非常重要——确实非常重要,因为智能体正在生成海量的令牌,而且效果非常显著。当智能体进行编码时,它们会生成成千上万、甚至数十万、数百万的令牌,因为它们会运行数分钟到数小时。这些系统,这些智能体系统,会衍生出不同的智能体,像团队一样协作。生成的令牌数量确实已经呈指数级增长。

  因此,我们需要以更高的速度进行推理。当你以更高的速度进行推理,并且每个令牌都货币化时,这直接转化为收入。所以,推理性能等于我们客户的收入。对于数据中心而言,每瓦推理令牌数直接转化为云服务提供商的收入。原因在于,每个人都受到电力限制。我的意思是,无论你拥有多少数据中心,每个数据中心,无论是 100 兆瓦还是 1 吉瓦,都存在电力限制。

  能效比最佳的架构之所以重要,是因为每个Token、每瓦性能产生的Token,最终都会货币化。每瓦Token数转化为每瓦美元数,而每吉瓦的规模则直接转化为收入。因此,你可以看到,现在每个云服务提供商、每个超大规模数据中心都明白这一点:资本支出转化为算力。采用正确的架构进行算力投资,意味着最大化收入,算力即收入。如果今天不投资产能,不投资算力,就不可能有收入增长。这一点,我想大家都明白。算力等于收入,选择正确的架构至关重要。这不仅仅是战略问题,现在它直接影响他们的盈利。选择正确的架构,选择能效比最佳的架构,几乎就是一切。

  首先,我要称赞你们将股权激励计入非GAAP指标的做法。我认为这是一个很好的举措。但这不是我的问题。我的问题是关于毛利率以及长期维持在70%中段水平的可持续性。我们是否应该理解为,鉴于供应可见性已延伸至2027日历年,这种可持续性将维持到那时?然后,Jensen,在那之后呢?在内存消耗方面是否有您可以透露的创新,能让我们对长期维持该毛利率水平的能力更有信心?

  目前的经济效益并不理想,但未来会逐步改善。众所周知,太空中的运作方式与地球截然不同。那里能源充足,太阳能电池板虽然体积庞大,但太空中有充足的空间。散热方面,太空环境寒冷,但没有空气流动。因此,散热的唯一途径是通过传导,而所需的散热器体积相当大。液冷显然不可行,因为它重量大且会冻结。所以,我们在地球上使用的方法与在太空中需要采用的方法有所不同。然而,确实有许多计算任务非常适合在太空中完成。NVIDIA已经是世界上首个进入太空的GPU,Hopper架构的GPU已在太空中运行。GPU在太空中的最佳应用场景之一是成像,即利用光学和人工智能技术进行极高分辨率的成像。此外,还包括对不同视角图像进行重投影的计算处理。

  我想接着您刚才关于收入多元化的评论提问。Colette,我相信您提到超大规模云服务商贡献了超过50%的收入,但增长是由数据中心的其他客户推动的。为了澄清,我想确认我理解正确,这是否意味着您的非超大规模客户增长更快?如果是,能否帮助我们理解非超大规模客户在做什么不同的事情?他们做的事情与超大规模客户不同吗?还是做的事情相同,只是规模不同?您预计这种趋势会持续吗?您是否预计您的客户群会发展到非超大规模客户成为您业务中更大、甚至主要的部分?

  是的。我们来看看能否解答这个问题。关于我们的前五大客户,正如我们所述,主要是我们的云服务提供商和超大规模企业,目前它们约占我们总收入的50%。除此之外,我们合作的客户群体非常多样化,包括各类其他公司,涵盖我们的AI模型制造商、企业客户、超级计算领域以及主权实体。这其中涉及许多其他不同的因素。但你说得对,这也是一个增长非常迅速的领域。我们在所有不同的云服务提供商平台上都占据着强有力的地位。同时,我们现在也看到了来自全球各地、极其多样化的客户群体。这种多样性将使我们真正受益,并能够服务于所有这些领域。我想看看Jensen是否想就此补充?

  是的,这是我们生态系统的一个优势,所有一切都构建在CUDA之上。我们是唯一一个加速计算平台,覆盖了每一朵云,可通过每一家计算机制造商获取,并延伸至边缘,我们现在也正在培育电信领域。显然,未来的无线电将全部由AI驱动,未来的无线网络也将成为一个计算平台。这是必然的结论,但需要有人去发明技术来实现它。

  我们通过CUDA创建了一个平台来实现这一目标。我们的技术几乎应用于每一台机器人、每一辆自动驾驶汽车。一方面,CUDA能够利用我们GPU内部张量核心等专用处理器的性能优势;另一方面,CUDA的灵活性使我们能够解决语言问题、计算机视觉问题、机器人学问题、生物学问题、物理学问题,以及几乎所有类型的AI和计算算法。因此,我们客户群的多样性是我们最大的优势之一。

  当然,第二点在于,如果没有我们自己的生态系统,即使我们的处理器是可编程的,如果我们不培育我们的生态系统——就像我们今天正在做的一些事情,投资于我们未来的生态系统并持续增强它——那么我们将很难超越为他人生态系统所赢得的那些设计胜利而实现增长。因此,由于我们创建的这个平台,我们能够非常自然地发展和扩展我们的生态系统。

  最后,非常重要的一点是我们与OpenAI、Anthropic、xAI以及Meta等建立的合作伙伴关系——当然,还包括世界上几乎所有的开源项目。Hugging Face上有150万个AI模型,它们全部运行在NVIDIA CUDA上。因此,开源生态整体可能代表了世界上最大的——或者说第二大的模型。

  好的。我想继续围绕平台和极致协同设计这个主题。上个季度的一些新闻显然是关于NVIDIA有能力或正在推动将Vera CPU作为独立解决方案推向市场。所以,Jensen,我很好奇,随着我们向前发展,Vera在这种架构演进中扮演着怎样的重要角色?这是否更多地是由推理工作负载的激增或异构性驱动的?我只是好奇您如何看待这对NVIDIA的演进,特别是在独立CPU方面?

  我们关注的是数据驱动的领域,人工智能便是其中之一。其单线程性能与带宽之比简直超乎想象。我们做出这些架构决策,是因为在人工智能的整个流程中,从数据处理(甚至在训练开始前就必须进行数据处理)到预训练,再到如今的后训练阶段——AI正在学习如何使用工具。而工具的使用,许多工具运行在纯CPU环境或CPU与GPU加速的环境中。Vera的设计目标就是成为后训练阶段的卓越CPU。因此,在人工智能的整个流程中,部分用例确实涉及大量CPU的使用。我们既热爱GPU,也热爱CPU。当你像我们一样将算法加速到极限时,阿姆达尔定律表明,你需要非常、非常快的单线程CPU。这正是我们打造Grace,使其在单线程性能上表现非凡的原因,而Vera在这方面更是远超预期。

  感谢你的提问。我们非常审慎地看待资本回报,并且坚信,我们所能做的最重要的事情之一,就是全力支持我们面前这个庞大的生态系统。这个生态系统涵盖方方面面,从我们的供应商,到为确保所需供应而必须开展的工作,再到帮助他们提升产能,以及我们作为AI解决方案早期开发者的角色,这些解决方案将运行在我们的平台上。因此,我们将继续把支持生态系统作为我们流程和战略投资中非常重要的一环。当然,我们仍在回购股票,也仍在派发股息,并且我们将在年内继续寻找合适的独特机会来进行这些不同的回购操作。

  是的。让我们退一步,从几个不同的角度来推理一下。首先,从第一性原理来看,未来的软件开发方式将是基于AI驱动的。我认为大家都在谈论代币经济学,谈论数据中心生成代币,推理就是生成代币,而我们也在生成代币。我们刚刚还在讨论代币,NVIDIA NVLink 72如何使我们每单位能耗的代币生成性能比上一代提升了50倍。因此,代币生成几乎与未来所有软件和计算相关的事物都息息相关。

  然而,回顾我们过去使用计算的方式,过去软件所需的计算量只是未来所需的一小部分。AI已经到来,AI不会倒退。AI只会从这里开始变得更好。所以,如果你思考一下,你会说,好吧,世界过去每年在经典计算上的投资大约是3000亿或4000亿美元,而现在AI已经到来,所需的计算量是我们过去计算方式的1000倍。计算需求简直是巨大的。

  更高,因此如果我们继续相信其中存在价值,我们稍后会讨论这一点,那么世界将投资以生成这些令牌。因此,世界所需的令牌生成能力远不止7000亿美元,而且我相当有信心我们将继续生成令牌。我们将从此刻起继续投资计算能力。从根本上说,因为每一家公司都依赖于软件,而每一款软件都将依赖于人工智能,所以每家公司都将生产令牌,这就是我称它们为人工智能工厂的原因。

  无论你是云数据中心的一家公司,你拥有为你的收入生成令牌的人工智能工厂。如果你是一家企业软件公司,你将为运行在你工具之上的代理系统生成令牌。如果你是一家机器人工厂,自动驾驶汽车是第一个迹象,你拥有巨大的超级计算机,这些本质上是人工智能工厂,用于生成进入你汽车的令牌,这些令牌成为其人工智能。然后你还必须在汽车内部安装计算机以持续生成令牌。因此,我们现在相当确定这是计算的未来。

  生成是实时的。当它实时生成时,你可以考虑人的背景、情境、查询和意图,所有这些都可以被考虑进去,以生成这种我们称之为AI、代理式AI的新软件的结果。因此,所需的计算量远远大于预录制的。就像计算机比预录制的DVD播放器拥有更多的计算能力一样,人工智能需要的计算能力也远超过我们过去做软件的方式。

  现在关于计算和可持续性的问题。在第一个层面,即计算机科学层面,这就是未来计算的方式。从产业层面来看,因为我们所有的公司归根结底都是由软件驱动的,云公司也是由软件驱动的,如果新软件需要生成令牌,并且这些令牌被货币化,那么他们的数据中心建设直接推动其收入就是理所当然的。因此,计算驱动收入。我认为他们都明白这一点。我认为人们也越来越开始理解这一点。

  当然,在行业内,我们已经观察了一段时间,大约有6个月左右。但现在全世界都意识到了智能体AI的拐点。这些智能体非常聪明,它们正在解决实际问题。编码工作现在显然得到了智能体系统的支持,我们NVIDIA的所有编码员都在大量使用智能体系统,无论是Claude Code还是OpenAI Codex,很多时候两者都用,还有Cursor,很多时候三者都用,这取决于具体的使用场景。但它们拥有智能体、共同设计伙伴和工程伙伴来帮助解决问题。你可以看到收入在飙升。

  以Anthropic为例,我认为他们的收入在一年内增长了10倍,而且他们严重受限于产能,因为需求简直令人难以置信,对代币的需求也令人难以置信。代币生成率正在呈指数级增长。当然,OpenAI的情况也一样,他们的需求令人难以置信。因此,他们能上线、投入使用的计算资源越多,他们的收入增长就会越快。这又回到了我之前说的那句话:推理就是收入,在这个新世界里,计算就等于收入。在很多方面,这就是为什么我们说这是一场新的工业革命。新的工厂、新的基础设施正在建设,这种新的计算方式不会倒退。因此,就我们相信生成代币将是计算的未来而言——我相信这一点,我认为整个行业也基本认同——