英伟达:1Q25财报分析师电话会议

liukang202414小时前观众吃瓜761

来历:雪球

真实的英伟达:1Q25财报分析师电话会议的图像

**科莱特·克雷斯 (Colette Kress)**

谢谢,Simona。Q1(榜首季度)咱们再次创下了纪录。收入到达260亿美元,环比添加18%,同比添加262%,远远超出咱们240亿美元的预期。

从数据中心开端。数据中心的收入到达226亿美元,创下了纪录,环比添加23%,同比添加427%,这一添加得益于对NVIDIAHopper GPU核算途径持续微弱的需求。核算收入比上一年添加了超越5倍,网络收入添加了超越3倍。

数据中心的微弱接连添加是由全部客户类型推动的,以企业和消费互联网公司为首。大型云服务供给商持续推动微弱添加,由于他们在规划上布置和添加NVIDIAAI根底设施,并占咱们数据中心收入的40%多。

在NVIDIACUDA上练习和推理AI正在推动云租借收入添加的有意义加快,为云服务供给商的出资供给了当即而微弱的报答。关于在NVIDIA AI根底设施上每花费1美元,云服务供给商有机遇在四年内经过GPU即时保管收入赚取5美元。NVIDIA丰厚的软件仓库和生态体系以及与云服务供给商的严密集成,使得终究用户可以轻松地在公共云上的NVIDIA GPU实例上运转。

关于云租借客户,NVIDIAGPU供给了练习模型的最佳时刻,最低的练习本钱和最低的大型言语模型推理本钱。关于公共云服务供给商,NVIDIA带来了客户,推动了收入添加和根底设施出资的报答。抢先的LLM公司,如OpenAI、Adept、Anthropic、Character.AI、Cohere、Databricks、DeepMind、Meta、Mistral、xAI等许多其他公司,都在云中构建NVIDIA AI。

企业推动了本季度数据中心的微弱接连添加。咱们支撑特斯拉将其AI集群扩展到35,000个H100 GPU。他们运用NVIDIAAI根底设施为FSD Version 12的突破性功能铺平了路途,这是他们根据视觉的最新自动驾驶软件。

视频变换器虽然耗费了更多的核算才干,但却显着前进了自动驾驶才干,并推动了NVIDIAAI根底设施在轿车职业的显着添加。咱们估量轿车将成为本年数据中心中最大的企业笔直范畴,推动在本地和云消费中数十亿美元的收入机遇。

消费互联网公司也是一个微弱的添加笔直范畴。本季度的一个亮点是Meta宣告了他们的最新的大型言语模型Llama 3,它在一个由24,000个H100 GPU组成的集群前进行了练习。Llama 3为Meta AI供给动力,这是一个在Facebook、Instagram、WhatsApp和Messenger上供给的新AI帮手。Llama 3揭露可用,并在各个职业中引发了一波AI开发浪潮。

跟着生成性AI进入更多的消费互联网运用,咱们估量跟着推理规划跟着模型杂乱性以及用户数量和每个用户的查询数量的添加,将看到持续的添加机遇,然后推动对AI核算的更多需求。

在曩昔的四个季度中,咱们估量推理推动了咱们数据中心收入的约40%。练习和推理都在显着添加。像Meta和特斯拉构建的大型集群是AI出产的底子根底设施,咱们称之为AI工厂。

这些下一代数据中心具有先进的全栈加快核算途径,数据输入,智能输出。在Q1,咱们与100多个客户协作构建了从几百到几万个GPU不等规划的AI工厂,有些到达了10万个GPU。

从地舆视点来看,跟着国际各国出资于主权AI,数据中心的收入持续多样化。主权AI指的是一个国家运用自己的根底设施、数据、劳动力和商业网络出产人工智能的才干。

国家正在经过各种方法树立国内核算才干。一些国家正在与国有电信供给商或公用事业公司协作收购和运营主权AI云。其他国家则赞助本地云协作伙伴,为公共和私营部门供给同享的AI核算途径。

例如,日本方案出资超越7.4亿美元给要害的数字根底设施供给商,包含KDDI、Sakura Internet和SoftBank,以构建国家的主权AI根底设施。法国的Scaleway,Iliad集团的子公司,正在构建欧洲最强壮的云原生AI超级核算机。

在意大利,Swisscom集团将树立国家首个也是最强壮的由NVIDIADGX驱动的超级核算机,以开发首个本地练习的意大利言语LLM。在新加坡,国家超级核算机中心正在晋级为NVIDIA Hopper GPU,而Singtel正在整个东南亚建造NVIDIA的加快AI工厂。

NVIDIA供给端到端核算到网络技能、全栈软件、AI专业常识以及丰厚的协作伙伴和客户生态体系,使主权AI和区域云服务供给商可以敏捷发动其国家的AI大志。从上一年的零开端,咱们信赖主权AI收入本年可以到达数十亿美元的高位。AI的重要性现已引起了每个国家的留意。

咱们推出了专为我国规划的新产品,这些产品不需求出口操控许可证。由于上一年10月施行新的出口操控约束,咱们在我国的数据中心收入显着下降。咱们估量我国商场将持续坚持十分比赛。

从产品视点来看,大部分核算收入是由咱们的Hopper GPU架构推动的。本季度对Hopper的需求持续添加。由于CUDA算法的立异,咱们现已可以在H100上加快LLM推理高达3倍,这可以转化为为像Llama 3这样的盛行模型供给服务的本钱下降3倍。

咱们在Q1开端对H200进行采样,现在正在出产中,并方案在Q2发货。榜首个H200体系由Jensen交给给Sam Altman和OpenAI团队,并为上星期他们惊人的GPT-4o演示供给动力。H200的推理功能简直是H100的两倍,为出产布置供给了显着的价值。

例如,运用具有7000亿参数的Llama 3,单个NVIDIAHGX H200服务器可以每秒供给24,000个token,一同支撑超越2400个用户。这意味着关于在当时价格每个token上花费的1美元,供给Llama 3 token的API供给商在四年内可以发生7美元的收入。

跟着软件的持续优化,咱们持续前进NVIDIAAI根底设施在服务AI模型方面的功能。虽然H100的供给证明,咱们仍然在H200上受到约束。与此一同,Blackwell正在全面出产中。咱们正在尽力使咱们的体系和云协作伙伴在本年晚些时分完结全球可用。H200和Blackwell的需求远远超越了供给,咱们估量需求或许会在下一年的大部分时刻里超越供给。

Grace Hopper超级芯片正在许多发货。上星期在国际超级核算大会上,咱们宣告全球有九台新的超级核算机正在运用Grace Hopper,本年共供给了200 exaflops的节能AI处理才干。

这些包含瑞士国家超级核算中心的Alps超级核算机,这是欧洲最快的AI超级核算机。英国布里斯托尔大学的Isambard-AI和德国于利希超级核算中心的JUPITER。

咱们看到Grace Hopper在超级核算中的附加率到达了80%,这得益于其高能效和功能。咱们还骄傲地看到,由Grace Hopper驱动的超级核算机占有了国际上最节能的超级核算机的前三个方位。

强壮的网络同比添加是由InfiniBand推动的。咱们阅历了适度的环比下降,这首要是由于供给的机遇,需求远远超越了咱们可以运送的数量。咱们估量网络将在Q2康复环比添加。在榜首季度,咱们开端发货咱们的新式Spectrum-X以太网网络处理方案,该方案从一开端就针对AI进行了优化。

它包含咱们的Spectrum-4交换机、BlueField-3 DPU和新的软件技能,以战胜AI在以太网上的应战,与传统以太网比较,为AI处理供给1.6倍的网络功能。

Spectrum-X正在多个客户中添加产值,包含一个巨大的10万个GPU集群。Spectrum-X为NVIDIA网络打开了全新的商场,并使仅以太网数据中心可以包容大规划AI。咱们估量Spectrum-X将在一年内跃升为价值数十亿美元的产品线。

在3月的GTC上,咱们推出了下一代AI工厂途径,Blackwell。Blackwell GPU架构供给比H100快4倍的练习和30倍的推理速度,而且可以在万亿参数的大型言语模型上完结实时生成AI。

Blackwell是一个巨大的腾跃,与Hopper比较,其总具有本钱(TCO)和能耗下降了25倍。Blackwell途径包含第五代NVLink,带有多GPU脊柱和新的InfiniBand和以太网交换机,X800系列专为万亿参数规划的AI规划。

Blackwell旨在支撑数据中心的普遍性,从超大规划到企业,从练习到推理,从x86到Grace CPU,从以太网到InfiniBand网络,从空气冷却到液体冷却。Blackwell在推出时将在100多种OEM和ODM体系中供给,是Hopper推出数量的两倍多,代表了国际上每个首要核算机制作商。这将支撑在榜首年的运送中快速而广泛地选用各种客户类型、作业负载和数据中心环境。

Blackwell上市客户包含亚马逊、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉和xAI。咱们宣告了一个新的软件产品,即NVIDIA推理微服务或NIM的推出。

NIM供给安全且功能优化的容器,由NVIDIACUDA加快支撑网络核算和推理软件,包含Triton推理服务器和TensorRT LLM,具有适用于广泛用例的职业标准API,包含文本、语音、图画、视觉、机器人技能、基因组学和数字生物学的大型言语模型。

它们使开发人员可以运用来自NVIDIA、AI21、Adept、Cohere、Getty Images和Shutterstock的抢先模型以及来自谷歌、Hugging Face、Meta、微软、Mistral AI、Snowflake和Stability AI的敞开模型,快速构建和布置生成性AI运用程序。NIM将作为咱们NVIDIA AI企业软件途径的一部分,用于在云或本地出产布置。

转向游戏和AI PC。游戏收入为26.5亿美元,环比下降8%,同比添加18%,契合咱们对季节性下降的预期。GeForce RTX Super GPU商场反响激烈,整个产品系列的终究需求和途径库存坚持健康。

从咱们AI之旅的最开端,咱们就为GeForce RTX GPU装备了CUDA Tensor Core。现在具有超越1亿的装置根底,GeForce RTX GPU十分合适游戏玩家、创作者、AI爱好者,并为在PC上运转生成性AI运用程序供给了无与伦比的功能。

NVIDIA具有布置和运转快速高效生成性AI推理的完好技能栈。TensorRT LLM现在加快了微软的Phi-3-Mini模型和谷歌的Gemma 2B和7B模型以及盛行的AI结构,包含LangChain和LlamaIndex。昨日,NVIDIA和微软宣告对Windows进行AI功能优化,以协助在NVIDIA GeForce RTX AI PC上加快LLM高达3倍。

尖端游戏开发商,包含网易游戏、腾讯和育碧,正在选用NVIDIAAvatar Character Engine创立传神的头像,以改动游戏玩家与非玩家人物之间的互动。

转向ProVis。收入为4.27亿美元,环比下降8%,同比添加45%。咱们信赖,生成性AI和Omniverse工业数字化将推动专业可视化添加的下一波浪潮。在GTC上,咱们宣告了新的Omniverse Cloud API,使开发人员可以将Omniverse工业数字孪生和模仿技能集成到他们的运用程序中。

包含ANSYS、Cadence、Dassault Systemes的3DEXCITE、Brand和西门子在内的一些国际上最大的工业软件制作商正在选用这些API。开发人员可以运用它们经过Apple Vision Pro等空间核算设备流式传输工业数字孪生。Omniverse Cloud API将在本年晚些时分在MicrosoftAzure上供给。

公司正在运用Omniverse来数字化他们的作业流程。Omniverse强壮的数字孪生使纬创,咱们的一个制作协作伙伴,可以将端到端出产周期时刻削减50%,缺点率下降40%。而比亚迪,国际上最大的电动轿车制作商,正在选用Omniverse进行虚拟工厂规划和零售装备。

转向轿车。收入为3.29亿美元,环比添加17%,同比添加11%。环比添加是由全球OEM客户的AI驾驶舱处理方案推动的,以及咱们自动驾驶途径的实力。同比添加首要是由自动驾驶推动的。咱们支撑小米成功推出了其首款电动轿车SU7轿车,该轿车根据NVIDIA DRIVE Orin,这是咱们为软件界说的AV车队供给的AI轿车核算机。

咱们还宣告了NVIDIA DRIVE Thor上的一些新规划成功,Orin的继任者,由新的NVIDIA Blackwell架构驱动,与包含比亚迪、小鹏、广汽埃安超和Neuro在内的几家抢先的EV制作商协作。DRIVE Thor方案从下一年开端出产车辆。

好的。转向其他P&L。GAAP毛利率环比扩展至78.4%,非GAAP毛利率为78.9%,原因是库存方针较低。正如上个季度所指出的,Q4和Q1都获益于有利的组件本钱。环比来看,GAAP运营费用添加了10%,非GAAP运营费用添加了13%,首要反映了与薪酬相关的本钱添加和核算及根底设施出资的添加。

在Q1,咱们以股票回购和现金股息的方法向股东返还了78亿美元。今日,咱们宣告了咱们股票的10比1拆分,6月10日是拆股调整后生意的榜首天。咱们还将股息添加了150%。

让我来谈谈第二季度的展望。总收入估量为280亿美元,正负2%。咱们估量全部商场途径都将完结环比添加。GAAP和非GAAP毛利率估量别离为74.8%和75.5%,正负50个基点,与咱们上个季度的议论共同。

优雅的英伟达:1Q25财报分析师电话会议的视图

关于全年,咱们估量毛利率将在中70%的范围内。GAAP和非GAAP运营费用估量别离约为40亿美元和28亿美元。全年OpEx估量将添加4%左右。

GAAP和非GAAP其他收入和费用估量将发生大约3亿美元的收入,不包含非相关出资的损益。GAAP和非GAAP税率估量将为17%,正负1%,不包含任何独立项目。更多的财政细节包含在CFO议论和其他信息中,这些信息可在咱们的IR网站上找到。

我现在想转交给Jensen,由于他想宣告一些议论。

好的,我将持续为您翻译剩下部分:

---

**詹森·黄 (Jensen Huang)**

谢谢,Colette。职业正在阅历一次严重革新。在咱们开端问答环节之前,让我给你们一些关于革新重要性的视角。下一次工业革命现已开端了。

公司和国家正在与NVIDIA协作,将传统数据中心的万亿美元装置根底改动为加快核算,并构建一种新式数据中心,AI工厂,以出产一种新产品,人工智能。

AI将为简直全部职业带来显着的出产率前进,并协助公司在扩展收入机遇的一同愈加节约本钱和动力。云服务供给商(CSP)是榜首批生成性AI的推动者。有了NVIDIA,CSP加快了作业负载以节约资金和电力。由NVIDIA Hopper驱动的token为他们AI服务带来了收入。NVIDIA云实例招引了来自咱们丰厚的开发人员生态体系的租借客户。

微弱且加快的需求——对Hopper途径上生成性AI练习和推理的需求加快推动了咱们的数据中心添加。跟着模型学会成为多模态,了解文本、语音、图画、视频和3D并学会推理和方案,练习持续扩展。

咱们的推理作业负载添加得十分快。有了生成性AI,推理——现在关于大规划快速token生成,现已变得十分杂乱。生成性AI正在推动从根底架构到全栈核算途径的改动,这将改动每一台核算机的交互方法。

从今日的信息检索模型,咱们正在转向一个答案和技能生成模型的核算。AI将了解上下文和咱们的目的,具有常识,推理、方案并履行任务。

咱们正在从底子上改动核算的作业原理以及核算机能做什么,从通用CPU到GPU加快核算,从指令驱动的软件到目的了解模型,从检索信息到履行技能,以及在工业层面上,从出产软件到生成token,制作数字智能。

Token生成将推动AI工厂的多年建造。除了云服务供给商外,生成性AI现已扩展到消费互联网公司和企业,主权AI,轿车和医疗保健客户,发明了多个数十亿美元的笔直商场。

Blackwell途径正在全面出产,并为万亿参数规划的生成性AI奠定了根底。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、混合和交换机、高速互连以及丰厚软件和协作伙伴生态体系的结合,让咱们可以扩展并供给比前几代更丰厚、更完好的AI工厂处理方案。

Spectrum-X为咱们打开了一个全新的商场,将大规划AI带到仅以太网数据中心。NVIDIA NIMs是咱们的新软件产品,它供给企业级优化的生成性AI,在CUDA上无处不在,从云端到本地数据中心再到经过咱们广泛的生态体系协作伙伴网络的RTX AI PC。从Blackwell到Spectrum-X到NIMs,咱们现已为下一波添加做好了预备。谢谢。

**西蒙娜·詹科夫斯基 (Simona Jankowski)**

谢谢,Jensen。咱们现在敞开电话发问。操作员,请问可以开端发问了吗?

**问答环节**

**操作员**

[操作员辅导] 您的榜首个问题来自Bernstein的Stacy Rasgon。请持续。

**Stacy Rasgon**

嗨,店员们。感谢承受我的发问。我的榜首个问题,我想深化一点到Blackwell的议论,它现在现已全面出产了。这是否意味着发货和交给时刻,假如这个产品——听起来不再只是样品了。假如现在现已在客户手中而且现已出产了,那意味着什么?

**Jensen Huang**

咱们将发货。嗯,咱们现已出产了一段时刻。但咱们的出产发货将从第二季度开端,并在第三季度添加,客户应该在第四季度树立数据中心。

**Stacy Rasgon**

了解了。所以本年,咱们会看到Blackwell的收入,听起来是这样?

**Jensen Huang**

咱们本年会看到许多Blackwell的收入。

**操作员**

咱们的下一个问题来自UBS的Timothy Arcuri。请持续。

**Timothy Arcuri**

十分感谢。Jensen,我想问你关于Blackwell和Hopper之间的布置,只是在体系性质以及对GB的需求方面。这个布置与Hopper有何不同?我之所以问,是由于大规划的液体冷却从前没有做过,而且在节点等级和数据中心内部都存在一些工程应战。那么这些杂乱性是否会使过渡延伸?你怎么看待这全部的开展?谢谢。

**Jensen Huang**

是的。Blackwell有许多装备。Blackwell是一个途径,而不是一个GPU。途径包含支撑空气冷却、液体冷却、x86和Grace、InfiniBand,现在是Spectrum-X,以及我在GTC上展现的十分大的NVLink范畴。所以关于一些客户来说,他们将进入他们现已运送Hoppers的现有数据中心装置根底。他们将很容易地从H100过渡到H200到B100。当然,Blackwell体系现已被规划为向后兼容,假如你乐意的话,从电气和机械上。当然,运转在Hopper上的软件仓库将在Blackwell上运转得十分好。咱们还一向在用整个生态体系来为Blackwell做预备,让他们为液体冷却做好预备。咱们现已有一段时刻在和生态体系议论Blackwell了。CSPs、数据中心、ODMs、体系制作商、咱们的供给链、冷却供给链、数据中心供给链,没有人会对Blackwell的到来以及咱们期望用Grace Blackwell 200交给的才干感到惊奇。GB200将会十分超卓。

**操作员**

咱们的下一个问题来自Bank of America Securities的Vivek Arya。请持续。

**Vivek Arya**

谢谢您承受我的问题。Jensen,您怎么确保您的产品有满足的运用率,而且没有由于供给严重、比赛或其他要素而导致提早或持有行为?底子上,您在体系中树立了哪些查看,让咱们信赖货币化与您十分微弱的发货添加坚持同步?

**Jensen Huang**

嗯,我想,我会先来一个大的视角,然后直接答复你的问题。数据中心对GPU的需求令人难以置信。咱们每天都在比赛。原因便是这样的运用像ChatGPT和GPT-4o,现在它将是多模态和Gemini及其添加和Anthropic以及全部CSPs正在进行的全部作业正在耗费全部可用的GPU。还有一长串生成性AI草创公司,大约有15,000到20,000家草创公司,它们在全部不同的范畴,从多媒体到数字人物,当然还有各种规划东西运用——出产力运用,数字生物学,将AV职业转移到视频,这样他们就可以练习端到端模型,扩展自动驾驶轿车的运营范畴。列表十分特别。咱们实际上正在比赛。客户给咱们施加了很大的压力,要求咱们赶快交给体系并树立起来。当然,我乃至还没有说到全部期望练习他们国家区域自然资源即他们的数据以练习他们区域模型的主权AI。有许多压力要求树立这些体系。总归,需求十分高,它超越了咱们的供给。长时刻来看,这便是——这便是我跳进来宣告一些议论的原因。长时刻来看,咱们正在彻底从头规划核算机的作业原理。这是一次途径改动。当然,它曩昔被比作其他途径改动。但时刻终究会证明,这比以往的途径改动要深化得多。原因就在于核算机不再仅是由指令驱动的核算机。它是一个目的了解核算机。它当然了解咱们与它的交互方法,但它也了解咱们的意思,咱们要求它做什么,而且它有才干进行推理,重复推导以拟定方案并提出处理方案。因而,核算机的每一个方面都在以这样的方法发生改变,即它不再是检索预录文件,而是现在生成上下文相关的智能答案。因而,这将改动全国际的核算仓库。你看到了一个构建,现实上,即使是PC核算仓库也将被彻底改动。这只是咱们实验室正在进行的作业以及咱们与全国际的全部草创公司、大公司和开发人员所做的作业的开端。这将十分特别。

**操作员**

咱们的下一个问题来自Morgan Stanley的Joe Moore。请持续。

**Joseph Moore**

太好了。谢谢您。我了解您方才所说的关于需求有多微弱。您对H200和Blackwell产品的需求很大。您是否估量在从Hopper和H100过渡到这些产品时会有任何暂停?人们会不会等候这些新产品,这将是一个具有的好产品?仍是您以为对H100的需求足以保持添加?

**Jensen Huang**

现代的英伟达:1Q25财报分析师电话会议的图片

咱们看到这个季度对Hopper的需求在添加。咱们估量——咱们估量在一段时刻内需求将超越供给,由于咱们现在过渡到H200,由于咱们过渡到Blackwell。每个人都急于让他们的根底设施上线。原因便是这样,由于他们正在省钱和挣钱,他们期望赶快做到这一点。

**操作员**

咱们的下一个问题来自Goldman Sachs的Toshiya Hari。请持续。

**Toshiya Hari**

嗨。十分感谢您承受我的问题。Jensen,我想问关于比赛的问题。我以为您的许多云客户都宣告了新的或更新到他们现有的内部方案,对吧,与他们与您协作的平行。您在中长时刻内将他们视为比赛者吗?在您看来,他们是否仅限于处理大部分内部作业负载,仍是他们未来可以更广泛地处理问题?谢谢。

**Jensen Huang**

咱们有几个不同之处。首要,NVIDIA的加快核算架构答应客户处理他们的管道的每个方面,从非结构化数据处理到预备练习,到结构化数据处理,像SQL这样的数据帧处理以预备练习,到练习到推理。正如我在议论中说到的,推理实际上现已发生了底子性的改变,现在是生成。不是企图检测一只猫,这自身就现已很难了,但它有必要生成一只猫的每个像素。因而,生成进程是底子不同的处理架构。这也是为什么TensorRT LLM如此受欢迎的原因之一。咱们经过咱们架构中相同的芯片前进了功能三倍。这告知你一些关于咱们架构的丰厚性和咱们软件的丰厚性。所以榜首,你可以用NVIDIA处理全部,从核算机视觉到图画处理,核算机图形学到全部模态的核算。由于通用核算现已走到了止境,国际现在正遭受核算本钱和核算动力胀大的困扰,加快核算是真实可持续的行进方法。所以加快核算是你节约核算资金的方法,是你节约核算动力的方法。所以咱们途径的多功能性导致数据中心的总具有本钱最低。第二,咱们在每个云中。所以关于正在寻觅途径进行开发的开发人员来说,从NVIDIA开端总是一个不错的挑选。咱们在本地,咱们在云端。咱们在任何巨细和形状的核算机中。咱们简直无处不在。所以这是第二个原因。第三个原因与咱们构建AI工厂的现实有关。这变得越来越显着,AI不只是是芯片问题。当然,它从十分好的芯片开端,咱们为咱们的AI工厂构建了许多芯片,但它是一个体系问题。现实上,即使是AI现在也是一个体系问题。它不只是是一个大型言语模型。它是许多大型言语模型一同作业的杂乱体系。所以NVIDIA构建这个体系使咱们可以优化咱们全部的芯片作为一个体系一同作业,可以具有作为一个体系运转的软件,并可以跨体系进行优化。只需举一个简略的比方,假如你有一个50亿美元的根底设施,你前进了两倍的功能,这是咱们一般做的,当你前进根底设施两倍的功能时,它的价值也是50亿美元。那个数据中心的全部芯片都不付出它。所以它的价值真的十分特别。这便是为什么今日,功能至关重要。这是在最高功能也是最低本钱的时分,由于带着全部这些芯片的根底设施本钱许多。赞助数据中心、运营数据中心、与之相关的人员、与之相关的电力、与之相关的房地产,全部这些都加起来。所以最高功能也是最低的TCO。

**操作员**

咱们的下一个问题来自TD Cowen的Matt Ramsay。请持续。

**Matthew Ramsay**

十分感谢。咱们下午好。Jensen,我在数据中心职业作业了一辈子。我从未见过你们以这样的速度推出新途径,一同取得如此巨大的功能前进,我是说,在练习中前进了5倍。你在GTC上谈到的一些东西,在推理中前进了30倍。观看这真是令人惊叹,但这也发明了一个风趣的比照,即你客户正在花费数十亿美元的当时一代产品,将比你的产品折旧周期更快地不再具有比赛力。所以假如你不介意的话,请谈一谈你怎么看待这种状况与客户的演化。跟着你转向Blackwell,你将具有一个十分大的装置根底,明显软件兼容,但装置根底的产品的功能远不如你的新一代产品。听听你怎么看待客户沿着这条路途的开展将是很风趣的。谢谢。

**Jensen Huang**

是的。我十分感激。我想提出三点。假如你的建造进展是5%,而假如你的建造进展是95%,你的感觉会十分不同。而且由于你横竖只进行了5%的建造,你就要尽或许快地建造。当Blackwell到来时,它会十分棒。然后在Blackwell之后,正如你说到的,咱们还有其他的Blackwell行将到来。然后有一个时刻短的——咱们现已向国际解说了咱们的一年节奏。咱们期望咱们的客户能看到他们的路线图尽或许远,但他们横竖只是在建造的前期,所以他们只需求持续建造,好吧。所以将会有许多芯片向他们涌来,他们只需求持续建造和假如乐意的话,经过功能均匀进入其间。这便是聪明的做法。他们今日需求挣钱。他们今日想省钱。时刻对他们来说真的很有价值。让我给你举一个时刻十分有价值的比方,为什么当即树立数据中心的主意如此有价值,以及为什么取得练习时刻的主意如此有价值。原因在于,下一个到达下一个首要里程碑的公司将宣告一个开创性的AI。而之后的第二个公司将宣告一个只前进了0.3%的东西。所以问题是,你是想成为重复供给开创性AI的公司,仍是供给0.3%更好的公司?这便是为什么这场比赛,就像全部技能比赛相同,比赛十分重要。你看到这种比赛在多家公司中打开,由于这对具有技能领导地位,让公司信赖领导地位并期望树立在你们的途径上十分重要,而且知道他们正在树立的途径将越来越好。所以领导地位十分重要。练习时刻十分重要。提早三个月完结练习时刻,以便提早三个月开端一个为期三个月的项目,提早三个月开端练习是十分要害的。这便是为什么咱们现在如此张狂地树立Hopper体系,由于下一个里程碑就在角落处。所以这是第二个原因。你方才说到的榜首个议论实际上是一个十分好的议论,即咱们怎么——咱们开展得如此之快,而且如此敏捷地推动它们?由于咱们具有全部的仓库。咱们真的在这里构建了整个数据中心,咱们可以监控全部,丈量全部,跨全部进行优化。咱们知道全部的瓶颈在哪里。咱们不是在猜想。咱们不是在制作看起来不错的PowerPoint幻灯片。咱们实际上——咱们也喜爱咱们的PowerPoint幻灯片看起来不错,但咱们交给的体系在规划上体现杰出。咱们之所以知道它们在规划上体现杰出的一个有点奇观的作业是,咱们在这里构建了整个AI根底设施,然后咱们将其解构并集成到客户的数据中心,不管他们喜爱什么。但咱们知道它将怎么体现,咱们知道瓶颈在哪里。咱们知道咱们需求在哪里与他们协作进行优化,并知道咱们需求协助他们改善他们的根底设施以完结最佳功能。这种对整个数据中心规划的深化了解是今日让咱们异乎寻常的底子原因。咱们从头开端构建每一个芯片。咱们切当地知道整个体系是怎么进行处理的。所以咱们知道它将怎么体现,以及怎么运用每一个代际的每一个体现。所以我感谢。这便是三点。

**操作员**

您的下一个问题将来自Evercore ISI的Mark Lipacis。请持续。

**Mark Lipacis**

嗨。谢谢承受我的问题。Jensen,曩昔,你从前调查到,通用核算生态体系一般主导了每个核算年代。我信赖观念是它们可以习惯不同的作业负载,取得更高的运用率,下降核算周期的本钱。这是你推动通用GPU CUDA生态体系用于加快核算的动机。假如我误解了那个调查,请告知我。所以问题是,鉴于推动对您处理方案需求的作业负载是由神经网络练习和推理驱动的,这表面上看起来像是有限数量的作业负载,那么这也或许好像倾向于定制处理方案。所以问题是通用核算结构是否变得更有危险,或许这些作业负载的变异性或快速开展是否足以支撑前史通用结构?谢谢。

**Jensen Huang**

是的。NVIDIA的加快核算是多功能的,但我不会称之为通用。比方,咱们不会很拿手运转电子表格。那真的是为通用核算规划的。所以有一个——操作体系代码的操控循环或许对通用核算不是很棒,而不是加快核算。所以我会说我咱们是多功能的。多年来,咱们可以加快许多运用范畴,但它们都有许多的共性。或许有一些深化的差异,但也有共性。它们都是可以并行运转的,都是重度线程化的。5%的代码代表了99%的运转时刻,例如。这些都是加快核算的特点。咱们途径的多功能性以及咱们规划整个体系的现实是,在曩昔大约10年左右的时刻里,你们在这些电话会议中问我的草创公司的数量相当大。每一个,由于他们的架构的软弱性,当生成性AI呈现时,或许当交融模型呈现时,当现在行将呈现的下一个模型时。突然间,带有回忆的大型言语模型,由于大型言语模型需求有回忆以便与您进行对话,了解上下文。突然间,Grace内存的多功能性变得十分重要。所以每一个这些生成性AI的前进和AI的前进真的在寻求不是为一个模型规划的一个小部件。可是要有一些对这个整个范畴真实有优点的东西,但遵从软件的首要准则,软件将持续开展,软件将持续变得更好更大。咱们信赖这些模型的扩展。有许多原因,咱们将在未来几年内轻松扩展一百倍,咱们期待着它,咱们现已预备好了。所以途径的多功能性真的是要害。假如你太软弱和太具体了,你还不如直接构建一个FPGA或许构建一个ASIC或许相似的东西,但那简直不是核算机。

**操作员**

咱们的下一个问题将来自Jefferies的Blayne Curtis。请持续。

**Blayne Curtis**

谢谢承受我的问题。实际上有点猎奇,我的意思是,在供给受限的状况下,你为我国推出了一个产品,H20。我假定对它的需求量很大,但明显,你还在极力用其他Hopper产品为你的客户供给服务。只是有点猎奇你怎么看待下半年的状况。你能具体阐明一下对出售以及毛利率的影响吗?

**Jensen Huang**

我没有听到你的问题。有些东西被消音了。

**Simona Jankowski**

H20以及你怎么看待在不同的Hopper产品之间分配供给。

**Jensen Huang**

嗯,咱们有咱们尊重的客户,咱们尽最大尽力为每个客户服务。确实,咱们在华事务比曩昔低得多。由于对咱们技能的约束,现在在我国的比赛也愈加剧烈。所以这些都是真的。可是,咱们持续尽最大尽力为那里商场的客户服务,而且尽咱们所能,咱们将尽最大尽力。但我以为总体上,咱们关于需求超越供给的议论是针对整个商场的,特别是对H200和Blackwell年末的时分。

**操作员**

咱们的下一个问题将来自Raymond James的Srini Pajjuri。请持续。

**Srini Pajjuri**

谢谢。Jensen,实际上更多的是对你所说的弄清。GB 200体系,看起来对体系的需求量很大。前史上,我想你卖了许多HGX板和一些GPU,而体系事务相对较小。所以我很猎奇,为什么现在你看到如此激烈的需求对体系的未来?这只是是由于TCO仍是其他什么,或许是架构?

**Jensen Huang**

是的。我感谢这一点。实际上,咱们出售GB200的方法是相同的。咱们别离全部有意义的组件,并将它们集成到核算机制作商中。本年有100种不同的核算机体系装备行将推出Blackwell。这太离谱了。坦率地说,Hopper只要一半,但那是在它的顶峰。它一开端乃至比那还少。所以你将看到液体冷却版别,空气冷却版别,x86版别,Grace版别,等等。有许多体系正在规划中。它们由咱们全部巨大的协作伙伴生态体系供给。没有什么真的改动了。当然,Blackwell途径极大地扩展了咱们的供给。CPU的集成和核算密度的紧缩,液体冷却将在数据中心节约许多资金,更不用说愈加节能了。所以这是一个更好的处理方案。它的扩展性更强,意味着咱们为数据中心供给更多的组件,每个人都赢了。数据中心取得了更高的功能,网络从网络交换机,网络。当然,NICs,咱们现在有以太网,所以咱们可以将NVIDIA AI带到大规划的NVIDIA AI客户,他们只知道怎么操作以太网,由于他们具有的生态体系。所以Blackwell愈加扩展。这一代咱们为客户供给了更多。

**操作员**

咱们的下一个问题将来自Truist Securities的William Stein。请持续。

**William Stein**

太好了。谢谢承受我的问题。Jensen,在某个时分,NVIDIA决议,虽然有相当好的CPU可用于数据中心操作,但你根据ARM的Grace CPU供给了一些真实的优势,这使得这项技能值得交给给客户,或许与本钱或功耗或技能协同Grace和Hopper,Grace和Blackwell有关。你能处理是否有或许呈现相似的状况,在客户端,虽然有十分好的处理方案,你现已强调了Intel和AMD是十分好的协作伙伴,供给了十分好的x86产品,但或许在新式的AI作业负载中,NVIDIA可以供给的优势,其他人或许更有应战?

**Jensen Huang**

嗯,你说到了一些十分好的理由。确实,关于许多运用程序来说,咱们与x86协作伙伴的协作十分棒,咱们一同构建了超卓的体系。可是Grace让咱们可以做一些在今日的体系装备中不或许的作业。Grace和Hopper之间的内存体系是共同且衔接的。两者之间的互连,称它们为两个芯片简直很古怪,由于它就像一个超级芯片。这两个经过每秒数TB的接口衔接在一同。这太离谱了。而Grace运用的内存是LPDDR。这是榜首个数据中心级低功耗内存。所以咱们在每个节点上都节约了许多电力。终究,由于架构,由于咱们现在可以用整个体系创立自己的架构,咱们可以创立一个具有真实大的NVLink域的东西,这关于下一代大型言语模型的推理至关重要。所以你看到GB200有一个72节点NVLink域。这就像72个Blackwell衔接在一同成为一个巨大的GPU。所以咱们需求Grace Blackwells才干做到这一点。所以有架构原因,有软件编程原因,然后还有体系原因是咱们有必要以那种方法构建它们。所以假如咱们看到像那样的机遇,咱们会探究它。正如你在昨日的构建中看到的,我以为十分棒,Satya宣告了下一代PC,Copilot+ PC,它在NVIDIA的RTX GPU上运转得十分好,这些GPU正在笔记本电脑中发货。但它也支撑ARM。所以它乃至为PC的体系立异打开了机遇。

**操作员**

咱们的终究一个问题来自Cantor Fitzgerald的C.J. Muse。请持续。

**C.J. Muse**

下午好。感谢承受问题。Jensen,这是一个更长时刻的问题。我知道Blackwell乃至还没有推出,但明显,出资者是前瞻性的,而且在潜在的来自GPU和定制ASIC的比赛中,你怎么看待NVIDIA的立异脚步和你在曩昔十年中的百万倍扩展,十分令人形象深化。CUDA、Varsity、Precision、Grace、Cohere和Connectivity。当你向前看时,未来十年需求处理什么冲突?或许更重要的是,你今日乐意和咱们共享什么?

**Jensen Huang**

嗯,我可以宣告在Blackwell之后还有另一个芯片。咱们处于一年的节奏中。所以你还可以盼望咱们以十分快的节奏推出新的网络技能。咱们宣告了Spectrum-X用于以太网。但咱们将竭尽全力以太网,咱们有一个十分令人兴奋的路线图行将推出以太网。咱们有一个丰厚的协作伙伴生态体系。Dell宣告他们将把Spectrum-X推向商场。咱们有一个丰厚的客户和协作伙伴生态体系,他们将宣告将咱们的整个AI工厂架构推向商场。所以关于那些想要终究功能的公司,咱们有InfiniBand核算织物。InfiniBand是一个核算织物,以太网是一个网络。InfiniBand多年来,开端是一个核算织物,变成了一个越来越好的网络。以太网是一个网络,有了Spectrum-X,咱们将使它成为一个更好的核算织物。咱们彻底致力于全部三个链接,NVLink核算织物用于单一核算域,InfiniBand核算织物,以太网网络核算织物。所以咱们将以十分快的速度推动全部三个。所以你将看到新的交换机呈现,新的NICs呈现,新的才干,新的运转在全部三个上面的软件仓库。新的CPU,新的GPU,新的网络NICs,新的交换机,一堆行将到来的芯片。全部这些,美好的作业是全部这些都运转CUDA。它们都运转咱们的整个软件仓库。所以你今日对咱们的软件仓库的出资,在不做任何作业的状况下,它只会变得更快,更快,更快,更快。假如你今日对咱们的架构进行出资,在不做任何作业的状况下,它将进入更多的云和更多的数据中心,全部都运转。所以我以为咱们带来的立异脚步将前进才干,一方面,下降TCO另一方面。所以咱们应该可以以NVIDIA架构扩展到这个新的核算年代,并开端这场新的工业革命,咱们将大规划地制作不只是是软件,咱们将制作人工智能token。谢谢。著作权归作者全部。商业转载请联络作者取得授权,非商业转载请注明出处。危险提示:本文所说到的观念仅代表个人的定见,所触及标的不作引荐,据此生意,危险自傲。

告发/反应

相关文章

英伟达CEO黄仁勋到访北京 表态期望持续与我国协作

  高岩 马剑飞/央视财经  4月17日,我国贸促会会长任鸿斌在北京与英伟达公司首席执行官黄仁勋举行会谈。这是黄仁勋时隔3个月再次到访北京。黄仁勋在会谈中表明,我国是英伟达非常重要的商场,期望持续与我...

“英伟达坚持不懈服务中国市场”,时隔3个月到访,黄仁勋最新表态!

央视新闻音讯,4月17日,应我国贸促会约请,英伟达公司首席执行官黄仁勋抵达北京。我国贸促会会长任鸿斌与黄仁勋举行会谈。这是黄仁勋时隔3个月再次到访北京。黄仁勋在会谈中表明,我国是英伟达非常重要的商场,...

英伟达CEO黄仁勋时隔3个月再次到访北京,期望持续与我国协作

4月17日,应我国贸促会约请,英伟达公司首席执行官黄仁勋抵达北京。我国贸促会会长任鸿斌与黄仁勋举行会谈。这是黄仁勋时隔3个月再次到访北京。黄仁勋在会谈中表明,我国是英伟达非常重要的商场,期望持续与我国...

黄仁勋讲演没能解救英伟达股价 华尔街泼冷水:没有让人眼前一亮的东西

当地时刻3月18日,英伟达CEO(首席执行官)黄仁勋在加州圣何塞举办的英伟达AI(人工智能)盛会GTC 2025上宣告主题讲演。在长达2小时的讲演中,黄仁勋展望了AI科技演进,发布了英伟达的Black...

独家|英伟达回应黄仁勋访华:定时与政府会晤评论产品技能

4月17日,英伟达方面向榜首财经记者独家回应公司CEO黄仁勋时隔3个月再次到访我国,英伟达称:“咱们定时与政府领导人会晤,评论咱们公司的产品和技能。”(榜首财经记者 钱童心)(本文来自榜首财经)告发/...

Wedbush:黄仁勋CES主题讲演或聚集于英伟达(NVDA.US)AI愿景

智通财经APP得悉,英伟达(NVDA.US)首席执行官黄仁勋将于周一在2025年美国消费电子展(CES)上宣布开幕主题讲演。投行Wedbush表明,黄仁勋的讲演可能会聚集于这家人工智能芯片巨子对人工智...

友情链接: