要问回顾:
1、特朗普召开首次内阁会议,有人对马斯克颇有微词
2、中金银河合并新闻引关注
3、特朗普威胁对欧征25%关税
4、DOGE爆发内讧,三分之一员工集体辞职
5、特朗普推500万元美国移民“金卡”
6、美众议院投票通过共和党预算决议
7、美联储最喜欢的衰退指标再次发出危险信号(CNBC)
8、乌克兰与美国达成矿产协议
9、比特币ETF在一天内遭遇创纪录的10亿美元资金流出
10、英伟达预测第一季度营收高于预期
英伟达财报电话会分析师问答纪要与老黄的总结:
关于训练与推理之间界限逐渐模糊,客户可能怎样使用专门的推理集群?这对 Nvidia 的影响如何?
回答摘要(Jensen Wong 回答):
目前存在三个“扩展定律”:
预训练扩展定律: 多模态数据和推理数据均在推动基础模型扩展。
后训练扩展定律: 利用强化学习和人类反馈生成大量合成数据,后训练计算量远大于预训练。
推理扩展定律: 推理过程中(长思考推理)可能消耗比一次性推理多 100 倍甚至更多的计算。
为满足不同需求,Nvidia 架构高度灵活,能够应对预训练、后训练和推理三个阶段的不同配置,尤其 Blackwell 针对推理阶段优化以实现 25 倍的吞吐提升。
关于 GB200 架构的复杂性和系统级瓶颈问题,目前大规模部署进程如何?NV Link 72 平台的前景如何?
回答摘要:
目前已向大量云服务提供商交付了产品,350 家工厂生产 150 万个组件保证了系统大规模量产。
供应链已经恢复至正常,客户及合作伙伴对未来 GB200 系统的部署充满信心。
首先询问 Q1 是否为毛利率底部;其次询问公司如何看待强劲的市场需求以及通过哪些指标对未来增长保持信心?
回答摘要(Colleette Cress 和 Jensen Wong 回答):
Q1 在毛利率上,因 Blackwell 正处于初期投产阶段,毛利率预计维持在低 70% 区间,但随着产品完全启动,毛利率有望提升到中 70% 左右。
对需求的信心主要基于客户资本支出计划、数据中心扩容规模,以及 AI 软件向云端和企业级渗透的长远趋势。未来,企业和云服务提供商的市场份额都将增长,从而全面推动 Nvidia 的计算解决方案普及。
关于下一代 Blackwell Ultra 产品的需求动力,客户与供应链如何同时应对当前 Blackwell 和下一代产品的平行推进?是否按计划在下半年推出?
回答摘要(Jensen Wong 回答):
Blackwell Ultra 计划在下半年推出,产品架构与现有系列保持一致,尽管当前从 Hopper 到 Blackwell 的转换经历了挑战,但团队已完全恢复并大幅提高产能。
公司已与所有合作伙伴及客户密切沟通,确保平稳过渡到下一代产品,同时预告了后续更多新平台(如 Vera Rubin)的发布。
关于自定义 ASIC 与通用 GPU 之间的平衡问题,客户会否采用同时包含 GPU 与 ASIC 的异构架构?或两者是否会各自独立发展?
回答摘要(Jensen Wong 回答):
Nvidia 的 GPU 架构具有高度通用性,能够兼顾自回归模型、扩散模型、视觉、文本及多模态模型等任务。
相比专用 ASIC,GPU 产品在系统构成、软件生态及整体性能方面具备明显优势。因此,公司认为其产品在面对多样化 AI 工作负载时仍更具竞争力,同时 GPU 产品已在所有形式的数据中心(包括云端、内部以及机器人系统中)广泛部署。
此外,产品的性能和能效优势直接转化为数据中心的投资回报,进一步巩固了 Nvidia 的市场地位。
关于地理分布的担忧:美国市场环比增长显著,而出口管制影响下中国市场占比维持在较低水平。对此,公司如何看待这种区域性差异及其对未来增长的影响?
回答摘要(Jensen Wong 回答):
中国市场虽然受出口管制影响,占比较此前有所下降,但整体结构保持稳定。
Nvidia 认为 AI 已经进入主流应用领域,不论是美国、欧洲还是中国,未来 AI 将渗透到每个行业,推动各地区市场持续发展。
关于企业市场与大型云服务提供商 (CSP) 在数据中心消费中的比例、未来比例如何变化,以及新一代 AI 应用对数据中心硬件及生态环境的影响。
此外,还涉及到过去几年基础设施部署的换代周期问题,是否会迎来更新换代的机会?
回答摘要(Jensen Wong 和 Colleette Cress 回答):
企业级市场和 CSP 在 AI 相关基础设施消费中各有优势,未来企业市场可能成为更大的一块蛋糕,尤其是在企业整体数字化转型和“Agentic AI”(面向员工生产力工具方面)的推动下。
关于换代周期:虽然现有系统(如 Hopper、Pascal)依旧在服务于数据处理和数据预处理等场景,但更高性能、能效更优的新一代产品(如 Blackwell)正在快速替代旧平台,整个换代过程是渐进且有序的,同时旧有基础设施依然在一些轻负载场景中发挥作用。
继续关注毛利率的问题,询问公司对 Q4 后半段毛利率逐季提升、最终达到中 70% 区间的信心,同时考虑到国际关税和其他不确定因素的影响。
回答摘要(Colleette Cress 回答):
毛利率由多个因素构成,Blackwell 系统的不同配置为公司提供了改善毛利率的多种路径。
随着大规模生产的推进和内部流程优化,公司有信心在未来几个季度内逐步实现毛利率提升到中 70% 区间。
对于关税问题,目前仍存在不确定性,公司将根据美国政府的进一步政策动态作出相应调整,同时严格遵守相关出口管制规定。
老黄的总结:
对 Blackwell 的需求势头非比寻常。人工智能正从感知和生成阶段迅速进化到推理阶段。在推理 AI 方面,我们观察到另一条扩展定律,即“推理时间扩展”或“测试时间扩展”:模型投入更多计算时,推理过程越充分,给出的答案就越智能。像 OpenAI 的 o3、DeepSeek R1 等模型正是采用了推理时扩展方法的推理模型,其计算资源消耗可以达到普通推理的百倍甚至更多。未来,推理模型的计算需求将会更高。DeepSeek R1 已经引发了全球的热情。这不仅是一项卓越的创新,更重要的是,它开源了世界级的推理 AI 模型。几乎所有的 AI 开发者都在使用 R1、链式思维(chain of thought)和类似 R1 的强化学习技术来提升模型性能。
正如我之前提到的,当前驱动 AI 计算需求的扩展定律共有三条:
传统的预训练扩展定律依然有效——基础模型正通过多模态融合不断被优化,预训练规模持续扩大,但单靠预训练已不再足够;
后训练扩展维度——强化学习、微调以及模型蒸馏等后训练技术所需的计算量往往比单纯的预训练高出几个数量级;
推理时间扩展——单个查询在推理过程中可能需要消耗百倍以上的计算资源。
我们正是为这一时刻设计了 Blackwell:一个能够无缝实现预训练、后训练和推理扩展的统一平台。Blackwell 的 FP4 Transformer 引擎、MVLink 72 高速互连架构以及全新的软件技术,使其在推理 AI 模型的处理上比 Hopper 快了 25 倍。无论是在何种配置下,Blackwell 均已全面投产,每个 Grace Blackwell NV Link 72 机架都是一项工程奇迹——它融合了 350 个生产基地累计生产的近 150 万个组件,由近 10 万名工厂操作人员协同制造。
人工智能正以光速前进,我们如今正站在推理 AI 和推理时间扩展的起点。但这仅仅是 AI 时代的开始。多模态 AI、企业级 AI、主权 AI 乃至物理 AI 都已指日可待。我们预期 2025 年将迎来强劲增长。展望未来,数据中心将会将大部分资本支出投入到加速计算和人工智能领域,数据中心也将逐步转型为 AI 工厂,每家公司无论是租用还是自建,都将拥有自己的 AI 工厂。
感谢各位今天的参与。欢迎在几周后的 GTC 大会上与我们共同探讨 Blackwell、Blackwell Ultra、Ruben 以及其他全新计算、网络、推理 AI 和物理 AI 产品。
谢谢大家。