英伟达财报电话会议:黄仁勋透露这些关键信息
1. 财报核心数据亮眼,营收与利润双双刷新纪录
在最新发布的2025财年第一季度财报中,英伟达实现营收260亿美元,同比增长262%,远超市场预期的245亿美元。净利润达到148亿美元,同比增长高达628%。这一增长主要得益于数据中心业务的强劲表现,该板块收入达到226亿美元,占总营收的87%。黄仁勋在电话会议中指出,AI计算需求呈现指数级增长,全球科技企业正在加速部署基于GPU的大规模训练和推理集群。值得注意的是,数据中心业务同比增长378%,成为公司增长的核心引擎。与此同时,游戏业务收入为26亿美元,虽同比增幅相对温和(+18%),但受益于RTX 40系列显卡的持续热销以及Blackwell架构新产品的预热,仍保持稳健态势。整体毛利率提升至78.4%,高于上一季度的76.9%,反映出高端产品结构优化与供应链效率提升的双重作用。
2. Blackwell平台全面启动,量产与客户落地进展明确
黄仁勋重点介绍了新一代AI芯片架构Blackwell的推进情况。他确认,GB200超级芯片已进入大规模量产阶段,并开始向包括微软、谷歌、亚马逊、Meta在内的主要云服务商交付。每台搭载GB200的服务器可提供高达30倍于前代Hopper架构的推理性能,同时能效比提升25倍,适用于大语言模型、推荐系统及生成式AI工作负载。英伟达预计2024年下半年Blackwell相关收入将显著放量,全年数据中心收入有望突破千亿美元。此外,公司已与全球超过40家OEM厂商达成合作,共同开发基于Blackwell的服务器系统,涵盖联想、戴尔、HPE及国内的浪潮、新华三等。黄仁勋强调,Blackwell不仅是硬件升级,更是一整套软件栈、网络互联与电源管理的系统性创新,标志着AI基础设施进入“万亿参数模型常态化”时代。
3. 软件生态持续深化,CUDA护城河进一步拓宽
在硬件领先的同时,英伟达正加速构建以CUDA为核心的全栈AI软件生态。黄仁勋提到,目前全球已有超过400万开发者使用CUDA平台,同比增长45%。公司推出新版AI Enterprise软件套件,集成NIM微服务架构,使企业可在本地或云端快速部署Llama 3、Falcon等主流大模型,部署时间从数周缩短至数小时。此外,NVIDIA DGX Cloud服务已接入AWS、Azure与Oracle Cloud,为企业提供即用型AI训练环境。财报显示,软件及相关服务收入同比增长89%,达到19亿美元,显示出从硬件销售向平台化服务转型的成功路径。黄仁勋特别指出,未来AI竞争不再仅限于芯片算力,而在于“谁拥有最完整的计算堆栈”,英伟达正通过NGC模型库、RAPIDS数据分析工具链与AI Foundations服务,巩固其在AI开发流程中的中枢地位。
4. 全球AI基础设施扩张,中国市场的应对策略清晰
面对美国对华出口限制的持续加码,黄仁勋在会议中回应了中国市场的发展策略。他表示,尽管A100/H100等高端芯片无法直接出口,但英伟达已推出符合规定的H20芯片,并通过本地合作伙伴支持中国客户的AI研发需求。目前,腾讯、阿里、百度、字节跳动等头部企业均在采用定制化方案推进大模型训练。同时,英伟达在中国大陆保留了完整的研发、技术支持与生态系统团队,持续推动Omniverse、自动驾驶DRIVE平台等非受限业务发展。黄仁勋强调,全球AI浪潮不可逆,任何市场都不应被孤立,公司将遵循法规前提下,最大限度保障客户的技术演进路径。从长期看,AI基础设施的全球化协作仍是产业发展的主旋律。