← 返回列表

Blog 详情

NVIDIA向AWS出售百万GPU:史上最大单笔AI芯片云计算协议,2027年前交付

2026年3月19日 · WaymoChang

核心摘要

NVIDIA将向亚马逊云服务(AWS)出售100万颗GPU及一系列AI推理芯片,协议覆盖至2027年底。这是迄今规模最大的单笔AI算力云采购协议,标志着NVIDIA与AWS的深度绑定正式从「供应商关系」升级为「战略级AI基础设施伙伴」,也进一步巩固了NVIDIA在AI计算供应链中不可替代的地位。

【版权说明】本文为中文深度解读与观点整理,基于公开报道综合分析,不是原文逐字翻译。原始报道版权归 Reuters、CNBC 等信源所有。

原始信源:

1) Reuters(2026-03-19)https://www.reuters.com/business/retail-consumer/nvidia-sell-1-million-chips-amazon-by-end-2027-cloud-deal-2026-03-19/

2) CNBC(2026-03-19)https://www.cnbc.com/2026/03/19/nvidia-amazon-aws-gpu-chips-deal.html

一、交易规模:百万GPU意味着什么

100万颗GPU并非一个抽象数字。以NVIDIA Blackwell B200单卡估算,100万卡折算算力相当于整个AWS当前GPU算力存量的数倍——如果全部交付并上线,这将使AWS在AI推理市场的算力供给能力出现量级跃升。

这笔协议还包含NVIDIA的网络互联设备(NVLink、InfiniBand)和新一代AI推理芯片,意味着Amazon不只是买卡,而是在整体采购一套「AI推理基础设施栈」。这与NVIDIA在GTC 2026上发布Vera Rubin时强调的「系统级销售」逻辑完全吻合:芯片、互联、软件打包,形成客户迁移壁垒。

二、战略意义:AWS的算力独立性之争

这笔交易有一个隐含的战略背景:AWS一直在大力发展自研芯片(Trainium for training、Inferentia for inference),其目标是降低对NVIDIA的依赖。但现实是,自研芯片的软件生态和性能仍难以全面替代NVIDIA,尤其在大模型推理场景下。

与NVIDIA签署百万量级协议,事实上说明两点:

AWS短期内无法用自研芯片完全替代NVIDIA,不得不持续大规模采购以满足客户需求

NVIDIA的GPU依然是客户选择云服务时的首要考量——AWS必须保证GPU供给,否则企业客户会转向Azure或Google Cloud

这是算力供应链的「双重捆绑」:AWS依赖NVIDIA供货,NVIDIA依赖AWS渠道触达终端AI企业客户。双方都没有动力破坏这种关系。

三、市场信号:AI算力需求仍在加速

市场常见的担忧是「AI算力泡沫」——超买可能导致云厂商未来几年资本支出大幅收缩。但这笔协议传递了相反的信号:

2026年初签署2027年底才完成交付的协议,意味着AWS预判未来18个月AI需求仍将保持高增长

协议规模暗示AWS的GPU利用率极高,现有库存已不足以支撑预期需求

NVIDIA GTC上宣布的「万亿美元订单」并非夸大——百万AWS GPU只是其中一个组成部分

四、对竞争格局的影响

这笔交易对AI芯片竞争格局有三层影响:

1. AMD压力更大:AMD MI300X在数据中心市场有一定份额,但百万GPU量级的NVIDIA-AWS协议意味着AWS短期内几乎不会大批次转向AMD。AMD需要更显著的性能/成本优势才能突破

2. Google/Microsoft的应对:Azure与Google Cloud将面临投资者压力,被要求披露类似规模的NVIDIA采购承诺,以证明自身在AI基础设施上的竞争力

3. 自研芯片策略不变但节奏放缓:AWS的Trainium/Inferentia路线图不会因此放弃,但规模化时间表可能延后——在NVIDIA供应充足的情况下,客户自然倾向于使用更成熟的生态

五、结语:算力供应链的「世代锁仓」正在发生

百万GPU协议不是采购,是战略锁仓。当AWS的推理基础设施、运维团队、客户使用习惯都围绕NVIDIA CUDA生态建立之后,切换成本将以年计。这正是NVIDIA在GTC上传递的最核心信号:赢得基础设施世代的竞争,比赢得单张芯片的性能对比重要得多。