近年来,人工智能芯片巨头NVIDIA与AMD的竞争愈发激烈。尽管NVIDIA在AI计算解决方案市场占据主导地位,但在2023年末,AMD推出号称全球最快的AI芯片Instinct MI300X后,开始对NVIDIA构成了挑战。然而,经过一段时间的市场检验,Richard's Research Blog的一项分析表明,虽然AMD的MI300X成本显著高于NVIDIA的H200,但在推理生产应用方面,H200的性能却超过了MI300X超过40%,这使得NVIDIA较高的利润率显得合理。
AMD MI300X:更多晶体管、更大内存容量、更先进的封装……以及更高的成本
分析进一步比较了这两款最畅销产品的芯片规格,并探讨了它们的成本效益。NVIDIA的H200采用的是台积电的N4工艺节点,拥有800亿个晶体管;而AMD的MI300X则使用了1530亿个晶体管,并采用了台积电的5纳米工艺制造。在内存配置上,NVIDIA的H200拥有141GB的HBM3e内存,而AMD的MI300X则配备了192GB的HBM3内存。至于封装技术,NVIDIA的H200使用的是台积电的CoWoS 2.5D技术,而AMD的MI300X则升级到了CoWoS/SoIC 3D技术,总共包含20颗芯片/堆栈,这大大增加了复杂性。
根据分析,在相同的工艺下,逻辑计算芯片中的晶体管数量与总芯片尺寸/总成本大致成比例。因此,配备几乎两倍晶体管数量的AMD MI300X,成本估计是NVIDIA H200的两倍左右。同时,考虑到MI300X比H200多出36%的内存容量以及更高的封装复杂度,其制造成本显然要高出许多。另外,由于NVIDIA目前在市场上是主要的HBM用户,所以可能享受较低的采购成本优势。
NVIDIA 80%的利润率:乍一看很高,但实际上有道理
另一方面,根据MLPerf测试的结果,在实际部署用于推理生产的应用中,H200的表现优于MI300X超过40%。这意味着如果AMD希望保持类似的性价比(这也是云服务商客户所要求的),那么MI300X的价格必须比H200低大约30%。此情景并未考虑其他因素,例如NVIDIA与二级供应商的熟悉程度、CUDA架构及相关软件等。
因此,分析进一步指出,尽管NVIDIA高达80%的毛利率乍一看很高,但实际上这为竞争对手留下了生存空间。如果NVIDIA将其产品定价在70%的毛利率以下,则竞争对手可能会面临负运营利润的困境。
除了通过先进的硬件和软件技术实现更好的产品性能和更低的成本外,NVIDIA还在诸如研发和昂贵光罩规模化的非技术经济因素上表现出色,这些都会影响到运营支出(OPEX)和成本分配。同时,NVIDIA对其客户的长期承诺、信心及上市时间也起到了关键作用。
从最新的财报来看,NVIDIA表示Hopper系列的需求依然强劲,而Blackwell芯片有望在第四季度带来数十亿美元的收入。相比之下,AMD的Instinct MI300系列成为了主要的增长动力,预计今年将带来超过45亿美元的销售额。