随着各超大规模云服务商和主要云基础设施构建商纷纷设计自己的CPU和AI加速器,这让那些向他们销售计算引擎的厂商感受到了巨大压力。这其中不仅包括英特尔、AMD和英伟达,还包括Arm服务器芯片领域的新秀Ampere Computing,Ampere Computing与Intel、AMD、Nvidia等计算引擎供应商展开竞争,同时也在AI处理领域崭露头角。
在服务器CPU领域,云巨头占据了服务器营收和出货量的一半以上,而在作为AI加速器主导力量的服务器GPU领域,这些公司可能占据了65%至75%的收入和出货量(由于缺乏具体数据,这一比例存在较大浮动)。随着通用人工智能(GenAI)的日益普及和GPU供应的增加,AI加速器的市场份额将与服务器CPU趋同。
今天,Ampere Computing宣布将推出一款搭载自家设计的Arm核心、网状互连以及自家集成AI加速器的Arm服务器CPU,命名为“Aurora”,预计将在2025年底或2026年初面世。该路线图展示了Altra和AmpereOne处理器的过去、现在和未来状态。
Aurora芯片的最大变化在于Ampere Computing将加入自家设计的AI引擎——很可能是一个比平面矩阵乘法引擎更灵活的张量核心,具体细节暂未透露。这款Aurora芯片将拥有多达512个核心,并至少配备16条内存通道,而24条通道可能会更均衡(虽然混合使用HBM4和DDR6内存是可能的,但考虑到在CPU中添加HBM内存的高成本,这种可能性并不大)。该芯片还将配备自家网状互连,以连接CPU核心和AI核心。
未来的A2+和A3核心将会拥有更多向量单元,但可能不是更宽的单元。(AMD决定在其“Genoa”Epyc 9004系列中使用四个128位单元,而不是一个512位向量或两个256位向量。)AmpereOne和AmpereOne M的每个核心拥有两个128位向量单元,而AmpereOne MX和AmpereOne Aurora的每个核心将拥有四个128位向量单元。因此,这些芯片将具有不同级别的AI加速能力,而Aurora芯片的向量单元不会从A3核心中移除,以在给定工艺中的芯片上容纳更多核心。
通常数据中心对功耗有严格限制,高功耗的GPU加速系统需要液体冷却。然而,Aurora芯片将保持空气冷却,即使内置大型AI引擎。这种空气冷却设计将提供部署的灵活性,以适应广泛的数据中心环境,且符合行业气候目标。
Ampere还分享了一系列基准测试和性能声明,这里就不做评价了。
Arm架构在服务器市场逐渐获得认可,Ampere Computing作为Arm服务器芯片的新秀,正逐步扩大其市场份额。随着Aurora CPU的推出,Ampere Computing在AI加速和服务器CPU领域也在进一步拓展,其集成AI加速器的设计将满足日益增长的AI计算需求。
赋创(EMPOWERX)作为高性能计算领域的先锋,一直致力于推动技术创新,我们会及时关注最前沿的科技动态,为客户提供高效、可靠的计算解决方案。
如果您有服务器相关的问题或需要进一步了解更详细的信息,请随时私信我们【4006-997-916 / 0755-86936235】。