行业新闻

关注搜芯易,了解最新资讯

2024年AI服务器出货占比预计达12.1%,CSP高阶需求超六成

TrendForce表示今年服务器出货量的主要增长动力仍然来自美国云服务提供商(CSP)。

TrendForce表示今年服务器出货量的主要增长动力仍然来自美国云服务提供商(CSP)。然而,由于通胀率居高不下,企业融资成本上升,资本支出减少,整体需求尚未恢复到疫情爆发前的增长水平。

预计2024年全球服务器出货量将达到约136.54亿台,同比增长约 2.05%。同时,市场继续关注AI服务器的部署,其出货量占比约为12.1%。
预计富士康的增长率最高,年增长率约为5-7%。这一增长包括戴尔16G平台、AWS Graviton 3和4、谷歌Genoa和微软Gen9等重要订单。在AI单方面,富士康与甲骨文的合作取得了显著进展,获得了一些AWS ASIC订单。

图片

图1: 2020-2024全球服务器出货量
英业达的增长率预计将位居第二,年增长率约为0-3%。尽管今年OEM订单呈现下降趋势,但CSP订单得到了AWS Graviton 3和4以及Google米兰和日内瓦订单的支持,Google贝加莫订单预计将在下半年开始部署。除了北美CSP的需求外,预计ByteDance(如字节跳动)等中国客户的需求也将十分强劲。纬创资通今年的AI服务器出货量预计将实现两位数增长,占其总出货量的约10%-15%。
广达电脑和超微电脑预计其服务器出货量增长率将同比持平。广达电脑最主要面临Meta 公司今年上半年通用服务器订单的大幅减少,以及Google对英特尔平台的需求下降,Google已将重点转向AMD。预计广达电脑今年在AI服务器出货量方面会有更好的表现,这主要得益于微软和AWS等北美客户的订单,AI服务器出货量增长率也将达到两位数。
超微电脑今年将重点放在AI服务器的增长上,该领域的出货量有可能翻番。然而,通用服务器出货量没有显著反弹,这意味着整体出货量可能保持稳定。超微电脑的高端AI服务器,包括HGX等型号,主要服务于欧美的二级数据中心,如CoreWeave和Tesla。另外,超威电脑还正积极努力争取苹果和Meta等客户的人工智能订单。

■ 北美四大CSP对高阶AI服务器需求激增

总体而言,ODM的AI服务器出货量预计将在2024年保持强劲,主要受北美云服务提供商(CSP)订单的推动, 其中包括四大CSP业者Microsoft、Google、AWS、Meta各家占全球需求比重分别达20.2%、16.6%、16%及10.8%,合计将超过6成,居于全球领先位置。其中,又以搭载NVIDIA GPU(如NVIDIA的H系列或AMD的MI系列)的服务器预计出货量将大幅增加。由于美国的限制,中国客户的增长可能会受到限制。

■ 受美禁令影响 NVIDIA后续发展仍有挑战

NVIDIA近期整体营收来源以数据中心业务为关键,主因其GPU服务器占整体AI市场比重高达6-7成,惟后续仍须留意三大状况,可能使NVIDIA发展受限。其一,受美国禁令箝制,中国政府将更致力于AI芯片自主化,进一步来说,华为仍被NVIDIA视为可敬的对手。而NVIDIA因应禁令推出的H20等中国特规方案,性价比可能不及既有的H100或H800等,中国客户采用度可能较先前保守,进一步影响NVIDIA市占率。
其二,在具规模及成本考虑下,美系大型CSP业者除Google、AWS外,Microsoft、Meta等亦有逐年扩大采自研ASIC趋势。其三,来自AMD的同业竞争,AMD采高性价比策略,对标NVIDIA同级品,AMD提供仅60~70%价格,甚至代表性或具规模客户能以更低价策略方式抢进市场,预期2024年尤以Microsoft为最积极采纳AMD高阶GPU MI300方案业者。
图片

图2: 2023-2024年全球CSP对高阶AI服务器需求占比

 

■ NVIDIA为维持领先 将更致力拓展多元组合产品线

NVIDIA在面临潜在隐忧下,亦更积极加速拓展其多元产品线,以因应不同客户群。2024年起将正式汰换A100产品,而以价格更高的H100系列为主轴。除H100,预估自今年第二季末开始小量出货搭载更高HBM3e规格的H200产品。另预估NVIDIA未来在价格上将更积极采差别订价,H100采部分折价策略,H200应维持约H100原价格水位,以提供更高性价比方式,稳固云端CSP客户。除此之外,NVIDIA将采用NRE(Non-recurring engineering Expense)模式,与Meta、Google、AWS及OpenAI等厂商展开洽谈,并将目标扩及电信、车用及电竞客户。
此外,预期NVIDIA自2024年下半将推出新一代B100产品,相较H系列可望在效能上又有所提升,在HBM内存容量将高出H200约35~40%,以因应更高效能HPC或加速LLM AI训练需求。而在中低阶产品上,除L40S针对企业客户做边缘端较小型AI模型训练或AI推论外,另亦规划以L4取代既有T4,作为云端或边缘AI推论应用。
值得注意的是,为避免2023年GPU供应不足问题,NVIDIA亦积极参与CoWoS及HBM等扩建产能需求,预期今年第二季在相关原厂产能逐步开出后,原交付Lead Time平均约40周也将减半,逐步去除下游供应链因GPU短缺而使AI服务器供应进度受阻问题。
信息来源:EET和TrendForce
版权归属:作者/译者/原载
声明:如涉及版权问题,请与我们联系删除
AI服务器