机构火速上调AI服务器出货量预期 未来年复合增长率22%
科技
科技 > 人工智能 > 正文

机构火速上调AI服务器出货量预期 未来年复合增长率22%

《科创板日报》5月30日讯 在ChatGPT发布后,全球各大科技企业积极拥抱AIGC,纷纷发力AI大模型,企业竞相将生成式AI应用到各个产品、服务和业务流程中,需要强大算力来支撑训练和推理过程,AI服务器需求大幅增加。

一个半月的时间内,调研机构TrendForce大幅调升了AI服务器的预计出货量,将2023年的出货量增幅调升了一倍多。

其最新报告显示,预估2023年AI服务器出货量近120万台,同比增长38.4%,同步上修2022-2026年AI服务器出货量年复合成长率至22%。

此前4月18日,TrendForce预估今年AI服务器出货量同比增长15.4%,2023-2027年AI服务器出货量年复合成长率约12.2%。

TrendForce称,下半年ChatGPT及AI风潮将持续渗透至各领域开发市场,带动云端AI服务器及边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量同比增长超过50%。

AI服务器带动芯片、存储需求

AI服务器出货量增加,相关的芯片、存储器、零部件供应商有望直接受益。

对于服务器芯片,TrendForce预计AI服务器芯片2023年出货量将增长46%。英伟达GPU为AI服务器市场搭载的主流芯片,市占率约60%-70%,其次为云端业者自研的AISC芯片,市占率超过20%。

民生证券分析师方竞则看好用于服务器内、外部数据传输的接口芯片,该分析师称,服务器的各种外接设备连接、驱动等需求的提升,拓展多种接口芯片市场空间,如USB(用于连接鼠标等)、SAS(用于连接存储设备)、SATA(用于连接驱动)等。

对于存储器,TrendForce此前表示,AI服务器将刺激ServerDRAM、SSD与HBM需要同步升级。该机构更看好HBM(高带宽存储器)的增长空间,表示随着高端GPU如英伟达A100、H100,AMDMI200、MI300,以及谷歌自研TPU等需求皆逐步提升,预估2023年HBM(高带宽存储器)需求量将年增58%,2024年有望再增长约30%。

TrendForce称,在今年将有更多客户导入HBM3的前期下,SK海力士作为目前唯一一批新世代HBM3产品的供应商,其整体HBM市场占有率率可望借此提升至53%,而三星、美光则预测陆在今年底至明年初产量,HBM市占率分别为38%及9%。

另外,IC载板也有望受益于AI服务器需求的增长。华安证券胡杨称,PCB作为AI服务器的重要元件之一,层数从Whitley平台的12层左右增长至AI训练阶段服务器的20层以上;CCL类型从M4提升至M7;ASP增长为普通服务器的三倍,达10000元以上,提升显著。

传统服务器需求仍低迷

前后两次预测,不变的情形在于,传统服务器依旧需求低迷。4月份以来,TrendForce持续下调了全球服务器的整体出货量。该机构在5月17日表示,除了四大CSP(亚马逊、Meta、谷歌、微软)减少采购量外,Dell(戴尔)和HPE(慧与科技)等OEM也在2月至4月的某个时间点下调了年度出货量预测,故将今年全球服务器整机出货量将因此下修至1383.5万台,同比减少2.85%。

“今年服务器市场能否反弹,关键在于去库存的速度。根据目前的估计,这种转变最早可能在2023年底或延续到2024年上半年实现。”TrendForce称。

另外,尽管AI服务器市场增速迅猛,但整体出货量占比依然较小。TrendForce预计AI服务器在2023年占整体服务器出货量近9%,预计到2026年占比将提升至15%。TrendForce称,“其对振兴低迷服务器市场的影响仍然相当有限。”

亲爱的凤凰网用户:

您当前使用的浏览器版本过低,导致网站不能正常访问,建议升级浏览器

第三方浏览器推荐:

谷歌(Chrome)浏览器 下载

360安全浏览器 下载