2022~2026 年 AI 服务器出货量年复合成长率可达 10.8%

▼
TrendForce 观察到始自 2018 年新兴应用题材带领,自驾车、AIoT 与边缘运算,许多大型云端业者大量投资 AI 相关设备建置,截至 2022 年,搭载 GPGPU(General Purpose GPU)的 AI 服务器年出货量占整体服务器比重近 1%,2023 年预估 ChatBot 相关应用加持下,可望再度刺激 AI 领域活络,出货量年成长可达 8%;2022~2026 年复合成长率达 10.8%。
TrendForce统计,2022年AI服务器采购占比以北美四大云端业者Google、 AWS、Meta、微软合计占66.2%为最,内地近年随国产化力道加剧,AI建置浪潮增温,以字节跳动采购力最显着,年采购占比达6.2%,紧跟在后是腾讯、阿里巴巴与百度,分别约2.3%、1.5%与1. 5%。
藉AI最佳化自家搜寻引擎,AI需求持续带动HBM记忆体成长
看好AI发展前景,微软更大举投资OpenAI,除2月推出搜寻引擎Bing强化版,整合ChatGPT技术及与OpenAI合作开发大型语言模型“Prometheus”;百度也于2月宣布推出AI机器人服务“文心一言”( ERNIE Bot),初期将以独立软件呈现,后续也会导入搜寻引擎。
以运算规格看,ChatGPT以NVIDIA的A100为主,独家使用微软Azure云端资源。若合并其他微软应用计算,全年微软AI服务器年需求为2.5万台。百度文心一言采NVIDIA的A800(美国商务部管制A100出口后的替代品),合并其他应用,百度AI服务器年需求约2千台。TrendForce分析,以AI运算服务器GPU而言,市场以NVIDIA的H100、A100、A800(满足内地需求)及AMD MI250、MI250X系列为主,NVIDIA与AMD服务器GPU占比约8:2。
若聚焦以上GPU规格,因应高频宽运算的HBM(High Bandwidth Memory)更受市场瞩目。以位元计算,HBM占整个DRAM市场比重约1.5%,供应商以三星(Samsung)、SK海力士(SK Hynix)与美光(Micron)为主。 但NVIDIA的HBM3,SK海力士是目前唯一量产厂商,因此此规格主导市场,由于生产技术门槛高,对原厂属高毛利产品。
2020~2021年疫情期间担心供应链缺料,超额备料使HBM年需求成长率特别亮眼,自2023年起需求成长率因物料调节有收敛。TrendForce预估,2023~2025年HBM市场年复合成长率有望达40%~45%。整体而言,伴随全球云端业者逐年增加AI服务器投资,尽管大环境受高通膨、经济增长放缓冲击,企业组织IT支出转趋保守,但ChatBot与搜寻引擎应用带动下,AI相关转型布局仍视为云端业者资本支出优先项目。
(首图来源:Created by Freepik)
▼

特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。