2024 年 Copilot 进入商转,带动 AI 服务器及终端 AI PC 发展

2024 年 Copilot 进入商转,带动 AI 服务器及终端 AI PC 发展

AI 话题热议,2024 年会拓展至更多边缘 AI 应用,或延续 AI 服务器基础,推至 AI PC 等终端装置。TrendForce 预测,2024 年全球 AI 服务器(含 AI Training 及 AI Inference)超过 160 万台,年成长率达 40%,后续 CSP 也会更积极投入。

由于严谨的Edge AI应用,回归至终端AI PC,落实分散AI服务器的工作量能,并扩大AI规模的可能性。TrendForce定义AI PC需达微软要求40TOPS算力基础,考量满足需求的新品出货都落在今年下半年,待CPU产业龙头英特尔2024年推出Lunar Lake后,2025年才可望见证更快速成长。

目前AI PC市场大致分为两大推动力量,一由终端应用需求推动,主要是微软凭个人电脑Windows作业系统及Office等工具等独占市场地位,推新世代Windows整合Copilot,使Copilot变成硬需求。二为CPU领先者英特尔诉求AI PC为搭配CPU+GPU+NPU架构,推动发展各种终端AI应用

以微软Copilot对算力的要求,高通2023年底发表的Snapdragon X Elite平台,下半前会先出货符合Copilot标准的CPU,算力应可达45TOPS,AMD之后Ryzen 8000系列(Strix Point)也符合此规格。若以英特尔2023年12月Meteor Lake看,CPU+GPU+NPU算力仅34TOPS,并不符合微软要求,但今年底Lunar Lake有机会超过40TOPS门槛。

将来高通、英特尔、AMD竞逐AI PC时,也会牵动x86及Arm两大CPU阵营的Edge AI市场竞争。高通有望先达到微软需求,以PC主要OEMs如Dell、HPE、LENOVO或华硕、宏碁等今年陆续开发高通CPU机种,以争取首波AI PC机会,给X86阵营一定威胁。

AI PC有望带动PC平均搭载容量提升,拉高PC DRAM的LPDDR比重

从微软对AI PC规格要求看来,DRAM基本需求16GB起跳,长期看TrendForce认为,AI PC有机会带动PC DRAM位元需求年成长,伴随消费者换机潮,增加产业对PC DRAM的位元需求。

再者,以微软定义的满足NPU 40TOPS CPU而言,共三款且依出货时间分别为高通Snapdragon X Elite、AMD Strix Point及英特尔Lunar Lake。三款CPU共同点为皆采用LPDDR5x,而非现在主流DDR SO-DIMM模组,考量在传输速度提升; 以DDR5而言,速度为4,800~5,600Mbps,LPDDR5x落在7,500~8,533Mbps,对需接受更多语言指令及缩短反应速度的AI PC帮助不少。TrendForce预期,今年LPDDR占PC DRAM需求约30%~35%,AI PC的CPU厂商规格支援后,可再拉高LPDDR导入比重。

(首图来源:微软)

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。