2024年服务器市场出货量 2024服务器市场份额
在2024年10月16日,市场调研公司TrendForce举行了一场名为“AI时代半导体全局展开2025科技产业大预测”的研讨会。在会上,TrendForce的资深分析师龚明德详细阐述了AI服务器市场的前景,并指出,由于云服务供应商(CSP)和各大品牌客户对AI基础设施建设的强烈需求,全球AI服务器的出货量预计将在2024年同比增长42%。他进一步表示,2025年,随着云端服务商和云等需求的推动,AI服务器的出货量有望再增长28%,并推动AI服务器在整体服务器市场的占比提高到近15%。从中长期来看,随着云端AI训练和推理应用的不断扩展,预计到2027年,AI服务器的市场份额有可能接近19%。
在分析主要AI服务器芯片供应商时,龚明德特别提到了英伟达(NVIDIA)的突出表现。他认为,英伟达将继续领先市场,尤其是在高性能GPU的出货上,预计其出货量的同比增长将超过150%,其中H200等H系列GPU将成为主要的销售产品。凭借这些高端GPU,英伟达预计将在2024年占据近90%的AIGPU市场份额。英伟达的Blackwell GPU平台将于明年上半年迎来大规模出货,预计该平台的市场份额将在短短几个月内从4%激增至84%。
除了英伟达,其他AI芯片供应商如AMD、英特尔等,也在积极推动自有的AI服务器芯片,预计这些公司将推动AI芯片出货量的增长,进一步带动与之配套的先进封装技术(如CoWoS)和高带宽内存(HBM)的需求。预计到2025年,这些组件的出货量将翻倍增长。先进封装技术将从CoWoS-S逐步过渡到CoWoS-L,而HBM的技术将从HBM3发展到更先进的HBM3e,液冷散热方案的普及率也将显著提高。
TrendForce的另一位分析师邱珮雯指出,随着计算能力的提升,液冷散热技术将在数据中心中发挥越来越重要的作用。特别是在英伟达Blackwell GPU平台的推动下,GB200NVL72机柜方案的热设计功耗(TDP)高达140kW,这要求使用液冷方案来有效解决散热问题。据预测,最初采用的将是水对气(Liquid-to-Air,L2A)液冷技术,这一方案将在初期阶段成为主流。
除了英伟达,近年来谷歌、亚马逊(AWS)和微软等主要云服务商也在积极布局液冷散热技术。其中,谷歌在自研高阶ASIC(如TPU芯片)方面尤其积极,已经开始同时采用气冷和液冷方案。相比之下,其他云服务商目前仍以气冷为主流散热方案。在,阿里巴巴则是液冷技术应用的领头羊,积极推动液冷散热技术的部署。随着全球各国对环保、可持续发展(ESG)的关注不断加深,预计未来液冷技术将在数据中心中得到更广泛的应用。
总体来看,随着头部厂商的技术进步和市场推动,预计到2024年,AI芯片液冷散热技术的渗透率将从11%提升至24%。这一趋势将为数据中心的能效提升和环境友好型解决方案的普及奠定基础。