中自数字移动传媒

您的位置:首页 >> 综合新闻 >> 需求同步看涨,预估2023年AI服务器及AI芯片出货量各年增38.4%及46%

需求同步看涨,预估2023年AI服务器及AI芯片出货量各年增38.4%及46%

已有8670次阅读2023-05-31标签:

 AI服务器及AI芯片需求同步看涨,TrendForce集邦咨询预估2023AI服务器(包含搭载GPUFPGAASIC等)出货量近120万台,年增38.4%,占整体服务器出货量近9%,至2026年将占15%,同步上修2022~2026AI服务器出货量年复合成长率至22%。而AI芯片2023年出货量将成长46%

 

 

 

TrendForce集邦咨询表示,NVIDIA GPU为AI服务器市场搭载主流,市占率约60~70%,其次为云端业者自主研发的ASIC芯片,市占率逾20%。

 

观察NVIDIA市占率高的主要原因有三:

 

其一,目前不论美系或中系云端服务业者(CSP),除了采购原有的NVIDIA的A100与A800外,下半年需求也将陆续导入H100与H800,尤其新机种H100与H800平均销售单价约为A100与A800的2~2.5倍,加上NVIDIA同时积极销售自家相关整机解决方案。

 

其二,高端GPU A100及H100的高获利模式也是关键,由于NVIDIA旗下产品在AI服务器市场已拥有主导权的优势,据TrendForce集邦咨询研究,H100本身的价差也依据买方采购规模,会产生近5,000美元的差异。

 

其三,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智能制造、金融保险、智慧医疗及智能驾驶辅助等)的开发市场,同步带动每台搭配4~8张GPU的云端AI服务器,以及每台搭载2~4张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率逾5成。

 

 

此外,从高端GPU搭载的HBM来看,NVIDIA高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU来说,搭载HBM3技术规格,其中传输速度也较HBM2e快,可提升整体AI服务器系统运算效能。

 

随着高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce集邦咨询预估2023年HBM需求量将年增58%,2024年有望再成长约30%。

 

 

分享到:

[ 新闻搜索 ]  [ ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]  [ 返回顶部 ]

0条 [查看全部]  网友评论

移动互联

2010年,中国移动互联网用户规模达到3.03亿人2011年,中国移动互联网行业进入了更加快速发展的一年,无论是用户规模还是手机应用下载次数都有了快速的增长。在移动互联网发展的大的趋势下,中自传媒已经开始进行区别于传统互联网的运营模式探索,伴随着产业链和产业格局的变化提供创新的服务

更多>>推荐视频

工业转型升级-中国电器工业协会电力电子分会 秘书长 肖向锋

工业转型升级-中国电器工业协会

在本次2012北京国际工业自动化展上,我们将全面剖析在新...
中国高压变频器产业发展之路——走过十三年 李玉琢

中国高压变频器产业发展之路——

中国高压变频器产业发展之路走过十三年 李玉琢
从企业家角度 谈行业的未来发展——汇川技术股份有限公司

从企业家角度 谈行业的未来发展

从企业家角度 谈行业的未来发展汇川技术股份有限公司
现代能源变换的核心技术——电力电子 李崇坚

现代能源变换的核心技术——电力

中国电工技术学会常务理事---李崇坚,电力电子是先进能源...
打造专业电力电子元器件品牌 助力变频器产业发展

打造专业电力电子元器件品牌 助

联合主办单位深圳市智胜新电子有限公司领导嘉宾致辞 7月...