6月28日,trendforce集邦咨询公司发表研究报告称,hbm芯片搭载在尖端ai服务器gpu上,预计到2023年,hbm需求将每年增加60%,达到2.9亿gb,到2024年将增加30%。
到2025年,如果世界上有5个像chatgpt这样的超大型aigc, 25个像midjourney这样的中尺寸产品,以及80个小型产品,那么nvidia a100 gpu将至少包括145,600到233,700个。此外,超级电脑、8k动影像、ar/vr等的应用也可以进一步提高云计算系统的负载。
由于hbm存储器芯片比ddr sdram的带宽更高,电力消耗相对较低,因此,最近上市的主力hpc处理器和加速运算gpu都使用hbm存储器。预计,今后hbm将能够代替部分gddr sd内存和ddr sd内存的普通内存。
据集邦咨询公司预测,目前nvidia a100、h100、amd mi300及大型云提供企业谷歌、aws等自行开发的asic ai服务器需求较强,到2023年ai服务器出货量(包括gpu、fpga、asic等)将达到120万台。年增长率接近38%。ai芯片的出货量也将一致转为上升趋势,预计今年将增加50%。
-
云计算
+关注
关注
39文章
8004浏览量
143288 -
ChatGPT
+关注
关注
31文章
1596浏览量
10115 -
AIGC
+关注
关注
1文章
391浏览量
3164
发布评论请先 登录
AI PC爆发年!2025出货量将破亿,科技巨头引领产业变革
美光12层堆叠36GB HBM4内存已向主要客户出货
智能眼镜销量暴涨800% 2025年全球智能眼镜出货量预计将达到1280万台
全固态电池预计2027年开始装车 2030年可以实现量产化应用
2025年全球个人智能音频市场出货量将增至5.33亿台
2025年全球半导体市场将增至7050亿美元
2025年TGV玻璃基板市场规模预计将达到1.7411亿美元

预计2023年对HBM需求量将增加60%,达到2.9亿GB
评论