(资料图片)
据集邦咨询(TrendForce)最新预测,2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货量将接近120万台,年增38.4%。从高阶GPU搭载的HBM来看,英伟达高阶GPUH100、A100主要采用HBM2e、HBM3。随着英伟达的A100/H100、AMD的MI200/MI300、谷歌自研的TPU等需求逐步提升,预估2023年HBM需求量将同比增长58%,2024年有望再增长约30%。
HBM(高带宽内存)是基于TSV和Chiplet技术的堆叠DRAM架构,可实现高于256GBps的超高带宽,帮助数据中心突破“内存墙”瓶颈。AI应用快速放量之下,AI服务器所需DRAM容量为常规服务器的8倍,拉动DRAM需求大幅增长。随着应用对AI的依赖度增加,需要HBM的加入来支援硬件。
根据集邦咨询,HBM有助于突破AI发展中受限的硬件频宽瓶颈,2022年6月SK海力士量产HBM3 DRAM芯片并供货英伟达,随着英伟达使用HBM DRAM,数据中心或将迎来新一轮的性能革命。根据Yole预测,DRAM所用TSV封装技术(HBM/3Ds)及混合键合技术将在存储封装市场中取得亮眼进展,二者合计占比将由2020年5%上升至2026年17%,实现32亿美元市场规模。
粉丝特惠:好股票APP五个热门产品任选一款,体验五天!欢迎下载体验!
标签: