HBM即高带宽存储器,是AI时代的必需品。主要生产流程是通过3D封装进行DRAMIC堆叠,再通过2.5D封装将堆叠DRAMIC与GPU芯片进行集成,主要应用于搭载GPU的AI服务器上。HBM具有稀缺性,与传统DRAM相比,HBM具备高带宽、高容量、低延时与低功耗等优势,可以加快AI数据处理速度,更适用于AI服务器等高性能计算场景。据TrendForce预测,2026年全球HBM需求量有望达到386.2亿美元。国金证券认为,国产HBM未来有较大的需求空间,国内与HBM相关产业链的公司有望加速发展
TOPIC