随着人工智能(AI)与高性能计算(HPC)行业的迅猛发展,对内存带宽的需求日益增长。当前,具有9.6 GT/s数据传输速率的HBM3E内存已进入量产阶段,而下一代HBM4内存即将面世,预计将在未来两年内与用户见面。
根据Business Korea报道,SK海力士公司副总裁Kim在SEMI韩国大会上宣布,他们计划于2026年前实现HBM4内存的量产,以应对生成式人工智能市场的快速增长需求。生成式AI市场预计年增长率可达35%,这将促进处理器性能提升,从而对内存带宽提出更高要求。
了解到,单颗HBM3E内存堆栈的理论峰值带宽可达1.2TB/s,若内存子系统集成6个堆栈,则总带宽可达惊人的7.2TB/s。然而,实际应用中理论值与之存在差异。例如,英伟达H200显卡虽配备HBM3E内存,其带宽“仅为”4.8TB/s,这可能是出于可靠性与功耗考量。
为了增强内存带宽,HBM4将采用2048位接口,理论峰值带宽预计将超过1.5TB/s。尽管如此,数据传输速率预期维持在约6GT/s,以控制功耗。然而,2048位接口的引入将带来更复杂的布线设计挑战,可能导致HBM4成本较HBM3和HBM3E有所增加。
除了SK海力士,三星也积极参与HBM4内存的研发工作,并计划于2026年实现量产。值得注意的是,三星还针对特定客户提供定制化的HBM内存解决方案。
三星内存业务执行副总裁Kim指出,HBM4目前正在开发中,预计在2025年提供样品,2026年实现量产。鉴于生成式人工智能的需求,定制化HBM内存越来越受欢迎。三星不仅在开发标准化产品,还将与关键客户合作,探讨通过集成逻辑芯片为每个客户提供个性化优化性能的HBM内存方案。