图灵汇报道,日本AI芯片领军企业Preferred Networks(以下简称PFN)近日宣布启动其新一代AI推理处理器MN-Core L1000的开发工作,预计将在2026年交付。
PFN表示,MN-Core L1000是其MN-Core系列的最新成果,特别针对生成式AI应用中的大语言模型推理进行了优化。据称,这款处理器的计算速度有望达到传统GPU的十倍。
MN-Core L1000采用了一种创新的方法来解决当前AI加速器领域常见的逻辑计算单元与数据存储单元之间的带宽瓶颈问题。该处理器将DRAM内存直接堆叠在其上方,从而缩短了逻辑与存储之间的物理距离,减少了信号传输路径,提高了带宽上限。
相较于现有的HBM(High Bandwidth Memory)方案,如英伟达和AMD所使用的方案,3D堆叠DRAM内存不仅提供了更高的带宽,还实现了更大的存储密度。这使得MN-Core L1000能够更好地满足大规模模型的推理需求,同时减少了对昂贵的先进制程芯片的需求。
总的来说,PFN认为MN-Core L1000通过采用3D堆叠DRAM内存技术,结合了HBM方案的高容量和SRAM方案的高带宽两大优势。此外,MN-Core L1000的计算单元具有高能效,有效解决了由于3D堆叠DRAM带来的热管理问题。
PFN在今年8月与日本金融巨头SBI Holdings建立了资本和商业联盟,共同推动下一代AI半导体的开发和商业化进程。此外,三星电子也获得了PFN的2nm先进制程和I-Cube先进封装的整体代工订单。不过,PFN提到MN-Core L1000采用的先进封装技术更类似于三星的X-Cube方案,而非I-Cube方案。