在2024年的开放计算中国峰会上,浪潮信息的服务器产品线负责人赵帅深入剖析了智能时代背景下,开源模式与开放计算如何激荡出人工智能产业的创新火花。他指出,面对大模型Scaling Law带来的挑战,数据中心唯有通过开放创新,加速算力系统、管理与基础设施的全方位扩展,方能引领AI产业步入快车道。
赵帅强调,开源开放是驱动AI创新的核心引擎。当前,逾六成基础模型选择开源路径,超八成AI项目依托开源框架发展,累计开源模型下载次数突破三亿大关,催生了三千多个新模型。硬件层面的开放性,则在塑造AI算力生态方面扮演关键角色。在全球范围内,面对AI引发的算力需求激增,多家企业投身于新型AI芯片的研发,开放加速规范(OAM)的出台,有效加速了多元算力芯片的兼容性与适应性,显著降低了资源投入成本,加速了算力部署与迭代进程,有力支撑了上层大模型及AIGC应用的快速成熟。
AI时代,算力呈现多元化趋势,GPU、CPU、FPGA、ASIC等芯片均朝向多样化与专业化演进。算力已无孔不入,深入各行各业,嵌入每台计算设备之中。传统CPU通用服务器除承担大数据处理、关键计算与科学计算重任外,亦需扛起AI应用的大旗。
然而,应用范式的多样化,使得如x86、ARM、RISC-V等不同架构CPU处理器百花齐放,各具特色,但缺乏统一的CPU协议标准,这为算力系统设计带来了巨大挑战。为缩短芯片到算力系统的转化周期,构建智算时代的统一底座,兼容不同芯片厂商与多代产品成为当务之急。
在此次峰会上,开放算力模组(OCM)规范正式启动,旨在构建基于处理器的标准化算力模组单元,通过统一高速互连、管理协议、供电接口等关键要素,实现服务器主板平台的深度解耦与模块化设计。作为国内首个服务器计算模组设计规范,OCM规范将有力推动算力产业迈向高质量发展阶段。
算力、算法与数据构成推动AI发展的三大基石。随着大模型能力的持续升级,算力需求日益高涨,既需关注单系统性能优化,又需应对多系统大规模扩展的挑战。智算中心需借助开放加速模组与开放网络,实现算力的扩展;在管理层面,亟待解决跨平台适配、模块化架构与快速迭代的难题;基础设施层面,则需依赖开放标准与生态,实现数据中心的扩展。
开放计算为中国数据中心的全向扩展开辟了一条快速通道。开放加速模组与开放网络赋能算力扩展,开放固件解决方案促进管理升级,开放标准与生态支持基础设施扩容。对于智算时代而言,开放创新构建的全向扩展能力,正成为未来AI基础设施的核心驱动力,加速智算时代的创新与人工智能的蓬勃前行。