摘要:
埃隆·马斯克宣布启动了全球最强大的AI集群,旨在于年底前构建出世界领先的AI系统,该系统将整合10万个Nvidia H100 GPU。这一集群的启动标志着马斯克在AI领域的又一重大突破。
正文:
7月23日,特斯拉、X、xAI的CEO埃隆·马斯克在社交平台X上透露,他已启动了“世界上最强大的AI集群”,目标是在2023年12月前打造全球最强AI。此集群在单一架构中集成了10万个Nvidia H100 GPU,成为人工智能训练领域最强大的集群。
马斯克表示,当地时间凌晨4:20,通过xAI团队、X团队、Nvidia及其支持伙伴的努力,位于孟菲斯的超级计算工厂“Supercluster”正式运作。该集群在RDMA架构上拥有10万个液冷H100 GPU,标志着人工智能训练技术的新高度。
此前,马斯克曾计划在2025年秋季建立超级计算工厂,而今这一目标有望提前一年实现。然而,具体实现日期仍需观察。据路透社和The Information的报道,项目时间可能有所偏差。随着xAI Supercluster的启动,人们关注的问题转向了为何xAI选择在当前阶段而非等待更强大或下一代Nvidia GPU的情况下推进。
Supermicro为xAI提供了大部分硬件,其首席执行官Charles Liang对此表示赞赏,称与马斯克团队的合作非常出色。他表示,为了达成目标,所有操作都力求完美、迅速、高效且环保,投入了大量的努力。
马斯克进一步指出,新组建的Supercluster将全面训练全球最强大的AI模型。基于此,xAI的10万块H100 GPU将专注于Grok 3模型的训练。预计经过优化的大型语言模型(LLM)将在年底前完成训练阶段。
在比较之下,新xAI的Supercluster在GPU算力方面将超越当前顶级超级计算机,如Frontier(37,888个AMD GPU)、Aurora(60,000个Intel GPU)以及Microsoft Eagle(14,400个Nvidia H100 GPU)。
总结:
埃隆·马斯克领导的xAI集群的启动,预示着人工智能领域的重大进展。通过整合10万个Nvidia H100 GPU,这一集群不仅推动了AI训练技术的发展,也为未来的人工智能应用奠定了坚实的基础。随着更多细节的披露,我们期待着这一集群如何改变人工智能的格局。