马斯克启动“全球最强AI集群”:集成10万个英伟达H100 GPU!

图灵汇官网

摘要:

埃隆·马斯克宣布启动了全球最强大的AI集群,旨在于年底前构建出世界领先的AI系统,该系统将整合10万个Nvidia H100 GPU。这一集群的启动标志着马斯克在AI领域的又一重大突破。

正文:

7月23日,特斯拉、X、xAI的CEO埃隆·马斯克在社交平台X上透露,他已启动了“世界上最强大的AI集群”,目标是在2023年12月前打造全球最强AI。此集群在单一架构中集成了10万个Nvidia H100 GPU,成为人工智能训练领域最强大的集群。

马斯克表示,当地时间凌晨4:20,通过xAI团队、X团队、Nvidia及其支持伙伴的努力,位于孟菲斯的超级计算工厂“Supercluster”正式运作。该集群在RDMA架构上拥有10万个液冷H100 GPU,标志着人工智能训练技术的新高度。

此前,马斯克曾计划在2025年秋季建立超级计算工厂,而今这一目标有望提前一年实现。然而,具体实现日期仍需观察。据路透社和The Information的报道,项目时间可能有所偏差。随着xAI Supercluster的启动,人们关注的问题转向了为何xAI选择在当前阶段而非等待更强大或下一代Nvidia GPU的情况下推进。

Supermicro为xAI提供了大部分硬件,其首席执行官Charles Liang对此表示赞赏,称与马斯克团队的合作非常出色。他表示,为了达成目标,所有操作都力求完美、迅速、高效且环保,投入了大量的努力。

马斯克进一步指出,新组建的Supercluster将全面训练全球最强大的AI模型。基于此,xAI的10万块H100 GPU将专注于Grok 3模型的训练。预计经过优化的大型语言模型(LLM)将在年底前完成训练阶段。

在比较之下,新xAI的Supercluster在GPU算力方面将超越当前顶级超级计算机,如Frontier(37,888个AMD GPU)、Aurora(60,000个Intel GPU)以及Microsoft Eagle(14,400个Nvidia H100 GPU)。

总结:

埃隆·马斯克领导的xAI集群的启动,预示着人工智能领域的重大进展。通过整合10万个Nvidia H100 GPU,这一集群不仅推动了AI训练技术的发展,也为未来的人工智能应用奠定了坚实的基础。随着更多细节的披露,我们期待着这一集群如何改变人工智能的格局。

本文来源: 互联网 文章作者:
    下一篇

导读:划重点 01AI图像处理市场正在快速增长,2024年至2030年的复合年增长率预计分别达到11%、17%和23%。 02Transformer架构融合模型正迅速将生成下一个字符的能力扩展到生成像