近日,OpenAI 的 CEO 萨姆·奥特曼在社交媒体上宣布,由于公司面临 GPU 短缺的问题,他们将分阶段推出最新的 GPT-4.5 模型。这一消息引起了业内的广泛关注。
奥特曼提到,GPT-4.5 是一个非常庞大且成本高昂的模型。为了满足其巨大的计算需求,OpenAI 还需要数万块额外的 GPU。因此,公司决定首先向 ChatGPT Pro 订阅用户开放这个模型,预计从本周四开始,而 ChatGPT Plus 用户则将在下周获得访问权限。
据了解,GPT-4.5 的使用成本也非常高。据 Techcrunch 报道,OpenAI 对输入模型的每个百万 token 收费 75 美元,而对模型生成的每个百万 token 收费高达 150 美元。这比其主要模型 GPT-4 的输入成本高出 30 倍,输出成本高出 15 倍。
奥特曼承认,GPU 短缺并不是他们希望的运营状态,但他们难以准确预测快速增长会导致如此严重的 GPU 缺乏问题。他表示,尽管 OpenAI 正在迅速发展,但计算能力不足已成为限制公司产品发布的一个重要因素。
为解决这一问题,OpenAI 计划在未来几年内研发自己的 AI 芯片,并建立大规模的数据中心网络。奥特曼认为,这样做将有助于公司更好地应对未来可能出现的计算需求增加,确保产品能够顺利发布和运行。