9月22日消息,OpenAI和英伟达宣布合作,英伟达将向OpenAI投资1000亿美元的算力。
这一投资将用于为OpenAI的下一代AI基础架构部署10千兆瓦的NVIDIA系统——相当于一座大城市的能源需求,黄仁勋称其为“史上最大的AI基础设施项目”。
消息官宣后,英伟达的股价上涨了4个百分点。
黄仁勋表示:“从第一台DGX超级计算机到ChatGPT的突破,NVIDIA和 OpenAI十年来一直相互推动。此次投资和基础设施合作标志着我们迈出了新的一步——部署10千兆瓦电力,为下一个智能时代提供动力。”
不难预见,这一强强联合将在优化OpenAI模型和基础架构软件的同时,扩大NVIDIA硬件和软件的路线图。英伟达表示,此次合作是对OpenAI和 NVIDIA与微软、甲骨文、软银和Stargate合作伙伴等广泛合作伙伴网络开展的深入工作的补充,致力于构建世界上最先进的AI基础设施。
自2022年 ChatGPT爆火以来,AI基础设施(包括数据中心、GPU集群、冷却系统和电力供应)已成为科技巨头和投资者的焦点。2025年,这一趋势进一步加速,全球数据中心投资或将达7 万亿美元规模。目前,Microsoft、Google、Amazon和 Meta已宣布数百亿美元的AI基础设施计划。
9月19日,具身智能头部公司Figure更是宣布与Brookfield达成战略合作,扩展AI基础设施并打造全球最大的人形机器人预训练数据集。对基础设施的重视从chatbot一路延展到具身智能。
从技术上来说,训练和运行大型语言模型需要数百万GPU时长,单次训练成本可达数亿美元。基础设施瓶颈已成为AI发展的最大障碍。
OpenAI的合作正是为了解决10GW级别的计算缺口,相当于数百万张NVIDIA H100 GPU。美国银行分析师维韦克·阿里亚(Vivek Arya)称,这笔交易可能为这家人工智能芯片制造商带来高达5000亿美元的收入。
人工智能时代预计将需要不断扩展数据中心、电网容量和供应链。根据德勤的《2025年人工智能基础设施调查》,人工智能数据中心的规模及其相应的电力需求正在呈指数级增长。德勤估计,到2035年,美国人工智能数据中心的电力需求可能增长30倍以上,达到123吉瓦,而2024年,这一需求还是4吉瓦。
人工智能数据中心大规模、集中的全天候电力需求对电网运营提出了挑战,一些数据中心增长领先的地区屡屡经历谐波失真、负荷释放警告、险情事件以及发电停运等问题。
与此同时,数据中心市场的格局正在发生变化。随着人工智能模型部署在更靠近用户的位置以提供更快的响应,人工智能基础设施的开发正在向更多州扩展并走向去中心化。下图显示了数据中心市场现有以及规划中的容量。
CAISO:加州独立系统运营商(California Independent System Operator);
ERCOT:德州电力可靠性委员会(Electric Reliability Council of Texas);
ISO-NE:新英格兰独立系统运营商(Independent System Operator New England);
MISO:中大陆独立系统运营商(Midcontinent Independent System Operator);
NYISO:纽约独立系统运营商(New York Independent System Operator);
PJM:PJM互联公司(PJM Interconnection);
SPP:西南电力联盟(Southwest Power Pool)。
Sam Altman表示:“一切始于计算。计算基础设施将成为未来经济的基础,我们将利用与NVIDIA合作构建的基础设施,创造新的AI突破,并大规模赋能个人和企业。”AI预计带来全球运营效率的提升,而这也反过来驱动企业从软件转向硬件投资。
总的来说,这一投资浪潮源于AI从“概念”转向“现实生产力工具”的转变,它反映了科技界对AI长期价值的共识。与此同时,也折射出全球AI竞赛中紧张的拉锯局面。
目前,OpenAI的周活跃用户已超过7 亿,在全球大型企业、小型企业和开发者中拥有广泛的应用。其联创Greg Brockman表示:“自OpenAI成立之初,我们就一直与NVIDIA密切合作。我们利用他们的平台创建了数亿人每天使用的AI系统。我们很高兴能与NVIDIA合作部署10千兆瓦的计算能力,以突破智能前沿,并将这项技术的益处惠及每个人。”
我们期待OpenAI说到做到。
注:文/苗正卿,文章来源:虎嗅APP(公众号ID:huxiu_com),本文为作者独立观点,不代表亿邦动力立场。
文章来源:虎嗅APP