IT之家12月12日音尘,英伟达正在为微软的数据中心提供最新一代Blackwell芯片,而在本年头秋的部署经过中,英伟达别称职工戒备到,微软其中一处神色的冷却神态显得过于浪费。
跟着AI模子训练与推理的算力需求迅猛攀升,英伟达正为微软等科技巨头深广部署GB200Blackwell系统。
本年头秋时,英伟达基础神色大家团队的职工在里面邮件中,详备描写了为OpenAI机群部署Blackwell机架的现场情况。算作OpenAI的云调和伙伴与最大投资方,此类部署由微软正经。
《贸易内幕》今天征引的英伟达里面邮件提到,这次装配包括两组GB200NVL72机架,每组搭载72颗英伟达GPU。由于如斯高密度的GPU阵列会产生巨量热能,微软吸收液冷本事将热量从奇迹器周围马上带走。
但邮件也指出,微软在建筑层面的全体冷却神态因限渡过大且未使用神色级冷却用水,看起来变成资源浪费,但如实带来了邃密的弹性与故障容忍才智。
好意思国加州大学的电气与计较机工程副老师任绍雷(音译)诠释说,数据中心每每吸收“双层冷却结构”:奇迹器里面用液冷,而建筑本色需要另一套系统把全体热量排到室外。
因此,邮件所说“浪费”的冷却神态,或指微软吸收空气冷却算作建筑级散热,而非使用水冷。任绍雷说,空气冷却固然动力阔绰更高,但不耗水。水资源可见性强,每每会引起公众对用水问题的热心,使企业在动力阔绰、水资源压力与公论反应之间必须进行衡量。
IT之家从报说念中获悉,微软发言东说念主回答说,“微软的液冷换热器单位是一个闭环系统,咱们将其部署在现存的风冷数据中心中,以增强第一方和第三方平台上的冷却才智。该系统确保咱们最大截至地应用现存的大众数据中心限度,同期促进高效散热并优化电力运输,以知足AI和超大限度系统的需求。”
微软方面强调在2030年前终了“碳负排放、净产水与零破除”的企业观念,并暗示下一代数据中心将吸收零用水冷却绸缪,同期鼓舞芯片级冷却本事。
邮件雷同强调,Blackwell量产硬件品性显著高于此前送给客户查验的早期样品。两组GB200NVL72机架在特定计较性能测试中均达到100%通过率,反应出量产版块的潜入度与老到度有所进步。
英伟达发言东说念主暗示,Blackwell系统具备超卓性能、可靠性与能效施展,已被浮浅应用于多种计较场景。包括微软在内的客户依然部署了数十万套GB200与GB300NVL72系统,以知足大众日益增长的AI算力需求。

▲本年9月,微软CEO纳德拉曾称,将栽培“天下最强”AI数据中心
