突破高功耗瓶颈:超聚变多算力兼容液冷平台构建智算新生态

发布时间:2025-01-04作者:网翼互联阅读:0

在智能计算(智算)逐渐成为算力发展的核心驱动力的背景下,算力需求在未来五年内预计将呈现多维度的爆炸式增长,数据中心将面临新的挑战。对此,超聚变智能数据中心领域规划总监单彤在其主题分享《多算力兼容高密液冷平台》中提出了关键性见解,并给出了创新解决方案。

image.png

单彤指出,随着人工智能(AI)、大数据、云计算等新兴技术的快速发展,数据中心内的算力需求日益复杂和多样化。未来,数据中心将需要同时支持多种类型的算力,并实现共同部署以满足业务需求。然而,GPU作为智算核心设备,其单芯片功耗正迅速攀升,这导致单机柜的功耗密度从传统的10kW逐渐迈向20kW、30kW甚至50kW。这种高功耗趋势对传统风冷数据中心的散热能力提出了严峻挑战,使其逐步接近技术瓶颈。

为了解决这一瓶颈,单彤提出液冷技术作为关键的解决方案。他通过实践验证指出,相较于传统风冷技术,液冷在实现50kW高密度部署的同时,其初始投资成本(Capex)可以与风冷持平,但却具备显著的长期优势。液冷技术不仅能够更高效地散热,还能支持更高的计算密度,降低数据中心的整体能耗(PUE),从而满足未来智算集群的高功耗需求。

针对当前高密度、多算力兼容的智算需求,超聚变推出了创新性的FusionPoD for AI整机柜液冷方案。这一方案旨在为智算集群构建一个高密度、开放性、模块化的平台。具体而言,该方案的核心优势包括:

  1. 显著提升GPU部署密度:相比传统风冷方案,FusionPoD for AI通过液冷技术将GPU部署密度提升了8倍,极大优化了数据中心空间的利用效率。

  2. 支持多样化算力需求:该方案能够实现一次性部署多种算力应用,包括GPU、CPU、FPGA等异构计算设备,从而满足不同业务场景的需求。

  3. 简化大规模部署:针对智算集群的高密度需求,方案通过整机柜设计,简化了机房内多达上万张GPU卡的部署流程。

  4. 降低高速互联成本:通过优化机柜内的网络互联设计,FusionPoD for AI能够将万卡集群的TOR(Top of Rack)高速互联成本降低超过四分之一。

这一创新方案不仅在技术层面解决了传统数据中心的瓶颈,还在经济性、可扩展性和操作便利性上为智算集群的未来发展奠定了坚实基础。单彤总结道,随着智算成为推动行业进步的关键动力,类似FusionPoD for AI这样的高密液冷平台将为全球数据中心的可持续发展提供重要助力,并进一步推动AI技术的广泛应用。


标题:突破高功耗瓶颈:超聚变多算力兼容液冷平台构建智算新生态

TAG标签:

上一篇:融合创新:大模型与昇腾算力开启智能新时代
下一篇:从成本到生产力:北电数智重塑智算中心未来范式
返回顶部