超聚变:跨越智能算力“四座大山”,全方位重构“智算底座”

超聚变:跨越智能算力“四座大山”,全方位重构“智算底座”

文章图片

超聚变:跨越智能算力“四座大山”,全方位重构“智算底座”

文章图片

超聚变:跨越智能算力“四座大山”,全方位重构“智算底座”

文章图片

超聚变:跨越智能算力“四座大山”,全方位重构“智算底座”

毫无疑问 , 今天在人工智能的推动下 , 企业数智化转型已进入规模化“倍增创新”的阶段 , 尤其是以大模型为代表的AI技术加速演进 , 以及应用场景的不断拓展加深 , 都让各类AI创新应用如雨后春笋般涌现 , 并加速惠及千行万业 。
AI大模型的火热登场 , 也引爆了智能算力的需求 。 根据中国信通院近期发布的《中国综合算力指数(2024年)》显示 , 截至2024年6月 , 我国在用算力中心标准机架超过830万 , 算力规模达246 EFLOPS , 智算同比增速超过65% , 成为当前算力快速增长的核心驱动力 。
不仅如此 , 去年底国家六部门联合印发的《算力基础设施高质量发展行动计划》中也提出 , 到2025年 , 我国算力规模要超过300EFLOPS , 其中 , 智能算力占比要从现在25%增长到35% , 这也意味着进一步加快构建智算中心 , 提供充沛的智能算力 , 已成为推动中国数字经济高质量发展和推动新质生产力发展最为紧迫的关键需求 。
但也要看到 , 智算中心的建设不是传统数据中心的简单升级改造 , 而是数据中心的一次全方位重构 , 这是因为AI带给智算中心的挑战将是多维度的 , 如算力密度、能源效率、AI-powered的运维与运营以及可持续性发展等等 。 也正因此 , 构筑AI时代坚实的智算底座 , 打造更高效、更绿色、更可靠的智算中心已变得至关重要 。

在此背景下 , 超聚变“与时俱进”的推出了FusionPoD for AI新一代全液冷整机柜GPU服务器 , 遵循架构开放、多算力兼容的理念 , 在一套硬件平台基础上可实现多样性算力应用 , 支持不同GPU模组/卡快速适配 , 快速实现液冷散热 , 提升算力密度 。 从双生态、多样性算力、绿色低碳方面全方位重构智算底座 , 为智算中心集群的建设真正打造了高密、坚实、开放的平台 。
客观地说 , 当前的人工智能发展迅速 , 新技术新应用层出不穷 , 如何去构建一个坚实可靠的智算底座来满足长远未来的发展需求和应付人工智能应用的迭代演进 , 将是全社会和所有企业都必须去迎接的新挑战 , 而超聚变不仅以前所未有的前瞻力、创新力和产品力 , 重新定义了未来智算底座建设的新方向和新趋势 , 也加速了智算中心迈入了绿色低碳时代 , 同时更让AI能够“扎根”于千行万业夯实了关键基础 , 在这背后也正是超聚变一直以来领先于时代 , 更创造时代的真实写照 。
01.
跨越智能算力“四座大山”
随着AI大模型时代的到来 , 可以发现智能算力与产业的融合正变得越来越紧密 , 从智慧医疗 , 智慧金融 , 智慧城市再到无人驾驶等等 , 智能算力已经开始渗透到千行万业的方方面面 , 并推动着“算力基建化”的步伐 。
但正所谓“要想富、先修路” , 任何国家和企业 , 要想在AI时代“富”起来 , 关键要把AI基础设施这条“路”修好 , 而智算中心恰恰是AI基础设施的核心之核心 。 不过 , 智算中心的建设并不是“一蹴而就”的 , 作为承载人工智能应用、训练和推理等工作的智算中心 , 与其他类型的数据中心存在很大的差异 , 其发展之路上面临着四大挑战:

一是 , 架构的算力多样性兼容挑战 。 随着AI大模型等新场景不断涌现 , 非结构化数据快速增长 , 可以发现原有的以通用处理器为核心的基础算力难以满足算力需求 , 千行万业的数字化场景呼唤多样性算力来支撑 , 从传统的CPU走向XPU的算力发展成为必然 。 因此 , 未来以“XPU为中心” , 通过提供并行计算 , 能够处理AI模型训练所需的大量矩阵运算将是未来智算中心建设的重点 。
二是 , 带宽的海量数据传输挑战 。 “Scaling Law”揭示了AI在当前深度学习算法框架下 , 算力和数据之间的关系 , 即更强的算力加上更多的有效训练数据 , 才可以得到更好的AI大模型 。 这就需要解决网络架构、通信协议以及数据传输效率等多个方面的问题 , 包括在网络设计上需要更加注重可扩展性、灵活性和可靠性 , 以确保设备之间能够高效、稳定地进行数据传输和通信;同时还需要采用更加智能化的调度和管理策略 , 实现集群内计算、存储和网络资源之间的紧密协同 。
三是 , AI基础设施的运维和运营模式的挑战 。 随着运维数据量的激增 , 智能运维技术的日益普及 , 这些技术不仅与监控、服务台和自动化系统实现联动 , 而且能够从多个系统中提取数据 , 以服务为导向 , 为决策提供支持 , 成为AI基础设施发展的新趋势 。 此外 , 从运营模式的角度来看 , 面向下一代智算中心的建设、能源使用、规划布局以及技术创新等方面 , 也都面临着新的挑战和机遇 。
四是 , 智算中心能耗的绿色环保挑战 。 相关统计显示 , 预计到2035年 , 数据中心用电量约为2020年的3倍 , 将占全社会总用电量的5%—7% , 碳排放增幅约为103% 。 可以说数据中心作为“能耗大户” , 其建设和发展过程中带来了巨大的能耗挑战 , 尤其是在当前算力升级带来的能耗“飙升”的情况下 , 如何通过先进的散热技术 , 突破芯片在系统中的散热瓶颈 , 同时提升能效 , 降低数据中心PUE也将“刻不容缓” 。
【超聚变:跨越智能算力“四座大山”,全方位重构“智算底座”】不难看出 , 由AI大模型兴起所产生的巨量算力需求让本就供需不平的算力产业结构进一步“承压” , 特别是如何跨越智能算力面临的四座大山已成为整个业界的新挑战和新课题 。

也正因此 , 在2024中国算力大会期间 , 超聚变就携手伙伴成立了“液冷AI开放联盟” , 通过汇聚来自算力产业上下游的企业和用户 , 直面通用计算向智能计算转变所带来的高功耗挑战 , 致力于构建标准化的智算底座 , 让产业和行业用户可以更快、更易、更好地获取和使用AI算力;同时也让产业伙伴可以共同定义智算新接口 , 最终帮助行业用户跨越智能算力面临的重重挑战 , 加速智算中心迈入绿色低碳新时代 。
“液冷AI开放联盟”的成立可谓“正当其时” , 特别是通过共同定义智算新规范 , 不但可以更好地推动高效、安全、智慧的绿色算力 , 以此来适应多样化的AI应用场景 , 助力AI发展 , 赋能新质生产力;更为关键的是 , 这种基于生态全链条的紧密合作方式 , 也能够持续提升AI算力的效率 , 解决当下行业用户所面临的“算力荒 , 能耗荒” 。
02.
构筑AI时代坚实智算底座
与此同时 , 超聚变还推出了FusionPoD for AI新一代全液冷整机柜GPU服务器 , 以其高算力、高性能、高能效、高可靠、高带宽、整机交付、极简运维等特性 , 全面满足大规模、超大规模的模型训练、推理等AI场景 , 真正为AI时代构筑坚实的“智算底座” , 具体来看:

首先 , 在多样化算力方面 , 超聚变FusionPoD for AI新一代全液冷整机柜GPU服务器坚持架构开放 , 支持多算力兼容 , 同时算力密度业界领先 , 一柜支持 64个GPU , 同时采用超大带宽高速背板设计 , 柜内112G , 支持224G平滑演进 , 满足海量数量访问和互联互通 , 并且最大支持12x16 PCle5.0扩展 , 支持集群组网等 , 能够为智算中心的建设提供极致性能 。
其次 , 在绿色低碳方面 , 超聚变FusionPoD for AI新一代全液冷整机柜GPU服务器采用100%全液冷散热 , 并获得全球首个南德能效认证 , 全球首个莱茵无泄漏认证等 , 通过液冷原生设计 , 其液冷一柜顶风冷21柜(105kW /5kW =21 , 按照电量来比较) , PUE可低至1.06 , 5年TCO降低15%以上 , 液冷组件10年可靠应用 , 真正极致能效和极致可靠 , 能够为行业客户提供算力成本最优的 AI 算力解决方案 。
最后 , 在部署和运维方面 , 超聚变FusionPoD for AI新一代全液冷整机柜GPU服务器提供一体化部署 , 整机柜交付至客户机房部署效率提升10+倍 。 不仅如此 , 其还实现了供电、散热、网络的整合池化 , 节点或GPU模组支持全盲插部署 , 维护过程无需操作“电、网、液” 。 此外 , FusionPoD for AI整机柜液冷服务器也支持机器人自动运维 , 可实现无人智检运维 。

值得一提的是 , 凭借一系列领先的技术优势 , 在2024年中国算力大会上 , 超聚变FusionPoD for AI新一代全液冷整机柜GPU服务器更是获评“算力中国·年度重大突破成果” 。
由此可见 , 在AI大模型和智能算力需求日益火爆的当下 , 超聚变始终围绕未来智算中心演进和企业对于AI应用的核心需求 , 发布了FusionPoD for AI新一代全液冷整机柜GPU服务器 , 可以说全方位重构了“智算底座” , 即能够更好地帮助企业应对AI时代对于智算底座的要求和挑战 , 也能为AI应用真正“扎根”于千行万业 , 激发企业的新质生产力加装了“新引擎” 。
03.
加速智算中心迈入绿色时代
回头来看 , 超聚变之所以持续引领服务器市场和智算中心的进化和演进 , 归根结底在于其始终坚持不断地“创新求变” , 这是超聚变不断取得千行万业用户认可的根本所在 , 也是其未来加速智算中心迈入绿色低碳新时代的关键所在 。
一方面 , 超聚变始终坚持技术创新 , 由此保证了它在产品和技术上的领先性和先进性 。
以超聚变FusionPoD for AI新一代全液冷整机柜GPU服务器为例 , 其就实现了“一个重构 , 两大升级” 。 所谓“重构” , 指的是其在一套硬件架构或者说硬件形态上 , 实现了东西方算力的即插即用 , 兼容多元厂商GPU和加速器;而“升级”的地方则是体现在其整机柜的冷却系统 , 基于超聚变柔性冷板技术的突破 , 实现了节点级的“全液冷”;此外 , 取消风液交换后 , 其液冷背门也就可以升级为分布式CDU , 不占U位换热 , 同时一次侧的液体也可以直接进机柜 , 免除复杂的二次侧施工、验证等工作 , 实现高效和极简部署等 。

事实上 , FusionPoD for AI新一代全液冷整机柜GPU服务器 , 可以说是超聚变在液冷技术创新方面的“集大成者” 。 数据也显示 , 超聚变目前已率先在行业内实现液冷全面规模化商用 , 其基于整机柜液冷服务器的绿色数据中心解决方案已批量交付超7万节点 , 连续两年稳居中国标准液冷服务器市场份额第一名 , 成为引领智算中心绿色建设的重要支撑力量 。
另一方面 , 超聚变在智算中心领域的优势不仅建立在对技术和产品的创新上 , 对企业客户关键需求的深刻理解和洞察 , 也让超聚变打造出了很多“标杆级”的客户案例和落地的方案 , 由此也为中国企业更好地实现绿色低碳转型 , 更快的拥抱AI时代提供了有价值的借鉴和参考 。
例如 , 浙江电信与超聚变联合创新 , 凭借整机柜液冷服务器的架构开放和多算力兼容 , 掌握并解决算力卡的生态兼容能力 , 建成双生态液冷智算集群 。 据了解 , 该项目融合了超聚变端到端完整的数据中心液冷解决方案 , 完整的液冷二次侧集成交付方案 , 同时采用FusionPoD for AI整机柜液冷服务器规模部署 , 大幅提升交付效率 。 此外 , 采用原生液冷设计 , 通过防喷射、漏液导流、漏液关断等措施保护高价值设备可靠运行 , 为高价值设备增加一层保障 , 由此进一步帮客户节省用电量 , 实现极致能效和超低PUE;通过双方的联合创新 , 超聚变整机柜液冷服务器在智算中心得到充分验证 , 并已经稳定运行 。

面向未来 , 超聚变还将以“打造创新驱动、绿色低碳、可持续发展的算力产业生态”为己任 , 通过持续推进AI基础设施与解决方案的创新升级 , 以及构筑全新的生态体系 , 让算力更好地服务千行万业 。
总的来说 , 将智算融入企业 , 成就了各行各业的数智化转型;将智算融入智慧应用 , 促成了人工智能和大模型的爆发;将智算融入千行万业 , 就推动了数字经济的前进和新质生产力的发展 。 可以预期的是 , 未来数字世界的一切基础 , 都源于智算底座的持续发展 。
在此过程中 , 超聚变通过技术创新 , 持续引领AI时代的基础设施进化和演进的趋势 , 让不同的算力在使用上 , 都可以像“用水、用电”一样弹性获取 , 让每一分算力都能够真正“物尽其用” , 同时更为未来打造“绿色低碳”的智算中心探索与实践出了一条创新之路 , 其重要价值也可以说:“不止于现在 , 更关乎未来 。 ”

    推荐阅读