浪潮信息发布超节点AI服务器“元脑SD200”,单机突破万亿参数大模型算力瓶颈
2025年9月3日,浪潮电子信息产业股份有限公司(以下简称“浪潮信息”)正式发布面向万亿参数大模型的超节点AI服务器“元脑SD200”。该产品基于浪潮信息研发的多主机低延迟内存语义通信架构,可在单机内运行超万亿参数大模型,并支持多个领先大模型机内同时运行及多智能体实时协作与按需调用,目前已实现商用。这一突破性技术标志着AI算力基础设施迈入新阶段,为大规模人工智能模型的部署和应用提供了关键支撑。
超节点本质上是通过GPU互联技术实现的超大计算系统,它将多个节点优化组合在一起,突破传统算力部署的边界。这种架构聚合可显著提升集群整体能效、通信带宽与空间利用效率。浪潮信息副总经理赵帅指出,当前混合专家模型的高效架构正驱动大模型参数规模持续扩展,国内外前沿大模型的参数量快速突破万亿规模,这给算力系统架构带来新的挑战。传统算力架构已难以满足高效、低耗、大规模协同的AI计算需求,行业亟需一场技术革新。
“元脑SD200”基于开放总线交换技术构建,首创多主机三维网格系统架构,实现64路本土GPU芯片高速互连。该产品通过创新远端GPU虚拟映射技术,突破多主机交换域统一编址难题,实现显存统一地址空间扩增8倍,单机提供最大4TB显存和64TB内存,为万亿参数、超长序列大模型提供充足键值缓存空间。依托百纳秒级超低延迟链路,系统构建了64卡大高速互连域统一原生内存语义通信,在推理过程常见的小数据包通信场景中,全规约性能表现优异。
在系统层面,浪潮信息开发了智能总线管理系统,实现超节点64卡全局最优路由的自动创建,支持不同拓扑切换和资源按需切分。同时,依托开放的PD分离框架,支持异步KV Cache高效传输与差异化并行策略,将预填充-解码环节解耦,显著提升推理效率。通过软硬协同系统创新,“元脑SD200”在大模型场景中展现出优异性能,其满机运行DeepSeek-R1全参模型推理性能超线性提升比为3.7倍,满机运行Kimi K2全参模型推理性能超线性提升比为1.7倍。
超节点架构的开放特性为产业链协同创新提供了基础。浪潮信息将OCM(开放算力模组)与OAM(开放加速模块)架构有机融合,支持“一机多芯”设计,可快速适配Intel、AMD、ARM等多种计算平台,使来自不同厂商的GPU、NPU等AI加速器可在同一系统中协同运行。赵帅强调,超节点的搭建需要使用大量高速连接器、高速线缆、板材等产品,这将推动上下游相关技术突破和应用,助力形成更好的产业生态。
随着AI算力需求持续增长,中国加速服务器市场迎来爆发式发展。IDC报告显示,2025年上半年中国加速服务器市场规模预计达160亿美元,较2024年上半年增长超过一倍。浪潮信息作为行业领军者,2025年上半年营收达到801.9亿元,同比增长90%,展现了其在市场中的强大竞争力。“元脑SD200”的发布不仅为开源大模型规模化落地和应用创新提供了关键支撑,更推动了“智能平权”的加速实现,让更多企业能够用得起、用得好超节点系统。