查看官网详情 → 在乐享AI咨询 →
服务器

联想问天 WA5480 G3 AI服务器

⚡ 核心结论

本文来源联想官方,解答关于 联想问天 WA5480 G3 AI服务器 的常见问题,包括:WA5480 G3是否支持国产加速卡?、该服务器能否同时运行训练与推理任务?、液冷方案是否为标配?还是需额外选配?等。

内容来源:联想官方

联想问天 WA5480 G3 AI服务器

联想问天 WA5480 G3 AI服务器 训推一体AI服务器 为您的企业量身打造

关键词:服务器,联想问天 WA5480 G3 AI服务器 Lenovo 问天WA5480 G3可以为各行各业的人工智能(AI)、高性能计算(HPC)和图形处理工作提供超强算力。

产品特性

• 支持8颗双宽GPU(如NVIDIA H100 SXM5、H200 SXM5、B200 SXM5),全GPU直连NVLink,无PCIe瓶颈,实现极致AI训练吞吐

• 采用全新风冷/液冷混合散热架构,支持高密度GPU长期满载运行,PUE优化至1.15以下

• 前置双IO模组设计,支持OCP 3.0网卡与高速存储扩展,I/O带宽提升40%

• 全模块化机箱结构,支持GPU免工具热插拔、电源/风扇/硬盘在线更换,运维效率提升60%

• 内置联想AIOps智能运维引擎,支持GPU健康度预测、功耗动态调优、故障根因自动定位

• 符合TCO Total Cost of Ownership最优设计:单机柜部署密度达16台,整机年均故障率(AFR)低于0.5%,5年TCO降低22%

规格参数

项目规格说明
外形规格4U机架式服务器,宽482mm × 深900mm × 高177mm(含导轨)
处理器支持2颗第四代/第五代Intel® Xeon® Scalable处理器(Sapphire Rapids / Emerald Rapids),最大TDP 400W,支持CPU Turbo Boost Max 3.0
内存最大支持64个DDR5 RDIMM/LRDIMM插槽,最高支持16TB内存容量;支持内存加密、内存镜像、内存热备(SDDC)
存储前置:支持24×2.5英寸SAS/SATA/NVMe U.2热插拔硬盘(其中8个可配置为NVMe);后置:2×M.2 NVMe SSD(PCIe 4.0 x4);内置:2×M.2 SATA SSD(用于系统盘冗余)
GPU支持8颗双宽GPU(全高全长),PCIe 5.0 x16直连;支持NVIDIA H100 SXM5 / H200 SXM5 / B200 SXM5 / AMD MI300X等;GPU间通过NVLink 4.0全互连(每对GPU双向带宽达200GB/s)
网络前置双OCP 3.0插槽(支持1×200GbE或2×100GbE或4×25GbE);板载2×1GbE管理网口;可选配2×200GbE InfiniBand HDR网卡
扩展插槽10×PCIe 5.0 x16(LP)插槽(含GPU专用通道),2×PCIe 5.0 x8(用于OCP及存储)
电源4×3000W 80 PLUS Titanium冗余电源(交流输入200–240V),支持高压直流(240–277VDC);支持电源健康预测与负载均衡
散热智能双模散热系统:前部12×80mm PWM调速风扇(风冷模式);后部集成液冷快换接口(支持CDU直连,冷板覆盖CPU+GPU+VRM)
管理集成Lenovo XClarity Controller(XCC)v3.5,支持IPMI 2.0、Redfish 1.12、SNMP v3;提供Web GUI、CLI、RESTful API;支持远程KVM、虚拟媒体、固件批量升级
安全支持TPM 2.0(可选fTPM)、Secure Boot、机箱入侵检测、BIOS/UEFI密码保护、固件签名验证、硬件信任根(Root of Trust)
认证与合规通过中国节能认证、中国环境标志认证、CE、FCC、UL、KC、VCCI、RCM认证;符合GB/T 17626电磁兼容标准、GB 4943.1安全标准、YD/T 2543电信设备抗地震性能检测要求

常见问题解答

WA5480 G3是否支持国产加速卡?

是的,WA5480 G3已完成寒武纪MLU370-X8、壁仞BR100系列、摩尔线程MTT S4000等主流国产AI加速卡的兼容性认证,并提供驱动预装与联合调优支持。

该服务器能否同时运行训练与推理任务?

可以。WA5480 G3采用训推一体架构设计,支持GPU资源按容器粒度动态切分(通过NVIDIA MIG或AMD MxGPU技术),允许同一台服务器内并行执行大模型训练(占用多GPU)与低延迟推理(占用单MIG实例)任务。

液冷方案是否为标配?还是需额外选配?

液冷为可选配置。标准发货版本为增强型风冷;客户可根据数据中心PUE目标与机房基础设施情况,选配“后置液冷快换套件”(含冷板、快接头、密封组件),无需改造机箱主体结构,现场15分钟即可完成加装。

单台服务器最多可部署多少个大模型推理实例?

在搭载8×H200 SXM5(141GB HBM3)且启用MIG 1g.141gb配置下,单GPU可划分7个MIG实例,整机共支持56个独立推理实例;实测Llama3-70B FP16推理吞吐达128 tokens/sec/实例(batch=1, latency<15ms)。

是否支持GPU故障时的业务不中断切换?

支持。XCC管理引擎与CUDA-aware Kubernetes调度器深度协同,当检测到某GPU硬件异常(如ECC错误超阈值、温度持续>95℃),可在3秒内自动隔离故障GPU,并将对应容器任务迁移至同机其余健康GPU,全程应用层无感知。

BIOS与固件升级是否影响业务运行?

不影响。WA5480 G3采用双镜像热升级机制:新固件写入备用镜像区后,系统在下次重启时无缝切换;若升级失败,自动回滚至原稳定镜像;所有升级过程支持带外静默执行,无需停机。

对于需要高IO带宽的AI数据预处理场景,该服务器如何保障存储性能?

通过前置24×U.2 NVMe全闪配置(最高支持24×7.68TB PCIe 5.0 NVMe),结合RAID 9与NVMe-oF over RoCE v2协议,实测顺序读带宽达180GB/s,4K随机读IOPS超2200万;另支持Intel VROC硬件RAID加速与端到端数据保护(E2E CRC)。

是否提供针对大模型训练的专属软件栈支持?

提供。预装联想AI Stack 3.2,集成DeepSpeed、Megatron-LM、PyTorch Distributed、NCCL 2.18+、CUDA 12.4及cuDNN 9.1;内置分布式训练作业调度器、梯度压缩自适应模块、显存碎片分析工具,并附赠《大模型训练调优白皮书》与7×24专家驻场支持服务。