震撼发布 | 宏创盛安搭载Intel Xeon Max处理器6U8GPU服务器

宏创盛安6U8卡AI服务器,基于Intel Xeon 处理器平台,支持多种主流AI加速卡,具备性能卓越、架构灵活和稳定可靠等特点,适用于 AI 训练&推理、人工智能、高性能计算、数据分析等应用场景,为企业级 AI 部署提供强力支撑

20260309/e8912d2dc2dfdb62f6d46f2a32369038.png

 一、Xeon Max系列核心特性 

产品支持2颗英特尔®至强®第四代或第五代可扩展处理器系列,单颗最多64个内核,最大功率350W,支持HBM技术。

其中集成HBM2e高带宽内存的Intel Xeon Max系列处理器,专为AI、HPC和数据分析工作负载设计。

关键规格

特性

规格

HBM2e容量

64GB(4个16GB堆栈)

核心数

最高56核(9480)/ 52核(9470)/ 48核(9468)

TDP

350W

适配特性

支持 x86 生态,兼容主流 AI 软件框架


 二、在AI服务器中的五大优势 

搭载Intel Xeon Max处理器在AI服务器中的核心优势,可以概括为:

具体来说,其优势主要体现在以下几个方面:

  • 强劲多核算力输出:双路 Xeon Max 处理器提供最高 112 核算力支持,配合英特尔高级矩阵扩展(AMX)加速引擎,高效适配 INT8、BF16 等常见 AI 数据类型,为 AI 推理和训练任务提供专门算力保障,大幅提升处理效率。

  • 灵活架构适配多元负载:处理器支持 HBM 与 DDR5 内存的灵活组合模式,可根据不同工作负载需求选择适配方案,无需大幅调整软件配置,降低部署成本。

  • 卓越的并行处理能力:服务器支持 8 张 GPU 并行运算,配合处理器的高速数据处理能力,有效消除 CPU 侧瓶颈,确保多设备协同工作时的高效衔接,适配大规模并行计算场景。

  • 经实测的性能优势:在实际 HPC 和 AI 工作负载中,Xeon Max 系列处理器性能表现突出,第三方评测显示,其在 AI 和 HPC 混合工作负载中可实现显著性能提升,助力业务效率升级。

  • 优化的总体拥有成本(TCO):依托处理器的高效算力与灵活架构设计,可根据业务需求优化硬件配置,在保障性能的同时,合理控制初始采购成本与长期功耗支出。

 三、典型应用场景 

场景1:大模型推理服务(LLM Serving)

  • 适配 vLLM/TGI 等主流框架,支持更长 context length(32K+ tokens),满足大模型推理的高效部署需求。

场景2:推荐系统实时推理

  • 8 张 GPU 并行处理,配合处理器高速数据处理能力,实现特征数据快速响应,保障推荐服务的实时性与精准度。

场景3:AI训练数据流水线

  • 通过内存架构优化,实现数据加载速度与 GPU 计算速度的精准匹配,提升 AI 训练全流程效率。

 四、典型配置及测试数据 

典型配置

组件

规格

准系统

宏创盛安6U8GPU服务器

CPU

双路Intel Xeon Max 9470/9480

GPU

8×NVIDIA RTX5090

内存

32GB×16 DDR5

存储

3.84TB NVMe SSD + RAID-2G缓存卡

网络

双口千兆 + 双口万兆(含模块)

电源

8个CRPS电源,支持N+N/N+M冗余

Command Lines:

NCCL_MAX_NVHANNELS=4NCCL_MIN_NCHANNELS=4 ./all_reduce_perf -b8-e 8g -f2-g8
NCCL_MAX_NVHANNELS=4NCCL_MIN_NCHANNELS=4 ./alltoall_perf -b8-e 8g -f2-g8

Bus Bandwidth(GB/s):

类别

SRP MAX 9470

SRP MAX 9480

all_reduce

41.00

41.09

alltoall

37.66

37.79

Latency(us):

类别

SRP MAX 9470

SRP MAX 9480

all_reduce

37.00

33.72

alltoall

50.39

40.02


 五、总结 

搭载Intel Xeon Max处理器的宏创盛安6U8卡AI服务器在数据密集型AI工作负载(大模型推理、实时推荐、图神经网络)中优势明显:

  • 1.4TB/s HBM带宽 → 消除CPU-GPU数据搬运瓶颈

  • 64GB近存计算 → 减少GPU显存压力,支持更大模型

  • AMX加速 → CPU侧AI推理 offload,提升整体吞吐量

  • 多种HBM模式 → 灵活适配训练/推理/混合负载

  • x86生态兼容 → 无需迁移至ARM或其他架构

适用领域:需要构建高性能AI推理集群或训推一体平台,且数据预处理成为瓶颈的场景。