SuperX发布最新XN9160-B300 AI服务器,Blackwell Ultra 比 Blackwell计算能力增加了 50%
新加坡2025年10月3日 /美通社/ -- Super X AI Technology Limited(纳斯达克代码:SUPX)(简称"公司"或"SuperX")今日宣布,正式推出其最新旗舰产品——SuperX XN9160-B300 AI服务器。该服务器搭载NVIDIA Blackwell GPU(B300),旨在满足AI训练、机器学习(ML)和高性能计算(HPC)等工作负载对可扩展、高性能计算日益增长的需求。系统专为极致性能而设计,集成了先进的网络功能、可扩展的架构和高能效设计,为关键任务型数据中心环境提供有力支持。
SuperX XN9160-B300 AI服务器专为加速大规模分布式AI训练和AI推理工作负载而打造,为高强度、高需求的应用提供极致的GPU性能。它针对GPU密集型任务进行了优化,在基础模型训练与推理,包括强化学习(RL)、蒸馏技术和多模态AI模型等领域表现卓越,同时也能为气候建模、药物发现、地震分析和保险风险建模等HPC工作负载提供超高性能。
XN9160-B300专为企业级AI和HPC环境设计,将超级计算机级别的性能与高能效、可扩展的架构相结合,以紧凑的、数据中心就绪的形态,提供关键任务所需的能力。
SuperX XN9160-B300 AI服务器的发布,是SuperX AI基础设施路线图上的一个重要里程碑,它将以强大的GPU实例和计算能力,加速全球AI创新。
图 1. SuperX XN9160-B300 AI 服务器, Blackwell Ultra架构
XN9160-B300 AI服务器
SuperX XN9160-B300 AI服务器在8U机箱内释放极致的AI计算性能,配备英特尔®至强®6处理器、8颗NVIDIA Blackwell B300 GPU、高达32个DDR5 DIMM插槽,并通过多达8个800Gb/s InfiniBand端口提供高速网络连接。
极高的GPU算力与显存
XN9160-B300被构建为一个高度可扩展的AI节点,其核心是搭载8颗NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模组。这一配置为下一代AI工作负载提供了Blackwell架构的峰值性能。
至关重要的是,该服务器通过其8颗GPU提供了高达2,304GB的统一HBM3E显存(每颗GPU 288GB)。这个庞大的显存池对于消除内存卸载、支持更大模型的驻留、以及管理高并发、长上下文的生成式AI和大型语言模型所需的海量键/值缓存至关重要。
极致的推理与训练吞吐量
该系统利用B300卓越的FP4/NVFP4精度和第二代Transformer引擎,实现了性能的巨大飞跃。据 NVIDIA 称Blackwell Ultra 比 Blackwell 有了决定性的飞跃,每块芯片的 NVFP4 计算能力增加了 50%,HBM 容量增加了 50%,从而能够在不影响效率的情况下实现更大的模型和更快的吞吐量。[1]
得益于8个用于InfiniBand的800Gb/s OSFP端口或双400Gb/s以太网,系统扩展轻而易举。这些端口提供了将服务器连接成大型AI工厂和SuperPOD集群所需的高速、低延迟通信。第五代NVLink互连技术进一步确保了板载的8颗GPU无缝通信,如同一个单一、强大的加速器。
强大的CPU与电源基础
GPU计算集群由一个强大的主机平台支持,该平台配备双路英特尔®至强®6处理器,为加速器提供所需的数据吞吐效率和带宽。内存子系统同样强大,采用32个DDR5 DIMM插槽,支持高达8000MT/s的速度(MRDIMM),确保主机平台永远不会成为GPU处理的瓶颈。
为保证关键任务的可靠性和持续性能,XN9160-B300配备了12个3000W 80 PLUS Titanium的冗余电源,确保在持续峰值负载下实现极高的能源效率和稳定性。系统还包括多个高速PCIe Gen5 x16插槽和全面的存储选项,包括8个2.5英寸Gen5 NVMe热插拔硬盘位。
技术规格:
组件 | 规格 |
CPU | 2 x Intel® Xeon 6th Gen P-Core处理器,功率高达350W(SP)/500W(AP) |
GPU | 8 x NVIDIA Blackwell B300 |
内存 | 32个96GB DDR5 5600 RDIMM |
系统盘 | 2个1920GB SSD |
存储盘 | 8个3.84TB NVMe U.2 |
网络 | 模组上CX8提供的8个OSFP (800G)端口 |
尺寸 | 8U 447mm(高) x 351mm(宽) x 923mm(深) |
市场定位
XN9160-B300专为那些致力于突破AI边界的组织而设计,满足其对最大规模、下一代模型和超低延迟的严苛要求:
- 超大规模AI工厂: 适用于构建和运营万亿参数基础模型及高并发AI推理引擎的云服务提供商和大型企业。
- 科学模拟与研究: 用于百亿亿次(Exascale)级科学计算、先进分子动力学以及创建全面的工业或生物数字孪生。
- 金融服务: 用于实时风险建模、高频交易模拟,以及部署用于金融分析且要求超低延迟的复杂大型语言模型。
- 生物信息学与基因组学: 用于加速海量基因组测序、药物发现流程以及需要B300巨大显存容量的蛋白质结构预测。
- 全球系统建模: 适用于需要极致算力进行全球气候和天气建模及高精度灾害预测的国家气象和政府机构。
评论
猜您喜欢

比亚迪销量回落,上汽海报多了10个字
2025-10-08

“金九”造车新势力:零跑首破6万辆,月销4万以上敢称头部否?
2025-10-06

车评人陈震驾劳斯莱斯逆行将对向汽车撞到绿化带,交警认定陈震全责
2025-10-05

好刀法?特斯拉“廉价版”新车发布,是否会进入中国?
2025-10-08

国庆期间阿维塔三款车起火,安全问题引关注
2025-10-08

212越野车侧翻A柱严重变形,北汽澄清与此无关
2025-10-08

2026款吉利星愿定档10月10日上市、长安启源Q07激光版将于10月10日上市|每日车讯
2025-10-09

SuperX发布最新XN9160-B300 AI服务器,Blackwell Ultra 比 Blackwell计算能力增加了 50%
2025-10-09
联系我们
添加财经导师微信,邀您加入财经讨论群,随时交流财经知识。