[go: up one dir, main page]

This site requires Javascript in order to view all its content. Please enable Javascript in order to access all the functionality of this web site. Here are the instructions how to enable JavaScript in your web browser.
NVIDIA Quantum InfiniBand 平台

将端到端高性能网络引入科学计算、AI 和云数据中心。

概览

NVIDIA Quantum InfiniBand 网络解决方案

复杂工作负载常常需要高速处理高分辨率模拟、超大型数据集和高度并行算法。随着这些需求的持续增长,NVIDIA Quantum InfiniBand 这款全球唯一可完全卸载的网络计算平台实现了性能上的巨大飞跃,可通过降低成本和复杂性来缩短开发时间。

 An image of a switch chip with many silicon photonics modules co-located on the same chip package.

全新光电一体化封装的硅光网络交换机将助力跨越多个地域的 AI 工厂扩展至百万 GPU 的级别

NVIDIA Quantum-X800 InfiniBand 为 AI 专用基础设施带来更高性能

产品

NVIDIA Quantum InfiniBand 平台

InfiniBand 网卡

作为 NVIDIA Quantum InfiniBand 网络平台的一部分,NVIDIA® ConnectX® InfiniBand 主机网卡 (HCA) 可提供超低延迟和超高吞吐量,以及创新的 NVIDIA 网络计算引擎,能够满足现代工作负载在性能加速、可扩展性和功能丰富的技术方面的需求。

Data Processing Units (DPU)

NVIDIA BlueField® DPU 集强大的计算能力、高速网络和广泛的可编程性于一体,能为要求严苛的工作负载提供软件定义、硬件加速的解决方案。从加速 AI 和科学计算到云原生超级计算,BlueField 重新定义了可能性。

InfiniBand 交换机

NVIDIA Quantum InfiniBand 交换机系统可提供超高的性能和端口密度。通过 NVIDIA SHARP™ 网络计算技术等创新功能以及网络自愈功能、服务质量、增强的虚拟通道映射等高级管理功能,为行业应用、AI 和科学计算等应用显著提升性能。

路由器和网关系统

NVIDIA Quantum InfiniBand 系统通过使用 InfiniBand 路由器和 InfiniBand 到以太网网关系统,InfiniBand 系统能够提供超强可扩展性和子网隔离能力。通过使用 InfiniBand 到以太网网关,用户能够以可扩展且高效的方式将 InfiniBand 数据中心连接到以太网基础设施。

远程互连系统

NVIDIA MetroX® 远程互连系统可以无缝连接远程 InfiniBand 数据中心、存储和其他 InfiniBand 平台。该系统可将 InfiniBand 的覆盖范围扩展到 40 公里,从而实现远程数据中心之间或数据中心与远程存储设施之间的原生 InfiniBand 连接,帮助实现高可用性及灾难恢复。

线缆和收发器

LinkX® 线缆和收发器能够最大限度地提高 HPC 网络的性能和质量,满足 HPC 网络在 InfiniBand 组件之间建立高带宽、低延迟且高度可靠的连接要求。

功能

InfiniBand 如何增强网络

网络计算

NVIDIA SHARP™ 技术可将聚合通信运算卸载到交换机网络,从而减少网络传输的数据量,缩短消息传递接口 (MPI) 操作的时间,并提高数据中心效率。

网络自愈

具有网络自愈功能的 NVIDIA InfiniBand 能克服链路故障,它实现网络恢复的速度是其他基于软件的解决方案的 5000 倍。网络自愈功能利用了内置于新一代 InfiniBand 交换机中的智能功能。

服务质量

NVIDIA Quantum InfiniBand 是成熟高效的高性能互连解决方案,支持久经验证的服务质量功能,包括高级拥塞控制和动态路由,能提供卓越的网络效率。

网络拓扑

NVIDIA Quantum InfiniBand 提供集中式管理,支持多种网络拓扑,包括 Fat Tree、Hypercubes、多维 Torus 和 Dragonfly+等。路由算法可为适配特定应用通信模式的网络拓扑实现性能优化。

软件

InfiniBand 软件栈

MLNX_OFED

OpenFabrics 联盟的 OFED 软件包由多个高性能 IO 制造商协同开发和测试。NVIDIA MLNX_OFED 是经过 NVIDIA 优化和测试的 OFED 发行版本。

HPC-X

NVIDIA HPC-X® 是完整的 MPI 和 SHMEM/PGAS 软件套件。HPC-X 可充分利用 InfiniBand 网络计算能力和加速引擎来优化科研和行业应用。

UFM

借助 NVIDIA Unified Fabric Manager (UFM®) 平台,数据中心管理员能够高效地对 InfiniBand 网络基础设施进行调配、监控、管理和主动故障排查。

Magnum IO

NVIDIA Magnum IO™ 利用网络 IO、网络计算、存储和 IO 管理来简化并加速多 GPU、多节点系统的数据搬运、访问和管理。

资源

InfiniBand 的新动态

配置您的集群

参加网络课程

准备购买?

后续步骤

准备好开始了吗?

配置您的集群

此在线工具可以帮助您配置集群,支持基于两层交换系统的胖树和 Dragonfly+拓扑。

参加网络课程

参加 NVIDIA 学院,探索有关 NVIDIA Quantum InfiniBand 网络的深度技术训练主题。

准备购买?

了解如何购买 NVIDIA 网络解决方案的详细信息。

后续步骤

准备好开始了吗?

配置您的集群

此在线工具可以帮助您配置集群,支持基于两层交换系统的胖树和 Dragonfly+拓扑。

参加网络课程

参加 NVIDIA 学院,探索有关 NVIDIA Quantum InfiniBand 网络的深度技术训练主题。

准备购买?

了解如何购买 NVIDIA 网络解决方案的详细信息。