NVIDIA MAGNUM IO SDK
适用于现代 GPU 加速型数据中心的 IO 子系统
借助 NVIDIA MAGNUM IO™ 软件开发套件 (SDK),开发者能够消除 AI、高性能计算 (HPC)、数据科学和可视化应用中的输入/输出 (IO) 瓶颈,从而缩短工作流中的端到端时间。Magnum IO 涵盖虚拟化、容器化和裸机环境中 CPU、GPU、DPU 和存储子系统之间的数据搬运的各个方面。
获取 Magnum IO 容器Magnum IO 近期动态
云原生超级计算 Magnum IO 架构
Magnum IO 是数据中心的 IO 子系统,它引入了新的增强功能来加速多租户数据中心的 IO 和通信,称为云原生超级计算 Magnum IO 技术。
了解详情立体视频有赖于 Magnum IO 和 Verizon 5G 技术
运行在 InfiniBand 网络上的 Magnum IO GPUDirect 助力实现 Verizon 的突破性分布式立体视频架构。通过将其技术应用到位于美国各地的体育中心和 Verizon 设施的边缘计算中心,他们能够为媒体带来 3D 体验,可将您置身其中,为您提供全新的体验方式。
观看视频灵活抽象
Magnum IO 使 AI、数据分析、可视化和 HPC 开发者能够革新和加速使用常见的高级抽象和 API 构建的应用。
通过架构设计实现规模化
Magnum IO 技术支持通过 NVLink 和 PCIe 将计算纵向扩展到多个 GPU,以及在数据中心规模的 InfiniBand 和以太网上的多个节点中纵向扩展计算。
高级 IO 管理
通过 NVIDIA NetQ™ 和 NVIDIA UFM® 构建的高级遥测和监控功能可帮助用户配置和调优互连基础设施并进行故障排除,以实现峰值性能。
Magnum IO 组件
加速各种应用中的 IO
深度学习
Magnum IO 网络可提供类似于发送和接收的点对点功能以及类似于 AllReduce 的集合,用于大规模深度学习训练。集合 API 隐藏了拓扑检测、对等复制和多线程等低级别优化,以简化深度学习训练。通过发送/接收,用户可以加速一个 GPU 的显存无法容纳的大型深度学习模型。GPUDirect Storage 还可以绕过 CPU 主机上的反弹缓冲区,帮助缓解本地或远程存储的 IO 瓶颈。
高性能计算
为点燃新一代发现的火花,科学家们希望通过模拟,更好地理解复杂分子结构以支持药物发现,理解物理现象以寻找新能源,理解大气数据以更好地预测极端天气状况。Magnum IO 提供硬件级加速引擎和智能卸载(例如 RDMA、GPUDirect 和 NVIDIA SHARP),同时支持 400Gb/s 高带宽和 NVIDIA Quantum 2 InfiniBand 网络超低延迟。
使用多租户时,各用户应用可能并不知晓相邻应用流量不加选择的干扰。Magnum IO 基于新一代的 NVIDIA Quantum-2 InfiniBand 平台,带来新的改进功能,可以减轻流量干扰对用户性能的负面影响。这样可以达到理想结果,并在各种规模下实现更高效的高性能计算 (HPC) 和机器学习部署。
数据分析
数据科学和机器学习是计算能力需求巨大的领域。预测性机器学习模型的准确性即便提升微小,也能带来数十亿美元的价值。为提升准确性,适用于 Apache Spark 库的 RAPIDS™ 加速器基于 NVIDIA UCX® 构建了内置的置乱,可利用 GPU 对 GPU 的通信和 RDMA 功能。通过与 NVIDIA 网络、Magnum IO、GPU 加速的 Spark 3.0 和 RAPIDS 相结合,NVIDIA 数据中心平台能够以超凡的性能和效率水平加速这些大型工作负载。
开始使用 Magnum IO 开发者环境
Magnum IO 开发者环境可以作为容器使用,其中包括开始开发和优化所需的所有新版库、开发工具和分析工具。优化后的应用接下来可以在虚拟化、容器化或裸机环境中运行。