NVIDIA Metropolis

探索此高级开发者工作流程和工具集,从边缘到云端构建、部署和扩展视觉 AI 和生成式 AI。它可提供出色的规模、吞吐量、成本效益和更快的生产时间。


查看所有工具
NVIDIA Metropolis includes a hosts of SDK and developer tools

单击展开

探索所有优势

更快的构建速度

使用和调整高性能预训练模型,为您的独特行业简化 AI 训练。使用我们的云原生模块化微服务和参考应用加速开发。

更低的成本

强大的 SDK (包括 NVIDIA TensorRT™、DeepStream 和 TAO 工具套件) 能够通过最大限度提高推理吞吐量和优化 NVIDIA 平台和基础设施上的硬件使用来降低整体解决方案成本。

灵活部署

使用云原生 Metropolis 微服务和容器化应用程序进行灵活部署,提供本地、云端或混合部署选项。



借助生成式 AI 增强您的应用

NVIDIA Video Insight Agent (VIA) searches videos with natural language interactions on a laptop

使用 NVIDIA AI 蓝图创建视频分析 AI 代理

适用于视频搜索和汇总的 NVIDIA AI 蓝图 帮助您构建视频分析 AI 代理,通过实时或存档视频传感器数据的搜索和汇总,帮助工业操作员与其基础设施进行通信。它集成了视觉语言模型 (VLM),如 NVIDIA Cosmos Nemotron 大型语言模型 (LLM),例如 NVIDIA Llama Nemotron 借助 LLM 和 NVIDIA NIM™ 提供全新的协作水平。


阅读博客

在数字孪生模拟中大规模开发、测试和优化物理 AI 和机器人车队

“Mega”Omniverse Blueprint 为企业提供 NVIDIA 加速计算、AI 和 Omniverse™ 技术来开发和测试 数字孪生。您可以将其与自己的软件结合使用,构建 AI 驱动的机器人大脑,从而通过摄像头、设备等获取 Metropolis 感知数据,进行持续开发、测试和优化。


阅读博客
Operational conveyor belt moving boxes in a warehouse



Metropolis API 和微服务

随着 AI 领域的快速发展,为边缘构建视觉 AI 应用的开发者面临着更复杂、更长的开发周期挑战。 NVIDIA Metropolis 提供一系列强大的 API 和微服务,供开发者在边缘以及任何云端轻松开发和部署应用。


了解详情

强大的工具
AI 赋能的视频分析

Metropolis 套件的 SDK 为 AI 应用开发和部署提供了各种起点。



NVIDIA Omniverse™ Replicator

大规模生成物理级准确的 3D 合成数据,或构建您自己的 合成数据 工具和框架。启动感知 AI 模型训练,实现准确的 Sim2Real 性能,而无需手动编辑和标记真实数据。


详细了解 Omniverse Replicator

此外,请查看 Omni.Replicator.Character,这是一个使用 Replicator 的 Isaac Sim 扩展程序,专注于使用高级用户界面模拟和合成数据生成 (SDG) (例如来自人类和自主移动机器人 (AMR) 的代理运动)。


详细了解 Omniverse Replicator
An autonomous mobile robot in action in a warehouse
Choose from 100+ model architectures and 25k+ task-based AI models

预训练模型

消除从零开始构建模型的耗时过程。从超过 100 种高度准确的模型和通用神经网络架构中进行选择,或者从基于任务的模型开始,以识别人类动作和姿势、在拥挤的空间中检测人员、分类车辆和车牌等。


详细了解预训练 AI 模型 使用 Jupyter Notebook 试用预训练模型

TAO 工具套件

训练、调整和优化 (TAO) 工具套件是一种低代码 AI 模型开发解决方案,允许您使用迁移学习的强大功能对 NVIDIA 预训练模型进行调整并优化推理,而无需 AI 专业知识或大型训练数据集。


详细了解 TAO 工具套件 在 LaunchPad 上试用 TAO
Leverage NVIDIA TAO Toolkit to train, adapt, and optimize AI model development
Logos of popular AI model frameworks

许多 AI 模型框架

在这些备受欢迎的 NVIDIA 支持的 AI 框架上创建您的 AI 模型和应用。将任何现有 AI 模型集成到 Metropolis 工作流程中,并通过轻松转换为 TAO 轻松自定义现有模型,例如 TensorFlow、PyTorch 等。


详细了解深度学习框架

TensorRT

此高性能深度学习推理 SDK 包括推理优化器和运行时,可在边缘设备和云端提供低延迟和高吞吐量。TensorRT 支持所有热门框架,包括 TensorFlow 和 PyTorch。TensorRT 为 NVIDIA 解决方案 (如 NVIDIA JetPack™ 和 DeepStream) 提供动力支持,让您能够加速推理。


详细了解 TensorRT
TensorRT SDK for high-performance deep learning inference
NVIDIA DeepStream SDK - a complete streaming analytics toolkit

DeepStream SDK

NVIDIA DeepStream SDK 是一款基于 GStreamer 的完整流分析工具包,用于基于 AI 的多传感器处理、视频、音频和图像理解。它非常适合构建 IVA 应用程序和服务的视觉 AI 开发者、软件合作伙伴、初创公司和 OEM。


详细了解 DeepStream SDK 在 LaunchPad 上试用 DeepStream

Triton 推理服务器

NVIDIA Triton™ 开源多框架推理服务软件,可在 GPU 和 CPU 上在生产环境中部署、运行和扩展 AI 模型。它支持所有主要框架,包括 TensorFlow 和 Pytorch,并在任何平台上更大限度地提高推理吞吐量。


详细了解 Triton 推理服务器
Triton Inference Server maximizes inference throughput on any platform
Video Storage Toolkit (VST) manages and stores footage for large volumes of video cameras

视频存储工具套件 (VST)

借助硬件加速的视频解码、流式传输和存储,轻松管理和存储大量视频摄像头的视频片段。借助包含的基于 Web 的用户界面快速入门,并通过直观的 REST API 充分利用 VST 灵活性。它适用于 NVIDIA Jetson Xavier™ 和 Orin™ 设备。


详细了解 VST

Metropolis 微服务

这套云原生微服务和参考应用程序可快速追踪视觉 AI 应用程序的开发和部署。通过缩短开发周期,为各种空间 (包括公路、机场和零售商店) 提供商业见解。


详细了解 Metropolis 微服务
Use Metropolis Microservices to develop and deploy vision AI apps
NVIDIA CUDA-X libraries help with pre-processing and model performance

CUDA-X 库

利用适用于计算机视觉等的低级库和基元,帮助处理预处理和模型性能。NVIDIA ® CUDA-X™ 基于 NVIDIA CUDA® 构建,是一系列库、工具和技术,可显著提升计算密集型算法 (包括复杂数学、深度学习和图像处理) 的性能。


云容器

使用 Docker、Kubernetes 和 GPU Operator 容器化您的应用程序,在 Jetson、x86 和 dGPU 上部署云原生解决方案。或者使用预构建的云原生 Metropolismicroservices


详细了解云容器
Video Storage Toolkit (VST) manages and stores footage for large volumes of video cameras

生成 – 合成数据生成

NVIDIA Omniverse™ Replicator

大规模生成物理级准确的 3D 合成数据,或构建您自己的 合成数据 工具和框架。启动感知 AI 模型训练,实现准确的 Sim2Real 性能,而无需手动编辑和标记真实数据。


详细了解 Omniverse Replicator

此外,请查看 Omni.Replicator.Character,这是一个使用 Replicator 的 Isaac Sim 扩展程序,专注于使用高级用户界面模拟和合成数据生成 (SDG) (例如来自人类和自主移动机器人 (AMR) 的代理运动)。


详细了解 Omniverse Replicator
An autonomous mobile robot in action in a warehouse

训练 – 应用特定的模型自定义

Pretrained AI Models

预训练模型

消除从零开始构建模型的耗时过程。从超过 100 种高度准确的模型和通用神经网络架构中进行选择,或者从基于任务的模型开始,以识别人类动作和姿势、在拥挤的空间中检测人员、分类车辆和车牌等。


详细了解预训练 AI 模型 使用 Jupyter Notebook 试用预训练模型

TAO 工具套件

训练、调整和优化 (TAO) 工具套件是一种低代码 AI 模型开发解决方案,允许您使用迁移学习的强大功能对 NVIDIA 预训练模型进行调整并优化推理,而无需 AI 专业知识或大型训练数据集。


详细了解 TAO 工具套件 在 LaunchPad 上试用 TAO
Leverage NVIDIA TAO Toolkit to train, adapt, and optimize AI model development
Logos of popular AI model frameworks

许多 AI 模型框架

在这些备受欢迎的 NVIDIA 支持的 AI 框架上创建您的 AI 模型和应用。将任何现有 AI 模型集成到 Metropolis 工作流程中,并通过轻松转换为 TAO 轻松自定义现有模型,例如 TensorFlow、PyTorch 等。


详细了解深度学习框架

构建 – 强大的 AI 应用

TensorRT

此高性能深度学习推理 SDK 包括推理优化器和运行时,可在边缘设备和云端提供低延迟和高吞吐量。TensorRT 支持所有热门框架,包括 TensorFlow 和 PyTorch。TensorRT 为 JetPack™ 和 DeepStream 等 NVIDIA 解决方案提供动力支持,是加速推理的门户。


详细了解 TensorRT
TensorRT SDK for high-performance deep learning inference
NVIDIA DeepStream SDK - a complete streaming analytics toolkit

DeepStream SDK

NVIDIA DeepStream SDK 是一款基于 GStreamer 的完整流分析工具包,用于基于 AI 的多传感器处理、视频、音频和图像理解。它非常适合构建 IVA 应用程序和服务的视觉 AI 开发者、软件合作伙伴、初创公司和 OEM。


详细了解 DeepStream SDK 在 LaunchPad 上试用 DeepStream

Triton 推理服务器

NVIDIA Triton™ 开源多框架推理服务软件,可在 GPU 和 CPU 上在生产环境中部署、运行和扩展 AI 模型。它支持所有主要框架,包括 TensorFlow 和 Pytorch,并在任何平台上更大限度地提高推理吞吐量。


详细了解 Triton 推理服务器
Triton Inference Server maximizes inference throughput on any platform
Video Storage Toolkit (VST) manages and stores footage for large volumes of video cameras

视频存储工具套件 (VST)

借助硬件加速的视频解码、流式传输和存储,轻松管理和存储大量视频摄像头的视频片段。借助包含的基于 Web 的用户界面快速入门,并通过直观的 REST API 充分利用 VST 灵活性。它适用于 NVIDIA Jetson Xavier™ 和 Orin™ 设备。


详细了解 VST

Metropolis 微服务

这套云原生微服务和参考应用程序可快速追踪视觉 AI 应用程序的开发和部署。通过缩短开发周期,为各种空间 (包括公路、机场和零售商店) 提供商业见解。


详细了解 Metropolis 微服务
Use Metropolis Microservices to develop and deploy vision AI apps
 NVIDIA CUDA-X libraries help with pre-processing and model performance

CUDA-X 库

利用适用于计算机视觉等的低级库和基元,帮助处理预处理和模型性能。NVIDIA ® CUDA-X™ 基于 NVIDIA CUDA® 构建,是一系列库、工具和技术,可显著提升计算密集型算法 (包括复杂数学、深度学习和图像处理) 的性能。


部署 – 应用程序管理和扩展

Video Storage Toolkit (VST) manages and stores footage for large volumes of video cameras

云容器

使用 Docker、Kubernetes 和 GPU Operator 容器化您的应用程序,在 Jetson、x86 和 dGPU 上部署云原生解决方案。或者使用预构建的云原生 Metropolismicroservices


详细了解云容器

开始使用示例应用程序

An engineer deploys NanoOwl object detection and metadata output on Redis in a research room

边缘生成式 AI

了解如何借助适用于 Jetson 的 Metropolis 微服务更快地将生成式 AI 应用程序投入生产。

阅读博客
Integrate TAO with DeepStream for face mask detection

借助 API 的视觉 AI 应用程序

了解如何使用 Metropolis 微服务为 Jetson 提供的 API 构建视觉 AI 应用。

阅读博客
Use TAO toolkit to detect bottle defect in a factory

缺陷检测

了解如何借助 NVIDIA TAO 和视觉 AI 模型转变工业缺陷检测。

阅读博客
Use TAO with Deepstream for number plate detection

人物检测和识别

了解如何使用 NVIDIA TAO 和 Triton™ 训练和部署角色检测和识别模型。

阅读博客

查看所有 Metropolis 技术博客

探索 NVIDIA GTC 大会点播讲座

借助 NVIDIA Metropolis 开发、部署和扩展支持 AI 的视频分析应用。


开始使用