Development & Optimization

2025年 6月 4日
借助 NVIDIA 多进程服务更大限度地提高 OpenMM 分子动力学吞吐量
分子动力学 (MD) 模拟模拟原子在一段时间内的相互作用,并且需要强大的计算能力。然而,许多模拟的系统规模很小 (约 400K 个原子) ,
3 MIN READ

2025年 6月 3日
NVIDIA Base Command Manager 为 AI 集群管理提供免费的启动程序
随着 AI 和高性能计算 (HPC) 工作负载变得越来越常见和复杂,系统管理员和集群管理员是确保一切平稳运行的核心。他们的工作 (构建、
1 MIN READ

2025年 5月 27日
在 NVIDIA Grace Hopper 上分析大型语言模型训练工作流
AI 的快速发展催生了模型大小呈指数级增长的时代,特别是在大语言模型 (LLMs) 领域。这些模型凭借其变革能力,正在推动各行各业的创新。
3 MIN READ

2025年 5月 27日
在 NVIDIA Grace Hopper 上训练大型语言模型的高级优化策略
虽然分析有助于识别效率低下的情况,但高级优化策略对于解决硬件限制和有效扩展 AI 工作负载至关重要。在本文中,我们将探讨 CPU 卸载、
3 MIN READ

2025年 5月 22日
聚焦:Infleqtion 利用 Q-CHOP 和 NVIDIA CUDA-Q Dynamics 进行投资组合优化
计算是现代金融服务行业必不可少的工具。根据指导财务决策的算法的速度和准确性,利润是成败的。
2 MIN READ

2025年 5月 15日
使用 GPU 预测 Apache Spark 的性能
大数据分析领域正在不断寻找加速处理和降低基础设施成本的方法。Apache Spark 已成为用于横向扩展分析的领先平台,可处理 ETL、
2 MIN READ

2025年 5月 9日
CUDA C++ 编译器更新对 ELF 可见性和链接影响
在下一个 CUDA 主要版本 CUDA 13.0 中,NVIDIA 将对 NVIDIA CUDA 编译器驱动程序 (NVCC)…
4 MIN READ

2025年 5月 2日
CUDA 入门教程:更简单的介绍 (更新版)
注意:本博文最初发布于 2017 年 1 月 25 日,但已进行编辑以反映新的更新。 本文非常简单地介绍了 CUDA,
5 MIN READ

2025年 5月 1日
借助超参数优化实现堆叠泛化:使用 NVIDIA cuML 在15分钟内最大化准确性
堆叠泛化是机器学习 (ML) 工程师广泛使用的技术,通过组合多个模型来提高整体预测性能。另一方面,超参数优化 (HPO)…
3 MIN READ

2025年 5月 1日
NVIDIA Blackwell 和 NVIDIA CUDA 12.9 引入基于系列的架构特性
最早进入 NVIDIA GPU CUDA 平台的架构设计决策之一是支持 GPU 代码的向后兼容性。这种设计意味着,
3 MIN READ

2025年 4月 29日
Kaggle 大师揭秘数据科学超能力的获胜策略
来自 NVIDIA 的 Kaggle Grandmaster David Austin 和 Chris Deotte 以及 HP 的…
2 MIN READ

2025年 4月 23日
NVIDIA cuPyNumeric 25.03 现已完全开源,支持 PIP 和 HDF5
NVIDIA cuPyNumeric 是一个库,旨在为基于 Legate 框架构建的 NumPy 提供分布式和加速的插入式替换。
2 MIN READ

2025年 4月 23日
利用 NVIDIA DesignWorks 实现实时 GPU 加速的高斯体渲染示例 vk_gaussian_splatting
高斯射是一种渲染复杂 3D 场景的新颖方法,可将这些场景表示为 3D 空间中各向异性 Gaussians 的集合。
1 MIN READ

2025年 4月 21日
使用 NVIDIA TensorRT 优化基于 Transformer 的扩散模型以生成视频
先进的图像扩散模型需要数十秒才能处理单张图像。这使得视频扩散更具挑战性,需要大量计算资源和高昂成本。
4 MIN READ

2025年 4月 16日
宣布推出基于 CUDA 评估 LLM 的开源框架 ComputeEval
大语言模型 (LLMs) 正在彻底改变开发者的编码方式和编码学习方式。对于经验丰富的或初级的开发者来说,
1 MIN READ

2025年 4月 3日
使用 GPU 加速 Apache Spark 上的 Apache Parquet 扫描
随着各行各业企业的数据规模不断增长, Apache Parquet 已成为一种重要的数据存储格式。
3 MIN READ