大模型入门:一文读懂算力与 CPU、GPU、GPGPU、TPU、DPU

一、什么是算力

算力,即计算系统处理信息和执行计算的能力,其核心是对数据进行数学运算和逻辑处理的效率。从广义上看,它包含信息计算力、数据存储力和网络运载力的协同作用,而狭义上则聚焦于 CPU、GPU 等芯片的硬件性能。衡量算力的关键指标包括 FLOPS(每秒浮点运算次数)、IPS(每秒指令数)等,其中 FLOPS 尤其适用于评估 AI 训练等复杂任务 —— 例如英伟达 H100 GPU 的 BF16 算力可达 1979 TFLOPS,较前代 A100 提升近 3 倍。

请添加图片描述

当然,人类大脑本身就具备“算力”,人类每时每刻都在进行计算。人类大脑就是一台强大的算力引擎,它借助感官系统(视觉、听觉、触觉等)收集信息,再进行信息处理(思考、记忆、判断),最终依据这些信息做出动作(表情、语言、行动等)。面对简单问题时,我们会通过口算、心算进行无工具计算;遇到复杂情况时,则会借助算力工具开展深度计算。

20世纪40年代,人类迎来了算力革命:1946年,计算机被发明,美国数学家冯·诺依曼研制出了世界上第一台现代电子数字计算机ENIAC。可以说,正是算力的发展推动了人工智能技术的逐步突破,而人工智能的发展也反过来促进了算力的持续提升。

从历史发展角度上讲,算力可以分为传统算力和现代算力。

1. 传统算力:信息计算力

传统算力指计算机中央处理器(Central Processing Unit,CPU)的信息计算力。

CPU计算机的多任务执行有两种执行方式,并发并行

并发是指:对于单核CPU处理多任务,同一个CPU在一段时间内交替去执行任务。

并行是指:对于多核CPU处理多任务,操作系统会给CPU的每个内核安排一个执行的软件,多个内核是真正的一起执行软件。

基于CPU的计算能力本质上说是串行计算,多核CPU设计虽然能够并行处理多任务,但是并行能力有限,计算效率低。例如,普通服务器在处理大模型训练时需数月时间,而智能算力服务器仅需数小时。

随着计算机应用的不断发展,传统算力经历了大型机时代(1940-1980)、PC时代(1980-)。在这个阶段,CPU算力基本能够满足人们对计算力的需求,但这是基于CPU算力的不断提高的基础上的。传统计算力越来越无法满足人们对算力的需求,比如著名的安迪-比尔定律,CPU硬件能提供多少算力,计算机应用很快就能消耗多少算力。

注:安迪定律的原话是“安迪提供什么,比尔拿走什么”。其中,“安迪”指的是英特尔原CEO安迪·格鲁夫,而“比尔”则是微软的比尔·盖茨。

传统算力(CPU计算机)主要还是单点计算(一台大型机或一台PC,独立完成全部的计算任务),主要用于基础通用任务,如办公自动化、数据统计、科学计算等,对高复杂度任务(如AI训练和推理)支持不足。

2. 现代算力:计算+存储+网络三要素协同

人们苦于单点式计算的算力不足,便开始尝试网格计算:把许多计算机通过网络连接组织成为一个大型计算系统,并把一个巨大的计算任务,分解为很多的小型计算任务,交给不同的计算机完成。这种把大任务分解成小任务给不同计算机的计算方式又称为分布式计算架构。

云计算,就是分布式计算的一种典型应用。它的本质是将大量的零散独立型算力(算力小、不可靠)资源进行打包、汇聚,实现更高可靠性、更高性能、更低成本的平台型算力(算力大、高可靠)。

具体来说,在云计算中,中央处理器(CPU)、内存、硬盘、显卡(GPU)等计算资源被集合起来,通过软件和网络,组成一个虚拟的可无限扩展的“算力资源池”,“算力资源池”可以动态地进行算力资源的分配。

算力云化之后,数据中心成为了算力的主要载体。人类的算力规模,开始新的飞跃。

此时的算力,是信息计算力、数据存储力、网络运载力等综合体现。

现代算力也经过了云计算时代(2000-2020)和人工智能时代(2020至今)的发展阶段。

为了满足不同应用的算力需求,现代数据中心又可以分为三种不同的类型:通算中心,超算中心,智算中心,也就是人们常说的通算、超算和智算。

图片

二、通算、超算和智算

1. 通算(CPU为主)

通用型计算,计算机系统执行日常通用任务的基础算力,是计算机系统中最基础的计算能力,用于执行各种常见的计算任务。它不依赖于特定的技术或平台,是计算机系统进行各种计算任务的基础。

硬件架构: 以CPU为主(如英特尔酷睿、AMD Ryzen),支持串行计算与通用任务。

计算精度: 单精度浮点运算(FP32)为主,兼顾通用性。

能效比: 较低(1-2 TFLOPS/W),适合轻量级任务。

因为通用型计算支撑的上层应用繁杂,导致其生态复杂,需要众多的软件厂商与其适配,具有很高的技术壁垒。比如主流的CPU提供商只有两家,英特尔和AMD。即使其他厂商研发出同样性能的CPU芯片,也很难培养生态和市场。

2. 超算(CPU+GPU为主)

超级计算,又称为高性能计算(High Performance Computing,HPC),主要解决大规模科学计算问题的高端算力,以高精度数值计算为核心。主要用于基因分析、新材料、新能源、新药设计、航空航天飞行器设计等领域的研究。超算的核心计算能力由高性能 CPU 或协处理器提供,注重双精度通用计算能力,追求精确的数值计算。

早期是CPU为主,现在主要是CPU+GPU为主。为什么加上GPU呢?GPU(Graphics Processing Unit,图形处理单元)俗称显卡,早期用于大型游戏的图形显示加速处理的,后来发现GPU特别适合数据密集型的向量的计算,所以在超算、智算领域流行并大规模部署。

硬件架构: 采用高性能CPU(AMD EPYC、英特尔至强)、协处理器及大规模并行集群。

计算精度: 双精度浮点运算(FP64)为核心,确保科学计算的精确性。

能效比: 能耗极高,需液冷等散热技术支撑。

HPC计算,又可以细分为三类:

科学计算类: 物理化学、气象环保、生命科学、石油勘探、天文探测等。

工程计算类: 计算机辅助工程、计算机辅助制造、电子设计自动化、电磁仿真等。

智能计算类: 即人工智能计算,包括:机器学习、深度学习、数据分析等。

科学计算和工程计算这些专业科研领域的数据产生量很大,对算力的要求极高。以油气勘探为例:油气勘探,简单来说就是给地表做CT,一个项目原始数据往往超过100TB,甚至可能超过1个PB,如此巨大的数据量,需要海量的算力进行支撑。

3. 智算(GPU为主)

随着人工智能技术的飞速发展,对智能计算需求急剧攀升,因此发展出了智能计算型的新型数据中心,也就是专门进行智能计算的数据中心。这几年,因为人工智能计算的需求旺盛,专门建设了很多智算中心。

智能计算,主要是面向人工智能任务的专用算力,人工智能的核心是神经网络的计算,而神经网络主要是向量矩阵的计算,因此智算中心侧重数据驱动的并行计算与模型训练和推理。主要以GPU算力为主。

硬件架构: 基于GPU(英伟达A100/H100)、TPU、FPGA等专用AI芯片,优化并行计算与矩阵运算,主要有三种类型:

  • GPU(图形处理器):并行架构强,可同时处理多任务,如英伟达A100、H100,适用于深度学习训练和推理。
  • ASIC(专用集成电路):为特定应用定制,效率高、能耗低,如谷歌TPU,专为机器学习设计,适合大规模数据中心和云计算。
  • FPGA(现场可编程逻辑门阵列):可编程、灵活配置,如赛灵思Alveo系列,适合需定制化计算的AI场景,如金融分析、图像处理。

计算精度: 低精度为主(FP16/INT8),适配AI模型训练与推理的高吞吐需

求。

能效比: 较高(10-30 TFLOPS/W),优化AI任务能耗。

图片

总结CPU与GPU的区别如下:

CPUGPU
任务处理一个博士生,擅长处理复杂逻辑与分支任务。一群小学生,适合并行处理简单重复任务。
指令执行按人类直觉顺序执行,遇分支可跳转。无法执行跳转指令,采用全计算后赋值策略。
适算类型提升对分支语句处理效率,核心数少,寄存器多,因而更适合处理大型复杂任务,而不适合大量重复简单计算。不断堆叠计算核心数量,适用于图形渲染。由 RT core、CUDA 核心、Tensor 核心组成,功能拓展到科学计算与 AI 领域。

不同于通算的CPU,智算GPU的发展时间短,支撑的上层应用相对单一,无需复杂的生态适配,适配难度小很多,因此做起来相对容易。国内做人工智能芯片的公司发展不错,例如华为、曙光、沐曦、寒武纪、壁仞等。

三、智算芯片的演进

1.GPU

从名称上我们就知道,GPU(Graphics Processing Units,图形处理器)起初不是专为智能型计算而设计,是为大型网络游戏画面渲染显示而设计的。图形处理原理是通过大量计算单元同时计算图形中每一个线条中点的坐标。而人工智能计算最基本的计算类型是矩阵运算,恰好与图形运算是类似的,因而被用于智算领域。

2.GPGPU

基于GPU,厂商为了满足智算需求,在GPU的基础上进一步增加了矩阵运算单元,进一步增强了智算的计算能力。

例如,在英伟达的GPU中,有个叫Tensor核心的东西(又叫张量核心),就是专门为矩阵运算设计的。

这种不仅可以进行图形渲染,还可以进行非图形领域的通用计算任务的GPU有了一个新的名称GPGPU。

GPGPU(General Purpose computuing on GPU)即通用计算型图形处理器,是指利用GPU原本为图形渲染设计的高并行计算能力,执行非图形领域的通用计算任务。其核心在于将GPU的并行架构(如英伟达的CUDA核心、AMD流处理器)应用于科学计算,人工智能等高并行计算场景。

国产处理器如海光DCU系列产品以GPGPU架构为基础,以AMD RX4000系列为基础进行改进的流处理器,兼容通用的“类CUDA”环境以及国际主流商业计算软件、人工智能软件,可广泛应用于大数据处理、人工智能、商业计算等领域。

3.NPU

人工智能计算需求如此旺盛,那为什么不抛开GPU,直接设计一款专用于人工智能领域的芯片呢?因此我们有了NPU。

NPU(Neural Processing Units,神经网络处理器)是一种专门为人工智能(AI)计算设计的处理器,主要用于高效执行神经网络相关的运算(如矩阵乘法、卷积、激活函数等)。相较于传统CPU/GPU,NPU在能效比和计算速度上更具优势,尤其适合移动设备、边缘计算和嵌入式AI场景。

国产芯片如华为昇腾910系列就是华为自主研发的高性能NPU,其综合性能在国产AI芯片中处于领先地位,并在多个行业应用中展现出显著优势。

随着人工智能计算的需求越来越多,专用计算芯片的比例正在逐步增加,这几年逐渐开始流行起来的TPU、DPU等,都是智算领域的专用芯片。

4.TPU

TPU(Tensor Processing Unit,张量处理器)是谷歌于2016年推出的张量处理单元,主要用于低精度运算。这款专为机器学习设计的专用芯片(ASIC),通过硬件与算法的深度协同优化,在性能、能效比和扩展性上实现了突破,成为驱动AI技术进化的重要引擎。

5.DPU

DPU(Data Processing Unit,数据处理器) 是一种专为数据中心设计的处理器,旨在解决传统CPU在处理网络、存储、安全等基础设施任务时的效率瓶颈。作为继CPU、GPU之后的“第三颗主力芯片”,DPU通过硬件加速和任务卸载,释放CPU算力以支持核心业务应用。在人工智能计算领域的主要作用有:

  • AI推理加速:DPU支持轻量级模型推理,例如在智能摄像头中实现实时目标检测。
  • 科学计算:通过RDMA技术优化跨节点数据传输,提升分布式计算效率。

除了基础通用算力、智能算力、超算算力之外,科学界还出现了前沿算力的概念,主要包括量子计算、光子计算等,同样值得关注。

四、 如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值