本文共984字
兆豐研究部針對DeepSeek對AI硬體產業潛在影響評論表示,DeepSeek模型成本大幅下降,將推升AI普及率,刺激AI新應用及加速邊緣裝置AI應用普及,推升AI晶片包含GPU及ASIC總需求,並有望刺激dGPU AI PC需求。
兆豐研究部指出:
一、DeepSeek以Qwen和Llama 架構蒸餾模型,使訓練模型耗用資源大幅下降,但仍符合規模擴展定律(Scaling Law),以DeepSeek R1-Qwen蒸餾模型比較,性能32B>14B>7B>1.5B。模型參數越大,性能越強,而參數量越大仍需越大計算力及晶片需求。
二、對於晶片硬體需求影響:同步推升GPU及ASIC需求
1.雖然訓練所需算力資源有潛在降低可能性,訓練端AI晶片以GPU為主流,恐將導致NVIDIA既有產品線NVL 8潛在需求受限。
2.預期由AI終端應用遍地開花將推升推論需求,進一步推升AI晶片需求。訓練模型需要大集群、機櫃互聯(inter-rack),而推論需求相較於訓練更需要局部強互聯、超節點(機櫃內互聯intra-rack)。推論需求攀升,將同步推升GPU及ASIC晶片需求。
3.NVIDIA積極設計推展超節點大機櫃,將大幅降低推論成本,產品線設計包含NVL 72、NVL 144、NVL 288等,GB200/300 NVL72將於2025年陸續放量,NVL 144/ NVL 288有望於2026年推出。
4.CSP ASIC晶片需求預期將隨落地應用推展而加速成長,然仍無法完全取代CSP對於NVIDIA GPU需求。雖然ASIC有效降低晶片成本,然前期晶片開發周期長,惟無法彈性因應AI演算法日新月異變動,並且ASIC系統級設計能力尚無法達到NVIDIA因應推論需求發展的超節點大機櫃相同水準。
三、對於硬體下游影響:加速邊緣裝置AI應用普及,NPU需求轉向dGPU獨顯
AI訓練成本跟時間大幅下降,推論輸出tokens定價大幅下降,對於講求成本效益及資源有限的團隊有利,有望加速迎來各行各業加速導入AI多種新應用場景。
DeepSeek主體和蒸餾多個開源模型,模型大小最小1.5B,最大70B。PC作為主要生產力工具,DeepSeek多款開源模型發布將刺激獨顯dGPU PC,因CPU/iGPU PC大多僅能跑到7B/14B模型,能夠順暢於本地部署AI模型應用仍需dGPU獨立顯卡。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言