AI芯片是AI服务器算力的核心组成,随着AI算力规模的快速增长将催生更大的AI芯片需求。根据行行查数据,预计2022年中国人工智能芯片市场规模为850 亿元,2023年中国人工智能芯片市场规模将达到1039 亿元,2025 年中国人工智能芯片市场规模将达到1780亿元。#人工智能#
AI芯片行业概览
AI芯片即人工智能芯片,也被称为AI加速器或计算卡,是专门针对人工智能领域设计的芯片,其架构和指令集针对人工智能领域中的各类算法和应用作了专门优化,可高效支持视觉、语音、自然语言处理和传统机器学习等智能处理任务。
从技术架构来看,Al芯片主要分为GPU(图形处理器)、FPGA(现场可编程逻辑门阵列)、ASIC(专用集成电路)三大类。
其中,GPU是较为成熟的通用型人工智能芯片,FPGA和ASIC则是针对人工智能需求特征的半定制和全定制芯片。
关注乐晴智库,洞悉产业格局!
GPU
GPU是图形处理器的简称,它是一种专门用于处理图形、视频、游戏等高性能计算的硬件设备。
GPU相对于传统的中央处理器(CPU)而言,其拥有更多的计算核心和更快的内存带宽,能够大幅度提高计算效率和图形渲染速度。
现阶段,随着例如英伟达A100、H100等型号产品的发布,GPU在算力方面的优势相较于其他硬件具有较大优势,GPU的工作也从一开始的图形处理逐步转化为计算。
GPU由于其具有最强的计算能力同时具备深度学习等能力,成为最适合支撑人工智能训练和学习的硬件,目前成为服务器中加速芯片的首选。
根据用途和性能表现,GPU可以分为专业卡和消费级卡两类:专业卡通常用于工程、科学、医学等领域的高性能计算和大规模数据处理,主要厂商包括英伟达、AMD等;消费级卡则主要用于普通家庭和游戏玩家,主要厂商包括英伟达、AMD、英特尔等。
GPU数量和总算力的关系(GPU为英伟达A100):
2022年8月31日,英伟达、AMD生产的GPU产品被美国列入限制范围,英伟达被限制的产品包括A100和H100,AMD受管制GPU产品包括MI100和MI200系列。海光DCU属于GPGPU的一种,在典型应用场景下,海光深算一号指标达到国际上同类型高端产品的水平,在海外监管趋严的背景下,以海光为代表的国产GPU厂商迎来黄金发展期。
AI芯片以GPU为主,占总市场规模约九成:
FPGA
FPGA在灵活性等方面拥有ASIC、GPU等处理器无法比拟的优势。
FPGA完全可以不需要读DRAM,整个算法在片上完成。例如,深鉴科技利用FPGA做出了ESE的模型并在不同的处理器(CPU/GPU/FPGA)上运行,发现FPGA上训练时长最短,能耗最小。
在能耗上,CPU Dense耗能11W、CPU Sparse耗能38W、GPU Dense耗能202W,这是耗能最大的一种情况、GPU Spare耗能136W,相比之下FPGA仅需41W;在训练时延上,FPGA用时82.7μs,远小于CPU的6017.3μs,也仅为GPU训练时长的三分之一。