AI芯片又叫AI加速器,专门用于处理人工智能应用中的大量计算任务的模块。
注意:其他非计算任务仍由CPU处理
神经网络需要大量的矩阵运算,CPU和传统计算架构无法满足对于并行计算能力的需求,需要特殊定制的AI芯片(GPU、TPU、NPU、DPU等等)
国外:英伟达(GPU)、谷歌(TPU)、亚马逊、特斯拉
国内:华为、百度、寒武纪、比特大陆
训练:从数据中学习出一个神经网络模型,对算力、容量、传输速率有较高要求
推理:将数据输入模型计算结果,更关注算力、功耗和价格。
训练和推理运算过程不同,一般面向训练和推理的芯片会分开设计

HBM2E:主打高带宽内存,LPDDR4x:主打低功耗内存
AI芯片是针对AI算法做了特殊加速设计的芯片,传统CPU架构并