AI芯片是时下各个巨头极力追赶的产品。
第二种是融合运营AI算法的普通处理器;
不同架构的芯片在通用/专用性、性能、功耗方面有各自的优点和缺点。CPU 通用性最强,但时延严重、散热高、效率最低;GPU 相比其他芯片,通用性稍强、速度快、效率高,但是在神经网络的执行阶段效率低;DSP 速度快、能耗低,但是任务单一,目前成熟商品仅作为处理器 IP 核使用;FPGA 具有低能耗、高性能以及可编程等特性,相对于 CPU 与 GPU 有明显的性能与能耗优势;ASIC 可以更有针对性地进行硬件层次的优化,从而获得更好的性能。
当然,ASIC 芯片的设计和制造需要大量的资金、较长的时间周期和工程周期,而且深度学习算法也在快速迭代,ASIC 类芯片一旦定制无法再次进行写操作,FPGA 具有硬件可升级、可迭代的优势。所以当前阶段,GPU 配合 CPU 将是人工智能芯片的主流,而后随着视觉、语音、深度学习的算法在 FPGA 上的不断优化,之后会固化到 ASIC 上以降低成本。
像处理器(GPU)到数字信号处理器(DSP),再到半定制电路(FPGA)和全定制电路(ASIC),这 5 种类型的芯片通用性依次递减,为升级方向;
国际科技网络巨头公司谷歌、脸书,亚马逊等等在AI芯片领域从云端训练到终端产品应用,在开源框架赋能产业行业上有一定的领先优势。但是国内的AI芯片在业务场景上有后发优势。例如:阿里巴巴根据业务场景定制化AI芯片的平头哥半导体公司,及其刚刚从脸书挖掘的AI框架人才贾杨青等来看国内的企业也在打造从AI芯片注重云端训练+AI芯片终端响应+AI算法框架开源的生态体系。
一个既知的事实是摩尔定律已经接近物理的极限,而AI的任务之一是深度学习,深度学习对数据的读写操作很多时候是高于计算功耗。所以未来是一方面提升AI芯片的架构性能,另外一方面提升芯片的存取单元,例如:未来需要更好的容器架构师。