AI应用于芯片技术可以带来的六大想象空间

拓荒号:陈峰 (企业头条)

前段时间和朋友交流,我说将来AI会是芯片技术进步的主要推进力。他问详细表现在什么方面呢?我说“办法,架构,完成和工具都会有吧”。后来不断在思索这个问题,似乎如今能够更全面的答复一下。当然,讨论这种大话题我也很忐忑,各位就当做是和我的一次闲谈吧。


ai芯片


如今说AI是将来人类技术进步的一大方向,置信大家都不会反对。而AI和芯片技术的关系主要表现在两大方面:第一,AI的开展请求芯片技术不时进步;第二,AI能直接促进于芯片技术的进步。

AI成为芯片技术的主要驱动力

AI,特别是深度学习,这几年迸发性的开展,很大水平上得益于芯片技术多年的积聚。假如不是芯片技术曾经开展到了一定的高度,可以给大范围的机器学习提供足够的处置才能,我们肯定看不到打败人类顶尖棋手的AlphaGo。能够说,过去10年驱动芯片技术开展的主要是通讯,多媒体和智能手机应用。不夸大的说,是苹果在赶着芯片产业往前跑。而随着这些应用增长放缓,置信将来赶着我们向前跑的主要会是各种AI的需求。


芯片产业


当然,即便没有AI,芯片技术也会开展。这里我想和大家看几个例子,个人觉得AI的驱动效应在它们身上可能会有更明显的表现。

异构计算(Heterogeneous Computing)

将来的AI硬件平台,一定是一个异构系统。Training应用普通是CPU+GPU,这方面Nvidia的CUDA曾经比拟好的处理了异构计算的问题。但关于一个Inference硬件平台来说,异构的环境要复杂的多。在一个支持Inference的平台中,除了CPU,GPU,很可能还会有DSP,ASP,硬件加速器和FPGA。这种环境如何有效的发挥各种硬件的效率,提供统一易用的软件接口,就是个很大的问题。


芯片平台


之前的很多尝试,比方OpenCL,HSA都没能真正处理这个问题。而这个问题能不能处理,既是技术问题,也有利益上的角力。不论怎样,在AI应用的驱动下,这个问题会越来越凸显。AI的炽热能不能推进这个问题的处理,很值得关注。


DSC和DSA(Domain-Specific Computing/Architecture)

在之前一个演讲中,计算机体系构造的宗师David Patterson说到,“我以为将来之星是深度学习范畴的DSA处置器。深度学习的重要性我想在座的都很分明。”。我个人算是不断对这个范畴有所研讨,对Patterson的见地也很赞同。


不过,这个方向的提出也不是一天两天了,要完成它的愿景,需求做很多的工作(就像我之前的文章“专用途理器设计办法&工具”提到的)。总的来说,这是一整套办法学,需求设计言语,模型和工具的多方面支持。虽说我们都晓得“工欲善其事,必先利其器”的道理。但在理论中很多时分我们并没有这个耐烦和时间。希望,AI能给这个“看起来很美”的技术一个有力的推进吧。


历久弥新的Dataflow架构

GoogleTPU的推出,让我们重新认识了脉动阵列(脉动阵列 - 因Google TPU取得重生)。而目前很多神经网络硬件加速器的设计,也都自创了脉动阵列,CGRA(Coarse-Grain Reconfigurable Architecure)这些“古老”的技术。实践上,我们如今需求处理的问题(比方卷积运算的加速),并不是一个全新的问题,前人曾经有了很完好的研讨。固然AI是个全新的应用,但它却给了很多老的架构和技术新的时机。这也是一个很有意义的现象。


ai技术


Near-Data Processing/模仿和混合信号设计/存储器设计
把深度神经网络的Inference放到里数据源更近的中央,能够降低整个系统的复杂度,减少不用要的数据搬移,从而优化功耗和本钱。其中PIM(Processing in Memory)主要是把处置直接放在存储单元的位置,这需求在电路(模仿信号)的层面重新设计存储器。而把处置放在sensor当中也是一大趋向,这里既能够是直接在sensor中用模仿或者混合信号电路做一些处置,也能够是在传统的ISP中增加智能处置的功用。详细能够看看(深度神经网络的模型·硬件结合优化,嵌入式机器学习处置器的技术应战和时机,以及相应的参考材料)

FPGA
我从2000年开端用FPGA,不断把FPGA作为芯片考证的手腕,而非直接的产品。但随着深度神经网络需求的迸发,FPGA作为inference的平台表现出很好的特性(灵敏性和效率的均衡),在很多场景能够直接为应用效劳。因而,能够预见,我们能够在FPGA范畴看到快速的开展。首先,FPGA器件(Xilinx和Intel/Altera是主要供给商)自身的功用会越来越强大。Xilinx最新的高端FPGA曾经是一个十分复杂的SOC平台了,除了传统的FPGA电路,还集成了多核CPU,硬件的视频编解码功用,DDR接口,PCIe接口等等,很合适做大范围的inference应用。另一方面,不论是Xilinx还是Intel,都在改良FPGA的软件开发环境,试图对深度学习提供更好的支持。

当然,这里我讨论的主要是芯片设计技术。而另一个重要的方面,工艺的开展,我不是很熟习,就不在这里妄加评论了。

AI应用于芯片设计和消费
假如说AI应用会“逼着”芯片技术向前开展,它同时也会在很大水平上协助芯片技术向前开展。

深度神经网络最强大的中央在于,经过对大量数据停止学习,能够本人对问题停止建模并提取feature或者作出判别。从某种水平上说,它曾经强大到我们无法了解的水平了(或者说和我们人类获取学问的方式并不相同)。而芯片设计和制造,都是在和大量数据以及复杂的模型打交道,应用神经网络的优势是自但是然的思绪。另一方面,芯片设计和制造又是高度依赖自动化设计工具的范畴,这些EDA工具中很多环节的算法也都有可能经过分离AI来取得更好的效果,或者进步消费效率。


芯片制造


所以说,AI应用于芯片设计和消费,是有很大的想象空间的。至于详细的脑洞,也欢送大家和我讨论。

(科技产业责编:陈峰 )
2021年09月08日 15:02[查看原文]