从技能上而言,深度学习的人工神经网络算法与传统打算模式不同,它能够从输入的大量数据中自发的总结出规律,从而举一反三,泛化至从未见过的案例中。因此,它不须要人为的提取所需办理问题的特色或者总结规律来进行编程。人工神经网络算法实际上是通过大量样本数据演习建立了输入数据和输出数据之间的映射关系,其最直接的运用是在分类识别方面。例如演习样本的输入是语音数据,演习后的神经网络实现的功能便是语音识别,如果演习样本输入是人脸图像数据,演习后实现的功能便是人脸识别。
例如,“谷歌大脑”用了上万个通用途理器“跑”了数天来学习如何识别猫脸;“阿尔法狗”和李世石下棋时利用了上千个中心处理器(CPU)和数百个图形处理器(GPU),均匀每局电费近3000美元。对付绝大多数智能需求来说,基于通用途理器的传统打算机本钱高、功耗高、体历年夜、速率慢,难以接管。
用于图像处理的GPU芯片因海量数据并走运算能力,被最先引入深度学习。2011年,当时在谷歌就职的吴恩达将英伟达的GPU运用于“谷歌大脑”中,结果表明12个GPU可达到相称于2000个CPU的深度学习性能。之后多家研究机构都基于GPU来加速其深度学习神经网络。

随之而来的是,英伟达通过GPU在深度学习中表示的出色性能迅速切入人工智能领域,又通过打造NVIDIA CUDA 平台大大提升其编程效率、开放性和丰富性,建立了包含CNN、DNN、深度感知网络、RNN、LSTM 以及强化学习网络等算法的平台。
但是,随着人工智能的发展,GPU开始在三个方面显露出局限性:
第一, 运用过程中无法充分发挥并行打算上风。深度学习包含演习和运用两个打算环节,GPU 在深度学习算法演习上非常高效,但在运用时一次性只能对付一张输入图像进行处理, 并行度的上风不能完备发挥。
第二, 硬件构造固定不具备可编程性。深度学习算法还未完备稳定,若深度学习算法发生大的变革,GPU 无法像FPGA 一样可以灵巧的配置硬件构造。
第三, 运行深度学习算法能效远低于FPGA。学术界和家当界研究已经证明,运行深度学习算法中实现同样的性能,GPU 所需功耗远大于FPGA,例如海内初创企业深鉴科技基于FPGA 平台的人工智能芯片在同样开拓周期内相对GPU 能效有一个数量级的提升。
难道FPGA便是最佳选择了?未必。
FPGA在人工智能的运用上同样存在一定的局限性:第一,基本单元的打算能力有限。为了实现可重构特性,FPGA 内部有大量极细粒度的基本单元,但是每个单元的打算能力(紧张依赖LUT 查找表)都远远低于CPU 和GPU 中的ALU模块。 第二,速率和功耗相对专用定制芯片(ASIC)仍旧存在不小差距。 第三,FPGA 价格较为昂贵,在规模放量的情形下单块FPGA 的本钱要远高于专用定制芯片。
当然还有TPU、ARM等芯片架构一直的向人工智能领域靠拢,同样具备一定的上风和局限性。我们正处在从信息时期迈向智能时期的主要拐点,人工智能将推动新一轮打算革命,而芯片行业作为家当最上游,是人工智能时期的开路先锋,终极哪种芯片将成为AI的“伴侣”,相信很快就会浮出水面。