8月16日,在英特尔2023中国学术峰会上,清华大学教授、国际欧亚科学院院士魏少军表示,未来人工智能技能须要从终端运用出发,以运用定义软件,再用软件来定义芯片,以知足各种人工智能终端设备的定制化需求,并提升算力的供给。
AI芯片要在通用的根本上更加“智能”
作为引领新一轮科技革命和家当变革的计策性技能,人工智能正加速发展,为数字经济社会的高质量发展供应了新动能。数字化新事物、新业态、新模式的不断呈现,推动了人工智能运用处景向多元化发展。在算力规模不断扩大、算力需求持续攀升的背景下,如何更加高效地配置、共享、调度并开释更多算力,成为人工智能发展的一个新的寻衅。
魏少军表示,智能化发展已经取得了巨大进步,以谷歌为例,谷歌的智能玩家比人类专业玩家能力强10倍,智能唇语识别的精准度达93.4%,语音识别的错词率只有5.9%。“虽然,人们依旧难以完备理解人脑打算,但能基于现有的芯片和软件技能来构建类脑打算机,并实现造诣,已实属不易。”魏少军说。
只管,智能化发展已经取得了阶段性的进展,但人工智能依旧存在两个现实问题。第一,算法在不断演进,新算法层出不穷。第二,没有统一的算法,只能一种算法对应一种运用。深度学习须要一款“智能打算引擎”,既能具备各种运用的可编程能力,还具备打算和存储密集型功能以及实现数据从“云端”向“边缘端”迁移的能力。魏少军认为,这个“智能打算引擎”,便是如今人工智能领域万众期待的新芯片架构。
魏少军先容,基于软件可编程性和硬件可编程性两方面,可以把AI芯片划分为四个维度。第一个维度是目前最通用的CPU、DSP等处理器,具有很强的软件可编程性,但硬件可编程性弱。第二个维度是ASIC、SoC等专用集成电路,此类芯片在运行过程中常日不须要软件,也意味着软件可编程性弱,但芯片一旦完成制作,硬件不可变动。此外,在芯片制程工艺进入纳米级后,高昂的本钱使得具备多品种、小批量特点的专用集成电路难以坚持。第三个维度因此FPGA、EPLD等为代表的可编程逻辑器件,在硬件编程方面具备高灵巧性,但是软件可编程性弱,且本钱高、价格贵。第四个维度便是如今业内追求的新型芯片架构,该架构既具备很强的软件可编程性,也具备很强的硬件可编程性。因此,魏少军认为,“通用”仍旧是人工智能芯片的主流架构,然而此通用非彼通用,未来的通用人工智能芯片,须要在通用的根本上,变得更加“智能”,以知足各种各样终端运用的定制化需求。
实现智能,软件是核心芯片作支撑
若想让新的芯片架构变得更加“智能”,离不开软件的加持。
魏少军表示,如今,高性能打算机的打算能力已经进入到了E级时期。E级超算是指每秒可进行百亿亿次数学运算的超级打算机,是国际上高端信息技能创新和竞争的制高点,被全天下公认为“超级打算机界的一顶皇冠”。如今已经有企业实现了该技能,美国橡树岭国家实验室的新型超算“前沿”,是环球首台实现每秒浮点运算速率超过百亿亿次超算的超级打算机。
与此同时,人们对付更高算力的追求从未结束。魏少军表示,到2024年,环球数据量将超过100ZB(1021),这也意味着业内对付打算能力的需求不仅限于E级,未来将很快达到Zetta级(数据量达到1021量级),且需求愈着急切,但仅依赖现有的打算难以实现。例如,仅仅通过提升芯片工艺制程,难以实现Zetta量级的打算。“下一代超算处理器若达到Zetta级,纵然利用尚未量产的3nm工艺,也会由于耗电量和投资额巨大而难以落地。”魏少军说。
此外, CPU、FPGA、GPU等现有的打算芯片也难以知足下一代打算的哀求,这是由于,现有的打算芯片打算资源占比低,仅不到0.1%,技能资源利用率低,仅不到5%,但数据传输能耗高达90%。
因此,在强大算力需求的推动下,若想让芯片变得更通用、更智能,可以以运用定义软件,再用软件定义芯片,担保芯片在具备灵巧性的同时,还能大幅提升效率。这不仅可以知足各种人工智能运用的定制化需求,也能有效增强算力供给。
魏少军表示,智能软件是实现智能的载体,应具备自我学习能力、形成知识和履历的能力、持续改进和优化的能力、再生和组织能力、思维逻辑推理的能力以及做出精确判断和决策的能力。智能芯片是打算的载体,须要具备高性能打算能力、多任务并行打算能力、足够的吞吐量、极高的能量效率、灵巧高效的存储寻址功能以及实时动态功能变革能力。因此,软件和芯片是相辅相成的存在。
“实现智能的核心是软件,支撑智能的根本是芯片。”魏少军说。