12月16日至(zhì)17日,由北京未来芯(xīn)片技术(shù)高精尖创新中心及(jí)清华大学微电子学研究所(suǒ)联合主(zhǔ)办的“北京高精尖(jiān)论坛暨2019未来芯片论坛”在(zài)清华大学举行,这次论坛上,类(lèi)脑计(jì)算成为多位权威专家热议(yì)的(de)人工智(zhì)能(néng)研究(jiū)方(fāng)向。
人工(gōng)智(zhì)能浪潮下的洋流(liú)
类脑计算(suàn)又被称为神(shén)经(jīng)形态计算(Neuromorphic Computing)。它(tā)不仅是学术会议关注的新热点(diǎn),产业(yè)界也(yě)在探索(suǒ)之中。
11月中旬,英特尔官网宣(xuān)布了一则消息(xī):埃森哲(zhé)、空中客车、通用电气(qì)和日立(lì)公司加入英特尔神经形态研究共同体(INRC),该共(gòng)同体目前已拥有超过75个(gè)成(chéng)员(yuán)机构。
如(rú)果说,当下人工智(zhì)能发展浪潮正波涛汹涌的话,类脑计算就是浪(làng)潮之(zhī)下的(de)洋流。虽不太引人(rén)注意(yì),未来却(què)有可能改变人(rén)工智能发展趋(qū)势。
原因之一是,深度学习虽在语(yǔ)音识别、图(tú)像识(shí)别、自然语言理解等领(lǐng)域取得(dé)很大突破,并被(bèi)广泛应(yīng)用,但它需要大量(liàng)的算力支撑,功耗也很(hěn)高(gāo)。
“我们希望智能驾驶(shǐ)汽车的驾驶水(shuǐ)平像司机一样,但现在显然还(hái)达不到。因为(wéi)它对信息的(de)智(zhì)能判断和(hé)分(fèn)析不够,功(gōng)耗也非常高(gāo)。”清华大学微纳电子系(xì)教(jiāo)授吴华强告诉科技日报记者,人工智能算法训练中心在执行任务时动辄(zhé)消(xiāo)耗(hào)电量(liàng)几(jǐ)万瓦甚至几十万瓦(wǎ),而人的大(dà)脑耗能却仅相当于(yú)20瓦左右。
北京(jīng)大学计算机科学技(jì)术系教授(shòu)黄铁军也举了一(yī)个生动的(de)例子:市场上(shàng)应(yīng)用深(shēn)度学(xué)习技术的(de)智能无(wú)人机已(yǐ)经(jīng)十分灵巧,但从(cóng)智(zhì)能程度上看,却与一只(zhī)苍蝇或蜻(qīng)蜓(tíng)相差甚远(yuǎn),尽管体(tǐ)积和功耗(hào)比(bǐ)后者高很(hěn)多(duō)。
追求模拟(nǐ)大脑的功能(néng)
到底什么是类脑(nǎo)计算(suàn),它又凭什么赢得学(xué)术界和产(chǎn)业界(jiè)的宠爱?
“类(lèi)脑计算从结构上追求设计出像(xiàng)生物神经网(wǎng)络那样的(de)系统,从功(gōng)能上(shàng)追求模拟(nǐ)大脑的功能(néng),从(cóng)性能上追求大幅度超(chāo)越生物大(dà)脑(nǎo),也称神经形(xíng)态计算。”黄铁(tiě)军接受科技日报(bào)记者采访时(shí)说。
类脑计算试(shì)图模(mó)拟生物神经网络的结构和信息加工过程。它(tā)在软(ruǎn)件层(céng)面的(de)尝试之一是脉冲神经网络(luò)(SNN)。
现在(zài)深(shēn)度学习一般通过卷积神(shén)经(jīng)网络(CNN)或(huò)递(dì)归神经网络(RNN)来实现。“CNN和RNN都(dōu)属于人工神经网络,其中的人工神经元,至(zhì)今仍在使用上世纪(jì)40年代时的模型。”黄铁军说(shuō),虽然现在设计出的人工神经网络(luò)越来越(yuè)大,也(yě)越(yuè)来越(yuè)复杂,但(dàn)从根本上讲(jiǎng),其神经元模型没有太(tài)大改(gǎi)进。
另(lìng)一方面,在深度学习人工神经网(wǎng)络(luò)中,神(shén)经元之间的连接被称为权值。它们(men)是人工神经网(wǎng)络的关键要素。
而在(zài)脉冲(chōng)神经网络中,神经元之间却(què)是神(shén)经(jīng)脉冲,信(xìn)息的表达和处理通过神经脉冲发送来实现。就像我们的大脑中(zhōng),有大量神经脉冲在传递和流转。
黄铁军(jun1)告(gào)诉记者,由于神经脉(mò)冲在不停地传递和(hé)流转,脉冲(chōng)神经网络在表达和处(chù)理信息时,比深(shēn)度(dù)学习的时间性(xìng)更突出,更(gèng)加适合进(jìn)行(háng)高效的时空信(xìn)息处理。
推(tuī)广应(yīng)用可能不需太久
也有人从硬件层面(miàn)去实(shí)现(xiàn)类脑计算,比如神经形态芯(xīn)片。
2019年7月,英特(tè)尔发(fā)布消息称,其神经形态研(yán)究芯片(piàn)Loihi执行专用(yòng)任务(wù)的速度可比普(pǔ)通CPU快1000倍,效率高10000倍。
“在对信(xìn)息的(de)编码、传输和(hé)处理方(fāng)面(miàn),我(wǒ)们希望从大(dà)脑机制(zhì)中(zhōng)获得启发,将这些想法应用到芯(xīn)片技术上,让芯片的处理速度更快、水平更高(gāo)、功耗更低(dī)。”吴华强也在进行(háng)神经形态(tài)芯片(piàn)相关研究,他告诉科(kē)技日报记者(zhě)。
吴华(huá)强介绍,在(zài)传统的冯·诺依曼架构中,信息的处理和(hé)存储是分开的,而(ér)人的大脑在处理(lǐ)信息(xī)时,存(cún)储和处(chù)理是融为一体的。
“所以我们在尝试研发存算一体化的芯片,希望通过(guò)避免芯片(piàn)内部(bù)不停(tíng)地(dì)搬运(yùn)数据(jù),来大幅(fú)提(tí)高芯片的能效比。”吴华强说(shuō),他(tā)的(de)团队现在也已研发出(chū)存算一体(tǐ)的样品芯片。
谈到(dào)类(lèi)脑计算的(de)进展,黄铁(tiě)军告诉记者,目前类脑计算仍(réng)在摸索阶段,还缺乏典型(xíng)的成功应用。但商(shāng)业公司已经嗅到味道,相关(guān)技术获得(dé)规(guī)模性应(yīng)用(yòng)可能不需要(yào)太长时(shí)间。
“现(xiàn)在的神经(jīng)形态计算(suàn)还比(bǐ)较初(chū)步,它的(de)发(fā)展水平跟现有主流(liú)人工智能算法相(xiàng)比,还存在一定差距。”中科院(yuàn)自动化所研究员(yuán)张兆翔(xiáng)接受科技日(rì)报(bào)记者采访时认为,但作为一种新的(de)探索方式(shì),应该继续(xù)坚持,因为它可(kě)能就是未(wèi)来人工智能技术发展的(de)重要突(tū)破口。