现如今人类对于AI的应用,就好像带妈(mā)妈去外面的(de)餐厅吃饭,妈妈们不光要吃,还总想弄明白这些(xiē)菜是怎样做成的。就如同(tóng)神(shén)经(jīng)网络越是高效,我们就越好奇黑(hēi)箱里究竟发生了(le)什么。
一直(zhí)以来我们对于AI可解释(shì)性的追(zhuī)求(qiú)可(kě)以被分为(wéi)两(liǎng)层,一是从技术(shù)角度探(tàn)寻(xún)神经网络黑箱的运行机制;二是从社(shè)会角度将AI技术(shù)原理(lǐ)更多地解释给各个行业。
虽然计算机科学家们一直没有停止对(duì)神经网络黑箱突破的探(tàn)索,但也有人曾(céng)经明确(què)地表示过,追求(qiú)AI的可解释性并(bìng)不是什么好主意。
去年(nián)年底,谷歌大(dà)脑负责人(rén)Geoff Hinton就曾在(zài)接(jiē)受媒体采访时说过若干“AI不可解释”的理由。其中很重要的一(yī)点是,他认为大多数(shù)人也没法很好(hǎo)地解(jiě)释(shì)自己做出一种(zhǒng)决(jué)策的理由(yóu),如果强迫人类对自己的行为(wéi)做(zuò)出解(jiě)释(shì),结(jié)果很(hěn)可能就是让人(rén)类说(shuō)出(chū)违心的(de)谎(huǎng)言。AI也是一样,也许强行在AI算法(fǎ)中(zhōng)加入可(kě)解(jiě)释性,得出的结(jié)果很可能只是一(yī)种“针对于解释需(xū)求的答案(àn)”,并不(bú)能发(fā)挥(huī)出人们所期望的作用(yòng)。Geoff Hinton可以说是一位坚定的(de)“AI不可知论”支持者(zhě)。
让AI模型说人话(huà)
不过在几天前,佐治亚理(lǐ)工(gōng)学院就推(tuī)出了一种让AI用人类(lèi)语言解释自己行为(wéi)的(de)模型(xíng)。整个模型的训练过(guò)程,建立在一款“小青蛙过马路”的古老(lǎo)游(yóu)戏上。游(yóu)戏中(zhōng)玩家要(yào)操控着小青蛙前后左右躲避来往车辆,成功到达马路(lù)对岸。
佐(zuǒ)治亚(yà)理工学院先是收(shōu)集了大量的人类(lèi)样(yàng)本,让人类实验员玩一遍游戏,然后再回溯整个游戏(xì)过程,解(jiě)释出自己的每一(yī)步动作有哪些意图。例如(rú)向左(zuǒ)走是想(xiǎng)躲避开后方来(lái)车(chē),向前跳跃是因为漂浮的荷叶刚好来到自(zì)己面前。
portant;" />
这样一来(lái),可以将自然语言与游戏控制结合(hé)在一起(qǐ)建立(lì)映射。将这一(yī)模型迁(qiān)移到AI的训练中,最终结果是AI在每进行一步动作时,都(dōu)会用自然语言解释出自(zì)己的意图。
实验者可(kě)以再根据四个维度对(duì)AI的行为和解释(shì)进行评分,这(zhè)四个维度分别是“信任(认为AI的(de)这一步行动是正确(què)的)”、“人性化(huà)(认为这是人类(lèi)采取的行动)”、“理由充分(语言解释和行(háng)为动作有(yǒu)相关性)”、“可理解性(能(néng)看懂所(suǒ)给出的自然语言(yán)解释(shì))”。由(yóu)此(cǐ)以来(lái),就可以对AI的游戏能力和自我解释能力进行(háng)共同训练。
佐治亚理工学院(yuàn)研发的这一(yī)模型,为AI的可解(jiě)释(shì)性带来不少(shǎo)全新(xīn)角(jiǎo)度(dù)的(de)突破。当AI进行(háng)错误决策(cè)时,我(wǒ)们可以(yǐ)清晰地看(kàn)到(dào)AI究竟错在哪(nǎ)了。比如(rú)在游(yóu)戏中小青蛙被路过的汽车撞死导致游戏失败,通过自然语言解释,我们可以(yǐ)看到(dào)可能是AI没有“想到”要(yào)躲(duǒ)避(bì)汽车(chē)而导致失败,还是已经(jīng)“想(xiǎng)到”了,却因想法和行(háng)为没能成功匹配而导致失败。在后期进行参数(shù)调整时可以更(gèng)加有的(de)放(fàng)矢,明(míng)确地找到(dào)问(wèn)题所在。
更重要的是,这(zhè)一过(guò)程(chéng)完(wán)全是由人类的自然(rán)语言所表达的(de),普通(tōng)人也能(néng)看到并理解问题(tí)发生的整(zhěng)个过(guò)程(chéng)。技(jì)术的可解释权不再受信(xìn)息科(kē)技知识基础的(de)限制,甚至可以让更多人参与到(dào)AI训练的过(guò)程(chéng)中来。
AI可知论,是(shì)在(zài)开(kāi)技术的倒车(chē)吗?
然而,“小青蛙模型”并不能解决Geoff Hinton提到的“AI不可知论”的很多(duō)问题。
首先,让人(rén)类描述自身行为,然后再将(jiāng)语言和(hé)行为建立对应关系的玩法适用度并不高。在(zài)小青蛙(wā)过马路这(zhè)样简单(dān)的游戏中,人类可以清晰明了地解释自己的行为。但换(huàn)个(gè)场景,很多时(shí)候我们就像Geoff Hinton所说的(de),自己也说不清自己(jǐ)做出决策的原(yuán)因。尤其在一些场景,例如行(háng)车时是撞到马路上的(de)动(dòng)物还是撞(zhuàng)到其(qí)他车(chē)辆,人们自(zì)身的选择常常陷入道德困境(jìng)而不能统(tǒng)一,和AI的决(jué)策模式有着天然的差异,就无(wú)法(fǎ)形成语言解释和行(háng)为之(zhī)间的映射。
另一(yī)点则是,让AI“自我解释”这种行为,投入和产出(chū)比究竟如(rú)何?我们知道自然语言(yán)处(chù)理是(shì)AI领域中一块相当(dāng)难啃的硬骨头,如果“AI说人话”这(zhè)种模式成为标配,结果恐怕就是让所有(yǒu)领域的AI模(mó)型都要(yào)进行相关的训(xùn)练(liàn)。也就是(shì)说,未来(lái)一家(jiā)做智能(néng)客服(fú)产品(pǐn)的企业,为了(le)AI的(de)可解释性(xìng),需要招聘(pìn)NLP领域人(rén)才;未来一家做人脸(liǎn)识别产品(pǐn)的企业,为了(le)AI的(de)可解(jiě)释性,同样也(yě)需要招(zhāo)聘NLP领(lǐng)域人才……NLP专(zhuān)业学子或成最大(dà)赢家。如(rú)此为AI产(chǎn)业带来的(de)巨大成本,又将怎(zěn)样被覆盖呢?
世界(jiè)在等待AI+X
在Geoff Hinton发表过那番“AI不可知论”后,有(yǒu)不(bú)少社(shè)会学专家进行了相关反驳(bó)。其中剑桥智能未来中心的研究员就提出,AI在事物效率上的提升和对于社会(huì)的影响,本来就不能分开讨论(lùn),Geoff Hinton这样的科(kē)学家,如(rú)果认为自己脱离了社会(huì)语(yǔ)境和政(zhèng)策语境,那么很可能在研究过程的一开始就走(zǒu)错了方向。
其实AI的可知论(lùn)和不可知论之(zhī)间,最核心的问题就是“AI出(chū)现了问题该(gāi)怎么办?”。不可知论者认为,当AI出现了问题,我们(men)就应(yīng)该像算法训(xùn)练过程一(yī)样,在(zài)发现(xiàn)问题后立刻进行针对(duì)性的训练和矫正。但可知(zhī)论者认为,如果(guǒ)我们等到AI在现实(shí)场景中出(chū)现(xiàn)问题再进行改善,一切(qiē)就已经晚了。当前的要务是让更多(duō)社会(huì)角色(sè)参与到AI的(de)研发过(guò)程(chéng)中来(lái),在广泛的现实应用之间就能够从多种角度发现问题(tí)。
正因如此,才会出现佐治亚理工(gōng)学院这种“让AI说人话”的(de)项目出现。而在AI学会说(shuō)人(rén)话之前,AI与人之间、AI专家(jiā)与其他(tā)专家之间,仍然会呈现(xiàn)出(chū)严重的沟通断层。在相当长的一段时间内,AI+X的跨领域(yù)人才都将(jiāng)炙手可热。