“通用人工(gōng)智能可能无法被治理,因为传统的责任分配和惩罚执行方法并不适用。”
近日,美国路易斯维尔大学教(jiāo)授罗曼(màn)·扬波(bō)尔(ěr)斯基(Roman Yampolskiy)就人工智能治理问题接受了澎(péng)湃新闻(www.thepaper.cn)记者专访。
他认为,在某些重要方面,我们无法治理比人类更聪(cōng)明的人工智能。“一个能力强大、富有创造力且不受控制的通(tōng)用(yòng)人工智能最终可能会(huì)隐(yǐn)式甚至明确地控制(zhì)管理此类智能软件的一些(xiē)机构和个人。”
罗曼·扬波尔斯基是美国路易斯维尔大学网(wǎng)络安全实验室的创始人(rén)和主(zhǔ)任,著有(yǒu)《人工超级智能:未来的方法》等书籍。他(tā)的(de)主要(yào)研究兴趣有人工智能安全、模式识别、生(shēng)物行为识别等(děng)。扬波尔斯基曾(céng)受邀出(chū)席2020年首届清华大学人工智能合作与治理国际(jì)论(lùn)坛。
通往通用人工(gōng)智(zhì)能(néng)的尝(cháng)试
通用人(rén)工(gōng)智能(néng)( Artificial general intelligence,简称AGI),有时也被称作强人工智能,它所描述的机器智能(néng)可以理解或学习人(rén)类所能完成的(de)任(rèn)何(hé)智力任(rèn)务。
多智能体系(xì)统教父(fù)、牛津大学(xué)计算机(jī)科学系(xì)主任Michael Wooldridge在接受澎湃新闻(www.thepaper.cn)采访时表示,如果我们能构建具有人类全部(bù)能力和(hé)智力的(de)程序(xù),那我们就将实(shí)现(xiàn)通(tōng)用人(rén)工(gōng)智能。但(dàn)当(dāng)前,“我们连通用人工智能的皮毛都还没(méi)有碰(pèng)到”。
关于人工通用(yòng)智能能否实现(xiàn)、何时实现的问题,业内有不同的观点。部分人工智(zhì)能(néng)学者(zhě)认为,人工(gōng)通(tōng)用智能的概念并不严肃,在实(shí)践(jiàn)中基本(běn)不可能实现(xiàn)。另(lìng)一些人(rén)则十分看(kàn)好人工通用智(zhì)能的发展,认为它(tā)有可能塑造人类的发(fā)展轨迹。
例如,图灵奖(jiǎng)得(dé)主(zhǔ)拉吉·雷迪(Raj Reddy)认(rèn)为,研(yán)究通用(yòng)用(yòng)途的人工智能毫(háo)无用处。“用AI能开发出的东西是无穷无尽的,但研究人员应(yīng)专注研究如何用AI增强人的能力,而不只是增强AI的能(néng)力”。 清华大学(xué)类脑计(jì)算(suàn)中心(xīn)主任(rèn)施路平则表示(shì),从未(wèi)来发展的角度看,人(rén)工通用智(zhì)能是(shì)一个必然(rán)的趋势。
尽管(guǎn)学(xué)界对(duì)是否(fǒu)应发展(zhǎn)通用人(rén)工智能(néng)存在分歧(qí),科研公司和高校已(yǐ)经开始(shǐ)相关尝试,通用人工智能的伦理问题也日(rì)渐(jiàn)显(xiǎn)现。
2019年7月,微(wēi)软宣布向(xiàng)非营利(lì)性人工智能研究公司OpenAI投资10亿美元研发人(rén)工通用智能(néng)。2019年8月,清华(huá)大学在学(xué)术(shù)期刊《自然》发(fā)表《面向(xiàng)人(rén)工通用智能(néng)的异构天机(jī)芯片架构》研究(jiū)。2021年1月,谷歌和微软相继(jì)在一份(fèn)权威自然语言(yán)理解榜单中表现超越人类,微软宣称这(zhè)“标志着迈向通用人工(gōng)智能的重(chóng)要里程碑。”
在(zài)采访中,扬波尔斯基介绍,为了使未来的(de)人工智能造福于全人类,针对(duì)人工智能的治理计划试图(tú)通过(guò)建立监管框架和行业标准等方式,使人工智能可(kě)以被(bèi)各国政(zhèng)府、国际组织和跨国公(gōng)司(sī)控制(zhì)。
但他(tā)指(zhǐ)出(chū),直接治(zhì)理人工(gōng)智能(néng)是没有意义(yì)的,“‘人工智能治理’这个术语暗(àn)示的是,通过规定允许开发什么样产品和服务以及如何开发,来管理人工智能研(yán)究员和创(chuàng)造(zào)者”。
他认为,无论对从(cóng)事(shì)人工(gōng)智能研(yán)究的(de)科学家(jiā)和(hé)工程(chéng)师实施何种管理,都(dōu)取决于创建人工通(tōng)用(yòng)智能(AGI)的难(nán)度。
“如(rú)果创造(zào)通用人工智能所必需(xū)的计算资源和数据收(shōu)集工作,在资金(jīn)和人力资(zī)本方(fāng)面与美国的曼哈顿计(jì)划(美国研制原子弹的计划)相当,那么各(gè)国(guó)政府就(jiù)有许多‘胡萝卜加大棒’,可以用来指导研(yán)究人(rén)员,并按照自己的(de)规范塑造未(wèi)来的人工智(zhì)能。”
但另一种(zhǒng)情况下,他分(fèn)析道,如果(guǒ)有(yǒu)更有效的方法来创(chuàng)造第一(yī)个通用人(rén)工智(zhì)能,那么政府的(de)监管(guǎn)尝试可能(néng)是徒劳的。“例如,一个青少(shǎo)年在车库里用一台(tái)价值(zhí)仅1000美元(yuán)的笔记本电脑创造出第一个通用人工智能(néng)。虽然可(kě)能性很(hěn)小,但这种情况也需要考(kǎo)虑。”
总(zǒng)而言之(zhī),“历史上,很多对软(ruǎn)件治理的(de)尝试,例如(rú)垃圾邮件、计算机(jī)病毒和深度伪(wěi)造技术(Deepfake)等,都只取得了非常(cháng)有限的成(chéng)功。而作为一个独立代理(lǐ),通用人工智能可能无(wú)法被治理,因为传统的(de)责任分配和惩罚执行(háng)方法(fǎ)并不适用。”
扬波尔斯基认为,即使(shǐ)遇到第(dì)一种情况,即创(chuàng)造通用人工智能需要密集的资源,我们仍然对(duì)人工(gōng)智(zhì)能的可预测性(xìng)、可解释性和(hé)可控制(zhì)性存在(zài)一些既定的技术限制(zhì)。“至少需要这三种(zhǒng)能力才(cái)能够部分实现对人工智能的(de)成功监管,这也就意味(wèi)着(zhe),在(zài)某些重要方面,我(wǒ)们无法治理比人类更聪(cōng)明(míng)的人工智能。”