人工智能(Artificial Intelligence,AI)发轫(rèn)于20世纪50年代,至今已(yǐ)经(jīng)历了三次发展浪潮,不管是(shì)实验(yàn)室阶段还是大(dà)规模产(chǎn)业(yè)化阶段,研究者(zhě)们几十年如一日不变的都是(shì)推(tuī)进其技术(shù)的进步,希望机器真的有一天能具(jù)有一般人类智慧,执行(háng)全方位的人类(lèi)认知能力。
近年来,为(wéi)了让AI更加健康(kāng)发展,有(yǒu)一项技术领域正在(zài)成为产业界和学术界研究的重点:可(kě)信AI,即将人类社会的正面价(jià)值观,通过技术赋予到人工智能上,包括(kuò)可(kě)解释(shì)、公平性、隐私(sī)保护和公平性。
从学(xué)术研(yán)究层面(miàn)来说,可信AI主要是针对算(suàn)法(fǎ)和系统层面的研究(jiū),包括安(ān)全性/鲁棒性、可解释性、隐私性(xìng)、公平(píng)性、可审计(jì)性(xìng)/问责性、环境保护(hù)。可解释性(xìng)包括(kuò)学习方法或模型的理论(lùn)可解释、算法可(kě)解释、行为(wéi)可解释;鲁(lǔ)棒性主要针对(duì)模型稳(wěn)定性研究、攻击模型和防(fáng)守模型;隐私保护指(zhǐ)的是攻(gōng)击与保护方法直接的博弈,如差分隐(yǐn)私、多中心联邦学习;公(gōng)平性针对的(de)是各种数据(jù)、模型的偏置(zhì)研究,平等和公正的平(píng)衡;而环(huán)保指的是(shì)寻求高能效策略,更高能(néng)效(xiào)的计算硬件。
与可信AI学术研究不(bú)同,企业更多是针(zhēn)对当下的问题,提出解决方案。如2015年,蚂蚁(yǐ)集团启动基于(yú)“端特征”的(de)手机丢失风险研究项目,旨在用AI技术保护用户的隐私安(ān)全(quán)。为了解决了AI中(zhōng)的公平(píng)性(xìng)(Fairness),IBM于2018年开发了多个(gè)AI可信工具,在AI系(xì)统中采用(yòng)不(bú)带偏(piān)见(jiàn)的数据(jù)集和模(mó)型,从(cóng)而避免对特定群体的不公平(píng)。产业(yè)界(jiè)对可信AI的应用加更加苛(kē)刻(kè),容错率更高。很(hěn)多可信(xìn)AI白皮书提到,可信(xìn)AI真正落地起来,需要放到生产流程里面,让其成为(wéi)一种(zhǒng)机制,发挥技术的(de)约束作用。
青(qīng)年学生(shēng)是重要的技(jì)术人才储(chǔ)备。对于研究可信AI的青年学生(shēng)来说,对从事可(kě)信(xìn)AI怎(zěn)么准备,在他们(men)现(xiàn)在的学习和生活中,就应了(le)解学术的前(qián)沿,以(yǐ)及业界(jiè)最(zuì)新技(jì)术趋势(shì),思考哪些技术可(kě)以应(yīng)用到哪些问题上,主动观察(chá)了解所处的世(shì)界,以及业界的(de)需(xū)求痛点和技术瓶颈。比如,最近一档(dàng)可信AI实战(zhàn)科技真(zhēn)人(rén)秀(xiù),就联动了全国一些顶尖高校,通过(guò)可信AI在工业界“科(kē)技(jì)反(fǎn)诈”当中的应用,还(hái)原了可信AI技术在(zài)实际应用中的能(néng)力(lì),把学术界和(hé)产业界正在做的事,通过大家都能理解的(de)形式(shì)打通起来(lái),让技术从业者、技术研(yán)究者都深(shēn)度参与其中。
做AI研(yán)究(jiū),“复杂度”是一个(gè)关键词。环境复杂度、任务复杂度、系统复杂度决定(dìng)了AI的水平。对它的(de)研(yán)究可以揭示(shì)AI产生原理(lǐ),也可以回(huí)答AI的终极问题(tí),即对(duì)人类命运的最终(zhōng)影响。未(wèi)来可信AI研究(jiū),也要(yào)从复杂度分(fèn)析来看AI为人(rén)类带来的价值,更需要学界和产业界共同(tóng)努力(lì)来推(tuī)动。