人工智能正在成为国际竞(jìng)争的新焦点,同时(shí)也为人类社会带来了新的发(fā)展机遇。机器(qì)学习、自然语言(yán)处理、情感计(jì)算、虚拟现(xiàn)实等技术的迅猛(měng)发展,不仅为学生获取更高质(zhì)量的教育(yù)体验(yàn)提(tí)供(gòng)了有力支(zhī)撑,也有(yǒu)助(zhù)于进一步扩(kuò)展教师自由发展(zhǎn)的(de)空间。但与此同时,智能导师系统、智能数据挖掘等人工智(zhì)能技术在教育应用中面临众(zhòng)多伦理问题(tí),例如数据泄露、公共(gòng)安全、恶意竞争等。
人工智(zhì)能是(shì)计算机(jī)科学的一部(bù)分(fèn),包括研(yán)究(jiū)、开(kāi)发用于模拟、延伸和扩(kuò)展人的智能的理论、方法、技术及应用系统等方面。教育(yù)人工智(zhì)能伦理则是用以(yǐ)规(guī)范教育(yù)人工智能开发及应用过程(chéng)中(zhōng)关系、行为的道理及准则。
教(jiāo)育人工(gōng)智(zhì)能(néng)虽具备强(qiáng)大的数据整合与分析能力,但同时也会(huì)引发一系(xì)列(liè)新的(de)伦理风险,系统来看,其主要体现在以下(xià)四个方面。
其一,信息安全。人工智能助力教育教学的同时,不(bú)仅为师生(shēng)发展创造机遇,也(yě)产生了海(hǎi)量教育数据如个人(rén)身份信息、行为轨迹、学(xué)习偏(piān)好等。若此类数据并未得(dé)以(yǐ)有效保护或者被非法使用(yòng),则会引发一系(xì)列(liè)信息安全问题,例如个人隐私资料被恶意泄露及不正当使用、电子邮件的(de)恶(è)意推送、非法(fǎ)电(diàn)子监控、网络诈(zhà)骗、数据侵权等,师生的隐私权利在人工智能透视镜下将变得十分脆弱。
其二,目(mù)标冲突。教育人工智(zhì)能的目标冲突风(fēng)险主要由人工(gōng)智能开发商、用户(hù)的基本目标不一致所产生的。对私(sī)营部门来(lái)说(shuō),由于商业利益至(zhì)上的理念根(gēn)深蒂固,可能会依托人工智能技术工(gōng)具过度追逐私(sī)利(lì)。而且,不少教育(yù)人工智能设计者与开发(fā)者(zhě)缺乏致力于“教育公(gōng)共服务”的责任意识,欠缺对教育成长的价值关怀。若(ruò)人工智能开发商、学校管(guǎn)理团队(duì)未在人工智能的教育应用方面达成(chéng)目(mù)标共识,则师生自身(shēn)利益(yì)难以得到长期(qī)的(de)有效保障(zhàng)。
其三,缺乏制(zhì)度约束。当前,用于约束教育人工(gōng)智能(néng)开发与应用的(de)制度体系尚未健全,教育用户的(de)合(hé)法权益难以(yǐ)得到有效(xiào)保障。而且,专业制度约(yuē)束体系的缺位、失位及错位成为导(dǎo)致教育人工智能(néng)不道德(dé)行为出(chū)现的(de)重要(yào)因素(sù)。若缺乏有效(xiào)的技术(shù)标(biāo)准(zhǔn)与“强制(zhì)性”法律手(shǒu)段加以规约,教(jiāo)育人工智(zhì)能的设计开发与(yǔ)实践应用可能会逐渐偏离(lí)教(jiāo)育价值(zhí)与人(rén)文立场。应对违反教育人工智(zhì)能(néng)伦理(lǐ)规范的行为与举措实施(shī)问责与制裁(cái),以便(biàn)合理规约人工(gōng)智能开发人员、教育用户等人的行为。
其(qí)四,过度资源依赖。当前,机(jī)器学习(xí)和算法推荐虽然可实现教学资(zī)源的个性(xìng)化推送,但(dàn)这种看似公平(píng)合理的人工智能应用,隐含着(zhe)不为人(rén)知的(de)算(suàn)法歧视与技术偏向,可能导致学生所获取的(de)教学资(zī)源高度同质化,学生逐渐形(xíng)成资源依赖,不(bú)愿(yuàn)跳脱(tuō)僵化思维,进而影响了(le)学生视野的开(kāi)阔及创新发展。而且,教师也可能(néng)为节省自身时间及(jí)工(gōng)作成(chéng)本,过度(dù)依赖人工智能推送的教学(xué)资(zī)源,丧失自身对于教(jiāo)育教学(xué)的独特理解及思(sī)考。
理清(qīng)相关伦理风险(xiǎn)的消解路径,有利于促(cù)使教育能够合乎道德地(dì)利用(yòng)人工(gōng)智能(néng)机遇,并(bìng)实现公平(píng)和道德的教育决策。
第(dì)一,注重智(zhì)能时代师生(shēng)信息素养培育。首先(xiān),需(xū)注重(chóng)师生信息分(fèn)辨力培(péi)育。学校应引导师生对于信息资源获(huò)取及筛选、信息伦(lún)理风险等问题的(de)理解与思考,增强师生信息分辨能力。其次,关(guān)注(zhù)师生信(xìn)息(xī)反馈力培(péi)育。学校应引(yǐn)导师生合理反(fǎn)馈人工智能的(de)信息安全、伦(lún)理、舒(shū)适感问题,并构(gòu)建畅通(tōng)的(de)信息(xī)反馈渠道,以便(biàn)持续改善人工智能的教育应(yīng)用成效。
第二,完善教育人(rén)工智能算法审查及决议机制。首先(xiān),应注重构建人工智能(néng)算(suàn)法的审(shěn)查(chá)机制。人(rén)工智能算法的(de)运(yùn)行偏差有(yǒu)可能持续存在,甚至会被放大(dà)。应(yīng)制定有关(guān)人工智(zhì)能算法培训和测试的基本规(guī)范与安全协(xié)议,对(duì)人工智能(néng)算法模型的前提假设进行教育(yù)本质层面的剖析,尤其应(yīng)审查教育人工智(zhì)能(néng)算法系统是否包含算法歧视与(yǔ)滥用问题,以(yǐ)便能最大限(xiàn)度保障用(yòng)户数据及(jí)信息的精确性、隐(yǐn)私(sī)安(ān)全(quán)以及伦理规范。其次,需明确人工智能(néng)教育应用方(fāng)案的(de)决议(yì)机制。政府、学校、企业等均需秉承集思广益的决策(cè)原则,鼓励不同(tóng)意见(jiàn)的提出(chū)与开放讨论,思考通过某种(zhǒng)形式的投票与评(píng)价(jià)来决(jué)定教育人工智能应用的最优决(jué)定,致力于实(shí)现教育公共(gòng)利益(yì)诉求(qiú)的合(hé)理满足(zú)。
第三,加强人工智能及数据的法规监管。当前教育人工智能发展暴露出众多技(jì)术及数据失范问题,因此(cǐ),要完善智能(néng)技(jì)术(shù)及教育数据(jù)风险问责机制,实现智能技(jì)术(shù)及数(shù)据的规范(fàn)监管。首先,可尝试制定及颁布具有法(fǎ)律约束力的教育人工智能法规,规(guī)范技术开发及应用的伦理责(zé)任,非法开发、使用及销售人工智能的行为将面临法律后(hòu)果及责任。其(qí)次,注重(chóng)教育人工(gōng)智能应用过程中(zhōng)的数据(jù)监管,构建专业的数据隐私监管组织或机构。隐私监管组织或机构应在(zài)某(mǒu)项人工智能(néng)技术推广应用之前,评估该技术的数据安(ān)全情况,避免(miǎn)非(fēi)法分享和使用数(shù)据。
第(dì)四,加强教育人工智能伦理风险(xiǎn)排(pái)查与评(píng)估。实现有道(dào)德(dé)的(de)教育人工智能,不(bú)可仅仅依(yī)靠(kào)技(jì)术改进,还应采用“系统化思想”审视与(yǔ)排查教育人工智能的伦理风险,这(zhè)对于最大化保(bǎo)障教育(yù)公共利益是至(zhì)关(guān)重要的。教育人工智能伦(lún)理风险的存在不仅涉及(jí)开(kāi)发(fā)阶段,也涉及生产和分销(xiāo)阶(jiē)段。除了确(què)保教育人工智能设计(jì)的安全性外,还(hái)应仔细评估智(zhì)能(néng)算法伦理风险、教育数(shù)据伦理风(fēng)险等的(de)危害等级,以便及时制定(dìng)教(jiāo)育人工智能伦理风险化解方(fāng)案。
第五,构建校本化教(jiāo)育人(rén)工(gōng)智(zhì)能伦理规范体系。校本化的教育人(rén)工智能伦(lún)理(lǐ)规范(fàn)体系必须高度公正且具有可解释性,明确规定人工智能在(zài)学校应用的(de)基(jī)本要求(qiú)、审查程序(xù)及(jí)伦理规范,并对技术(shù)开发商、学校管理人员等人在教育人工智能伦理(lǐ)监管的职责(zé)、权利(lì)和义务(wù)予以合(hé)理划分与限定。学校(xiào)管理人员可基于学(xué)校层面(miàn)教育人(rén)工智能伦理规范(fàn)体系,为(wéi)人工(gōng)智能在学校教育中的应用设置许可权(quán)限(xiàn)。若(ruò)某项人工智能技(jì)术在(zài)应用中产(chǎn)生了重大伦理风(fēng)险,则应根据伦理风险的评估等(děng)级对人工智能(néng)的应用许可权(quán)限进行适(shì)当限制。