博鱼官方网页版-博鱼(中国)




  1. 咨询(xún)热线:021-80392549

    博鱼官方网页版-博鱼(中国) QQ在线 博鱼官方网页版-博鱼(中国) 企业(yè)微信
    博鱼官方网页版-博鱼(中国)
    博鱼官方网页版-博鱼(中国) 资讯 > 人工(gōng)智能 > 正文

    教育人工(gōng)智能伦(lún)理风(fēng)险如何消解

    2021/04/08中国青年报438

    人工智(zhì)能正在成为(wéi)国际竞(jìng)争的新焦点,同时也为(wéi)人(rén)类社会带来了新的(de)发展(zhǎn)机遇。机器学习、自(zì)然(rán)语言处(chù)理、情感计(jì)算、虚拟现(xiàn)实等技术的迅猛发展,不仅为学生获取更高质量(liàng)的(de)教育体验提供了有力支撑,也有助于(yú)进一步扩(kuò)展教师(shī)自由发展的(de)空间。但与此同时(shí),智能导师系统、智(zhì)能数据挖掘等人工智能技术在教育应用中面(miàn)临(lín)众多伦理(lǐ)问题,例如数(shù)据泄(xiè)露(lù)、公共(gòng)安全、恶(è)意竞(jìng)争等。


    人工智能(néng)


    人工(gōng)智能(néng)是计算机科学的一(yī)部分,包括(kuò)研究、开发用于模拟、延伸和(hé)扩展人的智(zhì)能的理论、方法、技术及应用(yòng)系统等方面。教育人工智能伦理则是用以规范教育(yù)人工智(zhì)能(néng)开发及应用过程(chéng)中(zhōng)关系、行为的道理及准则。


    教育人(rén)工智能虽具备强大的(de)数据(jù)整合(hé)与(yǔ)分析能力,但同时也会引发(fā)一系列新(xīn)的伦理风(fēng)险(xiǎn),系统来看,其主要体现(xiàn)在以下四(sì)个方面(miàn)。


    其一,信息安全。人工智能助力教育教学的同时(shí),不(bú)仅为师生发展创造机遇,也产生了(le)海(hǎi)量教育数据如个人身份信息、行为轨迹、学习偏(piān)好等。若此类数据并(bìng)未得以有效保(bǎo)护或者被(bèi)非法使用,则会引发一系列(liè)信息安全问(wèn)题,例(lì)如个人隐私(sī)资料被恶意泄露及(jí)不正当使用、电子邮件(jiàn)的恶意推送(sòng)、非法电子监(jiān)控、网(wǎng)络诈骗、数据侵权等,师生的隐私权利(lì)在人工智能透视镜(jìng)下将变得十分脆弱(ruò)。


    其二,目(mù)标冲突。教育人(rén)工智能的目标冲突风险主要由人工智能开发商(shāng)、用户的(de)基本目标不一致所产生的(de)。对私营部(bù)门来(lái)说,由于商业利益(yì)至上(shàng)的理念根深蒂固,可(kě)能(néng)会依托人工智(zhì)能技术(shù)工具过度追逐私利。而且,不少教育人工智能设计(jì)者与开(kāi)发者缺乏(fá)致力于“教育公共服务”的责任意识(shí),欠缺对教育成长的(de)价值关怀(huái)。若人工智能开发商、学校管理团队未在人工智能的教育应(yīng)用方面(miàn)达成目标共识,则师(shī)生(shēng)自(zì)身利(lì)益难以得到长期(qī)的有效保障。


    其三,缺乏制度约束。当前,用(yòng)于约束教育人(rén)工(gōng)智能开发与应用(yòng)的制(zhì)度体系(xì)尚未健全(quán),教(jiāo)育(yù)用户的(de)合法权益难以得到有效保障。而且,专业制度约(yuē)束体系的(de)缺(quē)位、失位及错位成为导致教育人工智能不道德行为出现的重要因素。若缺乏(fá)有效的技术标准与“强制性”法律手段加以(yǐ)规(guī)约,教育人工智能的设(shè)计开发与实践应用可能会逐渐偏离教育(yù)价值(zhí)与人文(wén)立场。应对违反教育(yù)人工智能伦理规范的行为与举措实施问责(zé)与制裁,以便合(hé)理规约人工(gōng)智能开(kāi)发人员、教(jiāo)育用户(hù)等人(rén)的行(háng)为。


    其四,过度资源依赖。当前,机器学习和算(suàn)法推(tuī)荐虽然可实现教学资源的个性化(huà)推送(sòng),但这种看似(sì)公平合理的人工(gōng)智(zhì)能应用,隐(yǐn)含着(zhe)不为人(rén)知的算法歧视与技术偏向(xiàng),可能(néng)导致学生(shēng)所获取的教学(xué)资源(yuán)高度同质(zhì)化,学生逐渐形成资源依赖,不愿跳脱僵(jiāng)化思维,进而影响了(le)学生(shēng)视野(yě)的开阔(kuò)及(jí)创新发展。而且(qiě),教师也可能为节省自身时间及(jí)工作(zuò)成本,过度依(yī)赖人工智能推送的教学(xué)资源(yuán),丧失(shī)自(zì)身对于教育教(jiāo)学的独(dú)特理解及(jí)思(sī)考(kǎo)。


    理清相关伦理风险的消解路径,有利于促使教育(yù)能够合乎道德地利用人工智(zhì)能机遇,并(bìng)实现公平和(hé)道德(dé)的教育(yù)决策。


    第一,注重智能时代师生信(xìn)息素养培育。首先,需注重(chóng)师生信息分辨力培育。学校应引导(dǎo)师生对于信息资(zī)源获(huò)取及筛选、信息(xī)伦理风险等(děng)问题的理解与思考,增强师生信息分(fèn)辨能力。其(qí)次,关注师生信息反馈(kuì)力培育。学校应引(yǐn)导师生合理(lǐ)反(fǎn)馈人工智能的信息安全、伦(lún)理、舒适感问题,并构(gòu)建畅通的信息(xī)反(fǎn)馈渠(qú)道,以便持续改善人工智(zhì)能的教育应用成效。


    第二(èr),完(wán)善教育(yù)人工智能算法(fǎ)审查及(jí)决议机(jī)制(zhì)。首先,应注重构建人工(gōng)智能算法的审查机制。人工智能算法的运行偏差有可能持续(xù)存在,甚至(zhì)会(huì)被放大。应制定(dìng)有关人工智能(néng)算法培训(xùn)和测(cè)试的基本规范与安全协议,对人工智能算法(fǎ)模型的前(qián)提假设进行(háng)教育本质层面的(de)剖析,尤(yóu)其应审(shěn)查教育(yù)人工智能算法系(xì)统是否包含算(suàn)法歧视(shì)与滥用问题(tí),以便能最大限度保(bǎo)障用户数(shù)据及信息(xī)的精确性、隐私安(ān)全以(yǐ)及伦理规范。其次,需明确(què)人工智(zhì)能教育应用方案(àn)的决(jué)议(yì)机(jī)制。政(zhèng)府、学校、企业等均需秉承集思广益的决策原则,鼓(gǔ)励不同意(yì)见的提出与开放讨论,思考(kǎo)通过某种形式的投票与评价来决定教育人工智能应用(yòng)的最优决(jué)定,致力于实(shí)现教育公共利益诉求的(de)合(hé)理满足。


    第(dì)三,加强人工智能及数据的(de)法规监(jiān)管。当前教育人(rén)工智能发展(zhǎn)暴(bào)露出众多(duō)技术及(jí)数据失范问题,因此,要(yào)完善智能技术及(jí)教育数据(jù)风险问(wèn)责机制,实现智能技术及数据的规范监(jiān)管。首先(xiān),可尝试制定(dìng)及颁(bān)布具有法律约束力的(de)教育人工智能法规,规范(fàn)技术开(kāi)发及应用的伦理责任,非法(fǎ)开发、使用及销售人工智能的行为将面(miàn)临法律(lǜ)后果及(jí)责任。其次,注重(chóng)教育人(rén)工智能(néng)应用(yòng)过程中的(de)数据(jù)监管,构(gòu)建专业的(de)数据隐私监管组织或机(jī)构。隐(yǐn)私监管组织(zhī)或机构应在某(mǒu)项人工智能技术推广应(yīng)用(yòng)之前,评估该技(jì)术的数据(jù)安全情(qíng)况,避免非法分享(xiǎng)和(hé)使(shǐ)用数据。


    第四,加强教育人工智能(néng)伦理风险(xiǎn)排查与(yǔ)评(píng)估。实现有道德的教育人(rén)工(gōng)智能,不可仅仅依靠技术改进,还应采用(yòng)“系统(tǒng)化思(sī)想”审视与排查教育人工智能的伦理风险,这对于最大化保障教(jiāo)育(yù)公共利益是至关重要(yào)的。教育人工智(zhì)能伦理风险的存在不仅涉及开发阶段,也涉及生产和分销阶段。除(chú)了确保教育人工智能设计的安全性外,还应仔细评估智能算法伦理风险、教(jiāo)育数(shù)据伦理风险等的危害等级(jí),以便及时制定教育人工智能伦理风险化解方案。


    第五,构建校本(běn)化(huà)教育人(rén)工智能伦理规范(fàn)体(tǐ)系。校本(běn)化的教育(yù)人工智能伦理规(guī)范体系(xì)必须高度(dù)公正且(qiě)具有可(kě)解(jiě)释性,明确规定人(rén)工智能在(zài)学校应用(yòng)的基本要求、审查程序(xù)及伦理规(guī)范,并对技术开(kāi)发商(shāng)、学校管理人员等人在(zài)教育人工智能伦理监管的(de)职责、权利和义(yì)务予以合(hé)理划分与限定。学(xué)校(xiào)管理人员可基于学(xué)校层面教育人工智能伦理规范体系,为(wéi)人(rén)工智能在学校教育中的应(yīng)用设置许可权限(xiàn)。若某项人工智能技术在应用(yòng)中产生了(le)重大伦理风(fēng)险(xiǎn),则(zé)应根(gēn)据伦理风险的评估(gū)等级对人工智能的应用许可(kě)权限进(jìn)行适当限(xiàn)制。

    关键(jiàn)词:




    AI人工智能网(wǎng)声(shēng)明:

    凡资讯来源注(zhù)明为其他媒体(tǐ)来源(yuán)的信息,均(jun1)为转载自其他媒体,并不代表本网站赞同(tóng)其观点,也不代表本(běn)网站对其真(zhēn)实性负责。您若对(duì)该文章内容有任(rèn)何疑问或质疑,请立即(jí)与(yǔ)网站(www.baise.shiyan.bynr.xinxiang.zz.pingliang.ww38.viennacitytours.com)联(lián)系,本网站将迅速给您回应并做(zuò)处理。


    联(lián)系电话:021-31666777   新闻(wén)、技术文(wén)章(zhāng)投稿(gǎo)QQ:3267146135   投稿邮箱:syy@gongboshi.com

    精选资讯更(gèng)多

    相关资讯(xùn)更多

    热门(mén)搜(sōu)索(suǒ)

    工博(bó)士(shì)人工智能(néng)网
    博鱼官方网页版-博鱼(中国)
    扫描二维码关(guān)注微信
    扫码反馈

    扫(sǎo)一扫(sǎo),反馈(kuì)当前页面

    咨询反馈
    扫码(mǎ)关(guān)注(zhù)

    微信公众号

    返回顶部

    博鱼官方网页版-博鱼(中国)

    博鱼官方网页版-博鱼(中国)