据英国《卫报》报道,曾撰写过一本有关人工智能的权(quán)威教(jiāo)科书的美国科(kē)学家表示,在将人工智(zhì)能的(de)进步(bù)比(bǐ)作原子弹技(jì)术的发展时(shí),专家们被自己在该领域的成就“吓坏(huài)了”。
美国(guó)加州大学伯克利分校人类兼容人工智能中心(CHAI)的创始人斯(sī)图尔特·拉塞尔(Stuart Russell)教授表示,大多数专家认为本世纪就会开发出比(bǐ)人类更聪明的机器(qì),并呼吁(yù)制(zhì)定(dìng)一些(xiē)国(guó)际条约来规范这一技术的(de)发展。
他对(duì)《卫报(bào)》表示,人(rén)工(gōng)智能界还没有适应人(rén)工智(zhì)能技术开始在现实世界(jiè)中产生(shēng)真正的重(chóng)大影响的事实。但是,在人工智能(néng)历(lì)史上,过往(wǎng)大多数时候(hòu)都不是这样的(de)——专家只(zhī)是(shì)待在实验室里开发产品,试(shì)图让这些产(chǎn)品发挥(huī)作用,但大多数情况下都失败了。因此(cǐ),人工智能对(duì)现实世界的(de)影响(xiǎng)与(yǔ)科学家并没有太大联系,所以科学家必须快速成(chéng)长、赶上潮流(liú)。
人工智能支撑着现(xiàn)代生活的许多(duō)方面,包括搜索引擎和银(yín)行业务(wù)等(děng),而在图像(xiàng)识别和机器翻译领域(yù)所(suǒ)取得(dé)的进步是近年(nián)来的重要发展(zhǎn)之一。
拉塞尔在1995年合著了《人(rén)工智能技术:一(yī)种现代(dài)方法》一书(shū)。他表(biǎo)示,在紧迫的(de)关键领域仍(réng)需要确保人类对有超常智(zhì)慧的(de)人工智能的控制权。
他(tā)指出,人工(gōng)智能是(shì)用一种特定的方法和(hé)某种(zhǒng)通(tōng)用方法进行设计的,而在复杂的现实环境中使用这种系统仍然不够(gòu)谨慎。
例(lì)如,要求人工智能(néng)尽快治愈癌症可(kě)能(néng)会有危险。拉塞尔认为,它可能会找(zhǎo)到在整(zhěng)个人类中(zhōng)诱发肿瘤(liú)的方法,这样它就可以并(bìng)行进(jìn)行数(shù)百万个(gè)实验,把我们(men)所(suǒ)有(yǒu)人都当作实验(yàn)品。这是因为人工智能在执行我们所(suǒ)设定目标(biāo)的(de)解决方案;但(dàn)我们只是(shì)忘(wàng)了作具体说(shuō)明,忘了告(gào)诉人工智能不能把人类当作实验(yàn)品(pǐn)、不能用全世界的GDP来完(wán)成(chéng)人工(gōng)智能实验(yàn),以及其他的禁忌等。”
他还表示,如今(jīn)的人工智能技(jì)术与《机械姬(jī)》等电影中描(miáo)述(shù)的技术仍有很大差距,但未来的(de)机(jī)器(qì)势必会比人类更聪(cōng)明。
拉(lā)塞尔认(rèn),为这一目标(biāo)最快(kuài)可以在10年(nián)内实现(xiàn),慢(màn)则需要长达几百年的光阴。不过,几(jǐ)乎所有(yǒu)人工智(zhì)能研究人员都认为这将一展望将在本世纪得以实现(xiàn)。
一(yī)个(gè)担(dān)忧的问题是,机器不需要(yào)在所(suǒ)有方面(miàn)都(dōu)比人(rén)类(lèi)更聪明,否则会(huì)带来严(yán)重的风险。拉塞尔表示,这是目(mù)前科学家(jiā)们(men)正在做的事情(qíng)。如(rú)果了解一下社交媒体和那(nà)些(xiē)通过计(jì)算(suàn)给人们推送阅(yuè)读和观看内容的算法,就会知道它们在(zài)很大程(chéng)度上控制着我(wǒ)们的认知输入。
他表示,结果就是算法(fǎ)操纵着用户,不停地给他们洗脑,这样(yàng)算法(fǎ)就可(kě)以预测用户的行(háng)为和喜好,所推(tuī)送(sòng)的内容(róng)也会(huì)获得更(gèng)多的(de)点赞及收入(rù)。
以于(yú)人工智能(néng)研究(jiū)人员(yuán)是否(fǒu)被自己的成(chéng)就吓到(dào)的问题,拉塞尔(ěr)明确表示,“是的(de),我认为我(wǒ)们的(de)恐惧正与日俱增”。
这(zhè)让拉塞尔想起了在(zài)物理学领域发(fā)生的事情:物理学家知道原子能(néng)的存在,他们可(kě)以测(cè)量出不同原子的质量,还(hái)可(kě)以计算出在不同类型的原子之间进行(háng)转换(huàn)可以释(shì)放多少(shǎo)能(néng)量。但是(shì),专家们总(zǒng)是强调这些(xiē)想法只(zhī)是理论(lùn)上的(de)。随后当原(yuán)子(zǐ)能真正(zhèng)运用到实际生活中时,这些专家还没(méi)有准备好。
拉(lā)塞尔表示(shì),人(rén)工智能在军事领(lǐng)域上的(de)应用(yòng),比如造小型杀伤性武器等,十分令人(rén)担忧。这些(xiē)武器是(shì)可(kě)以(yǐ)量(liàng)产的,这意(yì)味着可以在一辆(liàng)卡车上安装一百万个(gè)小(xiǎo)型武器,之后你打开后车(chē)厢让它驶离,就足以(yǐ)摧毁整座(zuò)城市。
拉塞尔认为,人工智能的未来在于开(kāi)发出一种(zhǒng)机器,知道真正的(de)目(mù)标是(shì)不确定的(de),就好(hǎo)像人们的(de)偏好也(yě)是不确定的一样。这意味着它(tā)们在(zài)做出任何决定时都必须与(yǔ)人类进(jìn)行沟通,而(ér)不是像管家一样自行决(jué)定。但是(shì),这个想法很复杂,尤其是(shì)因为不同的(de)人有不同的、或相互冲突(tū)的偏(piān)好,而(ér)这些偏好不是固定的。
拉塞尔呼吁人们(men)采取措施,包括制定研究人员行为准则、立法(fǎ)和条约,以确保使(shǐ)用的(de)人工智能系统的安全,还应该培(péi)训研(yán)究人员(yuán)来确保(bǎo)人工智能免遭种族偏见等问题(tí)的影响。他表示,欧盟禁止(zhǐ)机器模(mó)仿人类的相关立法应(yīng)该在世界范围内实施。
他希望(wàng)让公众参与到这些选择中来是很重(chóng)要的,因为公众才是(shì)最终受(shòu)益与否的对(duì)象(xiàng)。
另一(yī)方面,在人工智(zhì)能领域取得进步(bù)需要(yào)一段时(shí)间才能(néng)实(shí)现(xiàn),但这也不会让人(rén)工智能(néng)变成(chéng)科(kē)幻小说。