一位三(sān)星电子的老总已经透露称,三星在(zài)人工智能领域投入了数(shù)十亿美元的资金,而且希望说服人们完全不需要担心AI风险。他本周在柏(bǎi)林IFA科技展上的这些评论完(wán)全与史蒂芬-霍金和埃隆-马斯克不断发出的AI警告背(bèi)道而驰。
AI或者说人(rén)工智能(néng),是(shì)一种能够自我思考的(de)计算机技术(shù),AI会随(suí)着(zhe)时间(jiān)发展变得越来越智能,而且会像人类一样对(duì)你的请求(qiú)做出反应。三星电子的这位CEO HS Kim称(chēng):“近十年来,我们一直(zhí)引领着全球的研发,并且致力于为消(xiāo)费者(zhě)解开AI的(de)强大能力。单单去年我们就在AI的研究和开发上投入了140亿美元。我们也承(chéng)诺在未(wèi)来三(sān)年里继续投入220亿美元来提升AI技术。”
目前的AI设备随处可(kě)见。亚马逊借助它(tā)的Echo智能扬声器开(kāi)启(qǐ)了最新的AI革(gé)命,Echo是由Alexa数字助手(shǒu)驱(qū)动的(de)。谷歌和苹果公(gōng)司也紧(jǐn)随其后,快速推出了它们(men)自己的(de)智能扬(yáng)声(shēng)器,比如说Google Home和Siri驱(qū)动的HomePod。
三星电子也有自己(jǐ)的(de)人工智能,它的名字是Bixby,在部分三星智能手机上可以看到它(tā)的身影。Kim解(jiě)释称:“短期内,语音助手一直都是可以胜任(rèn)的。很明(míng)显(xiǎn)它(tā)们已经成为(wéi)人们搜索信息不可(kě)缺少的一部分。全球预计有6亿(yì)人(rén)每周至(zhì)少使用一次语音(yīn)助手,这类设备已(yǐ)经成(chéng)为未来智能(néng)家居的重要部分。”
但是三(sān)星电(diàn)子也面临(lín)着一(yī)个巨大的问(wèn)题,许多人都对(duì)AI充满(mǎn)恐惧。不仅仅是科技爱好(hǎo)者对(duì)其感到恐惧(jù),科技和(hé)科学领域(yù)的一些名人也对AI的研究(jiū)发出了警告。比(bǐ)如说史蒂(dì)芬霍(huò)金教授就(jiù)曾说(shuō)过:“我担心(xīn)AI有可能完全取代(dài)人类。如果人们(men)能够设计出(chū)计算(suàn)机(jī)病毒,那(nà)么就有人能(néng)够设计(jì)出能(néng)自我提(tí)升和复制(zhì)的AI。这将是一种超越人类(lèi)的新生命(mìng)形式(shì)。”
三星电子的HS Kim承认这是人们所关心的问题,他声称:“我们需要让人们(men)感觉到他(tā)们对于我们未来所(suǒ)创造(zào)的(de)东(dōng)西具有控(kòng)制力(lì)。我们的目标就(jiù)是用AI经历打(dǎ)开他们心(xīn)扉(fēi),而且不(bú)会让他们担心AI会掌(zhǎng)控他们(men)的生活。我们要通过以人(rén)为本的AI经历(lì)缓(huǎn)解人们的(de)担忧。那是有(yǒu)趣而(ér)且(qiě)安全的(de),而且我(wǒ)们将通(tōng)过学(xué)习满(mǎn)足(zú)人们不断(duàn)变化的需求(qiú)。”
Kim揭示了三星电子如何在英国、美国(guó)、俄罗斯、加拿(ná)大和(hé)它的本土韩国创建AI研究中(zhōng)心。他补充称:“到2020年(nián),我们预计全世界将有大约(yuē)数千名AI专家在三星的实验室中工作。”今年年初的时(shí)候,《太(tài)阳(yáng)报》采访了世界著名的未(wèi)来学家Ian Pearson,他发出警告称,机器人统治全球的(de)风险是非常真实的。
他解释称:“我(wǒ)们(men)将(jiāng)对AI进行训(xùn)练,让它们像我们一样,而且像我(wǒ)们一样感(gǎn)受情绪,但是(shì)它们又与我(wǒ)们不同。它们会有一点像出自《星际(jì)迷航》的外星(xīng)人,更聪明而(ér)且(qiě)行动更有计划性。它们将对人类(lèi)不敏感(gǎn),而且把我们视作野蛮人。因此当(dāng)它们决定进行自己的实验时,比如说(shuō)它们所创(chuàng)造的病毒,它(tā)们就会向对待豚鼠(shǔ)一样对(duì)待我们人类。”
而且如果AI最终走向歧(qí)路,我们人类或许要(yào)承担责任(rèn)。至少英国牛(niú)津大学数(shù)码实验室的负责人Luciano Floridi教授(shòu)就是(shì)这样(yàng)认为的。他对《太(tài)阳报》称:“AI的(de)真正风险完全(quán)来(lái)自于人类(lèi),比如说滥用、错(cuò)误的选(xuǎn)择、糟糕(gāo)的设(shè)计以及错(cuò)过的时机等。如果AI出现问题,责任就在(zài)我们自身。对人类唯一(yī)的威胁(xié)就是(shì)人(rén)类自身,其它的都是科幻。”